近期,科技界對AI搜索工具的表現引發了廣泛關注。據科技媒體theregister報道,盡管AI搜索工具如Perplexity曾一度被視為傳統搜索引擎的有力競爭者,其搜索結果在精確度上甚至超越了谷歌,但近期的版本更新卻使得這些工具的搜索質量出現了下滑。
這一問題并非Perplexity所獨有,其他主流的AI搜索工具同樣存在類似的問題。theregister認為,AI搜索質量下降的根本原因在于“模型崩潰”。這一現象指的是AI系統由于過度依賴自身輸出的數據進行訓練,導致其準確性、多樣性和可靠性逐漸喪失。模型崩潰主要由三個因素導致:錯誤累積、稀有數據丟失以及反饋循環。
錯誤累積意味著每一代AI模型都會繼承并放大前代模型的缺陷,導致問題不斷累積,難以解決。稀有數據丟失則使得一些罕見事件和概念在AI模型的訓練中逐漸被淡化,導致模型在處理這些事件和概念時表現不佳。而反饋循環則強化了AI模型的狹窄模式,導致輸出結果重復或帶有偏見。
為了提升AI的表現,業界引入了檢索增強生成(RAG)技術,使大型語言模型(LLMs)能夠從外部數據庫提取信息,以減少“幻覺”現象的發生。然而,彭博社的研究卻發現,即使采用了RAG技術,包括GPT-4o、Claude-3.5-Sonnet等在內的11個領先模型在處理5000多個有害提示時,仍然會輸出錯誤結果。
更糟糕的是,RAG技術的引入還帶來了其他風險。例如,它可能泄露客戶的隱私數據,生成誤導性的市場分析及偏見投資建議。這些問題無疑進一步加劇了AI搜索工具所面臨的信任危機。
AI模型崩潰的后果正在逐漸顯現。由于用戶和企業為了追求效率,越來越傾向于依賴AI生成的內容,而不是投入人力創作高質量的內容,這導致了“垃圾輸入、垃圾輸出”(Garbage In / Garbage Out,GIGO)現象的普遍存在。從學生作業到偽造科研論文,甚至虛構小說,AI的濫用正在各個領域造成不良影響。
AI模型崩潰還可能導致一些更嚴重的后果。例如,在醫療、金融等關鍵領域,如果AI搜索工具無法提供準確可靠的信息,可能會導致誤診、金融欺詐等嚴重后果。因此,業界需要高度重視AI模型崩潰的問題,采取有效措施加以解決。
為了應對AI模型崩潰的挑戰,業界正在積極探索新的解決方案。例如,一些研究人員正在嘗試通過引入更多的外部數據和監督訓練來提高AI模型的準確性和可靠性。同時,也有學者提出,應該加強對AI模型的監管和評估,確保其在實際應用中的表現符合預期。
總之,AI搜索工具的發展仍然面臨諸多挑戰和問題。盡管這些工具在某些方面表現出色,但在實際應用中仍然存在諸多不足和缺陷。因此,我們需要保持對AI技術的審慎態度,不斷探索和完善其應用方式和方法。