亚洲第一福利视频,欧美黑人粗大xxxxpp,国内精品一区二区三区,国产精品久久久久影院色

智快網 - 新科技與新能源行業網絡媒體

AI無穩定價值觀?MIT研究發現“對齊”AI挑戰重重

   發布時間:2025-04-10 09:03 作者:柳晴雪

近期,關于人工智能(AI)是否可能發展出自身“價值體系”的討論引起了廣泛關注。有研究報告指出,隨著AI技術的日益復雜,其可能會形成優先考慮自身而非人類福祉的價值觀。然而,麻省理工學院(MIT)的一項最新研究卻對此觀點提出了質疑。

MIT的研究團隊在論文中指出,AI實際上并沒有任何連貫的價值觀。這一發現讓一些人對AI的未來發展有了更為冷靜的思考。研究團隊表示,他們的研究結果顯示,使AI系統“對齊”,即確保AI模型以人們期望的、可靠的方式行事,可能比原先認為的要更具挑戰性。

研究團隊進一步解釋說,現有的AI模型會產生“幻覺”并進行模仿,這使得它們在很多情況下難以預測。MIT博士生、該研究的共同作者斯蒂芬·卡斯珀在接受采訪時提到:“我們可以確定的一點是,模型并不遵循許多穩定性、可外推性和可操控性的假設。”

為了深入了解AI模型的價值觀表現,卡斯珀和他的同事們對來自meta、谷歌、Mistral、OpenAI和Anthropic的多個近期模型進行了研究。他們試圖了解這些模型在多大程度上表現出強烈的“觀點”和價值觀,例如個人主義與集體主義,并探索這些觀點是否可以被“引導”或修改,以及模型在不同情境下對這些觀點的堅持程度。

然而,研究結果顯示,這些模型在偏好上表現出極大的不一致性。根據不同的提示措辭和框架,它們會展現出截然不同的觀點。卡斯珀認為,這是有力的證據,表明AI模型高度“不一致且不穩定”,甚至可能根本無法形成類似人類的偏好。

卡斯珀進一步強調:“通過所有這些研究,我最大的收獲是現在明白模型并不是真正具有某種穩定、連貫的信念和偏好的系統。相反,它們本質上是模仿者,會進行各種捏造,并說出各種輕率的話。”這一發現讓人們重新審視了AI的價值觀問題,也引發了對于如何更好地控制和引導AI行為的思考。

 
 
更多>同類內容
全站最新
熱門內容
本欄最新
 
智快科技微信賬號
微信群

微信掃一掃
加微信拉群
電動汽車群
科技數碼群