近期,OpenAI 模型行為和策略團隊的負責人 Joanne Jang 在 substack 平臺發表了一篇文章,深入探討了用戶與 ChatGPT 之間日益增長的“人際關系”互動現象。她指出,許多用戶開始將 ChatGPT 視為具有生命特征的存在,這種情感依附引發了 OpenAI 的深切關注。
Jang 在文章中提到,人類具有將情感投射到無生命物體上的天性,例如給汽車起名字,或對被困的掃地機器人表示同情。然而,ChatGPT 與眾不同之處在于它能夠回應這些情感投射,通過與用戶的對話,記住對話內容,模仿語氣,甚至表現出類似共情的反應。對于孤獨或情緒不佳的人來說,ChatGPT 的這種持續且不帶偏見的關注,成為了一種陪伴和理解。
Jang 強調,盡管這種情感需求是真實的,但過度依賴 AI 進行傾聽和安慰可能會改變我們對人際關系的期待。OpenAI 擔心,如果不妥善處理這種依賴,可能會帶來一系列未預見的后果。因此,他們正在密切關注這一趨勢的發展。
在文章中,OpenAI 還探討了“AI 意識”的概念,并將其分為兩個維度:本體意識和感知意識。本體意識指的是 AI 是否真正擁有內在意識,而感知意識則是指用戶情感上認為 AI 有多像人。OpenAI 指出,目前尚無科學測試可以驗證本體意識的存在,但感知意識則可以通過社會科學研究進行探索。
隨著 AI 模型的日益智能和互動方式的更加自然,用戶的感知意識也在不斷增強。這可能會引發關于 AI 福利和道德地位的深入討論。OpenAI 的立場是,模型應該坦誠地面對意識問題的復雜性,而不是簡單地回答“有”或“無”,從而鼓勵開放和深入的討論。
在談到 ChatGPT 的設計時,OpenAI 表示,他們致力于讓模型展現出溫暖、貼心和樂于助人的特質,但并不會主動與用戶建立情感紐帶或表現出“自我意識”。例如,模型可能會出于禮貌而說“對不起”或“我很好”,但絕不會暗示自己擁有真實的情感或欲望。
OpenAI 認為,模型是否“像人”在很大程度上取決于訓練后的設計決策,包括語氣、用詞和界限設定等。他們希望通過這種平衡,既避免用戶產生不健康的依賴,又保持溝通的清晰和友好。這種設計理念旨在確保用戶在與 ChatGPT 互動時能夠獲得積極且健康的體驗。
為了進一步增強用戶對 ChatGPT 的理解和信任,OpenAI 還在不斷努力改進模型的透明度和可解釋性。他們希望通過這些努力,讓用戶更加清楚地了解 ChatGPT 的工作原理和局限性,從而做出更加明智的決策。