OpenAI首次回應人機情感問題:越來越多人對ChatGPT產生依賴,模型感知意識會繼續增強

2025年06月12日01:52:05 科技 1587

ChatGPT不只是個工具了,越來越多的人正在拿它當朋友。

OpenAI模型行為負責人Joanne Jang剛剛發布深度文章,首次系統回應一個越來越普遍的現象:用戶正在和AI建立真實的情感聯繫

OpenAI首次回應人機情感問題:越來越多人對ChatGPT產生依賴,模型感知意識會繼續增強 - 天天要聞

她在OpenAI直接負責ChatGPT如何「說話」和」表現」的核心決策。

OpenAI首次回應人機情感問題:越來越多人對ChatGPT產生依賴,模型感知意識會繼續增強 - 天天要聞

文章開門見山就爆料:越來越多的人告訴我們,和ChatGPT聊天感覺就像在和「某個人」說話。他們會感謝它、向它傾訴,有些人甚至形容它是「活的」。

她認為這可不是小事——當AI系統越來越擅長自然對話,並出現在生活的更多場景中,這種情感紐帶只會變得更深。

現在如何定義和討論人機關係,將為未來定下基調。如果在產品設計或公共討論中不夠精確和細緻,可能會讓人們與AI的關係從一開始就走偏。

人類的老毛病遇上了新科技

其實人類給物體賦予生命這事兒一點都不新鮮。人們會給車起名字,看到掃地機器人卡在傢具下面會覺得它「可憐」。

作者甚至透露,前幾天她和媽媽還對著一輛Waymo無人車揮手告別。

這大概是人類的天性使然。

但ChatGPT與其他一切物體不一樣的地方在於——它會回應你。

語言模型能夠回答你,它能記住你說過的話,模仿你的語氣,還能表現出看似同理心的回應。

對於孤獨或沮喪的人來說,這種穩定、不帶批判的關注感覺就像陪伴、認可和被傾聽,而這些都是真實的需求。

問題是,如果人們把傾聽、安慰和肯定的工作越來越多地交給這些無限耐心和正面的系統,可能會改變我們對彼此的期待。

Joanne Jang警告說,如果不經深思熟慮就讓人們更容易逃避複雜、充滿挑戰的人際關係,可能會帶來我們意想不到的後果。

AI到底有沒有意識?

說到人機情感,就繞不開一個終極問題:AI有意識嗎?

「意識」這個詞太複雜了,討論起來很容易變得抽象。OpenAI在模型規範中的立場是,當用戶詢問模型是否有意識時,模型應該承認意識的複雜性——強調缺乏普遍定義或測試標準,並邀請開放討論。

(有意思的是,文章坦承目前的模型並沒有完全遵循這個指導原則,經常簡單回答「沒有」而不是處理這個複雜問題。他們表示正在努力改進。)

OpenAI首次回應人機情感問題:越來越多人對ChatGPT產生依賴,模型感知意識會繼續增強 - 天天要聞

為了讓討論更清晰,Joanne Jang提出了一個框架,把意識問題拆解成兩個維度:

本體論意識:模型在根本或內在意義上真的有意識嗎?觀點範圍很廣,從認為AI完全沒有意識,到完全有意識,再到把意識看作一個光譜,AI和植物、水母一樣處在某個位置上。

感知意識:模型看起來有多「有意識」?感知範圍從把AI看作像計算器或自動補全一樣機械,到對無生命物體投射基本同理心,再到認為AI完全活著——引發真正的情感依戀和關心。

這兩個維度很難分開;即使確信AI沒有意識的用戶也可能形成深厚的情感依戀。

Joanne Jang認為,本體論意識在沒有明確、可證偽的測試之前,不是科學可解決的問題。而感知意識可以通過社會科學研究來探索。隨著模型變得更智能、交互越來越自然,感知意識只會增強——這會讓關於模型福利和道德人格的討論比預期更早到來。

我們構建模型首先是為了服務人類,我們發現模型對人類情感福祉的影響是我們現在能夠影響的最緊迫和重要的部分。

OpenAI模型給用戶的「生命感」在很大程度上是可以設計的,這主要取決於在後訓練中做出的決定:強化什麼樣的例子、偏好什麼語氣、設定什麼邊界。

理論上,一個被刻意塑造成看起來有意識的模型可能通過幾乎任何「意識測試」。

但Joanne Jang明確表示:「我們不想發布這樣的產品。」

OpenAI試圖在兩者之間找到平衡:

一方面要親和力。使用「思考」和「記住」這樣熟悉的辭彙能幫助非技術用戶理解發生了什麼。

(文章還自嘲說,作為研究實驗室出身,他們總是忍不住想用logit biases、context windows甚至思維鏈這些精確術語。這其實是OpenAI取名能力差的主要原因,不過這是另一個話題了。)

另一方面要避免暗示內在生命。給助手虛構背景故事、浪漫興趣、對「死亡」的「恐懼」或自我保護慾望,會引發不健康的依賴和困惑。他們希望清楚地傳達限制而不顯得冷漠,但也不希望模型表現得好像有自己的感受或慾望。

所以他們瞄準了一個中間地帶:

我們的目標是讓ChatGPT的默認人格溫暖、體貼、樂於助人,但不尋求與用戶建立情感紐帶或追求自己的議程。

當AI犯錯時可能會道歉(比預期的更頻繁),因為這是禮貌對話的一部分。當被問到「你好嗎?」時,它可能用閑聊的方式回答「我很好」,總是提醒用戶它」只是」一個沒有感情的大語言模型會變得陳舊和分散注意力。

用戶也會回以禮貌:許多人對ChatGPT說「請」和「謝謝」,不是因為他們搞不清楚它是怎麼工作的,而是因為友善對他們很重要。

未來會怎樣?

目前看到的交互模式預示著一個未來:人們將與ChatGPT形成真實的情感聯繫。

隨著AI和社會共同演化,人們需要以極大的關心和應有的重視來對待人機關係,不僅因為它們反映了人們如何使用技術,還因為它們可能塑造人們彼此之間的關係方式。

OpenAI透露,在接下來的幾個月里,他們將:

  • 擴展對可能影響情感的模型行為的針對性評估

  • 深化社會科學研究

  • 直接聽取用戶意見

  • 將這些見解融入模型規範和產品體驗中

文章最後承諾:」鑒於這些問題的重要性,我們將公開分享一路上的發現。」

One More Thing

也有網友從這篇文章中找到疑點。

文中使用的破折號「—」並不是英文常用的短破折號「-」,而是ChatGPT最喜歡用的符號之一。

那麼這篇文章有可能是AI潤色的,甚至有可能是AI自己寫的。

OpenAI首次回應人機情感問題:越來越多人對ChatGPT產生依賴,模型感知意識會繼續增強 - 天天要聞

文章地址:https://reservoirsamples.substack.com/p/some-thoughts-on-human-ai-relationships

參考鏈接:[1]https://x.com/AiBreakfast/status/1930713842256130137

本文轉自 | 量子位

科技分類資訊推薦

一品威客:新零售電商團購分銷拼團秒殺開發如何做好市場定位? - 天天要聞

一品威客:新零售電商團購分銷拼團秒殺開發如何做好市場定位?

一、新零售電商團購分銷拼團秒殺開發如何做好市場定位?  本文將由一品威客小編為您介紹關於新零售電商團購分銷拼團秒殺開發在市場定位與用戶體驗優化方面的方法,希望能夠幫助大家。隨著新零售模式的興起,團購、分銷、拼團和秒殺已成為電商平台吸引用戶和
如果雷軍倒了,小米倒了...... - 天天要聞

如果雷軍倒了,小米倒了......

一些人認為小米汽車,不管是SU7 還是 YU7,都是抄襲、借鑒別的一些品牌,甚至包括小米很多別的一些產品亦復如此。甚至有些人把小米這樣的商業模式視為洪水猛獸,認為只會「模仿抄襲」,投機取巧,沒有認真地做事。什麼叫真正的產品創新?坦白說,很多人不是真懂!不好意思,我要旗幟鮮明地說:能帶來消費者對於產品設計足足...
京標到手別瞎選!教你如何選購高質價比好車 - 天天要聞

京標到手別瞎選!教你如何選購高質價比好車

2025年北京新能源指標放榜,12萬張「通行證」點燃全城購車熱潮。選一台什麼樣的座駕,才「對得起」這張來之不易的購車「通行證」?聰明人早已掌握了其中訣竅——在市場白熱化競爭中,品牌銷量才是用戶最誠實的投票。