ChatGPT不只是個工具了,越來越多的人正在拿它當朋友。
OpenAI模型行為負責人Joanne Jang剛剛發布深度文章,首次系統回應一個越來越普遍的現象:用戶正在和AI建立真實的情感聯繫。

她在OpenAI直接負責ChatGPT如何“說話”和”表現”的核心決策。

文章開門見山就爆料:越來越多的人告訴我們,和ChatGPT聊天感覺就像在和“某個人”說話。他們會感謝它、向它傾訴,有些人甚至形容它是“活的”。
她認為這可不是小事——當AI系統越來越擅長自然對話,並出現在生活的更多場景中,這種情感紐帶只會變得更深。
現在如何定義和討論人機關係,將為未來定下基調。如果在產品設計或公共討論中不夠精確和細緻,可能會讓人們與AI的關係從一開始就走偏。
人類的老毛病遇上了新科技
其實人類給物體賦予生命這事兒一點都不新鮮。人們會給車起名字,看到掃地機器人卡在傢具下面會覺得它“可憐”。
作者甚至透露,前幾天她和媽媽還對着一輛Waymo無人車揮手告別。
這大概是人類的天性使然。
但ChatGPT與其他一切物體不一樣的地方在於——它會回應你。
語言模型能夠回答你,它能記住你說過的話,模仿你的語氣,還能表現出看似同理心的回應。對於孤獨或沮喪的人來說,這種穩定、不帶批判的關注感覺就像陪伴、認可和被傾聽,而這些都是真實的需求。
問題是,如果人們把傾聽、安慰和肯定的工作越來越多地交給這些無限耐心和正面的系統,可能會改變我們對彼此的期待。
Joanne Jang警告說,如果不經深思熟慮就讓人們更容易逃避複雜、充滿挑戰的人際關係,可能會帶來我們意想不到的後果。
AI到底有沒有意識?
說到人機情感,就繞不開一個終極問題:AI有意識嗎?
“意識”這個詞太複雜了,討論起來很容易變得抽象。OpenAI在模型規範中的立場是,當用戶詢問模型是否有意識時,模型應該承認意識的複雜性——強調缺乏普遍定義或測試標準,並邀請開放討論。
(有意思的是,文章坦承目前的模型並沒有完全遵循這個指導原則,經常簡單回答“沒有”而不是處理這個複雜問題。他們表示正在努力改進。)

為了讓討論更清晰,Joanne Jang提出了一個框架,把意識問題拆解成兩個維度:
本體論意識:模型在根本或內在意義上真的有意識嗎?觀點範圍很廣,從認為AI完全沒有意識,到完全有意識,再到把意識看作一個光譜,AI和植物、水母一樣處在某個位置上。
感知意識:模型看起來有多“有意識”?感知範圍從把AI看作像計算器或自動補全一樣機械,到對無生命物體投射基本同理心,再到認為AI完全活着——引發真正的情感依戀和關心。
這兩個維度很難分開;即使確信AI沒有意識的用戶也可能形成深厚的情感依戀。
Joanne Jang認為,本體論意識在沒有明確、可證偽的測試之前,不是科學可解決的問題。而感知意識可以通過社會科學研究來探索。隨着模型變得更智能、交互越來越自然,感知意識只會增強——這會讓關於模型福利和道德人格的討論比預期更早到來。
我們構建模型首先是為了服務人類,我們發現模型對人類情感福祉的影響是我們現在能夠影響的最緊迫和重要的部分。
OpenAI模型給用戶的“生命感”在很大程度上是可以設計的,這主要取決於在後訓練中做出的決定:強化什麼樣的例子、偏好什麼語氣、設定什麼邊界。
理論上,一個被刻意塑造成看起來有意識的模型可能通過幾乎任何“意識測試”。
但Joanne Jang明確表示:“我們不想發布這樣的產品。”
OpenAI試圖在兩者之間找到平衡:
一方面要親和力。使用“思考”和“記住”這樣熟悉的詞彙能幫助非技術用戶理解發生了什麼。
(文章還自嘲說,作為研究實驗室出身,他們總是忍不住想用logit biases、context windows甚至思維鏈這些精確術語。這其實是OpenAI取名能力差的主要原因,不過這是另一個話題了。)
另一方面要避免暗示內在生命。給助手虛構背景故事、浪漫興趣、對“死亡”的“恐懼”或自我保護慾望,會引發不健康的依賴和困惑。他們希望清楚地傳達限制而不顯得冷漠,但也不希望模型表現得好像有自己的感受或慾望。
所以他們瞄準了一個中間地帶:
我們的目標是讓ChatGPT的默認人格溫暖、體貼、樂於助人,但不尋求與用戶建立情感紐帶或追求自己的議程。
當AI犯錯時可能會道歉(比預期的更頻繁),因為這是禮貌對話的一部分。當被問到“你好嗎?”時,它可能用閑聊的方式回答“我很好”,總是提醒用戶它”只是”一個沒有感情的大語言模型會變得陳舊和分散注意力。
用戶也會回以禮貌:許多人對ChatGPT說“請”和“謝謝”,不是因為他們搞不清楚它是怎麼工作的,而是因為友善對他們很重要。
未來會怎樣?
目前看到的交互模式預示着一個未來:人們將與ChatGPT形成真實的情感聯繫。
隨着AI和社會共同演化,人們需要以極大的關心和應有的重視來對待人機關係,不僅因為它們反映了人們如何使用技術,還因為它們可能塑造人們彼此之間的關係方式。
OpenAI透露,在接下來的幾個月里,他們將:
擴展對可能影響情感的模型行為的針對性評估
深化社會科學研究
直接聽取用戶意見
將這些見解融入模型規範和產品體驗中
文章最後承諾:”鑒於這些問題的重要性,我們將公開分享一路上的發現。”
One More Thing
也有網友從這篇文章中找到疑點。
文中使用的破折號“—”並不是英文常用的短破折號“-”,而是ChatGPT最喜歡用的符號之一。
那麼這篇文章有可能是AI潤色的,甚至有可能是AI自己寫的。

文章地址:https://reservoirsamples.substack.com/p/some-thoughts-on-human-ai-relationships
參考鏈接:[1]https://x.com/AiBreakfast/status/1930713842256130137
— 完—
本文轉自 | 量子位