
(ilya sutskever榮譽博士授予儀式演講精彩片段)
6 月 28 日,以色列開放大學(open university)。
gpt-4 的核心締造者、前 openai 首席科學家 ilya sutskever,在榮譽博士學位授予儀式上,說出了最關鍵的一個洞察:
ai 將一代代地打造出比自己更強的ai。
就在三周前(6 月 6 日),他在多倫多大學畢業典禮上也提醒畢業生們:
ai 在某些任務上已超越人類,但還有很多事情做得很差。
離開 openai 後,sutskever 公開露面的次數不多,所以每次發聲都引發行業高度關注。他創辦的新公司 safe superintelligence inc.(ssi)不到8個月內融資 10 億美元,估值已升至 300 億。
但他的演講核心要點,不是模型有多強,而是兩件事:
能力通脹:ai 開始「自己造自己」,技術速度將甩開人類理解力; 可信差距:從推理到常識,當前 ai 還無法真正「理解你想要的」。
對我們而言,這不是遙遠的哲學問題,而是下一階段競爭的主戰場:
當參數大戰即將落幕,誰能掌握模型自進化的路徑? 個人和公司的競爭優勢,將變成'抽象思考能力 + 快速學習新變化'這套新規則。
接下來,我們以這次演講為起點,梳理 ilya 的完整觀點:他不是在講 ai 會對抗人類,而是在告誡——它不會等你。
第一節|他不是神童,而是「理解力型選手」
ilya sutskever 並不是人們印象中那種「天才少年」。
他沒有一開始就站在世界舞台的聚光燈下。他的成長背景,說出來甚至有些「 太普通」:出生在俄羅斯,五歲隨家人移民到以色列,成長於特拉維夫的郊區。
真正的轉折點,是他 13 歲那年,家人偶然發現了以色列開放大學這個「為成年人設計」的遠程學習項目。
「我從八年級開始在那裡上課,拿到了他們的教材。那些教材寫得非常清楚,我讀著讀著就理解了。」
對很多人來說,大學課程會顯得晦澀,但對 sutskever 而言,那卻是他第一次感受到思維被點亮的過程。
我清楚地記得那種感覺,就像人生被分成了兩段。
學會之前是一種狀態,學會之後完全不一樣了。
他不是那種看到什麼都能立刻明白的學生,但他發現了一種方法:只要足夠耐心地讀、一點點理解下去,就總能抓住背後的邏輯。
而這次「主動理解」的體驗,成為他後續所有技術思考的底層模型。
我變得非常自信。
只要我願意花時間,我相信我可以理解任何事。
從那時起,「理解」對他來說,不再只是成績或考試,而是一種力量——只要你能理解,就能創造。
他後來學習了數學和計算機科學,打下了非常紮實的理論基礎。但對他來說,這些不是知識的堆積,而是通往「理解機制」的入口。
等父母搬到加拿大後,他第一件事不是適應新學校,而是去了多倫多公共圖書館,專門找機器學習的書。
不是隨便看看,而是從一開始就在尋找一個問題的答案:
「強大的計算機可以下棋沒問題,但它們怎麼才能自己學會呢?」
這個問題聽起來簡單,實則隱藏了他一生追問的方向:不是讓機器做任務,而是讓機器理解任務。
後來,他如願以轉學生身份進入多倫多大學,並在那裡遇到了 geoffrey hinton——現代深度學習之父。
hinton 是推動神經網路復興的關鍵人物,而 sutskever 是那個 願意一直讀下去,直到真正理解的獨特學生。
所以,ilya sutskever 是少數真正從「哲學性好奇心」切入 ai 的技術領袖之一。
第二節|ai 會自我升級,但未必等你準備好
真正令人興奮的時刻,是 ai 開始遞歸地打造比自己更強的下一代 ai,
被稱為"intelligence explosion"(智能爆炸)。
這不是技術論壇上的預測,而是 ilya sutskever 在演講中說出的第一句話。
這句話背後的含義很清楚:
「ai 不再只是人類造出來的工具,而是一種會自己迭代、自己升級的自進化系統。」
它不再等著你去更新、去微調,而是開始主動創造更強版本的自己。
sutskever 用「遞歸」這個詞,不是為了炫技,而是因為他看到了一種很現實的趨勢:當 ai 能協助研究 ai,本質上就像是技術在開發技術,而這會帶來一個前所未有的速度加成。
過去,一項技術的進步需要靠人類投入時間、精力、實驗、對比、調優…… 但現在,如果模型可以幫你寫代碼、設計結構、生成訓練數據, 那下一代模型的「開發時間」,就會從數年壓縮到數周,甚至幾天。
這就是他擔心的地方——技術會跑得比人類理解速度還快。
我們需要認真對待這件事,
因為一旦 ai 能設計出更好的 ai,這個進程將幾乎無法控制。
而這種「遞歸自我改進」能力,不是未來式,而是現在進行時。
他沒有直接說哪家模型已經具備這個能力,但演講中透露的態度顯而易見:ai 的升級節奏已經快得不像是人類可以單獨駕馭的。
更重要的是,一旦多家公司開始競賽,問題就不只是技術風險,而是大家都被迫匆忙決定,來不及深思熟慮。
他說:
「如果多個團隊都在競相構建 agi(通用人工智慧),他們就會有更少的時間,去確保這個 ai 是『在乎人類』的。」
不是誰想冒險,而是競爭會讓每個參與者都無暇顧及「設定目標」這件事。
這就帶來一個最現實的問題:當 ai 自我升級的速度,超過我們設定邊界的速度,那人類還扮演著什麼角色?
他沒有給出答案,但你能感受到他語氣中的不安。
也是出於這種不安,他在離開 openai 後,聯合創辦了 safe superintelligence inc.(ssi),只專註一件事——打造「安全性優先」的下一代超級智能,而不是為了競賽。
第三節|它回答得快,卻聽不懂你
「今天的 ai,看起來很聰明,但它還做不到人類能做的一切。」
ilya sutskever 在演講中提到這一點。
他說,當下 ai 的最大問題不是不會回答,而是 回答得太像人了,讓我們錯以為它真的懂了。
這正是他口中的「理解力缺口」:
這些系統非常擅長給你一個合理、看起來對的答案,
但它並不知道你真正想要什麼。
比如你問一個 ai:「這份合同有沒有風險?」 它會列出五條「可能存在的問題」——用詞準確,語氣專業,看起來沒毛病。 但它並不知道你的真實語境,比如:
你是在爭取一個極限條款? 你只是想知道能不能先簽了再補協議? 你要的其實是一個「最小可接受方案」?
這些「前提」和「意圖」,它都沒理解。
它只是根據提示,在生成一個聽起來最像答案的回答。
sutskever 用最簡單的話指出這個核心風險:它不是在思考,它是在生成看起來像思考的內容。
換句話說,它在「裝懂」。
這就像你問一個人你怎麼想,他沒有真實想法,但用最熟練的口吻把網上的表達湊成一段順口的話。
你可能會被它騙到,但本質上——它什麼都沒理解。
更重要的是,這不是bug,而是它當前能力的本質限制。
在多倫多大學演講中,sutskever進一步從底層結構上解釋了這個問題:
人腦是生物計算機,所以數字計算機為什麼不能做同樣的事?
這是他一直堅持的技術方向:讓 ai 像人一樣擁有「通用能力」。 但他也清楚指出,目前的 ai 只是模擬出一個會說話的人,而不是一個真正「能理解你」的存在。
他的擔憂不止於此。他提出了一個更深層的問題:我們可能會把 ai 的語氣,當成它的態度;把它的表達,當成它的理解。
正如著名的科技媒體《business insider》對這場演講的評價所說:
ai 已經在某些任務上超越人類,但仍有許多事情做得很差,需要補很多課。
(ai still has so many things it can』t yet do as well,it must catch up on a lot.)
這句話點破了一個關鍵誤解:我們正在面對的,不是一個「無所不能」的智能體,而是一個在局部任務上表現優異、但缺乏真實理解的生成器。
而一旦我們信了,就容易把任務交給它、讓它代替我們決策——這是最危險的時刻。
因為 ai 可以讓你以為它「明白」,但它並不明白。
它不會像人類那樣糾結、質疑、反問、確認。
它只是回答得太順了。
這樣看來,'理解力'才是人類真正的關鍵優勢:
「如果我們不能讓 ai 真正理解我們想做什麼,那它再聰明也不值得託付。」
第四節|ai 不會惡意,但會忽視你
「我們並不討厭動物,我們喜歡它們、關心它們……但我們修高速公路時,並不會去問動物同不同意。」
這是最令人印象深刻的一句話。
他沒有用「毀滅人類」這樣的極端說法,也沒有製造「ai 會反叛」的戲劇衝突。相反,他用了一個非常日常、甚至溫和的比喻,來講明 ai 未來真正的危險之處:
不是敵意,而是 「忽視」。
他說,ai 如果擁有自己的目標,就像人類擁有修建高速公路的計劃,它會朝著這個目標前進,哪怕這個過程里,有人類被「無意中撞到」。
換句話說,ai 並不會「恨」我們,它只是不會特意繞開我們。
因為它壓根兒沒有考慮過我們是不是重要。
在他的設想里,第一代真正的 agi(通用人工智慧),可能會像「一整個數據中心那麼大」,運轉在封閉環境里,由上萬個晶元協同工作。
它們的任務可能是研發技術、執行規劃、優化決策,但這些任務的出發點,不是人類的感受,而是它自己被設置的目標函數。
這就引出了 sutskever 在演講中的另一個重點:
agi 最初的目標設定,會極大影響它未來的行為方式。
而現實是——人類可能沒有太多機會去參與這個目標的設定過程。
為什麼?
因為當不同團隊、不同國家在爭奪 agi 首發機會的時候,每一方都在追求「誰先完成」,而不是「誰設定得更合理」。
他提醒我們:這個目標一旦定下,就可能無法回頭。 它不是一個你可以「再改一次」的產品參數,而可能是 ai 未來行為的根基。
這也是他在演講最後反覆強調的底層邏輯:
ai 的風險,不是它是不是聽你的,而是「你有沒有機會對它說話」。
📌 本節三點遞進邏輯:
ai 不會主動傷害人類,但會像修路不顧動物一樣,忽略人類; 忽視的根本,是 ai 的目標不是人類,而是別的任務; 一旦目標設定由少數人決定,絕大多數人可能根本沒機會參與這場選擇。
結語|他說:「我並不悲觀,但我深深不安」
ilya sutskever 並不是在否定 ai,也沒有試圖嚇唬誰。
他說:
ai 會帶來驚人的醫療突破,延長壽命,解決很多難題。
那真的令人興奮。
但他說完這句話之後,立刻補了一句:如果它能做到這些,它也能做別的事情。所有我們想不到的事情。
這不是樂觀,也不是悲觀,而是一種足夠清醒的敬畏感。
他用不到 180 秒,提醒我們三個最容易被忽略的真相:
ai 不再等待我們升級它,它已經學會了自己變強; 它不是不聰明,而是還不理解我們真正想做什麼; 它不會攻擊我們,但也不一定會為我們停下來。
今天,當大模型競賽聚焦在算力和參數,很多人還在比「跑分」, 但 ilya 已經轉身盯住那個最難回答的問題:
「我們有沒有認真想過,我們要 ai 為誰服務?」
他的提醒,不是終點,而是開場。
真正的賽點,不在模型,而在人類是否能先理解自己。
📮 本文由ai深度研究院出品,內容翻譯整理自 ilya sutskever 榮譽博士學位授予儀式演講。未經授權,不得轉載。
排版:atlas
編輯:深思
主編:圖靈