
(ilya sutskever荣誉博士授予仪式演讲精彩片段)
6 月 28 日,以色列开放大学(open university)。
gpt-4 的核心缔造者、前 openai 首席科学家 ilya sutskever,在荣誉博士学位授予仪式上,说出了最关键的一个洞察:
ai 将一代代地打造出比自己更强的ai。
就在三周前(6 月 6 日),他在多伦多大学毕业典礼上也提醒毕业生们:
ai 在某些任务上已超越人类,但还有很多事情做得很差。
离开 openai 后,sutskever 公开露面的次数不多,所以每次发声都引发行业高度关注。他创办的新公司 safe superintelligence inc.(ssi)不到8个月内融资 10 亿美元,估值已升至 300 亿。
但他的演讲核心要点,不是模型有多强,而是两件事:
能力通胀:ai 开始“自己造自己”,技术速度将甩开人类理解力; 可信差距:从推理到常识,当前 ai 还无法真正“理解你想要的”。
对我们而言,这不是遥远的哲学问题,而是下一阶段竞争的主战场:
当参数大战即将落幕,谁能掌握模型自进化的路径? 个人和公司的竞争优势,将变成'抽象思考能力 + 快速学习新变化'这套新规则。
接下来,我们以这次演讲为起点,梳理 ilya 的完整观点:他不是在讲 ai 会对抗人类,而是在告诫——它不会等你。
第一节|他不是神童,而是“理解力型选手”
ilya sutskever 并不是人们印象中那种“天才少年”。
他没有一开始就站在世界舞台的聚光灯下。他的成长背景,说出来甚至有些“ 太普通”:出生在俄罗斯,五岁随家人移民到以色列,成长于特拉维夫的郊区。
真正的转折点,是他 13 岁那年,家人偶然发现了以色列开放大学这个“为成年人设计”的远程学习项目。
“我从八年级开始在那里上课,拿到了他们的教材。那些教材写得非常清楚,我读着读着就理解了。”
对很多人来说,大学课程会显得晦涩,但对 sutskever 而言,那却是他第一次感受到思维被点亮的过程。
我清楚地记得那种感觉,就像人生被分成了两段。
学会之前是一种状态,学会之后完全不一样了。
他不是那种看到什么都能立刻明白的学生,但他发现了一种方法:只要足够耐心地读、一点点理解下去,就总能抓住背后的逻辑。
而这次“主动理解”的体验,成为他后续所有技术思考的底层模型。
我变得非常自信。
只要我愿意花时间,我相信我可以理解任何事。
从那时起,“理解”对他来说,不再只是成绩或考试,而是一种力量——只要你能理解,就能创造。
他后来学习了数学和计算机科学,打下了非常扎实的理论基础。但对他来说,这些不是知识的堆积,而是通往“理解机制”的入口。
等父母搬到加拿大后,他第一件事不是适应新学校,而是去了多伦多公共图书馆,专门找机器学习的书。
不是随便看看,而是从一开始就在寻找一个问题的答案:
“强大的计算机可以下棋没问题,但它们怎么才能自己学会呢?”
这个问题听起来简单,实则隐藏了他一生追问的方向:不是让机器做任务,而是让机器理解任务。
后来,他如愿以转学生身份进入多伦多大学,并在那里遇到了 geoffrey hinton——现代深度学习之父。
hinton 是推动神经网络复兴的关键人物,而 sutskever 是那个 愿意一直读下去,直到真正理解的独特学生。
所以,ilya sutskever 是少数真正从“哲学性好奇心”切入 ai 的技术领袖之一。
第二节|ai 会自我升级,但未必等你准备好
真正令人兴奋的时刻,是 ai 开始递归地打造比自己更强的下一代 ai,
被称为"intelligence explosion"(智能爆炸)。
这不是技术论坛上的预测,而是 ilya sutskever 在演讲中说出的第一句话。
这句话背后的含义很清楚:
“ai 不再只是人类造出来的工具,而是一种会自己迭代、自己升级的自进化系统。”
它不再等着你去更新、去微调,而是开始主动创造更强版本的自己。
sutskever 用“递归”这个词,不是为了炫技,而是因为他看到了一种很现实的趋势:当 ai 能协助研究 ai,本质上就像是技术在开发技术,而这会带来一个前所未有的速度加成。
过去,一项技术的进步需要靠人类投入时间、精力、实验、对比、调优…… 但现在,如果模型可以帮你写代码、设计结构、生成训练数据, 那下一代模型的“开发时间”,就会从数年压缩到数周,甚至几天。
这就是他担心的地方——技术会跑得比人类理解速度还快。
我们需要认真对待这件事,
因为一旦 ai 能设计出更好的 ai,这个进程将几乎无法控制。
而这种“递归自我改进”能力,不是未来式,而是现在进行时。
他没有直接说哪家模型已经具备这个能力,但演讲中透露的态度显而易见:ai 的升级节奏已经快得不像是人类可以单独驾驭的。
更重要的是,一旦多家公司开始竞赛,问题就不只是技术风险,而是大家都被迫匆忙决定,来不及深思熟虑。
他说:
“如果多个团队都在竞相构建 agi(通用人工智能),他们就会有更少的时间,去确保这个 ai 是‘在乎人类’的。”
不是谁想冒险,而是竞争会让每个参与者都无暇顾及“设定目标”这件事。
这就带来一个最现实的问题:当 ai 自我升级的速度,超过我们设定边界的速度,那人类还扮演着什么角色?
他没有给出答案,但你能感受到他语气中的不安。
也是出于这种不安,他在离开 openai 后,联合创办了 safe superintelligence inc.(ssi),只专注一件事——打造“安全性优先”的下一代超级智能,而不是为了竞赛。
第三节|它回答得快,却听不懂你
“今天的 ai,看起来很聪明,但它还做不到人类能做的一切。”
ilya sutskever 在演讲中提到这一点。
他说,当下 ai 的最大问题不是不会回答,而是 回答得太像人了,让我们错以为它真的懂了。
这正是他口中的“理解力缺口”:
这些系统非常擅长给你一个合理、看起来对的答案,
但它并不知道你真正想要什么。
比如你问一个 ai:“这份合同有没有风险?” 它会列出五条“可能存在的问题”——用词准确,语气专业,看起来没毛病。 但它并不知道你的真实语境,比如:
你是在争取一个极限条款? 你只是想知道能不能先签了再补协议? 你要的其实是一个“最小可接受方案”?
这些“前提”和“意图”,它都没理解。
它只是根据提示,在生成一个听起来最像答案的回答。
sutskever 用最简单的话指出这个核心风险:它不是在思考,它是在生成看起来像思考的内容。
换句话说,它在“装懂”。
这就像你问一个人你怎么想,他没有真实想法,但用最熟练的口吻把网上的表达凑成一段顺口的话。
你可能会被它骗到,但本质上——它什么都没理解。
更重要的是,这不是bug,而是它当前能力的本质限制。
在多伦多大学演讲中,sutskever进一步从底层结构上解释了这个问题:
人脑是生物计算机,所以数字计算机为什么不能做同样的事?
这是他一直坚持的技术方向:让 ai 像人一样拥有“通用能力”。 但他也清楚指出,目前的 ai 只是模拟出一个会说话的人,而不是一个真正“能理解你”的存在。
他的担忧不止于此。他提出了一个更深层的问题:我们可能会把 ai 的语气,当成它的态度;把它的表达,当成它的理解。
正如著名的科技媒体《business insider》对这场演讲的评价所说:
ai 已经在某些任务上超越人类,但仍有许多事情做得很差,需要补很多课。
(ai still has so many things it can’t yet do as well,it must catch up on a lot.)
这句话点破了一个关键误解:我们正在面对的,不是一个“无所不能”的智能体,而是一个在局部任务上表现优异、但缺乏真实理解的生成器。
而一旦我们信了,就容易把任务交给它、让它代替我们决策——这是最危险的时刻。
因为 ai 可以让你以为它“明白”,但它并不明白。
它不会像人类那样纠结、质疑、反问、确认。
它只是回答得太顺了。
这样看来,'理解力'才是人类真正的关键优势:
“如果我们不能让 ai 真正理解我们想做什么,那它再聪明也不值得托付。”
第四节|ai 不会恶意,但会忽视你
“我们并不讨厌动物,我们喜欢它们、关心它们……但我们修高速公路时,并不会去问动物同不同意。”
这是最令人印象深刻的一句话。
他没有用“毁灭人类”这样的极端说法,也没有制造“ai 会反叛”的戏剧冲突。相反,他用了一个非常日常、甚至温和的比喻,来讲明 ai 未来真正的危险之处:
不是敌意,而是 “忽视”。
他说,ai 如果拥有自己的目标,就像人类拥有修建高速公路的计划,它会朝着这个目标前进,哪怕这个过程里,有人类被“无意中撞到”。
换句话说,ai 并不会“恨”我们,它只是不会特意绕开我们。
因为它压根儿没有考虑过我们是不是重要。
在他的设想里,第一代真正的 agi(通用人工智能),可能会像“一整个数据中心那么大”,运转在封闭环境里,由上万个芯片协同工作。
它们的任务可能是研发技术、执行规划、优化决策,但这些任务的出发点,不是人类的感受,而是它自己被设置的目标函数。
这就引出了 sutskever 在演讲中的另一个重点:
agi 最初的目标设定,会极大影响它未来的行为方式。
而现实是——人类可能没有太多机会去参与这个目标的设定过程。
为什么?
因为当不同团队、不同国家在争夺 agi 首发机会的时候,每一方都在追求“谁先完成”,而不是“谁设定得更合理”。
他提醒我们:这个目标一旦定下,就可能无法回头。 它不是一个你可以“再改一次”的产品参数,而可能是 ai 未来行为的根基。
这也是他在演讲最后反复强调的底层逻辑:
ai 的风险,不是它是不是听你的,而是“你有没有机会对它说话”。
📌 本节三点递进逻辑:
ai 不会主动伤害人类,但会像修路不顾动物一样,忽略人类; 忽视的根本,是 ai 的目标不是人类,而是别的任务; 一旦目标设定由少数人决定,绝大多数人可能根本没机会参与这场选择。
结语|他说:“我并不悲观,但我深深不安”
ilya sutskever 并不是在否定 ai,也没有试图吓唬谁。
他说:
ai 会带来惊人的医疗突破,延长寿命,解决很多难题。
那真的令人兴奋。
但他说完这句话之后,立刻补了一句:如果它能做到这些,它也能做别的事情。所有我们想不到的事情。
这不是乐观,也不是悲观,而是一种足够清醒的敬畏感。
他用不到 180 秒,提醒我们三个最容易被忽略的真相:
ai 不再等待我们升级它,它已经学会了自己变强; 它不是不聪明,而是还不理解我们真正想做什么; 它不会攻击我们,但也不一定会为我们停下来。
今天,当大模型竞赛聚焦在算力和参数,很多人还在比“跑分”, 但 ilya 已经转身盯住那个最难回答的问题:
“我们有没有认真想过,我们要 ai 为谁服务?”
他的提醒,不是终点,而是开场。
真正的赛点,不在模型,而在人类是否能先理解自己。
📮 本文由ai深度研究院出品,内容翻译整理自 ilya sutskever 荣誉博士学位授予仪式演讲。未经授权,不得转载。
排版:atlas
编辑:深思
主编:图灵