Claude与人类共著论文指出其三大关键缺陷

2025年06月15日13:12:05 科技 1225



几天前,苹果一篇《 思考的错觉 》论文吸睛无数又争议不断,其中研究了当今“推理模型”究竟真正能否“推理”的问题,而这里的结论是否定的。


论文中写到:“我们的研究表明,最先进的 LRM(例如 o3-mini、DeepSeek-R1、Claude-3.7-Sonnet-Thinking)仍然未能发展出可泛化的解决问题能力 —— 在不同环境中,当达到一定复杂度时,准确度最终会崩溃至零。”


不过,这篇论文的研究方法也受到了不少质疑,比如我们的一位读者就认为“给数学题题干加无关内容,发现大模型更容易答错,而质疑大模型不会推理”的做法并不十分合理。


著名 LLM 唱衰者 Gary Marcus 也发文指出这项研究的缺点,并再次批评 LLM。总结起来,他的意见有 7 点:


Claude与人类共著论文指出其三大关键缺陷 - 天天要闻

https://garymarcus.substack.com/p/seven-replies-to-the-viral-apple


  1. 人类在处理复杂问题和记忆需求方面存在困难。

  2. 大型推理模型 (LRM) 不可能解决这个问题,因为输出需要太多的输出 token

  3. 这篇论文是由一名实习生撰写的。

  4. 更大的模型可能表现更好。

  5. 这些系统可以用代码解决这些难题。

  6. 这篇论文只有四个例子,其中至少有一个(汉诺塔)并不完美。

  7. 这篇论文并不新鲜;我们已经知道这些模型的泛化能力很差。


更多详情可参阅报道《 Claude与人类共著论文指出其三大关键缺陷 - 天天要闻

https://x.com/lxrjl/status/1932499153596149875


所以,这其实是一篇 AI 与人类合著 的论文,并且 AI 还是第一作者


Claude与人类共著论文指出其三大关键缺陷 - 天天要闻


  • 论文标题:The Illusion of the Illusion of Thinking

  • 论文地址:https://arxiv.org/pdf/2506.09250v1


下面我们就来看看这篇评论性论文的具体内容。


1 引言


Shojaee et al. (2025) 声称通过对规划难题的系统评估,发现了大型推理模型(LRM)的根本局限性。他们的核心发现对 AI 推理研究具有重要意义,即: 在超过某些复杂度阈值后,模型准确度会“崩溃”为零


然而,我们的分析表明,这些明显的失败源于实验设计的选择,而非模型固有的局限性。


2 模型能识别输出约束


苹果的原始研究中忽略了一个关键观察结果: 模型在接近输出极限时能够主动识别 。 用户 @scaling01 最近进行了一项复现研究,表明在进行汉诺塔实验时,模型会显式地陈述“这种模式仍在继续,但为了避免内容过长,我将在此停止”。这表明模型其实已经理解了该问题的求解模式,但会由于实际限制而选择截断输出。


Claude与人类共著论文指出其三大关键缺陷 - 天天要闻

https://x.com/scaling01/status/1931817022926839909


这种将模型行为错误地描述为“推理崩溃”的行为反映了自动化评估系统的一个更广泛的问题,即 未能考虑模型的感知和决策 。当评估框架无法区分“无法解决”和“选择不进行详尽列举”时,它们可能会错误评估模型的基本能力。


2.1 僵化评估的后果


这种评估限制可能导致其他分析错误。考虑以下统计论证:如果我们逐个字符地对汉诺塔的解进行评分,而不允许纠错,那么完美执行的概率将变为:


Claude与人类共著论文指出其三大关键缺陷 - 天天要闻


其中 p 表示每个 token 的准确度,T 表示 token 总数。如果 T = 10,000 个 token,则有:


  • p = 0.9999: P (success) < 37%

  • p = 0.999: P (success) < 0.005%


实际上,已有文献《Faith and fate: Limits of transformers on compositionality》提出,这类“统计必然性”是 LLM scaling 的一个基本限制,但它假设模型无法识别并适应自身的局限性,而这一假设与上述证据相悖。


3 不可能解答的难题


在“过河”实验中,评估问题大幅复杂化。Shojaee et al. 测试了有 N ≥ 6 个参与者 / 主体的实例,但使用的船的容量只有 b = 3。然而,研究界已经公认:传教士 - 食人族谜题(及其变体)在 N > 5 且 b = 3 时无解,详见论文《River Crossing Problems: Algebraic Approach》,arXiv:1802.09369。


由于苹果研究者自动将这些不可能的实例计为失败,就无意中暴露了纯程序化评估的弊端。 模型获得零分并非因为推理失败,而是因为正确识别了不可解的问题 —— 这相当于惩罚 SAT 求解器,因为该程序对不可满足的公式返回了“不可满足”。


4 物理 token 限制导致明显崩溃


回到汉诺塔分析,我们可以量化问题规模与 token 需求之间的关系。


Claude与人类共著论文指出其三大关键缺陷 - 天天要闻

汉诺塔游戏规则:将所有圆盘从起始柱按大小顺序完整移动到目标柱,且每次只能移动一个圆盘,且大圆盘不能叠在小圆盘上。


苹果研究者的评估格式要求在每一步输出完整的移动序列,从而导致 token 数量呈二次方增长。如果序列中每一步大约需要 5 个 token:


Claude与人类共著论文指出其三大关键缺陷 - 天天要闻


考虑到分配的 token 预算(Claude-3.7-Sonnet 和 DeepSeek-R1 为 64,000 个,o3-mini 为 100,000 个),则最大可解规模为:


Claude与人类共著论文指出其三大关键缺陷 - 天天要闻


原始论文报告的超出这些规模的所谓“崩溃”与这些约束一致。


5 使用另一种表示来恢复性能


为了检验模型失败能否反映推理限制或格式限制,这位 AI 作者与 Alex Lawsen 使用了不同的表示方法,初步测试了相同的模型在 N = 15 的汉诺塔上的表现:


Claude与人类共著论文指出其三大关键缺陷 - 天天要闻


提示词:求解有 15 个圆盘的汉诺塔问题。输出一个被调用时会 print 答案的 Lua 函数。


结果:所有被测模型(Claude-3.7-Sonnet、Claude Opus 4、OpenAI o3、Google Gemini 2.5)的准确度都非常高,且使用的 token 数都不到 5000。


下面展示了 用户 @janekm 分享的一次测试结果


Claude与人类共著论文指出其三大关键缺陷 - 天天要闻

https://x.com/janekm/status/1933481060416799047


6 重新评估原始论文的复杂性主张


苹果的作者使用了“组合深度(compositional depth)”(最小步数)作为复杂度指标,但这 其实将机械执行与问题求解难度混为一谈了


Claude与人类共著论文指出其三大关键缺陷 - 天天要闻

问题的复杂度不仅仅由解答的长度决定


汉诺塔虽然需要指数级数量的步数,但每步的决策过程都很简单,为 O (1)。过河问题步数少得多,但需要满足复杂的约束条件并进行搜索。这解释了为什么模型可能有能力完成 100 步以上的汉诺塔,却无法解决 5 步的过河问题。


7 总结


Shojaee et al. 的结果只能表明, 模型输出的 token 数量无法超过其上下文限制,程序化评估可能会同时遗漏模型能力极限和难题的不可解性,并且解答长度无法准确预测问题的难度。这些都是宝贵的 工程见解,但 它们并不支持关于基本推理局限性的论断


未来的研究应该:


  • 设计能够区分推理能力和输出约束的评估方法;

  • 在评估模型性能之前验证难题的可解性;

  • 使用能够反映计算难度而非仅仅反映解答长度的复杂度指标;

  • 考虑多种解答表示,以区分算法理解和执行。


问题不在于大型推理模型(LRM)能否推理,而在于我们的评估方法能否区分推理和文本生成。


网友怎么看?


同样,这篇论文也吸引了不少眼球,并且基本都是好评。


Claude与人类共著论文指出其三大关键缺陷 - 天天要闻

https://x.com/janekm/status/1933481060416799047


有读者打听了这两位作者的合作模式 —— 其实就是聊天。


Claude与人类共著论文指出其三大关键缺陷 - 天天要闻

https://x.com/lxrjl/status/1932557168278188517


也许,我们可以将这篇论文称为 氛围论文(vibe paper) ,正如 CMU PhD Behnam Mohammadi 调侃的那样 :')


Claude与人类共著论文指出其三大关键缺陷 - 天天要闻

https://x.com/OrganicGPT/status/1932502854960366003


不过,反对意见当然也还是存在的。


Claude与人类共著论文指出其三大关键缺陷 - 天天要闻


对此,你怎么看?


科技分类资讯推荐

脑机接口新进展,将如何改变我们的生活? - 天天要闻

脑机接口新进展,将如何改变我们的生活?

大家有没有想过,未来有一天我们不用说话,只用大脑就能和外界交流;不用动手,仅凭意念就能操控各种设备。这可不是科幻电影里的情节,随着脑机接口技术的不断发展,这些场景正一步步走向现实。脑机接口,简单来说,就是在大脑和外部设备之间建立直接的连接通
谷歌 Pixel 10 系列 4 款机型颜色和存储阵容曝光 - 天天要闻

谷歌 Pixel 10 系列 4 款机型颜色和存储阵容曝光

IT之家 7 月 8 日消息,科技媒体 Droid-life 昨日(7 月 7 日)发布博文,报道称从分销商处获悉,谷歌 Pixel 10 系列手机将从 128GB 存储起步,并透露了颜色和存储阵容。IT之家援引博文介绍,附上谷歌 Pixel 10 系列四款机型的存储和颜色阵容如下:Pixel 10:曜石黑(Obsidian):128G / 256GB霜(F
罗马仕一充电宝突然爆炸:不是召回型号 - 天天要闻

罗马仕一充电宝突然爆炸:不是召回型号

7月8日,据媒体报道,昨日有网友发布一段办公室监控视频称,其同事去年买的罗马仕充电宝在办公室充电时又爆炸了,并且还不是召回型号。 据此前报道,罗马仕于6月16日宣布,召回2023年6月5日....
vivo Y04e配置曝光:天玑T612处理器+5500mAh电池 - 天天要闻

vivo Y04e配置曝光:天玑T612处理器+5500mAh电池

【CNMO科技消息】近日,有外媒报道,还未发布的vivo Y04e的身影出现在Google Play控制台的数据库中,一同出现的还有Y04e的性能信息。vivo Y04e根据Google Play控制台披露的信息,vivo Y04e搭载了紫
新能源汽车系统更新指南:新功能抢先体验 - 天天要闻

新能源汽车系统更新指南:新功能抢先体验

你是否遇到过这样的情况,开着新能源汽车,总觉得有些功能不够顺手,或者缺少一些新的体验?其实,很多时候系统更新就能解决这些问题。就拿最近热门的新能源汽车系统更新来说,这就像是给车子来了一次“升级大改造”,能让驾驶体验直接上一个台阶。
小米Q2以微弱优势胜出,vivo紧随其后,华为第四 - 天天要闻

小米Q2以微弱优势胜出,vivo紧随其后,华为第四

相信这几天大家都在等三大数据公司的调研报告,无论是全球还是国内的行业都非常感兴趣。毕竟现在是一个销量为王的时代,无论什么级别的产品放到市场中就可以了。在三大数据公司报告出来之前我们先来看一个国内的报告。
续航破800里!这3款长续航电动车,极速100km/h,适合跑长途车主 - 天天要闻

续航破800里!这3款长续航电动车,极速100km/h,适合跑长途车主

在选购电动车的时候,很多车主需要远续航的车型,这样才能够跑长途,比如外卖小哥每天的续航里程要超过100公里,那么,选择哪种电动车更合适呢?行内人为大家分享了三款长续航电动车,最高时速超过100km/h,续航里程突破800里,比较适合跑长途的车主,一起来了解一下