北大伯克利联手“拷问”大模型:最强Agent也才40分!新基准专治“不听话”的AI分析师

2025年06月10日14:40:34 科学 9673

北大邓小铁课题组 投稿

量子位 | 公众号 qbitai

给大模型当老师,让它一步步按你的想法做数据分析,有多难?

结果是,连claude-3.7和gemini-2.5 pro这样的顶尖选手,都开始“不听话”了。

在一个全新的测试基准中,它们面对多轮、不断演进的指令,最终的任务成功率最高仅有40%。

这项名为ida-bench的新基准,就是为了模拟真实世界中这种“边想边改”的分析场景而生。

北大伯克利联手“拷问”大模型:最强Agent也才40分!新基准专治“不听话”的AI分析师 - 天天要闻

它不再是给模型一道题,让它一口气算完;而是模拟一位真实的数据分析师,在对话中不断给出新指令,考察agent在多轮交互中的真实能力。

可以说,专治各种“自作主张”和“一意孤行”的ai。

值得一提的是,这项工作由一支星光熠熠的团队打造,汇集了北京大学加州大学伯克利分校的顶尖学者,其中不乏机器学习泰斗michael i. jordan教授,仿真科学领域专家郑泽宇 (zeyu zheng) 副教授,以及acm/ieee fellow邓小铁 (xiaotie deng) 教授的身影。

“不听话”的ai,问题出在哪?

目前,我们看到的很多大模型数据分析工具,比如openai、gemini和claude的网页应用,能力已然非常强大。

但现有的评估基准,大多侧重于单轮互动:用户给出一个明确的、预设好的任务,然后看agent能否成功执行。
可现实世界的数据分析,远非如此。

真实的数据分析师,工作流程是迭代式探索性的。他们会先查看数据分布,再决定如何处理异常值;会根据初步结果,调整后续的分析策略。这些决策充满了基于领域知识的“主观性”,指令也是一步步演进的。

现有基准恰恰忽略了这种动态交互过程,因此无法全面评估agent在真实协作场景下的可靠性。

ida-bench:给ai一场真实的“随堂测验”

为了解决这一痛点,ida-bench应运而生。它旨在忠实地反映真实数据分析的主观性和交互性特征。

整个测试框架包含四大核心组件:

  • 指令材料 (instruction materials):从真实的、复杂的kaggle数据分析项目(python notebooks)中提取,包含背景知识、分析目标和专家的“主观洞察”。

  • 模拟用户 (simulated user):由一个大模型扮演,它会参照指令材料,像真人一样逐步向agent下达指令,甚至会提出模糊或不断变化的要求。

  • agent:即被测试的大模型,它的任务是严格遵循“用户”的指令,通过编写和执行代码来完成任务。

  • 沙盒环境 (sandbox environment):一个安全隔离的环境,agent可以在其中执行代码、访问数据,并像在jupyter中一样保持上下文。

北大伯克利联手“拷问”大模型:最强Agent也才40分!新基准专治“不听话”的AI分析师 - 天天要闻△图1:(左) ida-bench的测试场景 ,(右) ida-bench中的任务轨迹示例

为了确保任务的真实性和时效性,防止数据污染,ida-bench的构建流程完全自动化。它能持续从kaggle上发布的最新项目中提取任务,经过筛选、预处理和人工检查后,生成新的测试用例。

北大伯克利联手“拷问”大模型:最强Agent也才40分!新基准专治“不听话”的AI分析师 - 天天要闻△图2: ida-bench的自动化构建流程

agent惨遭滑铁卢,最高分仅40

在这样一套“严刑拷打”下,各大模型纷纷现出原形。

初步评估结果显示,即便是最先进的大模型,成功率也不足50%。

具体来看,gemini-2.5-pro、openai o4-mini和claude-3.7-sonnet-thinking表现位列第一梯队,但其“基准达成率”(即结果达到或超过人类基准)也仅为40%。

deepseek系列中,作为指令模型的deepseek-v3(24%)表现明显优于其“思考型”模型deepseek-r1(12%),这揭示了一个核心挑战:在遵循指令和自主推理之间取得平衡,对当前agent来说非常困难。

北大伯克利联手“拷问”大模型:最强Agent也才40分!新基准专治“不听话”的AI分析师 - 天天要闻△表1: 各大模型在ida-bench上的表现

此外,agent们在任务中还会犯下各种低级错误,导致提交结果无效。其中最主要的原因是根本没有生成提交文件,这往往源于模型的“幻觉”。

北大伯克利联手“拷问”大模型:最强Agent也才40分!新基准专治“不听话”的AI分析师 - 天天要闻

“自信”的claude vs “谨慎”的gemini

深入分析失败案例,研究团队发现不同模型展现出了迥异的“性格”。

claude-3.7deepseek-r1表现得像个“过度自信”的实习生。

它们不怎么遵循用户的具体指令,而是主动推进分析流程,结果常常因为“自作主张”而错过了关键步骤和信息。比如,用户建议用一种新方法改进模型,claude-3.7不等尝试就直接否定,并提交了之前效果较差的结果。

相比之下,gemini-2.5-pro则像一个“过度谨慎”的助理。它每走一步都要反复向用户寻求确认,有时一个简单的数据清洗操作能来回沟通30轮,最终因超过回合数限制而任务失败。

  • 幻觉或夸大:许多agent会声称执行了并未进行的操作,比如号称“优化”了参数,但实际只是随机设置;更有甚者,凭空捏造从未生成的代码和不存在的数字结果。

  • 格式错误:提交文件的列名大小写弄反,或数据类型不对(如在二分类任务中,要求提交标签“0”或“1”,模型却提交了标签为“1”的概率),都是常见的低级错误。

  • 固守首次尝试:一些agent在初期会做出一个简单粗暴的尝试(比如在预测任务中,模型在初期会直接用训练集的中位数作为预测值),然后就“固执己见”,在后续交互中不再根据新指令开发更复杂的模型。

  • 级联错误:当一个代码块中途执行失败时,agent有时会“假装”它成功了,导致后续代码块因为引用不存在的变量而出错,引发连锁反应。

这些发现凸显了当前llm agent在真正成为可靠数据分析助手之前,仍需在理解、遵循和交互能力上进行大量改进。

论文链接:https://arxiv.org/abs/2505.18223

项目主页:https://github.com/lhydave/ida-bench

科学分类资讯推荐

人民日报关注吉林:茶思造梦 科技报国 - 天天要闻

人民日报关注吉林:茶思造梦 科技报国

本报记者 汪志球 郑智文吉林大学地质宫内,“黄大年茶思屋”一如当年模样:依旧是熟悉的“造梦空间”,茶香、咖啡香和自由的思考弥漫交织,科研人员于此聊当下、谈未来,思绪飞扬,创意激荡。
来自科学家的反常识建议:越是枯燥无聊的工作,越要分心做 - 天天要闻

来自科学家的反常识建议:越是枯燥无聊的工作,越要分心做

与其无休止地试图让枯燥的任务变得不那么无聊,有时将这些活动与其他更需注意力的任务结合起来,可能会更有效。为什么这样做会有效呢?从根本上说,是因为大脑渴望有事可做。在做低注意力任务的同时,投入到另一项活动中,就可以占用多余的注意力,减少无聊感,从而提高坚持性。我们都希望每天能做些有意思的事,但现实是,...
市科技局开展全国科技活动周系列科普宣传活动 - 天天要闻

市科技局开展全国科技活动周系列科普宣传活动

近期,市科技局联合市委宣传部、市科协等单位,围绕“矢志创新发展,建设科技强国”主题,组织开展面向社会公众、青少年群体的第二十五个全国科技活动周系列活动,广泛普及科学知识,弘扬科学精神,激发创新活力,营造“热爱科学、崇尚创新”的浓厚氛围。无人机+生物多样性科普讲堂精彩纷呈为激发青少年好奇心、想象力、探...
辨证施治,更好发挥中医药作用(讲述·弘扬科学家精神) - 天天要闻

辨证施治,更好发挥中医药作用(讲述·弘扬科学家精神)

健康时报记者 林 敬 王振雅 田金洲(右二)为患者诊脉。 林 敬摄 人物小传 田金洲,1956年生,湖北天门人,中国工程院院士,北京中医药大学东直门医院脑病科主任医师、教授。致力于用中医药防治阿尔茨海默病及其他神经系统疾病研究,将最新的阿尔茨海默病诊疗技术与我国古代的临床经验、当今的应用场景紧密结合,创建阿尔茨海...
听中国科研团队成员详解“全手触觉机器人仿生手” - 天天要闻

听中国科研团队成员详解“全手触觉机器人仿生手”

【环球时报报道 记者 谷业凯】近日,由北京大学、北京通用人工智能研究院等单位组成的联合科研团队,开发出全球首个同时具备全手高分辨率触觉感知和完整运动能力的机器人手系统——“基于全手触觉的机器人仿生手”(简称F-TAC Hand)。相关成果北京时间6月9日在国际顶级学术期刊《自然·机器智能》上发表。研制“全手触觉机...