月之暗面“调教”出最强Agent,在“人类最后一场考试”拿下最新SOTA

2025年06月22日17:10:13 游戏 3112

机器之心报道

编辑:杨文、泽南

昨天,月之暗面发了篇博客,介绍了一款名为 kimi-researcher 的自主 agent。

这款 agent 擅长多轮搜索和推理,平均每项任务执行 23 个推理步骤,访问超过 200 个网址。它是基于 kimi k 系列模型的内部版本构建,并完全通过端到端智能体强化学习进行训练,也是国内少有的基于自研模型打造的 agent。

月之暗面“调教”出最强Agent,在“人类最后一场考试”拿下最新SOTA - 天天要闻

github 链接:https://moonshotai.github.io/kimi-researcher/

在“人类最后一场考试”(humanity's last exam) 中,kimi-researcher 取得了 26.9% 的 pass@1 成绩,创下最新的 sota 水平,pass@4 准确率也达到了 40.17%。

从初始的 8.6% hle 分数开始,kimi-researcher 几乎完全依靠端到端的强化学习训练将成绩提升至 26.9%,强有力地证明了端到端智能体强化学习在提升 agent 智能方面的巨大潜力。

kimi-researcher 还在多个复杂且极具挑战性的实际基准测试中表现出色。在 xbench (一款旨在将 ai 能力与实际生产力相结合的全新动态、专业对齐套件)上,kimi-researcher 在 xbench-deepsearch 子任务上平均 pass@1 达到了 69% 的分数(4 次运行的平均值),超越了诸如 o3 等带有搜索工具的模型。在多轮搜索推理(如 frames、seal-0)和事实信息检索(如 simpleqa)等基准测试中,kimi-researcher 同样取得了优异成绩。

月之暗面“调教”出最强Agent,在“人类最后一场考试”拿下最新SOTA - 天天要闻

举个例子。我们想找一部外国动画电影,但只记得大概剧情:

我想找一部外国的动画电影,讲的是一位公主被许配给一个强大的巫师。我记得她被关在塔里,等着结婚的时机。有一次她偷偷溜进城里,看人们缝纫之类的事情。总之,有一天几位王子从世界各地带来珍贵礼物,她发现其中一位王子为了得到一颗宝珠作为礼物,曾与当地人激烈交战。她指责他是小偷,因为他从他们那儿偷走了圣物。

随后,一个巫师说服国王相信她在撒谎,说她被某种邪灵附体,并承诺要为她“净化”,作为交换条件是娶她为妻。然后巫师用魔法让她变成一个成年女子,并把她带走。他把她关进地牢,但她有一枚可以许三个愿望的戒指。

由于被施了魔法,让她失去了逃跑的意志,她把前两个愿望浪费在了一些愚蠢的东西上,比如一块布或者一张床之类的……然后她好像逃出来了……并且耍了那个巫师一把……她后来还找到了一块可以生出水的石头……我记得还有人被变成青蛙……

整部电影发生在一个有点后末日设定的世界里,是一个古老魔法文明崩塌几百年之后的背景。如果有人知道这是什么电影,请告诉我。我一直在找这部电影,已经找了好久了。

kimi-researcher 就会根据给定的模糊信息进行检索,最终识别出该电影为《阿瑞特公主》,并一一找出该电影与剧情描述之间的对应关系。

月之暗面“调教”出最强Agent,在“人类最后一场考试”拿下最新SOTA - 天天要闻

此外,它还能进行学术研究、法律与政策分析、临床证据审查、企业财报分析等。

kimi–researcher 现已开始逐步向用户推出,可以在 kimi 内实现对任意主题的深入、全面研究。月之暗面也计划在接下来的几个月内开源 kimi–researcher 所依赖的基础预训练模型及其强化学习模型。

端到端的智能体强化学习

kimi–researcher 是一个自主的智能体与思维模型,旨在通过多步规划、推理和工具使用来解决复杂问题。它利用了三个主要工具:一个并行的实时内部搜索工具;一个用于交互式网页任务的基于文本的浏览器工具;以及一个用于自动执行代码的编码工具。

传统 agent 开发存在以下几个关键限制:

  • 基于工作流的系统:多智能体工作流将角色分配给特定智能体,并使用基于提示的工作流进行协调。虽然有效,但它们依赖于特定的语言模型版本,并且在模型或环境发生变化时需要频繁手动更新,从而限制了系统的可扩展性和灵活性。

  • 带监督微调的模仿学习(sft):模仿学习能使模型很好地对齐人类演示,但在数据标注方面存在困难,尤其是在具有长时间跨度、动态环境中的智能体任务中。此外,sft 数据集通常与特定工具版本强耦合,导致随着工具的演变,其泛化能力会下降。

端到端的智能体强化学习(agentic rl)训练的是一个能够整体性解决问题的单一模型:给定一个查询,智能体会探索大量可能的策略,通过获得正确解答的奖励进行学习,并从整个决策轨迹中总结经验。与监督微调(sft)不同,端到端方法天然适应长程、基于当前策略的推理过程,并能动态适应工具与环境的变化;也不同于模块化方法,它将规划、感知、工具使用等能力融合在一个模型中统一学习,无需手工编写规则或工作流模板。

openai 的 deep research 等先前研究也展示了这种方法的强大性能,但它也带来了新的挑战:

  • 动态环境:即使面对相同的查询,环境结果也可能随时间发生变化,智能体必须具备适应不断变化条件的能力。目标是实现对分布变化的鲁棒泛化能力。

  • 长程任务:kimi–researcher 每条轨迹可执行超过 70 次搜索查询,使用的上下文窗口长度甚至达数十万 token。这对模型的记忆管理能力以及长上下文处理能力提出了极高要求。

  • 数据稀缺:高质量的用于智能体问答的强化学习数据集非常稀缺。该研究团队通过自动合成训练数据的方式解决这一问题,从而实现无需人工标注的大规模学习。

  • 执行效率:多轮推理和频繁工具调用可能导致训练效率低下,gpu 资源利用不足。优化 rollout 效率是实现可扩展、实用的智能体强化学习训练的关键。

研究方法

kimi–researcher 是通过端到端的强化学习进行训练的。研究团队在多个任务领域中观察到了智能体性能的持续提升。图 2-a 展示了 kimi–researcher 在强化学习过程中整体训练准确率的变化趋势;图 2-b 则呈现了模型在若干内部数据集上的性能表现。

月之暗面“调教”出最强Agent,在“人类最后一场考试”拿下最新SOTA - 天天要闻

训练数据

为了解决高质量智能体数据集稀缺的问题,研究团队在训练语料的构建上采取了两种互补的策略。

首先,他们设计了一套具有挑战性的、以工具使用为核心的任务,旨在促进智能体对工具使用的深入学习。这些任务提示被刻意构造为必须调用特定工具才能解决 —— 从而使得简单的策略要么根本无法完成任务,要么效率极低。通过将工具依赖性融入任务设计中,智能体不仅学会了何时调用工具,也学会了在复杂的现实环境中如何高效协同使用多种工具。(图 3 展示了在这些训练数据中,模型对工具的调用频率。)

月之暗面“调教”出最强Agent,在“人类最后一场考试”拿下最新SOTA - 天天要闻

其次,他们策划并整合了一批以推理为核心的任务,旨在强化智能体的核心认知能力,以及其将推理与工具使用结合的能力。该部分进一步细分为以下两类:

  • 数学与代码推理:任务聚焦于逻辑推理、算法问题求解和序列计算。kimi–researcher 不仅依赖思维链进行解题,还能结合工具集解决这类复杂问题。

  • 高难度搜索:这类任务要求智能体在上下文限制下进行多轮搜索、信息整合与推理,最终得出有效答案。案例研究表明,这些高难搜索任务促使模型产生更深层的规划能力,以及更健壮、工具增强的推理策略。

为了大规模构建这一多样化提示集,研究团队开发了一条全自动数据生成与验证流程,可在极少人工干预下生成大量问答对,同时保证数据的多样性与准确性。对于合成任务而言,确保“准确的标准答案(ground truth, gt)”至关重要,因此他们引入了一种强大的 gt 提取方法,以尽可能确保每个问题都配有可靠的答案。

此外,他们还设计了严格的过滤流程,以剔除歧义、不严谨或无效的问答对;其中引入的 pass@n 检查机制,可确保仅保留具有挑战性的问题。图 4 展示了基于两项实验结果的合成任务效果评估。

强化学习训练

该模型主要采用 reinforce 算法进行训练。以下因素有助于提升训练过程的稳定性:

  • 基于当前策略的数据生成(on-policy training):生成严格的 on-policy 数据至关重要。在训练过程中,研究团队禁用了 llm 引擎中的工具调用格式强制机制,确保每条轨迹完全基于模型自身的概率分布生成。

  • 负样本控制(negative sample control):负样本会导致 token 概率下降,从而在训练中增加熵崩塌(entropy collapse)的风险。为应对这一问题,他们策略性地丢弃部分负样本,使模型能够在更长的训练周期中持续提升表现。

kimi–researcher 使用基于最终结果的奖励机制进行训练,以在动态训练环境中保持一致的偏好方向。

  • 格式奖励(format reward):如果轨迹中包含非法的工具调用,或上下文 / 迭代次数超出限制,模型将受到惩罚。

  • 正确性奖励(correctness reward):对于格式合法的轨迹,奖励依据模型输出与标准答案(ground truth)之间的匹配程度进行评估。

为了提升训练效率,研究团队在正确轨迹上引入了 gamma 衰减因子(gamma-decay factor)。该机制鼓励模型寻找更短、更高效的探索路径。例如,两条最终结果相同的正确轨迹,较短的那一条将因其前期行为更高效而获得更高奖励。

上下文管理

在长程研究任务中,智能体的观察上下文可能会迅速膨胀。如果没有有效的记忆管理机制,普通模型在不到 10 次迭代内就可能超过上下文限制。为了解决这一问题,研究团队设计了一套上下文管理机制,使模型能够保留关键信息,同时舍弃无用文档,从而将单条轨迹的迭代次数扩展至 50 次以上。

早期的消融实验表明,引入上下文管理机制的模型迭代次数平均提升了 30%,这使其能够获取更多信息,进而实现更优的任务表现。

大规模智能体rl infra

为应对大规模智能体强化学习在效率与稳定性方面的挑战,研究者构建了一套具备以下关键特性的基础设施体系:

月之暗面“调教”出最强Agent,在“人类最后一场考试”拿下最新SOTA - 天天要闻

  • 完全异步的 rollout 系统:实现了一个具备扩展性、类 gym 接口的全异步 rollout 系统。基于服务端架构,该系统能够高效并行协调智能体的轨迹生成、环境交互与奖励计算。相较于同步系统,这一设计通过消除资源空转时间显著提升了运行效率。

  • 回合级局部回放(turn-level partial rollout):在 agent rl 训练中,大多数任务可在早期阶段完成,但仍有一小部分任务需要大量迭代。为解决这一长尾问题,研究者设计了回合级局部回放机制。具体来说,超出时间预算的任务将被保存至 replay buffer,在后续迭代中以更新后的模型权重继续执行剩余部分。配合优化算法,该机制可实现显著的 rollout 加速(至少提升 1.5 倍)。

  • 强大的沙盒环境:研究者构建了统一的沙盒架构,在保持任务隔离性的同时,消除了容器间通信开销。基于 kubernetes 的混合云架构实现了零停机调度与动态资源分配。agent 与工具之间通过 mcp(model context protocol)进行通信,支持有状态会话与断线重连功能。该架构支持多副本部署,确保在生产环境中具备容错能力与高可用性。

智能体能力的涌现

在端到端强化学习过程中,研究者观察到 kimi–researcher 出现了一些值得关注的能力涌现。

  • 面对多来源信息冲突时,kimi–researcher 能通过迭代假设修正与自我纠错机制来消除矛盾,逐步推导出一致且合理的结论。

  • 展现出谨慎与严谨的行为模式:即便面对看似简单的问题,kimi–researcher也会主动进行额外搜索,并交叉验证信息后再作答,体现出高度可靠性与信息安全意识。

游戏分类资讯推荐

6月10日技能人才收入大涨?七项新政解读,未来养老更有保障! - 天天要闻

6月10日技能人才收入大涨?七项新政解读,未来养老更有保障!

为改变这一现状,2025年5月17日,人社部、财政部、国资委联合印发《关于加大国有企业技能人才薪酬分配激励的通知》,明确提出七项措施,旨在全面提升技能人才的收入水平,使其至少与管理干部持平。这一政策的出台,不仅是对技能人才价值的认可,也为他们的职业发展和未来养
很多古币老玩家进入了“贤者模式” - 天天要闻

很多古币老玩家进入了“贤者模式”

那些老同学、老朋友,联系得越来越少,大家都为生活而忙。好不容易约出来聚一聚,喝酒撸串结束,想找回点年轻时的感觉。找个电竞酒店打游戏,没想到大家都电子ED(没激情了),再也不复过去通宵打副本的兴奋,才玩两个小时就头晕恶心。去泡吧唱歌,没一会各
月之暗面“调教”出最强Agent,在“人类最后一场考试”拿下最新SOTA - 天天要闻

月之暗面“调教”出最强Agent,在“人类最后一场考试”拿下最新SOTA

机器之心报道编辑:杨文、泽南昨天,月之暗面发了篇博客,介绍了一款名为 Kimi-Researcher 的自主 Agent。这款 Agent 擅长多轮搜索和推理,平均每项任务执行 23 个推理步骤,访问超过 200 个网址。它是基于 Kimi k 系列模型的内部版本构建,并完全通过端到端智能体强化学习进行训练,也是国内少有的基于自研模型打造的 Age...
真心建议:给自己写一份个人使用说明书 - 天天要闻

真心建议:给自己写一份个人使用说明书

“hi我是喜喜,一个靠写作旅居世界的自由职业者,无限游戏新玩家~”曾经的我,会拼命研究crush喜欢什么,把自己调试成一个“完美适配者”。喜欢安静?我就降低存在感;喜欢有趣?我就使劲搞笑;喜欢独立?我就不再依赖……最后他们都爱上我了,可我爱
我让AI写游戏,它真的给我做出来了?还加了奖励机制! - 天天要闻

我让AI写游戏,它真的给我做出来了?还加了奖励机制!

点击上方蓝字关注我们当直觉遇见代码:我与AI编程助手的奇妙旅程作者| 王秦州作为一名曾从事游戏行业和搞游戏引擎15年的老市场,我一直对技术如何改变我们的生活和工作充满兴趣。最近,AI编程助手,特别是“Vibe Coding”(直觉编程)这个概念,引起了广泛关注。它似乎在告诉我们,编程不再是少数人的专利,而是正在变得触手...
防战要凉?11.2移除“法术格挡”,高玩怒批暴雪毁职业! - 天天要闻

防战要凉?11.2移除“法术格挡”,高玩怒批暴雪毁职业!

在《魔兽世界》11.2版本PTR开放后,防护战士这位资历最老的坦克之一,终于迎来了天赋树的全面更新。然而,重做消息尚未令人振奋多久,一个让无数玩家难以接受的改动也随之曝光:暴雪移除了“法术格挡”。这项被视为防战在魔法环境下唯一生存工具的技能,仅在游戏中存在了不到两个资料片,就这样悄然被删。许多主玩防战的玩...
人生建议:多出门,真的可以改命 (在理) - 天天要闻

人生建议:多出门,真的可以改命 (在理)

当你把自己困在狭小的房间里,陷入无尽的内耗,那些琐碎的事情就像一团乱麻,越理越乱,让你心烦意乱;当你感觉运气不佳,诸事不顺,仿佛被困在黑暗的迷宫中,无论如何努力都找不到出口,难以突破自我。