5月15日消息,openai首席科学家雅库布・帕乔茨基于近日接受了《自然》杂志的专访。帕乔茨基在访谈中表示,目前强化学习正在推动ai模型逼近“推理”边界,agi正从理论走向现实,而开源与安全之间的张力是当前ai发展的一大挑战。
帕乔茨基预计,未来ai将能够独立完成真正具有原创性的科学研究任务,推动软件工程、硬件设计等多个学科的发展。
以下为访谈内容摘要:
问:目前,科学家们越来越多地使用推理模型。你认为这些模型在五年后会扮演怎样的角色?
雅库布・帕乔茨基:现在我们能与模型对话,但它仍然需要持续指导。我认为未来的重大变化之一,就是这一点(指ai作为助手角色)将被根本性地改善。
我们已经看到类似openai 的 “deep research”等 工具(可整合大量信息)在无人监督的情况下,能运行10到20分钟并产出有价值的内容,而完成这些任务所需的计算资源其实很少。
那么,如果我们面临开放性研究问题,花更多算力是值得的。
我相信未来我们将拥有真正具备原创研究能力的ai。我们将在诸如自动软件工程、硬件组件自主设计等领域取得巨大进展,并扩展到其他学科的类似应用中。
问:在构建openai的推理模型方面,强化学习发挥了多大作用?
雅库布・帕乔茨基:我们在推理模型方面的最新进展,很大程度上得益于强化学习阶段的显著提升。这一阶段不仅帮助我们凝练出更具实用价值的成果,还赋予模型一定的“自主”能力,使其能探索多样化的思维路径。
但这也引发一个值得探讨的问题:我们是否仍有必要将各个学习阶段严格区分?
需要强调的是,推理能力并非凭空产生,而是在预训练模型基础上逐步演化而来的。在这个过程中,我投入了大量精力去深入研究这一阶段,并致力于将不同方法有机融合,探索它们之间的交互机制。
问:谈到模型的“思考”问题,你认为模型真的能推理吗?还是只是近似于推理?
雅库布・帕乔茨基:模型的运行机制与人类大脑存在本质差异。虽然预训练模型能够学习并掌握大量关于世界的知识,但它对自身的学习过程和顺序并无认知能力。
尽管如此,越来越多的证据表明,模型确实能够生成新的见解,甚至在一定程度上具备“推理”能力。虽然这种能力不同于人类的逻辑推理方式,但在效果上,它已经展现出某种形式的思维能力。
问:山姆・奥特曼表示,openai即将发布自2019年gpt-2以来首个开源模型。关于这个计划,你能透露些什么?
雅库布・帕乔茨基:向研究人员开放模型非常重要,特别是在模型能力快速增强的背景下,我们更需要理解开源部署所带来的社会影响。但也正因如此,发布具备开源权重的前沿模型面临极大挑战,主要出于安全风险的考量。我们的目标是推出一个在性能上优于现有开源模型的版本,在保证安全性的前提下推动研究生态的发展。
问:你如何定义通用人工智能(agi)?你认为我们什么时候能实现,或者说,是否真的能够实现?
雅库布・帕乔茨基:我对agi的定义,以及对它何时能实现的看法,在过去几年中发生了显著变化。
在我上学读研期间,我曾认为“ai下围棋”是agi的关键里程碑,可能需要几十年才能实现。但alphago在2016年就提前达成这一目标,令我深感震撼。
2017年我加入openai时,仍然对agi的实现持怀疑态度。然而,技术进展的速度远超预期。我们在图灵测试方面取得了显著突破,在数学和问题解决等核心能力上也不断进步,我认为这些领域的终极挑战将在不久的将来被攻克。
在我看来,我认为下一个重大里程碑将是人工智能能够产生实际可衡量的经济影响,尤其是原创性研究能力。我们目前正专注于这个方向,并预计在本十年结束前会取得重大突破。
甚至在今年,我预计ai将能几乎自主地开发出有价值的软件。虽然它或许仍无法解决重大的科学难题,但距离那一步,已经不远了。(文/腾讯科技特约编译 无忌)