该图片由ai绘制
近日,谷歌旗下deepmind实验室最新发布了长达145页的人工智能安全报告,称具备人类智能水平的通用人工智能(agi)可能在2030年左右问世,并可能造成“永久毁灭人类”的严重后果。
在这份全面探讨agi风险的报告中,研究人员明确指出:“agi可能带来导致人类永久灭绝的生存风险,这显然属于极端危害的范畴。这样的重要议题无法由 google deepmind一家公司单方面解决,而应由整个社会共同参与讨论。这关系到我们能接受多大的风险,以及我们如何定义和理解这些潜在危害。”
不过,谷歌在论文中并未具体说明agi将如何导致人类灭绝,报告的主要篇幅集中在风险防控措施上。
deepmind联合创始人谢恩·莱格数十年来一直预测agi将在2028年出现。另一位创始人、现任首席执行官戴密斯·哈萨比斯在接受采访时也表示,agi可能在未来5到10年内出现,最早或于2030年问世。
agi主要有四大风险,批评openai等安全策略投入不足
谷歌的论文将高级ai带来的风险分为四个主要类别:
● 滥用风险:人类故意利用ai实施危害行为。
● 错位风险:系统发展出非预期的有害行为。
● 失误风险:因设计或训练缺陷导致的意外故障。
● 结构性风险:不同主体(包括国家和地区、企业及多个ai系统)之间的利益冲突。
研究人员还概述了deepmind的风险缓解策略,重点在于防止滥用,并强调了尽早识别危险能力的重要性。
值得注意的是,这篇论文还对anthropic和openai等竞争对手的安全策略表达了含蓄批评,认为前者在严格训练、监督方面投入不足,后者则过度关注所谓的对齐研究(即确保ai系统的目标和行为与人类的价值观和利益保持一致)。
定义太模糊,人类可能永远无法掌控agi
不过,这份报告并未完全说服ai安全领域的专家,也引起了不少争论。
未来生命研究所联合创始人安东尼·阿吉雷表示,deepmind团队的努力值得赞赏,但应对agi风险需要更全面的措施。
他指出:“超人类ai可能引发史无前例的社会政治动荡。正如作者所言,agi可能随时出现,并通过自我改进迅速超越人类能力。这类系统具有天然不可预测性,而我们距离掌控它们还非常遥远,甚至永远无法控制它们。”
同时,也有专家质疑agi的时间表、可行性以及定义本身。
非营利组织ai now institute首席科学家海迪·克拉夫(heidy khlaaf)指出:“当前agi的定义过于模糊,难以进行严谨的科学评估。”
对此,谷歌发言人回应称:“在我们的论文中,所概述的方法和缓解措施可以适用于多种agi定义框架。虽然严格的定义在我们论点中不是核心内容,但我们的风险评估优先考虑可预见的长期能力,并旨在提供能够帮助ai安全社区负责任地构建这项技术的解决方案。”
agi何时会出现存分歧,最多五年?
在论文中,谷歌研究团队坦承:“我们对强大ai系统的研发进度存在高度不确定性”,但“至关重要的是,我们认为到2030年,强大ai系统出现是可能的”。
google提出agi在2030年前“可能”到来,这一时间表比其他顶级ai实验室的预测稍长。例如,anthropic的首席执行官达里奥·阿莫代伊曾公开表示,尽管他越来越觉得agi这个术语有问题,但他认为ai将在“未来两到三年”全方位超越人类。
与此同时,openai首席执行官山姆·奥特曼则更加谨慎,他写道,“指向agi的系统正在显现”,并且他也表示,openai现在“已掌握传统认知下的agi构建方法”。
更激进的预测来自openai前政策研究员丹尼尔·科科佳洛,他因“openai追逐agi不计后果”而辞职,近日与知名ai安全博主斯科特·亚历山大联合发布分析报告,预言ai将在2027年超越人类智能。(腾讯科技特约编译金鹿)
论文链接:
1.官网:【evaluating potential cybersecurity threats of advanced ai】
https://deepmind.google/discover/blog/evaluating-potential-cybersecurity-threats-of-advanced-ai/
2. 论文:【a framework for evaluating emerging cyberattack capabilities of ai】
https://arxiv.org/abs/2503.11917