該圖片由ai繪製
近日,谷歌旗下deepmind實驗室最新發布了長達145頁的人工智慧安全報告,稱具備人類智能水平的通用人工智慧(agi)可能在2030年左右問世,並可能造成「永久毀滅人類」的嚴重後果。
在這份全面探討agi風險的報告中,研究人員明確指出:「agi可能帶來導致人類永久滅絕的生存風險,這顯然屬於極端危害的範疇。這樣的重要議題無法由 google deepmind一家公司單方面解決,而應由整個社會共同參與討論。這關係到我們能接受多大的風險,以及我們如何定義和理解這些潛在危害。」
不過,谷歌在論文中並未具體說明agi將如何導致人類滅絕,報告的主要篇幅集中在風險防控措施上。
deepmind聯合創始人謝恩·萊格數十年來一直預測agi將在2028年出現。另一位創始人、現任首席執行官戴密斯·哈薩比斯在接受採訪時也表示,agi可能在未來5到10年內出現,最早或於2030年問世。
agi主要有四大風險,批評openai等安全策略投入不足
谷歌的論文將高級ai帶來的風險分為四個主要類別:
● 濫用風險:人類故意利用ai實施危害行為。
● 錯位風險:系統發展出非預期的有害行為。
● 失誤風險:因設計或訓練缺陷導致的意外故障。
● 結構性風險:不同主體(包括國家和地區、企業及多個ai系統)之間的利益衝突。
研究人員還概述了deepmind的風險緩解策略,重點在於防止濫用,並強調了儘早識別危險能力的重要性。
值得注意的是,這篇論文還對anthropic和openai等競爭對手的安全策略表達了含蓄批評,認為前者在嚴格訓練、監督方面投入不足,後者則過度關注所謂的對齊研究(即確保ai系統的目標和行為與人類的價值觀和利益保持一致)。
定義太模糊,人類可能永遠無法掌控agi
不過,這份報告並未完全說服ai安全領域的專家,也引起了不少爭論。
未來生命研究所聯合創始人安東尼·阿吉雷表示,deepmind團隊的努力值得讚賞,但應對agi風險需要更全面的措施。
他指出:「超人類ai可能引發史無前例的社會政治動蕩。正如作者所言,agi可能隨時出現,並通過自我改進迅速超越人類能力。這類系統具有天然不可預測性,而我們距離掌控它們還非常遙遠,甚至永遠無法控制它們。」
同時,也有專家質疑agi的時間表、可行性以及定義本身。
非營利組織ai now institute首席科學家海迪·克拉夫(heidy khlaaf)指出:「當前agi的定義過於模糊,難以進行嚴謹的科學評估。」
對此,谷歌發言人回應稱:「在我們的論文中,所概述的方法和緩解措施可以適用於多種agi定義框架。雖然嚴格的定義在我們論點中不是核心內容,但我們的風險評估優先考慮可預見的長期能力,並旨在提供能夠幫助ai安全社區負責任地構建這項技術的解決方案。」
agi何時會出現存分歧,最多五年?
在論文中,谷歌研究團隊坦承:「我們對強大ai系統的研發進度存在高度不確定性」,但「至關重要的是,我們認為到2030年,強大ai系統出現是可能的」。
google提出agi在2030年前「可能」到來,這一時間表比其他頂級ai實驗室的預測稍長。例如,anthropic的首席執行官達里奧·阿莫代伊曾公開表示,儘管他越來越覺得agi這個術語有問題,但他認為ai將在「未來兩到三年」全方位超越人類。
與此同時,openai首席執行官山姆·奧特曼則更加謹慎,他寫道,「指向agi的系統正在顯現」,並且他也表示,openai現在「已掌握傳統認知下的agi構建方法」。
更激進的預測來自openai前政策研究員丹尼爾·科科佳洛,他因「openai追逐agi不計後果」而辭職,近日與知名ai安全博主斯科特·亞歷山大聯合發布分析報告,預言ai將在2027年超越人類智能。(騰訊科技特約編譯金鹿)
論文鏈接:
1.官網:【evaluating potential cybersecurity threats of advanced ai】
https://deepmind.google/discover/blog/evaluating-potential-cybersecurity-threats-of-advanced-ai/
2. 論文:【a framework for evaluating emerging cyberattack capabilities of ai】
https://arxiv.org/abs/2503.11917