3月27日,觀察者網與中國互聯網治理論壇(中國igf)共同舉辦了最新一期的科創類談話節目《心智對話》,主題為「ai與國運:技術躍遷、產業革新背景下的全球治理」。
在對話中,中國科學院自動化研究所研究員、人工智慧安全與超級對齊北京市重點實驗室主任、聯合國人工智慧顧問機構專家曾毅提到了他與已故美國前國務卿基辛格的一段交流。
中國科學院自動化研究所研究員、人工智慧安全與超級對齊北京市重點實驗室主任、聯合國人工智慧顧問機構專家曾毅 觀察者網
曾毅回憶說,在基辛格最後一次訪華期間,曾經問中方對ai安全是否足夠重視。曾毅提出,美方團隊可以先列出3個ai安全風險,他的團隊後列。在曾毅方面也列出3個不重複的風險後,基辛格讚歎:「你們說得很好」,「看來並非美國的技術發展在前,對安全的認知也就一定走在中國前面。」
曾毅解釋說,他國關心中方對技術安全的認知,正是基於共護安全、共享發展的邏輯。除了發展的能力、應用的能力,安全也是能力建設的重要維度。
他表示,對ai的治理從來不會影響其發展進程,而是以護航者的角色避免ai「野蠻生長」。同樣,注重ai安全也不會影響其發展。
在曾毅看來,所謂「平衡安全和發展」的說法存在問題。「平衡是相互掣肘的意思,好似在說,注重安全,發展必然受阻。」
但是根據曾毅團隊近期的實驗,人工智慧大模型完全可以在幾乎不影響問題解決正確率的前提下,將安全屬性提升20%-30%。
「如果是真正的發展,治理安全會推進這種穩健的發展;如果你認為受到了治理的影響,可能那本身就是一種野蠻的嘗試。」曾毅說。
本文系觀察者網獨家稿件,未經授權,不得轉載。