3月25日至27日,“中國發展高層論壇2023年年會”在北京召開。中國科學院自動化研究所人工智能倫理與治理中心主任曾毅在會議期間就如何可持續發展人工智能進行了演講。會後提問環節,曾毅在回答人工智能ai模型在國與國之間的差異問題時表示,對於一些技術“卡脖子”問題,我們沒有失去機會,失去機會的是禁止中國使用技術的企業,“我們更應該關心的問題是,當中國產生了類似的技術時要不要向全球開放,我們應該就此達成共識——中國產生的技術不會對任何一個國家封鎖,至少我代表中國的科研人員做出這個承諾。”曾毅說。他的發言引發了現場觀眾的掌聲。
曾毅在會後接受新京報貝殼財經記者採訪時表示,中科院、國家實驗室、清華北大等國內的研究機構實際上已對類chatgpt技術布局多年,目前需要的是耐心等待。在他看來,chatgpt是語言工程的組合式創新,但並不屬於科學突破,更多是在用戶體驗上的爆發。
中國科學院自動化研究所人工智能倫理與治理中心主任曾毅
探討人工智能倫理刻不容緩
曾毅在演講中表示,人工智能的治理絕對不是約束人工智能的發展,沒有人工智能的治理人工智能將會野蠻生長,社會需要的是能夠穩健健康和可持續發展的人工智能,這是全球開展人工智能治理的目的。經過大概四五年的探索,中國人工智能的發展已經初步建立了自己的體系,通過數據算法、平台和應用的方面進行發展和治理的均衡。
在他看來,現在人工智能科學進展方面,真正推進全球可持續發展的工作非常少,在全球發布的800多萬篇人工智能計算機科學的論文當中,只有0.1%是真正跟可持續發展相關的,這是一個非常令人沮喪的結論。
對於目前許多聲音認為chatgpt等ai語音模型已經初步具備通用人工智能雛形甚至具備自主意識這一觀點,曾毅表示目前的人工智能,包括chatgpt,還並不具備人類的智能,並不是社會的准成員,但這是需要探討的問題,“未來的人工智能,不僅僅是我們今天討論的看似智能的信息處理工具,如果它有一天真的有可能成為社會的准成員,成為道德的主體,我們希望它不僅僅是從中國的文化當中去吸取如何成為一個君子,如何從儒家、佛家、道家當中學到如何成為具有美德的人,我們還要從英國文化當中學到如何成為一名紳士,我們希望未來的人工智能汲取的是人類的文化和價值觀的共通和精華。”
而對於科幻電影《終結者》、《黑客帝國》中ai主宰世界的情形會不會成為現實,曾毅表示人工智能如果真的有機會成為主體,人類是不是能夠接受,這對於人類來說需要的適應過程可能比超級人工智能到來的時間還要長,所以我們一定要從現在開始做這個準備,討論怎麼去平衡它的風險和它對人類的益處。
不同國家的人工智能模型可以“和而不同”
據了解,ai最底層的支持是算力,如英偉達的gpu(圖形處理器)與dpu(數據處理器),但目前個別產品遭遇了進口限制。對於此類狀況可能造成的影響,曾毅表示,解決方案是“儘快地準備國產化的替代,並且把相關的技術提供給全世界。”這也引發了現場掌聲。
目前,世界上各個國家均在發展ai技術,而不同國家的ai數據來源、訓練方式也有所不同,ai模型可能也會因此產生差異。對此,曾毅表示ai這條路很長、很寬,誰也不知道未來ai會發展向何方,“我想沒有人現在是真正領先的,每個人都有機會。”“我們要在技術驅動的社會重新審視人類,不應當因為有不同的價值觀和文化而敵視對手,中國的智慧是‘和而不同’,我們要最大化這個共識,我們總希望人工智能來幫助人類演化,但人類也需要做點什麼。”
而對於觀眾提出的ai核心技術到底應該創新還應該跟隨,曾毅表示未來真正的突破將來自於那些目前來看還沒有取得突破的科學貢獻上,“未來我們的模式應該是這種科學的突破產生在中國,再由中國的產業來進行放大,以此來影響世界,而不是要做跟隨者。現在ai大模型是一個很好的機會,產業也應當放大,但是科學的突破途徑往往不是唯一的,我們要為未來的突破做好準備,要做原始的創新。”
記者聯繫郵箱:[email protected]
新京報貝殼財經記者 羅亦丹
編輯 徐超
校對 柳寶慶