如何應對大模型落地挑戰?專家:「防火牆+天花板」雙管齊下

從chatgpt、微軟copilot助手、谷歌bard,到ai文生圖midjourney、ai視頻生成gen-2、pika 1.0等等,都成為2023年最值得回味的經典案例。

一起向前看,2024年大模型前行的路,仍值得每個人去深思。

如何突破算力瓶頸?如何獲取高質量數據?如何讓大模型落地?如何讓llm更安全?等一系列問題都成為重要的議題。

12月27日,「ai發展與治理創新研討會」在北京舉行。會上,阿里巴巴集團與中國電子技術標準化研究院聯合發布《aigc治理與實踐白皮書》;來自中國科學院、中國社科院大學、復旦大學、浙江大學、國家部委研究機構和國內ai企業的專家參加了研討會。與會專家從技術趨勢、科技倫理和協同治理等角度,共同探討中國ai的發展之道。

專家談大模型未來安全前景:

發展ai「宜疏不宜堵」

「用模型監督模型」

中國人工智慧產業聯盟安全治理委員會專委會副主委、浙江大學教授潘恩榮指出,生成式人工智慧(以下簡稱「aigc」)對人類經濟社會發展帶來巨大的觀念衝擊,「宜疏不宜堵」。一方面,必須克服各種恐懼和臆想,剋制「堵」的衝動;另一方面,要在實踐中小步快跑地迭代出各種「疏」的方式。

潘恩榮在演講中

復旦大學教授張謐認為,科技行業應該負責任地發展ai,兼顧ai發展和風險管控。張謐說:「現在全球範圍內有ai競賽的氛圍,注重安全反而可能造成技術落後,為了佔領先機便不得不擱置安全。各方應該立足長遠,攜手營造有序競爭,把風險控制在防護能力的上界之內,保障ai發展處於安全區域。」

張謐發言

會上,中國電子技術標準化研究院信息技術研究中心副主任董建援引全球各國ai治理路徑,指出目前國內外都在推動ai研發治理工具,包括綜合評價與管理ai技術風險,以及加強標準與治理規則聯動等;但如何通過技術深層次解決治理問題,將技術圈和學術圈、法律圈的觀點標準融合落地,尚需社會多元主體進一步的探索。

董建作主題演講

張謐對ai大模型未來的安全前景持樂觀態度,她援引前沿觀點指出,隨著評測、治理技術的成熟,以及治理體系的完善,人類提供一整套安全規則,ai就能根據規則實現「用模型監督模型」;而更長遠地看,ai大模型有可能自主對齊人類價值觀、主動向善發展。「只要我們負責任地對待ai,就能構建『愛人類』的ai。」張謐說。

專家談國內ai產業高質量發展痛點:

更便宜的能源價格

更便宜的ai晶元價格

數據是ai時代的「石油」。中國科學院信息工程研究所技術副總師韓冀中在主旨分享中,指出我國構建高質量安全的中文數據集的緊迫性,直言唯有高質量的數據才能推動國內ai大模型真正的高質量發展,「能從本源上解決問題」。

同時,韓冀中圍繞ai當前發展和治理中的痛點難點,強調了構建價值對齊等技術防護與監測體系的必要性,指出要從大模型的底層架構生產、中層應用運行到後端內容製作傳播全流程來完善價值鏈責任管理。

圓桌環節,來自行業一線的最新ai實踐經驗、案例令與會專家高度關注,圍繞中美當前在ai技術、生態、應用與基礎設施能力等多領域競速的現實議題,嘉賓們更是紛紛建言獻策,討論熱烈。其中,對於國內ai產業在全球ai迭代升級浪潮中如何穩步發展不掉隊,商湯科技智能產業研究院院長田豐特別指出:「更便宜的能源價格、更便宜的ai晶元價格,將大大提升中國ai大模型創新速度、aigc應用的市場規模。」

他呼籲了三點:一是國家能源基建更多地有意識向大模型算力傾斜,做好算力基建和底層架構的國家儲備;二是針對大模型的政府金融扶持,建立專項的金融體系如國家基金等;三是深化數據產業鏈對提升大模型效率的關鍵作用。「雖然目前不能寄希望於馬上實現跨行業的數據共享,但數據的產業鏈協同成本、交易成本以及數據的後續反哺生產,必然將是未來國產大模型的核心競爭優勢。」田豐強調。

阿里連續2年發布ai白皮書:

大模型內生風險需設「防火牆」

癌症篩查、拍影視劇、輔助招聘……生成式人工智慧正助力各傳統行業突破天花板,與此同時,圍繞內容安全、個人信息保護、知識產權歸屬等內生問題也引發了社會擔憂。

論壇當天,阿里發布了其與中國電子技術標準化研究院聯合編寫的《aigc治理與實踐白皮書》(以下稱「白皮書」)。白皮書顯示,目前,由於大語言模型具有深度神經網路固有的魯棒性不足、可解釋性缺乏、生成內容可控性較低等缺陷,導致生成式人工智慧還存在著較大缺陷。這就需要判斷其對人類權益和社會秩序構成的潛在風險,用審慎的態度規劃技術發展路徑,採取多元協同的方式,聚各方合力,確保技術在正確的軌道上發展和應用。

白皮書介紹了全球aigc技術與應用的最新進展,剖析了世界各國治理aigc的不同模式,系統分析大模型和aigc主要風險,並從產生原因、治理框架、風險治理和多主體協同敏捷治理等多個方面提出治理建議和可操作性實踐方案。

白皮書以模型訓練中需要使用的數據為例,指出數據中原本就存在的風險點以及特定信息缺失都會對大模型引入風險。同時,對指令的遵循還可能讓模型被部分用戶誘導,從而學習到惡意導致模型輸出風險內容。

基於此,白皮書倡議,生成式人工智慧的風險治理需要貫穿產品的全生命周期,包括模型訓練、服務上線、內容生成、內容發布與傳播各階段。如在訓練環節,首先需要對數據篩選和過濾,評測模型的安全性,並且審核演算法機制機理。模型產品上線後,服務提供者還需要選擇安全有效的模型作為基座構建完整的演算法服務。同時,對用戶賬號、個人信息以及生成的內容進行保護和審核,避免模型被惡意輸入和誘導。

ai上雲,賦能千行百業

傳統產業借力ai突破「天花板」

薛暉致辭

正如阿里巴巴科技倫理治理委員會委員、阿里巴巴安全部研究員薛暉在會上所說:「關於ai,我們不知道的比知道的多,難以想像的比可以預測的多。aigc帶來前所未有的挑戰,需要我們前瞻性地應對。ai的發展和治理,僅憑一家企業、一所高校、一個機構無法獨立完成,必須『多元協同、開放共治』。阿里巴巴正在一邊築牢防火牆,一邊突破天花板,與社會各界一道,用ai破解更多社會難題,推動ai惠及更多人。

論壇現場與會專家一致認為,未來大模型的落地關鍵,在於要負責任地發展大模型能力。唯有提倡負責任的ai開源,方能促進創新、利於糾錯,也將有助於解決未來更多社會問題。

通過日新月異的行業實踐可以觀察到,當下ai離普通人已經不再遙遠,如今,在做ppt、寫文案、訂機票、玩遊戲等場景都有大模型的賦能,包括騰訊、百度、阿里巴巴、網易等在內的科技公司都已將其植入現有業務中。在論壇現場,薛暉還分享了阿里醫療ai團隊與醫學界合作的創新實踐,利用「平掃ct+ai」方法進行胰腺癌早篩。這項技術不僅在胰腺癌篩查上取得了成功,還在食管癌、肺癌、乳腺癌等多個領域有著廣泛應用。阿里巴巴的「雲+ai」科技平台正在幫助各界破解難題,為人類社會的進步貢獻力量。

「很多過去想到但做不到、甚至創作者也沒想到的場景,都在ai的助力下呈現在我們的面前。可以預見,ai技術將全面提升中國影視製作的水平。」薛暉表示。

采寫:南都記者  呂虹