風險,遠不止是「開盒」

人工智慧(AI)時代,數據隱私成了人們心頭最敏感的那根神經。

近日,百度副總裁女兒「開盒」事件引發廣泛關注。一場因追星引發的粉圈內部的紛爭正快速演變為公眾對互聯網大廠數據泄露的質疑。

作為一種新型網路暴力方式,「開盒」是指在網路上惡意公開他人隱私的行為,包括他人照片、真實姓名、身份證號、手機號碼、家庭住址、社交賬號、銀行流水、上網記錄等個人信息,並煽動網民進行攻擊謾罵和生活騷擾。此前,百度副總裁謝廣軍13歲女兒因不滿某素人對韓國明星張元英的評價,將其個人隱私信息掛到微博平台上。

3月19日,百度官方發布聲明稱,經調查,「開盒」信息來自海外一個通過非法手段收集個人隱私信息的資料庫,並非由百度泄露。聲明還強調,百度內部實施了數據的匿名化、假名化處理;數據存儲和管理實行嚴格隔離和許可權分離,任何職級的員工及高管均無許可權觸碰用戶數據。「百度對於任何侵犯用戶隱私的行為都是零容忍。」

但公眾的質疑並沒有完全停止。近幾年,隨著AI技術的顛覆式發展和大數據的濫觴,用戶數據泄露事件頻發,個人信息被濫用的風險加劇,數據安全已經成為公共安全的突出問題。

而隨著DeepSeek的橫空出世,我們正式迎來了大模型應用的「黃金時期」。未來,隨著AI應用逐漸滲入社會與個人生活的方方面面,AI帶來的安全風險也會激增,除了數據泄露以外,AI幻覺、深度偽造……技術是簡單的,但人是複雜的,當技術與人開始深度交互,人類是否已做好了充分的準備?近日,圍繞數據治理,以及AI發展帶來的種種安全風險,《中國新聞周刊》專訪了清華大學文科資深教授、國家新一代AI治理專業委員會主任薛瀾。

如何治理「胡編亂造」「深度偽造」

《中國新聞周刊》:都說「大模型的幻覺是刻在基因里的」,但在醫療、法律等對準確性要求極高的領域,AI如果胡編亂造信息,可能會引發嚴重後果。隨著AI的大規模應用,AI幻覺帶來的風險事件可能會呈現爆髮式增長。這個問題該如何破解?

薛瀾:就現有技術來看,AI幻覺難以完全避免,但在技術層面上並非沒有優化的空間。我們可以採用數據質量改進、模型層改進、系統層控制,和其他措施使得它出現幻覺的概率降低。

政府應該制定一套AI安全性標準與監管體系。在一個AI系統大規模進入真實場景前,需要首先檢查該系統是否滿足安全性要求,然後才允許上市。在涉及生命安全等敏感領域的應用中,比如醫療場景,尤其需要這樣的安全性檢測。當然,檢測的標準必須與AI的具體應用場景緊密結合。

在國家層面制定相應的法律法規很重要的就是要對技術的收益和風險進行合理的平衡。例如,在醫療領域,假設未來AI在判斷的準確率上超過了人類,是否應該以AI系統的判斷為準,不再讓醫生參與決策?那麼,如果因AI幻覺導致嚴重的醫療事故,責任應由醫院還是AI開發者承擔?

這個例子告訴我們:當AI在一些關鍵領域大規模應用落地後,責任體系劃分的困境將很快凸顯出來。就這個具體場景而言,我們的選擇不應該是簡單的人或機器。而應該考慮第三個選擇,就是人機協同,讓AI協助醫生診斷,即使AI系統的準確率更高,仍然讓醫生參與最後的診斷決策。

在責任主體難以劃分的情況下,一種可行的解決辦法是:為AI開發者和使用者(如醫生)提供某種職業保險。

比如,可以參考疫苗不良反應的處理機制。疫苗在疾病防控方面發揮了關鍵作用,但注射疫苗後,會有極少數人出現不良反應,甚至死亡。因此,一些國家設立了疫苗傷害補償基金,向受害者提供救助。在AI應用領域,也可以設立類似的技術風險基金,或建立某種社會保險制度,避免讓技術開發者和使用者單獨承擔風險。

《中國新聞周刊》:如果說「幻覺」是AI無意識的犯錯與欺騙,深度偽造就是人類主動利用AI技術進行詐騙,後果往往更為嚴重。有統計顯示,2024年全球發生的AI風險事件,30%都與深度偽造相關。如何通過法律制度和監管體系的規範來約束此類濫用AI的行為?

薛瀾:AI深度偽造現象層出不窮,是因為造假成本過低,追查和執法成本卻非常高。這種「不對稱」使一些人鋌而走險。

AI自身的性質決定了濫用AI犯罪造成的後果很難客觀估算,在法律層面就難以設計對應的懲罰力度。過大會引發司法界的質疑,過小則會寬容造假。我國雖然有一般性的法律法規打擊AI濫用行為,但總體懲罰力度不大。2024年9月,國家互聯網信息辦公室發布《人工智慧生成合成內容標識辦法(徵求意見稿)》,首次對AI深度偽造作出了一定規範,要求AI生成的合成內容,應當添加顯式標識和隱式標識,未進行標識造成嚴重後果的,要予以處罰。但具體是什麼懲罰、哪些情況適用於何種懲罰,尚未得到明確。標識本身也可能存在各種漏洞和被操縱的空間,能起到的預期作用尚值得商榷。

AI與其他一般技術的應用和擴散不同,其技術變革很快,應用場景非常豐富,人機互動方式也很多樣。未來AI濫用帶來的問題可能會更加複雜與多元,我認為,除了國家層面要出台一些原則性規制,社會和企業也需要在實踐中不斷調試和探索,對政府層面的規則進行補充。

薛瀾。圖/受訪者提供

既要獲取數據,也要保護隱私

《中國新聞周刊》:DeepSeek橫空出世後,由於其高性能、低成本以及完全開源的特性,越來越多的企業開始部署DeepSeek,大模型「基建」開始滲入各行各業。但是,有統計發現,企業部署DeepSeek時,近90%的伺服器都沒有採取安全措施,這會帶來哪些隱患?我們該如何應對?

薛瀾:首先,企業部署大模型後如果不對數據安全問題進行相應的檢查,有可能造成內部數據泄露的風險。尤其是一些企業需要大量算力,不得不使用公有雲。如果不採取安全措施,數據就可能被泄露或被篡改,甚至被競爭對手利用。

其次是應用風險。就像我們剛才提到的醫療應用場景,一旦AI系統的數據出現問題,可能會加重「幻覺」,甚至在使用時影響到病人的生命安全。因此,企業在使用開源的AI大模型時,如果面向廣大消費者,一定要主動制定更高的內部技術審查標準,對技術的應用進行嚴格監控。

《中國新聞周刊》:目前,AI數據治理的核心挑戰是什麼?如何破局?

薛瀾:我國AI數據治理的一個重要瓶頸是缺乏高質量數據。AI需要通過大量數據學習來提升能力。數據越多,數據的質量越高,系統的能力就越強,未來出現「幻覺」的可能性就越小。

然而,在中國,標準化的數據服務商相對較少,數據量雖然很大,但質量較低。如何構建一個完善而成熟的數據市場,是我們迫切需要解決的問題。只有數據行業快速發展,才能支撐AI應用的大規模落地。

另一個重大挑戰是數據隱私。有些領域如自動駕駛,數據獲取相對容易。但在醫療、教育等領域,數據獲取難度較大。

總之,一旦進入具體的應用場景,當涉及個人數據隱私問題時,獲取數據就可能遇到各種各樣的阻力。如何實現數據收集與隱私保護的平衡,是AI數據治理需要考慮的關鍵問題。

此外,政府手中掌握著大量的公共數據,這些數據涉及社會運行的方方面面,對訓練AI有很高的價值。目前,公共數據的開放程度還不夠充分。未來,隨著AI應用的普及化,各級政府需要考慮在保證安全性的前提下進一步擴大數據開放。

《中國新聞周刊》:你一直強調AI治理要結合具體的應用場景。如何才能根據不同的應用場景,採取更具針對性的治理措施?

薛瀾:AI與人類的交互非常複雜。特別是AI應用於日常生活場景,與應用於工業化場景有很大區別。在工業化場景中,因AI失誤造成的額外成本大多可以提前估算和分析,也更容易制定相應的解決方案。但人與機械化的生產系統不同,人的情緒和反應是多變的,與AI系統的互動方式也是多樣化的。當AI涉及與人相關的服務時,就會面臨很多不確定性。

以教育場景為例,將AI用於學生的日常管理,是一種應用的趨勢。有些學校引入了AI課堂行為管理系統,通過教室內的攝像頭觀察每個學生的細微表情變化,再通過AI系統分析和判斷學生是否積极參与課堂學習。有的家長認為這種管理侵犯了孩子們的隱私,有的家長卻覺得這種做法很好,讓他們找到了孩子學習不好的原因。有的校方還認為,教室屬於公共場所,不存在隱私侵犯問題。這是一個典型的「AI+教育」引發的治理問題。其難點在於,從家長、學校到教育學者與法律專家,人們對這一問題的看法往往有很大區別。

再以醫療場景舉例,如果患者情緒不佳,在自訴癥狀和行為表現上就可能出現異常,這是否會導致AI誤診?AI在下診斷時能否考慮到非醫療因素?這些問題都需要認真思考,並融入對應的治理方案中。

未來,在越來越多的AI現實場景中,我們可能會遇到各種各樣的複雜問題,這些問題不是憑空想像就能想出來的。這就是我為何一直強調AI時代的敏捷治理模式:在實際應用過程中,一邊出台政策,一邊試行,不斷探索發現新問題,再相應地修改和完善規則,健全相應的治理與監管體系。這個過程中,不需要追求制度設計的一步到位,更關鍵的是如何實現技術發展、風險防控與治理模式之間的有效平衡。

要更多關注系統性社會風險

《中國新聞周刊》:當AI應用進入「黃金時期」,生產效率提高的另一面,人們擔心越來越多的人工崗位將被AI替代。如何解決AI大規模應用可能引發的失業風險?

薛瀾:AI廣泛應用的結果是大量節約勞動力成本,特別是腦力勞動力,這對白領就業的影響可能是巨大的。如果這種變化在短時間內集中發生,就可能引發社會動蕩。當然,從技術擴散的客觀規律看,我們不能期望所有人都去同步擁抱新技術。這種情況下,如何讓AI應用的擴散更加平穩,如何採取措施,為那些在社會轉型中處於不利地位的群體提供兜底保障,是政府當下需要迫切解決的一個問題。

例如,此前武漢發生的「蘿蔔快跑」無人計程車引起爭議,地方政府也許就需要通過合理的政策進行引導,以減少無人駕駛技術應用對傳統計程車行業產生的就業衝擊。我認為,新技術的推廣要循序漸進,先從市場供給不足或不暢的地方入手。比如,在傳統出租服務中,有些比較偏遠的地方,普通計程車司機不願接單。從這樣的特定場景入手,將無人駕駛技術作為一種補充性手段,可能短期內對就業的影響就不會那麼大。同時,也可以積累更多數據,以確保未來大規模應用時的安全性。

一直以來,我們更關注AI誤用、濫用等當下的安全風險問題,對AI可能帶來的長遠的社會系統性風險,如失業問題,關注度仍顯不夠。下一步,可以通過創新社會治理方式,來適應AI帶來的社會性衝擊。

在這一過程中,政府應更多地傾聽社會各界的聲音。在平衡AI帶來的風險與收益時,我們需要營造一種理性、平和的討論氛圍,最終對如何平衡達成共識。一定要清醒地看到,這種共識不應僅僅是來自專家或政府的共識,而應是全社會共同形成的共識。

《中國新聞周刊》:多年來,你一直強調AI治理主體的多元化與分工協作。隨著AI的大規模應用落地,政府和企業在AI治理中分別扮演了怎樣的角色?如何優化不同主體間的分工合作?

薛瀾:當我們談論「治理」時,這個詞往往被理解為政府規制企業。但在AI領域,由於政府、企業都很難提前看到技術發展和應用過程中可能出現的風險,雙方不應再是傳統的「貓和老鼠」關係,必須加強雙向的溝通與合作,共同識別和應對風險。政府應保持開放態度,主動與企業溝通和協商,分清哪些AI應用的領域可以接受一定風險,哪些領域的「紅線」不能碰。

我想特彆強調的是,企業也可以在AI治理中發揮重要作用,需要更主動地採取措施,自我規制,並與政府溝通,告知潛在風險。目前,大型頭部企業在AI治理上表現得比較積極。例如,阿里巴巴、騰訊等企業都設有內部的AI倫理委員會,並建立了針對自身產品的倫理審核機制。然而,隨著DeepSeek的大規模應用,越來越多的中小企業進入AI應用領域。這些中小企業是否有能力像頭部企業一樣參與治理並建立相關機制, 值得關注。未來,還需要推動在行業層面形成治理共識。

「技術霸權」之憂

《中國新聞周刊》:最後談談AI全球治理。2025年2月,AI行動峰會在法國巴黎舉行。相比於前兩年在英國布萊切利和韓國首爾舉行的AI峰會,本屆巴黎峰會成果有限,美、英均未簽署最終發布的聯合聲明。你連續多年參加AI峰會,從巴黎峰會的情況看,AI全球治理是否也和其他多邊事務一樣,受到了來自「特朗普2.0」的負面衝擊?

薛瀾:首先,前兩屆峰會主要聚焦AI的安全風險問題,而這次巴黎峰會的議題更廣泛豐富,涵蓋經濟機遇、發展開放、社會影響、文化等諸多方面,這是這個峰會機制的一個新發展階段。峰會最終形成的政策文件,美英沒有簽署,比較遺憾。這可能與美國政府換屆有關,但和美國政府在應對氣候變化問題上的反覆一樣,並不令人意外。

當前,AI全球治理確實面臨地緣政治緊張局勢的挑戰。

特朗普再度就任美國總統後,對AI全球治理尚未有明確表態,目前各方都在觀望。美國各界,包括企業界和學術界,也仍有很廣泛的群體,支持中美在AI安全問題上加強合作。已故美國國務卿基辛格先生2023年訪華時就強調,如果中美不能在AI風險防控方面達成協議,後果將難以想像。

除了地緣政治,AI全球治理也面臨其他挑戰。其中一個核心問題源於AI的商業屬性。現在很多人將AI治理與核武器治理相比較,其實兩者有很大的不同。核武器從研發之初就被明確是要用於戰爭的,需要各個主權國家參與防控。但AI是由企業主導發展的,本質上是為了在經濟生活中應用並推動創新。

因此,各國政府在治理時都面臨一個難題:AI是商業性的,不可能像禁止開發核武器那樣「一禁了之」。在多邊層面上,這也使得全球治理機制難以充分發揮作用。因為在市場經濟環境下,企業是推動AI創新的關鍵,而聯合國等多邊機制對企業的直接約束力有限。

《中國新聞周刊》:這是否意味著,未來可能會出現少數頭部公司壟斷全球AI技術的「霸權」格局?如何避免這種壟斷局面的出現?

薛瀾:技術領域的壟斷現象一直存在。民航「大飛機」製造,全球就只有少數幾家公司可以完成。不排除AI領域未來出現類似的情況。

但是,從DeepSeek的出現就可以看出,至少在現階段,AI產業仍有很大的技術創新潛力,任何企業或國家想保持「霸權」都並非易事。而且,DeepSeek的出現降低了技術門檻,更多企業將有機會參與大模型應用,因此,目前我們還很難判斷未來的市場格局。

當然,「技術霸權」或技術壟斷確實是一個需要關注的問題。目前,對技術應用的規制主要分為兩類,一是社會性規制,即對潛在風險的防控;二是市場性規制,涉及反壟斷等問題。由於AI尚未進入大規模應用階段,所以AI治理目前主要聚焦於社會性規制。但未來,我們需要確保反壟斷法律法規在AI領域的合理適用。如果少數企業壟斷技術,給市場運行和公眾利益帶來危害,就毫不猶豫地運用法律法規來進行規制。同時,如果人類未來的命運掌握在少數幾家公司手中,這也是非常令人擔憂的。

蒲公英的演算法

在雲朵間跳格子

像素魚群游過鍵盤海

叮咚!

晨露把數據擦得透亮

深藍說:

今天天氣代碼是薄荷味

(此詩由DeepSeek結合本文內容創作)

發於2025.3.17總第1179期《中國新聞周刊》雜誌

雜誌標題:薛瀾:AI治理如何跟上技術進步?

記者:霍思伊、曹然

編輯:徐方清