薛瀾、賈開、趙靜 | 人工智能敏捷治理實踐:分類監管思路與政策工具箱構建

2024年04月29日00:51:25 科學 3802
薛瀾、賈開、趙靜 | 人工智能敏捷治理實踐:分類監管思路與政策工具箱構建 - 天天要聞

薛瀾

國務院參事,清華大學蘇世民書院院長、人工智能國際治理研究院院長、中國科技政策研究中心主任


原文刊發:《中國行政管理》2024年第3期
作者:薛瀾,清華大學蘇世民書院院長、清華大學公共管理學院教授;賈開,上海交通大學國際與公共事務學院副教授、清華大學產業發展與環境治理研究中心兼職研究人員;趙靜(通訊作者),清華大學公共管理學院副教授

[摘 要] 紛繁複雜的人工智能應用風險在帶來監管挑戰的同時,也讓追求敏捷成為當前人工智能治理的共識性理念。但如何在具體路徑、機制、工具上實現真正的敏捷監管尚缺乏系統的學理分析與實踐指引。遵循科層體系運作邏輯的監管部門在克服制度張力和應對不確定性方面存在天然不足,實踐改革因此普遍將「分類」視為一種適應複雜性與提升敏捷性的潛在思路。通過對人工智能多領域業態發展模式與技術創新規律的比較分析,以及綜合人工智能各領域現有國際治理經驗,本文構建了人工智能治理風險的關鍵分類維度及與之相適應的全譜系政策工具箱。研究試圖為監管實踐者提供一個合意的分類思路與政策工具組合指引,使監管實踐可從產業特徵標定分類治理對象,並在對應的政策工具箱中尋找政策組合。
[關鍵詞] 人工智能治理,分類治理,敏捷治理工具箱


一、引言

伴隨人工智能的應用普及與風險湧現,人工智能治理已經上升為各國國內治理與全球治理的重要議題。[1][2]在此背景下,強調依技術發展與應用變化而調整治理手段和工具的「敏捷治理」理念,成為利益相關方的廣泛共識。[3][4]作為一般通用技術,人工智能的應用多樣性和廣泛性不斷挑戰現實中的監管實踐,尤其是以科層組織為核心的監管體系如何在執行層面克服制度束縛,敏捷應對新興技術治理涉及的各類問題,[5]則成了當前監管體系改革與政策調整的重點。同時,人工智能敏捷治理改革的推進,不僅依賴宏觀治理理念的切實轉變,還需要中微觀層面的理論探索與實踐創新。

近年來,全球人工智能治理實踐呈現出重視「分類」的新趨勢,即強調根據治理對象特徵匹配以差異化的治理工具①。這一試圖有針對性地進行問題特徵判斷與分類解決的新趨勢可被視為敏捷治理理念在中微觀層面的重要實踐之一。[6][7]其中,「分類」於「敏捷」的本質意涵在於:如果監管部門或業務主管部門能夠識別不同領域中,人工智能應用風險類別的差異性,則可預先構建治理工具箱並準備相應治理工具,以提升治理的針對性和精準性,從而實現一定程度的敏捷應對。[8]但隨之而來的問題是,我們應如何對人工智能發展應用所引發的風險與治理問題進行理論分類,每個風險類別的治理問題又應匹配哪些治理工具?當前全球已有一些零星的分類實踐,如歐盟基於風險分類原則的《人工智能法案》,中國基於技術屬性及其影響範圍分類的《關於加強互聯網信息服務算法綜合治理的指導意見》。但這些分類的學理內涵尚缺乏解釋,尤其是這些分類維度是否構成了完備且互斥的邏輯體系,能否涵蓋人工智能治理風險的全部類型?對於上述問題的回答,都要求在理論上對人工智能分類治理框架進行建構。(① 歐盟《人工智能法案》的基本框架便是對人工智能應用風險進行分級分類,進而有針對性的匹配治理機制。作為全國人工智能領域的首部地方性法規,深圳市2022年11月1日施行的《深圳經濟特區人工智能產業促進條例》第十條明確提出要「針對人工智能新技術、新產業、新業態、新模式等特點制定相應的監管規則和標準,實行分類分級監管」。作為人工智能治理的核心內容,算法治理領域也體現了類似特點。國家互聯網信息辦公室於2021年8月發佈的《互聯網信息服務算法推薦管理規定》提出,「應建立算法分級分類安全管理制度」。九部委於2021年9月聯合發佈的《關於加強互聯網信息服務算法綜合治理的指導意見》基本原則中,同樣提出要「推進算法分級分類安全管理」。

本文基於「問題界定—對象分類—治理工具箱—分類框架」的分析邏輯,探索人工智能分類治理的理論框架。首先,本文以生物識別、智能推送、自動駕駛、智能醫療這四個當前相對成熟的人工智能應用領域作為案例,梳理其存在的治理風險,以界定分類治理所需解決的具體問題類型;其次,進一步在理論上提煉不同問題的共性,以作為對人工智能治理對象進行分類的理論維度;第三,基於不同類型人工智能治理問題的政策實踐總結,在理論上提煉這些治理工具的共性,作為對治理工具箱進行分類的理論維度;第四,基於前兩個步驟的分類總結,將治理對象分類與治理工具分類進行匹配,以最終形成人工智能分類治理框架。值得注意的是,本文的研究目標是理論建構,在方法上不僅僅只依賴理論演繹,而是通過政策實踐與理論演繹的相互反饋、不斷迭代,以最終形成人工智能分類治理的理論框架。在此意義上,對該理論框架的實證檢驗並非本文的研究目的,但政策實踐與理論演繹的緊密結合也可在一定程度上支撐本文所提出理論框架的實踐有效性。

二、理論研究與治理實踐的回顧

(一)敏捷治理的理論與實踐發展

技術治理一直都是科技發展與社會風險的關注焦點,並被視為國家治理現代化的重要組成部分。[9]-[11]近年來,新興數字技術發展應用風險的不確定性和動態性日益顯現,學界相繼提出規制治理(regulatory governance)[12]、實驗主義治理(experimentalist governance)[13]、適應性治理(adaptive governance)[14]、預期性治理(anti­cipatory governance)[15]、協同治理(orchestrator govern­ance)[16]、敏捷治理(agile governance)[17]、試驗性治理(tentative governance)[18]等新的治理模式和理念,並被廣泛用於解釋各類新興技術的治理實踐。

其中,敏捷治理是新興技術治理中的典範代表,並被視為我國新一代人工智能治理的新範式。[19]「敏捷治理」理念經由世界經濟論壇提出後得到了不同學者的闡發與充實,如運用於新興產業[20]、城市管理[21][22]、算法治理[23]、公共治理[24][25]等多個領域的治理理論探討和實踐改革指引。相比實驗主義治理、適應性治理等,敏捷治理在強調不同主體廣泛參與的同時,更加註重政策工具的快速反應和適應性演化,以及政府作為權威主體在其中扮演的主導性角色,[26]為實現這一目標,敏捷治理要求監管部門做出如下監管思路的調整:監管者與被監管者形成相互依賴的互動關係,對產業發展過程風險進行及時評估,採取引導性、指向性而非懲罰式、選擇式的監管行為。

在具體的政策實踐中,將傳統治範式轉變為適應技術高速發展的敏捷模式的理念已深入新興技術和產業治理的方方面面。例如,世界經濟論壇的系列報告不僅提出了由監管沙盒、政策實驗、政策「眾籌」、自規制在內的「敏捷治理」政策組合,同時也在第四次工業革命、創新經濟4.0的全球業態發展下討論了敏捷治理的適用可能性。中辦、國辦頒佈的《關於加強科技倫理治理的意見》、科技部發佈的《新一代人工智能治理原則——發展負責任的人工智能》均提出要遵循「敏捷治理」原則,而在具體的人工智能算法治理領域,監管部門同樣嘗試了體現敏捷特徵的「算法備案」「算法審查」等新型機制。多家跨國數字企業巨頭也成立人工智能倫理委員會,將敏捷理念納入其行業自治倡議之中。

然而,敏捷治理的實踐落地卻並不容易。監管部門在治理過程中,尋找恰當的敏捷性與靈活性仍然面臨諸多挑戰。具體而言,在應對新興技術時,政府在識別治理對象及其風險、權衡治理目標與治理工具方面仍然面臨著信息不對稱乃至「共同無知」的局限性。[27]發展與規制的內在張力也使得利益相關方難以真正實現協同共治、監管協調。[28][29]風險的「倒逼」和避責壓力很容易導致監管出現敏捷治理和集中治理的急劇切換。[30]在此背景下,政策實踐者亟需具有啟發性的「操作手冊」,而非宏大敘事般的「行動隱喻」,因此針對具體執行機制進行深入理論探索有着重要的實踐指導意義。

從理論層面對敏捷治理的概念、內涵和機制進行擴展,尤其是應用到技術治理情景下,學者們已經進行了多樣化的初步嘗試,如從不確定性角度對算法敏捷治理的概念做了理論延伸,探索敏捷監管的多類型政策工具和監管模式等。[31][32]在這些探索中,「分類」往往被視為敏捷治理理念的重要體現,或可成為拓展敏捷治理執行機制的重要視角之一。事實上,從分類角度進行治理是政府管理經濟社會公共事務的一種重要且常見策略。具體而言,分類思路對治理理論的價值啟發體現為三方面:第一,面對治理資源有限性的約束,分而治之有利於破解「一刀切」的治理混亂局面,典型案例例如信訪分類治理。[33]第二,面對治理信息不對稱、資源分佈不均衡的約束,分類有利於激勵、納入多元主體以形成多元共治,典型案例例如跨界公共物品的分類治理。[34][35]第三,面對治理目標多元化的複雜性約束,分類有利於區分差異化的治理目標進而簡化治理問題,如國有企業的分類治理。[36]但是分類思路尚未被系統引入新興技術治理領域,亟待更深入的理論探索與實踐推廣,尤其是其如何與敏捷治理相結合還需要更深入的理論分析。

(二)人工智能治理實踐的分類需求

隨着新一代人工智能作為一般通用技術的普遍應用和風險的日益浮現,紛繁複雜的治理情形令分類治理的重要性與急迫性不斷凸顯,並逐漸受到實踐部門和理論界的共同關注。然而,作為一種常見的治理思路,分類在相當長一段時間內都未被納入各國人工智能治理實踐改革。在人工智能快速發展的過去幾年中,全球主要利益相關方在人工智能治理領域的實踐努力主要可被概括為回應式治理、目標式治理、針對性治理這三條進路。

第一,回應式治理是指以人工智能應用的影響結果為治理對象,從風險管理視角對人工智能治理提出流程性或實質性要求。如歐盟2021年發佈的《人工智能治理法案建議》就對人工智能應用風險進行分級分類,並區分了禁止性應用和高風險應用,在界定其內涵的同時,針對高風險應用提出了程序性要求(認證、救濟、責任、備案、登記等)、實質性要求(質量管理、信息披露、風險管理等)。但《歐盟立法者》並未給出人工智能的分類框架,而僅以列舉形式指出關注內容。

第二,目標式治理是指以前一階段提出的人工智能治理理念或原則為起點,進而細化概念內涵、充實治理要求。如歐盟圍繞「可信賴人工智能(trustworthy artificial intelligence)」治理理念的衍生工作。2018年歐盟成立「人工智能高級別專家組(high-level expert group on artificial intelligence,hleg)」,發佈《可信賴人工智能倫理原則》,提出「可信賴人工智能」理念。隨後hleg形成落實該理念的評估列表,並通過在線調研、企業訪談、專家意見等方式獲得利益相關方反饋,以期最終形成治理框架。人工智能的開發應用者可以根據該列表問卷,自評估其是否達到「可信賴人工智能」的標準。

第三,不同於前兩種建構一般性治理框架的努力,針對性治理聚焦於垂直領域人工智能應用特點以提出特定的治理要求。伴隨人工智能在各個行業、各個領域的深度應用,某些技術模式相對穩定、業態邏輯相對成熟、引發的治理風險相對明確的領域開始出現,針對該領域的治理需求也使得提出專門性、領域性的人工智能治理規則成為可能。例如,在自動駕駛、智能醫療、智能推送、生物識別等領域,各國均已形成較為豐富的治理規則和監管要求,並進而發展出了整體性的治理方案和戰略。

全球範圍的實踐改革在推動人工智能治理落實中扮演了積極作用。可以看出,無論是回應式的風險分級、目標式的指標細化,還是針對性的領域實踐,均或多或少體現了分類治理的思路與特點。但這三條實踐進路仍然存在不足。第一,人工智能分類治理的重要性雖已得到利益相關方承認,但仍然缺少具有紮實理論支撐的分類框架(或維度)。第二,一般性框架與垂直領域解決方案的結合還不夠緊密,前者難以看到具體問題,而後者無法體現全局視野,使得能夠結合頂層設計與領域實踐的整體性治理解決方案仍然缺失。第三,相關治理規則和要求的敏捷性不足。人工智能技術發展及其應用的動態性,使得人工智能治理體系和機制的建構也應具備「跟隨應對」乃至「提前應對」的能力,但當前改革探索尚未有所體現。尤其是當治理問題發生變化時,治理規則應該按照何種原則相應更迭,仍然是尚待探索的重要缺口。

(三)分類治理體系的理論構建邏輯

人工智能分類治理體系的構建是當前理論研究和改革實踐的關鍵,也是實現敏捷治理的重要路徑。特別對具有鮮明科層制特徵的政府監管部門而言,合意的人工智能分類治理框架的提出,有利於監管者根據差異化的治理對象選擇與之匹配的治理工具,從而提升治理的精準性、有效性,並逐步實現治理的敏捷性。具體而言,當監管者面對發展迅速的人工智能新技術或新業態時,其可先基於分類維度對被監管對象進行特徵判斷,在確定其所屬類別的同時,選擇與該類別相匹配的治理工具做出應對;當被監管對象發生變化時,監管者同樣可以基於類別的調整來相應改變治理工具和策略,從而實現敏捷回應。

本文將從以下兩方面進行研究設計與實證梳理,並構建人工智能分類治理理論框架(見圖1)。

薛瀾、賈開、趙靜 | 人工智能敏捷治理實踐:分類監管思路與政策工具箱構建 - 天天要聞


1.治理對象的分類研判。治理對象的差異性使得分類治理成為必然要求,但現實的複雜性又讓按照何種維度劃分治理對象成為理論研究的挑戰。本文選擇紮根分析的研究方法,基於人工智能發展應用的全球實踐,「自下而上」地總結治理對象的分類維度。

2.治理工具箱匹配構建。治理工具的匹配是分類治理的目標,只有對不同類型的人工智能治理對象匹配以差異化、針對性的治理工具,分類治理的價值才能得以體現。考慮到當前全球範圍內已經在人工智能治理若干領域形成了豐富實踐,研究將基於現有實踐而對不同類別對象的治理工具箱進行總結迭代,以服務監管部門分類治理工具選擇。在實證部分,研究選擇了人工智能產業發展相對成熟的四個代表性領域(生物識別、智能推送、自動駕駛、智能醫療)以作為總結理論分類維度和探索治理工具箱的案例基礎。

三、人工智能治理風險的多樣性

(一)治理風險的多樣性

圍繞人工智能治理改革的討論,大都以治理風險的識別為前提。然而,新興技術創新的不確定性和動態性使得在理論上「自上而下」地界定風險類別面臨諸多挑戰。相比之下,基於現實情況「自下而上」地總結治理風險,是更可行的研究思路。本研究對生物識別、智能推送、自動駕駛、智能醫療四個領域各國出台的治理規範進行了文本紮根分析,基於類比和共性總結的思路概括了四個領域的主要治理風險,並在統合各領域湧現治理風險的基礎上,進一步總結其共性(見表1)。

薛瀾、賈開、趙靜 | 人工智能敏捷治理實踐:分類監管思路與政策工具箱構建 - 天天要聞


1.生物識別領域的治理風險。一是技術應用侵犯公民隱私權利的風險。生物識別技術的基本邏輯是對指紋、面部、步態等不同類型的個人身份數據進行收集、處理、分析,並以此為基礎識別、跟蹤特定對象。考慮到身份識別數據屬於個人信息敏感數據,技術應用過程或將產生侵犯隱私風險。二是技術應用引發數據安全的風險。不同於隱私侵犯主要針對具體相對人,數據安全更加側重整體性的集體安全或公共安全。大規模、普及性生物識別技術的應用可能累積海量個人敏感信息,而這些信息又往往通過集中存儲的方式加以備份或利用,由此帶來的集中風險點便可能因為管理不善或黑客攻擊等影響公共安全。三是技術應用的歧視風險。生物識別技術應用的最終目的是為特定相對人提供差異化服務或鑒定,很容易因違背公平、平等理念引起歧視問題,這在公共服務、銀行信貸、健康保險等領域凸顯。四是長期技術應用中產生的社會倫理風險。與數據隱私、數據安全、數據歧視等具有明確相對人並對其具體權益產生影響的治理風險不同,社會倫理風險並不針對具體問題,而是指在長期應用過程中可能影響社會價值理念或造成社會結構變遷的治理問題。這在生物識別領域主要體現為因技術普及而可能導致的全面監控或人的自主性的削弱。

2.智能推送領域的治理風險。一是依賴用戶畫像的智能推送技術應用可能侵害相對人的隱私權利。智能推送技術的應用基礎是基於用戶個人行為數據(例如行為偏好)對不同用戶精準畫像,而當不能直接獲得個人行為數據時,該技術往往依賴個人屬性數據以間接推斷其行為偏好,這將直接侵犯個人隱私權利。二是對於個人數據的累積可能造成數據安全風險。特別是當智能推送技術被廣泛應用於新聞信息或內容媒體領域時,其可能因為掌握海量用戶的閱讀習慣,或者輿論場域的信息流動特徵而成為被攻擊對象,並對數據安全乃至國家安全造成影響。三是對不同用戶產生歧視並導致治理風險。如在電子商務或服務領域,向不同用戶推送不同價格的商品或服務會造成「大數據歧視」問題;在媒體資訊領域,向不同用戶推送差異化的就業信息會影響(加劇)社會就業結構的分化。四是在長期應用過程中可能帶來的社會極化、迴音壁效應、「信息繭房」等社會倫理風險。

3.自動駕駛領域的治理風險。一是將自動駕駛汽車視為「產品」或「服務」的質量安全風險。自動駕駛汽車質量檢查監測環境的建設、質量標準體系的形成、質量檢查流程的確立等,都是針對該問題而展開的治理探索。二是因自動駕駛汽車事故而帶來的責任追溯與責任分配問題。自動駕駛汽車的事故責任治理不同於傳統汽車。技術不可解釋性對責任原因追溯提出了新的挑戰和要求。當前各國圍繞重構保險體系、全過程風險信息記錄、事故信息共享等議題的討論均可被視為試圖解決責任追溯和責任分配問題的治理探索。三是自動駕駛汽車在運行過程中不斷收集用戶(包括駕駛者和乘客)數據或行駛環境數據而產生的數據隱私權利侵害或數據安全風險問題。四是自動駕駛汽車作為新業態的合規性風險。在既有法律制度框架尚未針對自動駕駛新業態作出調整之前,自動駕駛的研發、測試、運行都將面臨因突破規則而可能引發法律後果的治理風險。開放路段是否允許無人駕駛汽車上路、交通燈或其他道路感知系統是否允許自動駕駛系統的反向控制等都是具體表現。

4.智能醫療領域的治理風險。一是產品或服務的質量安全風險問題。醫療影像識別系統的正確率、人工智能醫療器械軟件更新的及時程度、智能診斷意見的合格率等都是衡量智能醫療產品或服務質量是否滿足功能性需求的重要指標。二是產品或服務使用者及應用環境的標準與規範建設問題。智能醫療產品或服務價值的發揮需要以特定環境條件作為前提,尤其是使用者以及配套環境要求①。三是產品或服務出現事故時的責任追溯與責任分配問題。智能醫療產品或服務本身的質量問題,或者使用者及應用環境的不合規問題,都可能導致出現事故責任風險。人工智能不可解釋性挑戰和牽涉更為廣泛的使用者及應用環境問題都使得責任治理顯得更為複雜。四是收集並利用醫療影像及用戶診療數據過程中造成的隱私權利侵害或數據安全風險問題。鑒於個人健康信息是高度敏感的隱私信息,這一治理問題尤為重要。五是應用過程中對不同群體用戶造成差別對待的分化與歧視風險問題。當前智能醫療的重點並不是針對基於個體的精準產品或服務,而是在大規模數據集基礎上的功能完善,但因數據集缺失某些疾病特徵而導致此類疾病難以被識別或診斷,在社會層面則表現為分化與歧視問題。(① 這既是源於醫療領域的專業性,也是因為人工智能在醫療領域的應用主要體現為對於局部功能或流程的提升,而非整體性、全流程的替代,因此智能醫療產品或服務需要與其他環節相配合才能發揮效用。


(二)治理風險的二維度分類

基於生物識別、智能推送、自動駕駛、智能醫療四個領域治理問題梳理和風險總結,本研究將不同領域差異化的人工智能治理風險歸結為「技術風險」和「業態風險」兩類。

1.「技術風險」關注人工智能技術、產品或服務本身的風險。具體包括人工智能在功能上能否達到特定目標或標準的功能性風險問題(例如智能醫療產品質量安全問題),以及本身功能的設計或應用可能與既定社會價值理念相違背或衝突的價值性風險問題(例如生物識別服務的數據隱私侵犯問題)。

2.「業態風險」關注人工智能技術、產品或服務應用過程中的關聯繫統、環境及行為主體所產生的風險。具體包括人工智能應用「事前」因環境或使用者不滿足特定條件而可能導致的治理風險(例如智能醫療產品不合格使用者導致的治理問題),「事中」因不合理使用而對特定主體權益或社會公共利益帶來的短期或長期影響(例如生物識別影響個體自主性的社會倫理風險),以及「事後」如何在相關主體間分配事故責任的治理問題(例如自動駕駛的事故責任追溯與分配)。

「技術風險」和「業態風險」這兩類風險在本質上與人工智能發展應用的「技術驅動」邏輯和「業態驅動」邏輯密不可分。[37]部分人工智能發展應用以「技術驅動」為主,如通用性技術可被應用於不同場景以實現不同功能。舉例而言,原理類似的生物識別技術可被應用於不同場景從而實現身份管理、公共服務、行業監管等多種目標,其治理風險更多源自因技術性能或功能不完善而導致既定目標(識別準確率、穩定性等)難以實現的問題。與之相對,部分人工智能發展應用以「業態驅動」為主,如特定的複雜應用場景包含不同類型的人工智能技術組合,可能在不同環節存在差異化的治理風險。例如圖像識別、智能決策等多種人工智能技術被組合在一起以解決自動駕駛的場景需求,但應用過程中存在着責任分配、隱私侵害、公共安全等不同治理風險。

四、人工智能治理對象的分類與治理工具箱

(一)治理對象的分類研判

基於人工智能發展應用基本規律和特徵提煉的「技術風險」和「業態風險」,是協助監管者理解風險,並從實踐層面將治理對象進行分類的重要維度。但是分類框架的建構還需探索兩個維度的具體測度指標。尤其是在多樣性的技術實現方式和業態應用模式下,我們應按照何種標準研判兩類風險至關重要。本文提出兩個具體測度標準:

1.「數據特異性強弱」是人工智能「技術驅動」邏輯下的技術風險分類指標。「數據特異性」主要是指基於該數據能否識別出個人身份。[38][39]①能識別出個人身份的屬性或行為數據便稱為「數據特異性強」,而不能識別的其他數據類型便被稱為「數據特異性弱」。當前建立在機器學習及其衍生技術基礎上的人工智能技術主要依賴海量數據,但不同技術對數據特異性程度的要求存在差異,而這也將引致不同類型風險。對於特異性強的數據,其包含了豐富的個人屬性或行為特徵,並因此可以挖掘出巨大的個性化服務價值,而其背後的技術風險便主要體現為對個人基本權益的影響或侵蝕(如數據隱私或歧視);對於特異性弱的數據,人工智能技術的研發應用並不依賴具有明顯個人標籤的屬性或行為數據,而是依託大規模的環境數據或標註數據並從中提煉群體性特徵,與此相關的治理風險因此主要源於處理數據的算法系統設計與方法選擇。(① 已有研究提出了類似概念,例如「數據伴生性」、「數據敏感性」等。不同理論概念雖然內涵相近,但因為討論主題不同,仍然存在一定差異。例如「數據伴生性」是基於數據產生主體的屬性來進行分類,進而討論數據資源的確權問題,其涵蓋自然數據、社會數據、行為數據等多重內涵;「數據敏感性」主要圍繞數據引發的法律風險而展開,包括安全風險、隱私風險等。本文聚焦基於訓練數據而形成人工智能算法模型的技術風險,主要涉及損害個人權益的相關風險,因而更強調數據是否包含豐富個人信息的「特異性」強弱。

2.「系統自主性強弱」是人工智能「業態驅動」邏輯下的業態風險分類指標。相比於其他數字技術,人工智能的核心特徵在於突破了「波蘭尼困境」的束縛而實現了機器代碼的自我生產,進而能夠在諸多場景下代替人類工作。但是,計算複雜性和環境複雜性仍制約人工智能技術或系統對人類的可替代性。多種業態場景下的人工智能應用邏輯差異,事實上體現為具有不同自主性程度的人工智能系統的應用過程。具體而言,人工智能的「系統自主性弱」意味着其應用開發目的是以輔助人類工作為主。此時人類的自主性仍然佔據應用過程的主導地位而系統在其中的自主性較弱。在界定好人工智能產品或服務功能標準的前提下,風險主要源於人類作為部署者、使用者的不確定性。與之相反,人工智能的「系統自主性強」則意味着人工智能算法或系統的應用旨在取代人類生產生活中的重複性、範式性工作,甚至替人類決策和行動。此時,人工智能算法或機器的系統自主性更強,人類的自主性難以在應用過程中佔據主導。這一業態應用方式會潛在導致技術失控的風險加大,也是當前人工智能治理的重點關切,反映了人們對技術不確定性的普遍擔憂。

依據「數據特異性強弱」和「系統自主性強弱」的分類指標,本研究構建了分類框架,並形成了四種類型的治理對象。接下來本文將對這四種類型的具體內涵作出說明,並以生物識別、智能推送、自動駕駛、智能醫療這四個代表性領域為案例,揭示該分類框架的理論建構與現實實踐的內在關聯(見圖2)。

薛瀾、賈開、趙靜 | 人工智能敏捷治理實踐:分類監管思路與政策工具箱構建 - 天天要聞


第i象限的類型特徵是數據特異性強、系統自主性弱。該類型下作為被治理對象的人工智能業態,其主要依賴與個體特徵密切相關的個人數據,且其應用邏輯以輔助人類工作為主,生物特徵識別即可歸於該象限。生物識別在技術邏輯上主要涉及海量個人身份數據的收集與處理,從而能夠精準確認個體身份並在不同環境下加以應用。因此,在技術邏輯上體現出「數據特異性強」特徵,治理風險也往往與個人權益的影響與侵蝕有關。同時,生物特徵識別技術的多元化應用場景(身份管理、公共服務、行業監管等)多以輔助人(決策)的角色出現。尤其考慮到責任追溯和責任分配問題,其難以完全替代相關人的行為決策。治理風險主要在於相關主體的技術使用行為。

第ii象限的類型特徵是數據特異性和系統自主性都強。該類型下作為被治理對象的人工智能業態,其依賴個人數據,且其應用邏輯致力於替代人以形成自主決策,智能推送可歸於該象限。考慮到「信息過載」等現象的普遍存在和效率優化的現實需求,智能推送業態更多以替代人篩選信息、處理信息的角色出現,業態風險往往體現對技術或算法失控導致應用風險的擔憂。智能推送在技術邏輯上非常依賴個體的用戶畫像數據,在不間斷、廣泛收集具有強特異性特徵的個人屬性或行為數據基礎上,實現「千人千面」的精準推送,相關治理風險也由此出現。

第iii象限的類型特徵是數據特異性弱、系統自主性強。該類型下作為被治理對象的人工智能業態,其主要依賴環境或人為數據而非個人數據,其應用邏輯則主要體現取代人決策的功能定位,自動駕駛可歸於該象限。自動駕駛的目標旨在取代人作為駕駛員的角色和功能,技術應用中體現了較強的系統自主性。同時,儘管自動駕駛的技術實現需要個人行為數據(例如駕駛員或行人行為數據),但其目標只是基於個人行為數據的集合來識別出一般性群體特徵,不需要精準識別個人身份以提供個性化服務,因此其技術邏輯並不依賴特異性強數據。

第iv象限的類型特徵是數據特異性和系統自主性都弱。該類型下作為被治理對象的人工智能業態,其主要依賴環境或人為數據,並主要以輔助人決策的功能定位而出現,智能醫療可歸於該象限。由於醫療數據較為分散,且當前社會對於醫療領域的人工智能替代缺乏信任,二者都使得智能醫療側重輔助並提升醫護人員的能力水平,而非完全取代醫護人員。同時,當前智能醫療產品或服務的重點並非定製化、精準化的個人服務,而是基於群體數據形成影像識別或輔助醫療診斷的技術工具。在此意義上,技術邏輯更關注算法模型的優化和提升,而非特異性強的個性化數據的整合與訓練。

需要指出的是,人工智能技術發展和業態應用是一個動態變化的過程而非一蹴而就的狀態,本文對四個案例的分類定位並非絕對的。以智能醫療為例,當前該領域的成功應用主要體現為醫療影像識別輔助決策,其主要針對的是一類典型疾病的識別,並非特定個人或特殊性疾病的識別或診斷,因此我們認為其數據特異性還是低於需以個人識別為基礎的生物識別領域,並將其歸類於「數據特異性弱」。伴隨着技術發展和業態變革,未來我們很可能迎來基於個人健康數據的個性化診療的普及應用,彼時其所屬類別自然將被調整至「數據特異性強」象限。這也啟示政策實踐者,需要結合技術發展和業態應用階段做出適應性調整,而這也正是「敏捷治理」的應有之義。但分類變遷並不代表本文提出分類治理框架的失效,而只是意味着針對該業態的治理工具和手段應該伴隨着其所處象限的移動而變化。由此便引出了本研究關心的第二個重要問題,即與每類治理對象相匹配的治理工具的充實與完善。

(二)治理工具箱的匹配構建

人工智能分類治理的基本理念是針對不同類型的人工智能風險,應匹配差異化的治理工具。考慮到治理工具更多來源於實踐探索而非理論演繹,因此本文接下來將在前文治理對象分類的基礎上,分別梳理各類型代表性案例所在領域的治理政策,並對其特徵進行總結,以作為與該類型治理對象相匹配的治理工具。相關梳理工作發現,生物識別、智能推送、自動駕駛、智能醫療這四個代表性領域所採納的治理工具的確存在差異,並在一定程度上體現了共性規律。

第一,生物識別領域的治理規範體現了重視「個人數據治理」和「技術使用者與使用環境治理」的特徵。在技術層面,針對生物識別技術發展和應用的治理規範涵蓋了個人數據治理的各個環節。為提升生物識別訓練數據的規模和多樣性,美國國家標準與技術研究院建設了人臉識別測試數據庫,且同時開發了生物識別通用交換文件格式以促進不同系統的兼容性。歐盟發佈的《人臉識別指南》進一步提出人臉識別技術的開發者或製造商應落實動態管理要求,定期更新數據集以提升模型正確性。歐盟《通用數據保護條例》和美國伊利諾伊州出台的《生物信息隱私法案》都對生物識別數據的收集、處理、應用方式和範圍作出了嚴格限定。為確保生物識別技術的公平性,美國《遺傳信息反歧視法》特別規定了禁止性條款,以限制將個人遺傳信息用於生物識別領域的行為。以《通用數據保護條例》為代表,相關治理規範強調了數據透明度要求,不僅要求生物識別技術的開發應用者應滿足用戶的知情同意原則,同時也要求數據保護的影響評估和風險信息需要與監管者分享。在業態層面,相關領域的治理規範都對生物識別技術的應用領域和場景提出了限定性要求。例如美國加州《身體攝像頭責任法案》明確禁止警察執法部門在隨身便攜攝像頭中進行人臉識別,從而限制了生物識別技術的應用環境。同時,生物識別治理領域多將產品或服務的開發應用者視為責任主體,例如《通用數據保護條例》即規定了數據控制者和處理者的默認責任條款。

第二,智能推送治理體現了側重「個人數據治理」和「系統治理」的特徵。在技術層面,美國信息技術與創新基金會發佈的《政策制定者如何推動算法問責》報告提出應採取程序性規制以確保算法結果的一致性和錯誤的可預期性,並通過多元方式(例如影響評估、誤差分析、偏差測試)評估算法風險並採用多元機制(例如透明度和可解釋性要求、置信度、程序規則等)確認導致風險的原因,而這些程序性規制和評測的關鍵都是維護個人權益。針對算法公平性問題,歐盟出台的《通用數據保護條例》及美國紐約發佈的《算法問責法案》都對基於特定類別個人數據進行自動決策和分析的適用範圍作出了約束和限定。在業態層面,智能推送治理較為明顯地體現出聚焦系統本身而非關聯環境的特徵。例如《互聯網信息服務算法推薦管理規定》明確對算法模型「禁止推薦」或「應當推薦」的內容屬性提出了要求。《算法問責法案》和《算法透明性和可問責性聲明》對算法運行過程中的算法審計、風險評估、動態調整作出了規定。新加坡《防止在線虛假信息與操縱法案》更為集中地注意到了智能推送算法本身的自主性特徵,提出如果服務提供者出於公共利益並在合理謹慎的情況下不承擔責任。

第三,自動駕駛領域的治理規範體現了對於「非個人數據治理」和「系統治理」的側重。在技術層面,現有治理規範主要體現了對於數據治理的關注和重視,尤其是環境數據。例如韓國《自動駕駛汽車商用化促進法》和德國《自動駕駛法案》均要求設立自動駕駛專區,通過限定自動駕駛汽車應用場景來確保路測數據的完整性。美國《為運輸業的未來做準備:自動化車輛3.0》進一步提出了自動駕駛汽車數據庫的建設標準。在業態層面,自動駕駛汽車現有治理規範主要針對系統本身提出了治理要求。例如考慮到新技術應用的不確定性,新加坡《道路交通(自動駕駛汽車)規則》要求自動駕駛汽車路測申請方應對測試目的、流程作出解釋,而美國《聯邦自動駕駛汽車政策》則要求定期審查自動駕駛汽車路測協議以使之具有迭代性和前瞻性。在自動駕駛汽車運行過程中,德國聯邦參議院通過的《道路交通法第八修正案》對駕駛者接管車輛控制權的情形作出了規定,以試圖明確「使用者」和「系統」的邊界,從而有利於明晰事故責任。

第四,智能醫療領域體現出對「非個人數據治理」與「技術使用者與使用環境治理」的側重和偏向。在技術層面,智能醫療的現有政策規範儘管同樣關注數據治理,但更多治理舉措偏向算法治理。例如我國國家藥品監督管理局醫療器械技術審評中心組織制定的《深度學習輔助決策醫療器械軟件審評要點》、歐盟出台的《〈關於機械人技術的民法規則〉的建議(2015/2103)》中都規定製造方需證明智能醫療算法的功能和性能滿足設計要求,並確保產品或服務應用過程中的更新維護合乎規範。美國出台的《基於人工智能/機器學習的軟件作為醫療設備行動計劃》直接提出了算法公平性問題,而我國發佈的《醫療器械軟件註冊技術審查指導原則》則對不同安全性級別的算法提出了差異化的透明度要求。在業態層面,智能醫療領域的現有政策規範較為明顯地體現出關注技術、產品或服務應用過程中關聯繫統、環境及行為主體的特徵。中國出台的《人工智能輔助治療技術管理規範(試行)2017版》及《人工智能輔助診斷技術管理規範(試行)2017版》、歐盟出台的《〈關於機械人技術的民法規則〉的建議(2015/2103)》及《醫療器械法規(medical device regulation)》都明確對智能醫療設備的使用者提出了明確要求,包括其醫療經歷、專業職位、團隊資質等。同時,《人工智能輔助治療技術管理規範(試行)2017版》還對智能醫療產品或服務的使用環境和適用範圍提出了前提性要求。針對責任問題,歐盟、中國、新加坡等國都明確將智能醫療設備的製造方和使用者視為責任主體,而歐盟《〈關於機械人技術的民法規則〉的建議(2015/2103)》還進一步明確了通過「與機械人的實際操作水平及其自主程度成比例」的責任大小分配原則。

基於上述梳理,不難發現各領域在技術維度的治理工具可被概括為圍繞功能性目標和價值性目標而分別展開的政策設計,前者涵蓋穩定性、正確性、效率性等議題,而後者包括隱私性、公平性、透明性等;同時,針對數據特異性強、弱等不同類型人工智能治理對象,現有政策實踐在以上各議題點也體現出了差異性的治理工具選擇。另一方面,各領域在業態維度的治理工具可被概括為針對事前、事中、事後三個階段的政策設計,分別聚焦產品或服務的准入要求、風險信息的處理、產品或服務的責任分配等具體議題;同時,針對系統自主性強、弱等不同類型人工智能治理對象,我們同樣發現了現有政策實踐的差異化治理工具選擇。相關總結可參見表2、表3,而這也構成了人工智能分類治理的指導框架。



五、結論與討論

人工智能分類治理理念在近年來得到實踐層面認可的同時,仍然面臨著如何落地的挑戰,這也因此倒逼了人工智能分類治理維度與框架研究的理論探索。以此為起點,本文按照「問題界定—分類框架—政策工具箱」的分析思路,提出了人工智能分類治理框架及其匹配的政策工具箱。首先,「問題界定」梳理了不同領域人工智能應用出現的治理風險並總結問題的關聯與差異,以明確人工智能治理所要針對的對象,研究認為應從技術風險、業態風險兩個維度進行問題審視。其次,「分類框架」主要探究導致人工智能治理風險的內在邏輯,為可遷移、可參考的治理方案設計提供論證支撐。圍繞技術、業態兩個維度,文章分別提出應按照數據特異性強弱、系統自主性強弱為測度標準以對人工智能作為被治理對象進行分類。最後,以四個類別的現有治理規範為事實依託,梳理與每個類別相匹配的政策工具,本研究最終形成了人工智能分類治理的政策工具箱。

值得注意的是,考慮到人工智能技術發展和業態應用本身的動態性和不確定性,人工智能分類治理框架仍然可能面臨三方面的未來變化。第一,生物識別、智能推送、自動駕駛、智能醫療等具體業態因發展階段的不同而可能在本文所提出的分類框架間移動。在此意義上,本文的框架並不能被理解為針對上述四個案例的具體治理方案,而是基於案例所總結出的一般性框架。案例本身的治理邏輯可能發生變化,但該框架仍然可能保持適用性。第二,伴隨着人工智能底層技術或應用邏輯的變革,本文提出的分類框架可能需要發展或修正。例如,當人工智能不再建立在基於大數據的機器學習技術基礎之上,而被因果推理、符號學派等其他技術路徑所取代時,「數據特異性強弱」自然不再適宜作為技術維度的測度指標。但即使如此,本研究基於各領域案例實踐紮根分析而形成的「技術-業態」人工智能分類治理框架仍然可能作為未來討論的基礎。事實上,相關研究圍繞人工智能推動行為科學[40]、創新生態[41]、公共管理與政府治理[42][43]等不同領域範式轉變的分析思路,也大都圍繞這兩個維度展開。在分類框架不會出現本質性變化的前提下,根據治理問題、治理需求變遷而在分類框架內移動,或者對分類框架的測度指標進行漸進式修正,仍然符合「敏捷治理」的原則和理念。第三,本文從技術與業態兩個維度提煉的人工智能分類治理框架,主要體現了中微觀層次的分析視角,尚未納入制度(例如監管制度傳統)、文化(例如治理風險的社會包容度)等宏觀層面相關因素的考量。這既是本文局限,也是值得未來研究進一步探索的空間所在。


參考文獻:略


基金項目:國家社科基金項目「『公地』視角下全球數字治理合作或衝突的影響因素與機制研究」(編號:23bgl244);清華大學自主科研計劃項目「算法全球治理與分類治理的理論探索」(編號:2021thzwjc12);清華大學-豐田基金專項項目「未來市場監管智能算法模型、企業應對行為和潛在社會風險研究」

科學分類資訊推薦

2024年現代科技館體系聯合行動舉辦「禮讚科學家」主題科普活動 - 天天要聞

2024年現代科技館體系聯合行動舉辦「禮讚科學家」主題科普活動

中新網北京5月16日電 (記者 孫自法)記者從中國科技館處獲悉,2024年現代科技館體系聯合行動「禮讚科學家」主題科普活動主場活動15日在寧夏銀川舉辦。2024年現代科技館體系聯合行動舉辦「禮讚科學家」主題科普活動。中國科技館/供圖  活動期間,寧夏科技館攜手中國科技館和江西、甘肅、河北及鄭州等省市科技館的全國科技館...
魯長友在調研石墨產業發展時強調 加快推進石墨產業向中高端邁進 全力打造百億級石墨生產加工基地 - 天天要聞

魯長友在調研石墨產業發展時強調 加快推進石墨產業向中高端邁進 全力打造百億級石墨生產加工基地

5月15日,市委書記魯長友到恆山區、滴道區調研檢查石墨產業發展、安全生產等工作,研究推進石墨產業專班工作。他強調,要深入學習貫徹習近平總書記視察我省期間重要講話重要指示精神,把堅持高質量發展作為新時代的硬道理,加快推進石墨產業向中高端邁進,積極培育發展新質生產力,全力打造百億級石墨生產加工基地和全國最...
中國科大構建出國際首個基於糾纏的城域量子網絡 - 天天要聞

中國科大構建出國際首個基於糾纏的城域量子網絡

IT之家 5 月 16 日消息,通過量子態的遠程傳輸來構建量子網絡是大尺度量子信息處理的基本要素。基於量子網絡,可以實現廣域量子密鑰分發以及分佈式量子計算和量子傳感,構成未來「量子互聯網」的技術基礎。目前,基於單光子傳輸的量子密鑰網絡已發展成熟,而面向分佈式量子計算、分佈式量子傳感等進一步量子網絡應用,需要...
這事兒|美國阿波羅登月真假爭議再現輿論場,中國科協曾多次闢謠 - 天天要聞

這事兒|美國阿波羅登月真假爭議再現輿論場,中國科協曾多次闢謠

阿姆斯特朗在月球表面活動近日,圍繞美國阿波羅登月計劃是真是假的討論再次在多個網絡平台成為熱門話題,不少網友將航天專家在直播上提到「阿波羅盆地」時不太連貫的表達解讀為「阿波羅登月就是一場驚天騙局」。對此次謠言的來龍去脈,中國科協微信公眾號「科學闢謠」作了梳理。「科學闢謠」5月14日刊發中國科技新聞學會太...
X8.7級!太陽爆發十餘年來最強耀斑 能量究竟有多大?|封面科考隊 - 天天要聞

X8.7級!太陽爆發十餘年來最強耀斑 能量究竟有多大?|封面科考隊

封面新聞記者 張崢大自然的力量超出人類想像。最近,太陽耀斑、地磁暴、極光頻頻光顧熱搜頭條。我們肉眼可見的極光因為地磁暴引起,地磁暴與太陽耀斑密切相關,而太陽耀斑是什麼?有人會問:一個X級別的太陽耀斑能爆發多大的能量?對我們有多大的影響?北京時間5月15日,太陽繼續爆發出驚人的能量。在太陽活動區13664轉到日...
40萬元可當「洋院士」?遭質疑後他們緊急去頭銜 - 天天要聞

40萬元可當「洋院士」?遭質疑後他們緊急去頭銜

40萬元可當選?「洋院士」瘋狂擴招! 近日,西安一名90後博士當選歐洲自然科學院院士,成為「世界唯一一位90後院士」的消息,引起廣泛關注,「洋院士」的含金量遭受質疑。 網上流傳的一份名單中,2021年至今,60多名國內人士戴上了這一頭銜,其中不乏高校教授和企業高管。「洋院士」含金量質疑下,他們正緊急去掉頭銜。 截...
對接成功!梅州市首場高校院所和企業專利成果轉化對接活動舉行 - 天天要聞

對接成功!梅州市首場高校院所和企業專利成果轉化對接活動舉行

今天,嘉應學院聯合梅江區市場監督管理局開展專利轉化「校企」精準對接專場活動。活動現場,在相關部門的「牽線」下,廣東飛翔雲計算有限公司、廣東長樂燒酒業股份有限公司、豐順萬洋眾創城、豐順縣電聲行業商會與嘉應學院簽訂《科技創新框架合作協議》。廣東飛翔雲計算有限公司副總經理 劉湘明:希望藉助高校這個着力點,...