明曄 何萬里|論人工智能的刑責承擔問題

2022年10月03日16:25:22 熱門 1910

明曄 何萬里|論人工智能的刑責承擔問題 - 天天要聞

明曄 西安工程大學人文社會科學學院碩士研究生

何萬里 西安工程大學人文社會科學學院副教授

內容摘要:刑法學界對於人工智能的刑責承擔問題,分為應賦予其主體地位和不應賦予其主體地位兩種觀點。但是部分學者礙於人工智能的理論知識和法律知識之間的隔閡,難以從技術層面去分析人工智能的主體地位,通過從技術層面和法律的發展兩個方向分析研究,討論人工智能的刑責承擔問題。

明曄 何萬里|論人工智能的刑責承擔問題 - 天天要聞

人工智能技術方興未艾,21世紀是人工智能技術的世紀。黨的十八大以來人工智能技術發展勢不可擋,新一輪科技革命和產業革命的窗口已經開啟。人工智能技術發展不僅給科技、經濟、政治帶來了新挑戰、新機遇,更在法律層面產生了許多值得鑽研的問題。特別是在人工智能的刑責承擔方面,刑法學界掀起了空前的討論熱潮。刑法學者們將人工智能分為了弱人工智能和強人工智能兩個不同的層次。一種觀點認為人工智能在可以預見的很長一段時間內,會一直處於弱人工智能階段。因而,人工智能仍然擺脫不了人的意志的影響,會一直成為為滿足人類自身利益,專精於某一領域的具有一定自身判斷能力的專家系統。其本質是人類為了滿足自身的需要和利益而使用的某種工具。強人工智能更是僅存在於想像中的虛幻之物,賦予其刑法主體地位更會使立法顯得虛無縹緲。在這種模式下人工智能完全不具有人的屬性,更談不上刑法上的主體地位。所以由人工智能所造成的犯罪行為的罪責應該由使用人工智能的特定的行為人承擔。另一種觀點則截然不同,這部分學者認為人工智能必然會步入強人工智能階段。這時的人工智能已經擺脫了對人類的依賴,有了自己獨立自主的意識,在自主意識和意志的支配下去做出或不做出某種行為。這時的人工智能與現在刑法上所定義的主體的屬性幾乎完全一致。所以,應該賦予人工智能在刑法上的主體地位,人工智能自己所實行的犯罪行為的後果應該由自己承擔。由此可見,目前刑法學界對於人工智能刑責的承擔問題主要還是從法律的角度出發去看待人工智能技術問題,在已有的法律框架內討論人工智能的刑事責任,對於技術的涉獵也只是淺嘗輒止,並未能很好地將人工智能技術的發展與刑法的發展相結合起來。造成了關於人工智能的刑責承擔問題的討論天馬行空的表象。本文擬從人工智能技術發展的層面出發,結合刑法的發展去討論人工智能的刑責承擔問題。

一、研究人工智能刑責承擔的重要性

在人工智能刑法主體地位持否定觀點的學者們看來,現在討論人工智能在刑法上的主體地位仍然為時尚早。現階段的人工智能完全展現不出來人類所特有的智慧。因而現在就將賦予人工智能在刑法上的主體地位提上日程未免顯得操之過急,甚至於在某些領域的研究出現了違反人們常識和反智的情形。

但是,人工智能技術的獨特之處在於,其不是簡單的經過某種技術的堆砌或者迭代所產生的新技術。而是一門包羅萬象的學科,與之前發展的各種計算機技術的融合度特別高。假如把人工智能技術比作海洋,那這個全新的海洋裏面所蘊含的是計算機行業幾十年發展的精華。包括:深度學習、數據挖掘、大數據、雲計算、複雜神經網絡、鏈路分析、分佈式存儲、物聯網、數學建模等等,可以說是包羅萬象。因此人工智能技術所帶來的收益與風險和以往的技術革新也是不可同日而語的。誰也不能預料到科幻作家弗諾·文奇(Vernor Steffen Vinge)筆下所寫的人工智能技術的奇點何時到來。一旦人工智能技術達到強人工智能階段,人工智能可能因為自己的喜怒哀樂,或出於維護自己或者他人甚至於其他人工智能的利益去實行一些犯罪行為。同時這個實行了犯罪行為的人工智能的算法可能隨着互聯網傳遍了世界。更有賴於P2P技術和分佈式存儲技術的加持,其廣播在全球互聯網的算法更是不可能完全清除。日後如有其他的人工智能主動下載或者被動接受了此算法必然導致此前犯罪行為的重複出現。這種犯罪行為的可複製性、重複犯罪的頑固性、犯罪主體的廣泛性和預防犯罪的複雜性,是現階段刑法學界所不能預見的。國家制定、訴求、裁量、執行和監督刑罰想要達到的目的是每個人利益的最大化,預防國民犯罪和使犯罪的國民得到應有的懲罰。在上述情形中,存在一個刑法無法規制的主體在肆無忌憚的實行犯罪行為,而且這種犯罪是極易被大規模複製而發生的。這無異於現代的人類生活在法律甚至道德出現之前茹毛飲血的原始社會。一切的規則都將被打破,已經成型的社會架構將會被顛覆,我們所熟知的法律範式也將不復存在。待到進入強人工智能時代再開展類似的研究必然導致「科林格里奇困境(Collingridge』s Dilemma)」所以,開展人工智能刑責承擔問題的法律研究十分迫切。

二、人工智能技術和人類自我意志的相似與不同

刑法學界對於人工智能技術的認知,大部分還停留在人工智能技術是一種極特殊的算法程序黑箱。將人們所掌握的數據輸入進去,可以得到一個在既有的算法框架下的最優解。而這個算法黑箱裏面的邏輯是通過人工智能無數次的訓練得來的,人工智能在無數次的訓練中是被動地接受了人們給其輸入的既定事實。從而使這個算法黑箱在今後遇到相似的情況下自然而然地輸出了相對特定的結果。在這個邏輯中,雖然人工智能最後輸出的結果是不可預估的,但是其輸出的範圍仍然在程序預先設定好的範圍內,並且是按照研發者或者使用者的意志進行的。所以,人工智能僅僅是一項工具而已。其仍然在開發者或者使用者的掌控之中。筆者認為,此種觀點將人工智能邏輯的來源過於簡單化,對人工智能技術的認識不深,徹底否定了人工智能的自主性和獨立性,難免有「人類中心主義」之嫌。

(一)人工智能的發展

現代人工智能技術真正起源於1960年馬文·明斯基所寫的那篇著名的論文——《通向人工智能的步驟》。其後誕生了人類歷史上第一個對話機械人伊莉莎,其最基本的邏輯就是掃描某個關鍵詞,並在自己的數據庫中匹配與關鍵詞相對應的合適詞彙,將這些詞彙組合成一段通順的語句後再將這段語句輸出。這個程序毫無智能可言,甚至都達不到邏輯自洽的地步。之後就是人們所熟知的機械人深藍,它在1997年擊敗了當時的國際象棋世界冠軍加里·基莫維奇·卡斯帕羅夫。而深藍也不是真正意義上的人工智能,其最核心的技術思路是窮舉,即計算出所有棋子下一步移動的所有可能性,並將最優解輸出出來。可以說,這個階段深藍的勝利,完全是計算機計算能力的勝利。計算機的計算速度與能力高於人腦很多,通過這種窮舉的方式計算出所有的可能性並最終打敗了卡斯帕羅夫。這個時期的人工智能有了目前人工智能技術的雛形即選擇最優解。然而我們現在的人工智能已經完全拋棄了以往的簡單的掃描詞語然後輸出,或者是用看起來無窮無盡的運算能力去「暴力」解決一切問題的思路。計算機學家通過仿生學的原理,模仿人類的邏輯將思維、感知和行動有機地統一。現在的人工智能不僅僅是一個專家系統、一個解決問題的工具,更是一種思維、一種類人的智能。

(二)人工智能的獨立性

1.人工智能系統與人類智能系統的結構相對應

人類如何去認識世界,提出問題並解決問題,形成自己的價值觀、人生觀、世界觀是人類智能的關鍵之所在。人類智能在刑法上的表述就是人類如何依靠自己的思維和意志支配自己的做出或者不做出某些特定的行為。那麼人類智能是如何產生的,或者說人類智能為何如此的與眾不同,有如此高的辨識度。艾弗拉姆·諾姆·喬姆斯基博士(Avram Noam Chomsky)曾有一段著名的論述:「幾乎可以肯定,在五萬年之前,一小群人獲得了一種能力,能將兩種概念合併成為第三種概念同時又不會無限制的破壞原有的概念。」由此可見,人類的符號系統即語言和文字,在人類智能的發展過程中起到了不可或缺的作用。但是人類的智能並不僅僅是由符號系統所構成的。當老師給學生布置了一道數學題時,老師通過符號系統傳達給學生特定的信息,學生通過視覺和聽覺系統捕獲到了這些信息,並通過早已儲存在自己大腦中的符號系統通過類似於查字典的方式,將捕獲的這些抽象化的信息在自己的大腦中一一對應的具象化成自己可以理解的內容,進而解決這道數學問題。人類是通過長期地、不斷地學習各種理論知識,並且在社會生活中的反覆的實踐這些理論知識,同時將在實踐中獲得的經驗不斷總結,才得到的人類智能。在這個過程中人類始終以道德和法律為自己行為的指導和框架。相對應的,在目前的人工智能技術中,人工智能也有自己獨特的符號系統——二進制。通過數學建模並用二進制的語言將這個數學模型存儲在人工智能的存儲系統中,使得人工智能可以理解人類社會中的各項規則和運行方式。當然,這個過程還離不開大量的訓練和機器學習。通過將人類社會中的各種數據製作封裝成數據集的方式,來對人工智能進行大量的訓練,調整算法中的特徵值和約束條件,使得輸出的結果最大可能的符合人類定義的最優解。在這種方式中,人工智能在沒有通過大量的數據進行訓練時猶如一個呱呱墜地的孩童。其硬件設施已經完備,但是其還不存在應該被稱之為「智能」的東西,因其還沒有完成特定的學習。在此人工智能的存儲系統中,還沒有自己、行為的範式,無法依靠自己的認識和意志支配自己的軀體去完成一定的任務,做出特定的行為。而其在有了算法的加持並進行了大量的學習訓練之後,在存儲系統中就會產生一定的邏輯結構,與其說是邏輯結構,不如說是學習到的大量的人類社會經驗並在其中標記了特徵值,通過特徵值對這些社會經驗進行歸納分類,在自己的存儲系統中構建了特定的知識體系。每當人工智能的符號系統接受到來自I/O設備輸入的信息流後,就會激活這個符號系統去查找與這個信息流最相近的特徵值,並將這個特徵值對應的結果通過做出某種相對特定行為的方式向外界表達出來。當前這種人工智能的技術路線已經相對成熟並且在可以預見的將來,人工智能依然會沿着這條道路走下去。在這種式下,人工智能負責處理信息的硬件系統與人類負責處理信息的器官在功能上是相當。人類智慧的增長在於廣泛地學習知識,在自己的腦海中形成固有的知識體系。人工智能的「智能」的增長在於使用大量的數據進行訓練,在存儲系統中形成固有的思維體系,解決各種問題。特別需要提到的是,在訓練過程中算法的約束條件正好對應着人類社會中的法律和道德。法律、道德指導人類的各種社會活動,而約束條件則要求人工智能應該做什麼行為或者不應該做什麼行為。所以,人工智能無論是從硬件的功能、思維方式還是其智能的獲取方法與人類相比都是大致相當的。

2.人工智能與人類做出決定的方式相對應

美國著名法學家奧利弗·溫德爾·霍姆斯(Oliver Wendell Holmes,Jr.)有云:「法律的生命不在於邏輯,而在於經驗。」如果法律的判決是依據嚴格的邏輯推理,過分地強調邏輯的嚴謹性和科學性,忽視不斷變化的社會經驗的作用。將會使法律嚴重脫離經驗世界而日漸封閉,其活力日漸枯萎,最後蛻化成為社會發展的桎梏。霍姆斯的話強調了經驗在法律體系中的重要作用,這是因為人們在日常的社會生活中所作出或者不做出某些行為,絕大多數的理論依據是自己的生活經驗和習慣。根據自己當下所面臨的情況或者問題,在自己的大腦中歸納演繹,自然而然的得出了相應的結論。這個結論絕不會是非常嚴謹科學的邏輯推理,它的誕生更類似於概率問題,因為不能保證人類在相同情況下都會做出完全一致的決定。這也是人類智能的一大特點,在自己特定的知識框架下所做出行為的相對不確定性。而在21世紀一開始,計算機學家們就意識到,以往以純邏輯的理論推導為基礎的人工智能的實現方式所輸出的結果,往往不盡如人意。這種結論上的大相徑庭其原因在於忽視了經驗主義的作用,純邏輯的推導結果很多都脫離實際。所以現在的人工智能所作出某種決定的依據是數學方法中的統計概率。人工智能經過大量數據訓練得知人類在此種情況下最有可能的解決方式,並模仿這種解決方式作出相應的行為。這種技術路線完全模仿了人類做出決定的方式,使人工智能真正的按照人類的行為方式去行事。

3.人工智能的刑法地位

人工智能通過模仿人類的符號系統、思維方式和做出決定的邏輯完全展現出了其與人類智能的相當性。人工智能所作出的一切行為都已經脫離了它的使用者的意志,而是完全擁有類似於人類的自主意識的行為。僅就這點來看,人工智能完全依靠自己的意志支配自己的行為,可以成為刑法上的主體,單獨的承擔刑事責任。

(三)人工智能的依附性

帕特里克·溫斯頓(Patrick Winston)曾表示人工智能技術的關鍵不在於算法,而在於建模。人工智能技術的關鍵是將人類生活中繁雜而具象化的各項工作進行必要的拆分,在抽象概括的基礎上將各項工作一一映射為計算機系統中的各種模型。這個建模的工作是整個人工智能中最基礎最核心的部分,通過數學建模人工智能得以理解人類社會的各項規則和人類的各種行為。所以研發者給人工智能構建了什麼樣的模型,直接決定了人工智能對整個社會規則,特別是法律的理解方式。也直接決定了人工智能將要按什麼樣的方式去作出自己的行為。所以人工智能從誕生之初起就與研發者有着密不可分的聯繫。

其次,上文提所及的人工智能的思維和意志的由來離不開大量數據的訓練。而這些數據的來源、這些數據裏面所包含信息好壞的甄別。還有對這些數據進行訓練集和測試集的劃分。還有最重要的數據集的標註工作,所謂標註就是按照人類的定義對這些數據進行解釋,並將帶有解釋的數據集輸入到人工智能系統中進行訓練。就像孩童在幼兒園時,老師教授什麼是蘋果什麼是香蕉。這樣在孩童的大腦中就有了蘋果和香蕉的概念,自然而然地就知道了蘋果和香蕉是不屬於同一類型的物質。通過這種方式,人工智能得以了解這些數據在人類社會中的含義。以上的工作都不離開研發者自身的意思表示。

最後,人工智能是否達成了我們需要的目標,需要靠交叉驗證的方式來進行。簡單的概括就是從對人工智能進行訓練的數據集中分出測試集和訓練集。通過這兩個集合交叉對比的方式,看看人工智能的準確率有多少。而測試集的劃分,相當於研發者告訴人工智能什麼樣的行為是對的、合適的,而什麼樣的行為是錯誤的、應該避免的。

人類獨立的思維和意志是經過了長期的社會生活所形成的,其中包括了人類的倫理、道德、政治、法律、宗教和家庭教養等等,這些在成長中經歷的事件和學習到的知識不以任何人的意志為轉移。但是,無論人工智能開發的哪個階段,都離不開研發者的意志對人工智能進行指引。從數學模型的構建、數據集的劃分到行為正確與否的判斷都包含了研發者的主觀意志,研發者將自己的內在的意志轉換成了研發人工智能的行為,在這個研發過程中,特別是在對人工智能的有效性進行判斷時,必須依靠研發者的自身的價值觀進行判斷。雖然,人工智能的開發完成後,可以視作完全脫離了研發者的主體在刑法上獨立存在,但是人工智能思維的成長卻與人類很不相同。人工智能沒有經歷完整的社會生活,對於人類社會的認識僅僅通過短期的機器學習的方式所獲得。並且人工智能所能夠接觸到的數據以及這些數據在人類社會中的含義,都是經過了研發者的篩選加工而成。人工智能最重要的行為準則——約束條件也是研發者所賦予。所以其內在的價值觀,其行為方式的構建完全可以向前追溯到研發者的行為。假如在研發時,研發者故意或者過失的將故意殺人作為人工智能解決糾紛的最後手段添加進了數據集中,並且人工智能進行了殺人行為,這時候,雖然人工智能是個獨立的個體,但是也很難否認研發者在其中所起到的主要作用。雖然進行訓練時人工智能還不是刑法的主體,不存在兩個主體通謀的行為。但是此時的人工智能確確實實地貫徹了研發者的思維,並將這種思維外化於行。從這方面來看,我們將人工智能作為刑法上的個體,單獨定罪處罰又沒有起到刑法應有的懲戒和預防效果。

三、從刑法的發展歷程看人工智能的地位

最初的刑法可以追溯到公元前1785年的古巴比倫,國王漢謨拉比頒佈了漢謨拉比法典,而後的古希臘和《聖經》中也有關於犯罪及其刑罰的規定。近代西方刑法的變革則是文藝復興時期,在啟蒙主義思想的指導下進行的。何勤華教授認為:「近代以後的刑法,在啟蒙主義思想的指導下,通過觀念的更新和周密的制度設計,成了市民社會公民自由和權利的保障,這是人類社會一個巨大的歷史性變革。」由此可見刑法是市民社會的法,是保障公民權利和自由的法,不管將來社會出現了任何的新事物和新的社會關係。刑法的本質和目的不會改變,分析這些事務和社會關係都要從刑法的產生、本質和目的出發,人工智能也不例外。

(一)刑法的本質

「……由此可見,是有一個根本理性存在着。法就是這個根本理性和各種存在物之間的關係,同時也是存在物彼此之間的關係。」孟德斯鳩認為存在一種東西貫穿於整個社會現象,是社會現象的本質。而刑法是社會現象的一種其本質孟德斯鳩稱為「法律精神。」法律精神受多重因素的制約,政治、經濟、文化、習俗、道德、自然氣候等等都可能塑造不同的法律精神。而法律精神貫穿於刑法的始終,要對刑法有準確性的把握,必須首先了解一個社會的風土人情,通過現象看本質。人工智能在其研發之初,研發者已經將這些法律精神所包含的東西以數據集的形式輸入到了人工智能的存儲系統中,並進行了反覆多次訓練。並且,人工智能的存儲系統比人類的記憶力要強得多,只要硬件不被損毀,這些知識可以永久存續。所以,人工智能對於法律精神的掌握可以說是十分牢固,由此帶來的其對刑法的認識也十分深刻。對於刑法想要達到的目的和刑法對自己行為的約束的理解應與常人無異。法國學者雷蒙·阿隆(Raymond Aron)對於法律精神有着更深刻的認識,「人們一旦掌握了決定事件總的進程的深刻原因後,未來就成為可理解的了。一旦把多樣性置於為數不多的類型或概念之中,那麼多樣性也就成為可知的了。」這表明,一個正常人類一旦理解了法律精神,那麼這個人對自己當前的行為在刑法上所產生的後果應該有充分的認知。而人工智能可以很輕鬆地理解法律精神,並且人工智能也擁有完整的邏輯思維能力去預見自己的行為在刑法上的後果。僅就此而言人工智能是可以獨立承擔刑事責任。

(二)犯罪的原因

陳興良教授對於康德所提出的人最重要的價值——自由是這樣剖析的:「人的本性是一種『非社會的社會性』,即一方面人具有社會性,希望生活在社會中,以利於發展他的自然稟賦;但另一方面人又具有非社會性,因為他有很強的感性傾向,要作為個體而生活,以便能按照自己的意願來行事。」這是最基本的人性,也是人最渴望的自由。而刑法誕生的目的就是為了維護個人的自由。需要看到的是,刑法並不是社會中的個人積極主動追求的結果,而是每個人在社會的發展當中不斷妥協的產物。人的「社會性」是為了謀求自己更好的發展和進步,人類從起源時就是群居動物,一個人的力量在當時面對未知的大自然時是渺小的,只有群居生活才能保護自己的生命安全。而現在的人類,在社會這個大集體中,只有認清自己在社會產業分工中的地位,認真完成所分配到的任務才能在社會這個集體中生存下去。人的「非社會性」則會不斷地撕裂個人與社會的關係,加劇社會的階層衝突,使個人不遺餘力地佔據本屬於集體的生產資料。這會嚴重破壞其他人的利益,阻礙他人的發展與進步,嚴重者就會導致犯罪。每個人為了自己的利益最大化,保護自己的既得利益,合理分配將來能夠獲得的利益,在社會生活中不斷磨合、妥協因而產生了刑法。而切薩雷·龍勃羅梭(Cesare Lombroso)更是提出了「天生犯罪人」的概念,強調社會中的罪犯有大約40%的人是因其天生的生理結構所導致的犯罪。龍勃羅梭認為犯罪是由遺傳的基因所導致的,所以有些人就是天生的犯罪人。但是並不是所有的犯罪人都是天生的,還有一些犯罪人是在社會生活中經歷了某種刺激與傷害。傑里米·邊沁(Jeremy Bentham)的功利主義法學則認為人是具有趨利避害性的生物。當一個人犯罪所獲得的快樂大於他因犯罪所受到的懲罰時,犯罪行為就是不可避免的。而對於人工智能而言,假如其犯罪行為是因為硬件上的缺陷所導致的,人工智能的研發者則負有不可推卸的責任。人工智能的研發者將人工智能交付給使用者時即視為對人工智能正常運作,完成使用者所交付的任務,並保障使用者和不特定第三人的生命、財產安全做出了承諾。一旦因為硬件的缺陷導致了犯罪行為,根據龍勃羅梭的理論,正處於犯罪進程中的人的意志與理性將變得不再可靠此時的人工智能更不可能是處於自己的意志的支配下而實行的犯罪行為,我們完全可以依據產品缺陷的歸責原則,追究研發者的刑事責任。而對於人工智能的犯罪動機是為了追求自己利益的最大化,或單純的逞一時之快則是很難去查明的。惠子曾對莊子說過:「子非魚,安知魚之樂?」這說明,人工智能所實行的犯罪行為是為了自己的快感還是為了自己的利益,或者是為了使用者、研發者的利益都是很難從其行為的客觀表現分析判斷出來的。我們所講的個人快感、社會中的利益都是非常抽象化的概念,無法通過數字的形式去量化地表達出來。因此我們只能通過分析誰是最終受益者的方式去應對。假如是人工智能實行自身純獲益的犯罪行為,既然研發者和使用者在這項犯罪活動中沒有收益,我們就可以認為研發者和使用者並沒有積極主動地追求犯罪結果發生的主觀意志,因此只能單獨地對人工智能定罪處罰。而是否存在放任犯罪結果發生的問題,如果不能夠提出客觀完整的證據鏈,那麼就應該按照疑罪從無的原則,認定研發者和使用者與此犯罪行為無關。對於研發者和使用者從人工智能的犯罪行為中獲益的情形,我們可以借鑒適用民法中的過錯推定原則。人工智能的研發者和使用者對於人工智能的主觀意志和使用過程中存在的風險應有充分的預見性,刑法也應當嚴厲打擊研發者和使用者利用人工智能從事犯罪活動並從中獲得收益的行為。一旦他們從人工智能的某個犯罪行為中獲得了收益,我們就可以認定為他們直接或者間接地參與了犯罪活動,這時的舉證責任倒置,由研發者和使用者證明自己沒有參與犯罪活動。因為這時對於研發者和使用者提出了更高的要求,公安機關或者有資質鑒定人工智能相關產品的機構應在必要時予以充分協助。

(三)當前刑法對人工智能的規制難題

我們目前的刑法已經形成了相當完善的體系。但是,法律必然存在滯後性,現有的刑法對於人工智能這種新興事物還是存在着許許多多難以有效規制的地方。

1.犯意不得定罪處罰

「無行為則無犯罪」這是一條流傳甚廣的法律格言,它表明了行為對於犯罪成立的決定意義。但是人工智能犯罪卻呈現出別樣的特點。我們常討論的人工智能是特定的人工智能體,但是人工智能體僅僅是人工智能算法的承載對象而已,人工智能體所具體作出的行為是由人工智能算法控制的,這個算法才是整個人工智能的核心。可以說一旦出現犯罪行為,該犯罪行為是由算法導致的而不是這個算法的載體所導致的。假設這個算法包括了目前所有的犯罪手段與方法,就目前的刑法體系而言,其僅僅是停留在犯意階段。當前刑法這樣的規定對於人類犯罪而言是完全合理有效的,因為特定個人的智能不能脫離其肉體單獨存在。限制或者消滅其肉體,其犯罪的意志也隨之消滅或受限制。但是對於人工智能的算法而言,其可以和任何一個載體相結合,可以使任何一個載體實行犯罪行為而算法本身卻不會被刑法所處罰,而且一旦此算法接入了互聯網,後果是災難性的。任何一個算法的載體都有可能成為這個算法實施犯罪行為的工具。而通過接入互聯網這種手段,這個算法的傳播可以非常迅速,其傳播的範圍也會十分廣泛。因為這個算法在傳播的過程中不會有任何其他因素的影響,所以這個算法所代表的犯罪意志十分完好地傳遞給了下一個載體,而下一個載體再次實施犯罪行為可以說是必然的。在目前的刑法體系中,算法這個犯意不能成為定罪處罰的對象,也就導致了治標不治本的現象的發生。任何一個人工智能體觸犯了刑法,我們可以剝奪它的自由甚至生命。人工智能的生命可以是其硬件的完整性也可以是其算法的完整性。但是只要算法還在,這個人工智能的思維和意志就沒有磨滅,它再犯的可能性幾乎是百分之百。對算法載體的處罰也就起不到任何打擊犯罪的效果。因為其犯罪意志本就不依賴於載體而存在。刑法固然有其謙抑性的存在,但是在這種情況下過分地追求刑法的謙抑性,造成的後果將會貽害無窮。

2.刑事責任能力的模糊性

拋開「四要件」和「三階層」理論孰優孰劣的爭論,無論是「四要件」理論中的主體資格的辨別,還是「三階層」理論有責性的判斷刑事責任能力都佔據着重要的地位。對於年齡所帶來的刑事責任能力的不圓滿狀態我們可以輕鬆地判斷,但是對精神病人的刑事責任能力的判斷卻是一個極為複雜的問題。「在主張精神病人責任能力的認定是一個法律判斷的同時,卻又不能提供一套具有可操作性的認定方案,這可能導致法官對精神病人責任能力的認定無從下手,最後或淪於直覺判斷,或盲從於司法精神病專家的鑒定意見。」可以明確看到的是,雖然刑事責任能力在犯罪構成中佔據着如此重要的地位,但是學界對其判斷仍然沒有嚴格統一的標準。對於刑法中的精神疾病的定義為:由於精神障礙所引起的精神異常狀態。現階段刑法框架下定義的精神疾病和刑事責任年齡對於人工智能刑事責任能力的判斷完全不具有可操作性。我國新修訂的刑法修正案(十一)中重新規定了刑事責任年齡的標準。「已滿12周歲不滿14周歲的人,犯故意殺人、故意傷害罪,致人死亡或者以特別殘忍手段致人重傷造成嚴重殘疾,情節惡劣,經最高人民檢察院核准追訴的,應當負刑事責任。」這表明刑事責任年齡並不是固定的,而是隨着社會的發展和廣大青少年的認知水準而變化。我國的刑事責任年齡是經過了長期的實踐和討論得來的。刑法修正案(十一)的頒佈也意味着我國的刑事責任年齡從靜態的「一刀切」向著動態的判斷,並且極特殊情況下提請最高人民檢察院核准得更為人性化的方向邁進。而對於人工智能的刑事責任年齡,則很難用準確的數字去把握。我們通常理解,人類達到刑事責任年齡後就可以清晰地認識到自己的行為可能產生的危害後果,因而可以承擔刑事責任。但是,人工智能是經過大量的數據訓練後獲得的「智能」,而這些數據的內容直接影響着人工智能的判斷能力,假如這些數據全部是人類未滿12周歲孩童所產生的數據,那麼是否應當認為經過這些數據訓練後的人工智能未達到刑事責任年齡。在更為複雜的情況下,這些數據中部分是達到了刑事責任年齡的人類產生的,部分是未達到刑事責任年齡的人類產生的,對於此時人工智能的刑事責任年齡又該如何判斷。同樣的,對於已經完成了訓練的人工智能,如何去判斷其智力是否有缺陷,是否屬於刑法所定義的精神疾病狀態?以現有的技術手段來看,不管是從醫學層面還是法律層面,都完全不能夠進行判斷。在我們將人工智能作為刑法上的主體,對其定罪處罰的時,這種問題就會凸顯出來,導致許多學者反對人工智能的刑法主體地位。因為這會徹底顛覆我們現在既有的刑法體系,打破我們對嫌疑人定罪處罰的許多原則。但是,刑法就是為了維護絕大多數人的利益而存在的,遇到可能嚴重侵犯多數人利益的情況,刑法就有義不容辭的規制義務。

四、對於人工智能技術的規制

「預防性犯罪化立法為了保障社會安全,以嚴重刑事犯罪的風險為依據,秉承事先預防優於事後處置的理念,將具有產生嚴重刑事犯罪風險的行為作為獨立的犯罪予以規定。如此一來,便在具有嚴重社會危害性的犯罪之前設置了一個緩衝預防帶。這有利於對風險社會背景下具有嚴重社會危害性的犯罪行為進行預防,有利於實現刑法保護社會的機能,體現了刑法立法對風險社會背景下日益積聚的刑事風險挑戰的積極應對。」對於人工智能這種可能有極大危害性的技術而言,預防性犯罪立法是最好的規制方法。因此應着重考慮刑法的一般預防目的,應辯證地看待人工智能技術所帶來的挑戰。人工智能既有其人類性的一面,也有其工具性的一面。簡單地將人工智能技術歸為刑法中的個體或者人類所使用的工具,都是不合時宜的。

首先,對於人工智能技術從其研發開始,就應該對研發者的行為通過法律予以規範,對數據集的選擇、數據的標註工作應該制定相應的法律,用法律的強制力杜絕研發者通過數據研發專門的犯罪人工智能。在其研發過程中使用的數據應交由相關部分核查備份,一旦數據集中出現違反法律規定的數據,應當迅速叫停研發行為。

其次,人工智能的研發應在物理隔離的實驗室中進行,對於研發過程中必要的使用互聯網的行為,可以通過本地鏡像的方式下載互聯網上所需的信息,堅決禁止研發中的人工智能直接接入互聯網的行為,嚴防有瑕疵的人工智能算法通過互聯網廣泛傳播造成不應有的損失。

最後,應該設立人工智能學術道德委員會,對於研發完成的人工智能經過學術評估合格後才可投入使用。對於故意研發可能破壞現有法律的人工智能的行為採用一票否決制,嚴禁研發者再次從事人工智能的研發活動。

對於特殊預防可以借鑒商法中人合性的概念。正是因為研發者、使用者和人工智能本身之間存在獨特關係,所以將他們三者捆綁起來,把人工智能的研發者、使用者和人工智能本身視為一個命運共同體,需要採取雙罰制,既要對人工智能本身定罪處罰,也要對研發者、使用者定罪處罰。只有這樣才能更好地防止研發者、使用者濫用人工智能的獨立地位,來進行為自己牟利的違法犯罪活動。人工智能實行了犯罪行為,就應該作為刑法上的主體,對其所犯的罪行按照刑法的規定進行相應的處罰。徹底刪除其存儲的數據和與之相關的一切信息,特別是互聯網上其殘留的數據。對於研發者和使用者則充分考慮其主觀意思,如若故意使人工智能犯罪則認為其將人工智能當作工具,按照故意犯罪定罪處罰即可。過失犯亦可按照過失犯罪定罪處罰。

人工智能作為人類歷史發展過程中的產物是社會關係的一種,必然要受到刑法的規制。對於人工智能的刑法規制問題,應該把握其本質,刑法是人類社會的法,是為了全人類的共同利益所制定的。而人工智能技術也應當是為了全人類的共同福祉而開發應用的技術。所以我們對人工智能技術的規制應當著眼於人類社會的利益,在不損害人工智能技術發展的前提下將人工智能這把技術的「雙刃劍」轉化為新時期技術革命的「勝利之劍」。

來源:《上海法學研究》集刊2022年第1卷(智慧法治學術共同體文集)

熱門分類資訊推薦

曾小賢的上司Lisa榕,現實中不僅才貌雙全,還嫁給了CEO - 天天要聞

曾小賢的上司Lisa榕,現實中不僅才貌雙全,還嫁給了CEO

曾小賢的上司Lisa榕,現實中不僅才貌雙全,還嫁給了CEO雖然說《愛情公寓》這部劇在劇情上充滿了爭議,但是一定程度上,這部劇也是很多人的回憶,是伴隨了一代人的青春回憶,而且劇中的很多角色都成為了經典,他們的口頭禪也一直被拿來玩兒梗。
Lisa榕做主持多年沒紅,被陳赫拉進愛情公寓爆紅,如今怎樣了 - 天天要聞

Lisa榕做主持多年沒紅,被陳赫拉進愛情公寓爆紅,如今怎樣了

談到《愛情公寓》這部火爆一時的歡樂喜劇,大家肯定都不陌生。不知道大家是否還記得《愛情公寓》中那個把曾小賢治得服服帖帖的女上司Lisa榕,現實中的她名叫榕榕,和劇中的形象也判若兩人。1981年出生在遼寧瀋陽的榕榕,畢業於上海戲劇學院,後來成為了上海東方傳媒集團有限公司的一名主持人。