各位看官閱讀之前,請您點擊一下「關注」,既方便您討論與分享,又能給您帶來不一樣的參與感,感謝您的支持。
文丨行走的2B鉛筆
編輯丨行走的2B鉛筆
前言
人工智慧研究及其部署和應用的廣泛進展,近年來關於人工智慧系統的公眾辯論也愈演愈烈,隨著《可信人工智慧倫理準則》的發布,信任和可信賴的概念在人工智慧倫理辯論中得到了特別關注。
人工智慧領域信任和可信度的含義尚不清楚,迄今為止人工智慧倫理指南中使用的信任概念,從實踐哲學的角度評估它們的重疊和遺漏。
人工智慧的可信度問題
人工智慧倫理傾向於使可信度的概念超載,它有可能成為一個流行語,無法轉化為人工智慧的工作概念,需要的是一種方法,該方法也借鑒了對其他領域信任,社會科學和人文科學特別是在實踐哲學領域。
由於人工智慧及其部署和應用研究的廣泛進展,近年來關於人工智慧系統的公眾辯論也獲得了顯著的動力,計算機化演算法和人工智慧不僅帶來了技術挑戰,還帶來了深刻的道德挑戰。
研究機構私營公司和政治機構發布的一系列指導方針,這些指導方針涉及人工智慧倫理的各個方面和領域,隱私、問責制、非歧視和公平,隨著人工智慧獨立高級別專家組發布《可信人工智慧倫理準則》,信任和可信賴的概念得到了特別關注。
可信人工智慧一詞已被人工智慧研究界廣泛採用,公共部門組織以及發布人工智慧倫理指南的政治機構,儘管明顯一致認為人工智慧應該是值得信賴的,但在人工智慧領域信任和可信度意味著什麼,以及實現可信人工智慧需要什麼樣的道德標準、技術要求和實踐,目前還不太清楚。
人工智慧倫理指南中採用的信任概念,對人工智慧倫理現狀的這種概述對於能夠確定可信人工智慧領域的進一步研究點是必要的,主要表現在:該術語目前在指南中的使用程度和方式,這些準則中普遍存在的信任和可信賴概念,信任在政治、社會和道德方面的作用,概念與術語可信度相關內容。
從實踐哲學的角度評估了這些發現的重疊和遺漏,實踐哲學在思考信任的概念方面有著悠久的傳統,在人際關係社會和政治環境以及人類和人工製品互動中,例如對技術的信任,目前人工智慧倫理超越了信任和可信度的概念,並將其變成了一個總稱,指的是一個不確定的好事物清單。
人工智慧倫理中的信任與可信度
可信度有可能成為一個流行語,無法轉化為人工智慧研究的工作概念,最重要的是到目前為止,人工智慧研究中部署的信任概念主要是一個工具性概念,討論指南中部署的信任和可信度概念是否適合捕捉我們希望他們描述的人類與人工智慧系統之間交互的本質。
需要的是一種信任方法,該方法也具有規範性基礎,並在其他領域的信任研究中強調,例如社會科學和人文科學,特別是在實踐哲學領域,作為朝這個方向邁出的第一步,提出了未來可信人工智慧研究的要點。
得出了一些更籠統的結論,即應該如何概念化對人工智慧的信任以及應該避免哪些錯誤,人工智慧倫理指南和框架的出版物有所增加,每個月都會發布新的文件,還發表了一些有用的道德指南概述。
與涵蓋人工智慧倫理整個格局的其他概述不同,專註於指南中信任和可信度的概念以及與這兩個概念相關的關鍵概念,有些人認為信任和可信賴是一個中心原則,其他人只是提到它,還有一些人根本不討論這個話題,大多數不是從可信度的固定定義開始,而是首先評估該術語的使用方式。
信任通常被認為是好的東西,只有少數指導方針警告不要盲目,過度信任和濫用人為在人與機器之間建立的信任,有些人認為可能存在適當或正確的信任水平,大多數準則將信任稱為需要推進、建立創造,並堅持,很少有人提到信任也會減少、侵蝕、被破壞、甚至失去,在某些情況下必須恢復。
這些準則在建立信任的設想對象方面有所不同,有時是針對公眾或整個社會目的是建立公眾或社會信任,企業道德準則以及商業協會的準則傾向於強調客戶、消費者、客戶和用戶的信任,但其他組織也是如此。
怎麼讓人工智慧值得信賴
在健康和護理部門使用人工智慧的指南中,臨床醫生和從業者也發揮了作用,對誰或什麼值得信任的問題的擬議答案也因準則而異,在人工智慧的阿西洛馬23條準則中,人工智慧研究人員和開發人員之間的信任和透明度,認為開發人員和設計師也是呼籲可信度的適當對象。
在原則中可信度與一系列不同的原則相關聯,透明度確實發揮著重要作用,並且在許多準則中與信任和可信度有關,然而可信度也與可靠性、穩健性、安全性和安保性有關,可追溯性和可驗證性有時與可信度有關。
其他指南要求可信人工智慧是可理解的,國際商業機器公司明確指出:我們不會盲目相信那些無法解釋其推理的人,並進一步提到不透明可能導致缺乏信任,在提到可信度時也會援引人工智慧系統的可預測性概念。
在一些指南中強調了可信人工智慧問責制的作用,一些人還指出需要解決責任問題,以使人工智慧值得信賴以及潛在的濫用場景,可信人工智慧應制定監測和評估過程以及審計程序,人工監督以及監管機構的監督有時是關鍵要求之一。
遵守規範和標準的重要性在一些指南中得到了強調,或者用術語來說:可信人工智慧應尊重所有適用的法律和法規因此是合法的,一些指導方針強調可信人工智慧應與道德價值觀和倫理原則保持一致。
其他人則指出減少事故的適當監管方法可以增加公眾信任,很少提到認證、批准和認證計劃以及指南的制定可以幫助建立信任,部分人還提到了避免傷害的原則,根據一些指導方針,可信人工智慧不僅應該避免傷害,而且還應該促進對的益處或有益。
人工智慧倫理準則
這種好處包括什麼很少被定義,有時有人說人工智慧系統應該滿足用戶的需求,甚至增強環境和社會福祉和人類、個人、社會以及環境和生態系統的利益,其他指南強調經濟增長和婦女經濟賦權,或包容性增長,可持續發展和福祉。
在專註於醫療保健部門的指南中,成功率也被調用作為確定演算法可信度的變數,多樣性非歧視和公平是與可信人工智慧相關的進一步原則,需要解決偏倚風險,控制一個人的數據,一般來說或在機器學習時指導機器的能力也被認為是重要的。
數據安全和隱私保護是與可信人工智慧有關的指南中引用的進一步原則,可信人工智慧還應促進人類能動性、自治以人為本的價值觀和對人權的尊重,信任和同意的關係雖然是信任哲學中的一個重要話題,但在人工智慧倫理指南中很少探討。
儘管指南中提到了信任與各種道德原則之間的聯繫,但沒有一個原則與信任相關聯,使人工智慧在整個文檔語料庫中都值得信賴,一般信任的概念化和使人工智慧值得信賴的定義目前尚無定論。
提及信任的指導方針將建立信任視為道德治理的基本要求,並且是應該促進的好事,而缺乏信任則被視為需要克服的問題,關於信任的矛盾心理很少被討論,一些人暗示盲目信任可能存在問題,並且過度信任自主移動機器人,但信任是一個相當矛盾的概念很少被提及。
引人注目的是大多數指導方針都是基於對信任的工具性理解:信任被描述為實現其他事情的先決條件,比如與人工智慧相關的利益或實現人工智慧對社會的全部潛力,在某些政府工業創新與科學部發布的文件中,為了實現這些好處公民對人工智慧應用的信任是很重要的,雖然主要被描述為值得實現信任的東西,但並不被視為內在價值。
人工智慧的治理
技術不是在社會真空中開發的,而是與社會和政治互動結構交織在一起的,作為社會技術系統,它們嵌入在社會和政治背景下,在人工智慧技術和演算法決策方面尤其如此,基於機器學習的演算法已經深刻地塑造了我們的生活和社會互動。
自由民主國家在社會安排方面採取了某種立場:自由主義者致力於自由的概念,尊重個人的能力和能動性,這些承諾產生了一種要求,即社會的各個方面都應該被接受或能夠被每個人接受。
從這個角度來看技術及其作為我們社會安排一部分的開發和部署也必須滿足這些要求,特別是當它們與我們的社會和政治機構的運作交織在一起時,就像今天的許多人工智慧系統一樣,對尊重個人能力和能動性的承諾也導致了現代民主國家所依據的制衡思想。
制衡本質上是不信任的制度化形式,有助於確保政府或任何其他機構都不會濫用其權力,它們還有助於保護個人代理,對於許多民主理論家來說,不信任是現代民主國家基本結構的根源,自由主義然後是自由民主,源於對傳統政治和教權權威的不信任。
準則是治理工具,它們是私營和公共機構控制和監管系統的一部分,當它們由政治機構發布時,這一點尤其明顯,但它也適用於私營公司發布的指導方針作為治理工具,它們不僅是為開發人員編寫的,而且是更廣泛的監管和控制系統的一部分,特別是當技術像許多人工智慧系統一樣對這些安排產生深遠影響時。
結語
儘管信任和可信度的概念在人工智慧研究中得到了極大的關注,特別是在歐洲高級別專家組關於可信賴人工智慧的倫理準則發布之後,但涉及人工智慧信任的倫理準則在不少主要領域仍存在實質性的分歧。
最重要的是不要將可信人工智慧變成一個豐富的知識領域:從技術和道德角度來看,它不應被視為人工智慧系統的所有美好事物的總稱,應該考慮到信任的矛盾和危險,在進一步的研究中可能需要的不是對人工智慧的更多信任,而是制度化的不信任形式。
文章描述過程、圖片都來源於網路,此文章旨在倡導社會正能量,無低俗等不良引導。如涉及版權或者人物侵權問題,請及時聯繫我們,我們將第一時間刪除內容!如有事件存疑部分,聯繫後即刻刪除或作出更改。