“黑匣子”算法為什麼更容易製造偏見?

2024年04月22日22:12:07 科技 6364

下文經出版社授權,摘編自《失控與自控》。社會心理學家、德國馬普所人類發展研究中心主任格爾德·吉仁澤在文中分析了不透明的算法為什麼更容易固化歧視和助長偏見。

“黑匣子”算法為什麼更容易製造偏見? - 天天要聞

《失控與自控》,格爾德·吉仁澤著,何文忠 等譯,中信出版社 2024年1月。

作者|格爾德·吉仁澤

透明的正義

黑匣子算法引發了一場激烈辯論,焦點在於黑匣子算法是否對某些群體不公平,如有色人種和窮人。然而,還有一個更根本的問題:黑匣子算法缺乏透明度。沒有透明度,就很難確定其是否公平。例如,公共利益新聞調查中心(propublica)曾嘗試分析compas算法,並得出該算法確實存在種族偏見的結論,但其他研究人員得出了相反的結論。缺乏透明度也違背了大家對正義和尊嚴的理解。而大多數問題可以通過使用透明算法來避免。

“決策列表”就是現有的透明風險評估工具之一。corels算法是一種機器學習工具,可以從以前案例的數據中以清晰的邏輯生成此類列表。以預測被告是否會在兩年內被捕為例。“決策列表”是這樣的邏輯:如果被告的年齡是18~20歲,且是男性,則預測其會被捕。如果被告的年齡是21~23歲,且之前有2~3次犯罪(無論性別),則預測其會被捕。如果年齡不在上述範圍,則檢查被告是否有超過3次前科。如果是,則預測會被捕。而在其他情況下,則預測不會被捕(圖7.1)。

請注意,只有年齡、性別和以前的罪行進入“決策列表”,沒有什麼神秘之處,黑匣子里沒有藏着水晶球。機器學習工具所做的是提取最重要的特徵並建立確切的規則。儘管原理很簡單,但依據三個特徵的決策列表預測被捕的準確度與考慮多達137個特徵的compas算法一樣。預測被告未來是否會被逮捕的黑匣子算法並不比透明簡單的算法更準確,這一發現不是例外,而是規律。

“決策列表”體現了我心目中“透明度”的含義。這個算法已被公開,而且是可以理解的:

“黑匣子”算法為什麼更容易製造偏見? - 天天要聞

通過查看“決策列表”,人們可以確切知道預測是如何做出的。決策列表提高了透明度,讓人們更容易檢測出潛在的歧視,節省了購買秘密算法的成本,揭開了程序的神秘面紗。當前,簡單的決策列表與複雜的秘密算法準確度差不多,但喜歡使用算法作為決策輔助的法官至少可以輕鬆使用和理解這些列表。

“黑匣子”算法為什麼更容易製造偏見? - 天天要聞

英國紀錄片《地平線系列:大數據時代》(horizon:the age of big data,2013)劇照。

另一個知名度更高的透明工具是“公共安全評估”(psa),其目的是幫助法官決定是否應在審判前釋放被告。例如,在預測被告不出庭的可能風險值時,它只使用了四個特徵(圖7.2)。對於前三個特點,“是”分別對應1分的風險值;最後一個特徵,“過去兩年內有過一次不出庭的情況”,對應2分的風險值;過去兩年內有兩次甚至更多次不出庭情況,則對應4分的風險值。被告和法官可以很容易看到有哪些特徵以及加權規則,並在互聯網上查找最終風險評分是如何計算的。psa還使用不同的特徵組合來預測新的犯罪活動,例如被告案件審判前所犯的罪。與決策列表一樣(但與compas不同),psa不是商業算法。

“黑匣子”算法為什麼更容易製造偏見? - 天天要聞

psa的邏輯類似於按量收費算法(圖4.6):一個以少量特徵為參考,並用簡單數字進行積分的系統。就像遠程信息處理汽車保險一樣,透明的風險評估允許被告調整他們的行為,例如避免錯過法庭聽證會。如果算法不公開,被告就不知道該如何改善自己的行為。商業機密是客戶理解算法的阻礙之一,但並不是唯一的阻礙。另一重阻礙在於其複雜性。即使公開算法,也可能因為過於複雜,外行和專業人士無法弄清楚決定是如何做出的或分數是如何計算的。透明算法不僅限於決策列表或計值系統,本書也會呈現其他算法。

透明算法有很多優點。在緊急情況下,專業人員必須掌握易於記憶的分類規則,以便快速有效地執行這些規則。算法透明還有助於確定算法是否包含偏見,例如種族主義。可見上文提到的psa和決策列表都沒有納入種族的特徵。儘管如此,也不能排除它們關注其他類似種族特徵的可能。但同樣,算法透明讓人們更易於檢查情況是否確實如此。例如,四個問題中可能有一個是:你是否住在曼哈頓125街?當有超過100個特徵時,種族可以與其中許多特徵相關聯,使識別隱藏的偏見成為一項艱巨任務。

然而,僅靠透明度並不能保證得到的數值比黑匣子算法的數值更準確,在上述兩種算法中,從根本上講,實際結果是不確定的。就psa而言,大多數研究顯示其預測能力為中等或良好。一個更重要的問題是,風險評估工具是否真的可以改善法官在沒有任何算法輔助的情況下自行做出的決定?它與其他工具相比如何?在找尋答案時,我發現目前很少有研究提出上述問題,這令我感到震驚。

“黑匣子”算法為什麼更容易製造偏見? - 天天要聞

《她》劇照。

為什麼算法會固化歧視

即使是最狂熱的粉絲基本上也承認人工智能有偏見問題。據報道,警察、法院、僱主、信用評分機構等使用的人工智能系統都存在性別或種族歧視。個性化算法為白人男性提供了薪酬更高的工作,還有前文提到的谷歌的圖像分類系統將一對深色皮膚的夫婦識別為“大猩猩”的醜聞。人工智能應該是中立、客觀和數據驅動的,怎麼會對女性、有色人種或其他邊緣化群體不公平呢?

重要的是了解什麼是歧視,什麼不是。維也納愛樂樂團是世界上最好的樂團之一。從第一個和弦開始,樂迷就可以通過美妙的聲音,聽出這是維也納愛樂樂團在演奏。樂盲也可以通過認出其中為數不多的女性音樂家做到這一點,不過他們靠的是眼睛而不是耳朵。直到1997年,在巨大的公眾壓力下,該樂團才正式聘用了第一名女性成員,她是一位豎琴家(她在樂團中拿着低薪演奏了數十年,之後很快便退休了)。全世界管弦樂隊聘用的男性多於女性,但這一事實本身並不能證明存在歧視,可能在頂尖的音樂家中就是男性居多。但是,如果發現男性和女性演奏得一樣好,但男性卻更受青睞,這便表明存在歧視。只有採用幕後盲選,評委會無從知曉候選人的性別時,大家才明白樂團確實歧視女性。到2020年,世界級交響樂團中的女性比例已從20世紀70年代的5%~10%上升至40%~45%。

與人類評委會一樣,算法也可能會歧視女性、有色人種或其他邊緣化群體。如果算法透明,相對來說就更容易發現歧視。比如按量收費算法(圖4.6)。性別和種族都不在它考慮的範圍內,因此沒有證據表明其存在歧視。不考慮性別或種族信息的算法就相當於隱藏了這類信息的盲試。但是,如果存在與性別或種族相關的其他特徵,例如收入或社區,歧視也可能隱蔽地出現——雖然只要算法是透明的,也可以輕鬆查出。相比之下,如果算法是秘密的並且像compas算法那樣運用了許多特徵,則可能很難檢測到。可能存在歧視是所有敏感算法都應透明的重要原因之一。

故意設計為不透明的算法,例如深度人工神經網絡,會帶來更大的問題。這裡出現的歧視並不是因為性別或種族被用作特徵,因為程序員甚至不用確定選用哪些判斷特徵,神經網絡會自己確定,相反,數據可能就是歧視的來源。我們再以維也納愛樂樂團為例。假設一家科技公司需要訓練一種深度神經網絡來尋找最好的樂手,該神經網絡需要接收過去50年來全球頂級管弦樂隊的100000名申請者的個人資料,包括他們是否已被錄用的信息,結果神經網絡很快就會發現並確立男性是一個突出的預測指標,從而固化過去的偏見。

這種現象已經發生在女性為少數的其他領域。例如,亞馬遜的機器學習專家構建了一種算法。根據個人資料,對軟件開發職位和其他技術工作的申請人進行評分。給機器提供100份資料,它會從中選出前五名候選人。出乎意料的是,這台機器並不“喜歡”女性。偏見又一次隱藏在數據中,數據中包含過去10年的求職者的資料,絕大多數被聘用者是男性。即使只保留申請人的姓氏也沒有多大改變。人工智能總能找到應對策略,例如藉助女子學院的校名推斷性別。

“黑匣子”算法為什麼更容易製造偏見? - 天天要聞

《黑鏡》(black mirror,2023)第六季劇照。

人臉識別系統在經過訓練後可以判斷一張臉是男性還是女性,這其中也存在偏見。這些系統被用於從安保視頻片段中識別肇事者,系統錯誤可能會導致錯誤的指控。在一項研究中,男性和女性的照片被展示給微軟、ibm和face++的三個商業性別分類系統,有些人膚色較深,有些人較淺。每當系統將一張臉歸類為“男性”時,如果其膚色較淺,則系統的錯誤率只有0~1%;但如果其膚色較深,則系統的錯誤率會增加到1%~12%,具體錯誤率依系統不同而有所差別。當這類系統將一張臉歸類為“女性”時,如果其膚色較淺,則錯誤率在2%~7%;但如果其膚色較深,則在21%~35%的情況下出現歸類錯誤。每個系統在識別女性面孔時出現的錯誤都比在識別男性面孔時多,在識別深色皮膚時比識別淺色皮膚時錯誤多。

那麼偏見從何而來?問題出在用於訓練系統的圖片上。大約一半的照片是白人男性,其餘大部分是白人女性。膚色較深的人,尤其是女性,則很少。

該研究發表後,負責測試商業系統的三家公司迅速更新了它們的系統並減少了偏差。然而更新之後,ibm系統在識別膚色較深的女性時仍存在17%的錯誤率。ibm系統解決偏差問題的方法十分討巧,系統並沒有算上所有的錯誤,只計算了系統有超過99%的信心認為其結果是正確時出現的錯誤,這使得公司報告的錯誤率只有3.5%。最有趣的是,這項研究似乎並未影響到研究中未提及的公司,例如亞馬遜和凱洛斯。在識別深色皮膚女性時,這些公司的錯誤率也很高,會將她們跟男性混淆。被此項研究提名可能是件羞恥的事,但也只是那些被提名的公司會有如此感覺罷了。

“黑匣子”算法為什麼更容易製造偏見? - 天天要聞

英國紀錄片《地平線系列:大數據時代》(horizon:the age of big data,2013)劇照。

神經網絡會產生更多偏見

偏見的核心在於數據本身存在偏見,但深度神經網絡可能會加劇這個問題。想象一下我們在一個神經網絡中輸入了數以萬計的人類活動圖片,以此教會它識別人類活動和性別。這些照片具有典型的性別偏見,其中男性大多數在參與戶外活動,如開車和射擊,女性則更多是在烹飪和購物。當該網絡需要在大量新圖片中識別性別和活動時,就會產生很多偏見。例如,當圖片中的活動是烹飪時,67%的照片是女性。然而,該網絡得出的結論是,84%是女性,誤認了大約一半的男性廚師。

深度神經網絡為什麼會加深偏見呢?原因之一是研究人員通過正確答案的數量來評估網絡的性能,而不是根據偏見的程度。神經網絡確實可以通過加深偏見度來提高性能。假設一個網絡只知道2/3的廚師是女性。為了達到最好的結果,它會猜測每位廚師都是女性,這意味着2/3的答案是正確的。這當然會最大限度地放大偏差。但如果為了加深偏見,網絡可以隨機猜測2/3照片中的廚師是女性,而1/3照片中的廚師是男性。在這種情況下,它只會得到大約56%的正確答案。一般來說,如果數據存在偏見,與嘗試追求“公平”相比,放大偏見往往會讓系統表現出更好的性能。

偏見不僅存在於人工智能中。在科技公司里,也主要是男性想要改變我們生活的方方面面。根據《連線》雜誌的報道,在前沿的機器學習會議上,只有12%的發言人是女性,谷歌機器學習的研究員中,只有10%是女性,這是一種倒退。遙想20世紀80年代初,計算機科學系的畢業生中有40%是女性。蒂姆尼特·格布魯博士是谷歌的科研人員,也是性別分類研究項目的發起者之一,谷歌有色人種女性員工只佔總人數的1.6%,她是其中一員。她與人合作的一項新研究發現,谷歌的大型語言模型,看似可以生成有意義的文本和對話,但該模型在進行機器學習時,需要接收大量互聯網上的文本,其中含有種族主義和性別歧視的話語,因此該模型有複製這些言語的風險。此外,培訓消耗了大量的計算能量,從而消耗了大量電力,導致二氧化碳排放量大幅增加。所有這一切往往會讓富有的組織從中受益。然而,隨之而來的氣候變化,首先受到影響的卻是貧困社區。谷歌的領導層看到此項研究的論文後,決定對其進行審查,隨後解僱了格布魯博士。數千名谷歌員工以及來自學術界和民間組織的支持者聯名寫了一封抗議信,在信中他們直言:“格布魯博士是為數不多的反對強大和有偏見的技術以不道德和不民主的方式侵入我們日常生活的科技公司內部成員。”

作者/格爾德·吉仁澤

摘編/李永博

導語校對/賈寧

科技分類資訊推薦

新機碟中諜:vivo X100系列配置提前看 - 天天要聞

新機碟中諜:vivo X100系列配置提前看

《新機諜中諜》——欄目中“諜中諜”寓意“諜報中的諜報”,在新機發布之前,讓我們用專業的眼光、風趣幽默的文字,告訴你新機諜報中的那些真真假假,提前為你揭秘即將發布的重磅新機當中可能存在的那些新科技。5月13日,vivo X100系列將有新機發布,vivo X100s不僅延續了全能表現,還改為採用直屏,是現在少有的直屏旗艦;...
聯想王傳東:2024年,AI應用元年開啟 - 天天要聞

聯想王傳東:2024年,AI應用元年開啟

“當前基於大模型的AI應用層出不窮,並呈現爆發的態勢。2024年已經成為AI應用元年。”5月11日,聯想集團副總裁、中國區首席市場官王傳東在英特爾人工智能創新應用大賽總決賽暨頒獎典禮上作出上述表示。(聯想集團副總裁、中國區首席市場官王傳東)當天,為期5個月的英特爾人工智能創新應用大賽總決賽圓滿結束,共有2120支團...
傻瓜才把激光雷達裝車上,馬斯克的嘲笑,正成為現實? - 天天要聞

傻瓜才把激光雷達裝車上,馬斯克的嘲笑,正成為現實?

新能源汽車,或者說電動汽車,有一個非常重要的功能,那就是自動駕駛技術。當然,自動駕駛技術在當前也叫輔助駕駛,因為法律規定的上路商用的,只能是L2級,這種做不到雙方離開方向盤,真正要達到L3,才能算有條件自動駕駛。
創維汽車回應創始人稱躺車裡可緩解高血壓:系個人親身經歷 - 天天要聞

創維汽車回應創始人稱躺車裡可緩解高血壓:系個人親身經歷

5月12日,南都記者從創維汽車方面獲悉,針對此前有關“創維汽車創始人稱開創維汽車能治病還能延壽”的言論,創維汽車方面回應稱,其獨創的健康3.0系統主動健康監測和主動睡眠促進等技術,確有實時評估生命體征、改善睡眠質量等作用,但從無“治病”、“延壽”等表述,網傳信息屬於斷章取義、惡意拼湊,嚴重誤導公眾。創維汽...
報告:印度智能手機市場消費升級趨勢明顯 - 天天要聞

報告:印度智能手機市場消費升級趨勢明顯

【環球網科技綜合報道】5月12日消息,據外媒報道,根據市場研究機構Counterpoint的最新報告,印度智能手機市場正迎來消費升級的趨勢,消費者越來越傾向於購買更高端的手機型號。隨着用戶對手機性能需求的提升,如遊戲、人工智能應用以及高質量圖像拍攝,經濟實惠的融資計劃和以舊換新政策也在推動這一轉變。報告顯示,售價...
環球視角:Arm Holdings籌劃2025年推出AI芯片 - 天天要聞

環球視角:Arm Holdings籌劃2025年推出AI芯片

【環球網科技綜合報道】5月12日消息,據《日經亞洲》最新報道,軟銀集團旗下的Arm Holdings已計劃涉足人工智能芯片領域,目標是在2025年向市場推出其首款產品。據悉,這家總部位於英國的芯片設計公司準備成立專門的人工智能芯片部門,並致力於在2025年春季之前完成原型產品的構建工作。據《日經亞洲》透露,新芯片的批量生...
小米米家智能嵌入式洗碗機 13 套S2上架:黑白兩色,預售 2699 元 - 天天要聞

小米米家智能嵌入式洗碗機 13 套S2上架:黑白兩色,預售 2699 元

IT之家 5 月 12 日消息,日前,小米米家智能嵌入式洗碗機 13 套 S2 上架京東等電商平台,預售價 2699 元,5 月 20 日晚 8 點支付尾款。據介紹,這款洗碗機升級加強烘乾 + 三重烘乾,其中包括 PTC 熱風烘乾、智能開關門烘乾、餘溫烘乾;升級三叉噴淋臂,噴淋水流與餐具接觸頻次提升 12.5%,清潔指數可達 1.18;配備 45000Pa.
2023款小米旗艦猛跌2200,16GB+512GB親民了,2K屏幕+全焦段四攝 - 天天要聞

2023款小米旗艦猛跌2200,16GB+512GB親民了,2K屏幕+全焦段四攝

安卓手機廠商確實不能像蘋果一樣能夠一年發布一代手機,它們每年需要發布多款機型,可能包括旗艦機、中端機以及千元手機,這樣的頻次才能確保持續吸引消費者。而在新老機型迭代的窗口期,老款手機又能實現降維打擊,就像小米13Ultra,自上市以來憑藉強大的性能配置和看出色的機身設計風格贏得了消費者好評。如今手機市場的...
諾基亞“情懷機”斷貨了,2.4英寸+200萬+4G網,你成功入手了嗎? - 天天要聞

諾基亞“情懷機”斷貨了,2.4英寸+200萬+4G網,你成功入手了嗎?

悄無聲息地干大事,估計說的就是諾基亞手機了吧。原本多數用戶的注意力早就被智能手機廠商接連不斷發布的新機給吸引去了,誰能想到一款在1999年發布的功能機,如今被複刻後居然賣斷了貨?提及諾基亞手機,很多人都可能唏噓不已。但手機市場競爭就是那麼殘酷,過去諾基亞在智能手機時代迅速失勢,有自身的一些因素,也有來自...