美國心理協會公布的一項研究顯示,當性別歧視是由於某種算法而非人類直接參与而發生時,人們在道德上的憤怒程度會降低。
在這項研究中,研究人員創造了「算法憤怒赤字」一詞來描述他們在八個實驗中的發現,這些實驗共有來自美國、加拿大和挪威的3900多名參與者參與。
當面對由算法和人為因素導致的招聘決策中的性別歧視的各種情景時,參與者對由算法導致的招聘決策在道德上的憤怒程度較低。參與者還認為,如果歧視是由於一種算法造成的,那麼公司在法律上承擔的責任就更少了。
耶魯大學博士後研究員、希伯來大學即將上任的助理教授、首席研究員約查南·比格曼博士說:「這讓人擔心,公司可能會利用算法來保護自己免受指責和公眾對歧視性做法的審查。」比格曼認為,這些發現可能會產生更廣泛的影響,影響打擊歧視的努力。這項研究在線發表在《實驗心理學雜誌:概述》上。
比格曼說:「人們認為歧視的人是出於偏見,比如種族主義或性別歧視,但他們認為歧視的算法是出於數據,所以他們在道德上不那麼憤怒。道德憤怒是一種重要的社會機制,可以激勵人們解決不公正問題。如果人們對歧視的道德憤怒程度較低,那麼他們可能就不會那麼積極地採取行動。」
一些實驗使用了一個場景,該場景基於亞馬遜指控的基於算法的性別歧視的真實案例,該案例懲罰了女性求職者。雖然這項研究側重於性別歧視,但八個實驗其中之一來研究種族和年齡歧視的時候,得出了類似的結論。
關於人工智能的知識似乎並沒有什麼不同。在一項針對挪威150多名科技工作者的實驗中,報告對人工智能有更多了解的參與者對算法造成的性別歧視的憤怒程度仍然較低。
研究人員發現,當人們更多地了解特定算法時,可能會影響他們的前景。在另一項研究中,當男性程序員在一家以性別歧視行為著稱的公司創建了一種導致性別歧視的招聘算法時,參與者更為憤怒。
比格曼說,程序員在設計新算法時,應該意識到意外歧視的可能性。他說,公共教育運動還可能強調,算法造成的歧視可能是現有不平等的結果。
本文由升哲科技編譯,轉載請註明。