美国心理协会公布的一项研究显示,当性别歧视是由于某种算法而非人类直接参与而发生时,人们在道德上的愤怒程度会降低。
在这项研究中,研究人员创造了“算法愤怒赤字”一词来描述他们在八个实验中的发现,这些实验共有来自美国、加拿大和挪威的3900多名参与者参与。
当面对由算法和人为因素导致的招聘决策中的性别歧视的各种情景时,参与者对由算法导致的招聘决策在道德上的愤怒程度较低。参与者还认为,如果歧视是由于一种算法造成的,那么公司在法律上承担的责任就更少了。
耶鲁大学博士后研究员、希伯来大学即将上任的助理教授、首席研究员约查南·比格曼博士说:“这让人担心,公司可能会利用算法来保护自己免受指责和公众对歧视性做法的审查。”比格曼认为,这些发现可能会产生更广泛的影响,影响打击歧视的努力。这项研究在线发表在《实验心理学杂志:概述》上。
比格曼说:“人们认为歧视的人是出于偏见,比如种族主义或性别歧视,但他们认为歧视的算法是出于数据,所以他们在道德上不那么愤怒。道德愤怒是一种重要的社会机制,可以激励人们解决不公正问题。如果人们对歧视的道德愤怒程度较低,那么他们可能就不会那么积极地采取行动。”
一些实验使用了一个场景,该场景基于亚马逊指控的基于算法的性别歧视的真实案例,该案例惩罚了女性求职者。虽然这项研究侧重于性别歧视,但八个实验其中之一来研究种族和年龄歧视的时候,得出了类似的结论。
关于人工智能的知识似乎并没有什么不同。在一项针对挪威150多名科技工作者的实验中,报告对人工智能有更多了解的参与者对算法造成的性别歧视的愤怒程度仍然较低。
研究人员发现,当人们更多地了解特定算法时,可能会影响他们的前景。在另一项研究中,当男性程序员在一家以性别歧视行为著称的公司创建了一种导致性别歧视的招聘算法时,参与者更为愤怒。
比格曼说,程序员在设计新算法时,应该意识到意外歧视的可能性。他说,公共教育运动还可能强调,算法造成的歧视可能是现有不平等的结果。
本文由升哲科技编译,转载请注明。