各位看官阅读之前,请您点击一下“关注”,既方便您讨论与分享,又能给您带来不一样的参与感,感谢您的支持。
文丨行走的2B铅笔
编辑丨行走的2B铅笔
前言
人工智能研究及其部署和应用的广泛进展,近年来关于人工智能系统的公众辩论也愈演愈烈,随着《可信人工智能伦理准则》的发布,信任和可信赖的概念在人工智能伦理辩论中得到了特别关注。
人工智能领域信任和可信度的含义尚不清楚,迄今为止人工智能伦理指南中使用的信任概念,从实践哲学的角度评估它们的重叠和遗漏。
人工智能的可信度问题
人工智能伦理倾向于使可信度的概念超载,它有可能成为一个流行语,无法转化为人工智能的工作概念,需要的是一种方法,该方法也借鉴了对其他领域信任,社会科学和人文科学特别是在实践哲学领域。
由于人工智能及其部署和应用研究的广泛进展,近年来关于人工智能系统的公众辩论也获得了显著的动力,计算机化算法和人工智能不仅带来了技术挑战,还带来了深刻的道德挑战。
研究机构私营公司和政治机构发布的一系列指导方针,这些指导方针涉及人工智能伦理的各个方面和领域,隐私、问责制、非歧视和公平,随着人工智能独立高级别专家组发布《可信人工智能伦理准则》,信任和可信赖的概念得到了特别关注。
可信人工智能一词已被人工智能研究界广泛采用,公共部门组织以及发布人工智能伦理指南的政治机构,尽管明显一致认为人工智能应该是值得信赖的,但在人工智能领域信任和可信度意味着什么,以及实现可信人工智能需要什么样的道德标准、技术要求和实践,目前还不太清楚。
人工智能伦理指南中采用的信任概念,对人工智能伦理现状的这种概述对于能够确定可信人工智能领域的进一步研究点是必要的,主要表现在:该术语目前在指南中的使用程度和方式,这些准则中普遍存在的信任和可信赖概念,信任在政治、社会和道德方面的作用,概念与术语可信度相关内容。
从实践哲学的角度评估了这些发现的重叠和遗漏,实践哲学在思考信任的概念方面有着悠久的传统,在人际关系社会和政治环境以及人类和人工制品互动中,例如对技术的信任,目前人工智能伦理超越了信任和可信度的概念,并将其变成了一个总称,指的是一个不确定的好事物清单。
人工智能伦理中的信任与可信度
可信度有可能成为一个流行语,无法转化为人工智能研究的工作概念,最重要的是到目前为止,人工智能研究中部署的信任概念主要是一个工具性概念,讨论指南中部署的信任和可信度概念是否适合捕捉我们希望他们描述的人类与人工智能系统之间交互的本质。
需要的是一种信任方法,该方法也具有规范性基础,并在其他领域的信任研究中强调,例如社会科学和人文科学,特别是在实践哲学领域,作为朝这个方向迈出的第一步,提出了未来可信人工智能研究的要点。
得出了一些更笼统的结论,即应该如何概念化对人工智能的信任以及应该避免哪些错误,人工智能伦理指南和框架的出版物有所增加,每个月都会发布新的文件,还发表了一些有用的道德指南概述。
与涵盖人工智能伦理整个格局的其他概述不同,专注于指南中信任和可信度的概念以及与这两个概念相关的关键概念,有些人认为信任和可信赖是一个中心原则,其他人只是提到它,还有一些人根本不讨论这个话题,大多数不是从可信度的固定定义开始,而是首先评估该术语的使用方式。
信任通常被认为是好的东西,只有少数指导方针警告不要盲目,过度信任和滥用人为在人与机器之间建立的信任,有些人认为可能存在适当或正确的信任水平,大多数准则将信任称为需要推进、建立创造,并坚持,很少有人提到信任也会减少、侵蚀、被破坏、甚至失去,在某些情况下必须恢复。
这些准则在建立信任的设想对象方面有所不同,有时是针对公众或整个社会目的是建立公众或社会信任,企业道德准则以及商业协会的准则倾向于强调客户、消费者、客户和用户的信任,但其他组织也是如此。
怎么让人工智能值得信赖
在健康和护理部门使用人工智能的指南中,临床医生和从业者也发挥了作用,对谁或什么值得信任的问题的拟议答案也因准则而异,在人工智能的阿西洛马23条准则中,人工智能研究人员和开发人员之间的信任和透明度,认为开发人员和设计师也是呼吁可信度的适当对象。
在原则中可信度与一系列不同的原则相关联,透明度确实发挥着重要作用,并且在许多准则中与信任和可信度有关,然而可信度也与可靠性、稳健性、安全性和安保性有关,可追溯性和可验证性有时与可信度有关。
其他指南要求可信人工智能是可理解的,国际商业机器公司明确指出:我们不会盲目相信那些无法解释其推理的人,并进一步提到不透明可能导致缺乏信任,在提到可信度时也会援引人工智能系统的可预测性概念。
在一些指南中强调了可信人工智能问责制的作用,一些人还指出需要解决责任问题,以使人工智能值得信赖以及潜在的滥用场景,可信人工智能应制定监测和评估过程以及审计程序,人工监督以及监管机构的监督有时是关键要求之一。
遵守规范和标准的重要性在一些指南中得到了强调,或者用术语来说:可信人工智能应尊重所有适用的法律和法规因此是合法的,一些指导方针强调可信人工智能应与道德价值观和伦理原则保持一致。
其他人则指出减少事故的适当监管方法可以增加公众信任,很少提到认证、批准和认证计划以及指南的制定可以帮助建立信任,部分人还提到了避免伤害的原则,根据一些指导方针,可信人工智能不仅应该避免伤害,而且还应该促进对的益处或有益。
人工智能伦理准则
这种好处包括什么很少被定义,有时有人说人工智能系统应该满足用户的需求,甚至增强环境和社会福祉和人类、个人、社会以及环境和生态系统的利益,其他指南强调经济增长和妇女经济赋权,或包容性增长,可持续发展和福祉。
在专注于医疗保健部门的指南中,成功率也被调用作为确定算法可信度的变量,多样性非歧视和公平是与可信人工智能相关的进一步原则,需要解决偏倚风险,控制一个人的数据,一般来说或在机器学习时指导机器的能力也被认为是重要的。
数据安全和隐私保护是与可信人工智能有关的指南中引用的进一步原则,可信人工智能还应促进人类能动性、自治以人为本的价值观和对人权的尊重,信任和同意的关系虽然是信任哲学中的一个重要话题,但在人工智能伦理指南中很少探讨。
尽管指南中提到了信任与各种道德原则之间的联系,但没有一个原则与信任相关联,使人工智能在整个文档语料库中都值得信赖,一般信任的概念化和使人工智能值得信赖的定义目前尚无定论。
提及信任的指导方针将建立信任视为道德治理的基本要求,并且是应该促进的好事,而缺乏信任则被视为需要克服的问题,关于信任的矛盾心理很少被讨论,一些人暗示盲目信任可能存在问题,并且过度信任自主移动机器人,但信任是一个相当矛盾的概念很少被提及。
引人注目的是大多数指导方针都是基于对信任的工具性理解:信任被描述为实现其他事情的先决条件,比如与人工智能相关的利益或实现人工智能对社会的全部潜力,在某些政府工业创新与科学部发布的文件中,为了实现这些好处公民对人工智能应用的信任是很重要的,虽然主要被描述为值得实现信任的东西,但并不被视为内在价值。
人工智能的治理
技术不是在社会真空中开发的,而是与社会和政治互动结构交织在一起的,作为社会技术系统,它们嵌入在社会和政治背景下,在人工智能技术和算法决策方面尤其如此,基于机器学习的算法已经深刻地塑造了我们的生活和社会互动。
自由民主国家在社会安排方面采取了某种立场:自由主义者致力于自由的概念,尊重个人的能力和能动性,这些承诺产生了一种要求,即社会的各个方面都应该被接受或能够被每个人接受。
从这个角度来看技术及其作为我们社会安排一部分的开发和部署也必须满足这些要求,特别是当它们与我们的社会和政治机构的运作交织在一起时,就像今天的许多人工智能系统一样,对尊重个人能力和能动性的承诺也导致了现代民主国家所依据的制衡思想。
制衡本质上是不信任的制度化形式,有助于确保政府或任何其他机构都不会滥用其权力,它们还有助于保护个人代理,对于许多民主理论家来说,不信任是现代民主国家基本结构的根源,自由主义然后是自由民主,源于对传统政治和教权权威的不信任。
准则是治理工具,它们是私营和公共机构控制和监管系统的一部分,当它们由政治机构发布时,这一点尤其明显,但它也适用于私营公司发布的指导方针作为治理工具,它们不仅是为开发人员编写的,而且是更广泛的监管和控制系统的一部分,特别是当技术像许多人工智能系统一样对这些安排产生深远影响时。
结语
尽管信任和可信度的概念在人工智能研究中得到了极大的关注,特别是在欧洲高级别专家组关于可信赖人工智能的伦理准则发布之后,但涉及人工智能信任的伦理准则在不少主要领域仍存在实质性的分歧。
最重要的是不要将可信人工智能变成一个丰富的知识领域:从技术和道德角度来看,它不应被视为人工智能系统的所有美好事物的总称,应该考虑到信任的矛盾和危险,在进一步的研究中可能需要的不是对人工智能的更多信任,而是制度化的不信任形式。
文章描述过程、图片都来源于网络,此文章旨在倡导社会正能量,无低俗等不良引导。如涉及版权或者人物侵权问题,请及时联系我们,我们将第一时间删除内容!如有事件存疑部分,联系后即刻删除或作出更改。