近年来,AI(人工智能)技术飞速发展,在带来效率革命的同时,也暴露出隐私泄露、歧视偏见、算法滥用等伦理问题。
当AI在医疗健康领域的应用日益普及,人类能否对其托付生命健康?
近日,健康报记者专访第十四届全国政协委员、研究员级高级工程师王江平,请他谈谈医疗AI存在的伦理风险以及应对策略。
医疗AI可能导致患者权益损害
健康报:在您看来,医疗AI带来的最大风险是什么?
王江平:医疗AI带来的最大风险是可能导致患者权益损害。医疗AI有三大特殊性,每一项都和患者权益息息相关。
一是数据敏感性。患者的生理指标、诊疗记录、病史等都属于敏感信息,直接关联个人生命权和隐私权。《中华人民共和国个人信息保护法》将医疗数据列为敏感个人信息重点保护。很多患者并不知道自己的医疗数据被用于AI训练。
二是结果不可逆性。在医疗场景中,AI容易产生“幻觉”,而“幻觉”可能导致误诊甚至危及患者生命。国际期刊《放射学》刊发的一篇研究论文显示,在磁共振/超声图像的阅片分析中,原始放射科医生与复查放射科医生的分析达到几乎完美的一致性,而大型语言模型与人类阅片者的分析仅达到中等程度的一致性,这会对临床管理产生负面影响。
三是责任主体复杂性。若AI参与决策导致医疗事故,责任主体涉及模型开发者、部署者(医疗机构)、使用者(医生)等,责任程度难以界定。2024年,欧盟颁布《人工智能法案》规定,以权责清单等形式明确责任判定原则和办法,避免出现技术出错、操作失误、患者买单的困局。这为国内相关实践提供了参考。
基于医疗行业的特殊性,必须将人机对齐法则深度融入医疗AI。
伦理不是枷锁而是技术发展的基石
健康报:人机对齐具体指什么?
王江平:人机对齐就是通过技术手段与伦理框架,让AI的目标、行为和输出与人类的价值观、社会规范保持一致。人机对齐是一项对齐伦理、对齐人性、维护人权的重要科学实践,是一项涉及技术、伦理、法律的系统性工程,被认为是破解AI伦理困境的“钥匙”。
健康报:人机对齐法则在医疗场景中能发挥什么作用?
王江平:第一,可解释性。对齐的AI能够清晰展现决策逻辑。例如,上海交通大学研发的医学影像多模态大模型矩阵“明岐”采用透明诊断舱机制,通过提供影像标记、诊断路径决策树、相似病例参考库三级决策证据,打消医患疑虑。
第二,信任性。当AI的诊疗建议与医学伦理深度对齐时,人类才能对其建立信任,才敢对其托付生命健康。
第三,人类和谐性。目标偏移是AI应用中一种常见且重要的风险。人类设计AI目标时通常无法将真实目标完全、准确地写入程序,因而AI达成的目标常常会偏离人类的真实需求。比如,医疗AI为提高患者生存率可能忽视治疗痛苦,情感陪伴机器人可能导致用户过度依赖、人际疏离等。人机对齐就是要在算法设计中加入人性考量、目标校准,确保技术真正服务于人类。
健康报:有观点认为,在发展技术的过程中过度强调伦理规范,可能会限制技术创新。您对此有何看法?
王江平:我认为恰恰相反,伦理不是枷锁,而是技术可持续发展的基石。人机对齐法则可以推动技术透明化、人本化,更能够激发技术创新。
在可以预见的未来,将出现某些智力和能力超越人类的“超人模型”,人工智能公司OpenAI提出了弱到强泛化技术,阿里通义实验室提出了基于辩论驱动的弱监督对齐技术等,这些研究为解决未来“超级对齐”问题提供了可能性。
数据飞轮是人机对齐法则的重要实现路径
健康报:在医疗领域中,如何实现人机对齐法则的全面渗透?
王江平:关键在于技术与管理双管齐下。具体来说,应从技术架构、数据集建设、医院管理、患者知情、行业监管五大环节协同发力。
在技术架构环节,要从源头上注入伦理基因,实现价值观驱动。在模型预训练阶段,应引入医学伦理知识图谱,让模型优先学习循证医学指南、临床诊疗规范等。在模型微调阶段,应通过人工反馈强化学习方法,让模型适应具体场景的伦理偏好,在给出方案时综合评估患者年龄、病情、经济状况等因素,避免“一刀切”决策。
在数据集建设环节,要充分考量医疗数据格式不统一、多模态混杂、小样本和高维度数据并存、隐私问题突出等难题。在技术层面,应运用隐私计算技术实现数据“可用不可见”,通过术语标准化打破数据孤岛,利用小样本增强技术解决标注数据不足问题。在机制层面,应设立数据过滤器,自动屏蔽包含歧视、错误伦理导向的数据源;建设医疗可信数据空间,推动建立统一数据规则和技术标准,促进合规共享。
在医院管理环节,在诊断、手术等高风险场景实施“双保险机制”,如由医生对AI提出的手术建议实时复核并留存记录。在健康咨询、用药提醒等中低风险场景,可允许AI自主决策,但需嵌入动态监控日志,记录交互细节,以供事后审计。同时,应开发可视化工具包,让医生快速理解模型逻辑;设立人机协作绩效指标,将AI使用规范纳入医生考核体系,避免盲目信任或过度抵触。
在患者知情环节,应向患者提供“可理解的AI决策报告”,用通俗语言解释推荐药物、治疗方案的理由;建立“患者一票否决通道”,当患者质疑AI建议时强制切换至人工服务,保障患者的否决权。
在行业监管环节,应建立国家统一的医疗AI人机对齐认证标准体系,由第三方机构开展测评,并作为市场准入前提;常态化开展“红蓝对抗演练”等对抗性测试,模拟罕见病误诊、数据投毒等极端场景,测试模型鲁棒性;设立由临床医生、AI工程师、伦理学家、患者代表等共同参与的多学科伦理委员会,定期评估模型对齐度;编制《医疗AI人工对齐白皮书》,为开发者、医疗机构等提供操作指南。
健康报:据了解,数据飞轮是人机对齐法则的重要实现路径。什么是数据飞轮?如何确保其在医疗行业的有效运转?
王江平:数据飞轮就是用户对AI输出进行标注、反馈,从而实现模型持续优化的闭环机制。数据飞轮不仅是AI技术迭代的引擎,更是人机对齐法则的重要实现路径。医疗行业有必要引入数据飞轮,通过“模型输出评估—数据收集—应用反馈—模型优化”的闭环,使医疗AI持续贴近真实医疗需求。
医疗行业的数据飞轮需建立准入机制和激励机制。建立准入机制的目的是确保数据干净合规。医疗数据贡献者(医疗机构、医生)需通过伦理审查和资质认证,以避免噪声数据污染模型价值观。建立激励机制的目的是让数据共享实现“双向受益”。比如参与数据共享计划的机构可优先使用定制化AI工具。只有让数据飞轮在真实医疗场景中持续运转,才能不断修正模型偏差,使模型“越用越聪明,越用越可靠”。
需要强调的是,医疗AI应用的终点绝不是取代医生,而是成为人类可以信赖的“医疗助手”,成为帮助医生、造福患者的高效工具。
文:健康报记者 宁艳阳
编辑:张昊华 杨真宇
校对:马杨
审核:秦明睿 徐秉楠
本文经“原本”原创认证,作者健康报社有限公司,访问yuanben.io查询【487G1CZ9】获取授权