张欣、宋雨鑫 | 算法凝视下的女性:深度伪造的性别伦理困境与治理路径

算法凝视下的女性:深度伪造的性别伦理困境与治理路径

译介作者:刘巧眉

(西南财经大学社会发展研究院)

文献出处:张欣,宋雨鑫.算法凝视下的女性:深度伪造的性别伦理困境与治理路径[J].妇女研究论丛,2024,(06):81-97.

导言

人工智能与算法系统深度嵌入社会运行机制的当今时代,技术的运用已不仅限于工具性维度,而是深刻影响着个体的身份呈现、社会交往乃至伦理秩序的建构。尤其在性别维度上,技术发展与结构性不平等之间的互动日益引发关注。以“深度伪造”(Deepfake)为代表的新一代生成式人工智能技术通过深度学习生成高度逼真图像、音频或视频的工具,极大地推动了信息传播的多样性与便捷性。然而,这项技术的滥用,也揭示了其背后隐匿的社会问题,尤其是性别不平等的加剧和对女性尊严的侵害。随着深度伪造技术在社交平台、媒体传播等领域的广泛应用,女性的面孔、声音乃至整个数字形象在没有任何同意的情况下被篡改、重塑,成为恶意传播、性别暴力和名誉侵害的工具。深度伪造技术因此不仅是一项技术进步,更是一个结构性社会问题,其影响深远且复杂。

《算法凝视下的女性:深度伪造的性别伦理困境与治理路径》一文研究的核心问题在于:如何理解深度伪造技术在性别伦理方面所带来的困境?这项技术如何延续和加剧传统性别不平等,尤其在数字空间内重新塑造了女性的社会角色与社会地位?如何在这一背景下构建有效的治理框架,以确保技术进步与性别平等、女性权利的协调发展?通过对深度伪造技术带来的社会影响、伦理冲突与法律难题的深入分析,该文旨在为理解数字化时代的性别伦理问题提供一种理论框架,并探讨如何通过技术、伦理与法律三者结合的方式,构建一个更加平衡和公平的社会治理体系。

问题的提出:

数字暴力的“新面孔”

近年来,全球深度伪造视频中近98%为色情内容,受害者中女性高达99%,她们的面孔、声音乃至整个数字身体在不知情或未授权的情况下被拼接、操控,沦为在线羞辱和性别凝视的对象。这种以技术手段实施的“算法暴力”,不仅突破了传统的暴力识别框架,也解构了女性对自身形象与数字人格的基本控制,形成了数字时代对女性极具破坏力的“新型暴力机制”。与此同时,当前关于深度伪造的研究与治理实践多聚焦于内容真实性、技术检测与法律归责等角度,较少从结构性性别不平等和伦理困境的角度展开系统反思。本文正是在这一背景下,以性别为切入点,重新思考技术嵌入社会过程中的权力结构,试图揭示“深度伪造”作为数字暴力“新面孔”的技术机理、性别伦理困境与治理路径与挑战。

“深度伪造”的技术机理

从技术路径上看,深度伪造是一种结合了深度学习与计算机视觉技术的生成式人工智能产物,其核心机制在于通过大规模数据训练模型,实现对目标人物面容、声音、动作等特征的精准提取与再合成。早期的深度伪造多依赖生成对抗网络(GANs)实现面部交换或音视频模拟,近年来则随着扩散模型、迁移学习、多模态融合等技术的推进,其生成效果愈发逼真且难以分辨。与此同时,文本生成类AI(如GPT)与图像合成模型(如Stable Diffusion)的跨模态联动,使得内容生产从面部伪造拓展至全身动作、情绪变化乃至虚构场景,使“拟真”内容的边界不断被突破。在实践中,伪造者往往只需一段视频、几张照片,便能自动合成出一段几可乱真的影像,并配以音频还原,使得“看上去真实”成为一种可技术化批量复制的能力。

这类技术的危险性不在于其本身具备合成能力,而在于其极低的门槛与广泛的可用性正在加速其泛滥。在开源平台上,许多深度伪造工具包不仅代码透明,且附有详细的使用教程,使得非技术背景的普通用户也可迅速掌握操作要领。在数据层面,社交平台上大量公开的女性图像与视频素材,为深度伪造提供了近乎无限的训练资源。这种“数据即素材”的现实,使女性面孔极易成为算法训练与合成对象。而在合成后的传播过程中,一旦内容被上传至去中心化或匿名平台,其扩散将难以控制,甚至形成二次创作与多次传播的循环机制。因此,深度伪造的技术机理并非单一的合成逻辑,而是涵盖了数据采集、模型训练、生成输出与平台扩散的完整链条,其中每一个环节都潜藏着可被滥用的技术缝隙。正是在这种技术生态之中,深度伪造从前沿科技演化为一种带有强烈操控性与攻击性的社会武器,尤其在性别维度上构成了极具破坏力的系统性风险

“深度伪造”的性别伦理困境

深度伪造技术的伦理危机并不止步于对个人隐私的侵犯或公共信任的侵蚀,更深层的挑战在于其所激活的性别规训机制。尽管技术往往被描述为“中立”的工具,其实质运行逻辑却嵌入了社会结构中的既有偏见,特别是在数据训练与应用场景中对性别角色的选择性处理,使得女性更容易成为被“伪造”的对象。这种偏向并非源于个别开发者的主观恶意,而是源于算法体系本身对主流文化想象和既定性别权力结构的学习与再生产。正如以Deepnude为代表的早期应用所展现的:即便技术允许生成男性裸体图像,其训练模型却默认以女性身体为唯一生成目标。这种“默认”的背后,恰恰折射出对女性身体的物化与技术凝视的制度性安排。深度伪造并未创造新的暴力逻辑,而是借助算法手段将性别压迫的旧逻辑加以自动化与规模化,从而构成一种新型的“编码性暴力”形式。

更为复杂的是,深度伪造所造成的伦理伤害往往具有难以追责、难以证明、难以修复的特征,其伤害不仅止于名誉权或肖像权的法律层面,更在于个体心理完整性与社会身份认同的持续侵蚀。当技术能够以极高仿真度塑造“我”的替身,“我是谁”的定义权也逐渐从个体自主滑向技术系统与观看者的想象。这种身份的异化不仅对受害者构成精神上的恒久暴力,也对数字时代的交往伦理提出根本性挑战。在深度伪造场景中,伦理判断常常陷入模糊地带:当影像既非真实又高度可信,当被害人难以证明“那不是我”,社会舆论往往倾向于怀疑、冷漠或指责。在此意义上,深度伪造的伦理困境远不止“技术怎么用”的问题,而是一种指向“技术为谁服务、如何定义现实”的价值冲突,它撕裂了真实性与正义之间的通道,也不断重塑女性在数字空间中的存在方式与社会地位。

“深度伪造”的治理路径与挑战

针对深度伪造带来的伦理危机与社会风险,治理路径的构建已成为各国监管与学术讨论的重点方向。然而,不同于传统的信息安全问题,深度伪造所引发的性别化数字暴力和真实性危机,需要在技术治理、平台责任与法律规制之间建立更复杂、更细致的联动机制。从全球治理经验来看,欧美国家多以技术标准引导、平台自律承诺与司法救济机制三者并行的方式推进应对。如欧盟的《反虚假信息行为守则》和《人工智能法案》尝试引入平台标记、风险评估和合规机制等软法治理方式,而美国则更侧重州立法层面的刑事规制与平台自治结合。这些治理尝试虽初步建立了治理框架,但在跨境实施、权责划分与技术演进的适配上仍存诸多盲点。

在国内,深度伪造问题的应对主要体现在已有法律条款的适用性探索与行政监管的柔性实践之间。目前,《民法典》中有关肖像权、声音权、名誉权的规定,《个人信息保护法》与《网络安全法》在数据采集与使用上的合规要求,以及《互联网信息服务深度合成管理规定》等专项政策,初步构成了对深度伪造的多元规制体系。然而,现有规制多采取“后果导向”与“内容导向”的惩戒机制,较少介入内容生成前的“前链路控制”,技术识别能力与平台治理意愿之间仍存在较大张力。特别是在面对跨平台、多次生成、匿名上传等现实操作路径时,单一法规条款难以实现有效响应,导致“权利可被主张但难以有效落实”的治理落差不断显现。

更关键的是,深度伪造治理不能仅停留于法律与技术的工具层面,更应在制度设计中融入性别平等与伦理正义的价值考量。深度伪造之所以构成系统性风险,在于其操控的不仅是数据,更是对“谁能被代表”“谁掌控真实”的权力分配。因此,治理路径的构建应当超越碎片化治理逻辑,推动形成“技术预防为先、平台共管为中、法律追责为后”的全过程协同机制。在此基础上,强化公众教育、提升数字识读能力,建立女性用户参与的治理协商机制,同样是实现深度伪造风险控制与性别正义平衡不可或缺的一环。唯有在多方责任主体之间形成伦理共识与治理合力,才能真正构建起面对深度伪造挑战的制度韧性。

本文转自 | 婚姻家庭研究