算法凝視下的女性:深度偽造的性別倫理困境與治理路徑
譯介作者:劉巧眉
(西南財經大學社會發展研究院)
文獻出處:張欣,宋雨鑫.算法凝視下的女性:深度偽造的性別倫理困境與治理路徑[J].婦女研究論叢,2024,(06):81-97.
導言
在人工智能與算法系統深度嵌入社會運行機制的當今時代,技術的運用已不僅限於工具性維度,而是深刻影響着個體的身份呈現、社會交往乃至倫理秩序的建構。尤其在性別維度上,技術發展與結構性不平等之間的互動日益引發關注。以「深度偽造」(Deepfake)為代表的新一代生成式人工智能技術通過深度學習生成高度逼真圖像、音頻或視頻的工具,極大地推動了信息傳播的多樣性與便捷性。然而,這項技術的濫用,也揭示了其背後隱匿的社會問題,尤其是性別不平等的加劇和對女性尊嚴的侵害。隨着深度偽造技術在社交平台、媒體傳播等領域的廣泛應用,女性的面孔、聲音乃至整個數字形象在沒有任何同意的情況下被篡改、重塑,成為惡意傳播、性別暴力和名譽侵害的工具。深度偽造技術因此不僅是一項技術進步,更是一個結構性社會問題,其影響深遠且複雜。
《算法凝視下的女性:深度偽造的性別倫理困境與治理路徑》一文研究的核心問題在於:如何理解深度偽造技術在性別倫理方面所帶來的困境?這項技術如何延續和加劇傳統性別不平等,尤其在數字空間內重新塑造了女性的社會角色與社會地位?如何在這一背景下構建有效的治理框架,以確保技術進步與性別平等、女性權利的協調發展?通過對深度偽造技術帶來的社會影響、倫理衝突與法律難題的深入分析,該文旨在為理解數字化時代的性別倫理問題提供一種理論框架,並探討如何通過技術、倫理與法律三者結合的方式,構建一個更加平衡和公平的社會治理體系。

問題的提出:
數字暴力的「新面孔」
近年來,全球深度偽造視頻中近98%為色情內容,受害者中女性高達99%,她們的面孔、聲音乃至整個數字身體在不知情或未授權的情況下被拼接、操控,淪為在線羞辱和性別凝視的對象。這種以技術手段實施的「算法暴力」,不僅突破了傳統的暴力識別框架,也解構了女性對自身形象與數字人格的基本控制,形成了數字時代對女性極具破壞力的「新型暴力機制」。與此同時,當前關於深度偽造的研究與治理實踐多聚焦於內容真實性、技術檢測與法律歸責等角度,較少從結構性性別不平等和倫理困境的角度展開系統反思。本文正是在這一背景下,以性別為切入點,重新思考技術嵌入社會過程中的權力結構,試圖揭示「深度偽造」作為數字暴力「新面孔」的技術機理、性別倫理困境與治理路徑與挑戰。

「深度偽造」的技術機理
從技術路徑上看,深度偽造是一種結合了深度學習與計算機視覺技術的生成式人工智能產物,其核心機制在於通過大規模數據訓練模型,實現對目標人物面容、聲音、動作等特徵的精準提取與再合成。早期的深度偽造多依賴生成對抗網絡(GANs)實現面部交換或音視頻模擬,近年來則隨着擴散模型、遷移學習、多模態融合等技術的推進,其生成效果愈發逼真且難以分辨。與此同時,文本生成類AI(如GPT)與圖像合成模型(如Stable Diffusion)的跨模態聯動,使得內容生產從面部偽造拓展至全身動作、情緒變化乃至虛構場景,使「擬真」內容的邊界不斷被突破。在實踐中,偽造者往往只需一段視頻、幾張照片,便能自動合成出一段幾可亂真的影像,並配以音頻還原,使得「看上去真實」成為一種可技術化批量複製的能力。
這類技術的危險性不在於其本身具備合成能力,而在於其極低的門檻與廣泛的可用性正在加速其泛濫。在開源平台上,許多深度偽造工具包不僅代碼透明,且附有詳細的使用教程,使得非技術背景的普通用戶也可迅速掌握操作要領。在數據層面,社交平台上大量公開的女性圖像與視頻素材,為深度偽造提供了近乎無限的訓練資源。這種「數據即素材」的現實,使女性面孔極易成為算法訓練與合成對象。而在合成後的傳播過程中,一旦內容被上傳至去中心化或匿名平台,其擴散將難以控制,甚至形成二次創作與多次傳播的循環機制。因此,深度偽造的技術機理並非單一的合成邏輯,而是涵蓋了數據採集、模型訓練、生成輸出與平台擴散的完整鏈條,其中每一個環節都潛藏着可被濫用的技術縫隙。正是在這種技術生態之中,深度偽造從前沿科技演化為一種帶有強烈操控性與攻擊性的社會武器,尤其在性別維度上構成了極具破壞力的系統性風險。

「深度偽造」的性別倫理困境
深度偽造技術的倫理危機並不止步於對個人隱私的侵犯或公共信任的侵蝕,更深層的挑戰在於其所激活的性別規訓機制。儘管技術往往被描述為「中立」的工具,其實質運行邏輯卻嵌入了社會結構中的既有偏見,特別是在數據訓練與應用場景中對性別角色的選擇性處理,使得女性更容易成為被「偽造」的對象。這種偏向並非源於個別開發者的主觀惡意,而是源於算法體系本身對主流文化想像和既定性別權力結構的學習與再生產。正如以Deepnude為代表的早期應用所展現的:即便技術允許生成男性裸體圖像,其訓練模型卻默認以女性身體為唯一生成目標。這種「默認」的背後,恰恰折射出對女性身體的物化與技術凝視的制度性安排。深度偽造並未創造新的暴力邏輯,而是藉助算法手段將性別壓迫的舊邏輯加以自動化與規模化,從而構成一種新型的「編碼性暴力」形式。

更為複雜的是,深度偽造所造成的倫理傷害往往具有難以追責、難以證明、難以修復的特徵,其傷害不僅止於名譽權或肖像權的法律層面,更在於對個體心理完整性與社會身份認同的持續侵蝕。當技術能夠以極高仿真度塑造「我」的替身,「我是誰」的定義權也逐漸從個體自主滑向技術系統與觀看者的想像。這種身份的異化不僅對受害者構成精神上的恆久暴力,也對數字時代的交往倫理提出根本性挑戰。在深度偽造場景中,倫理判斷常常陷入模糊地帶:當影像既非真實又高度可信,當被害人難以證明「那不是我」,社會輿論往往傾向於懷疑、冷漠或指責。在此意義上,深度偽造的倫理困境遠不止「技術怎麼用」的問題,而是一種指向「技術為誰服務、如何定義現實」的價值衝突,它撕裂了真實性與正義之間的通道,也不斷重塑女性在數字空間中的存在方式與社會地位。
「深度偽造」的治理路徑與挑戰
針對深度偽造帶來的倫理危機與社會風險,治理路徑的構建已成為各國監管與學術討論的重點方向。然而,不同於傳統的信息安全問題,深度偽造所引發的性別化數字暴力和真實性危機,需要在技術治理、平台責任與法律規制之間建立更複雜、更細緻的聯動機制。從全球治理經驗來看,歐美國家多以技術標準引導、平台自律承諾與司法救濟機制三者並行的方式推進應對。如歐盟的《反虛假信息行為守則》和《人工智能法案》嘗試引入平台標記、風險評估和合規機制等軟法治理方式,而美國則更側重州立法層面的刑事規制與平台自治結合。這些治理嘗試雖初步建立了治理框架,但在跨境實施、權責劃分與技術演進的適配上仍存諸多盲點。
在國內,深度偽造問題的應對主要體現在已有法律條款的適用性探索與行政監管的柔性實踐之間。目前,《民法典》中有關肖像權、聲音權、名譽權的規定,《個人信息保護法》與《網絡安全法》在數據採集與使用上的合規要求,以及《互聯網信息服務深度合成管理規定》等專項政策,初步構成了對深度偽造的多元規制體系。然而,現有規制多採取「後果導向」與「內容導向」的懲戒機制,較少介入內容生成前的「前鏈路控制」,技術識別能力與平台治理意願之間仍存在較大張力。特別是在面對跨平台、多次生成、匿名上傳等現實操作路徑時,單一法規條款難以實現有效響應,導致「權利可被主張但難以有效落實」的治理落差不斷顯現。
更關鍵的是,深度偽造治理不能僅停留於法律與技術的工具層面,更應在制度設計中融入性別平等與倫理正義的價值考量。深度偽造之所以構成系統性風險,在於其操控的不僅是數據,更是對「誰能被代表」「誰掌控真實」的權力分配。因此,治理路徑的構建應當超越碎片化治理邏輯,推動形成「技術預防為先、平台共管為中、法律追責為後」的全過程協同機制。在此基礎上,強化公眾教育、提升數字識讀能力,建立女性用戶參與的治理協商機制,同樣是實現深度偽造風險控制與性別正義平衡不可或缺的一環。唯有在多方責任主體之間形成倫理共識與治理合力,才能真正構建起面對深度偽造挑戰的制度韌性。
本文轉自 | 婚姻家庭研究