大皖新聞訊 近日,知名模特葉凱薇發視頻稱,其被人利用ai換臉製作淫穢視頻,並大量傳播,造成嚴重困擾,目前已經收集證據並報警。3月12日,大皖新聞記者從警方處獲悉,經鑒定,該視頻確系拼湊偽造,正在進一步調查中。此事也再次讓ai換臉濫用引發的違法侵權行為受到關注,對此,專家表示,整治這一亂象,既需要法律的監管,也需要道德的約束。
葉凱薇自曝被ai換臉製作淫穢視頻傳播
知名模特被ai換臉製作淫穢視頻,發視頻呼籲停止傳播
在視頻中,葉凱薇稱,2024年,其發現被人利用ai換臉製作了一段淫穢視頻,且被大量傳播,身邊同行、攝影師在相互傳播時,還加以各種污穢難聽的字眼進行污衊,產生很多謠言。為此她一直在默默收集證據,並報警,警方已經立案,該視頻也被鑒定是拼湊合成的。
視頻附上的《立案告知書》顯示,葉凱薇於2024年11月27日所報的被侮辱案,上海警方已立案。另一份鑒定意見則顯示,檢材錄像系技術拼湊、合成形成。
在視頻中,葉凱薇表示,希望大家不要聽信謠言,也不要胡亂傳播,她將對個別同行、攝影師提起訴訟。視頻發布後,引發關注,網民們議論紛紛。
視頻還附上了鑒定意見
警方證實視頻為拼湊偽造,ai換臉濫用引關注
大皖新聞記者注意到,葉凱薇為知名模特,在某短視頻平台粉絲達190餘萬。記者就此聯繫葉凱薇,但未獲回應。
3月12日,大皖新聞記者從上海警方處了解到,接到葉凱薇報警後,警方隨即介入展開調查。經專業機構鑒定,該視頻確實是拼湊偽造的,正在進一步調查中。
此事也再次讓ai換臉濫用引發的違法侵權行為受到關注。據了解,ai換臉也稱為深度偽造技術,其實質是一種基於人工智能的人體圖像合成技術。近年來,這一技術被不法分子利用,進行詐騙、勒索,多地警方公布了相關案例,一些知名人士也深受其害,並在公開場合呼籲加強治理,應對新技術帶來的風險挑戰。
葉凱薇工作室發布嚴正聲明
律師說法:濫用ai換臉存在諸多法律風險,需嚴守法律邊界
針對此事,大皖新聞記者採訪了安徽省委依法治省辦法治督察員、君悅(合肥)律師事務所主任羅平,其認為,ai換臉存在諸多法律風險:一是侵犯肖像權,未經肖像權人同意,使用其面部特徵進行ai換臉,可能構成對肖像權的侵犯。根據《民法典》的規定,任何組織或個人不得以醜化、污損或利用信息技術手段偽造等方式侵害他人的肖像權。二是涉嫌利用犯罪,ai換臉技術可能被用於犯罪活動,如製作和傳播淫穢視頻、詐騙等。根據《刑法》的規定,利用ai換臉技術進行這些犯罪活動,可能構成詐騙罪或製作、複製、出版、販賣、傳播淫穢物品牟利罪。三是涉嫌隱私權侵權,使用他人非公開的面部數據(如私人照片、視頻)進行換臉,或傳播涉及私人生活的換臉內容,可能侵犯隱私權。四是涉嫌個人信息侵權,非法收集、存儲或使用他人面部生物識別信息,或未履行告知義務或超範圍使用個人信息,可能構成個人信息侵權。五是侵犯著作權,ai換臉可能涉及未經授權使用受版權保護的影視作品或攝影作品作為素材,這違反了《著作權法》中關於作品的複製權、改編權和信息網絡傳播權的規定。
又該如何防範這些法律風險呢?羅平也給出了建議:從個人層面而言,要避免在社交平台公開高清人臉信息。發現侵權後及時固定證據,通過發律師函或訴訟維權。而對技術使用者來說,需取得肖像權人書面授權,明確使用範圍。避免製作、傳播可能損害他人權益的內容。此外,相關平台層面也要建立ai內容審核機制,及時響應侵權投訴,標註ai生成內容。
“總之,ai換臉技術雖具創新性,但其濫用可能嚴重侵害民事權益。在技術應用中需嚴格遵守法律邊界,平衡創作自由與人格權保護。”羅平說道。
學者觀點:整治亂象,需制定新規則明確邊界
安徽大學社會與政治學院副教授王雲飛認為,從現實來看,ai換臉濫用既需要法律監管,也需要道德約束,應通過制定新規則明確應用ai技術行為的邊界。
王雲飛告訴大皖新聞記者,在他看來,ai時代來臨,在此基礎上,各種新的功能層出不窮,一切處於變化之中。因為變化,所以存在諸多不確定性,因此我們有必要與時俱進,重新審視過去的行為準則和評價機制,構建新的規則,並在制度層面明確新技術的應用範圍,避免出現“一管就失去活力,一放就濫用”情況發生。
王雲飛進一步解釋,隨着ai技術越來越普及,ai換臉操作的門檻也在降低,有人利用這一技術從事不法活動牟利,但也有人單純只是為了所謂的惡搞。這時候就需要針對社會發展新趨勢制定新的規則,劃紅線、明底線,明確違法侵權與娛樂化應用、私人空間與公共空間等邊界。推動新技術往規範化方向發展,引導受眾樹立正確價值觀,抵制低俗趣味,通過法律和道德共同發力,趨利避害,讓新技術更好地服務社會。
大皖新聞記者 韓喻
編輯 陶娜