明星現身、專家賣葯……一張圖片、一段聲音,就能生成虛假視頻,今年兩會期間,雷軍等受害者的回應,讓ai偽造侵權再次成為熱點。
換臉擬聲合成視頻 ai偽造何時休?
全國人大代表 雷軍:有網友說去年國慶放了7天假,8天被我罵醒。網上出現非常非常多的,用我的聲音和人臉罵人的內容。剛開始我覺得這是網民喜聞樂見拿我開涮,我也能接受,但是內容比較低劣,多到不得了的時候,就防不勝防了。
除了雷軍被惡搞外,ai劉德華虛假宣傳,ai張文宏醫生和ai工程院院士張伯禮甚至做起了帶貨主播。
中國政法大學副教授 朱巍:我們現在看到的一些編輯的人臉,包括聲音在內,實際上按照民法典的規定,都屬於當事人權利人自己的人格權利。未經允許,任何人是不得侵害的,不僅不能直接用,也不能使用當事人的人臉信息、聲音信息進行深度合成,不能把它放到深度合成的物料庫或場景庫里。
持續處置
濫用ai偽造名人形象帶貨營銷
針對濫用ai技術偽造名人形象開展帶貨營銷問題,網信部門持續督促各網站平台進行巡查處置,近一個月,重點網站平台累計處置違法違規賬號和店鋪797個。
新聞鏈接
ai換臉換聲詐騙案件時有發生
除了偽造名人形象帶貨營銷,ai換臉和語音合成技術還被用於詐騙。犯罪分子通過非法獲取的人臉照片和語音樣本,利用開源ai工具生成逼真的虛擬形象。
此前內蒙古警方破獲的一起ai換臉詐騙案中,福建某科技公司老闆郭先生在視頻通話中目睹「好友」面容,10分鐘內被騙轉賬430萬元,事後發現對方竟是ai換臉與擬聲技術合成的「數字替身」。
在另外一起案件中,上海的劉先生在短視頻平台結識「焦女士」,發展為網戀後以各種名義被騙取20萬元,警方調查發現該團伙使用ai生成虛假照片實施婚戀詐騙,涉案金額超200萬元。
ai換臉+擬聲
記者體驗「深度偽造」
人臉替換、聲音模擬,網路上泛濫的ai「深度偽造」究竟是怎麼做到的?真的很容易嗎?記者找技術人員去做了個測試,將事先錄製好的視頻換成記者的臉和聲音。僅通過記者的證件照片,不到兩分鐘,視頻的人臉就換成了記者的臉。隨後是聲音的ai製作,記者現場錄製了一段聲音輸入到ai資料庫中。
網路技術人員 潘季明:我們收到您的錄音片段之後,通過ai演算法進行分析和學習,然後通過任意的輸入文本,可用您的聲音進行朗讀。
ai製作的換臉和聲音的視頻完成後,將兩段視頻合成後,一段ai生成的記者視頻就產生了。
ai合成聲音製作視頻
購物平台隨意定製
專家表示,ai換臉和換聲之類的軟體,屬於半專業軟體,普通網民還不能輕鬆掌握。但是,記者在調查中發現,普通網民即便不能掌握技術,也能輕鬆獲得自己需要的合成視頻。
在購物平台搜索聲音克隆,就會出現眾多商家。記者發現聲音ai深度合成的價格,根據字數不同在20到50元之間。商家告訴記者,只要提供一分鐘的語音素材,就可以用ai深度合成該聲音的任何話語。其中一個商家還給記者發來了此前客戶在他的網店定製的劉德華的聲音。
總台央視記者崔世傑介紹,ai深度合成視頻分兩個步驟,
- 首先是聲音克隆,獲取目標人的聲音。
- 再用目標人的一段視頻,將克隆好的聲音與之合成,並進行嘴型匹配。
這樣一個ai深度合成視頻就完成了。
記者選擇一家聲音克隆的網店,在支付了20元提供了自己的聲音模板和文字後,得到了ai深度合成的記者的聲音。
記者隨後在另一家ai製作視頻的網店,支付58元,提供ai深度合成的記者聲音和視頻後,就得到了ai製作的記者自己的帶貨視頻。
ai偽造視頻
違反了哪些法律法規?
針對ai深度合成作品,法律法規有明確的規定。2023年施行的《互聯網信息服務深度合成管理規定》要求,任何組織和個人不得利用深度合成服務製作、複製、發布、傳播法律、行政法規禁止的信息。
今年9月1日即將實施的《人工智慧生成合成內容標識辦法》也提出,對ai生成合成內容要進行標識,以便公眾識別和區分,防止誤導性信息傳播。
如何防止人工智慧技術被濫用
亟待破題
網店製作、售賣ai聲音和視頻並沒有做任何標識。他們應該承擔什麼樣的法律責任呢?
中國政法大學副教授 朱巍:未經權利人同意隨便使用別人的肖像和聲音,並且對外發布,至少按照民法典的規定是一種侵權責任,要承擔包括損害賠償、精神損害賠償在內的相關責任。但如果把這個相關的視頻,包括聲音編輯之後,形成了相關的內容,那麼這個內容如果違反了網路安全法的相關規定,當事人可能要承擔包括刑事責任在內的法律責任。
今年兩會期間,「應對和防止人工智慧技術被濫用」的話題熱度始終不減,如何在技術創新和法律約束間找到平衡,是治理虛假信息和謠言傳播,亟待破題的關鍵。
中國計算機學會計算機安全專業委員會委員 呂延輝:ai侵權問題需要從法律、平台和公眾多個層面綜合施策。法律層面,要進一步完善相關立法,細化ai克隆技術的法律條款,明確侵權行為的定義和責任,同時加強執法力度。