虛假信息面前,AI為何「智商下線」?

□曹欣怡(雲南財經大學)

7月4日,「DeepSeek給王一博道歉是假的」衝上微博熱搜。據稱,這家人工智慧公司因內容審核疏漏,將王一博與「李愛慶腐敗案」不當關聯,損害了其名譽,並已作出正式道歉。然而,DeepSeek官方從未發表過道歉聲明,相關信息中也沒有任何一則明確指出DeepSeek的道歉渠道,部分媒體發布的所謂的聲明截圖竟本身就是AI生成的文字,還帶有AI生成的水印。聲明中所提及的法律判決書,在中國裁判文書網上也檢測不到。(7月4日 極目新聞)

AI技術本應是高效、準確的信息助手,如今卻淪為發布虛假信息的「造謠者」。這不僅讓公眾對AI的信任度大打折扣,也給網路信息傳播秩序帶來極大衝擊。

從技術層面看,AI大模型基於概率和數據訓練生成內容,缺乏真正的事實核查與語義理解能力。換句話說,AI並沒有人類那樣可以分辨是非與真實理解內容的能力。當網路中存在大量虛假信息時,AI很容易被誤導,陷入「垃圾進,垃圾出」的困境。此次事件中,可能是部分網友帶著偏見的誘導性提問,讓AI模型生成了虛構的道歉聲明及司法判決內容。這凸顯出當前AI技術在處理複雜、真假難辨的信息時,存在嚴重的缺陷。且為了給出用戶答案,甚至會出現偽造信息的情況。

在信息傳播過程中,AI生成的虛假內容藉助媒體和社交平台的快速傳播,產生了傳播的連鎖反應。大量自媒體、網路新媒體乃至傳統媒體未加核實就紛紛轉發,形成一種確有其事的輿論氛圍。而當其他AI大模型再去檢索相關信息時,又會將這些虛假內容作為「信源」進一步傳播,造成惡性循環。比如,當有網友向其他AI大模型詢問該事件時,得到的答案也是DeepSeek的確道歉了,在一系列的傳播鏈條中,AI的「頭腦」已被虛假信息嚴重污染。

AI技術的濫用也為網路虛假信息治理帶來新挑戰。一方面,目前對於AI生成內容的責任界定尚不明確。如果AI生成了虛假信息,究竟是AI研發公司的責任,還是使用AI的用戶責任,抑或是傳播平台的責任?在此次事件中,很難確定最初的虛假信息是如何通過AI生成並擴散開來的,也難以對相關責任主體進行追責。另一方面,公眾缺乏對AI生成虛假信息的媒介素養。隨著AI技術的普及,人們越來越依賴AI獲取信息,卻往往忽視了其可能存在的錯誤和虛假性。在面對AI生成的看似權威的內容時,大多數人缺乏質疑和查證的意識。

AI技術的發展是一把雙刃劍,它在為我們帶來便利的同時,也帶來了新的風險和挑戰。此次「DeepSeek道歉」假新聞事件,給我們敲響了警鐘。只有通過技術升級、媒體自律和法律規制等多方面的努力,才能讓AI更好地服務於社會,避免其淪為虛假信息的「幫凶」,營造健康、有序的網路信息環境。

本文為紅辣椒評論原創文章,僅系作者個人觀點,不代表紅網立場。轉載請附原文出處鏈接和本聲明。