出品|虎嗅科技組
作者|宋思杭
編輯|苗正卿
頭圖|視覺中國
近日,一則消息在網路上引發熱議。有媒體稱,「deepseek就ai模型違規關聯王一博與『李愛慶腐敗案』,作出道歉。」 該媒體還表示,「deepseek方面表示,因內容審核疏漏,平台在回答用戶查詢時,引用未經證實的網路謠言,將王一博案與首創集團原董事長李愛慶案件進行不當關聯,對其名譽造成侵害,deepseek已永久撤回相關失實信息,並援引北京市第三中級人民法院(2025)京03刑終174號刑事判決書明確。」
然而,經虎嗅多方核查發現,deepseek 官方微信公眾號、官方網站、官方 x 賬號(前 twitter)等所有官方社交媒體平台,均未公開發表過任何道歉聲明。虎嗅進一步檢索所有有關 「deepseek 就違規關聯王一博與李愛慶腐敗案道歉」 的新聞報道,發現沒有任何一則新聞明確指出 deepseek 的道歉渠道,也未出現相關道歉聲明的截圖。
事情的戲劇性不止於此。該事件的詭異之處在於,全網幾乎都認定 deepseek 進行了道歉。大量自媒體、網路新媒體乃至傳統媒體,都在第一時間跟進報道了這條不實消息。
不僅如此,虎嗅向市面上的所有 ai 大模型詢問該事件,得到的回答竟出奇一致:均表示 deepseek 的確就 「違規關聯王一博與『李愛慶腐敗案』」 進行了道歉,並引用了上述不實新聞鏈接。
來源:豆包
來源:deepseek
來源:kimi
該事件本屬於社會新聞、娛樂新聞等層面,但筆者作為長期跟蹤科技類新聞的從業者,站在筆者的角度來看,此事背後折射出的,遠不止新聞報道核查不嚴的問題,更暴露出當下 ai 大模型比 「幻覺問題」 更為嚴峻的困境 ——ai 通過援引假新聞生成新的假新聞。(虎嗅註:人們常說的ai大模型幻覺問題,是指ai在無事實依據的情況下所生成的不符合事實、甚至不符合邏輯的假消息)
簡單來說,隨著近兩年ai大模型的迅猛發展,早期普遍存在的「幻覺問題」確實有所緩解。這主要得益於ai大模型增加了聯網搜索和推理等能力,這意味著大模型在生成用戶回答時,可以根據網路上的公開信息,通過推理的方式,來生成相應的ai回答。
然而,癥結在於,當網路上充斥著海量虛假信息時,連人類都難以迅速辨別其真偽,ai對此則更缺乏有效的信息核查能力。因此,在引用網路信息時,便造成了典型的「rubbish in, rubbish out」(垃圾進,垃圾出)效應。
以筆者個人經驗而言,在日常寫作工作中,ai並不能真正替代人類撰稿。甚至有時,當新聞工作者藉助ai輔助寫作時,反而會降低工作效率。因為大部分時間仍需用於查證ai生成信息的真偽,即便ai援引了某個新聞網頁,證明並非「幻覺」,卻仍需再次核實該新聞網頁所提及內容的真實性。對此,筆者在與多數新聞從業者交流時,大家普遍認為,「用ai生成稿件的效率比自己動手寫更低。」
回到該事件,對於ai帶來的警示作用是,ai應該如何在真假難辨的網路世界裡辨別真偽,從而進一步提升ai生成準確率。因為只有當ai提高了生成回答的準確率,才能真正被投入到實際的生產工作當中。舉個例子,這也是為什麼,在大部分企業應用大模型時,當中重要的一步是給大模型喂企業專有的知識庫,這樣在員工向企業定製的大模型提問時,才不會生成錯誤答案。
當然,對於人類的警示作用,可能就在於,當人類自身都在「生成」假消息時,ai就更無法給出準確答案了。