
□曹欣怡(云南财经大学)
7月4日,“DeepSeek给王一博道歉是假的”冲上微博热搜。据称,这家人工智能公司因内容审核疏漏,将王一博与“李爱庆腐败案”不当关联,损害了其名誉,并已作出正式道歉。然而,DeepSeek官方从未发表过道歉声明,相关信息中也没有任何一则明确指出DeepSeek的道歉渠道,部分媒体发布的所谓的声明截图竟本身就是AI生成的文字,还带有AI生成的水印。声明中所提及的法律判决书,在中国裁判文书网上也检测不到。(7月4日 极目新闻)
AI技术本应是高效、准确的信息助手,如今却沦为发布虚假信息的“造谣者”。这不仅让公众对AI的信任度大打折扣,也给网络信息传播秩序带来极大冲击。
从技术层面看,AI大模型基于概率和数据训练生成内容,缺乏真正的事实核查与语义理解能力。换句话说,AI并没有人类那样可以分辨是非与真实理解内容的能力。当网络中存在大量虚假信息时,AI很容易被误导,陷入“垃圾进,垃圾出”的困境。此次事件中,可能是部分网友带着偏见的诱导性提问,让AI模型生成了虚构的道歉声明及司法判决内容。这凸显出当前AI技术在处理复杂、真假难辨的信息时,存在严重的缺陷。且为了给出用户答案,甚至会出现伪造信息的情况。
在信息传播过程中,AI生成的虚假内容借助媒体和社交平台的快速传播,产生了传播的连锁反应。大量自媒体、网络新媒体乃至传统媒体未加核实就纷纷转发,形成一种确有其事的舆论氛围。而当其他AI大模型再去检索相关信息时,又会将这些虚假内容作为“信源”进一步传播,造成恶性循环。比如,当有网友向其他AI大模型询问该事件时,得到的答案也是DeepSeek的确道歉了,在一系列的传播链条中,AI的“头脑”已被虚假信息严重污染。
AI技术的滥用也为网络虚假信息治理带来新挑战。一方面,目前对于AI生成内容的责任界定尚不明确。如果AI生成了虚假信息,究竟是AI研发公司的责任,还是使用AI的用户责任,抑或是传播平台的责任?在此次事件中,很难确定最初的虚假信息是如何通过AI生成并扩散开来的,也难以对相关责任主体进行追责。另一方面,公众缺乏对AI生成虚假信息的媒介素养。随着AI技术的普及,人们越来越依赖AI获取信息,却往往忽视了其可能存在的错误和虚假性。在面对AI生成的看似权威的内容时,大多数人缺乏质疑和查证的意识。
AI技术的发展是一把双刃剑,它在为我们带来便利的同时,也带来了新的风险和挑战。此次“DeepSeek道歉”假新闻事件,给我们敲响了警钟。只有通过技术升级、媒体自律和法律规制等多方面的努力,才能让AI更好地服务于社会,避免其沦为虚假信息的“帮凶”,营造健康、有序的网络信息环境。
本文为红辣椒评论原创文章,仅系作者个人观点,不代表红网立场。转载请附原文出处链接和本声明。