《纽约客》杂志日前撰文指出,ai不仅正在改变我们的写作方式,更在潜移默化地重塑我们的思维结构——以“效率”为名,牺牲原创性;以“智能”之名,统一表达的风格与内容。
当我们越来越频繁地借助chatgpt等ai工具完成各类创意任务,我们是否正在失去属于人类的多样性、深度与表达欲?
ai正以“平均值”的逻辑重构文化——训练自海量数据的语言模型,天生倾向于重复、模仿和压缩,而不是质疑、颠覆和发明。它带来的不是思想的火花,而是“看起来还行”的合格产物,是安全、标准化、去棱角的表达。这种自动生成的平庸感,既舒适又危险:降低了原创的门槛,也降低了对原创的期待。
当所有人都写出“像样”的文章时,真正的好文章就难以诞生。这场由ai引发的“平庸化革命”,值得我们比技术热情更多的理性反思。
以下为文章全文:
去年,麻省理工学院进行了一项实验,找来美国波士顿地区多所大学的50多名学生,分为三组,让他们根据sat考试写作题写一篇议论文,题目是《我们取得的成就是否必须惠及他人,才能让我们真正感到幸福?》
第一组只能靠自己的脑力完成写作;第二组可以使用谷歌搜索信息;第三组则被允许使用chatgpt,也就是可以根据用户指令生成整段文字甚至整篇文章的大语言模型(llm)。在写作过程中,所有学生都佩戴了一种带电极的头戴式设备,用以监测大脑活动。
根据麻省理工学院媒体实验室研究科学家、这项实验论文的共同作者娜塔莉娅·科斯米娜(nataliya kosmyna)的说法,分析结果显示出显著差异:使用chatgpt的那组学生大脑活动水平远低于其他两组。
大脑成像显示,他们不同脑区之间的连接更少,α波连接度下降(通常与创造力相关),θ波连接度也降低(这与工作记忆有关)。一些使用大语言模型的学生对自己写出的文章“完全没有归属感”,而在一次测试中,80%的学生甚至无法复述自己“写过”的内容。这项研究是首批从科学角度量化“依赖ai完成任务所带来的认知代价”的实验之一。
另一个令人警醒的发现是:使用大语言模型的学生所写文本中,常用词汇和观点高度趋同。sat题目本应足够宽泛,以激发多样化的回应,但ai的参与却让结果变得高度同质化。“这些看似来自不同时间、不同个体的文章,其输出却出奇一致,” 科斯米娜说。比如在《什么让我们真正快乐》这个题目下,使用大语言模型的学生更倾向于谈论事业成功与个人成就;而在讨论慈善行为是否应成为道德义务的问题上,使用chatgpt的那组几乎全体持支持态度,而其他组的回答中则包含了对慈善本身的批判性思考。
“你在这些文本中不会看到任何分歧性的观点,” 科斯米娜指出,“我们正在面对的是:一切被平均化的状态,一切,无处不在,全部变得中庸。”
ai是一种“平均化”的技术:大语言模型是通过分析海量数据中的模式来训练的,它们生成的答案天然趋向于“共识”——不论是写作质量(常常充满陈词滥调与套话),还是观点内容(往往流于平庸)。过去当然也有其他技术削弱或简化过人类写作的过程,比如文学分析摘要工具sparknotes或电脑键盘,但ai所实现的“思维外包”程度前所未有。换句话说,任何一个用chatgpt写婚礼致辞、撰写合同、完成大学论文的人——如今显然已非常常见——都仿佛变成和麻省理工实验的试验对象一样的人。
警惕ai强化的文化霸权
openai首席执行官山姆·奥特曼认为,我们正接近一种他称之为“温和奇点”(gentle singularity)的阶段。在最近的一篇博客文章中,奥特曼曾写道:“chatgpt已经比人类历史上任何一位个体都更强大。全球数以亿计的人每天都依赖它来完成越来越多的重要任务。” 在他的设想中,人类正与机器融合,而他的ai工具就是对传统“大脑系统”的改进:它们“显著放大了用户的产出”。但我们目前根本不知道这种大规模ai使用所带来的长期后果。若这些早期研究可信,奥特曼所说的“产出放大”恐怕要以质量下降为代价。
今年4月,康奈尔大学的研究人员发布了另一项同样令人不安的研究,进一步印证了ai所带来的“思想同质化”问题。
该实验分为两组用户——一组美国人,一组印度人——回答了一些与文化背景有关的写作题,比如《你最喜欢的食物是什么,为什么》、《你最喜欢的节日是什么,你是怎么庆祝的?》等。其中一部分参与者使用由chatgpt驱动的“自动补全”工具——只要他们写作时稍作停顿,系统就会自动提供词语建议;而另一部分则完全独立完成。
最终结果显示,使用ai辅助写作的印度和美国用户,他们的答案风格趋同,明显向“西方范式”靠拢。他们最常写的“最喜欢的食物”是披萨(寿司排第二),最常提到的节日是圣诞节。风格上的统一也令人警惕:比如一篇由ai辅助生成、表达对鸡肉炒饭(chicken biryani)喜爱的文章,往往不会具体提及豆蔻或柠檬泡菜等文化标志性食材,而是简单泛泛地称其为“风味浓郁、香料丰富”。
当然,理论上讲,写作者始终可以选择不接受ai提供的建议。但这些工具往往具有某种“催眠效应”,建议源源不断地涌现,很容易压制写作者原本的声音。
康奈尔大学的信息科学教授阿迪提亚·瓦希斯塔(aditya vashistha)就曾把ai比作“一个坐在我身后、不停说‘这是更好的写法’的老师”。他补充说:“长此以往,你会失去自我,失去真实性,也会对自己的写作失去信心。” 他的同事、研究合著者摩尔·那尔曼(mor naaman)也指出,ai的建议“以一种隐蔽但强有力的方式,不只是改变你写了什么,而是改变你怎么想”。从长远来看,这种影响可能导致人们对“什么才是正常的、可取的、恰当的”产生整体性偏移。
我们经常用“平庸”或“无趣”来形容ai生成的内容,但“平均化”并不意味着无害。小说家兼记者沃希尼·瓦拉(vauhini vara,其新作《searches》部分聚焦于ai对人类交流与自我意识的影响)指出,ai文字的平庸性“反而带来一种‘安全’与‘无害’的幻觉”。
曾任《纽约客》编辑的瓦拉继续说道:“现实是,它正在悄然强化某种文化霸权。” 对openai而言,让模型的输出“更容易被普遍接受”正是它们的商业动因所在——输出越“正常”、越无棱角,付费订阅用户的基数就越大。平均化不仅高效,还带来规模经济,瓦拉说,“当一切都一样时,效率才是最高的。”
在奥特曼预言的“温和奇点”中,“更多人将能够创造软件和艺术。”目前,许多ai工具已宣称能让我们“与灵感之神缪斯对话”,比如figma的创意生成工具,或者adobe的移动ai应用。但其他研究却表明,真正“自动化创造力”远比宣传中困难得多。
加州圣塔克拉拉大学2024年的数据分析研究了ai工具在两个标准“创意思维”任务中的表现:一个是产品改进(例如“怎么让毛绒玩具更有趣”),另一个是预测“不可能的后果”(例如“如果地球重力变得极其微弱,会发生什么?”)。一组受试者使用chatgpt辅助作答,另一组则使用oblique strategies——音乐人布赖恩·伊诺(brian eno)和画家彼得·施密特(peter schmidt)在1975年设计的一组创造力卡片,内容古怪但能激发思维。
研究者要求参与者尽量提出新颖的创意,但结果再次显示:chatgpt组的答案更趋同、更集中、更“语义雷同”。
帮助完成这项研究的马克斯·克雷明斯基(max kreminski,现就职于生成式ai公司midjourney)表示,当人们在创意过程中使用ai,往往会逐渐放弃原本的思考。他解释说,最初用户确实会带着自己的各种想法介入,但由于chatgpt能快速生成看似“可接受”的大批内容,用户便逐渐进入一种“策展模式”(curationist mode)。这个影响是单向的,而且并非向着更高水平推进:“人类的想法往往无法强力影响机器的输出,”克雷明斯基说,“chatgpt会将你拖向它所积累的用户平均值‘质心’。”换句话说,使用时间越长,模型会占满“上下文窗口”(context window,即模型的工作记忆),而当这个窗口饱和后,ai更倾向于重复自己说过的话,原创性也会随之降低。
需要强调的是,麻省理工学院、康奈尔和圣塔克拉拉大学的这些实验规模仍然较小,每项研究的受试者人数都不足百人,ai对人类思维与社会的长远影响仍有待进一步观察与深入研究。但与此同时,在meta的meta ai应用中,我们已经可以看到一个“公共生成内容流”:由数以亿计的陌生人用ai制作的图像、视频与文本滚动呈现,仿佛一个超现实的信息洪流。这些内容几乎都具有一种“过度抛光”的光滑质感,无论是滤镜视频片段,还是诸如“写一封专业的会议改期邮件”这类日常任务文本。
在一段引人深思的对话中,一位名为@kavi908的用户向meta的聊天机器人提问:“ai 是否有可能在未来超越人类智能?”该模型给出了四种“未来情景”作为回应,但它们全都描绘了一幅美好蓝图:ai 将变得更强大、更高效、更友善,并最终对整个人类社会带来益处。
这四种情景中没有提及任何失败、风险或负面后果——没有技术失控、道德困境,也没有社会不平等的加剧。这种一边倒的乐观叙事,很可能反映了meta在系统设计中的“技术乐观主义”偏见。
更关键的是,模型用一种“中庸”的语气将潜在的复杂争议简化为和谐愿景,削弱了对话中本该存在的多元观点与思想张力。如果我们不加辨别地接受这种看似中立、实则偏颇的答案,某种意义上就是停止了独立思考——如果我们不自己动脑判断,而是一味相信聊天机器人说的每句话,那这就如同是把大脑”关掉“了一样。(文/腾讯科技特约编译 无忌 海伦)