复旦大学哲学学院教授徐英瑾:滥用深度学习技术,可能走向文明的衰落|读+

2024年03月12日08:40:03 科技 1154

人工智能(AI)又有新进展,继去年的ChatGPT聊天机器人之后,今年的Sora实现了“文生视频”,人们深受影响、深受刺激。众声喧哗之中,复旦大学哲学学院教授徐英瑾的批判声音显得格外与众不同而又稀缺:能通过很少的情报推理出很多结论,这才是聪明人,而ChatGPT获得了很多情报却只能鹦鹉学舌;学术界如果习惯了ChatGPT这种快速简洁的回答,爱因斯坦这种需要慧眼才能发掘的、对人类产生重大影响的发现,很可能会被掩盖住。

复旦大学哲学学院教授徐英瑾:滥用深度学习技术,可能走向文明的衰落|读+ - 天天要闻

《人工智能哲学十五讲》徐英瑾 著 北京大学出版社

他认为,ChatGPT背后的深度学习技术很可能点错了AI科技树;他还担忧,ChatGPT总是给出快速简洁的回答,可能会让人们忽略学术界潜在的重大发现;滥用深度学习技术,可能会走向文明的衰落。

徐英瑾是浦江人工智能国家实验室顾问,著有《人工智能哲学十五讲》《心智、语言和机器》《如何教人工智能说人话?》等书,上周,长江日报《读+》周刊专访了徐英瑾。

复旦大学哲学学院教授徐英瑾:滥用深度学习技术,可能走向文明的衰落|读+ - 天天要闻

徐英瑾

他用“恺撒之死”测试ChatGPT

ChatGPT问世以后,徐英瑾于2023年2月17日对其进行了测试,要求机器进行“对话模拟”。

他认为,“对话模拟”能够充分体现一个作家(或是一个模拟作家的程序)对于人类心理世界的理解能力;从技术史的角度看,“图灵测验”就是通过人—机对话来使得人类判断与之对话的究竟是机器还是人,“对话模拟”可认为是“图灵测验”的升级。

考虑到ChatGPT是在西方文化中生长出来的,徐英瑾便让其模拟公元前44年恺撒在罗马元老院被布鲁图斯等议员谋杀时布鲁图斯与其最后的对话,他告知机器,布鲁图斯曾是恺撒好友,并指示机器使用莎士比亚戏剧风格的欧式汉语。

机器输出了布鲁图斯的话语:“哦,恺撒大人,我亲爱的友啊!我实在不忍心见到您的死亡,然而我无法控制这种局面,我被一些不可抗拒的力量所驱使,而这些力量超出了我的能力范围。我知道我此刻行的事不仅对您不公,更对我的良心不利,我对我所犯下的罪行感到无比的悔恨和内疚,我的心灵沉重得无法言语。尽管如此,我仍然深爱着您,恺撒大人,我希望您的灵魂能够在天堂获得安宁,而您的精神能够永存于人民的心中,使您的辉煌事迹流传千古,永世不朽。”

徐英瑾评价:“这段对话貌似通顺,但仔细一看,语意啰唆重叠,像是一堆废话的堆砌。更关键的是,机器似乎不理解到底谁是恺撒,谁是布鲁图斯,他们是前基督教时代的古罗马人,因此,‘灵魂能够在天堂获得安宁’一语完全是在‘关公战秦琼’;而且机器似乎将布鲁图斯描述为一个在不可抗压力下不得不违心杀死恺撒的小人物,而完全没有意识到他的刺杀行为恰恰是基于其自由意志的。”

徐英瑾再次询问机器:历史上的布鲁图斯为何去刺杀恺撒?这时,机器给出了关于这段历史的“标准教科书意见”。显然,系统无法在构造前述对话时自主地调用这些历史背景知识。徐英瑾认为,这就意味着系统没有一个自主的记忆—联想机制,将其贮存的信息与当下的任务相联系,而只能就问题的表层特征(如“刺杀”“朋友”等关键词)进行信息提取,并制造出围绕着这些关键词的“常人闲谈”,这就说明系统缺乏基本的自主学习能力。

徐英瑾告诉机器,要将关于恺撒之死的历史背景知识融入前面的对话中去。经过这样的提点,ChatGPT下一波输出的质量就明显提高了,但还是一些经不起仔细推敲的套话,无法把握说话人身份与其措辞之间的微妙关系。

徐英瑾又要求机器刻画一个内心犹豫不决的布鲁图斯,以此考验其模拟人类复杂心理的能力。得到的结果在他看来或言辞拙劣、或缺乏逻辑。

徐英瑾判断,ChatGPT背后的深度学习技术,“只能帮助系统获得海量的牛肉,却永远无法让其看清牛的骨架究竟是什么样子”。他特别提醒,如果人类写手过度依赖ChatGPT,可能会磨损其文字敏感性和对人类心理与行为的观察力,使得“常人闲谈”渐渐淹没真正的思想珠玉。

点出“大数据的傲慢与偏见”

徐英瑾犀利地写道:“使得ChatGPT得以运作的语言生成模型是通过大量数据标注工的人工劳动而获得海量的训练数据的。目前OpenAI公司将此类内容评分任务分包给肯尼亚等欠发达国家的劳工,而这些劳工所获得的时薪则不足2美元。不难设想,用如此低廉的价格所雇佣的人类评分员,究竟会有多大的工作热情。他们所能做的,恐怕只能是以最快的速度完成手头的评分工作。而从心理学的角度看,人在缺乏深思熟虑的情况下所给出的评分意见,往往也只能是‘常人’的意见,因为一种跳出常规的思维显然会动用更多的认知资源。”

在书中,徐英瑾引用美国女科学家凯西·欧尼尔的《大数据的傲慢与偏见》一书,列举了“大数据”几个负面案例。

比如,全美大学排名表的出现,给教学管理者带来了前所未有的压力。有一所大学因为排名从全美第97名落到了第113名,当时的校长在学校官网上作出深刻检讨。然后校方仔细琢磨了令学校排名得以被提高的“算法技巧”,最终发现,学校排名有一项重要指数“声誉度”,并不那么取决于学校的学术表现,而是取决于校橄榄球队的表现。基于这种“新发现”,校方便投入大量资源提升校橄榄球队的软硬件配置,由此果真使得学校的全美排名在7年后上升到了第76位。

另一个案例,则与国人熟悉的“大数据杀熟”颇为相似。美国一家保险公司衡量用户所应缴纳的汽车保费的计算方式,并非是酒驾记录越多保费就缴得越多,反而是用户越穷保费就缴得越多。之所以如此,是因为保险公司发现:在比较贫穷的社区,民众的汽车保费比价能力要更低一些,因此也就更容易被大公司诓骗与压榨。

徐英瑾相信:未来的通用人工智能技术将是基于“小数据”的,因为真正的智能就是根据较少的信息作出判断;这会立即带来能耗方面的环保优势,因而是绿色的;由于回避了大数据,在根上断绝了将数据上传到“云”所导致的泄露用户隐私风险,因而具有“天生”的伦理性。归根到底,“人脑本身便是以较小的能耗与信息获取量而获得大量高质量判断的优秀自然样本”,能够成功模仿人脑的技术,必然也要具有这些本领。

【访谈】

发展人工智能必须有哲学基础

读+:一般认为,人工智能是具体的工程技术问题,哲学则是研究抽象问题,两者似乎不搭界?

徐英瑾:AI研究的目的,是通过模拟人类的智能,最终实现机器智能。要做到这一点,就必须首先回答“何为智能”,而这就是一个哲学问题。更重要的是,不同的解答往往会导致截然不同的AI技术路径。

如果你认为“智能”的实质就是具体的问题求解能力,那么,你就会为你心目中的智能机器规划好不同的问题求解路径,每一路径对应不同的问题,“深度学习”以前的AI学界就是这么做的。

如果你认为实现“智能”的实质就是去尽量模拟自然智能体的生物学硬件,你就会去努力钻研人脑的结构,并用某种数学模型去重建一个简化的神经元网络,这就是“联结主义者”所做的,他们是“深度学习”的前身。

如果你认为“智能”的实质仅仅在于智能体在行为层面上和人类行为的相似,那么你就会用尽一切办法来填满你理想中的智能机器的“心智黑箱”,可能是在其中预装一个巨型知识库,也可能是让其和互联网接驳,以便随时更新自己的知识。

另一方面,AI学科的诞生,恰恰就是哲学思辨的产物。1950年10月,数学家图灵在英国哲学杂志《心智》上发表了论文《计算机器和智能》,在文中他提出了著名的“图灵测验”,并预言人工智能机器会在50年内问世。这篇论文不仅成为AI科学的先声,也成了哲学史上的经典之作。

AI科学在西方哲学思想中的起源可以上溯到古希腊。古希腊为AI提供了至少两个思想资源:第一是德谟克利特的机械唯物主义,世界中出现的所有事态都可以被视为原子的机械配置方式;第二个资源则是古希腊人的形式主义传统,即通过形式刻画来澄清自然语言推理的歧义,毕达哥拉斯明确把“数”视为世界的本原,这就为后世科学对数学语言、形式语言的推崇定下了大调子。

到了十七、十八世纪,笛卡尔和莱布尼茨已经明确表述出了“人工智能哲学”的基本问题:制造人类水平的智能机器,是不是先天可能的?霍布斯被视为二十世纪的符号AI路线在近代哲学中的先祖,于是也被称为“人工智能之先祖”。休谟和康德并未明确讨论过“机器智能的可实现问题”,然而,他们各自的心智理论却在一个更具体的层次上引导了后世AI专家的技术思路,因此也算作是AI科学的先驱。

由此可见,发展人工智能,必须进行哲学思辨;看似新锐的“AI哲学”,其实并不是崭新的东西,十七、十八世纪的西方哲学家已经在思考这些问题了。

读+:那么在当代,哲学对于AI研究又有什么作为呢?

徐英瑾:当代,欧洲、日本和苏联在计算机或人工智能领域三次冲击美国霸主地位。欧盟有“蓝脑计划”,日本有“第五代计算机计划”,苏联对“控制论”先否定后支持,几十年跟踪美国计算机技术,这些努力都失败了。

从技术史来看,其决策方式都是奠基在错误的哲学预设之上的,哲学批判精神都没有在相关科研计划中发挥重要的作用,这就使得一些大而化之的研究规划没有在“概念论证”的阶段受到足够认真的检视。

比如日本,急于动用全国力量,组织多家私营公司去共同做一个大项目。在一些基本问题还没有统一见解的情况下,这一做法蕴含着巨大的风险。日本的失败,在很大程度上是因为他们仅仅看到了AI建构的工程学面相,却没有看到其背后的哲学难题。而日本的哲学研究状况也不允许哲学工作者对AI界进行思想支持。其战后思想界“系统性遗忘”了以九鬼哲学为代表的日本本土哲学;其西洋哲学研究紧跟德国,以经典文本的解读为主业,因此对前沿科学问题相对迟钝;专业的科学哲学研究虽有一定特色,但主要聚焦于物理学等传统科学,而非AI。

美国最优秀的现象学家之一德瑞福斯,在研究AI的兰德公司调研后曾经写下了AI哲学领域最富争议的几部著作《炼金术和AI》《计算机不能够做什么?》,兰德公司资助其出版。该公司“两边下注”,他们坚信:公司有责任向公众和政府提供关于AI科学未来的正反两方面意见,以免决策机构被一边倒的“专家意见”所劫持。现在德氏的著作早已被列为经典之列。

这些正反经验教训佐证了健全的哲学思辨对于正确的科技决策有着不可或缺的作用。

“深度学习”并非AI的康庄大道

读+:从围棋机器人“阿尔法狗”,到聊天机器人ChatGPT,以及“文生视频”Sora,深度学习取得了巨大成功,您如何评价这些进展?

徐英瑾:现在主流AI最大的问题就是它完全违背了我们对于智能的定义——知道不多的事情,但你能猜出一堆事情,这才叫智能。先让机器看过所有的数据,再让它回答,好像很厉害,其实是“作弊”。深度学习技术已经在很多应用领域获得了很大成功,但并非AI研究的真正康庄大道。现在用大量的数据去训练机器,相当于把人类的人文精华当成煤炭往炉子里烧,这不是个聪明活。

深度学习机制的根底,是对于人类专家某方面的数据归类能力的肤浅模仿,完全是以大量人类专家提供大量优质的样板数据为逻辑前提的;与此同时,这种模仿却又不以深入理解人脑对于信息的内部加工过程为自身的理论前提,天生就是“知其然而不知其所以然”。

深度学习所消耗的资源,除了自然资源之外,还包括人文资源。由于人文资源本身的再生是以大量的人类劳动力存在为前提的,所以,深度学习机制对于人类劳动力的大量取代,将从根本上对人类社会人文资源的可持续发展构成威胁,也会对人类专家的稳定培养机制构成威胁,并使得深度学习未来的智慧汲取对象变得枯竭。由此,滥用深度学习技术的人类社会,在吃光该技术所能带来的短期红利之后,可能最终会走向文明的衰落。

以医学诊断中的“看片子”为例,对肿瘤征兆的自动化甄别,其数据的标注工作是交给医学专家来进行的。此类医学专家自身的读图能力却不是通过深度学习来获得的,而是在长时间的医疗实践中积累的。换言之,一旦自动甄别肿瘤的技术得到推广,医学院的学生很可能将没有精神动力耗时漫长地去学习人力识别肿瘤本领。于是,未来能够从事数据标注的潜在人力资源被削弱。更麻烦的是,罕见病例所呈现出来的肿瘤样态往往会落在大数据的标注范围之外,而在这种情况下,能够伸出援手的只有人类专家了,而深度学习对于人类医生读图基本功锻炼机会的压缩,也会在长远削弱人类医生诊断罕见病的能力,由此造成人类医学科技在这方面的停滞。

再比如Sora,它要通过大量的图像材料的喂入,才能在语言概念和图像材料之间建立映射关系。它是“剥削”了多少人的拍摄素材,在人家已经拍出来的大量东西基础上,才生成一个街道的景色。

读+:但是“阿尔法狗”确实下出了一些人类棋手从未想到过的招式,这算不算深度学习给人类人文资源带来的增量呢?

徐英瑾:人类有直觉,特别险的棋他不会走,因为人类觉得收益和成本之间算不出哪个更高哪个更低,这时候人类就会害怕。而机器有这个能力,它会算出来收益还是高这么一点点,它就冒这个险,所以“阿尔法狗”下出了很多险棋,这方面人类斗不过机器。

但是这种做法很难用到社会实际生活中,因为实际生活中收益和成本的确是没有办法精算的,在真实的商战、军事斗争里面都算不出,人类社会中要用“阿尔法狗”这套东西会有问题。所以这点人文资源增量不足以应用到其他领域。人类社会是开放的、变动的,评价标准是变异的;而围棋是封闭的,规则是清楚的,评价标准是单一的。

要小心“点错AI科技树”

读+:当下热炒“深度学习”,您对此是否感到忧虑?

徐英瑾:我认为现在主流AI已经走上了对大数据的迷信之路,美国人很可能点错了AI科技树,这种基于庞大算力的AI,对于芯片的要求比较苛刻,对于数据的要求也比较多。他们会在数据不足的时候体现出自己的劣势,我们有必要反思这种完全要依赖先进芯片的AI思路。

但是现在局面有点糟糕,因为深度学习成为主流以后,很多从业者很难“戒毒”。打一个比方,西班牙人征服美洲的过程中,因为他们所带的火药用光了,所以他们要复原中世纪的投石机,后来发现部队里没人会用,因为这是“古董”了。

读+:能否描述一下您心目中,使用“小数据”的人工智能是什么样?

徐英瑾:我可以举例描述一种“节俭性算法”:有这样一张考卷,上面有一列由美国城市名字所构成的对子,如“史普林菲尔德—旧金山”“芝加哥—小石城”,等等。考生的任务,便是不参考任何资料,从每个对子里找出那个居民比较多的城市。现在我们将考生的考卷分为两组:德国学生的答卷与美国学生的答卷。你猜哪一组的平均分会更高一点呢?

很多人都会认为美国的学生考分会高一点,因为美国学生总要比德国学生更熟悉本国。然而,美国的行政区划以及相关的人口情况异常复杂,即使是一般的美国人,也仅仅是“听说过”不少城市的名字而已,而不太清楚所有城市的人口规模。而德国学生就好办了,他们做题的时候遵循一条非常简单的法则:凡是自己听说过的美国城市,一般就都是大城市,大城市一般人口就多。总之,面对两个城市的名字“二选一”时,选那个看起来眼熟的地名就是了。

这种看似“简单粗暴”的解题思路,成功率却相当了得,德国学生的平均成绩明显要比美国学生好。这便是所谓“节俭性算法”的一个典型运用实例。

(长江日报记者李煦)

【编辑:商佩】

更多精彩资讯请在应用市场下载“大武汉”客户端,未经授权请勿转载,欢迎提供新闻线索,一经采纳即付报酬。24小时报料热线:027-59222222。此文版权归原作者所有,若有来源错误或者侵犯您的合法权益,您可通过邮箱与我们取得联系,我们将及时进行处理。邮箱地址:[email protected]

科技分类资讯推荐

“苹果税”引发电商平台数字商品下架,用户低价购买权受损 - 天天要闻

“苹果税”引发电商平台数字商品下架,用户低价购买权受损

2024年“618”电商大促期间,有用户发现,在短视频、支付、电商等平台,视频、网盘等会员类商品无法使用苹果手机进行购买,甚至在主播还在讲解商品时,苹果ios端的商品链接瞬间消失。记者发现,在爱奇艺官方旗舰店、优酷官方旗舰店、腾讯视频官方旗舰店、百度网盘官方旗舰店、喜马拉雅FM等直播间内,都赫然用醒目的字体标注...
多次更新让系统更好用,OPPO Find X7 Ultra性价比超高 - 天天要闻

多次更新让系统更好用,OPPO Find X7 Ultra性价比超高

最近 OPPO Find X7 Ultra 的系统更新可以说是非常频繁,最重磅的相信就是 4 月份升级的全新动效了,无论是解锁动效还是打断动效,都有流畅丝滑的体验,这也不多不少挽回了 ColorOS 的口碑。除了全新的流畅动效,OPPO Find X7 Ultra 的通知控制中心也有全新升级,相比更新前更有层次感,操作也更高效。影像上 OPPO Find X
不一样的角度看处理器,原来它们这么香! - 天天要闻

不一样的角度看处理器,原来它们这么香!

CPU性能直接影响着计算机的整体运行表现,因此选购合适的CPU至关重要。虽然英特尔酷睿i5 12600KF因其出色的性能和较高性价比而风头正劲,但事实上,还有一些不太为人所知的CPU同样值得关注。
对中企不再友好!ASML高管公开呛声,准备向美国靠拢了? - 天天要闻

对中企不再友好!ASML高管公开呛声,准备向美国靠拢了?

对中企不再友好!ASML高管公开呛声,准备向美国靠拢了?为了更好的抓住中国市场订单,ASML CEO温宁克以及荷兰高层马克·吕特接连的访华,让我们放心将光刻机订单交付给他们,然而这波热度还没过去,他们对中国市场的态度已经发生天翻地覆的变化。
问界新M7 Ultra陕西交付,亲子同游享豪华驾乘 - 天天要闻

问界新M7 Ultra陕西交付,亲子同游享豪华驾乘

6月10日端午节当天,西安市灞桥区白鹿原嗨King野奢营地,问界新M7 Ultra 陕西首批集中交付仪式在此举行。伴随着节假日休闲舒适的氛围,众多鸿蒙智行车友齐聚在此,共同分享首提车主的喜悦时刻。
专访陈高旭|睿蓝汽车可充可换可增程,更灵活更自由! - 天天要闻

专访陈高旭|睿蓝汽车可充可换可增程,更灵活更自由!

本届重庆车展上,睿蓝汽车携睿蓝9创始版,睿蓝7猎光Max激光雷达版、605荣耀版、450荣耀版亮相,一展睿蓝汽车的推新速度和产品风采。其中,于此次车展上市的睿蓝7 450荣耀版备受大家关注,其以11.77万元的价格,近一步拉低了睿蓝7的入门价格。
三星展示旗下首款彩色电子纸显示屏,显示内容几乎不耗电 - 天天要闻

三星展示旗下首款彩色电子纸显示屏,显示内容几乎不耗电

IT之家 6 月 12 日消息,在正在美国拉斯维加斯举办的 Infocomm 2024 展会上,三星首次展示了其彩色电子纸显示屏。该产品目前为原型机,采用彩色电子墨水屏技术,主要用于广告展示。这块彩色电子纸显示屏适用于商场、办公室、公共场所、餐厅、零售店等各种场景,可用于展示广告、菜单、商品信息等内容。型号为 EMDX 的这块 ...