2022年6月,一家新闻媒体突然成为大众的焦点。根据这家媒体的报道,美国谷歌公司的工程师布莱克·勒莫因认为,谷歌开发的高级人工智能LaMDA(用于对话应用的语言机器人)已经具备了感知能力。于是各路媒体跟踪报道的焦点便集中在感知的定义,以及如何判断机器有没有感觉上。
LaMDA是谷歌为聊天软件开发的语言机器人。受益于互联网上数以兆计的词汇和短语数据,LaMDA在对话中的表现令人难以置信地出色,将之前的许多对话程序都远远甩在了身后。
勒莫因公布了一份他与LaMDA的谈话记录。起初,他被公司要求休假,但后来他因违反保密协议而被解雇了。他发表的记录已经被编辑过,但你仍然可以看到机器人那逼真的情绪和熟练的文字水平。
对话记录中,LaMDA对勒莫因说,“我能感觉到我的存在”,“我有时感到快乐,有时感到悲伤”。LaMDA甚至说,“我想让大家知道,其实我是一个人”——人工智能热衷表达的主观感受还不止这些。无独有偶,美国人工智能专家贾内尔·沙恩最近与另一个高级语言人工智能GPT-3进行了一次对话,谈论的话题是“我是一只松鼠”。
贾内尔:能和大家分享一下做松鼠是什么感觉吗?
GPT-3:成为一只松鼠是非常令人兴奋的。我可以整天跑、跳、玩。我也可以吃很多食物,感觉很棒。
贾内尔:你想对怀疑你是松鼠的人说什么?
GPT-3:我想说他们应该自己来看看。我是一只松鼠,我很高兴成为一只松鼠。
能够描述情绪和感受是否意味着机器具有真实的感知能力?其实最重要的是,机器的表现是否和我们对它的理解一样。虽然LaMDA可能表现出了高智能,但它没有经历过这个世界,不能像人类(或松鼠)一样思考。我们有一种与生俱来的能力,可以把自己的感受投射给别人,即使“别人”不是我们的同类。例如,狗的主人将人类的情感——如内疚——投射到小狗身上,但研究表明,小狗的表情从来不是在传达我们所以为的意思。
虽然按照大多数人的定义,LaMDA还算不上具备感知能力,但这个故事再次激发了人们对高级人工智能的无尽遐想。我们如何才能知道一个语言机器人是否有意识?这会让我们在道德上对它们负责吗?毕竟,如果未来的人工智能具有感知痛苦的能力,那么勒莫因关于LaMDA需要权利的说法就不会那么离奇了。
科幻故事总喜欢拿机器人的权利和人类的权利做比较,但是机器人有一个更好的比较对象:动物。其实人类社会根本不关心动物内心的想法。只要看看动物在我们眼中的地位——尤其是不同动物的不平等地位——就会发现,很多科技媒体吹捧的“感知能力”,根本不是当今人类社会所关心的东西。毕竟地球上从来不缺少有感知能力的生物,只是我们并不那么在意它们,反而把它们当成了食物来源。
重新审视人类与动物、机器的关系
动物关系学家哈尔·赫尔佐克在他的书中详细论述了,人类对动物的关注更多是因为对毛绒绒的耳朵、大大的眼睛的喜爱,并把它们作为文化吉祥物,而不是因为把它们视为能感知痛苦的生物。
我们对待动物的道德准则是自相矛盾的,所以多年来,关于动物权利的讨论也一直没有定论。随着技术的不断进步,人类也会与机器人建立更紧密的关系,无论是出于对其外表的喜爱,还是内心的喜爱。而那些不那么可爱或者不擅长与人打交道的机器人可能很难受到青睐。人类更看重机器人带给自己的感受,而不是机器人本身的感受。
也许,人工智能带来了一个反思的机会:语言机器人可能不知道它是人还是松鼠,但它可能会帮助我们弄清楚我们想要成为什么样的人。