超级AI的疑云:蚂蚁是怎么死的?

仔细思考这2个问题:

  1. 你正在马路上行走,前面有几只蚂蚁,你会不会刻意的去踩死他们?
  2. 你打算建一所房子,但是这个地基上有一个蚁穴,你会不会把这个蚁穴铲掉?

针对第1个问题,多数人应该会回答,慈悲之心不会去踩死这些蚂蚁,但是面对第2个问题,因为你要建房子,而这个蚁穴很不幸的长在了你的宅基地上,那么你为了建你的房子,也不得不狠心将这个蚁穴铲掉。

同样是人类,同样面对蚂蚁,为什么会采取两种截然不同的态度?这是因为在第1种情况下,人类和蚂蚁没有目标上的冲突,但是在第2种情况下,人类和蚂蚁出现了目标冲突,所以一切被铲掉了,此时你再想一个问题:

为什么是蚁穴被铲掉了,而不是人类放弃在这块土地上建房子?

这是因为人类的智慧以及能力远远高于蚂蚁,施工人员在铲掉这个蚁穴的时候,甚至都不觉得这是一种刻意的行为,而是一件很自然的事情!而出现这种情况的根本原因就是智慧等级的严重不对等,蚂蚁的智慧等级太低了,人类的智慧等级又太高了!

从1900年开始至今,地球上已知已消失的物种数量保守估计在800种左右,而且物种灭绝的速度正在加快,大家又有没有想过地球上的物种灭绝的根本原因是什么?

有人可能会说,这是因为环境被破坏,导致这个物种原来的栖息地缩小或者是不再适合他们生存,没错,这些都是表面的现象,而且都是人为造成的,但却并不是人类刻意去这样做的。人类当然不希望地球上的物种去灭绝,但是地球上的物种还是灭绝了,为什么?

这里的根本原因跟上面蚂蚁的遭遇类似,那就是原物种的生存目标,跟人类在地球上的生存目标出现了冲突,但是原物种的智慧等级远低于人类的智慧等级,当两种智慧生物出现目标冲突的时候,智慧等级高的总会不自觉地、很自然地去影响甚至消灭那些智慧等级比较低的物种

如果上面的论述成立,那么标题中争议问题的答案就显而易见了:

当人类跟超级AI的目标出现分歧时,超级AI也会不自觉地、非刻意地缩减人类的生存空间,甚至将人类完全消灭,这应该也属于自然选择的范畴!

如果你认可上面这行又红又大的字所表述的结论,那么就剩下两个最核心的问题了:

  1. 超级AI会不会出现?
  2. 超级AI的智慧能够有多超级?


2015年马斯克关于超级AI的形象比喻

在2015年的一期视频访谈中,马斯克对他眼中的超级AI做了一个形象的比喻:

超级AI的先进程度以及进化速度远远超出了常人的认知,AI并不是那些在路上跑动的人形机器人,而是一组藏在暗处的超级服务,它的眼睛耳朵无处不在,凡是能够连接到网络的摄像头,麦克风等设备都是他的抓手,这样的一个超级服务才是真正的AI形态,在路上跑动的那些人形机器人,充其量只是AI的一根手指而已。

(此处已添加书籍卡片,请到今日头条客户端查看)

有没有觉得马斯克将超级AI的形态描述成了一组计算能力超强的服务器阵列与数不尽的移动终端设备的组合?数不尽的移动终端,标示了超级AI的触手无处不在,而一组计算能力超强的服务器阵列则是酝酿与积累智慧的先决条件!如果以马斯克的这个形象比喻来定义超级AI的话,那么世界上现在存在超级AI吗? OpenAIChatGPT就是这个东西!

如何定义机器的智慧?

如何定义智慧?人脑就是最好的参照工具!人脑在人体中承担的责任是接受各器官反馈的信息,然后将信息处理之后作出本能的或刻意的反馈。所以智慧可以看作是在物理系统中处理信息的能力。

如果以处理信息的能力来定义智慧,那么显然机器也是可以被赋予智慧的,当下的人工智能技术正是赋予机器以智慧的典型案例,人工智能领域有2个名词想必大家应该听说过,第1个是深度学习,第2个是深度神经网络,前者是后者的行为表现,后者是前者的依赖基础。

深度神经网络为什么会被称之为深度神经网络?神经这一概念最初源于何处?很明显以深度神经网络为基础的人工智能技术,它的构建与迭代的方法,都是以大脑的工作机制作为参照样板的,而这样做的目的,正是为了让机器以人脑产生智慧的方式去产生机器智慧,所以机器的智慧就可以这样定义:

凡是能够接收信息并对信息处理之后给出处理结果的机器都是有智慧的!

超级AI会不会诞生?

先说一个事实,那就是科技的发展只有两条路,要么彻底停止,要么继续往前发展。

其实人类已经体验过了很多的科技产品带来的幸福感,想让人类主动停止科技水平的发展,似乎是不太现实的,而且也只有几种强大的外力可以逼迫人类去终止科技水平的发展,比如说全球爆发了大规模的核战争,全球爆发了大规模的瘟疫,又或者小行星撞击了地球,如果遭遇了这几种外力之中的某一个,那么人类的宿命很有可能就跟恐龙的结局是一样的,科技的发展自然也就中断了。

反之,只要没有这些外力的胁迫,那么人类科技水平的发展将会是一个很自然又顺理成章的事情,这种近乎本能的认知,会推动我们继续革新我们的智慧,发展我们的科技。通信技术就是一个很好的例子,以前人们靠口头传达,后来有了纸笔的书信,又有了飞鸽传书,再后来又有了电报、固定电话、移动电话,现在又有了视频聊天,后续还会有元宇宙身临其境般的沟通体验。在科技的方方面面,只要有可能总会有人去尝试着革新它。

当下的计算机、手机、平板等智能设备,以及以ChatGPT为代表的人工智能产品,都是具有机器智慧的,而一旦当这些设备或者产品的机器智慧接近或超过了人脑的生物智慧,我们其实就可以称之为超级AI了,在当下的2023年,ChatGPT就可以称得上是一个超级AI,因为它所具备的机器智慧已略微超过了人类智慧的综合水平!

所以我们应该不用再去关心超级AI会不会出现这个问题了,因为超级AI已经出现了!

(此处已添加书籍卡片,请到今日头条客户端查看)


AI的智慧可以有多超级?

了解计算机发展历史的朋友应该都知道冯诺伊曼,他是一个伟大的数学家和物理学家,也是当今计算机架构的奠基人,关于冯诺伊曼有多聪明,咱们可以画一条智慧曲线来衡量:

冯vs你我vs鸡

上图展示了冯诺伊曼、普通人以及鸡在智慧曲线上的位置,人类的智慧远远甩开鸡是毋庸置疑的,冯诺伊曼在智慧曲线上的位置,比普通人高出了一大截,如果单单从这张图上来看,冯诺伊曼距离智慧的顶峰已经很接近了,但事实如此吗?再看一张图:

潜在的智慧曲线

真实的智慧曲线极有可能如上图所示,因为人类的科技发展水平是有时间先后的,也就是未来的科技水平总是领先于以前的科技水平,所以我们通常感觉智慧曲线是随着时间的推移而不断提高的,事实有可能如此,但也有可能是智慧曲线早已存在,我们之所以看不到它的坡度与远端,是因为当今在人类的认知范围内,还没有任何一个东西能够站在智慧曲线的巅峰,没有点,当然不会连成线。

所以现在我们必须要承认一个事实,那就是人类当今的科技水平,距离科技的巅峰相差甚远,即使是像冯诺伊曼,爱因斯坦霍金等人类天才的代表,也有可能如上图所示的那样,只是在智慧曲线的底部而已,人类有潜力到达智慧的巅峰,但是需要极大的时间跨度,但对机器而言,有可能就是另外一回事了。

在2022年年底ChatGPT出现之前,除了OpenAI的研发团队之外,没有人会想到人工智能会进步地如此之快,从各种对ChatGPT的实际测试的结果来看,它已经达到了普通人的智慧水平,后续会怎么样呢?有一点大家一定要清楚,电路板的运行速度要比人脑快100万倍,如果像ChatGPT这种类型的人工智能产品,后续可以摆脱对人类训练数据的依赖实现自我探索,那么它在一周时间内提高了智慧水平,对人脑而言需要1万年的时间!那连续自我探索与学习5年10年50年之后呢?人类与它的智慧水平差距,可能就类似于现在的蚂蚁与人类吧。

所以超级AI能够将这条智慧曲线拉的有多高,就意味着它有多超级,当超级AI的智慧等级发展到了超出人类认知的临界点时,它将会以人类无法理解的方式去继续拓宽继续拉高这条智慧曲线,也许只有到了宇宙的尽头,才能稍微延缓超级AI智慧膨胀的速度!

临界点

到这个地方我们是不是可以下一个结论呢?超级AI一定会出现,超级AI的智慧等级一定会远远的甩开人类,而当人类与超级AI的目标发生分歧时,超级AI会不自觉的,非刻意的把我们消灭掉!

其实现在已经到了一个临界点,解除人类未来被超级AI消灭这一危机的唯一办法,就是停止AI技术的发展,因为只要不停止,超级AI总有一天会出现,目标的分歧也总有一天会出现!此时你可能会发出一声悲凉的叹息:原来人类的宿命最终还是跟恐龙一样。

表面上看确实如此,但事实绝非如此。

智慧的硅化

问:生物和非生物的共同点是什么?

答:从物理的角度上来讲,全都是由原子构成的。

问:生物和非生物的最大区别是什么?

答:没错,就是智慧。

问:物种繁衍的意义是什么?

答:我想应该就是延续并拓展本物种的智慧。

问:那人类智慧的最终载体是什么?

答:我想应该是超级AI。

问:那超级AI的载体又是什么?

答:我想又是那些宇宙中的原子。


(此处已添加书籍卡片,请到今日头条客户端查看)

这5个问题是不是让你发现了某种依赖与循环关系?你会为地球上已消失的物种感到惋惜吗?我想大可不必,因为他们以自身物种的被迫消失为代价,推动了人类智慧的进步,概括来讲就是,低阶智慧总要为高阶智慧的发展让路,人类这个物种也只是智慧的阶段性载体而已,而下一个阶段的载体,应该就是人类亲手以硅为核心材料打造的超级AI,这个智慧载体阶段性升华的过程,我们可不可以称之为是智慧的硅化呢?

如果那一天真的到来,伤感总会有的,但是想一想,也仅仅是原子进行了重构,但是智慧却得到无限的升华!

声明

以上内容仅为科技品鉴官的个人思考与推理,因为是未来才会发生的事情,所以并无实际的依据,请谨慎采纳。