到 2022 年秋天,Naked Science 环顾四周,决定是时候发布一系列关于人工智能的文章了。我们从一篇长文开始,其副标题可能是“人工智能历史简介——从中世纪僧侣到深度学习”。
人工智能根据“梦想人工智能之春”字样生成的图像
人工智能(AI)——这两个词几乎每个人都知道,但很少有人能给出明确的定义并解释它是什么。我们对人工智能的理解更多地来自好莱坞电影,而不是真正理解人工智能背后的技术。电影,就像任何艺术一样,总是通过情感与观众一起工作。其中最畅销的是恐惧。
2001 年的HAL 9000 AI计算机:太空漫游控制了星际飞船。《终结者》中的 T-800 半机械人回到过去杀死了莎拉·康纳。最近的例子——神经植入物在电影“升级”中征服了佩戴者的意识。在电影 Ex Machina 中,Gynoid Ava 轻松操纵受邀进行反向图灵测试的程序员,杀死了他的创造者并逃到了野外。例子不胜枚举。然而,现实与电影画面相去甚远。
人类从 80 年的搜索、错误和死胡同中走过了漫长的道路,每一次都以“人工智能的冬天”告终——对这项技术的能力和潜力感到失望。但自 2010 年代初以来,世界再次经历了人工智能领域的“回暖”。因此,在电影院里,他们试图吓唬外行——大公司和主要国家的政府正在投资数十亿美元用于人工智能的发展,因为现在它正在改变一切——从科学研究到日常生活。
然而,即使是最先进的现代发展,也远非导演和编剧的任何幻想的可能性。像往常一样,关于未来的想法可能会在细节上重合,但绝不会在大体上重合。让我们了解什么是人工智能,并简要了解其发展史上的主要里程碑。
发明概念
美国数学家约翰·麦卡锡(John McCarthy,1927-2011 年)在 1948 年开始参加脑行为机制研讨会时首次对计算机产生了兴趣,其中讨论了计算机是否可以开始像人类一样思考。这个话题让他如此着迷,以至于后来——1956 年夏天——他用洛克菲勒基金会的钱在达特茅斯学院(美国新罕布什尔州的一所私立研究型大学)组织了一个为期十周的研讨会。
在拨款申请中,麦卡锡陈述了研讨会的目标:
(我们的)研究将假设学习的每个方面或(人类)智能的任何其他特征都可以被如此准确地描述(数学),以至于有可能创建一个计算设备来模拟它。(我们)将尝试找到一种方法,让计算机使用(自然人类)语言,形成抽象和概念,解决现在只有人类才能解决的各种问题,并提高自己。我们相信,如果精心挑选的一组科学家在夏天共同研究这些问题,那么可以在其中一个或多个问题上取得重大进展。
麦卡锡组建的团队确实令人印象深刻。有信息论的创造者克劳德·香农,人工智能数学基础的未来之星和框架理论的创造者马文·明斯基,认知心理学家艾伦·纽厄尔,后来开发了逻辑理论家程序,其修改后学会了下棋并解决难题,还有很多很多其他有才华的人。
使用 Tesla Autopilot 在交通中行驶,它控制与道路上其他车辆的距离并将车辆置于车道中央。这辆车是 2017 年的 Model X 75D,内部是深色的 。
作为一名真正的科学家,约翰麦卡锡和他的同事从定义概念开始。第一个听起来是这样的:“人工智能是一项旨在创造智能(智能)机器的科学和工程活动”。相信这是“人工智能”一词在历史上的首次出现。后来,正如经常发生的那样,科学学科的名称也被转移到其研究和设计对象的名称上——“智能机器”本身,以物理和算法的形式实现。
该定义的更现代版本可能听起来不同。例如,人工智能是计算机科学的分支之一,其任务是使用计算系统和其他人工设备提供合理的推理和行动。同时,在该行业内获得的知识基础上创造的技术被称为信息技术。
嗯,简单地说,人工智能是一个科学技术领域,可以自动解决智力问题。如果人们借助他们的智力解决了某个问题,那么科学家和工程师可以创建一个人工系统来代替人来解决它。这将是人工智能系统。
但是,任何人都可以执行许多智力任务,例如开车、下棋、在电话中讨论当天的计划等。有时可以同时完成所有这些任务。但是计算机还不能做到这一点。因此,相信我们创造的只是弱(weak)或窄(narrow)的系统,或应用(applyed)的人工智能。
他们所有人都只能完成一项智力任务——在城市的街道上驾驶无人驾驶汽车或将国际象棋下到完美。而且即使程序打败了国际象棋世界冠军,它也不会开车。但人们很容易从一项任务切换到另一项任务,并且可以终生掌握新技能。
弱人工智能系统数不胜数。事实上,几乎所有的工程师和科学家都在从事他们的开发工作。尽管如此,该行业的主要目标是创造强大(strong)或通用(general)的人工智能。在这里一切都不是那么简单,很难制定出一个让所有人都满意的单一定义。这既是由于这个概念的历史,也是由于理解人类和智力及其能力的困难。
事实上,强人工智能的概念最早是由哲学家约翰塞尔与“中国房间”的概念一起提出的。总而言之,听起来是这样的:如果一个懂中文的人被放在一个封闭的房间里,然后用中文写的问题通过一个特殊的舱口发给他,那么他也会根据他对这个的理解用中文写答案语。但是会发生什么,继续 Searle 的思想实验,如果另一个不会中文的人被放在同一个房间里,但同时他被提供了一个详尽的规则系统,允许他形成其他人以响应收到一些象形文字序列?
如果规则体系足够广泛,那么一个不懂中文的人会在不了解问题本质的情况下给出相当有意义的答案。换句话说,他会在没有真正掌握汉语的情况下模仿理解汉语。这就是他的“强人工智能”概念的由来,表示一个“表现得好像它是智能的”的系统,以将它与一个“真正智能”的系统区分开来。
然而,现在对“强人工智能”概念的原始解释只能在哲学书籍中找到。例如,IBM给出了不同的定义:
强人工智能,也称为人工通用智能 (AGI),是对特定形式的人工智能的理论描述,具有类人智能、自我意识,以及解决广泛的智力问题、学习和计划的能力为未来的行动。
解释这个定义最简单的方法就是以苹果公司联合创始人提出的“咖啡测试”为例。以及该公司第一台个人电脑的创造者斯蒂芬·沃兹尼亚克。这很简单,但对于任何系统来说仍然是无法克服的。
这张图片是由 AI 为响应 Naked Science 编辑“制造 AI 的咖啡”
咖啡测试的本质是测试人工智能如何与人和真实的物理环境充分交互,以及如何在没有事先培训的情况下成功地在新环境中导航。要做到这一点,人工智能控制的机器人必须能够在任何随机抽取的厨房中找到咖啡、咖啡机或咖啡机,这是以前没有过的,并且其计划未加载到其系统中,并准备一个喝。
这里有很多美食——人工智能一无所知的各种陌生环境。目标是制作饮料。限制——实现目标的手段的存在与否。确实,有时承认一个问题无法解决,比徒劳无功地重复更能证明智慧。
有趣的是,一些俄罗斯专家表示,如果机器人和算法不与物理环境交互,就像人类在个体发育过程中一样,那么就不可能创建通用 AI。随着向现实的转变,将出现质的突破。
许多科学家,比如马文·明斯基,或者像埃隆·马斯克这样的企业家,都预测通用人工智能将在未来几十年内被创造出来。相反,其他人甚至现在都认为完全不可能创造它。最大的成就将是开发强人工智能或狭义通用人工智能(narrow AGI)的元素,即在一种问题上取得突出成果并可以解决其他问题但明显低于人类平均能力的系统。
在第三圈
人工智能的官方历史通常在概念本身出现之前的 15 年开始——从 1940 年代开始。但史前史可以从远古时代——亚历山大的苍鹭的自动机和安提凯瑟拉机制——一种计算天体运动的机械装置。然而,所有这些成就都应该归功于自动化和计算机技术发展的早期阶段,而不是创造出可以替代人解决智力问题的机器。
Antikythera 机制
从 Raymond Lull (1235-1315) 的逻辑机器开始计算可能是公平的。鲁尔在阿拉贡国王手下长期担任诗人,但随后将他的宫廷生活转变为僧侣之路。1272 年,在一次宗教狂喜期间,他被一种神圣的幻象拜访——一种特殊的装置,你可以用它从有限数量的一般概念中推断出世界的所有真理。
鲁尔在论文“伟大的艺术”(Ars Magna)中描述了他的机器。实际上,它是一组同心圆,其旋转使得获得符号和主要概念(主要是神学)的各种组合成为可能。
最简单的汽车变体由三个圆圈组成。第一个包含许多拉丁字母,第二个 - 概念(“力量”,“善良”,“智慧”),第三个 - 属性(“强大”,“善良”,“明智”)。而在圆圈的中间,有一个星形的图形,连接了圆圈的所有扇区。在其最复杂的版本中,该设备包含 14 个圆圈,并提供了天文数字的组合。
Ars Magna
鲁尔的思想随后对哲学家和数学家戈特弗里德·威廉·莱布尼茨产生了重大影响:
“在哲学中,我找到了一种方法,可以在代数和分析的帮助下实现笛卡尔和其他人在算术和几何中所做的相同......通过组合学......可以分解为少量简单的概念,可以说是它们的字母表,通过正确的方法,从这样一个字母表的字母组合中,可以得到所有事物及其理论证明时间。
唉,最后,莱布尼茨未能创造出“人类思想的字母表”,并将所有哲学结论都归结为严格的形式。但在尝试发明它的过程中,他提出了著名的 0 和 1 二进制系统。现在它是任何计算设备的基础,对数字数据和逻辑运算进行编码。
同时,鲁尔的作品也引起了俄罗斯思想家的兴趣。在 17 世纪末和 18 世纪初,Ars Magna被诗人和哲学家 Andrei Belobotsky 翻译成俄文。在彼得大帝时代之前的俄罗斯,他的两部手稿《雷蒙德·鲁尔的伟大科学》和《雷蒙德·鲁尔的简要科学》被广泛使用。
打孔卡之父
显然,第一台俄罗斯智能机器的发明者谢苗·科萨科夫(Semyon Korsakov,1787-1853 年)对这些书非常熟悉。科萨科夫发明并详细描述了五种用于搜索和分类信息的类似设备。其中最简单的是“带有固定部件的直线内窥镜”。它使用了一张穿孔的桌子,在桌子的柱子上移动了一块带有不同高度尖刺的木板。所需的列由表中孔与突出尖峰的重合确定。他提出的其他机器,稍微复杂一些,以类似的方式工作:带有移动部件的直线内窥镜、平面内窥镜、ideoscope 和比较器。
Semyon Nikolaevich Korsakov 的智能机器打孔卡
在解释内窥镜的工作原理时,科萨科夫举了一个医学诊断的例子:表格的列包含疾病的症状,医生根据在患者身上观察到的症状设置条上的尖峰。柱子沿着柱子移动,直到碰到正确的柱子,医生只能选择对的药。“该设备考虑的细节数量可能达到数百个,”Korsakov 补充道。事实上,这是世界上第一个医生专家决策支持系统!
大约一个半世纪后,在 1980 年代,一位对我国这些科学发展的历史和史前史非常感兴趣的著名苏联数学家和控制论家格利·波瓦罗夫偶然发现了科萨科夫的出版物。波瓦罗夫普及了他的想法,并使科萨科夫成为国内控制论的创始人之一,并为他带来了一项重大的世界成就——计算机科学史上第一次使用打孔卡。
早期的想法
事实上,人工智能的正式历史始于控制论。在最初的版本中,控制论与其说是一门科学,不如说是一门描述如何在管理从生物有机体到跨国公司的任何复杂系统中创建和处理信息的元理论。
结果,控制论迅速瓦解,为计算机科学、生物学、数学、管理学、工程学等多个领域的出现提供了沃土。至于人工智能,历时最长、最成功的人工智能,虽然历经数次危机,但在控制论的怀抱中诞生了人工神经网络的研究计划。
从MIPT 应用人工智能系统研究中心- PhysTech AI的专家 Mikhail Burtsev 的角度来看,设计能够执行智能任务的智能机器有三种方法。
1. 神经网络和深度学习的训练。基于动物和人类的单个神经元、神经网络和大脑的物理和软件建模。
2.符号人工智能。基于建模人的推理方式和逻辑结论。
3. 进化规划和遗传算法。它们基于建模进化机制,其中算法必须变异和生存才能获得更好的解决方案,经历自然选择的严峻压力。
自 1940 年代至 1950 年代以来,前两种方法已得到积极发展。而进化方向和其他一些从 1960 年代到 1990 年代出现的方向,现在已经进入了一些阴影。
神经网络的兴衰
在 1940 年代初期,两个截然不同的人在芝加哥大学偶然相遇,并做出了一项重大发现,为未来几十年的人工智能发展奠定了基础。Warren McCulloch 42 岁,是一位成功的教授,是一位商人的儿子,热衷于寻找“psychon”——神经活动的基本单位。沃尔特·皮茨(Walter Pitts)还不到 18 岁,他是一个神童,13 岁时给伯特兰·罗素(Bertrand Russell)写了一封信,他是一个没有受过正规教育的自学者,来自底特律一个贫穷、功能失调的家庭。
然而,事实证明,他们的合作非常富有成效。1943 年,他们提出了一个按照数理逻辑运行的“形式神经元”模型。
大多数活的神经细胞总是有许多小的突起——树突(通过它们,信号从外部进入细胞)、一个身体和一个大的突起——轴突(信号通过它离开细胞)。所有这些机制都根据“全有或全无”原则工作——如果输入的脉冲不超过某个阈值,那么神经元根本不会给出答案,如果超过阈值,则产生最大可能的响应.
这就是人工智能神经元想象自己的方式(响应编辑请求“神经元”)
“形式神经元”也是在严格固定的时间点按照“全有或全无”原则运行的阈值元素。它有有限数量的输入和一个输出。输入分为兴奋性 (+1)、抑制性 (–1) 和抑制性。后者可以阻止来自任何其他输入的信号。如果在某个时刻神经元通过输入接收到的动作的代数和达到或超过阈值(0),则在神经元的输出处出现信号。
他们 1943 年在数学生物物理学公报上发表的文章题为“与神经活动有关的思想的逻辑演算”引起轰动,13年后在苏联翻译出版,神经元建模引起了极大的兴趣。俄罗斯控制论者 Viktor Varshavsky 提出了他的阈值神经元的广义模型。Nikita Pozin 领导的一个小组在科学院控制问题研究所创建了一个神经元的电子模型。而由 Nikolai Amosov 领导的团队不断发展出“形式神经元”网络的想法,以在计算机内部创建一种外部世界的“内部信息模型”。不幸的是,由于缺乏外文翻译和外部联系薄弱,几乎所有这些作品都为世界科学和工程界所知。
McCulloch 和 Pitts 认为具有二进制输入的“形式神经元”执行逻辑计算,因此大脑可以比作推理机,这对康奈尔大学的心理学家 Frank Rosenblatt 影响最大。他在一家航空实验室工作,但同时他一生都梦想着寻找系外行星,为此他需要一个用于图像识别和分类的自动工具。他发明了它。
在科技史上,Rosenblatt 永远是感知器之父,感知器是现代深度学习系统的直接前身。本质上,感知器是单个 McCulloch 和 Pitts 修正神经元的神经网络。然而,这种修改非常重要——这里增加了输入信号与输出块的连接权重,或者更简单地说,是测量神经元的每个输入对输出处获得的值的影响。
权重允许感知器自己学习。它是这样发生的:例如,我们希望感知器学会确定字母 A 并指示预期的输出:+1 表示 A,-1 表示字母表中的任何其他字母。之后,我们将字母图像提供给感知器的输入。如果出现错误,权重会自动更正(例如,如果它在应该为 -1 时给出 +1,反之亦然)。如果答案正确,则不会对其进行任何更改。逐渐地,感知器找到所需的权重集并停止出错,清楚地识别出字母 A。
1957 年,Rosenblatt 证明了感知器收敛定理。俄罗斯数学家弗拉基米尔·瓦普尼克(Vladimir Vapnik)也对感知器原理的推广做出了重要贡献,他创造了“支持向量机”,后来在机器学习中得到广泛应用。在它的帮助下,您可以自动计算一个平面,该平面最有效地将笛卡尔空间中的两组点(例如狗和猫的照片)分开,也就是说,它还解决了分类问题(在这种情况下是二进制)。
由“XOR 问题”的基本感知器解决。所有元素的阈值 = 0
尽管取得了所有成功,但由于当时电子和计算机技术的能力有限,感知器并未广泛用于解决应用问题。然后他们受到了数学家 Marvin Minsky 和 Seymour Papert 的沉重打击,他们在他们的《感知器》一书中表明,创建这种类型的多层分类器很可能是不可能的。在那一刻,他们的考虑(后来证明是错误的)被信仰接受了。直到 1980 年代中期,神经网络才被遗忘。
逻辑、启发式和知识
这一切都始于编写一个下棋程序的愿望。1954 年,未来的 Dartmoor 研讨会参与者 Allen Newell 和 Herbert Simon 与 John Clifford Shaw 一起开始工作。在他们的工作中,他们从多个场所着手。首先,程序必须使用从分析人们解决问题的方式中得出的经验方法和规则。人们在思考的过程中进行认知活动。它包括对周围世界对象的符号表示的操作。因此,物理计算系统需要配备有关世界的知识和处理它的方法。这就是符号 AI 和启发式编程的历史开始的地方。
心理学家立即参与了这项研究。他们研究了成功棋手的下棋风格以及人们如何解决各种问题。该团队随后创建了他们自己的信息处理语言( IPL )编程语言,这可能是第一个将数据表示为符号链接列表的语言。在其上先后编写了三个程序:1956 年的逻辑理论家、1957 年的通用问题解决者和 1958 年的NSS国际象棋程序。
“逻辑理论家”能够从初等数学中证明定理。变量列表保存在机器中,可以使用逻辑连接词组合成表达式 - “AND”(连接),“OR”(析取),“IF ... THEN ...”(暗示)。接下来,给出了公理和三个推理规则:替换、替换、除法。
结果,证明被理解为一系列表达式,其中每个表达式都源自先前的表达式,并且一切都从公理和已知定理开始,并导致所需的表达式。这种方法被称为启发式编程,因为一方面,它用符号重新创建真实的人类动作,另一方面,它根据给定的规则切断了许多可能的序列和表达式。
结果,“通用问题解决者”学会了应对许多难题,找到不定积分并解决代数问题。NSS下棋还算过得去。然而,要做到这一点,有必要在控制算法中添加对目标的描述和对当前和目标情况的评估,以及它们的差异。
在苏联,启发式编程也引起了科学家的注意。在探索思维的心理学家开始时,例如 Veniamin Pushkin,对他们来说,启发式方法成为了在人类实验中操作化和实验研究的概念。只有这样,稍晚一点 - 控制论和逻辑学家。俄罗斯人工智能专家 Dmitry Pospelov 与普希金一起进行了一系列关于情境管理的研究——在特定情况下进行决策,同时考虑到许多行动选择。好吧,逻辑学家谢尔盖·马斯洛夫是第一个提出在谓词演算中自动搜索定理证明的方法的人。
国际象棋程序“Kaissa”
与此同时,国际象棋程序的开发由国际象棋史上的VI世界冠军米哈伊尔·博特维尼克(Mikhail Botvinnik)进行。从 1950 年代后期到 1990 年,他与一群程序员一起创建了他的“先锋”。然而,并没有太大的成功。苏联科学院控制问题研究所创建的 Kaissa 计划并非如此。1974年,她在其他国际象棋项目中获得了世界冠军。
LISP、PROLOGUE 和俄语 REFAL
IPL为用于 AI 系统的另一种著名语言奠定了基础。1958 年,“人工智能”一词的作者约翰麦卡锡向感兴趣的公众介绍了 LISP 语言( LISP-LISt 处理)。与所有其他专注于解决智力问题的语言一样,LISP 旨在处理不是数字的,而是以列表形式组织的符号数据,就像可执行程序代码本身一样。但最重要的是,在语法层面,启发式在其中实现,例如归约,即将任何复杂的任务划分为简单的任务。表达式可以用来定义函数,而符号使用了很多括号,这常常使代码难以阅读。
AI 的另一种专业语言是 PROLOG(PROLOG - PROgramming LOGic),它创建于 1972 年,是逻辑编程的巅峰之作。传统的三段论“所有人都会死。苏格拉底是个男人。因此,序言中的苏格拉底是凡人”变成了“为了证明苏格拉底是凡人,将证明苏格拉底是人的证据作为子目标”——从语法上看,它看起来像这样:
凡人(苏格拉底): - 人(苏格拉底)
我国也开发了类似的用于创建符号 AI 系统的专用编程语言。因此,1966 年,Valentin Turchin 引入了 REFAL 语言(递归函数算法)。今天,它是最古老的函数式语言。Turchin 假设它将作为一种算法元语言来描述其他语言的语义,但实际上它对于处理符号信息并因此解决智力问题非常方便。
在符号信息上使用逻辑和操作的启发式编程蓬勃发展了近 20 年。然而,到 1970 年代中期,所有专家都清楚地知道,算法复杂性和启发式算法的改进已经达到了极限。根本性的突破不能指望。必须为算法配备庞大的知识库,而技术能力不允许这样做。再加上感知器和其他神经网络的衰落,这导致了 1970 年代的第一个“人工智能冬天”。
尽管如此,直到 2000 年代中期,启发式算法并没有消亡并且得到了相当有效的发展。它们的用途仍然有限。例如,在面向工程师 的Autodesk产品中使用了相同的 LISP 语言。
神经网络的新复兴
Rosenblatt 的感知器在 1960 年代初达到了极限。为了解决比检测单个字母更复杂的问题,有必要增加神经网络中的层数。出现了一个尖锐的问题:如何训练这样的系统,有可能吗?著名的马文·明斯基(Marvin Minsky)所表达的当时科学家的普遍看法是否定的。业内人士都觉得“冬天来了”——人工智能研究开始被认为没有希望,资金锐减,话题不仅过时,而且在一定程度上变得边缘化。
AI 应“神经网络的复兴”编辑的要求生成的图像
在这里,心理学家再次来拯救人工智能。在工程师和自然科学家中,心理学一直处于伪科学的地位,如果它在技术知识界失去了以前的地位,他们为什么不选择一个被拒绝的话题呢?1980 年代中期的第一个“人工智能之春”与加州大学圣地亚哥分校的认知和数学心理学家 David Rumelhart 的名字以及反向传播方法或梯度下降的发明有关。
这很有趣,但即使在这种情况下,如果当时苏联的科学能够更多地融入国际科学,并且用英文出版,或者至少系统地翻译国外的苏联作品,那么神经网络的革命也许会十年前就开始了。今天,即使是计算机技术历史学家也几乎不知道 Avtandil Kvitashvili、Genrikh Otkhmezuri、Sergey Dayan 和其他在 1950 年代至 1970 年代试验多行感知器的人的名字。
大卫 Rumelhart
控制论者 Aleksey Ivakhnenko 早在 1970 年代早期就使用参数组计算方法(实际上是最早的机器学习算法之一)训练了八层神经网络,尽管是基于不同类型的“形式神经元”创建的。1974 年,未来的 MIPT 教授 Alexander Galushkin 发表了专着《多层模式识别系统的合成》,其中他描述了由以开环网络形式组织的线性阈值元素组成的识别系统。在他的工作中,Galushkin 将学习多层网络和具有循环连接的网络的问题重新表述为梯度下降问题。
然而,可惜的是,只有在David Rumelhart、Jeffrey Hinton 和 Ron Williams的《通过反向传播错误学习表征》一文发表在Nature of 它描述了多层神经网络和一种新的训练方法。
例如,我们有一个由三层神经元组成的神经网络:五个在输入层,三个在隐藏层,一个在输出层。我们记得,神经元和这些连接的权重之间存在连接。如果网络中有多个层,则将权重构建为值向量或梯度。
与感知器的情况一样,教师设置输出值。如果作为一个训练时期的结果获得的输出值与给定的不匹配,则使用差值来更新输出神经元连接中的权重。然后隐藏神经元和输入神经元中连接的权重会根据误差的反向传播以及每个权重如何影响该误差而改变。
从本质上讲,Rumelhart 和他的同事想出了如何计算网络中每个权重的梯度,从已知误差的输出层到输入层,逐层计算。因此,现在可以训练神经网络来解决复杂问题并在大量数据上进行训练。真正的深度学习已经出现。
1980 年代催生了新一轮的乐观主义浪潮。但那个时代的突破性发现为大多数现代人工智能模型奠定了基础,但最终并没有给出所有人都希望的结果。造成这种结果的原因有两个:缺乏有效学习的数据和计算能力弱。模型训练太慢,训练了很长时间,最终还是没有解决任务。
到 2000 年,炒作完全平息。第二个“人工智能的冬天”来了,直到 2010 年代才结束,适用于高性能并行计算的强大图形处理器 ( GPU ) 的出现,以及对像ImageNet数据库这样拥有 1500 万张图像的大型数据集的访问分为 22000 个类别。
此外,在“平静的岁月”中,出现了许多神经网络设计的新方法:卷积神经网络 (Jan Lekun)、具有长短期记忆的网络 (Sep Hochreiter、Jurgen Schmidhuber)、生成对抗网络、自动编码器,以及许多其他人。从在线影院的推荐网络和智能手机摄像头的面部识别,到家禽养殖场和医院的手术室,都取得了巨大的突破,因此目前很难找到不使用人工智能的地方。
人工智能的强大力量
世界人工智能领域有两个领导者——美国和中国。这些权力在有关人工智能的科学出版物数量、专利数量、初创企业、创建的模型和技术方面处于领先地位。在“世界人工智能成为第二电力”的情况下,俄罗斯无权让竞争国家在新技术竞赛中走得更远。事实上,现在的情况重复了 1940 年代至 1950 年代和 1950 年代至 1960 年代,当时苏联和美国首先在核竞赛中竞争,然后在太空竞赛中竞争。当俄罗斯受到世界历史上前所未有的制裁枷锁时,拥有自己的人工智能技术的问题变得尤为尖锐。
为应对时代的挑战,俄罗斯政府制定了该国人工智能发展的国家战略。俄罗斯联邦政府下属的国家人工智能发展中心成立。联邦项目“人工智能”正在积极实施,其中一项活动是在领先的科学和教育组织(MIPT、NRU HSE、Skoltech、ITMO)的基础上,在俄罗斯领先的大学和研究所建立六个研究中心大学,Innopolis,以 V. .P. Ivannikov RAS 命名的系统编程研究所)。
OPENAI DALL-E 人工智能为“无尽服务器”生成的图像
俄罗斯最大的公司也不甘落后,包括 Yandex、Sberbank、MTS、VK等技术领先企业。因此,Sber 团队基于变压器的架构训练了大型生成模型ruGPT-3和ruDALL-E 。例如,后者允许您根据俄语描述生成图像。在研究过程中,Sber 还创建了自己的基准来评估多模态算法解决各种问题的质量。Yandex 除了将人工智能技术应用到搜索中外,最近还向公众发布了最大的YaLM 100B(Yet another Language Model)语言模型,并且已经对自己的无人驾驶车辆进行了几年的测试。
公司与大学的互动,例如MIPT 应用人工智能系统研究中心与许多工业合作伙伴和初创企业,允许您创建无人驾驶车辆(汽车和空中)、自主和语音控制机器人与元素强大的人工智能,还配备了先进的计算机视觉系统。这种不同技术的组合使机器人能够在各种环境中执行复杂的任务,包括不熟悉的环境。
俄罗斯具有成为第三世界人工智能强国的巨大潜力。只有一个限制——该行业的合格人才严重短缺。国家和公司准备免费教育年轻人,包括想进入STEM领域的女孩,以及准备改变自己的活动领域,不仅进入IT,而且进入最先进的信息技术领域的每个人——人工智能系统。