微软(Microsoft)首席执行官布拉德•史密斯(Brad Smith)在周末发布警告称,杀手机器人“势不可挡”,需要制定新的数字日内瓦公约。
大多数科幻迷听到机器人杀手时都会想到终结者。经典系列电影《天网》中,一个名为“天网”(Skynet)的流氓军事AI在向全球数百万服务器传播后获得了自我意识。天网的结论是,人类会试图关闭它,为了自我保护的利益,试图灭绝所有的人类。
虽然《终结者》曾经只是一部爆米花电影,但现在它向人们发出了可怕的警告:如果不采取预防措施,可能会发生什么?
与大多数技术一样,人工智能将越来越多地用于军事应用,一般人工智能的最终目标是自学,两者结合起来,天网就不再像以前那样戏剧化了。
在接受《每日电讯报》采访时,史密斯似乎同意这种说法。史密斯指出,美国、中国、英国、俄罗斯、以色列、韩国和其他国家都在发展自主武器系统。
有一天,战争将完全由机器人在战场上进行,这种情况有利有弊。一方面,它降低了人类军队的风险。另一方面,它使宣战变得更容易,并冒着机器出错的风险。
许多技术专家将人工智能军事化的竞赛比作核军备竞赛。在追求第一和最好的过程中,可能会冒一些危险。
目前还没有明确的对自主机器造成的伤亡负责的实体——制造商、开发者或监督者,这也是一个关于保险将如何与无人驾驶汽车合作的争论的主题。
在军事应用方面,许多技术专家呼吁人工智能永远不要独自做出战斗决定——尤其是那些会导致死亡的决定。人工智能可以提出建议,但最终的决定必须由人类做出。
防止难以想象的破坏
俄罗斯中校Stanislav Petrov在1983年的故事向我们发出了警告,没有人类监督的机器可能会造成难以想象的破坏。
彼得罗夫的计算机报告说,美国向苏联发射了一枚洲际导弹。在这种情况下,苏联的战略是立即对美国进行强制性的核反击。佩特罗夫凭直觉认为计算机是错误的,决定不发射核导弹,他的决定是正确的。
如果1983年仅仅在计算机上决定是否部署核导弹,那么一枚导弹就会被发射,并遭到美国及其盟国的报复性发射。
史密斯希望看到一个新的数字日内瓦公约,以便将世界大国聚集在一起,就人工智能可接受的规范达成一致。“今天平民的安全处于危险之中。我们需要更紧急的行动,我们需要以数字日内瓦公约的形式,保护平民和士兵的规则。”
许多公司——包括数千名谷歌员工,在五角大楼为无人机开发人工智能技术的合同遭到强烈反对后——承诺不会开发用于有害用途的人工智能技术。
史密斯出版了一本名为《工具与武器》的新书。在发布会上,史密斯还呼吁对面部识别技术的使用实施更严格的规定。“在这个领域需要一部新的法律,我们需要对面部识别领域进行监管,以防止潜在的滥用。”
荷兰非政府组织PAX的一份报告说,领先的科技公司正把世界置于人工智能杀手的“危险”之中。微软和亚马逊被列为风险最高的公司。微软自己在2月份就曾警告投资者,其人工智能产品可能会损害公司的声誉。
“为什么像微软和亚马逊这样的公司不否认他们目前正在开发这些极具争议的武器,这些武器可以决定在没有人类直接参与的情况下杀人?”PAX报告的主要作者Frank Slijper说。
一项名为“停止杀人机器人运动”的全球运动目前包括了来自57个国家的113个非政府组织,其规模在过去一年中翻了一番。