为什么人工智能会引发核战争?
2018-04-26 22:49 文章来自:IFTNews 收藏(0) 阅读(1089) 评论(0)


IFTNews人工智能快讯:据说,要想赢得与核武器的战斗,唯一的办法就是根本不参与,至少在世界第二世界结束后,这种情况已经持续多年了。不幸的是,人工智能已经进入了这个领域;兰德公司的一项新研究称,人工智能可能会帮助人类使用核武器互相毁灭。

让我们暂且把人工智能放在一边。最大的遗憾仍然是人类如何以及为什么能够发展大规模杀伤性武器。就像在美国,核武器的发现可以说是人类有史以来犯下的最大错误之一。

一次发射可以摧毁整个城市,基于这种能力和潜力,很明显,那些想要控制世界的人一直在大量投资这些武器。但最糟糕的是,现在,敌对国家正在利用人工智能互相监视。

使用人工智能来窥探彼此的核库存的成本

起初,开发人员建议使用机器智能来进行简单的监视或监视,比如提醒商店的服务员可疑的举动,这些举动可能暗示了可能的入店行窃行为。也就是说,人工智能可以通过分析一个人口袋里的产品的条码数量,来提高警惕,以防购物者想要以未付的货物离开这个前提。

但如今,各国政府正在采用这种技术来完成许多严肃的任务,而最具针对性的任务是监视对手国家。从你的对手那里有很多东西可以窥探,因为这是获胜的策略之一。事实上,目前,美国正在研究超过140个旨在提高其监测能力的项目。当竞争对手开始担心彼此的能力时,会发生什么呢?

这就是为什么人工智能可能引发战争。

谈论核武器的能力或破坏性,这是定时炸弹,它不再是真正的自主武器了。它是关于如何知道你的敌人或多或少装备可能引发问题。简单的逻辑,一个一直处于低位的政府,当它设法窥探到对手的武器清单,发现它现在拥有更多的武器力量和潜力,并且实际上可以压倒对手,为什么它不尝试采取它的“新位置?

简而言之,人工智能正赋予军队监控对手的能力——发现他们投资的武器类型,标记其据点,以及与外部世界的联系。这样的信息可能会导致手指发痒和恐慌,并可能导致“我们首先需要坚持,因为如果他们开始的话,我们就无法应对这种冲击。”

在这项研究中,他解释了计算机是如何触发一种潜在的破坏性的直觉的,他坐在他的char指挥官身上,监视着系统如何从雷达和卫星上分析数据,寻找导弹发射的迹象,以此来反击这些攻击。没过多久,警报器就响了,按钮也随着需求而变红:“发射!

他注意到传说中的攻击者在他们的组合中只有5枚导弹根据间谍记录,并且想知道他们怎么能以如此小的能力来挑战美国。“这一定是一个假信号,它叫?”“电脑听到了它的声音,它坚持说,“新的攻击正在进行中”,但是中尉打电话确认,“这是一个错误信号,这是不符合逻辑的,”研究继续解释……

不管是不是科幻小说,这可能很快就会成为现实。

不可否认的是,在某些国家之间已经有了一场军备竞赛,这是由诸如“谁想统治世界,必须领导AI”这样的言论引发的,今年早些时候,俄罗斯总统说。像已故的史蒂芬•霍金、埃隆•马斯克、比尔•盖茨等关键技术专家也可能帮助创造了这样一种心态:人工智能是未来统治世界的唯一途径。

回到2016年,霍金教授说,人工智能可能会被一些人用来压迫或奴役更大的人口。在另一种情况下,他说这项技术可能会发展到可以统治人类的程度。另一方面,穆斯克一直保留着他的理论,即机器智能可以在很多方面引发一场世界大战。

现在,根据这项研究,恐惧在这个技术不仅仅是赋予其权力自治能力武器,问题是,它还可以帮助提高焦虑、自卑,和感受,可能引发发痒的想象力,会诱使人们采取错误的选项,如核路线。换句话说,当一个团队注意到它没有得到它所需要的东西时,可能会导致投资更多的危险武器,而理想状态下,这将使世界变得更加不稳定。

硬币的另一面。

虽然这一技术很容易破坏和平,但也有另一方面,它可以帮助结束争论。有了同样的想法,在竞争对手实现彼此的能力之后,他们可能不想参与。他们会明白,对手能够回击的更狠,他们不会有机会回答,因为他们不会在那里。

虽然核紧张随着新技术的发明而越来越高,但其他科学家希望人工智能将帮助竞争对手互相畏惧,并解决“核安全的唯一途径是根本不参与”这一说法。


作者: Saito Rodger