欢迎您访问科普小知识本站旨在为大家提供日常生活中常见的科普小知识,以及科普文章!
您现在的位置是:首页  > 科普文章

人类究竟该不该禁止人工智能武器研发?

科普小知识2021-11-28 06:50:47
...

关于人工智能武器伦理的辩论涉及到从倡导团体和*官员到谷歌工程师的所有人。许多人认为人工智能武器有非常重要的道德问题,这就提出了一个问题:这些道德问题和反人工智能宣传组织的努力会导致禁止人工智能武器或出现强烈的禁忌吗?有些人认为国际协议足以防止人工智能武器被用于世界军队。然而,关于使用人工智能武器禁忌的讨论取决于一个更直接的因素:它们在战场上的有效性。

今年4月,谷歌员工以非常公开的方式*该公司参与五角大楼项目,该项目使用人工智能来解读图像,以改善无人机对目标的攻击。当然,人工智能武器的风险和道德问题是真实的(就像任何新的战争技术一样)。此外,大多数人工智能武器的反对者通常会指出这样一个道德问题:使用计算机算法来选择和消灭人类目标,而不需要人类参与控制过程。

然而,人工智能武器带来的危机已经超越了战争的道德问题。有人指出,如果人工智能武器在世界范围内扩散,危机将呈现一种动态和不稳定的状态。如果卷入危机的两个国家能够获得可以如此迅速地轻易销毁的武器,那么先发优势可能会导致这些国家开战,而不是置身事外。例如,人们经常认为先发优势是第一次世界大战爆发的原因。军队的快速移动和武器的进步使军事规划者确信,首先行动的人将拥有不可逾越的优势。因此,如果对方正准备采取行动,那么你就要先发制人,先发制人。人工智能可以创造类似的激励机制。

大多数人认为使用化学武器是禁忌,因为化学武器是一种特别可怕的战争武器,国际社会已经同意禁止使用化学武器。然而,国际社会禁止某些东西并不意味着这些武器足以防止其使用。让我们先不说禁止使用人工智能武器是否可行。人们在战场上使用或不使用人工智能武器的唯一决定性因素是一些更直接的结果:有效性。如果人工智能武器有效,各国将在战场上使用它们。

过去开发的新战争工具也证明了这一点。当这些新武器被开发出来时,它们通常需要被禁止。约翰·埃利斯在他的著作《机枪的社会历史》中解释了美国早期使用机枪的独特原因,以及为什么机枪最终战胜了封建思想并在整个战场上传播开来。相反,在传统观念中,人们认为只有勇敢的人才能赢得战争,而不是依靠花哨的武器。

类似的武器禁忌和战争行为的适当规则的制定提供了一些例子,从中我们可以了解人们对人工智能武器的期望。1898年,来自世界各地的代表在日内瓦举行会议,讨论战争的规则和法律。人们特别关注化学武器的使用,这是当时正在开发的一种新武器。在会议期间,尽管禁止大规模使用化学武器,代表们仍然很担心。

最后讨论的公约要求禁止窒息、有毒或其他气体。只有两个国家反对这项禁令,美国和英国。美国持反对意见,认为所有国家都应该使用一切可能的手段尽快结束战争。他们认为禁止使用化学武器只会延长冲突并最终导致更多的死亡。他们对美国内战仍记忆犹新,这场内战仅在33年前结束。此外,人们期望这场战争很快结束,但没有带来大量伤亡。

1898年,美国大使阿尔弗雷德·马汉(Alfred T. Mahan)说:“对于新武器,总有人反对认为对战争有危险的武器是野蛮和野蛮的。然而,人们最终采用了这种武器。”那么,为什么一个禁忌形式围绕着具有战争风险的特定武器,而不是其他具有战争风险的武器?理查德·普莱斯评论道:“纵观历史,当许多新武器作为一种新技术被引入战争时,人们呼吁进行道德*。然而,长弓、弩、火器、爆炸炸弹和潜艇的例子表明,随着这些创新被纳入标准战争技术,相关的道德关切将随着时间的推移逐渐消失。”

最终,化学武器会形成禁忌。虽然这并不阻止人们使用化学武器(化学武器在最近的伊拉克战争中被使用过多次),但它肯定会对化学武器的广泛使用产生威慑作用。但是是什么驱使化学武器的有限使用呢?“禁忌”实际上能阻止其他国家使用化学武器而不阻止某些国家吗?

由于化学武器在战场上不是特别有效或有用的工具,认为禁忌是阻止其广泛使用的唯一因素的论点就更没有说服力了。很难产生足够浓度的气体云。在战争的迷雾中,在不同程度的“摩擦”下,锁定目标变得更加困难。在精确制导武器的时代,武器无法击中离散目标似乎特别没用。此外,如果风向改变,也不能保证部队不会受到影响。这些限制使得这种武器只对已经处于绝望境地的*和政权有吸引力。

现在比较一下潜艇的发展。潜艇最初是在化学武器被广泛使用的时候发展起来的。人们也以类似的方式对待它。人们认为潜艇是可耻的武器,潜伏在地下,匿名杀死他们的目标。这在无限制的潜艇战兴起期间尤其如此。人们还呼吁禁止使用潜艇。1936年伦敦议定书试图对潜艇战加以限制。

那么,为什么化学武器成为禁忌,而潜艇却不是呢?这告诉我们关于使用人工智能武器的禁忌的潜在发展趋势是什么?这里考虑的三种新的战争技术已经引发并导致了重大的道德困境,并且仍然被许多人认为是不道德的。然而,在这两个历史例子中,无效的工具创造了一个禁忌,而有效的工具没有。那么,人工智能会成为战争的有效工具吗?

人工智能似乎有可能成为战争中的有用工具。尽管人们应该避免使用诸如“军事进化”这样的术语,但很容易看到这种新武器系统的前景。然而,人们不应该期望一个剧烈的变化来结束“现代制度”战争。虽然人工智能武器可以提高军事效率,但随后发展的反制措施可能会阻止它们颠覆现代战争体系。

人工智能在军队中的承诺之一似乎保证了它的采用,这就是它的广泛适用性。人工智能可以用来提高效率,不仅仅是在战斗中。人工智能可以改善补给线,加强新士兵的训练,提高情报收集和处理的效率。然而,人工智能在作战行动中的有效性似乎特别有希望。人工智能并不是一个完全革命性的概念,它被应用到军事领域,这只是现代战场数字化和机械化下的一个合乎逻辑的步骤。911之后,电子和机器人武器系统进入现代军队的过程越来越快。根据一篇文章,“90个国家和非*组织已经拥有无人机,30个国家拥有武装无人机或计划开发无人机。”*国使用无人驾驶飞行器是一个众所周知的例子,证明了人工智能武器的潜力。

最后,人工智能武器对于美国军方正在实施的第三个反制战略至关重要。机器学习、人机合作和无人驾驶飞行器都是可能打破国家间平衡的潜在系统。我们已经看到战场上使用的一些战术。例如,俄罗斯声称无人机小组袭击了叙利亚的一个基地。

早期在战场上使用类似人工智能的战术,在这种技术上投资的国家的数量,以及已经展示其潜力的现有武器系统,似乎都表明人工智能武器将是非常有效的战争工具。因此,尽管人们应该对工具的伦理和限制进行有力的讨论,但不太可能对工具的使用做出强制性的禁忌。