人工智能界为何对“杀手机器人”说不
联合国《特定常规武器公约》*专家组9日在瑞士日内瓦举行会议,讨论致命自主武器系统(俗称“杀手机器人”)的研发可能产生的影响。
50多名世界著名的人工智能和机器人研究人员4日宣布,他们将抵制韩国科学技术研究所,以*其开发人工智能武器的计划。
与此同时,一封公开信已经在美国的谷歌公司内部流传了几个星期。3000多名谷歌员工签署了一份要求公司退出五角大楼人工智能军事项目的请求。
人工智能的迅速发展给社会各个领域带来了深远的影响,也给军事作战系统的研究和发展带来了新的思路。然而,人工智能领域的专家学者和国防分析家认为,机器人暴动只是科幻小说的终极噩梦。军事机器人革命带来的伦理、法律和政策问题,尤其是自主武器能否判断是否杀死敌人,是人们迫切需要担心和讨论的现实问题。
大多数专家学者一直认为,在使用致命武器时,人应该是负责启动的关键因素。关于什么样的人工控制最合适的讨论还没有结束,人工智能技术的迅速发展已经把相关的政策制定抛在了后面。随着具有认知能力的人工智能系统的出现,出现了更多复杂的问题。
新美国基金会研究员兼国防政策分析师辛格在他的著作《连线战争:21世纪的机器人革命和冲突》中指出,地缘政治、推动知识前沿领域发展的驱动力,甚至追求利益的科技企业都是发展人工智能的不可抗拒的力量。简而言之,现在大多数人最害怕的是,他们是否应该让一个能够“思考”的人工智能系统来决定是否杀人。
新美国安全中心技术和国家安全项目主任沙拉说,自主武器系统可能会因为代码问题或黑客攻击而失效。机器人可能会攻击人类部队,人类可能无法做出反应,或者当地局势可能会迅速升级。自主武器系统的可靠性很难测试,“思考”机器系统可能会以人类操作员从未想象过的方式运作。
前美国国防部副部长米勒认为,自主武器系统在战斗激烈的地区执行任务的诱惑可能很难抗拒,技术的可能性总是让人们做出有利于形势的选择。
对于自主武器系统,人工智能领域的专家学者经常说“不”,拒绝在相关领域进行研发。例如,韩国科学技术研究所开发的机器人赢得了2015年美国国防高级研究计划局机器人挑战赛。据《韩国时报》报道,韩国科学技术研究所和军事企业汉化系统(Hanhua Systems)联合成立了一个研发中心,研发能够“在没有人工控制的情况下搜索和清除目标”的人工智能武器
作为回应,50多名*人工智能研究人员在一封公开信中表示,他们将抵制与韩国科学技术研究所的任何合作,直到该研究所宣布不会开发任何缺乏人类控制的自主武器。韩国科学技术研究院后来发表声明称,他们没有开发“致命自动武器系统或杀手机器人”的计划。
五角大楼的“梅文计划”始于2017年,旨在寻找加速军方应用最新人工智能技术的方法。尽管五角大楼和谷歌都表示,谷歌的产品不会制造无人操作的自动武器系统,但谷歌员工在公开信中表示,参与“梅文计划”将对谷歌的品牌和人才吸引力造成不可挽回的损害。谷歌不应卷入这场战争,谷歌及其承包商也不应开发战争技术。
在2017年国际人工智能大会上,被称为硅谷“钢铁侠”的马斯克、苹果联合创始人之一的沃兹尼亚克、开发“阿尔法围棋”的深度思考公司哈萨比斯以及其他人都签署了一份公开信,呼吁联合国禁止在战争中使用致命的自主武器和“杀手机器人”,就像禁止生物和化学武器一样。