联合国召开会议讨论“杀手机器人”问题
几天前,来自29个国家的57名科学家呼吁抵制一所韩国大学,因为在该大学建立的一个新中心旨在通过使用人工智能来加强国家安全。人工智能科学家说,该大学正在开发自主武器,也称为“杀手机器人”,而大学官员说,研究的目标是改善现有的防御系统。
2月20日,位于大田的韩国高级科学技术研究所(KAIST)庆祝其新的国防和人工智能集成研究中心的成立。一个被学校删除的网页宣布,它将与韩国汉化系统公司联合运营该中心。其目标是“提供一个基于人工智能的指挥决策系统,一个用于大型无人水下机器人的组合导航算法,一个基于人工智能的飞机训练系统,以及一个基于人工智能的目标跟踪与识别技术”。
人工智能的迅速发展给社会各个领域带来了深远的影响,也给军事作战系统的研究和发展带来了新的思路。然而,人工智能领域的专家学者和国防分析家认为,机器人暴动只是科幻小说的终极噩梦。军事机器人革命带来的伦理、法律和政策问题,尤其是自主武器能否判断是否杀死敌人,是人们迫切需要担心和讨论的现实问题。
澳大利亚悉尼新南威尔士大学的计算机科学家托比·沃尔什(Toby Walsh)发起了抵制行动,担心这项研究将应用于自主武器,包括无人驾驶飞机或潜艇、巡航导弹、自主防御机枪或战场机器人。
“不幸的是,像KAIST这样的知名机构似乎正在加速研发这种武器的军备竞赛。”*者在一封公开信中表示,“因此,我们公开宣布,我们将抵制与KAIST任何部门的合作,直到KAIST主席保证我们一直在寻求但没有得到,并且该中心不会开发缺乏有意义的人类控制的自主武器。”
佳兆业总裁申成哲准备了一份声明,排除了这种活动的可能性。他说:“听到有人宣布他们抵制KAIST,因为他们想开发杀手机器人,我很难过。我想重申,KAIST不打算参与致命自主武器系统和杀手机器人的开发。KAIST清楚地意识到包括人工智能在内的所有技术应用中的伦理问题。”
*信没有定义什么是“有意义的人类控制”,但这句话通常被解释为将扳机放在一个人的手中。4月9日,联合国《特定常规武器公约》*专家组在瑞士日内瓦召开会议,讨论致命自主武器系统(俗称“杀手机器人”)的研发可能带来的影响。
沃尔什说,他对申的声明感到振奋。“很高兴看到KAIST第一次公开承诺有意义的人类控制。这将增加联合国讨论的份量。”
新美国基金会研究员兼国防政策分析师辛格在他的著作《连线战争:21世纪的机器人革命和冲突》中指出,地缘政治、推动知识前沿领域发展的驱动力,甚至追求利益的科技企业都是发展人工智能的不可抗拒的力量。简而言之,现在大多数人最害怕的是,他们是否应该让一个能够“思考”的人工智能系统来决定是否杀人。
新美国安全中心技术和国家安全项目主任沙拉说,自主武器系统可能会因为代码问题或黑客攻击而失效。机器人可能会攻击人类部队,人类可能无法做出反应,或者当地局势可能会迅速升级。
美国亚特兰大佐治亚理工学院的计算机科学家罗纳德·阿尔金(Ronald Arkin)说,因为可能在实验室进行的研究而抵制整个大学,对我来说似乎“有点极端”。
与此同时,一封公开信已经在美国的谷歌公司内部传阅了几周。3000多名谷歌员工签署了一份要求公司退出五角大楼人工智能军事项目的请求。
五角大楼的“梅文计划”始于2017年,旨在寻找加速军方应用最新人工智能技术的方法。尽管五角大楼和谷歌都表示,谷歌的产品不会制造无人操作的自动武器系统,但谷歌员工在公开信中表示,参与“梅文计划”将对谷歌的品牌和人才吸引力造成不可挽回的损害,谷歌不应卷入战争,谷歌及其承包商也不应开发战争技术。(赵茜·Xi)
中国科学新闻(2018-04-10第二版国际版)
上一篇:中东呼吸综合征是什么?
下一篇:破解了结构之谜,就能再造大脑吗?