欢迎您访问科普小知识本站旨在为大家提供日常生活中常见的科普小知识,以及科普文章!
您现在的位置是:首页  > 科普文章

117国将于明年5月就自动武器展开正式评估

科普小知识2021-09-17 00:54:19
...

愚蠢的机器人很危险,但智能机器人更危险。

诺尔·夏基游说禁止机器人武器。

照片来源:阻止杀手机器人运动

如果你的任务是说服全球军事工业园放弃可能改变21世纪战争的武器。你认为这是一个不切实际的想法吗?诺尔·夏基不这么认为。在2007年《卫报》的一篇挑衅性专栏文章中,英国谢菲尔德大学的计算机科学家写道,在不久的将来,机器人武器将有权决定杀死谁。对许多人来说,这个警告可能只会让他们想起小说中的机器人,但对一些人工智能专家来说,它反映了对自动武器的真正恐惧,这种武器只依靠算法来区分士兵和平民。

多亏了沙尔基和其他科学家的努力,自主杀人机器人的到来可能会被阻止。上个月在瑞士日内瓦举行的会议上,签署《特定常规武器公约》的117个成员国同意检查有关自动武器的规定。《特定常规武器公约》已经在其条例中禁止或限制埋设地雷、燃烧弹、集束弹药和致盲激光。非*组织国际机器人武器控制委员会(ICRAC)主席沙尔基说,将机器人武器加入到清单中“不再是幻想”。"我们在防止部署这些可恶的武器方面迈出了重要的一步。"

正如坦克、潜艇和原子弹改写了20世纪的战争规则一样,自动武器系统是少数被称为21世纪战争规则改变者的技术之一。“军队正在开发更多的自动化系统,不是因为它们聪明或冷漠,而是因为人们看到了它们在战场上的优势。”美国华盛顿布鲁金斯学会21世纪安全和情报中心主任彼得·辛格说。

*纵容

在2007年12月的一份报告中,美国国防部提出了未来25年无人系统的发展愿景,包括呼吁机器人自主定位和摧毁目标功能。令沙尔基和他的同事担心的是,国防部在2012年11月发布了一项政策指令,该指令不仅确认机器人武器可能瞄准“物质目标”,还暗示如果国防部高级官员签署“正式发展指令”,人们也将成为目标。

“这不是一起引人注目的事件,但世界上首次公开宣布了开发杀手机器人的国家政策。”国际辐射防护中心的马克·古布勒德在9月20日的《原子科学家杂志》上写道,古布勒德是普林斯顿大学科学与全球安全项目的前研究员。2002年,Gubrud和其他观察家第一次警告说,他和他的同事德国多特蒙德科技大学的物理学家于尔根·奥尔特曼呼吁禁止杀手机器人,以防止未来的军备竞赛。Gubrud写道:“国防部2012年的指令实际上没有考虑到军队长期的内部抵抗,并向开发商和供应商发出了信号,即五角大楼正在认真对待自动武器。”

美国和其他国家长期以来一直支持无人机等无人系统,美国国防部和*情报局(CIA)已在数百次任务中使用无人机杀死塔利班、基地组织和其他恐怖组织成员。然而,到目前为止,在大多数情况下,人类操作员仍然扮演着决定性的角色,而国防部在允许机器人做出杀戮决定的问题上态度冷淡。

一个主要的反对意见是,致命的自动武器在《武装冲突法》的条款中是不可接受的。武装冲突法植根于古老的传统,并在第二次世界大战*平民后得到加强,它要求武装部队限制与军事必需品有关的活动,并区分战斗人员和非战斗人员。军事律师担心自动杀死妇女和儿童的机器人会违反美国的武装冲突法。但是他们没有看到以物体为目标的机器人也面临同样的问题。这种区别也存在于以人为本的地雷和以坦克为目标的地雷之间。只有前者受到1997年《渥太华条约》的禁止,理由是它直接针对人民。

Gubrud警告说,国防部的指令授权开发它称之为“半自动”的武器,但具有完全自主定位能力,包括“发射后锁定”导弹。例如,美国海军的远程反舰导弹将自动搜索并攻击距离发射场数百公里的船只。尽管如此,五角大楼的一名官员今年早些时候告诉Gubrud:“一些非完全自动化的系统正在考虑之中。”

科学家的努力

对沙尔基来说,军队使用致命自动武器的愿望被他五年前在《科学》杂志上表达的一个道德问题所挫败:“在近距离接触战争中,没有一个计算系统可以区分战斗人员和非战斗人员。计算机程序需要对非战斗人员有一个明确的定义,但目前还没有可用的定义。”一些计算机专家断言,复杂的人工智能系统有一天可能等同于或超过人类的能力。Gubrud声称风险在于人类会失去对它的控制。愚蠢的机器人很危险,但智能机器人更危险。他说,“最危险的东西是介于两者之间的机器人。”

科学家们对自动武器的反对始于2009年9月,当时夏基、奥尔特曼和两位哲学家建立了ICRAC。该组织的使命声明宣称:“不应允许机器做出杀人的决定。”出于这个原因,机器人、人工智能伦理和法律方面的专家都加入了ICRAC。沙基因在1998年至2004年期间主持英国广播公司的热门连续剧《机器人战争》而闻名,他开始投身于辐射防护中心的活动。

今年4月,国际辐射防委会与*观察和其他组织(目前包括来自22个国家的47个组织)联手“阻止杀手机器人活动”几周后,联合国法外处决、即决处决或任意处决问题特别报告员克里斯托夫·海恩斯(Christof Heyns)呼吁联合国*理事会“敦促所有国家在监管框架到位之前,推迟致命自主机器人的测试、生产、组装、转移、获取和部署”。

与此同时,沙尔基和他的同事开始劝说《特定常规武器公约》签署国采取相关行动。沙尔基说,美国是关键,他有理由感到乐观。他说,美国军方尊重国际辐射防委会的立场。“我们只是反对它杀人的功能。”沙尔基说。10月18日,联合国代表团告诉沙尔基及其同事,他们将支持《特定常规武器公约》关于研究自动武器的要求。

在上个月的《特定常规武器公约》会议上,沙尔基就自动武器在拥挤的房间里的危险发表了热情洋溢的演讲。117个代表团中的任何一个都可以否决他的提议。“这压力很大。”沙尔基说。第二天,11月15日,《特定常规武器公约》缔约方一致同意在5月举行一次审查会议。

“这是一个重要的机会,可以引起所有国家对这个问题和相关禁令的关注。”丹佛大学的政治理论家希瑟·罗夫在《特定常规武器公约》做出决定后说。沙尔基说,明年,他和其他科学活动家将试图说服各国通过《特定常规武器公约》协议,禁止发展、生产和使用全自动武器。(米妮)

中国科学新闻(2013-12-31第三版国际版)