究竟是否该禁止?人工智能武器研发引业界争论
科学技术的发展无疑促进了生产力的进步,人工智能也被广泛应用于各个领域。然而,人工智能杀手机器人经常出现在科幻电影中,这也引发了人们对未来人类是否会被机器人取代的担忧。
作为回应,最近由马斯克和迪普迈德的三位联合创始人领导的高层科技*联盟签署了一项承诺,他们的公司今后不会与人工智能一起开发智能武器。
签署国主要担心致命性杀伤武器的发展会对人类构成威胁,因此它们相互承诺不参与或支持致命性自主武器技术的发展。
该承诺警告说,当人类使用人工智能武器来“选择和接触”目标时,如果在决定射击目标之前没有人为干预,那么最终结果将导致道德沦丧,更严重的结果将对现实生活有害。签署承诺书的人说,“从道德上讲,结束人类生命的决定不应该委托给机器。事实上,如果这种武器在未来扩散,最终结果将危及每个国家的安全,甚至每个人的生命。”
这一承诺也直接反映了行业对人工智能的讨论。高科技公司的管理已经从单纯的聊天转变为用实际行动来证明他们的承诺。
据报道,签署方包括160家与人工智能相关的公司和组织以及2400多名专家。其中包括谷歌深度思维、ClearPath机器人、欧洲人工智能协会、XPRIZE基金会、硅谷机器人、伦敦大学学院和特斯拉总裁马斯克、谷歌研究的杰弗里·迪恩和英国国会*亚历克斯·索贝尔。
专家小组反对武器化的人工智能系统,这种系统可以在没有人类控制的情况下自动识别、瞄准和杀死目标。但是它不包括军用无人驾驶飞行器,因为这些武器可以被人类飞行员用来进行远程操作和选择杀死目标。它主要认为人类的生活不应该由机器决定,并呼吁各国*和*建立国际法律和法规来控制它。
麻省理工学院的物理学教授塔马克在一份声明中说,人工智能的领导者已经从简单的交流转变为实际的行动。这一承诺实现了政治家们以前从未做过的事情,也就是说,将对人工智能应用于军事装备实行严格的限制。老虎马克补充道:“人工智能武器就像生物和化学武器一样令人恶心和不安。人工智能武器应该像生物和化学武器一样对待。”
军事分析家保罗曾经写了一本关于未来战争和人工智能的书。他今年告诉媒体:“没有足够的‘能力’来促进国际自动武器控制。因为没有西方国家的核心集团愿意参与,但这个集团非常重要。此前的武器禁运由加拿大和挪威等国主导,但其影响微乎其微。
外国媒体《任务与目的》最近发表了一篇文章,称人工智能武器对于美国军方正在实施的第三个反制战略至关重要。机器学习、人机合作和无人驾驶飞行器都是可能打破国家间平衡的潜在系统。有些战术已经在战场上使用过了。例如,俄罗斯声称无人机小组袭击了叙利亚的一个基地。
早期在战场上使用类似人工智能的战术,在这种技术上投资的国家的数量,以及已经展示其潜力的现有武器系统,似乎都表明人工智能武器将是非常有效的战争工具。因此,尽管人们应该对工具的伦理和限制进行有力的讨论,但不就工具的使用制定强制性的禁忌仍然是困难的。