专家警告未来战场用智能自动武器非常危险
图为科幻电影《钢铁侠2》中的机器人战士。目前,专家指出,将来把自动武器投入战场是非常危险的。如果黑客入侵系统,后果将不堪设想。
腾讯科技新闻据英国《每日邮报》报道,将自动武器投入战场对人类士兵来说将是一个巨大的负担和危险,但专家现在认为这样做会更加危险和不安全。在最近的一次国际会议上,研究人员称智能自动武器可以被不道德的行为所利用,甚至成为黑客操纵的平台。
与人类可以完全控制的无人驾驶飞行器不同,未来自动武器将自动选择并攻击目标。今年1月在瑞士举行的世界经济论坛讨论了这个问题。新南威尔士大学的人工智能专家托比·沃尔什教授指出,自动武器是2015年我们关注的焦点。我们普遍认为,目前我们没有能力制造符合伦理的机器人。尤其令人担忧的是,近年来,世界上许多国家已经开始将机器人投入战场。我们不认为我们现在能制造出有道德的机器人。
为了创造一个“有道德的机器人”,研究人员将为机器人系统制定特殊规则,以防止它们失去控制。例如,科幻作家艾萨克·阿西莫夫写的一部短篇科幻小说《环舞》提出了控制机器人行为的三个法则。第一条定律是机器人不能伤害人类,也不能在人类受到伤害时袖手旁观。第二条定律是机器人必须服从人类的指令,除非它们遇到与第一条定律相冲突的情况。法则三是机器人必须在不违反前两条法则的情况下保护自己。
专家认为,这三条定律将有助于开发符合伦理标准的机器人,最终设计师将利用这些定律来设计机器人。一些专家表示,现在谈论“人工智能机器人*”还为时过早。新美国安全中心伦理自动化项目主任保罗·夏伦说:“目前,绝大多数自动化武器还没有投入使用。大多数自动化武器系统仍处于“发射后不管”阶段,即使设计先进的系统也不能智能选择目标。”
夏伦在世界经济论坛上发言时指出,虽然自动武器在战争中不受禁止,但如果它们将来被投入战场,以及它们是否能遵守公认的交战规则,这将是一个巨大的挑战。最后,即使自动化机器人是合法的并且遵守道德,它们也是非常危险的。失控的故障和敌方黑客的入侵都会对自动化武器系统构成巨大威胁。特别是,自动化武器的安全系统被黑客入侵和重写,这将成为战场上的一场灾难。随着武器系统变得更加自动化,黑客攻击的潜在威胁日益增加,不管这个武器平台是否仍在人类控制之下。(闲适/编译)
特别声明:转载本文仅用于传播信息,并不代表本网站的观点或确认其内容的真实性。如果其他媒体、网站或个人从本网站转载,他们必须保留本网站注明的“来源”,并承担版权等法律责任。如果作者不希望被重印或联系重印费,请联系我们。
上一篇:新型机器人也“跑酷”
下一篇:文仪简介及代表作