这群科学家认为,人类应该立刻叫停战争类AI的研究
多么有趣的历史。
第二次世界大战期间,爱因斯坦曾明确要求当时的美国总统罗斯福建议在德国之前尽快研制出原子弹。美国做到了。在日本投下的两枚原子弹夺去了10多万人的生命,让世界了解了核武器的破坏力。核竞赛已经开始,世界上核武器的数量已经逐渐增加,从一次到一万次,地球可以在千千毁灭。在晚年,爱因斯坦像许多其他科学家一样,成为反核联盟的坚定支持者。
类似的事情似乎再次发生。这一次核弹有了一个新的名字,它叫做战争人工智能。可怕的是,如果一切顺利,它可能在五到十年内出生。
四十年后,关于全能的终极人工智能是否会毁灭人类,仍有许多争议。但是对于最近的威胁,一群人达成了一致。国际人工智能联合会议昨日发布一封公开信,警告公众军事人工智能竞争的威胁,呼吁全面禁止开发“进攻性自主武器”。1000多名在人工智能领域有识之士和学者签署了协议,其中特斯拉首席执行官伊隆、苹果联合创始人沃兹尼亚克、谷歌收购的人工智能公司DeepMind董事长戴密斯·哈萨比斯和霍金更为著名。
公开信称,人工智能技术的进步已经到了这样一个转折点。几年后,自动作战武器系统(可以是野战机器人或具有高战争智能的导弹攻击系统)将在技术上得到发展。一旦它成为现实,未来的战争可能会由机器人来打,许多士兵将不必去战场,但潜在的,如果战斗机器系统是自主操作的,许多战争将变得超出人类的控制。结果可能会有更多的人死去。
战争是一种非常特殊的人类行为。在战争中,许多士兵会表现得更像机器而不是人,但在关键时刻,人性会挣扎着重新站起来。这不会发生在人工智能和机器主导的战争中。人工智能和机器不是人形的。他们的战争更加冷血。
一旦某个军事力量开始发展自动作战系统,其他组织就会立即效仿。结果与核弹的扩散一样,甚至更严重。核弹需要特殊材料,但军用人工智能不需要它们。更难控制这项技术的传播。
人类是多么奇怪的生物啊。战争摧毁了太多的东西,在阴影中有许多新的希望。如果没有第二次世界大战的威胁,人类对核技术的掌握将会被推迟10多年。核技术是恶魔,但它也为人类贡献了适度和可用的能源。未来也可能是星际旅行的基础。登月和计算机技术也是在冷战的阴影下发展起来的。目前的进展大部分是由于当时的进展。
也许,战争人工智能终究不能被禁止,甚至对战争人工智能的研究也将真正带来人工智能技术的一个转折点。下面的故事应该留给后代去编造。
上一篇:千万巨奖征询答案