机器人杀手真来了?韩国研究AI武器遭多国抵制
据外国媒体报道,韩国科学技术研究院与韩国十大财团之一汉化集团的子公司汉化系统合作,最近开设了一个人工智能研发中心,开发适用于作战指挥、目标跟踪和无人水下交通的人工智能技术。
这引起了业内专家的广泛关注。目前,来自30个国家和地区的人工智能和机器人专家宣布,他们将抵制研究人工智能武器的韩国科学技术研究所(KAIST)。这是由澳大利亚新南威尔士大学人工智能教授托比·沃尔什发起的。包括美国和日本在内的30个国家和地区的研究人员4日签署了一封公开信,敦促韩国科学技术研究所停止人工智能武器的研发。他们称此举是为了加速机器人武器开发的竞争,这令人遗憾。他们还表示,如果该大学不承诺停止研发,它将切断与该校的联系,并拒绝参观韩国科学技术学院、接待来自另一方的访客或与来自另一方的研究项目合作,直到韩国顶尖大学承诺放弃缺乏“有效人工控制”的武器研发。
我们注意到这封联名信写道:“一旦自动武器成熟,战争的速度和规模将是空前的,它们可能被*使用。”发起联合抵制行动的人工智能教授沃尔什(Walsh)在路透社(Reuters)对记者表示,机器人和人工智能技术实际上可以在军事领域发挥有益的作用,比如完成威胁人类安全的任务,比如扫雷,但我们不能赋予机器决定生死的权力,这超出了道德底线。
类似地,一封有3100多个签名的联名信在谷歌内部流传,*谷歌向五角大楼提供人工智能。谷歌员工希望谷歌首席执行官退出五角大楼的马文项目,并宣布“永不发展战争技术”的政策
业内批评人士认为,硅谷巨头和美国*之间的文化冲突将会凸显出来。
他们不仅联合抵制韩国和五角大楼,事实上,早在今年3月,来自14个组织的26名研究人员就恶意人工智能带来的危险做了一份全面的报告。
他们为期两天的会议产生了一份长达100页的报告,内容涉及人工智能应用不当所带来的风险以及降低这些风险的策略。该工作组提出的四项建议之一是“人工智能的研究人员和工程师应谨慎对待其工作的双重用途特性,考虑研究重点和规范中相关不当使用的影响,并在有害应用可预见时积极联系相关参与者。”
这个提议特别适用于新出现的“深度假货”,它主要是利用机器学习将好莱坞女演员的脸变成色情演员的身体(制作人造的假色情电影)。主板公司的萨姆·科尔首次报道说,这些深度赝品是通过改编一个开源的机器学习库实现的,这个库叫做TensorFlow,最初是由谷歌工程师开发的。深度赝品强调了机器学习工具的双重使用特性,也提出了一个问题:谁应该使用这些工具?
尽管报告中特别提到了深度假货,但研究人员也强调了使用这种类似技术处理世界*的视频所造成的危害,这对政治安全构成了威胁。这是研究人员考虑的三个主要威胁领域之一。人们只需要想象一个假的视频,比如特朗普的宣战和由此产生的后果,就能理解这种情况的危险。此外,研究人员还发现,通过数据分析和大规模有针对性的宣传,利用人工智能技术可以实现前所未有的大规模监控,这是政治考虑的另一个方面。
另外两个被认为是恶意人工智能的主要风险领域是数字和物理人工智能?安全).
就数字安全而言,使用人工智能进行网络攻击将“减轻现有攻击的规模和效率之间的权衡”大规模网络攻击可能采取人工智能的形式,例如大规模网络钓鱼,或者更复杂的攻击形式,例如使用语音合成来模拟受害者。
就物质人工智能威胁而言,研究人员观察到物质世界越来越依赖自动化系统。随着越来越多的智能家庭和自动驾驶汽车上线,人工智能可能会被用来颠覆这些系统并造成灾难性的破坏。此外,还存在故意创建恶意人工智能系统的威胁,如自动武器或微型无人驾驶飞行器。
其中一些场景,如微型无人驾驶飞行器带来的灾难,似乎离我们很远,而另一些场景,如大规模网络攻击、自动化武器和视频操纵,已经造成了一些问题。为了应对这些威胁,确保人工智能被用于造福人类,研究人员建议开发新的政策解决方案,探索不同的“开放模式”,以降低人工智能的风险。例如,研究人员认为*访问许可模型可以确保人工智能技术不会落入坏人之手,或者建立某种监控程序来密切记录人工智能资源的应用路径。
报告写道:“当前的趋势强调前沿研究和开发成果的广泛开放。如果这些趋势在未来五年继续下去,我们预计攻击者使用数字和机器人系统造成伤害的能力将会显著提高。”另一方面,研究人员意识到开源人工智能技术的传播也将吸引决策者和监管机构越来越多的关注。他们将对这些技术施加更多的限制。至于这些政策应采取的具体形式,必须从地方、国家和国际各级加以考虑。
报告的结论是:“这份报告的共同作者之间仍有许多分歧,更不用说世界上不同的专家组了。随着各种威胁和反馈被发现,这些差异在我们获得更多数据之前不会得到解决,但这种不确定性和专家差异不应妨碍我们今天尽早采取预防措施。”
那么,马斯克所代表的人工智能威胁理论占了上风吗?你觉得这个怎么样?