专家纵论智能机器社会的风险与解决方案
目前,国防高级研究计划局正在推动两个项目:“快速光机器人”和“在恶劣环境中的联合行动”。前者计划设计一种旋翼机,它可以在城市环境或建筑物内以极高的速度快速飞行,无需外部控制。后者的目标是开发无人驾驶飞行器,它将能够完成一整套攻击程序——搜索目标、锁定、跟踪、攻击和评估——而无需与总部联系。它们可能会导致“杀手机器人”的发展。
在《自然》杂志最近发表的一篇评论中,四位相关领域的研究*分享了他们对智能机器的社会风险的担忧和解决方案。
加州大学伯克利分校的计算机科学教授斯图尔特·拉塞尔认为,这些武器的敏捷性和致命性将让人类束手无策,“这不是我们梦想的未来情景”。布里斯托尔大学的机器人专家萨宾·豪特说,公众不必担心人工智能技术的发展。
站在人工智能武器上
斯图尔特·拉塞尔(加州大学伯克利分校计算机科学教授)
人工智能和机器人专家面临一个重要的伦理决定:他们必须决定是支持还是反对致命自主武器系统。这样一个系统可以在几年内发展成为一个可行的系统,而不是几十年。这方面的风险非常高。致命的自主武器系统被描述为战争的第三次革命,前两次是火药和核武器。
几年内,军方将能够组装四轴飞机和带武器的小型坦克。这些自动飞机和坦克不需要人工干预,它们可以决定谁会幸存,谁会死亡。例如,一架四轴飞机可以发现并打击城市中的敌方战斗机,但它不包括人类可以设定目标的巡航导弹和遥控飞机。
然而,国际人道主义法对此类技术没有任何具体规定,不清楚国际社会是否会支持一项限制或禁止此类武器系统的条约。1949年签署的《日内瓦战争人道主义公约》要求任何攻击都必须满足三个条件:军事必要性、参与者和非参与者之间的区别对待以及军事目标的价值与其潜在附带损害之间的平衡。然而,目前的自动武器很难或不可能做出这些主观判断。
作为一名人工智能专家,我被要求为《特定常规武器公约》第三次重要会议提供专业证据。许多国家,如德国,都迫切要求禁止,但三个主要的法律国家,美国,英国和以色列,认为这样的条约是不必要的。
法律可能违反人类尊严的基本原则,允许机器选择杀死谁。在我看来,要注意的最重要的事情是这一技术发展轨迹的可能终点。我认为人类无法控制的系统将不可避免地被建立起来。当然,这些武器系统的范围及其携带大型武器的能力将受到物理定律的限制。然而,它们的灵活性和致命性会让人们毫无防备。这样的未来不是人们想要的。
因此,人工智能和机器人领域的科学家及其专业组织应该表明立场,就像物理学家对核武器表明立场或生物学家对战争中使用病原体表明立场一样。应该召开学术会议来讨论伦理委员会并让其参与进来。什么都不做就等于表示支持继续发展和使用它。
积极讨论,不要讨厌机器人。
萨宾·豪特(英国布里斯托尔大学机器人学讲师)
对机器人和人工智能的恶意炒作激怒了一些研究人员,这使得他们停止了与媒体或公众的交流。
但是我们不能脱离社会。公众包括纳税人、决策者、投资者和利益相关者。在听取了片面的讨论后,他们担心机器人会抢走他们的工作,担心人工智能会构成真正的威胁,并且正在考虑是否应该制定法律来控制这些仍然是假设的技术。
不过,我和我的同事会在晚餐时间向你解释,我们不是一群恶魔。我们花费了多年的心血进行研究和开发,以便开发能够帮助老年人、改善健康、使我们的工作环境更加安全和高效、并使我们能够探索太空和海洋的设备。
专家需要成为信息传递者。研究人员应该利用社交媒体作为公共平台,引导相关讨论变得平衡。我们可以讨论最新进展和限制因素,揭开人工智能技术的神秘面纱。
人工智能和机器人领域需要思想领袖,以便与霍金等著名批评家和埃隆·马斯克等风险资本家建立友好关系,并在世界经济论坛等会议上建立机构。此外,公众参与也将有助于筹集资金。
当然,也有许多障碍:首先,许多研究人员没有推特和博客账户;其次,时间非常有限。第三,建立社交媒体互动机制可能需要数年时间。在我看来,全世界人工智能和机器人领域的利益相关者应该筹集一些资金来帮助提高他们在这个领域的话语权。
人工智能利益的公平分配
拉斯·奥特曼(美国斯坦福大学生物工程、遗传学、医学和计算科学教授)
人工智能在加速生物学和医学领域的科学发现以及改变医疗保健方面具有惊人的潜力。人工智能系统有望帮助澄清一些新数据:基因组学、蛋白质组学、代谢组学和其他“组学”测量;电子病历;健康信号的数字传感器监测。
聚类分析可以判断新的证候,分离出那些曾经被认为是相同的疾病,并将那些具有相同基本缺陷的疾病统一起来。模式识别技术可以将疾病和治疗结合起来。例如,我和我的同事正在识别对调节免疫系统的药物有反应的患者群体。
在协商中,医生可以使用来自“虚拟小组”的患者数据——他们似乎坐在一起评估诊断、选择治疗和统计结果。他们可能会在一个这样的系统中做出医疗决策,或者使用基于患者数据的模拟实验预测。
但是我有两个担心。首先,人工智能技术将加剧当前医疗保健的失衡,除非能找到一种方法让所有患者受益。例如,在美国,失业者经历不同程度的照顾。只有特殊群体或那些负担得起的人才能受益于先进的诊断技术,这是不公平和不合理的。
其次,我担心临床医生理解和解释高性能人工智能系统结果的能力。大多数医疗保健提供者不会接受来自决策支持系统的复杂治疗方案,该方案不能清楚地描述效果如何以及为什么会发生。因此,研究人员需要让医生、护士、病人和其他人明白他们应该如何使用人工智能以及如何公平地使用它。
机器人是人类的补充,而不是替代品。
马努埃拉·贝洛索(美国卡耐基梅隆大学计算机科学教授)
我们用我们的感官来评估世界的状态,用我们的大脑思考,选择行动来实现我们的目标,用我们的身体来执行这些行动。我的研究团队正试图制造能做同样事情的机器人。他们将拥有人工传感器、算法和刹车。
然而,自动机器人和人类的能力有很大的不同。机器人通常在感知、认知和运动方面有局限性。他们通常不能完全理解一个场景,知道或操纵物体,理解所有的口头或书面表达,等等。我认为机器人是人类的补充,而不是替代品。但是机器人需要知道何时寻求帮助,以及如何表达它们内部的工作原理。
为了更多地了解机器人和人类是如何一起工作的,在过去的3年里,我们和4个自己开发的机器人分享了我们的实验室和建筑。这些机器人看起来有点像机械平台。他们有圆形的*来平稳地越过障碍。提供深度视觉的照相机和激光雷达系统;用于内部处理的计算机;通讯屏幕和提篮。
以前,我们已经意识到现实世界对机器人的挑战。因此,我们引入了“共生自主”的概念,这样机器人就可以向人类和互联网寻求帮助。目前,我们实验室的机器人和人类可以互相帮助,共同克服各自的局限性。
然而,在人类和机器人能够安全有效地共存之前,还需要克服一些障碍。我们正在研究人类和机器人如何通过语言和行动进行更简单的交流。我们还在探索如何改善机器人的外观及其与外界的互动,尤其是指示灯如何向人类展示机器人的内部状态。
尽管我们还有很长的路要走,但我相信如果人类和机器人能够互相帮助,互相补充,未来将是乐观的。(张张)
阅读更多
《自然》杂志的相关报道
上一篇:吴宜灿:做有用的科研