欢迎您访问科普小知识本站旨在为大家提供日常生活中常见的科普小知识,以及科普文章!
您现在的位置是:首页  > 科普文章

面向未来:人与机器人共存的三种理想方式

科普小知识2022-07-13 15:55:39
...

近年来,关于人工智能和机器人技术的进步将如何在各种工作中取代人类,有越来越多的评论。但是大多数人工智能专家认为结果并不那么悲观。在未来,人们仍然可以使用智能系统:技术不足以完全接管,也不足以决定人类如何生产。许多重要的策略还没有完全交付给机器。

麻省理工学院教授、《我们自己的机器人》一书的作者大卫·M说,这种混合决策应该比人工智能单独工作产生更好的结果。只有一个问题:当人类和半智能系统试图合作时,事情并不总是变得更好。

不受控制的智能,没有人类怎么办

今年,亚利桑那州坦佩的街头发生了一场灾难性的*,一辆搭载最新自动驾驶技术的优步测试车杀死了一名乱穿马路的人。就像今天几乎所有的自动驾驶汽车一样,如果软件出现故障,将会有一个后备司机参与其中。但是当地警方的分析得出结论,司机很不安,可能在用智能手机看电视节目。

优步汽车依赖于一定程度的自主系统,该系统将于明年推出。所谓的三级系统设计可以使汽车在大多数情况下实现自动驾驶,但在无法处理的情况下,控制仍必须回归人类。

一些批评家说,一个被设计成完全自主但突然偏离的系统对人类提出了不切实际的要求。美国初创企业Nauto的首席执行官斯特凡·赫克(Stefan Heck)表示:“如果你一天只需要一分钟,那你就不能。”他的技术被用来防止职业司机分心。

失败表明采用人工智能的难度远远超过无人驾驶汽车。如果没有精心设计,智能系统进入世界可能会导致对技术的强烈抵制。

专门研究学习心理学的人工智能专家罗杰·斯坎克警告说,一旦人们开始理解今天的机器学习系统有多么有限,他们激起的夸大的希望就会很快消失。他预测未来将会是一个新的“人工智能冬天”——指的是20世纪80年代末,对技术进步的失望导致人们退出战场的时期。

预防需要对新的自主系统有更现实的期望,并需要精心设计,以确保它们与人类世界的融合。但是技术本身是一个严重的障碍。

麦肯吉·梅隆大学的机器人学教授伊利亚·努尔巴赫什说:“人工智能的工作方式和失败方式对我们来说是陌生的。”"人工智能会让我们感觉更投入——或者它就像是在和外来物种打交道?"

半自主汽车是一个特别引人注目的例子。它依赖于一个与人密切合作的近乎自治的系统。然而,随着人工智能的发展,像这样的混合系统正逐渐渗透到许多不同的场合。

机器学习——最近在这个领域最引人注目的人工智能——是一种先进的模式识别形式。事实证明,机器优于人类的能力,例如识别照片中的图像或识别语音。

然而,当必须根据训练的具体数据进行判断时,效果很差。在现实世界中,人们经常对他们从未遇到过的情况做出决定。

问题是一个系统可以匹配数据,但不了解它的重要性。“它们是强大的东西,但它们感觉不像是世界,”专门研究人工智能的思爱普和印孚瑟斯前高管维沙尔·西卡(Vishal Sikka)说。

人与智能机器的三种理想共存模式

人类充当机器人的后援,并在机器人达到其能力极限时接管。

许多工作流程都是以这种方式重新设计的——例如,自动呼叫中心,语言理解系统试图处理呼叫者的查询,只有在技术混乱的情况下才默认给接线员。

优步事故是可能出错的极端例子。根据斯坦福大学的研究,人类司机至少需要6秒钟来恢复意识和控制。然而,即使有足够的时间来恢复人们的注意力,进入某个特定情境的人可能会看到与机器不同的东西,使得切换远非无缝。

“我们需要在软件系统和人之间合作——这是一个非常困难的问题,”西卡先生说。语言的使用突出了困难。Sikka先生补充说,人类可以用很少的词语来表达意义:说话者和听者对语境的共同理解赋予了这些词语意义。他补充说,计算机科学家还没有研究如何在机器中建立共识。

确保敏感任务总是依赖于人

即使自动化系统已经完成了所有的准备工作,并且能够完全自己完成任务,像军事这样的敏感任务仍然留给人类。

例如,军用无人机,人类“飞行员”,通常位于数千英里之外,需要对射击目标做出决定。面部识别系统——用来帮助移民官员识别可疑的旅行者——是另一个例子。赫克先生说,两者都显示了人工智能如何在不剥夺人类控制的情况下,让人类变得更有效率。

对无人机等半自动武器的一种评估是,将它们转变成完全自主的系统没有技术障碍。您可以快速更改当前的程序和安全措施。

加州大学伯克利分校的人工智能教授斯图尔特·拉塞尔(Stuart Russell)表示,在国家紧急情况下,将无人驾驶飞机操作员从循环中移除是一个简单而容易的步骤,从而推动了机器人武器时代的到来,机器人武器已经做出了自己的决定。“你不能说技术本身只能由国防和人类来控制。事实并非如此,”他说。

3涉及使用人工智能的“人在循环”系统

机器人不能完全独立地处理任务,但被用作人类决策的辅助工具。人们压缩数据、提出建议或指导下一步行动的算法正逐渐渗透到日常生活中。

然而,算法只能和他们训练的数据一样好——而且他们不擅长处理新的情况。需要信任这些系统的人也需要相信它们。

Schank先生指出了算法在棒球中的作用。对每个击球手优缺点的分析,为球队传统主义者倾向的领域提供了一种新的方法。他说,这些计算机辅助决策的结果最终可能比那些纯粹基于人类分析的结果更糟糕。

旧金山优步司机使用的应用程序中的一个错误将他们送到了机场货运站,而不是客运站。“有时人们会盲目地跟随机器,有时人们会说,‘等等,它看起来不对劲。’像许多其他技术一样,人们会适应的,”技术作者蒂姆·奥赖利说。

这些可能是相对无害的情况,在这种情况下,由于受到机器引入的误导,损坏很小。但是当赌注更高时会发生什么呢?

智能技术正在发展,但是人类能理解它的思想吗?

IBM认为医疗诊断是沃森的主要目标之一。这个系统最初是为了赢得电视游戏节目而创建的,然后被转化为一个更普遍的“认知”系统。

这种系统旨在让专家做出最终决定。IBM坚持认为人类永远拥有最终发言权。然而,对于医生来说,无视计算机提供的建议有多容易呢?根据定义,计算机已经分析了更多的可比情况,并且拥有比他们更多的数据。

如果它有保险或其他财务后果,拒绝技术可能会更加困难。努尔巴赫什先生说:“医生处于一个他们认为自己服从系统的位置。”"简而言之,他们仍然会做出决定,但不会这样做."

类似的担忧出现在20世纪80年代,当时人工智能领域由“专家系统”主导,旨在通过“决策树”引导人类用户在任何情况下都能够得出正确答案。事实证明,预测所有使现实世界决策复杂化的不可预测因素太难了。

然而,最新的基于机器学习的人工智能似乎被广泛采用,可能更难做出第二次猜测。由于他们在图像识别等狭窄领域的成功,他们对这些系统的期望一直在飙升。他们的创造者非常愿意接受炒作。

“我们正在失去对营销部门的控制,”Schank先生说。他挑出来的?IBM认为,在谈到沃森时,公司严重承诺过度——这是人工智能领域经常听到的批评。

IBM research首席运营官达里奥·吉尔(Dario Gil)在近8年前为围绕沃森启动一项重大计划的决定进行了辩护,认为当时没有任何其他技术公司能够在人工智能领域发挥核心作用。然而,他补充道:“我们对一般情况之间的区别还不够清楚。”

评估人工智能系统的质量建议带来了其他挑战,非专家可能不愿意推测他们不了解的工作机器。

这不是一个新的困境。30多年前,一台名为Thrac-25的放射治疗机出现软件故障,导致一些患者大量服药过量。Nourbakhsh先生说,技术人员无法识别缺陷,所以机器使用了更长时间。

一些计算机科学专家说,他们希望人和机器之间有一种更有创造性的关系。

最先进的机器学习系统中使用的技术,即神经网络,带来了额外的挑战。他们模仿人脑如何工作的理论,通过人工神经元层传输数据,直到出现可识别的模式。与传统软件程序中使用的逻辑电路不同,这个过程不能被追踪来确定为什么计算机会给出一个特定的答案。这是采用神经网络的主要障碍。

“这是人工智能特有的讽刺——最好的系统碰巧是今天最难解释的,”努尔巴赫先生说。

然而,一些专家表示,正在取得进展,机器学习系统将很快能够指出导致他们做出具体决定的因素。“这不是不可能的——你可以看看里面,看看它在发出什么信号,”赫克先生说。

像许多在这个领域工作的人一样,他表达了一种乐观的态度,即人类和机器一起工作所取得的成就远远超过任何一个人单独完成的。然而,在光明的未来到来之前,人类仍有许多严峻的设计挑战需要解决。