欢迎您访问科普小知识本站旨在为大家提供日常生活中常见的科普小知识,以及科普文章!
您现在的位置是:首页  > 自然科普

人工智能,让机器也会“感情用事”

科普小知识2021-11-04 11:02:40
...

作者|王佩(美国坦普尔大学计算机与信息科学系)

近年来,计算机的“智能”已经达到了越来越广泛的范围,人类大脑的各种功能已经被人工智能所复制,尽管许多还处于初级阶段。即便如此,仍有一些领域被普遍认为是机器无法触及的,比如情感。一个常见的论断是“人工智能可以有理性,但它不能有真正的情感。”这种观点由来已久,但没有必要去检查哲学史。我们还知道,“理性”和“情感”通常被认为是对立的,并且经常被警告在做决定时不要“使用情感”,因为它们是非理性的。在传统的理性模型中,没有情感的位置,而人工智能系统作为这些模型的具体实现,自然没有情感,所以只要找一本人工智能教科书来证明这一点。科幻小说和电影也反复强化了这一概念,因此“像机器人一样”经常成为对“技术人员”的常见评论,这些人思维有条不紊,处理事情冷静,情感不外露。然而,近年来,这一传统概念开始受到挑战。

“情感”在“理性”中

在人类认知活动的研究中,情感的作用被越来越多的研究者认为是不可或缺的。这些功能体现在“自我控制”和“人际交往”中。

有些情绪反映了对系统自身状况的评价,如(积极的)快乐、骄傲和(消极的)悲伤和后悔。其他情感反映了对外部事物的评价,如(积极的)情感、善良和(消极的)仇恨和厌恶。不同的情绪导致不同的应对策略。例如,它们都是负面情绪。愤怒让人想打架,而恐惧让人想逃跑。与经过仔细考虑后才采取的行动相比,情绪反应是直接而迅速的,尽管它们通常是粗心和草率的。

因为许多人类情感伴随着面部表情和身体反应,它们也在语言无法触及的人际交流中发挥作用。这包括基于对他人情绪的认知来决定自己的反应(观察和观察情况),以及通过情绪表达来影响他人的行为(随情绪而动)。

上述情感的功能描述不涉及情感的生理基础。这意味着原则上在计算机系统中实现类似功能可能有类似的要求和机制。这也是当前人工智能相关工作的起点。在现有的研究中,主要的焦点分别对应于以前的“控制”和“沟通”两个方面。

近年来,“情感计算”的兴起是为了更好地为用户服务而在人机交互过程中加入情感成分的一种尝试。在与人交流的过程中,系统会识别用户的情绪状态并采取相应的行动,包括模拟人的情绪表达。各种聊天程序和玩具机器人在这方面绞尽脑汁,希望取悦用户,甚至满足用户的情感需求。

通用人工智能(AGI)的情感研究基本上是在另一个方向。这里的主要目标不是让计算机看起来像是理解或拥有人类情感,而是让它们真正拥有自己的情感,也就是说,主要通过这种机制来满足系统自身的需求,而不是用户的需求。在这个过程中,系统的“情感”是否与人类的“情感”完全相同并不重要,重要的是它的产生、发展、效用等。类似于人类情感的相应方面。近年来,已经提出并初步实现了几种“机器情感”模型。由于篇幅的限制,我不能在这里讨论所有的方案,但下面只介绍我们团队在这方面的探索。

纳特的情感

在我之前的文章中(比如“你的逻辑是什么?,点击左下角的“阅读原文”)介绍我设计的AGI系统“nath ”,而当前栏目名称“AI nashi”也是从这里派生出来的。这一次是时候谈谈情感方面了。如前所述,以下描述被高度简化。感兴趣或有问题的读者可以看看我们的论文,甚至是源程序。

Nass和其他人工智能系统的一个根本区别是它假设“知识和资源相对不足”。简而言之,系统经常“不知道”和“意想不到”它想要实现的目标。在这种限制下,系统不能总是找到绝对正确或最佳的解决方案,而只能提供它目前认为的最佳解决方案,尽管它总是试图积累经验以提高其能力和效率。

这种限制的一个直接结果是,纳斯不能平等地对待所有的目标。因为系统中的目标经常相互冲突(所谓的“鱼和熊掌不可兼得”),系统不能保证完美。对于一个特定的事件,系统的“愿望”(希望它会发生与否)和系统对相应“现状”(实际与否)的判断之间的比较决定了系统在这方面的“满足”。如果你想发生的事情真的发生了,或者你不想发生的事情没有发生,那么系统是满意的。如果你不想发生的事情发生了,或者你想发生的事情没有发生,那么系统就不会满意。在纳斯里,愿望和现实的判断有不同的程度,满足也是程度的问题。这就是《水仙》中情感的来源,即在某一方面作为对现状的主观评价。

满意度各方面的总和构成系统对当前状况的总体满意度。当然,在这个“总结”过程中,每个事件的“权重”是不同的,一个大的“不满意”需要许多小的“满意”来抵消它。由于时间资源的限制,Nass在进行评估时不能考虑系统中的所有事件,但只有少数事件目前或最近处于系统的关注范围内。这种总体满意度决定了系统当前的基本情绪状态,即“快乐”或“不快乐”的程度。一般来说,系统很少“满足于一切”或“处处碰壁”,而是处于某种中间状态。尽管如此,根据“好”和“坏”的相对比例,整体情绪被分为“积极”和“消极”。

在此基础上,系统中的概念及其对应的事物也会染上各种情感色彩(也称为“好恶”价值观),主要反映它们与系统整体满意度的相关性。如果系统在处理一个对象时经常感到高兴,尽管对象和系统的状态之间可能没有因果关系,系统仍然会给它一个肯定的评价(如“爱我的狗和爱我的狗”)和一个否定的评价(如“生气”)。就像如果我每次遇到有不愉快经历的人,我会对这个人有一些负面的感觉(比如警惕),这不能说是没有原因的。当然,许多东西可能永远不会带有这样的情感色彩,有些东西处于“爱恨交加”的境地。

随着系统内部和外部环境的变化,上述情感因素也会发生变化,但优先级不同。当愿望接近或偏离现实时,对个别事件的满意程度随时会改变,但系统的整体情绪状态变化相对较慢。事物的情感是历史上许多评价的总结,而变化更慢。无论如何,这些因素反映了系统本身对情况和事物的主观评价,从而形成了对它们的超越“客观描述”的另一种理解。这里的焦点不是事物本身的属性,而是它们与系统愿望之间的关系。例如,系统除了记住客户的姓名、职业等之外,还知道了客户、甲方、乙方和丙方。它还记得他们是否对自己“友好”。

在系统没有足够的知识或时间以详细和有针对性的方式处理各种事情的情况下,在统计学意义上,依靠它们的“情感色彩”来决定响应通常是一种有效和方便的策略。在当前的国民经济中,情感因素的影响主要体现在以下几个方面:

1.在其他因素相同的情况下,带有强烈情感色彩(积极或消极)的概念和任务会得到更多的关注,即更多的时间和空间资源。也就是说,如果用户给Nass三个同等重要的任务,但它没有时间完成所有任务,它将根据不同的“喜好”分配时间。

2.当目标之间发生冲突时,情感评价将成为选择的重要依据。这可以作为心理折磨的合理依据,比如“两个人掉进河里谁先得救”。

3.在决策过程中,具有强烈情绪的任务更有可能触发系统的外部行为,而无需支付仔细考虑所需的时间成本。尽管事后看来,“感觉焦虑”的反应通常不是最佳的,但它很可能拯救生命。

4.当系统“心情愉快”时,它会更多地考虑新任务和相对不重要的任务;相反,当“心情不好”的时候,它往往会关注当前的难题。根据前面的描述,坏情绪表明重要的目标还没有实现,一个人不应该从其他任务中分心是很自然的。

当然,上面的设计只触及了情感机制的简单形式,前面还有许多任务。在Nass的研发计划中,它主要包括情绪的进一步分化(通过满意度和其他概念的结合,如区分它们的不同特征)和各种情绪的不同后果,情绪在外部交流中的使用和识别,“同情”的形成和限制,自我情绪的调节和控制等。当Nass在机器人系统中实现时,情感将被用来影响更多的方面,例如系统的能量消耗率(机器人运行的速度取决于它的焦虑程度)等。

机器情感的定义和后果

虽然很初级,但目前的工作至少证明了将情感引入一般人工智能的原因和可能性。根据我对智能的定义(见“人工智能:什么是“智能”?,点击左下角的"阅读原文"获取),情感不是智力的必要组成部分,但它是高级智能系统的自然需求,因为情感机制可以使系统在约束下更有效地利用知识和资源。根据上述解释,虽然“情感”和“理性”可以密切合作,但它们之间的差异仍然存在,因为后者一般是基于直接处理当前明确表达的信念和目标,而前者的来源和表达往往难以分析和识别。然而,这并不意味着情绪是毫无根据的和“非理性的”“情感”或许应该被视为“理性的积累”。例如,虽然爱和恨的来源通常很难说,但也不是没有道理。

这并不是说传统的理性模型都错了。他们针对的问题是单一的目标和足够的知识资源,在这种情况下,情绪只会增加混乱。但是现实并不总是如此有序。多目标竞争要求系统区分优先级和接近度,而时间压力要求快速响应。情绪确实有许多负面影响,但在许多情况下,没有情绪会更糟。

对本文观点的一个预期反对意见是,Nass不能被认为是“情绪化的”,因为没有相应的物质,如多巴胺、肾上腺素、激素等。,它不会“喜气洋洋”或“生气”。像许多其他关于人工智能的讨论一样,这里的关键是是否要引入一个比“人类情感”和“动物情感”更普遍(功能)的“情感”概念。只要抽象必要性得到承认,是否称之为“情感”主要是一个用词的问题。如果“情感”必须被定义为动物能力,我们可以把纳什的相应机制称为“机器情感”,但这并不影响这种机制与人类情感的异同。例如,如果你设计的机器狗有这种机制,那么如果你在测试它的平衡能力时经常踢它(就像在那个广为流传的视频中那样),不要奇怪它为什么总是躲着你。如果你的机器人跑着看电视而不是工作,这并不奇怪。

这当然导致了对“机器情感”的另一种反对意见,即担心它的社会后果:如果机器人讨厌人类呢?在我看来,事实恰恰相反:使人工智能情绪化可能是确保这项技术安全的必要条件。对于一个具有自主性和适应性的系统来说,设计者不可能在所有情况下都预先确定自己的反应。如果我们希望它在未来不断变化的环境中按照我们的期望行事,那么这个系统就不可避免地会区分好恶并区分轻重缓急。一个发自内心热爱人类的AGI远比一个只记得各种道德戒律的人安全。当然,还有很长的路要走。电影《我》中的“思想印记”可靠吗?),在这个旅程中有机遇和挑战,但这难道不是科学探索的真正本质吗?

机器情感研究的另一个结果是进一步理解情感在人类思维中的作用。与专注于情感生理机制的研究不同,AGI在这方面的贡献将是揭示情感发生的功能前提和后果,而在这里计算机提供了一个精确的实验平台。甚至精神疾病的研究也可以从这里得到启发。以纳特为例。如果情感成分在系统决策过程中的作用过大或过小,系统就会表现出某种“病理状态”,我们可能会在其中发现类似人类精神疾病的东西。

参考

1.汪裴、马克斯·塔拉诺夫和帕特里克·哈默,“NARS的情感机制”,《第九届人工智能大会论文集》,第150-159页,纽约市,2016年7月

2.让-马克·费罗斯和迈克尔·阿比布(编辑),谁需要情感?《大脑遇见机器人》,牛津大学出版社,2005年

本文从严肃的科普媒体fanpu2019开始。范普2019由世界级科学家和科普专家组成。在任何媒体上转载时,必须保留《重返公园》的名称、微信号和作者信息。未经允许,严禁进行任何更改,包括标题。如需重印、授权和合作,请联系fanpu2019@outlook.com。