欢迎您访问科普小知识本站旨在为大家提供日常生活中常见的科普小知识,以及科普文章!
您现在的位置是:首页  > 科普文章

学了后面忘前面,治疗AI“健忘症”还难有良策

科普小知识2022-07-11 13:51:59
...

许多人上学时都有这样的经历。寒假返校后,他们发现上学期学的一些内容已经被遗忘了。看到人类在人工智能PK中取得的诸多胜利后,有些人不禁赞叹人工智能强大的学习能力,但事实上,人工智能的“记忆”并不像你想象的那么好。如果你像人工智能系统一样学习,很可能在学习新知识的同时,大脑会逐渐忘记以前的内容。原因是人工智能遭受了“灾难性遗忘”。

最近,来自谷歌大脑的最新研究发现,“灾难性遗忘”也存在于街机学习环境中由多个子任务组成的单一任务场景中。特别是在探索性游戏《蒙特祖马的复仇》中,场景发生了很大的变化。在学习了当前的游戏场景后,你会忘记之前游戏场景的知识。

那么为什么人工智能会产生“灾难性遗忘”?“灾难性遗忘”的当前解决方案是什么?有什么困难?对此,《科技日报》记者采访了相关专家。

一个接一个地学习,一个接一个地遗忘是低效的。

自从AlphaGo成功击败众多Go冠军以来,深度学习已经成为许多人工智能实现方法中最耀眼的“明星”,也是各大研发机构竞争的主战场。谷歌的大脑团队这次面临的“灾难性遗忘”是人工智能深度学习中的一个普遍而严重的问题。

“灾难性遗忘”指的是人工智能系统,如深度学习模型,当学习新任务或适应新环境时,会忘记或失去一些先前获得的能力。腾讯人工智能实验室副主任于东博士在接受《科技日报》采访时表示,“灾难性遗忘”会导致人工智能系统在原始任务或环境中的性能大幅下降。

美亚贝克信息中心总经理魏朝东表示,当深层神经网络学习不同的任务时,相关权重的快速变化会损害先前任务的性能。一般来说,它就像一只猴子在移动玉米,捡起一个扔掉,记住新知识,可能忘记旧知识。

正因为如此,“灾难性遗忘”的存在在一定程度上限制了人工智能在某些场景中的应用。

例如,福州大学数学与计算机科学学院和福建省新媒体产业技术发展基地的副主任萧克博士说,当人工智能图像识别系统需要添加新的对象类别时,它必须再次学习所有原始对象。例如,在文物鉴定系统中,当有一天发现原始资料中有一个错误的朝代时,就没有办法单独修改和学习这个错误的文物。如果人工智能被允许先学习英语,然后学习德语,它可能会忘记它所学的所有英语语法。

那么,在谷歌最新的大脑研究中,“灾难性遗忘”的影响是什么?有什么新发现?

“除了传统的新知识学习将覆盖旧知识这一事实之外,这一次谷歌的大脑还发现,在探索性游戏如‘超级玛丽’中,‘灾难性遗忘’将阻碍模型对新知识的学习。厦门大学科技学院副院长、人工智能系教授冀荣荣说。

纪荣荣进一步解释说,街机游戏学习的强化学习方法都是采用“体验回放”的训练方法,即保存游戏探索时的模型片段,然后“回放”模型进行训练。然而,在《蒙特祖马的复仇》这样的游戏中,游戏场景变化很大,模型需要不断探索游戏场景。因此,有必要在训练过程中不断回放早期场景的游戏体验,否则早期的游戏知识会因“灾难性遗忘”而被遗忘。

“这也导致了这样一个事实,尽管新的游戏体验可以被采样到‘体验回放’数据库中,但是由于学习方法的设置,学习效率很低,同时由于不同学习阶段的干扰,人工智能不能同时通过游戏的所有级别。”吉荣荣说道。

人工智能的“大脑能力”限制了新旧知识难以共存

为什么人工智能会产生“灾难性遗忘”?

“深度学习的结构一旦确定,就很难在训练过程中进行调整。神经网络的结构直接决定了学习模型的能力高晓说人工智能的“大脑容量”有一个上限,这使得人工智能只能在有限的范围内处理特定的任务。它就像水桶半高的一个洞,所以无论如何增加水桶的高度,水桶只能装半高的水。

中国科学院自动化研究所脑网络研究中心研究员、模式识别国家重点实验室副主任于山指出,这也涉及到通过神经网络学习知识的机制。在单个任务的训练过程中,网络中每个神经元的连接权值被专门调整以适应当前任务。然而,在新任务的训练中,新任务的连接权被调整,这将“抹掉”旧任务的原始结构,导致旧任务的性能显著下降。

人类的记忆实际上是有限的,但是为什么会有较少的“灾难性遗忘”?“主要原因是,在学习过程中,大脑可以积极地保留有用的知识和技能,而不会影响新信息的获取。”然而,冀荣荣说,目前大多数人工智能模型都是基于随机梯度下降来更新模型参数的。该过程主要服务于当前任务的优化,并且不评估哪些参数权重对于旧知识是有用的,因此知识很容易被覆盖。

吉荣荣还表示,目前像Siri或萧艾这样的人工智能助手产品并不是真正的通用人工智能。一方面,这些人工智能助手只能与人类互动,并在预设的知识范围内完成指令。另一方面,人类不能教这些人工智能助手通过像养宠物或孩子这样的互动来学习新知识或新指令。

有许多解决方案,但它们都是治标不治本。

据了解,破解“灾难性遗忘”是实现一般人工智能的关键。解决“灾难性遗忘”问题意味着该模型具有持续学习的能力,能够像人类一样获得新知识和新技能,并且能够最大限度地保持旧的经验知识和技能。

那么,目前解决“灾难性遗忘”的方法是什么?

最常见的方法是多任务学习,即同时将所有任务的训练数据放在一起,模型可以针对多个任务进行联合优化例如,吉荣荣说,如果模型同时学习“坦克战”和“超级玛丽”两个任务,模型不会停止训练,直到这两个任务同时相似。

不过,高晓也指出,随着任务数量的增加,新任务的样本数量会被稀释,训练会降低学习新知识的效率,而且在任何情况下都无法获得以前任务的数据进行复习。

另一个解决方案是根据新的任务知识扩展模型结构,以确保旧的知识和经验不会被破坏。这一次,谷歌大脑的“记忆观察”方法是为不同的任务(场景)建立多个人工智能模型来学习。“模型扩展模式本质上并没有解决‘灾难性遗忘’的问题,而是使用多个模型而不是单个模型来学习多个任务,以避免覆盖旧的参数。”吉荣荣说道。

目前,解决“灾难性遗忘”仍存在一对矛盾:在学习新任务的过程中,网络需要有足够的*来调整连接权重,但这种调整应该避免“抹去”原有的记忆。

因此,科学家开始设计新的学习算法来解决上述矛盾,以便在进行权重调整时将网络对现有知识的影响降至最低于山说,他的团队最近提出的正交权重修正算法就属于这一类。权重修改只能在旧任务的解空间中进行,主要通过限制权重修改来实现。该算法较好地克服了“灾难性遗忘”,使同一分类器网络能够连续学习数千个类别的识别。

魏朝东认为,虽然科学家们已经探索了各种解决方案,但目前人工智能学习只从认知科学中获得了一小部分灵感,大脑的模拟还没有达到人们想象的水平,大多数人工智能学习项目都是“先天不足”。“灾难性遗忘”是一个综合性问题,不仅需要理论支持,也需要可行的技术手段来实现。(记者谢凯飞通讯员欧阳、、王)