神经生物学家蒲慕明:脑科学将如何助力AI技术发展
2018年GMIC全球移动互联网大会昨天在北京开幕,主题是“人工智能成就一切”在论坛上,中国科学院神经科学研究所所长、神经生物学家蒲慕明发表了演讲,阐述了脑科学的研究现状以及如何帮助人工智能和类脑智能的发展。
蒲慕明说,对大脑来说,最重要的是学习和记忆,这也是人工网络的关键功能。在过去的几十年里,大脑和脑科学最重要的启示是连通性的可塑性。
"记忆是通过神经之间的连接,通过同步的电活动产生的."蒲慕明解释说,目前研究的难点在于人脸识别的神经机制,例如,你如何识别你祖母的脸,因为当她还是个孩子的时候,祖母不断出现在你的视野中,她的脸的每一部分都激活了一组神经元。当你祖母的脸出现的时候,超级细胞群连接了超级细胞群。这个集群让你看到祖母的眼睛,你可以想到她的整张脸,甚至她的声音,因为我提取了整个集群的记忆。
蒲慕明解释说,现在的新结构,连接可以是新的,可以减少,它可以降低能耗,提高效率,这已经被证明,它已经由我们的芯片上的中心程序员实现了。“什么样的信息需要被遗忘也是一个需要解决的问题。什么样的信息需要长期存储,这也需要在人工智能中找到一个好的算法。”
简言之,脑科学和类脑人工智能的协调发展支持、促进和共同发展。(萧艺)
以下是中国科学院神经科学研究所所长蒲慕明的讲话全文:
蒲慕明:女士们,先生们,我们都知道人工智能现在方兴未艾。有许多事情可以做,它的发展仍然有很大的前景。然而,我们考虑的是未来的下一代人工智能。五年、十年和十五年后,人工智能将需要变得更加智能。首先,我们需要知道我们当前的人工智能是特殊的,而不是普遍的。我们最关键的技术,深度学习和机器学习,是大数据和高能耗,这是远离人脑的。因此,我们应该从脑科学中得到一些启示,如何从监督学习走向无监督学习,像人脑一样,如何像人脑一样高效。
我今天告诉你们的大部分是脑科学,但我最后要说的是科学在未来如何帮助人工智能。最重要的是包裹在大脑外的皮层,这是人类特有的,特别是发达的,在低等哺乳动物中是找不到的。但是内部皮层也很重要,但这在进化上是保守的。我们知道这种复杂性来自哪里。重要的是它的组成和结构很复杂。这个结构包含大量的神经元。我指的是数千亿个神经细胞,我们的神经元。不仅数量多,种类也多。我们还没有弄清楚有多少种。网络形成了,这些突起在这个网络中生长形成了一个网络。网络中有执行各种功能的特殊环路,因此整个网络是连通的。然而,多样性是一个大问题。不仅有多种形式,不同的形式,不同的功能和不同的脉冲传输方式。所以理解这一点就是知道我们现在在大脑中能做什么,比如在动物系统中,看看它有多复杂。
为了说明这种复杂性,我可以举一个例子。这个神经细胞在皮层只有52个细胞。我们把它联系起来并追踪它。它创造的网络结构非常复杂,只有52个细胞。想想我们人类大脑中数千亿个神经细胞,它们之间的联系有多复杂。但基本结构很简单,就是说,它是一个细胞,这个细胞有一个细胞体,它长很多突起,这些突起是输入和输出的。基本结构非常简单,但每种细胞类型的性质不同,所以非常复杂。这与人工网络非常不同。
对大脑来说,最重要的是学习和记忆。学习和记忆也是人工网络的关键功能。但是一个人如何学习呢?我们感觉、锻炼、识别、行动,都有电活动。这种电活动引起了我们神经系统网络结构的变化,包括功能的变化和神经元自身结构的变化。还有图号,它是神经元连接的节点,这个节点是存储记忆的地方。在过去的几十年里,大脑和脑科学最重要的启示是连通性的可塑性。功能可以改变,结构也可以改变。我们目前的人工网络结构基本上没有改变,所以这是一个可以学习的地方。结果是,在一个新的网络形成后,它有了新的认知行为变化。
我们怎么说这个结构已经改变了?几十年前,一位加拿大科学家提出,改变网络结构的最佳方式是加强两个神经细胞之间的联系,如果它们同时放电的话。如果放电时间不同,其连接可能会减弱。他提出了这样一个假设。在这个假设的最后是一个简单的句子,也就是说,一起发出的神经元是连接在一起的。这是一条规则。哈佛大学在他的人工网络中也使用了这条规则。他也开始把这个假设融入其中,也就是说,非常有用的人工网络可以做记忆学习。这有实验证据,即神经连接受到高频刺激后,其前后两个细胞有电活动,并有增强;低频刺激后,只有前部细胞有活动,而后部细胞由于低频不能被激活而变弱和不活动,所以它变弱了。我认为我们神经网络现在最大的功能是感知。我们需要了解外面的世界,记住并学习。
赫伯也有一个假设,许多活动将许多神经元连接在一起,记忆储存在他的记忆中。如果记忆被提取,机器学习细胞也会被重新激活,而你就是记忆的提取者。让我们举一个例子,例如,在你的视野中有一个圆。这个圆激活了大量的单元,每个单元反映圆的曲线段。这个细胞被激活成一个圈,所以它的连接被加强了。因此,一簇神经细胞的连接得到加强。连接加强后,只要有信息出现,就会通过原来加强的连接唤起整个记忆,循环记忆就出来了。因此,记忆是通过同步的电活动加强神经之间的联系而产生的。
事实上,这非常有用。你现在怎么认出你祖母的脸了?例如,你如何认出你祖母的脸?因为当你年轻的时候,你的祖母不断出现在你的视野中,她脸上的每一部分都激活了一组神经元。这个圆圈不代表神经元,它代表一个圆圈,一群眼睛,一群头发,等等。所有这些加在一起,就会一起被激活。所以当你祖母的脸出现时,一个超级细胞群将超级细胞群联系在一起。事实上,当我将来看到祖母的眼睛时,我能想到她的整张脸,因为我已经提取了整簇的记忆。这个集群被称为一千个耗时的集群。每个集群的一部分是一个集群,所有集群一起形成一个大的组。这个大脑处理祖母的信息,每个人都有不同的面部记忆。他的记忆可能就是这样产生的。这也成了记忆的一个概念,可以说,我们不仅仅是祖母的脸,这是一个超级细胞群,这个圈代表一个超级细胞群。但事实上也有与祖母有关的细胞群,如她的声音等。这个超级细胞群是祖母概率。当你小时候听到祖母的脸时,你应该想到她的声音。这是我们脑科学中最好的假设,什么是认知?当然,这是一个假设。不同的概念位于大脑区域。这些概念将不同大脑区域的网络连接在一起,然后使其加强。
我认为脑科学中最重要的一个,也是过去几十年中最重要的进步是理解人类大脑在发展过程中是如何产生网络的。就像婴儿出生一个月,没有网络,只有神经细胞。然后从两个月到最右边的两岁,他的网络被大量生成。所以你可以想象网络生成的过程是什么,也就是说,孩子们在网络形成的过程中学习他们所有的能力,包括认知能力,包括对他的记忆,包括学习语言,所以不像我们的人工网络,人工网络就在那个地方,然后学习大数据。然而,我知道大脑网络中没有网络。是你的信息不断到来,形成新的信息,创造新的信息。然而,当信息到来时,已经连续生成的网络被修改。
如果你看到这个网络修改的过程,生成的图的数量会在出生后大大增加。上升后,你需要修剪。修剪是什么意思?学习是由经验引起的大脑结构。每个人的大脑都是不同的,有不同的个性、不同的想法和不同的记忆,因为在过去的生活中,你的经历不断地改变着你的大脑。围棋大师的大脑不同于普通人,因为他下过很多国际象棋,并且已经改变了他的大脑经验。我们经常说,人们不需要大数据来学习,他们一看到一些数据就知道如何做决定,因为他们不需要大数据。在过去的一生中,他的大数据已经把他的网络建成了一个可以用小数据解决这个问题的网络。因此,为了真正有效,未来的人工网络必须能够从网络形成的过程中获得灵感,来看看我们如何使用新的机器学习算法。
最后,我想谈谈我们能从自然神经网络中学到什么。我今天已经谈了一点。事实上,神经网络有不同的子类型和功能,这导致了它的复杂性。这种复杂性不仅限于网络连接。和我们的人工网络的连接,都是向前的,向前的操作。也可以使用一些反向连接。横向连接和反向连接在自然网络中实际上是非常复杂的,并且是关键,也就是说,各种类型的神经元,它们可以将信息向前或向后发送。最重要的是从神经地图数字的可塑性中学习。现在我们知道图号在功能上是可塑的。这是一种机器学习的方法。这是为了查看所需信息是否有任何错误。如果有错误,我们将调整上游图号。这是为了增强和削弱其调整后的功能。然而,我们现在知道调制方法可以通过图号的频率来改变,图号代表高和低频率,并且代表他的网络节点前后的细胞电活动的相关性。然而,我们现在知道有与时间相关的调整。另外,刚才提到的结构是可以改变的,这是非常重要的。
现在新的结构,连接可以是新的,可以减少,它可以降低能耗,提高效率,这已经被证明了,它一直是我们芯片上的中心程序员。有可以有序传播的可塑性,也有反向传播。还有网络地图存储。当我们谈到代表效率和记忆的地图存储时,如果它消失了,它就会被遗忘。什么样的信息需要被遗忘也是一个需要解决的问题。什么样的信息需要长时间存储,这也需要在人工智能中找到一个好的算法。记忆提取和强化学习的方法在神经网络的内容上是不同的。今天,我谈到了集群的一个非常重要的概念,即赫伯集群,它是嵌套的。神经元群代表不同的信息,然后结合在一起。绑定的方式是使用同步活动来绑定大脑中的电活动簇。最后,还有输入地图结构等等。
在今天的这个时候,脑科学和类大脑智能之间有许多交流。脑科学不仅影响智力领域,而且智力语义学也影响脑科学的发展。我今天没有时间谈论这个细节。所以我就此打住,谢谢大家。(结束)