神经网络专家:人工智能不再有冬天
据国外媒体报道,《连线》最近在七国集团(G7)人工智能峰会首次会议上采访了谷歌高管杰夫·辛顿(Geoff Hinton),并谈到了许多问题,如人工智能技术面临的道德挑战、信任以及如何开发更有效的人工智能。韩丁强调,人工智能已经进入我们的生活,不会有冬天。
杰夫,20世纪70年代初的英国研究生?杰夫·辛顿开始建立一个简单的数学模型来描述大脑神经元如何通过视觉来理解世界。几十年来,人工神经网络一直被认为是一种不切实际的技术。但是在2012年,来自辛顿大学和多伦多大学的两名研究生使用人工神经网络有效地提高了计算机识别照片中物体的准确性。不到六个月,谷歌收购了一家由三名研究人员创建的初创公司。鲜为人知的人工神经网络已经成为硅谷的热门话题。目前,所有大型科技公司都把韩丁等初创公司苦心开发的技术视为公司发展的未来技术和推动社会发展的核心技术。
上周,在G7峰会的第一次人工智能会议上,《连线》杂志采访了韩丁。来自世界主要发达经济体的代表在会上讨论了如何促进人工智能的好处,同时最大限度地减少失业和算法歧视等不利因素。以下是经过编辑的采访记录:
连线:加拿大总理贾斯廷·特鲁多在七国集团会议上表示,需要做更多的工作来应对人工智能带来的道德挑战。你怎么想呢?
杰夫。韩丁:我一直担心致命自动武器可能被滥用。我认为它们应该被禁止,因为日内瓦公约禁止使用化学武器。即使不是每个人都签署了它,它的存在也将作为某种道德基准。你会注意到谁没有签名。
连线:你在谷歌的4500多名同事联名写了一封信,*谷歌与五角大楼续签了一份涉及将机器学习应用于无人机图像的合同。谷歌表示,这不是出于冒犯的目的。你在信上签名了吗?
杰夫。韩丁:作为一名谷歌高管,我不认为我应该公开抱怨,但我私下抱怨。我没有在这封信上签名,而是和谷歌的联合创始人谢尔盖?谢尔盖·布林谈到了这一点。他说他也有点不开心。所以他们没有续借。
连线:谷歌领导层决定完成但不续签合同。他们还发布了一些使用人工智能的指导方针,包括承诺不在武器中使用这项技术。
杰夫。韩丁:我认为谷歌做出了正确的决定。有各种各样的东西需要云计算。很难知道底线在哪里。从某种意义上说,它是任意的。我很高兴谷歌画出了这条线。这些原则对我来说非常重要。
连线:人工智能会导致日常生活中的伦理问题。例如,相关软件用于社会服务或医疗保健决策。我们应该注意什么?
杰夫。韩丁:我是技术应用方面的专家,不是社会政策方面的专家。我有相关技术专长的一个领域是,监管机构是否需要解释人工智能系统是如何工作的。我认为这将是一场彻底的灾难。
对人类来说,他们无法解释他们所做的大部分事情。例如,当你雇佣一个人时,这个决定是基于你能量化的各种事物,然后是各种直觉。人们不知道他们是怎么做到的。如果你让他们解释他们的决定,你是在强迫他们编造故事。
神经网络也有类似的问题。当你训练一个神经网络时,它将学习10亿个巨大的数据,从而提取知识。如果你输入一个图像,输出是正确的决定,例如,这是否是一个行人。但是如果你问,“为什么它会这样想?”如果有任何简单的规则可以确定图像中是否有行人,这个问题早就解决了。
连线:那么我们如何知道何时信任这些系统?
杰夫。韩丁:你应该根据他们的表现来调整他们。你进行实验,看看这东西是否有偏见,或者它杀死的人是否比正常人少。就自动驾驶汽车而言,我认为人们现在已经多少接受了这一点。即使你不确定自动驾驶汽车是如何做到这一切的,如果它的事故率比开车的人低得多,那也是一件好事。我认为我们必须像对待人一样:你只需要看看他们的表现。如果他们一次又一次地遇到问题,你可以说他们不是很好。
连线:你说过思考大脑如何工作会刺激你对人工神经网络的研究。我们的大脑通过神经元的突触网络从我们的感官获得信息。人工神经网络通过数学神经网络提供数据,数学神经网络通过所谓的权重连接。在上周发表的一篇论文中,你和几位合著者认为我们应该通过更多的研究来揭示大脑中的学习算法。为什么?
杰夫。韩丁:大脑解决问题的能力与我们大多数的神经网络非常不同。我们的大脑有大约100万亿个突触。一般来说,人工神经网络的权重至少要小10,000倍。大脑使用很多很多突触从几个片段中尽可能多地学习。当有许多情况和例子时,深度学习擅长于神经元之间联系较少的学习。我不认为大脑关心将大量知识压缩成几个连接。它关注的是使用大量的连接来快速提取知识。
连线:我们如何建立一个更有效的机器学习系统?
杰夫。韩丁:我想我们需要换一种不同的电脑。幸运的是,我这里有一个。
(韩丁把手伸进钱包,拿出一大块闪亮的硅片。这是英国初创公司Graphcore的原型,该公司致力于开发为机器学习算法提供动力的新处理器。)
几乎所有运行神经网络的计算机系统,甚至谷歌的特殊硬件,都使用随机存储器。处理器从随机存储器中读取数据,然后使用它,但是从随机存储器中提取神经网络的权重需要大量的能量。因此,现有算法确保一旦获得权重值,它将被多次使用。因为成本太高,所以您不能对每个培训样本进行更改。
然而,在Graphcore芯片上,权重存储在处理器的缓存中,而不是内存中,因此它们永远不需要移动。因此,有些事情会变得更容易探索。然后也许我们会得到一个系统,比如说,有1万亿的重量,但是每个样本只涉及10亿。这更像是大脑的大小。
连线:最近对人工智能和机器学习的兴趣和投资的激增意味着比以往更多的钱花在研究上。这一领域的快速发展是否也带来了新的挑战?
杰夫。辛顿:人工无线城市面临的最大挑战之一是,如果你想发表一篇关于机器学习的论文,首先必须有一个表格列出所有不同的数据集和所有不同的方法,然后强调你的方法看起来是最好的。如果不是这样,这篇论文将很难发表。我不认为这会鼓励人们去想新的想法。
如果你提交的论文有一个全新的观点,它就不能被接受,因为初级评审者可能无法理解它。或者你会遇到一位资深评论者,他需要评论太多的论文来理解,但他第一次会认为这绝对是胡说八道。任何伤害大脑的事情都不会被接受。我认为这很糟糕。
特别是在基础科学领域,我们应该追求新的理念。因为我们知道,从长远来看,一个全新的想法会比一个微小的改进产生更大的影响。我认为现在需要改变。这个领域的老年人不多,大多数是年轻人。
连线:这会阻碍这个领域的进步吗?
杰夫。韩丁:这种不平衡还需要几年时间才能得到纠正。这是暂时的。公司正忙于教育员工。大学也在教育人们。大学最终会在这个领域雇佣更多的教授,这是正确的。
连线:一些学者警告说,当前的炒作可能会像20世纪80年代一样进入“人工智能冬天”,当时由于进展没有达到预期,利息和资金枯竭。
杰夫。韩丁:不,不会有人工智能的冬天,因为它会促进你手机的技术进步。在过去的人工智能冬天,人工智能不是你日常生活的一部分。现在是了。
下一篇:幸福树冬天掉叶子是怎么回事