中国工程院院士郑南宁:无人驾驶还有哪些坎儿
如今,人工智能已经赢得了围棋比赛,但它似乎比人类驾驶汽车还要笨拙。今年,在一次城市道路实验中,美国一辆无人驾驶汽车撞倒了一名过马路的行人。这起事故也引发了一些关于这项备受赞誉的新技术的争议。无人驾驶技术下一步应该完善哪些技术方面?最近中国在无人驾驶技术方面取得了哪些进展?几天前,在由中国自动化学会主办、Xi交通大学主办的2018中国自动化大会上,中国工程院院士郑南宁解释了这一点。
人类擅长感知和预测,计算机擅长逻辑推理。
玩围棋属于逻辑推理脑力劳动,而开车是感知和锻炼脑力劳动的结合。通过驾驶学校的训练,人类可以相对容易地掌握这项技能,但是用机器实现它却遇到了困难的挑战。
这种情况在人工智能领域被称为摩拉维亚悖论。“这意味着计算机可以做人类认为简单的事情,计算机可以做人类认为困难的事情,但是计算机可以很容易地做到。”郑南宁说,早在20世纪80年代,人工智能研究人员就发现了这一挑战。对于计算机来说,实现高级人类智能(如逻辑推理)需要相对较少的计算能力,而实现智能行为(如感知和运动)需要巨大的计算能力。
这种情况是由两者的基本特征决定的。如果将人脑与计算机相比较,计算机在逻辑、可重复性和标准化方面显然超过了人类,但人脑是动态的、复杂的、创造性的和富有想象力的。“人类思维的基础是记忆经验和知识,用于预测、模式分类和学习。应该特别注意这种预测能力。每个人的大脑都有一个预测模型,所以从本质上说,大脑是一台预测机器,而预测能力对于驾驶行为非常重要。”郑南宁说:“但是计算机很难做出这样的预测。”
无人驾驶汽车不会这么快进入生活。
从容错的角度来看,人工智能系统可以分为两类:一类是出错后可以重新开始,另一类是统计上不能出错,无人驾驶属于后者。
从这一现实来看,郑南宁认为当前的无人驾驶技术主要面临对环境的可靠感知、行为前理解、应对事故等问题。
“对环境的可靠感知意味着,无论在任何道路或天气条件下,无人驾驶汽车都能准确而仔细地感知周围的环境。”郑南宁说,行为前理解是为了准确地估计和判断对方可能产生的行为,也是为了处理事故,包括如何对交警的手势做出反应,以及如何处理意外情况,如从路边突然闯入一名儿童。“这种突发的异常情况必须通过无人驾驶来解决,但目前还无法预先对这种场景进行编码,也无法使用简单的基于规则的模型来处理。”
郑南宁表示,解决这些问题的尝试需要将深度学习网络、长时和短时记忆、选择性注意机制和感知对象提取等技术集成到基于认知计算引擎的自主驾驶系统中,这是无人驾驶领域值得研究的方向。
他表示,在11月份由国家自然科学基金举办的2018中国智能汽车未来挑战赛上,Xi交通大学开发的“先锋”智能汽车进入高架道路后,顺利融入了许多载人车辆的自然交通流。无人驾驶实验车在没有全球定位系统信号的情况下,通过了高架桥下地面道路上的S形弯道和各种路障。
尽管有这些进步,郑南宁认为无人驾驶的人应该保持冷静,不要这么快进入生活。“真实的交通环境复杂多变,实现完全自主的无人驾驶是一项激动人心但又令人生畏的艰巨挑战。”
发现人工智能的突破点需要更多的时间。
那么,有没有可能找到一种终极算法,使某些智能不仅能完成单一任务,而且对解决无人任务有很强的普适性呢?
郑南宁说,未来需要受到大脑认知和神经科学研究的启发,来开发一种新的学习机器。
“利用神经科学和大脑认知作为新机器学习算法和架构的灵感来源,帮助我们思考如何在人工智能系统中实现相同的功能,是未来人工智能发展的重要研究方向之一。”郑南宁说:“我们需要更多的时间来发现受大脑认知和神经科学启发的人工智能的突破所在,我们还需要多学科实验科学家和理论科学家的合作。”
他还提醒说,面对近年来的人工智能热潮,基础研究应该建立在严谨的理论、模型构建、实验验证和分析的基础上。
“如果社会期望过高,达不到预期目标,可能会给学科发展带来低潮甚至灾难性的影响,使原本预期的目标变成‘皇帝的新装’。”郑南宁说:“面对人工智能研究的热潮及其在无人驾驶等领域的应用,我们需要冷静思考,稳步推进基础研究和实验验证。”
(记者詹元)