欢迎您访问科普小知识本站旨在为大家提供日常生活中常见的科普小知识,以及科普文章!
您现在的位置是:首页  > 科普文章

人民日报:给智能机器嵌入“道德”算法

科普小知识2022-01-18 07:55:36
...

人工智能的应用可能是一项意义深远的社会伦理实验。智能机器应该通过算法嵌入人类的价值观和规范,以便它们拥有与人类相同的伦理。

不久前,包括特斯拉首席执行官马斯克(Tesla CEO Musk)在内的几位全球人工智能领域的*专家签署了承诺书,呼吁开发“人工智能自主武器”。这不是该行业第一次警告人工智能的潜在风险。尽管“弱人工智能”处理单一任务和完成人工指令的自主性仍然很低,但人们不能忽视新技术应用的潜在隐患。

高效智能的人工智能并不完美。例如,人工智能有算法缺陷。这种缺陷通常来自于机器学习中令人费解的过程。它的判断有时是在一个黑匣子里完成的,缺乏透明度。当无人驾驶汽车决定左转或右转时,人们并没有完全意识到转向过程。除了传感器故障,人们甚至不能准确地找到问题的原因,这给系统的有针对性的调整和责任的确定带来了障碍。正因为如此,最近生效的欧盟通用数据保护条例明确规定,人工智能公司必须让人们审查某些算法决策。

不仅有眼前的担忧,还有远见。展望未来,人工智能的应用正在模糊虚拟世界和物理世界的界限,这可能会重塑人类的生存环境和认知形式,从而引发一系列棘手的伦理、法律和安全问题。与历史上的其他技术创新相比,人工智能的伦理和法律问题受到了极大的关注。其中一个重要原因是,它期望在概念上实现可计算的感知、认知和行为,从而在功能上模拟人类的智能和行为,进而使机器具有准人格或准主体特征。人类现有的法律规范、概念框架和知识储备能否应对人工智能发展带来的新问题,是人们必须面对的挑战。

鉴于人工智能应用的潜在风险,国际社会提出了一系列在标准设计、伦理和道德方面控制智能机器系统的方案,并逐渐形成共识原则:通过算法将人类的价值观和规范嵌入智能机器中,使它们具有与人类相同的伦理道德,如同情、责任、羞耻等。希望人工智能算法在完成人类艰巨任务的同时,遵循“好方法”,吸收人类伦理中“好”的一面,从而达到控制机器风险的目的。毕竟,任何算法都只是实现目标的工具或手段,“好”的结果是人类追求的目标。

事实上,编写代码和算法来控制机器的想法并不新鲜。70多年前,美国科幻作家阿西莫夫提出了“机器人三定律”,并通过内置的“机器伦理调节器”构想出机器人不应伤害人类的原则。目前,计算机专家、伦理学家、社会学家、心理学家和其他人正在共同努力实现这一想法。

人类对人工智能发展的预见可能来得有点早,但正是人类的智慧和洞察力反映在未雨绸缪中。我们不能等到人工智能深深介入人类生活之后才考虑如何与之相处。与机器的和谐应该是人类发展和利用人工智能的重要尺度。毕竟,人工智能的应用不仅是一项技术创新,也是一项意义深远的社会伦理实验。

“人工智能的短期影响由控制它的人决定,而长期影响取决于人工智能是否完全被人控制。”这是著名物理学家霍金给人类的警告。我们不需要被人工智能的风险所吓倒,但是在享受人工智能的好处的同时,我们也需要划定诸如道德和法律规则之类的红线。