霍金等科学家发公开信 呼吁提防人工智能副作用
照片:霍金和其他各界名人呼吁预防人工智能的副作用。
中新网1月12日电据英国《金融时报》12日报道,包括霍金和企业家埃隆·马斯克在内的几位与人工智能相关的科学家、企业家和投资者联合发出公开信,警告人们要更加关注人工智能的安全性和社会效益。
未来生命研究所(FLI)的公开信附有一篇论文,建议优先研究“强大而有益的”人工智能。目前,人们越来越担心机器的智能和能力可能超过创造机器的人类,从而影响人类的就业,甚至人类的长期生存。
公开信说:“由于人工智能的巨大潜力,研究如何在获得好处的同时避免潜在的陷阱是非常重要的。我们的人工智能系统必须按照我们的意愿运行。”
据报道,FLI是在2014年由包括Skype联合创始人贾恩·塔林在内的志愿者创建的。建立研究所的目的一方面是为了促进“对未来的乐观展望”的研究,另一方面是为了“减少人类面临的现有风险”。其中,发展相当于人类的人工智能技术所带来的风险将是这一关注的焦点。
SpaceX和特斯拉的联合创始人马斯克,著名演员摩根·弗里曼和宇宙学家斯蒂芬霍金都是FLI科学咨询委员会的成员。马斯克说,他认为不受控制的人工智能“可能比核武器更危险”
FLI公开信的其他签署者包括弗兰克·维尔泽克机器智能研究所执行主任、麻省理工学院物理学教授、诺贝尔奖获得者卢克·穆尔豪塞尔。人工智能公司DeepMind和Vicarious的幕后董事,以及谷歌、IBM和微软的几名员工。
这封信的目的不是为了推销恐惧。相反,它谨慎地强调了人工智能的积极和消极两个方面。
信中写道:“人们普遍认为,人工智能研究正在稳步发展,其对社会的影响可能会逐渐增加。”。人类文明所能提供的一切都是人类智慧的结晶。在这种智慧被人工智能可能提供的工具放大后,我们所能做的超出了我们的想象,但是根除疾病和贫困将不再遥不可及。从这个意义上说,人工智能有很大的潜在好处。"
目前,人工智能研究的一些好处已经成为现实,包括语音识别和图像识别,以及自动驾驶汽车。在硅谷,一些人估计现在有150多家初创企业从事人工智能。
鉴于人工智能正在吸引越来越多的投资,许多企业家、谷歌和其他企业都希望通过制造能够独立思考的计算机获得巨大回报。针对这种情况,FLI警告说,人们也许应该“立即”将更多的注意力集中在人工智能的社会后果上,不仅从计算机科学的角度,而且从经济、法律和信息安全的角度。
上一篇:双排溜冰鞋排行榜前十名