人工智能道德标准
过去多年中,科幻电影的情节常常是人工智能机器毁灭了人类。然而在21世纪前三十年中,我们最大的担心或许是,机器人将抢走我们的工作,或是在高速公路上撞上我们的汽车。有鉴于此,2016年9月,全球最大的5家科技公司开始尝试制定关于人工智能机器人的道德标准。尽管科幻小说喜欢关注人工智能对人类未来命运的威胁,但谷歌母公司Alphabet、亚马逊、Facebook、IBM和微软的研究人员所讨论的是更切实的问题,例如人工智能对就业、交通运输,甚至战争的影响。虽然还不清楚,这一行业组织最终会取得什么样的成果。然而多名消息人士表示,该组织的基本出发点很明确:确保人工智能的研究专注于造福人类,而非不利于人类。
1、“斯坦福报告”
斯坦福大学一个团队在2016年9月1日发布报告,阐述了行业在这方面工作的重要性。这一团队获得了微软研究员埃里克·霍尔维茨(EricHorvitz)的资助。霍尔维茨本人也参与了行业讨论。斯坦福大学的项目名为“人工智能研究一百年”。项目提出了一项计划,在未来一个世纪中,每5年就人工智能对社会的影响制作详细报告。
斯坦福大学的报告试图定义,对于传统北美城市的市民,在面对人工智能计算机和机器人系统时会遇到哪些问题。作者涉及了现代人生活的8个方面,包括医疗健康、教育、娱乐和就业,但并未涉及到战争。他们表示,军用人工智能不在目前的讨论和专业研究范围内。不过未来,人工智能武器或许也会是一个研究领域。
报告也没有讨论某些计算机科学家提出的“人工智能奇点”问题。根据这种理论,在未来的某个时刻,人工智能的智能程度将大幅提升,并可能威胁到人类。
2、人工智能道德委员会?
上述5家科技巨头已制作了一份备忘录,新组织则计划于2016年9月中旬宣布成立。消息人士表示,尚未解决的问题之一是,作为Alphabet的子公司,谷歌DeepMind要求单独参与该组织。
人工智能行业此举模仿了“全球网络倡议”组织。后一组织的成员包括企业和非*组织,专注于隐私保护等问题。
3、监管方式
科技公司常常会夸大人工智能能带来什么。2010年之后,人工智能在许多领域取得了快速发展,无论是无人驾驶汽车、亚马逊Echo等能够理解人类语言的设备,还是新一代的自动武器系统。
科技行业人士最担心的问题之一在于,监管部门是否会介入,围绕人工智能研究制定规则。因此,行业内正在制定自我约束框架。不过目前尚不清楚,这一框架将如何运转。
德州大学奥斯汀分校计算机科学家、斯坦福报告的作者之一皮特·斯顿(PeterStone)表示:“我们并不是说这不需要监管。但我们认为监管分为正确的方式和错误的方式。”
尽管科技公司之间的竞争非常激烈,但对于某些共同面对的问题,科技公司也会联合在一起,争取最大利益。例如20世纪90年代,科技公司同意了电商交易加密的标准方法,从而奠定了互联网商业随后20年发展的基础。
斯坦福报告的作者表示,对人工智能进行监管是不可行的。报告称:“研究小组一直认为,对人工智能进行泛义的监管将带来误导,因为人工智能并没有明确定义。在不同领域,风险和需要考虑的因素有着极大的差别。”
斯顿表示,报告中提出的建议之一在于,各级*部门应当更多地理解人工智能。此外报告也呼吁,*和民间加大对人工智能的投资。
IBM沃森人工智能部门总经理大卫·肯尼(DavidKenny)表示:“*可以在其中扮演角色,而我们对此表示尊重。”不过挑战在于,“在许多情况下,政策落后于技术”。
4、技术发展与社会伦理
LinkedIn创始人雷德·霍夫曼(ReidHoffman)也在支持人工智能的发展。他与麻省理工学院媒体实验室进行讨论,开展项目研究人工智能的社会经济影响。
麻省理工学院的计划和行业组织的成立都是为了将技术发展和社会经济政策更紧密地联系在一起。麻省理工学院的团队正在讨论设计新的人工智能和机器人系统,“将社会考虑在内”。
这再次反映了过去多年科技行业的一项激烈讨论,即计算机和机器人是否仍需要人工干预。例如,美国五角大楼近期提出了一项军事战略,其中要求在使用人工智能的情况下,仍然由人工来做出是否消灭敌方的决策,而不是完全依靠机器。
麻省理工学院媒体实验室主任伊藤穰一表示:“需要指出的关键一点在于,计算机科学家不太善于与社会科学家和哲学家打交道。我们想要做的是向研究政策制定的社会科学家提供支持及帮助。”
上一篇:湖南中茶茶业有限公司
下一篇:新一代人工智能发展规划