欧洲将严格监管人工智能技术
最近,欧盟委员会宣布了严格监管人工智能的计划。据《科学》杂志报道,该委员会将起草新的法律——包括禁止人类无法解释的“黑盒”人工智能系统——以控制该技术的高风险应用,如医疗设备和自动驾驶汽车。
在宣布该计划的新闻发布会上,欧盟委员会主席乌尔苏拉·冯·德·莱恩表示,尽管该法规将比以往任何欧盟法规更广泛、更严格,但其目标是促进信任,而不是恐惧。该计划还包括更新欧盟2018年人工智能战略的措施,并在未来10年投入数十亿欧元用于研发。这不是最终决定。专家、游说团体和公众可以在未来12周内,即在具体法律的起草工作正式开始之前,就该计划发表意见。
与美国相比,欧洲对人工智能更为谨慎。欧盟官员希望通过监管赢得消费者的信任,从而帮助欧洲竞争并促进人工智能的更广泛应用。
欧洲委员会人工智能独立咨询小组成员、欧洲政策研究中心人工智能政策研究员安德烈·伦达(Andrea Renda)表示:“欧盟正试图在其擅长的领域发挥主导作用。这是一个非常坚实和全面的监管框架。”
该委员会希望为人工智能在医疗、交通或刑事司法等领域的“高风险”应用制定具有约束力的规则。确定风险的标准将包括以下考虑因素:例如,某人是否会受伤——被自动驾驶汽车或医疗设备伤害;或者一个人是否对机器决策的影响几乎没有发言权,比如当人工智能被用于招聘或执法时。
欧盟委员会也希望通过人工监管来防止不可预测的人工智能“黑箱”。这些规则还将用于管理用于培训人工智能系统的大型数据集,以确保这些数据集是合法获得的、可追踪的和足够广泛的。
该法律将决定谁对人工智能系统的行为负责——使用或设计人工智能系统的公司,高风险应用在部署到欧盟之前必须遵守这些规则。
此外,欧盟委员会计划提供“可信人工智能”认证,这将鼓励低风险使用中的自愿遵守,而认证系统,后来被发现违反了条例,可能面临罚款。
欧盟委员会还将“在欧洲发起一场关于面部识别系统的广泛辩论”。这是人工智能的一种形式,它可以在未经同意的情况下识别人群中的个体。尽管德国等欧盟国家宣布了部署该系统的计划,但官员们表示,这些系统经常违反欧盟隐私法。
该委员会还将制定一项“行动计划”,将人工智能纳入交通和医疗等公共服务,并更新其2018年人工智能发展战略,该战略已投入15亿欧元用于研究。欧盟委员会呼吁进行更多的研究和开发,包括人工智能“卓越和测试中心”,以及一个可能投资数十亿欧元的新的人工智能行业伙伴关系。此外,欧洲委员会还概述了一项促进数据共享的战略,部分是为了支持人工智能的发展。