《人工智能北京共识》发布15条原则规范AI
5月25日,北京致远人工智能研究所与北京大学、清华大学、中国科学院自动化研究所、中国科学院计算技术研究所、新一代人工智能产业技术创新战略联盟等高校、研究所和产业联盟共同发布了《北京人工智能共识》。与此同时,北京致远人工智能研究所人工智能伦理与安全研究中心落成。
北京市科委主任徐强和海淀区副区长黎俊杰主持了开幕式。
来自大学、研究所和企业的代表共同签署了《人工智能北京共识》
北京致远人工智能研究所所长黄铁军表示,《北京人工智能共识》从人工智能研发、使用和治理三个方面提出了15项原则,所有参与者都应遵循,以利于人类命运共同体的建设和社会发展。
北京致远人工智能研究所所长黄铁军发表《北京人工智能共识》
其中,在研发方面,《北京人工智能共识》倡导促进社会和生态福祉,服从人类的整体利益,体现设计的伦理性,体现多样性和包容性,让尽可能多的人受益,对潜在的伦理风险和隐患负责,提高技术水平,控制各种风险,最大限度地分享人工智能发展的成果。
在使用方面,建议善加利用,谨慎使用,避免误用和滥用,最大限度地发挥人工智能技术的优势,最大限度地降低风险。利益相关者应充分了解并同意对其权利和利益的影响,并能通过教育和培训适应人工智能发展带来的影响。
在治理方面,我们应该对人工智能部分替代人类工作保持包容和谨慎的态度,鼓励探索能够充分发挥人类优势和特点的新工作,开展广泛的国际合作,分享人工智能治理经验。人工智能的标准和管理措施应该是适应性的和适当的,并且应该进行长期的战略设计,以确保人工智能在未来总是朝着有利于社会的方向发展。
北京市科委主任徐强表示,人工智能的伦理和规范是智能社会未来发展的重要基石,已引起相关国际组织、*、学术界和企业界的广泛关注。欧盟、英国和日本等国际组织和国家都发布了人工智能的道德准则。
据报道,《人工智能北京共识》以“为人民服务”为核心,以中国哲学文化中“和谐最佳共生”的特色理念为指导思想,寻求跨行业、跨部门、跨区域的全球合作。它还强调促进人工智能相关标准的“落地”,为未来创造“负责任和有益的”人工智能。这一共识的发布为规范和引导人工智能的健康发展提供了“北京计划”,对实现人工智能的“自律”、“善治”和“秩序”具有重要意义。
曾毅介绍了人工智能伦理与安全研究中心的情况
为了减少人工智能发展中可能存在的技术风险和伦理隐患,北京致远人工智能研究所成立了人工智能伦理与安全研究中心,中国科学院自动化研究所曾毅研究员担任该研究中心主任。
曾毅表示,该研究中心将在人工智能伦理与安全的理论探索、算法模型、系统平台和工业应用等方面开展一系列研究。
目前,研究中心将主要开展四个方面的研究。首先,构建低风险机器学习模型和平台,建立机器学习模型安全评估体系,并结合具体领域进行验证。二是开展符合人类伦理道德的智能自主学习模型研究,实现人工智能行为和人类价值观的校准,并在模拟环境和真实场景中进行验证。三是建立数据安全示范应用系统,建立数据基础设施、数据分类、权限控制和数据审计,最大限度防止数据泄露,降低风险,探索允许用户撤销个人数据授权的机制和计算平台。四是构建人工智能风险安全综合沙箱平台和自动检测平台,针对数据和算法的安全性、公平性、可追溯性、风险类型、影响程度和影响范围,对人工智能产品和应用进行全面的风险安全检测和评估,引导行业健康发展。
出席会议的专家,如曾毅,说人工智能涵盖了非常广泛的范围。它不是一个地区、一个城市、一个部门或一个组织能够独立应对人工智能带来的挑战。要充分凝聚科学家、企业家、产业联盟和社会各界的力量,多方参与,共同努力,不断推进人工智能伦理规范学术研究成果的转化和应用,不断加强行业自律。
《北京人工智能共识》倡导北京人工智能领域广泛的创新主题,积极实践并不断完善共识内涵,共同创造良好生态,加快人工智能领域基础研究、核心技术创新和高技术产业发展,使人工智能更好地支持北京高质量发展和创新驱动发展战略的实施,更好地造福全人类。
下一篇:环评机构脱钩方案获原则通过