有了安全边界,人工智能才能有序发展
如果对人工智能的态度分为乐观主义者和担忧者,那么最近去世的著名理论物理学家霍金一定属于后者。近年来,他经常提醒人们人工智能的威胁,并批评其不受控制的发展。
九三学社*科学技术委员会委员张燕也留下了深刻的印象。“人工智能的发展是不可阻挡的,而“安全”尤为重要。”她说,“我们不是危言耸听。我们应该知道,预防的成本远远低于治疗的成本。”
在2018年两会期间,九三学社向第十三届全国政协第一次会议提交了“推进人工智能安全发展”的核心提案,提出要努力构建安全发展战略,将人工智能安全发展提升到与人工智能技术研发、成果应用和市场推广同等重要的地位。
没有障碍,发展可能会失控。
安全是一个宽泛的概念,在九三学社*科委成员王石看来,它指的是“可控性”。他们提出了“五横一纵”的概念:“五横”是指法律、伦理、标准、技术创新和产业应用;“一栏”指的是科普。“安全”应该渗透到这个网格中。
“推荐系统是人工智能的一个重要应用场景。信息应用程序可以无限制地向你推荐你感兴趣的内容,并强化你内在的观点,无论对错。电子商务应用可以诱导你不受限制地“剁手”,即使这超出了你的消费能力。”王士举的例子对公众来说并不陌生。如果算法只满足人们的需求,没有法律或道德的约束和指导,那么最终的结果可能不利于个人或社会的健康发展。
王石也从事人工智能相关的工作。他告诉《每日科学》记者,在开发语音产品时,如果产品要进入美国市场,所有代码都必须符合美国儿童隐私保护法。"这是为了防止智能音箱传播儿童色情等有害内容."然而,在中国,目前还没有相关的硬性规定。
全国人大代表、HKUST迅飞董事长刘庆峰也认为,“人工智能领域顶尖科学家和顶尖企业的价值观对人工智能的未来发展至关重要”。例如,科大迅飞的语音合成技术能够逼真地合成不同人的声音,但迄今为止,他们不敢随便向公众透露这项技术,"只是担心各种欺诈"。
当数据成为一种重要的资源时,如果对掌握数据的人没有明确的限制,人工智能也没有明确的自我学习的界限,张炎担心,“这会让坏人变得更坏吗?”
有了规则,前面的路就平坦了。
去年,国务院公布了《新一代人工智能发展规划》,但没有把安全作为基本原则之一。九三学社*建议制定《人工智能安全发展纲要》,有序制定人工智能安全发展的法律法规和伦理道德标准。采用“*主导、专家主体、公众参与、社会协调”的方式,对人工智能安全发展战略进行了深入研究。根据不同环节和应用场景,明确不同主体的责任、权利和义务,制定相关政策、措施、法规和标准,划定人工智能安全发展的边界。
"人工智能领域的科学研究人员也应该受到道德的教育和约束."张炎说,“在市场的推广和应用中,也要建立安全评估和市场准入机制。”
在法律方面,刘庆峰也从数据的角度给出了自己的建议。他指出,应制定《数据安全保护法》,实施大数据分级安全保护机制,加强各行业大数据安全治理,规范大数据运营企业资质要求。“涉及国计民生的敏感数据必须有严格的安全等级。一旦这些数据被披露,将对人工智能和大数据产业的发展产生巨大的影响和破坏。”
除了伦理和法律之外,九三学社*委员会还在提案中指出,应该加快科学普及。
人工智能的神化会给公众造成不必要的恐慌。它轻视人工智能,使公众不敢相信它。只有做好科学普及和指导,消除误解,人类和人工智能才能和谐相处。
“人工智能是一种利益还是一种灾难,取决于社会法律体系能否迅速完善,以及人工智能伦理和人文导向能否在法律体系框架内到位。”刘庆峰强调。
(北京,3月19日,《科技日报》)
下一篇:心肌梗塞的症状有哪些呢