人工智能是否拥有独立人格?
谁拥有人工智能机器人作品的版权?人工智能在协助办案时能为调查人员做决定吗?人工智能在未来会挑战人类社会的秩序吗?人工智能已经成为国际竞争的新焦点和经济发展的新引擎,但发展的不确定性也带来了新的挑战。人工智能因其自主性和学习能力带来了不同于以往任何科学技术的新的伦理问题,也将对人类社会的各个方面产生重大影响。
上周,2018中国(广州)新一代人工智能发展战略国际研讨会暨峰会论坛在广州举行。人工智能的法律和伦理问题也引起了在场专家的热烈讨论。
人工智能能有合法的“人格”吗?
毫无疑问,人工智能的引入有助于提高工作效率,在司法领域协助办案也开始成为现实。
在论坛上,HKUST迅飞医疗中心副主任陈德平介绍说,HKUST迅飞与上海联合推出的206项目“上海刑事案件智能助理处理系统”与自动阅卷非常相似。通过机器学习该国最高法官的逻辑和标准,该系统被“输入”大量的数据和案例,从而可以像人一样给出案件判决和量刑的标准。经过两年多的探索,该系统于2018年3月在上海正式投入试运行,不仅在上海,而且在山西、安徽和福建也有试运行。
然而,人工智能在司法协助方面能有多大的“权力”?广东省法律学会网络与电子商务法律研究会会长、暨南大学法学院党委书记刘英教授表示,在案件处理过程中引入人工智能分析,有助于检察官捕捉证据、比较因素,也有助于法官根据犯罪嫌疑人的成长经历、犯罪记录甚至所在地区的犯罪率来判断是否有再次犯罪的可能。但这也带来了一个疑问:人工智能协助判断案件是否合法?
他举了一个例子:在美国威斯康星州,一名罪犯申请减刑。陪审团使用人工智能来判断他可能犯了罪,并且根据他的个人成长经历和他成长的社区环境,不同意缓刑。罪犯立即上诉,“这台机器是由一家公司制造的,该公司在设计软件时可能对我这个有色人种有偏见。”法院要求该公司披露算法,但该公司以商业秘密为由拒绝了。
另一方面,“无人售票”正在成为当前的热点。合同是由自动售货系统,包括自动取款机,自动售货机,平台等签订的吗?有效吗?刘英说,答案肯定是有效的,但依据是什么?人工智能机器只是设置机器的人的代表。将于2019年1月1日实施的《电子商务法》明确规定,使用自动取款机、自动售货机和平台等自动化信息系统订立或履行的合同对使用该系统的当事人具有法律效力。
“民事主体有一个发展的过程。在早期,他们仅限于*人,而奴隶被视为对象。然而,随着社会的进步,所有生物意义上的人都成了民事主体。后来,民事主体也包括了法人。那么为什么人工智能在某种程度上不能有“个性”刘英说,如果人工智能具有完全的自主性并能承担责任,法律可能会赋予它法人资格。
人工智能可能引发产权和数据安全方面的争议
刘英认为,一旦法律赋予人工智能以法律人格,它可能会对现行的人格法、刑事责任制度、知识产权、侵权责任或劳动法律制度产生一系列连锁反应。
2017年5月,微软和湛卢文化联合推出了萧冰的原创诗集《失去阳光的玻璃窗户》,这是人类历史上第一部100%由人工智能创作的诗集,由此引发了学者们的讨论:法律是否有可能对人工智能产生的内容授予知识产权?
“现在人工智能不仅能写诗,还能产生新闻、画画和创作音乐。我仔细阅读了微软小冰机器人写的诗集,它仍然很好。它可以通过图像识别来阅读和说话。例如,当它看到沙漠并且沙漠中有太阳时,它可能与“沙漠是孤独的并且直冒烟”联系在一起,并且它可以写一段文字。腾讯研究院法律研究中心副主任兼首席研究员蔡雄山表示,知识产权归属也成了一个难题:我开发了一个软件,写了很多诗。当我出售这个软件时,它也发表了许多诗歌。获得的收入比软件更有价值。这肯定会引起一些财产纠纷。
刘英说,如果人工智能作为一门法律学科是合格的,你愿意为将来在工厂工作的机器人制定一部机器人劳动合同法吗?进一步发展,人工智能应该作为刑事责任的主体承担刑事责任吗?
此外,各大城市纷纷发布路试牌照。无人驾驶汽车事故后,如何确定责任?蔡雄山说,到L4和L5阶段,不仅将实现全自动驾驶,而且汽车将不再有方向盘,人们将无法接管汽车。如果发生事故,谁将承担刑事责任,是汽车制造商还是智能系统制造商?
人工智能也会导致数据安全问题。“在人工智能时代,数据已经变得像石油和天然气一样重要,但人工智能系统需要数据‘喂养’。如何保护个人数据和区分非个人数据?例如,无人驾驶汽车收集的数据,哪些可以交易?广东将建设数据集群应用。如果数据产权不明确,可以集中吗?”蔡雄山说道。
将社会伦理原则嵌入人工智能系统
“在国外,有许多关于人工智能伦理规范的文本,但中国尚未制定。”蔡雄山说,如何使人工智能符合人类社会的各种规范和价值观,并使其效益最大化,是建设包容性人工智能和有益人工智能必须解决的问题。
在这方面,他还提出了自己的一些建议。人工智能伦理应遵循的一些基本原则:第一,*原则,保护*和*,加强隐私保护,防止数据滥用;其次,公平原则保证了算法决策的透明性,保证了人工智能的权益在世界范围内的公平分配,缩小了数字鸿沟。第三是福祉原则、促进可持续发展、避免军备竞赛、处理人工智能对就业的影响等。四是整合伦理原则,将社会伦理原则嵌入人工智能系统,使伦理设计符合人类规范。此外,它还包括安全原则、安全保证和责任。探索人工智能应用的监管体系,确保安全,促进发展。
智者通过别人的错误来改正自己的错误。欧洲议会法律事务委员会也专门研究与机器人和人工智能发展相关的法律问题。早在2016年5月,委员会就提出了两项建议。首先是对机器人实施强制保险机制,这类似于对机动车辆的强制保险。机器人的生产者或所有者负责购买保险,以分担机器人造成损害的责任。第二是建立赔偿基金;这一制度有两个主要目的:第一,赔偿强制保险不包括的损失;第二,允许投资者、生产者、消费者和其他各方参与这一机制,从而形成一个补偿基金。
为了应对人工智能可能导致的数字鸿沟的扩大,韩国数字智商研究所的创始人朴柳贤博士认为,教育应该让孩子成为人工智能时代的主人,因此提出了“商”的概念。她说智商是在前两次工业革命时期提出来的,以满足工厂自动化技术的需要。在工业3.0时代,城市化的浪潮要求人与人融合,于是情商应运而生,而进入工业4.0时代,需要新的商数来帮助孩子通过教育面对新的风险。
“当人工智能进入公众视野时,每个人肯定都会记得阿西莫夫的三大定律。总之,比人类更糟糕的不是人工智能,而是掌握了人工智能的人类。”陈德平说。
延长
全世界都在谈论人工智能伦理
法律讨论
2016年8月,COMEST发布了《机器人伦理初步报告稿》。机器人不仅需要尊重人类社会的伦理规范,还需要在机器人系统中嵌入特定的伦理准备。
英国《机器人与人工智能》呼吁加强人工智能的伦理研究,最大限度地发挥人工智能的优势,并寻求将潜在威胁降至最低的方法。
美国人工智能研究和发展国家战略计划提议对人工智能进行伦理研究,并开发新方法,以实现人工智能与人类社会的法律、伦理和其他规范和价值观的一致性。
电气和电子工程师协会“伦理设计:利用人工智能和自主系统最大限度地提高人类福祉的愿景(第一版)”鼓励优先考虑伦理问题。
2017年的行业Asilomar会议提出了人工智能的23项原则,涉及人工智能的伦理和价值,促进了有益人工智能的发展。它提到人类的规范和道德价值是嵌入在人工智能系统中的。
名词解释
阿西莫夫的三定律
科幻作家阿西莫夫在1942年首次明确提出“机器人三定律”。
第一定律:机器人不得伤害个人,也不得在目睹对个人的危险时袖手旁观。
第二定律:机器人必须服从人类给它们的命令,除非命令与第一定律相冲突;
第三定律:机器人应该在不违反第一和第二定律的情况下尽可能保护自己的生存。