欢迎您访问科普小知识本站旨在为大家提供日常生活中常见的科普小知识,以及科普文章!
您现在的位置是:首页  > 科普文章

探讨:假如AI系统惹了祸 这个锅该由谁来背?

科普小知识2022-10-25 13:44:12
...

随着科学技术的飞速发展,我们不妨想象一下未来的情景:一年或一个月的某一天,一辆自动驾驶汽车在路上撞上了一名行人,并首次将他撞死。那么什么样的法律适用于这种情况呢?

日前,英国布赖顿大学的约翰·金斯顿(John Kingston)对未来智能驾驶汽车发生交通事故时,如何判断人被撞伤和受伤的刑事问题进行了深入研究,并在此基础上给出了结论。他提出了人工智能领域的刑事责任理论,并指出自动化、计算机和法律领域的关键问题需要转变态度,慎重对待。

金斯顿说,他和以色列小野学院的加布里埃尔·哈雷维就这个问题进行了深入的讨论。这场争论的核心是人工智能系统是否能为其行为承担刑事责任。

现行法律可能适用于大赦国际的三种情况

人工智能系统能独自承担刑事责任吗?为了构成刑事责任,通常有必要明确他们的行动和意图。金斯顿说,哈里描述了三个可能涉及人工智能系统的刑事案件。

第一个案例是间接犯罪。犯罪者是有精神缺陷的人或动物。这些肇事者不需要承担法律责任。然而,任何操纵精神病人或动物犯罪的人必须承担相应的刑事责任。

第二种情况是不可抗力和事故,即因人工智能系统使用不当而导致的犯罪。金斯顿以日本一家摩托车厂智能机器人被杀为例,解释道:“机器人将工人误认为危险物体,采取了最有效的方式消除威胁,使用了一个具有无限能量的液压悬臂,将毫无防备的工人推入机器,迅速结束了他的生命,然后继续执行任务。”

第三种情况是既有行为又有故意的直接犯罪。如果人工智能系统的作为或不作为构成犯罪,可以直接证明犯罪事实。金斯顿认为,虽然犯罪故意难以界定,但仍有参考价值。“超速行驶是一种负有严格责任的犯罪,”他说。因此,根据哈雷威的说法,如果一辆自动驾驶汽车超速行驶,就有足够的法律理由追究驾驶该汽车的人工智能技术团队的刑事责任。"

人工智能将如何保护自己?

如果人工智能系统可能被追究刑事责任,它会使用什么样的辩护?

已经被追究刑事责任的人工智能系统将如何辩护?金斯顿列举了几种可能性:人工智能程序能以精神病患者为榜样来证明系统故障吗?还是效仿人类强迫或醉酒犯罪,使用计算机病毒攻击作为防御?

这些防御方法不是理论上的。金斯敦指出,在英国,一些被指控计算机犯罪的人成功地辩称他们的计算机感染了恶意软件,而这些恶意软件是犯罪的罪魁祸首。

在一个案例中,一名被指控实施“拒绝服务攻击”的年轻计算机黑客声称木马程序应对该事件负责,并且在进行初步分析之前,木马程序已从计算机中清除。金斯顿说:“被告的律师成功地说服了陪审团,这不是没有合理的怀疑。”

谁将为人工智能系统犯罪承担责任?

最后,涉及的处罚类型。既然人工智能系统是对犯罪行为负有直接责任的一方,谁应该受到什么样的惩罚?这些问题仍然未知。然而,如果人工智能系统违反了民法,则不应追究其刑事责任。然后问题出现了,人工智能系统属于服务还是产品?

如果是产品,那么产品设计立法将作为适用于这种情况的基本保证。

如果是服务,过失侵权是适用的。在这种情况下,原告通常必须通过三个要素证明过失。金斯顿说,首先,被告有注意义务——通常非常直接,尽管在人工智能的情况下很难评估注意的标准。第二个因素是被告违反了这一义务。第三个因素是,这种违法行为对原告造成了伤害。如果这一切还不清楚,人工智能系统的法律地位可能会随着它们的能力变得更加人性化(甚至是超人)而改变。

当我们在人工智能研究和发展的道路上奔跑时,围绕人工智能建立规章制度就成了当务之急。否则,当某一天真的发生了不可挽回的事情时,后悔就太晚了。