欢迎您访问科普小知识本站旨在为大家提供日常生活中常见的科普小知识,以及科普文章!
您现在的位置是:首页  > 历史

人工智能时代,谁能控制赛博空间?

科普小知识2022-07-12 17:13:35
...

人工智能时代,谁能控制赛博空间?

介绍

“人工智能”一词(以下简称人工智能)不仅用于技术层面(工具和对象),而且逐渐在道德和法律主体的意义上进行讨论。人工智能最初是在现有互联网基础设施和商业模式的基础上发展起来的。不太智能的算法在计算和数据处理能力上有所提高。即使是算法本身也可以自主学习、识别、分类并对数据做出决策。适用场景也从单一扩展到多个,最终成为通用人工智能。

不难看出人工智能的概念包含了多种多样的对象,当人们谈论它时,通常会在脑海中想象出不同的(甚至不存在的)实体。如果讨论的对象不明确,就很难就不同的判断达成一致意见(例如,是否应当给予人工智能以具有适当资格的法律主体地位)。本文延续了对网络法律核心问题的一贯思考视角,将人工智能置于互联网的演进过程(尤其是生产过程)中,观察人工智能对现有网络秩序的影响以及法律如何应对。

这种观点的好处是:

首先,人工智能依赖于不同的场景和商业模式,可以在当前的立法体系下针对特定的模式进行讨论,以避免在同一标签下讨论不同层次的问题。

第二,它可以反映人工智能的生产维度,看到人工智能使用背后的生产关系和政治经济效益,而这往往被经验法则所忽略。

最后,可以将现有的网络法律问题置于一个更加自动化和智能化的环境中,并且可以考虑在中国背景下构成一个独特和持续的理论和实践问题。

以互联网为媒介的数字资本主义的焦点是价值生产。不难发现,人工智能时代是由算法驱动的社会生产过程向更自动化发展的阶段,也是继云计算和大数据之后互联网进一步发展的阶段。这一阶段的显著特点是算法的智能化发展和广泛应用。如果说前两个阶段的主题对于普通人来说过于技术性,那么人工智能阶段则更具戏剧性:伴随着神奇的竞争故事、大众媒体的大肆宣传以及耸人听闻的警告和担忧。

科技公司担心,人工智能被视为未来人类的竞争对手和统治者的说法,将促使*加强监管,导致这一领域的研发和投资减少。然而,事实上,人们很快就发现媒体、好莱坞电影和电视剧以及科幻小说中的人工智能不会在短时间内实现。世界主要国家的*和所有大型互联网公司都在鼓励人工智能的研究和开发,并将其视为未来国家和企业之间竞争的真正力量。

离奇谷理论已经指出,除非人形机器人经过精心设计,以免给人类用户造成“相似”的反感,否则它们可能不会在消费市场上流行,即使在机器人文化盛行的日本也是如此。相反,人工智能在现实中可以依靠互联网服务做很多事情,并且越来越深入地融入普通人的生活。它不局限于提高某些特殊技能的智力水平,而是通过数据分析和准确预测带来真正的经济效益。

作者曾经区分了人工智能的双重属性及其规律:积极性(规范性)和生产力。前者是指由人工智能引起的权利和责任的分配为黑箱,如无人驾驶汽车事故由谁来承担责任,而这些新兴规则的产生遵循了现有网络法律规则的创造模式。后者指的是人工智能作为一种生产要素在新经济中是如何被监管和限制的。生产的维度很重要,因为它延续了传统政治经济学对经济*、歧视、平等和劳动过程等关键问题的讨论。法律问题只是这些重大问题的具体缩影。

如果人工智能只是传统生产组织用来提高生产效率的工具,它不会带来新的问题。然而,只要人工智能生产依赖于互联网并遵循网络生产模式,它就会延续一些不同于传统经济的问题,特别是劳动组织和劳动关系。

事实上,人工智能的特殊性是互联网整体问题的映射。这在法律意义上不一定是一个独特的问题(任何新事物都可以通过法律解释活动在现有的概念体系中得到解释),但它需要作为一种新型的权力和利益相关者出现,以争夺现实的合法性。

就生产而言,新经济表现出两种类型:在线信息生产,用于吸引大规模用户并将其视为*劳动力;以及算法驱动的供求匹配,反映在信息经济中,它驱动更广泛的经济活动并更准确地匹配供求。同样,人工智能阶段的生产是指:

(1)人工智能正在取代越来越多的人类在线行为和劳动,以极低的成本生成信息内容,吸引更多的用户;

(2)利用人工智能驱动线下资源生产更加准确,减少信息不对称,塑造价值再生产过程,从交易双方获得最大剩余价值。

网络法律的核心问题在于互联网是如何被控制和产生的,它的微观机制和宏观框架是什么,以及谁能控制网络空间。在生产和控制过程中,形成了两组主要的关系:一组是平台企业与用户之间的关系,另一组是平台企业之间的竞争关系,所有这些都可以在同一个生产网络法律框架下讨论。

这些关系是辩证的。一方面,它们共同反映了新经济需要什么样的法律;另一方面,它们是不断进化的,是企业、用户和竞争对手在不断博弈过程中形成的秩序。本文认为人工智能正日益成为智能建筑的核心组成部分。任何关于人工智能的法律安排(无论是法律主体还是法律客体)都需要在上述互动关系中得到观察和理解,而不能由法律拟制来先验地确定。

本文的结构如下:

第二部分首先在现有网络法律的框架理论下解释人工智能,认为人工智能是整个智能生态系统不可或缺的一部分,有必要与其他互联网层面系统地讨论人工智能,而不是作为一个独立的对象(这是任何法律主体讨论的思想来源)。

第三部分讨论人工智能如何促进网络法律的上述两个核心关系,即智能和自动化将进一步改变用户和服务提供商之间的生产关系,同时可能加剧不公平竞争,要求法律做出回应并划定明确的框架边界。

在讨论服务提供商和用户之间的关系时,人工智能作为法律主体的问题似乎得到了强调。在此过程中,用户在框架中的控制能力和活动空间并没有显著增加,人工智能企业进一步增强了他们的控制能力。

第四部分继续从建筑的角度探讨如何通过合同和监督将人工智能信息披露作为一个黑箱来处理。

建筑理论中的人工智能

“建筑”理论或称代码理论是由劳伦斯·莱斯格在他的著作《网络空间中的代码和其他法律》中提出的,并在随后的研究中不断扩展。该框架有助于我们理解网络空间的权力是如何产生和扩展的,并解释一系列网络法律问题,这些问题可以从横向和纵向两个维度进行讨论。

在横向维度上,建筑体现在不同场景和功能的设计中,影响建筑内部的主要行为,可以通过一些基本方式进行融合或分解。就垂直维度而言,该体系结构包括从硬件层、内容层到数据存储层的许多层(参见图1):

横向和纵向架构显示了网络空间控制/生产的范围,其中人工智能是一个关键环节。从建筑的角度来看,不难发现人们对人工智能的不同想象取决于他们对建筑元素不同组合的理解和认知:

尽管公众愿意把人工智能看作是一个有身体的“机器人”,但目前相当多的人工智能应用依赖于现有的互联网服务,并且有硬件和软件垂直集成的趋势。

根据主流的互联网商业模式,人工智能可以分解为“算法+第三方应用(场景)+硬件终端”。各种场景由多种算法控制,形成生产和交易流程,这些流程由具有强大计算能力的云服务器远程控制。在中间层,第三方应用程序开发人员形成一个交易平台,允许用户通过终端交互使用。终端只是连接线上和连接线外的接口。最初它们是智能手机,但它们也可以发展成任何硬件,包括智能扬声器和无人驾驶汽车。其商业目的是根据共享的经济思想,加强人机交互,促进大规模交易和合作。

该框架中的人工智能通过账户认证用户,分析和识别账户中累积的用户行为数据,生成动态身份,并为他们的行为给出评分准则,以预测他们的偏好和未来行为。从这个意义上说,人工智能不仅仅是一个“大脑”或最终产品,而是一整套生产过程,甚至是架构本身。

根据这一思想,位于不同层次的人工智能网络空间体系结构也可以根据不同的功能进行区分:

第一类是C2C模式平台本身,它通过大量的数据分析准确地分配资源和设计场景。

第二类是B2C模式,直接向用户提供在线服务;

第三类是用户的智能代理。代理用户参与平台上的交易,但可能与第一类角色冲突;

第四类是用户购买的终端智能产品。

这四者之间的关系在一定程度上反映了过去十年左右互联网架构和权力关系的重大变化。互联网早期发展的智能、创新和控制集中在无处不在的终端上。通过创新的个人电脑、端到端分布式架构和公众共享的文化,我们创造了熟悉的互联网生态。

然而,随着云计算的兴起,越来越多的服务以信息流的形式在线提供。与此同时,应用程序存储模式使得终端越来越哑(尽管芯片处理能力不断增加)。用户在架构中的行为能力越来越受到限制,所有指令都来自智能云。

理解这一点将有助于我们理解未来可能出现的各种人工智能终端产品。从表面上看,他们受用户购买的控制,但他们不能独立运作。它们需要连接到服务提供商的*服务器,并随时更新。他们甚至可以在一个封闭的网络中相互通信和传输数据(智能物联网),让用户成为最终租户,而不是遵循许可协议的买家。

此外,一类人工智能还可能通过特定的方法(如牌照)成为寡头垄断的基础设施服务,为更多的中小开发商提供计算能力和数据分析服务,并以变相的形式促进一个以巨人为主导的生态系统的形成。如果将水平和垂直视角结合起来,我们可以看到智能建筑中上述四种人工智能的状态及其对社会主体行为的影响(见图2)。

人工智能作为整个框架演化的引擎,从外部扩展框架的边界,从内部塑造生产关系和活动。它与平台规则、评分机制和用户协议一起形成框架力量。完美的控制/生产系统是文本规则与代码规则一致。外部用户协议和平台规范可以准确描述不断变化的算法功能,但这在实践中难以实现,这将在后面进一步讨论。

在这种智能架构中,包含了高度流动和不确定的元素以及稳定的元素。

例如,框架中收集的生产性资源是不断流动和多重归属的,但框架通过帐户认证和识别来跟踪用户,并根据他们的数字肖像来加强预测和降低风险。体系结构的硬件级别的质量应得到保证,以满足质量和安全标准,但其软件功能需要不断更新和升级,需要用户容忍和合作。

在这样的辩证法中,人工智能经济可以不断上升和发展,使得人工智能企业与用户和竞争对手之间的关系越来越复杂。

人工智能和我们;

从游乐场/购物中心到工厂

上面已经解释了如何实现常识可以想象和理解的人工智能服务。这意味着人工智能产品很可能进一步脱离最终用户的控制,人工智能企业将继续保持强大的控制。在这种背景下,谈论独立的人工智能法律人格可能具有完全不同的政治和经济含义。

本节将这一主题放在人工智能与我们(作为生产者和销售者,消费者)之间的关系中,指出消费者和数字工作者都需要认真对待更智能的数字架构,这将进一步推动互联网带来的控制/生产过程。

关于机器正在取代人类工作的讨论方兴未艾。首先在互联网上反映出,算法主要用于直接生成或帮助人类制作可消费的内容。后来,它被扩展到更多的元场景。可能的模式包括B2C和C2C。

一方面,它无疑影响到那些难以迅速适应新技术变化的传统职业;另一方面,它对消费者来说更方便,同时,它把更多熟悉数字环境的消费者变成了能够创造价值的灵活劳动者。

以下是人工智能生产情景演变的简要概述(即上文第二类和第四类):

人工智能可以快速、良好地完成新闻报道、法律服务、音乐编辑、文学创作和广告等主要信息编辑工作,为用户提供接近于零的边际成本,降低人工成本。这更多是自动生成结构化数据的结果。只要输入数据是结构化的,就可以根据模板生成所需的信息产品。

机器人推手、僵尸风扇、刷账单、个人信息编码等灰/黑色产品的生产主要由人工智能实现。

虚拟互动或虚拟图像的创建可以吸引更多用户参与使用,例如直播平台和微博上的粉丝,或者网络游戏和聊天机器人的虚拟对手。

基于已故用户的数据,开发虚拟肖像对话服务,模拟用户一生的行为和思想,实现“永生”。

在软件智能的基础上,计算机和智能终端稍加改进和扩展,形成各种新型终端,即能思考的原型机器人。

对于用户来说,智能服务是一个合同问题。如果监管机构接受一个虚拟环境,其中有大量人工智能拟人化产品,他们将要求企业在用户协议中披露此类信息,并提供验证真实性的方法,以防止用户被欺诈误解。机器生产的意义在于,它不仅反映了网络空间价值产生的劳动本质,还反映了用户在网络空间生产中的短暂地位,甚至反映了机器生产与人类劳动之间的连续性。

随着人工成本的增加和竞争的加剧,我们很可能会看到更多人工智能创造的网络信息和文化作品(甚至是原始作品),未来将会出现一个以机器生产为主导的虚拟世界。

如果这一过程逐渐实现,一些互联网平台可能会从C2C第三方平台模式转换到B2C专有模式,如果前者的成本远远高于后者的话。当然,这将部分缓解地区监管的压力(没有必要为不良内容寻找负责任的人),并将被企业统一算法的监管所取代。然而,就目前的法律实践而言,法院和监管机构都倾向于识别互联网上的外部行为或结果并确定责任分担,而不是探究黑箱的内部(详见第五部分)。

人工智能不需要作为一个法律主体来规范,它只是互联网企业生产过程中的一个工具。即使搜索引擎公司强调他们的搜索推荐或竞争排名推广信息是“自动生成的”,人们也从来不认为纯机器算法应该承担责任。独立法律主体的言论只是为*使用公开的网络信息和减轻审查责任提供理由(这种言论仍然值得关注)。

如果越来越多的网络内容不仅被人工智能自动筛选,甚至被组合和排序以形成新的作品,它将涉及当前搜索结果的排序顺序之间的区别,并且机器涉及的越深,形式上的区别就变得越不重要。

作为一个直接生产者,人工智能无疑将极大地增加网络上公共资源的供给,避免人类生产者动力不足的公地悲剧。然而,与此同时,人类的生产过程承载着交流与合作的功能,并建立起同伴之间的关系和纽带,而不是简单地表现为纯粹的劳动和价值交换。

人工智能产品的增加可能会逐渐降低此类活动的文化和社会意义,使经济成为最重要的措施,同时意味着该平台对公共资源库拥有更多控制权。以下是基于网络经济的人工智能法人主张的详细讨论。

从生产的角度来看,人工智能的法律人格和地位主张只是传统媒体对消费者人格的商业利用的延续。网络空间在宏观框架内不断将用户的个性(如隐私)转化为可持续的数据财产,并通过微观用户协议“知情同意”实现这一商业化过程。

但有趣的是,人工智能产品(作为框架的延伸)最终会积累(或要求创造)自己的独立人格。从表面上看,他们似乎能够与用户保持一定的平等地位,或者接受特殊的法律保护。然而,它们更多地反映了它们背后的人工智能企业的产权,这些企业始终处于企业的远程控制之下。用户并没有真正脱离框架力量的影响。

人工智能法人资格的人为命题从一个方面来说并不复杂,甚至是从系统设计来看:互联网企业拥抱基于人工智能的平台架构,开发更贴近用户日常生活、能够自主思考和决策的智能终端/机器人,要求他们承担一些独立和有限的责任,并正式与人工智能企业脱钩。这种思维与当前的平台责任讨论一脉相承,甚至可以被视为“非法崛起”进程中的最新命题。

本文无法系统地想象人工智能产品成为法律主体的可能的系统设计。从已经举行的讨论来看,它至少包括以下重要方面:

该算法自动生成的内容享有版权,可以积累个人财产。这将通过攫取和创造活动进一步私有化属于公共领域的在线内容,同时不允许竞争对手侵犯它。与此同时,人工智能公司将不对任何侵权内容负责,但他们可以间接从人工智能的再创造中获利,以吸引消费者。

享有一定程度的言论*。这无疑将降低对人工智能企业商业言论的监管要求,减少平台审查责任,并受到相关法律(如美国宪法第一修正案)的保护。

购买服务的用户实际上并不拥有虚拟映像,虚拟映像在形式上是独立的,但由人工智能企业算法控制。

最终产品中软件缺陷的容忍度。与软件拆包合同类似,人工智能产品需要实时在线反馈使用数据,以确保功能的稳定更新,并不断增强企业的远程控制。

如果智能产品含有硬件,则可以根据消费者的法律要求承担产品质量责任。

有限侵权责任。人工智能公司为特定情况下因人工智能故障导致的侵权责任购买保险,尤其是针对高风险、低概率的极端行为。然而,在人机交互过程中,有时很难区分责任边界和获取证据。

“不要伤害机器人”,智能终端不能随意破解和拆分,因为它代表人工智能企业的知识产权,用户不能将人工智能设计为代理,未经许可就进入平台服务器进行通信和数据交换。

在人机交互中,用户有权使用用户数据。默认情况下,跟踪用户以形成因人而异的人工智能。

不公平竞争不得阻碍对可能的广告和其他商业模式的容忍。

以上列表是已经发生的各种互联网案例/事件的延续。它本身没有更多的特殊性,但它只强调人工智能的“自主性”和“不可控性”,引发人们对“*意志”的想象。在相关法律颁布之前,人工智能企业的诉求已经在实践中成型(请与“快播案”比较):

首先,它可以通过用户协议来显示,以避免在知情同意的俗称下的操作风险。

第二,以无法控制的行为为由提倡“网络中立”或“技术中立”是可能的,要求用户对自己的行为负责。

最后,我们可以声称减少了可能的信息安全保障义务,理由是算法的黑盒深度学习过程无法追溯。

如果用户购买一个完全自主的智能产品,它将大大提高用户的终端能力和选择,并能真正脱离人工智能企业。然而,当前的信息安全审查系统和互联网商业模式都不允许这种情况发生。

此外,人格化导致在人类生产过程中合法引入超级竞争者,这可能很快取代更简单的工作,创造更多的初级消费品。

再次,拟人化也意味着人们被期望忽视人工智能公司背后的经济利益和控制力。重要的不是“最后一公里”产品本身是否足够聪明以至于在法律形式上更加独立,而是从云到终端的整个过程代表了生产力关系。有必要思考如何在未来通过法律来调整这种关系,使之更加公平,否则纯法律技术和虚构的研究在实质性问题上不会有太大的改进。

人工智能带给我们的不仅仅是游乐园或购物中心,还有无偿工作的工厂。想象我们与人工智能关系的另一种方式是数字劳动。如前所述,由于互联网崛起的商业化逻辑并没有改变,在相当长的一段时间内,持续碎片化的人类劳动将继续成为人工智能进化(无论是第一阶段还是第二阶段)的*生产手段。人工智能是通过大量的真实数据来训练的,并且不断地收集和跟踪用户数据,变得更加智能。

松散的劳动关系是互联网成功的关键因素之一。目前,一系列案例已经证实,网络主播和汽车司机等灵活劳动力不是平台员工,因此不能享受社会保障和加入工会等劳动权利。获得低成本的无报酬劳动将继续是人工智能企业扩张的动力。

人工智能如何竞争(不正当)

除了直接生产信息内容之外,人工智能更多地用于资源的平台经济分配、营销建议、内容分发,甚至是对未来的预测(上文第一类)。本质上,这种预测是根据不断产生的动态数据来跟踪个人,并更准确地计算和判断每一次网络点击和活动将触发什么样的连锁反应。

从生产资料的角度来看,这种类型的经济在几年前被称为“共享经济”,因为该平台试图创造一个生态系统,为中小型生产者和消费者提供交易中介服务。然而,由于该平台广泛收集交易数据并匹配交易,从而获得广告收入,甚至交易共享,因此它已深入参与交易过程。从这个意义上说,称之为“平台经济”更为准确。随着人工智能的日益成熟,平台与双方的交易更像是一个嵌入的合作过程,甚至拥有了一些强大的力量。

为了建立一个互联网门户,该平台将尽可能将生产资源整合到自身的生态系统中,并采取补贴等活动吸引交易双方并提供良好的服务,进一步展示了该平台的非中性特征。与其他平台竞争对手相比,特定的平台是非中立的,但对于平台上流动的资源和交易来说,中立和公正是保证良好生态运行的核心。从这个意义上说,未来的公共资源池将变得更加封闭,由核心算法进一步控制,而生产力而不是公共性将进一步加强。

类似于由众多互联网导致的传统产业的衰落(本质上是生产方式的改变),人工智能时代进一步将战争引向更多的服务产业,如交通、法律、医疗和教育。尽管不断有人抱怨互联网平台存在不公平竞争,但该法律实际上反映了新经济的利益,并根据新经济的需要而变化。在人工智能主导的平台时代,平台之间的不公平竞争可能具有以下新特征:

在竞争对手的控制下,通过机器人爬行器持续抓取数据和信息可能会变得更加猖獗。尽管法院在最近的新浪微博诉莫莫(2016)案中确认了这种行为的不当性,但最终需要的是通过技术保护措施进行严格的自我保护,而不是像机器人协议这样灵活的行业规范。

同时,价格比较插件的不正当竞争案件反映了法院对平台利益的过度保护,忽视了插件软件的公益性,失去了平台价格监管的可行选择。竞争对手和其他交易实体将利用网络推动者来制造虚假数据,造成数据污染,这反过来又会干扰对平台的准确分析。如果该平台不能识别和抑制此类虚假交易,将遭受巨大损失。网络上的大量机器人不断破解各种在线账户(如博客),并自动发布不相关的垃圾内容,这占用了大量网络流量,也是不当行为的一种变体。

人工智能时代的任何插件、应用程序、软件甚至硬件都可能受到自动化和数据的驱动,这可能导致上游架构企业凭借硬件优势对下游企业强加强制性要求,目的是通过统一的人工智能(通常通过向用户推荐或投放有针对性的广告)来动员特定的应用。这意味着上游企业拥有更强大的控制力,甚至拒绝其他应用程序,走向纵向一体化的自我封闭。

算法竞争的本质仍然是资源竞争和架构边界的划分。“魏则西事件”反映出人工智能公司(如搜索引擎)有抢占资源的竞争策略(从一般搜索转向垂直搜索),并且在开发精确算法方面懒惰。商业模式和新门户的创建不断颠覆相关市场,更不需要精确的算法来推高利润。这一现象表明,算法可能不会因为纯粹的市场竞争而得到改进,人工智能公司仍将依靠更方便的广告、竞争排名和不公平竞争来获取利润。

上述特征表明,人工智能时代的不公平竞争可能围绕生产资源和数据的竞争进一步加剧,成为“非法崛起”逻辑延续的又一例证。这种竞争是由人工智能内部驱动的,表现为建筑之间的碰撞、排斥和冲突,导致一个更加封闭的垂直平台或生态系统,不利于促进基于生产资料创造性再利用的创新。

缺乏有价值的生产手段的新兴人工智能公司更有可能使用自动化手段以不公平的竞争方式在网络空间扩张。有趣的是,这种扩展通常是在用户代理或技术中立的旗帜下进行的,例如帮助用户“一键移动”以创建内容、阻止广告或促进盗版作品的传播。这引发了更深刻的法律问题:

(1)为了更有效地利用生产资料,有必要探索合作共享机制,而不是封闭机制。然而,共享和封闭通常都是由人工智能企业以一种冲突的方式不断探索框架的边界造成的。法院应当根据资源的有效利用程度来考虑和认定是否属于不正当竞争。

(2)已成为底层基础设施的一类人工智能企业应与顶层二类人工智能企业在竞争关系上有所区别,以防止底层企业过度整合、滥用优势地位,影响顶层企业的自主经营;

(3)更重要的是,要关注框架内用户的真实控制能力,允许用户自行开发或使用三级智能代理,掌握个人数据,独立进行合作交易。

建筑视角下的人工智能监管

前两部分都隐含着人工智能企业和产品在进化过程中所面临的质疑和挑战:对消费者来说,必须保证公平交易,防止过度剥夺消费者剩余和隐性歧视;对于工人来说,他们需要灵活就业环境中的社会保障。对于竞争对手来说,有必要划定一个平衡创新和秩序的框架边界。这些挑战可以通过合作协议来实现,也可以通过外部监管干预来推动。

我们已经看到,知情同意原则在人工智能企业的实践中被广泛用于确立合法性,但它仍需要在黑箱的背景下进一步讨论,即,在黑箱架构的技术秘密/复杂性和特定信息的披露之间保持动态平衡,同时使算法能够有效地承担其外部活动的责任。

传统的监督思想限制了黑箱外部行为的负外部性,这是以往“技术中立”的思想根源。如果负外部性有更大的影响,它会认为软件程序的设计有实质性的侵权目的,但它基本上不干预黑箱。这种司法选择是合理的,主要是因为法院或监督者缺乏相关知识,甚至专业监督者也不能理解复杂代码的设计,而只能根据它们所显示的模式进行判断。

然而,这并不意味着黑盒的设计不受限制。当代码设计与商业模式和用户协议结合得更紧密时,即使法院不能审查代码,它仍然可以审查商业模式的合法性和用户协议的有效性。

在某些情况下(特别是在安全领域),除了直接调节人工智能产生的外部行为,它还会试图控制算法本身,包括算法设计过程的伦理规则、安全审查标准、代码的归档系统等。软件产品的一般缺陷可以或多或少地被拆包合同所掩盖,但是仍然有必要讨论已经出现并足以影响人工智能发展的几种规则和现象:

(1)人工智能分类,判断人机交互和责任分担的程度。现有的无人驾驶汽车分类体系为人工智能产品监管提供了风险较大的指导,即在设计不同层次的人工智能服务的过程中,明确了不同场景下用户与智能服务之间的主次关系,并提供了相应的激励措施。然而,在实践中可能仍有不明确的责任,这要求合理分配举证责任。

(2)在判断软件侵权时,判断算法设计的初衷和使用的性质,以决定是否完全禁止该软件,如法院对P2P软件是否构成“实质性非侵权使用”的判决。这种判断并没有深入到软件中,但它仍然将软件开发者和使用软件的行为分开,这比简单而模糊的“技术中立”主张更具分析性和可操作性。对于关键算法,开发人员可以施加一定的基本功能描述义务,向管理者和用户进行充分合理的解释,并以自然语言描述其功能和可能的风险。

(3)信息披露和共享。由于软件缺陷造成的严重后果,公开代码信息缺陷在一定程度上有助于填补漏洞,平衡黑盒的不透明性,促使企业更自觉地加大对自身产品的安全检查。允许“白帽黑客”等第三方组织进行公开有利也有弊,而在一定范围内(包括企业之间、*与企业之间)共享代码信息是通过信息流通发现算法缺陷的另一种方式。

(4)监理合同。尽管不可能深入到人工智能中去,但主管可能会要求用户协议尽可能多地反映算法的功能和业务模型,并在之后对合同进行正式审查。如果合同的预期效果与所展示的功能不一致或违反公共秩序和良好习惯,法院可进行实质性审查,更改或撤销所涉及的条款,并间接影响人工智能的设计和外部效果,如自动广告推送系统的设计。问题是,法院有时严格按照合同法的规定进行正式审查,但未能进行实质性审查,使得一些用户无法获得救济。

(5)数据的清洁度。在许多情况下,法律无意干涉黑匣子的运作。它只是想限制和清洗黑盒加工的生产资料,以取代黑盒设计本身的规定。这一想法不同于监管机构的先前监管。例如,为了防止人工智能侵犯个人隐私,法律将要求对收集的个人数据不敏感,这样就不能追踪个人。

有必要看到披露的信息越多越好。在披露信息时,要考虑信息的消化能力和认知偏差,以及人工智能企业的产权和用户自主的合理使用和操作空间,以促进互联网的多元化创新。

结束语

本文从体系结构的角度简要讨论了人工智能,以及如何理解它与用户和竞争对手的关系,从而帮助我们更好地理解控制/生产机制这一网络法律的核心问题。至少在中国语境中,这两组关系在不断重塑框架边界,尤其是人工智能企业的扩张所导致的生产关系和法律关系的诸多调整,这意味着这些关系需要法律进一步确认而不是固定,也显示了信息时代经济基础对上层建筑的巨大影响。

信息技术有望成为一种“解放”的技术,但从早期互联网到人工智能的发展过程表明,这种解放只是为了从传统组织中释放生产资源和劳动力,赋予高流动性,组织新的生产活动,同时伴随着更强大、更分散的权力和社会控制。这让我们回到框架理论的最初问题:我们如何在网络空间的微观机制和宏观框架中争取更多的*和控制?