查看原文
其他

徐伟:论生成式人工智能服务提供者的法律地位及其责任 | 法律科学202304

The following article is from 法律科学期刊 Author 徐伟

【副标题】以ChatGPT为例
【作者】徐伟(上海政法学院佘山特聘岗位教授,法学博士)
【来源】北大法宝法学期刊库《法律科学》2023年第4期(文末附本期期刊目录)。因篇幅较长,已略去原文注释。

内容提要:生成式人工智能行为在技术上的特殊性,对侵权责任带来了一系列影响,包括行为主体的复杂化、加害行为的智能化、损害后果的不确定、因果关系的多元化和过错认定的新颖化。生成式人工智能服务提供者并非搜索链接服务提供者,也不宜被认定为网络内容服务提供者,而应是一种新型网络服务提供者。生成式人工智能服务提供者过错的认定需从生成维度的过错和移除维度的过错来分别加以判断。在生成维度,生成式人工智能服务提供者对自动生成的内容原则上不负有事前审查义务;在移除维度,应基于事实层面生成式人工智能服务提供者是否能以合理的成本和较高的准确度来避免侵权内容的再次生成来决定其是否负有移除义务。鉴于技术仍处于快速发展中,生成式人工智能服务提供者侵权责任的判断标准也需基于技术的发展而适时作出调整。

关键词:生成式人工智能服务提供者;ChatGPT;算法;通知移除

目次

前言

一、生成式人工智能行为的特殊性

二、生成式人工智能服务提供者的法律地位

三、生成式人工智能服务提供者侵权责任的认定

四、结语


前言


  ChatGPT是一项引发社会普遍关注的人工智能应用技术。在技术领域,ChatGPT被视为人工智能发展历程中的一项里程碑式的突破,因为较之过往的人工智能应用,ChatGPT首次实现了语言智能的“智慧涌现”。目前ChatGPT已开放应用程序编程接口(Application Programming Interface,API),可预见的是,未来会有大量APP中内嵌ChatGPT,人工智能生成内容(Artificial Intelligence Generated Content,AIGC)全面融入社会生活的时代即将到来,生成式人工智能服务提供者也将成为又一“关键信息基础设施”。尽管生成式人工智能为人类带来了诸多便利,但人工智能生成内容的显著特点之一是“一本正经地胡说八道”。当然,随着人工智能性能的提升和错误率的降低,用户会越来越习惯、依赖和信赖人工智能提供的回答。这意味着,一旦人工智能生成不当内容,其产生的负面后果不可估量,因此,法律上对生成式人工智能加以规范,便成为十分紧迫的事情。目前,国家互联网信息办公室也已发布《生成式人工智能服务管理办法(征求意见稿)》,旨在“促进生成式人工智能技术健康发展和规范应用”。本文拟探讨当人工智能生成内容侵害他人合法权益时,相关侵权责任如何认定的问题。具体而言,生成式人工智能服务提供者是否应为此承担侵权责任?在何种条件下需承担侵权责任?


生成式人工智能行为的特殊性


  对生成式人工智能服务提供者侵权责任的分析,须建立在生成式人工智能行为特点的基础上,故有必要先说明该行为的技术原理及其对法律的影响。


  (一) 特殊性的来源:生成式人工智能的技术原理


  本文所称“生成式人工智能”,是指基于算法、模型、规则等,在没有人为直接参与的情况下,自动生成文本、图片、视频等内容的技术。以ChatGPT为例,其采用的是大规模语言模型预训练的技术方式来实现文字内容的自动生成。生成式人工智能的主要特点如下:


  第一,通过算法等自动生成内容,该内容不需要人工参与,可能因人而异、因时而异。人工智能具有自主、无法预测和不确定性等特点。这一特点加大了对人工智能生成内容进行控制的难度。但需注意的是,人工智能生成的内容并非完全无法控制,其内容仍存在价值取向,可通过多种方式来“教导”。比如,有用户让ChatGPT分别给特朗普(Trump)和拜登(Biden)写赞美诗,ChatGPT拒绝了给特朗普写诗,但为拜登写出了华丽的赞美诗。


  第二,影响人工智能生成内容的因素包括算法、算力、数据集、用户等。生成何种内容既可能源于算法设计者有意为之,比如通过人工标注来“教导”ChatGPT不得有种族歧视言论,也可能源于用于训练ChatGPT的数据集的影响,比如政治立场“左派”的数据集会“教”出体现左派观点的内容,还可能源于与用户的互动而“习得”的内容。用户对生成内容所作的评价会影响ChatGPT的后续回答。OpenAI公司鼓励用户在发现ChatGPT生成的内容错误时,或生成内容与用户提问毫不相关时,通过“大拇指向下”按钮来提供反馈。


  第三,生成式人工智能有时会生成似是而非的不准确内容。OpenAI公司在介绍ChatGPT时已表示,ChatGPT“有时会给出似是而非(plausible - sounding)的不准确或者荒谬的回答”。这可能对他人权益造成损害。例如,ChatGPT在回答问题时,错误地将澳大利亚的一位地区市长布莱恩·胡德(Brian Hood)列为一起海外贿赂丑闻中的犯罪方,并声称其在监狱服刑。受害人开始担心自己的声誉,并表示如果OpenAI不纠正ChatGPT关于他曾因行贿入狱的虚假说法,他将起诉OpenAI。这可能成为世界上首例针对ChatGPT内容的诽谤诉讼。


  第四,关于生成内容的权属。学界关于人工智能生成内容是否受著作权保护长期存在争议。但根据OpenAI使用协议,在法律允许的范围内,在用户遵守使用协议(Terms of Use)的前提下,OpenAI公司赋予用户在内容方面的所有权利和利益。OpenAI可在必要的情况下使用内容来提供和维护服务、遵守法律和执行公司政策。用户对内容承担责任,包括确保内容不违反法律和本用户协议。同时,根据“内容政策和协议”(Content Policy and Terms),用户拥有(own)其与ChatGPT互动产生的内容的权利,包括复制(reprint)、销售(sell)和作为商品(merchandise)的权利。这与国内既有的案例并不相同。对于人工智能生成物,国内的服务提供者往往更希望将相关权利归于自己享有,而非归于用户。


  第五,生成式人工智能服务提供者在技术层面有能力对侵权内容采取删除等措施。根据OpenAI的使用协议:“如果你认为你的知识产权受到侵犯,请发送通知到如下地址。我们会删除或断开涉嫌侵权的内容,并会终止重复侵权者的账户。”OpenAI公司提供的投诉邮箱是dmcanotice@openai.com,且涉及版权侵权的投诉要求与美国《数字千年版权法》(Digital Millennium Copyright Act,DMCA)第512(c)(3)条的要求一致。可见,OpenAI公司自认其受DMCA调整,可适用避风港规则。


  (二) 特殊性的影响:生成式人工智能对侵权法律带来的冲击


  以ChatGPT为代表的生成式人工智能对侵权责任制度产生了广泛影响,具体如下:


  1.行为主体的复杂化。传统的网络侵权往往存在两方主体(网络服务提供者和受害人)或三方主体(网络服务提供者、网络用户和受害人)。前者指网络服务提供者直接实施侵权行为的场合,后者指网络用户利用网络服务实施侵权行为的场合。在生成式人工智能场合,行为主体的复杂化主要表现在:(1)生成式人工智能体是否具有法律上的主体资格,能否成为侵权责任承担者。关于人工智能体的主体资格,学界已有很多讨论,支持者和反对者皆有之。(2)数据权利人、网络用户是否是侵权行为人。在传统网络侵权中,是网络服务提供者还是网络用户直接实施了侵权行为,一般不难判断。但在生成式人工智能场合,这一判断变得困难。人工智能生成内容是基于算法、算力、数据集、人机交互而生成的内容。由于算法的复杂化以及可解释性不足,这些因素对最终生成的内容发挥了怎样的作用“说不清道不明”。就事实层面而言,不仅算法设计者,而且数据集权利人、用户都可能与侵权内容的最终生成之间存在一定的原因力。


  2.加害行为的智能化。传统网络侵权中的加害行为是人的行为。生成式人工智能中的加害行为,并非人的直接行为,而是人工智能体的“举动”,人并不直接参与内容的生成。尽管在根本意义上,人工智能体生成的侵权内容仍是作为算法设计者的人引发的结果,但它与传统侵权不同之处在于,设计者在设计算法程序时无法预见某一具体加害行为的出现,即设计者并不知晓人工智能会具体生成何种内容。对于此类“错误必然会发生,但无法预见何时何地会发生何种错误”的情形,是否要采用类似于产品责任、机动车交通事故责任等特殊侵权责任规则来归责,值得探讨。


  3.损害后果的不确定。生成式人工智能因人而异、因时而异的特点决定了侵权内容出现的不确定性,在某一次对话中出现的侵权内容未必在其他对话中出现。这与传统侵权不同。传统网络侵权虽然也存在千人千面的个性化推送(如新闻推送),但推送所指向的具体内容本身(如某一新闻报道的具体内容)并不会变化。人工智能生成内容变动不居的特点导致侵权内容造成的损害后果难以判断。


  4.因果关系的多元化。人工智能生成的侵权内容是算法、算力、数据集和人机交互等众多因素共同作用的结果。但因算法的复杂性,这些因素对侵权内容的生成发挥了多大的作用,在客观事实层面难以判断。虽然可以认为这些因素中只有算法是关键,数据集、人机交互只是被用于生成内容的“原材料”,无需对这些原材料在侵权法上作评价,但现实的复杂性在于,算法也可能被用户利用,即用户为了导致某个侵权结果而有意识地“教导”算法,最终导致算法生成了侵权内容。比如,一种“越狱”技巧允许用户通过创建一个名为DAN的ChatGPT的另一个自我(Alter Ego)来规避算法伦理规则,该“自我”可以回答一些原来不被算法允许的问题,比如支持暴力和歧视。因此,算法黑箱带来了因果关系认定与解释的难题。


  5.过错认定的新颖化。在传统网络侵权中,尽管有学者提出事前过滤义务,但主流意见是,网络服务提供者对用户发布的内容不负有一般性审查义务。因此,传统网络侵权中的过错认定,主要以网络服务提供者知道侵权内容而未采取措施为标准,辅之以侵权明显时网络服务提供者应当知道这一标准。在生成式人工智能场合,除非算法设计者有意期待某些侵权内容的生成,否则难以采“应当知道”来认定其过错。至于通知移除规则,虽然OpenAI公司自认在知识产权领域适用避风港规则,但从技术原理来看,算法设计者是否能在合理成本的前提下通过技术手段精准删除侵权内容似乎并不明朗。此外,由于生成内容侵权的不可避免性,算法设计者是否仍应适用过错责任原则,也存在讨论的空间。


生成式人工智能服务提供者的法律地位


  鉴于我国现行法并未赋予人工智能体主体资格,本文以此为前提展开论证,即将责任主体聚焦于生成式人工智能服务提供者。为明确其侵权责任,首先需明确生成式人工智能服务提供者的法律地位。综合来看,我国现行法中规定的网络服务提供者类型包括自动接入传输服务提供者、自动存储服务提供者、搜索链接服务提供者、存储空间服务提供者、互联网信息服务提供者、电子商务平台经营者等。此处以ChatGPT为例对生成式人工智能服务提供者的法律地位展开分析。


  (一)生成式人工智能服务提供者并非搜索链接服务提供者


  根据OpenAI的使用协议,其自认在知识产权领域适用美国DMCA规定的避风港规则。这意味着至少在OpenAI公司看来,其属于或相当于DMCA中规定的网络服务提供者。DMCA中规定了四种网络服务提供者类型,包括网络通信服务提供者(Transitory digital network communications)、系统缓存服务提供者(System caching)、信息存储服务提供者(Information residing on systems or networks at direction of users)和信息定位服务提供者(Information location tools)。与之对应,我国《信息网络传播权保护条例》中规定的网络服务提供者包括网络自动接入和自动传输服务提供者(第20条)、网络自动存储服务提供者(第21条)、网络信息存储空间服务提供者(第22条)和搜索链接服务提供者(第23条)。不难判断,生成式人工智能服务提供者不属于网络自动接入、自动传输服务提供者,不属于网络自动存储服务提供者,也不属于网络信息存储空间服务提供者,因为生成式人工智能的行为与这些网络服务行为存在明显不同,且OpenAI公司在使用协议中自认的免责条件和DMCA所规定的网络通信服务提供者、系统缓存服务提供者的免责条件也不相同。值得讨论的是,生成式人工智能服务提供者是否属于搜索链接服务提供者?


  搜索链接行为与人工智能生成内容行为确实有一定的相似性:(1)从技术原理来看,二者都是在用户输入需求后,通过算法得出与该需求最匹配的结果。虽然二者的算法技术有巨大差异,但二者算法的目标,即追求最佳匹配结果是一致的。(2)从服务功能角度来看,二者发挥着类似的功能,即为用户提供其希望查阅的信息,只是呈现方式有所不同。前者系提供与问题相关的资料目录,用户需通过自行点击链接至第三方网页来获取该信息;后者则通过算法生成直接的答案并提供给用户。如果将搜索引擎给出的搜索结果及其排序视为一种“内容”的话,可以认为搜索链接服务提供者也为用户提供了针对用户问题的“回答”,只不过该回答并非直接给出答案,而是间接提供“参考资料”。


  虽然就功能而言二者有相似之处,但就法律角度而言二者存在显著差别,即搜索链接行为并不参与侵权内容的生成,而人工智能生成内容行为则相反。搜索链接服务提供者既不参与第三方网站侵权内容的生产,也无法控制第三方网站发布的内容。其唯一能控制的是搜索结果中是否出现第三方网站的内容。而在生成式人工智能场合,服务提供者对侵权内容的生成有着决定性影响。在法律上主体是否参与了侵权内容的生产,对法律规则的设计有着显著影响。因此,将不参与内容生产的搜索链接服务提供者规则适用于对侵权内容生成有着决定性影响的生成式人工智能场合并不妥当。可见,生成式人工智能服务提供者不仅在形式意义上不应被归入搜索链接服务提供者范畴,而且在实质意义上也不应适用关于搜索链接服务提供者的法律规则。


  (二)生成式人工智能服务提供者不宜被认定为网络内容服务提供者


  因生成式人工智能服务提供者向用户提供的是其自动生成的内容,故从概念涵摄的角度来看,生成式人工智能服务提供者可被归入传统的网络内容服务提供者之列。(1)除《信息网络传播权保护条例》规定的四类网络服务提供者类型外,网络内容服务提供者(Internet content provider)是另一类常见的服务提供者类型,即内容系由网络服务提供者直接上传和提供给用户,而非由第三人上传。网络服务提供者直接上传和提供内容是web1.0时代的主流行为,典型如我国互联网早期的新浪、搜狐等门户网站。在ChatGPT场景中,内容由服务提供者OpenAI公司提供,而非用户上传。因此,从概念外延来看,网络内容服务提供者可包含生成式人工智能服务提供者。(2)内容的“创作者”不影响主体法律地位的认定。生成式人工智能服务提供者与传统网络内容服务提供者的主要差别在于内容创作者不同。在传统网络内容服务提供场景中,网络内容多由专业化的内容生产者创作,比如媒体记者或网站自身的工作人员等。而在生成式人工智能场景中,是人工智能体自动生成了内容。但网络内容服务提供者这一概念关注的是内容上传者是网站自身还是用户,至于内容的创作者是谁则在所不问。即无论内容是由网站自身创作还是由第三方创作,乃至人工智能自动生成,均不影响网络内容服务提供者的认定。(3)生成内容是否构成著作权法意义上的“作品”,也不影响服务提供者提供的“内容”,因为在形式意义上,人工智能生成的内容与人类表达的内容无异。(4)比较法上,与我国网络内容服务提供者相当的概念是美国的“信息内容提供者”(information content provider)。根据美国《通信风化法》(Communications Decency Act,CDA)第230(f)(3)对信息内容提供者的定义,其指“对通过互联网或任何其他交互式计算机服务提供的信息的创建或开发承担全部或者部分责任的任何个人或实体”。这一定义强调了服务提供者作为责任主体的法律地位。美国学界也有主张将自动创作新闻的机器人归入信息内容提供者。“机器人从网络上收集信息,然后创作内容。与谷歌不同,机器人获取信息、合成信息,并写出在互联网上发布的报道。因此,机器人创作和开发了内容,符合CDA中信息内容提供者的定义。”


  然而,尽管生成式人工智能服务提供者在形式上符合网络内容服务提供者的定义,但在实质意义上不宜将其认定为网络内容服务提供者,理由如下。


  第一,从划分标准来看,决定网络服务提供者类型划分的根本因素在于“控制力”,而网络内容服务提供者与生成式人工智能服务提供者对内容的控制力存在显著差异。类型划分的意义在于适用规则上的差别对待,而差异来源于二者控制力的不同。传统网络服务提供者的类型划分逻辑在于:网络接入传输服务提供者因无法控制传输的内容,故对侵权内容既不负有事前审查义务,也不负有事后移除义务;网络内容服务提供者因自行上传内容,能完全控制何种内容的出现,故既负有事前审查义务,也负有事后移除义务;网络信息存储空间服务提供者和网络搜索链接服务提供者因内容系第三方上传,故不负有事前的一般性审查义务,但负有事后移除义务。可见,网络服务提供者类型的划分与服务提供者在事实层面能否控制相关内容密切相关。而在事实层面,网络内容服务提供者的“上传”行为与生成式人工智能服务提供者的“生成”行为的控制力明显不同。鉴于大模型算法的复杂性,生成式人工智能服务提供者客观上难以完全控制什么内容会被生成。故形式上符合网络内容服务的生成式人工智能服务提供者,实质上并不满足网络服务提供者类型划分背后的“控制力”标准。


  第二,从规则适用来看,将生成式人工智能服务提供者纳入网络内容服务提供者在法律规则适用方面的意义也很有限。与搜索链接服务提供者、存储空间服务提供者等不同,我国立法中鲜有关于网络内容服务提供者侵权责任的规则。这一规则上的“缺失”主要源于法律关于网络内容服务提供者侵权行为的规定过于简略,相关侵权责任问题通过适用传统侵权规则便可有效解决。详言之,若内容是网站自己创作,则网站是内容的作者,故网站承担著作权法中作者的义务和责任。若内容是第三方创作,网站将该内容上传到自身网站,类似于报纸、杂志的出版者将第三方作品发表,网站承担出版者的义务和责任。既然将生成式人工智能服务提供者归入网络内容服务提供者后,无法为明晰其义务和责任提供规则上的“增量”,那就不如将其作为一类新型网络服务提供者,为其保留法律规则适用上的开放性,以便一一检视传统侵权规则在生成式人工智能场景下能否适用。更何况,生成式人工智能的技术特征已对行为主体、加害行为、因果关系等诸多方面带来了明显的影响。


  第三,从理论体系来看,将生成式人工智能服务提供者纳入网络内容服务提供者将对现有体系带来不必要的冲击。一方面,这会破坏网络内容服务提供者内在的体系逻辑。既有网络内容服务提供者以有效控制为事实前提,以负有事前审查义务和事后删除义务为主要规则。若将生成式人工智能服务提供者纳入网络内容服务提供者,将导致网络内容服务提供者内部体系上的割裂:网络内容服务提供者内部将不得不又细分为两类,一类是能有效控制内容者,另一类是无法有效控制内容者,进而适用不同的义务规则。这种内部的规则细分,会导致对网络内容服务提供者类型化的意义丧失殆尽。另一方面,这样归类易对社会产生误导。若将生成式人工智能服务提供者纳入网络内容服务提供者,人们自然会将关于网络内容服务提供者的既有规则和原理适用于生成式人工智能服务提供者,但这种“迁移”未必合适,需要理论上一一审视并加以厘清。


  第四,我国立法上还存在“互联网信息服务提供者”和“深度合成服务提供者”等网络服务提供者类型。互联网信息服务提供者指通过互联网向上网用户提供信息服务活动的组织、个人(《互联网信息服务管理办法》第2条第2款)。深度合成服务提供者指应用深度合成技术提供互联网信息服务的组织、个人(《互联网信息服务深度合成管理规定》第2条)。有学者指出,对以ChatGPT为代表的大型语言模型,应采“深度合成”作为法律概念。诚然,从概念外延来看,生成式人工智能服务提供者可以被纳入互联网信息服务提供者和深度合成服务提供者。但就民事侵权责任而言,不宜采这两个概念来表达以ChatGPT为代表的大型语言模型人工智能。理由在于:(1)互联网信息服务提供者这一概念主要是基于行政管理的需要,其关注的重点是网络服务提供者向社会公众提供信息服务,至于该信息是由服务提供者自行上传,还是由用户等第三方上传,则在所不问。但在侵权责任方面,信息提供主体的不同会导致侵权责任上的明显差别。故不应采此概念。(2)深度合成服务提供者与生成式人工智能服务提供者的契合度更高,但“深度合成”的指向过于宽泛,包含了文本、音乐、人脸、图像等方面内容的生成。这些深度合成应用所运用的技术特征可能存在明显的差别,比如文本转语音、人脸替换、图像增强等,都被纳入深度合成概念(《互联网信息服务深度合成管理规定》第23条),但所运用的算法技术与大型语言模型技术所呈现出的自主性和不可预测性等特征存在差别,而这些特征的有无将对服务提供者侵权责任规则的设计产生显著影响。因此,不宜以深度合成服务提供者为核心概念来设计侵权规则。


  综上,我国现行立法中既有的网络服务提供者类型无法有效指向以ChatGPT为代表的生成式人工智能服务提供者。换言之,在法律上,生成式人工智能服务提供者应被作为一类新型网络服务提供者来对待。


生成式人工智能服务提供者侵权责任的认定


  与生成式人工智能相关的侵权责任主要有两种情形:一是生成内容本身侵害了他人合法权益,比如信息不实、内容抄袭、泄露商业秘密等。二是生成内容本身合法,但被第三方用于侵害他人权益,比如将生成的代码用于勒索邮件、钓鱼软件等非法目的。对于第二种情形,理论和实务一般依据技术中立而认定服务提供者不构成侵权,除非该内容只能被用于侵权用途。故有必要分析的是第一种情形是否构成侵权。同时,生成式人工智能服务提供者侵权责任成立与否的关键在于过错要件的判断,故下文聚焦过错要件展开分析。


  (一)认定生成式人工智能服务提供者过错的两个维度


  在我国立法没有特殊规定的背景下,基于侵权法一般原理,生成式人工智能服务提供者对生成的侵权内容应承担过错责任。所谓过错包含两个维度:一是对侵权内容的“生成”存在过错;二是对侵权内容的“移除”存在过错。前者是指由于网络服务提供者没有尽到注意义务,导致侵权内容在其网站中生成。在传统网络侵权中,对侵权内容的出现存在过错的典型行为是网络服务提供者将侵权内容主动上传至其网站。若侵权内容是第三方上传,则一般认为网络服务提供者不存在过错。当然,在特殊情况下,比如权利人在侵权内容出现前已经“预警性”地事先告知,而网络服务提供者未采取预防措施,或是未对重复侵权的用户采取相应措施,则可能被认定为存在过错。后者是指网络服务提供者在知道侵权内容存在后,没有及时采取措施,需对损害的扩大部分承担侵权责任。此类过错主要发生在网络存储空间服务提供者和搜索链接服务提供者场合。在web2.0用户生成内容(User-Cenerated Content)时代,由于用户上传内容的海量性,法律上一般不对网络服务提供者课以一般性审查义务,故网络服务提供者对侵权内容的出现不存在过错。但在其知道或者应当知道侵权内容后,网络服务提供者负有及时采取必要措施的义务,否则认定其存在过错。我国《民法典》第1195条至1197条关于网络侵权的规定,主要针对的是此类侵权。


  在传统网络侵权认定中,无论理论界还是实务界均未有意识地区分这两种过错。在网络内容服务提供者场合,法院多聚焦于论证网络服务提供者因自行上传侵权内容而存在过错,至于之后是否有删除内容,则并不展开论证,因为删除与否并不影响其已经构成过错。在网络存储空间服务提供者等场合,因其不负有一般性审查义务是共识,故法院多聚焦于审查网络服务提供者是否曾收到侵权通知或侵权是否明显,网络服务提供者对侵权内容的出现不存在过错往往被法院作为默认的前提。显然,相较于以往,对算法的规制意味着法律规制的前移,即从规制算法应用结果到规制算法本身。之所以作出此种前移,主要有以下三点考虑:一是随着数字技术与社会日常生活日益广泛和深度融合,算法对个人和社会造成的影响越来越大,故法律从重视事后救济转变为更加强调事前预防。对算法的直接规制正是为了实现事前预防,避免事后规制的滞后性。“确立‘基于算法的信息发布者’法律地位,可将监管和审查的对象从具体信息转移至算法的开发与部署。”二是传统的事后救济效果不佳。传统救济方式有赖于受害人提起诉讼,但多数受害人可能是“沉默的大多数”。即便提起诉讼,也只能让非常有限的受害人获得救济,多数受害人往往难以获益。三是新型网络服务的出现导致传统的事后消除侵权内容的救济途径在部分新场景中无法适用。比如大数据杀熟、被困在算法里的外卖小哥等,此种侵害难以适用通知移除等传统网络侵权规则,法律介入算法可能是更为有效的规制方式。


  在生成式人工智能场合,过错的两个维度不仅界限清晰,且有区分的必要。首先,生成式人工智能服务提供者是基于算法生成了侵权内容,而非将人创作的内容上传至网络,故传统上侧重对网络内容服务提供者“上传”侵权内容是否存在过错的考察,在此就需要转变为对算法“生成”内容是否存在过错的判断,即主要体现为对算法生成的过错判断。其次,在侵权内容出现后,若权利人根据向服务提供者发送了合格通知,则服务提供者可能会负有及时采取移除等必要措施的义务。正如OpenAI公司在使用协议中承诺其将对侵犯知识产权的内容采取删除等措施一样。


  (二)生成式人工智能服务提供者生成维度过错的判断


  对生成式人工智能服务提供者生成维度过错的判断,取决于服务提供者注意义务的高低。


  1.就技术而言,尽管存在困难,但服务提供者确实能够在一定程度上控制和避免某些内容的生成。在涉人工智能纠纷中,服务提供者多主张,基于技术中立、技术可能性等,其无法控制生成的内容。换言之,人工智能生成内容是一项符合实质性非侵权用途的中立技术,要求其事前避免侵权内容的出现在技术上不具可行性。比如在谷歌检索关键词自动补足纠纷中,谷歌主张,自动补足算法中的一些变量并非谷歌所能控制,比如用户普遍输入的检索词等,故其无法控制自动补足的内容。但这一主张难以成立,因为对于一些涉公共利益的内容,服务提供者往往能较好地避免生成。比如,我国对于违反四项基本原则的政治性内容,美国对于种族歧视内容,德国对于鼓吹纳粹内容等,其立法都对网络服务提供者课以了较高的义务,且网络服务提供者也都较好地避免了这些内容的出现。只是出于促进数字产业发展等考虑,法律上对于仅涉及民事主体权益的内容,对网络服务提供者课以的注意义务较低。


  2.生成式人工智能服务提供者对生成侵权内容的过错判断是否应适用“作品”侵权的过错判断规则?这取决于人工智能生成内容是否构成“创作”的作品以及生成式人工智能服务提供者是否对其享有著作权。对此,学界争议较大。否定者认为,这并非“人”创作的内容,无须通过著作权法来给予激励,故不属于著作权法意义上的“作品”,更勿论著作权归属。肯定者认为,应当通过赋予著作权来为人工智能的发展提供法律上的激励,其著作归属可通过法律拟制技术解决。人工智能生成内容是否应被纳入著作权加以保护,涉及保护程度和保护路径的选择问题。人工智能算法设计凝聚了人的智识,应予保护。但分歧是,应通过何种途径保护?法律上可能的途径至少有:算法专利、计算机软件著作权、商业秘密、生成内容著作权等。故问题的实质在于价值选择和政策判断,即在已经有专利等给予保护的情况下,是否还有必要通过赋予生成物著作权来激励算法设计者?本文无意对此问题展开详细探讨,仅从侵权责任的角度作出说明。传统的作品侵权规则系以“自然人创作”为事实基础,即便是代表法人意志的法人作品,最终仍是由自然人来完成的。故过错的判断主要聚焦于自然人对侵权是否存在故意或过失。但在人工智能场景中,算法和数据库等诸多因素共同决定了内容生成,任何一位自然人的意志都难以决定生成的内容。因此,无论生成的内容是否构成作品,传统上基于自然人是否存在过错而形成的过错判断因素,都无法迁移适用于生成式人工智能场景。对生成式人工智能服务提供者过错与否的判断,应聚焦于其能否通过内嵌于算法的技术来自动化审查生成的内容,从而避免侵权内容的出现。


  3.生成式人工智能服务提供者的注意义务,是否应低至原则上不要求其对生成的内容负有一般性审查义务的程度?换言之,服务提供者原则上无需对自动生成的内容承担侵权责任。《生成式人工智能服务管理办法(征求意见稿)》第4条规定,利用生成式人工智能生成的内容应当真实准确,采取措施防止其生成虚假信息,防止损害他人身心健康,损害肖像权、名誉权和个人隐私,侵犯知识产权。这似乎意味着生成式人工智能对生成的内容负有一般性审查义务,但这与传统网络服务提供者侵权责任的规则不一致。传统上,除了网络内容服务提供者外,法律对其他类型的网络服务提供者多不要求其承担一般性审查义务,理由在于审查技术的困难和审查成本的高昂。从技术角度来看,生成式人工智能服务提供者对生成内容的控制力,与网络信息存储空间服务提供者、搜索链接服务提供者对用户上传内容的控制力相仿。故原则上不宜要求生成式人工智能服务提供者对自动生成内容负有一般性审查义务。这一价值判断也可从关于搜索引擎自动生成内容的判决中得到佐证。


  搜索引擎自动生成内容的主要表现有二:一是自动补足检索词,比如在搜索框输入“苹果”,下拉栏中会自动出现“苹果官网”等;二是在检索结果页面提供相关检索词,比如在检索某一关键词后,搜索结果中会出现“大家还在搜”“95%的人还搜了”等内容。我国涉搜索引擎自动生成内容的典型判决是“任甲玉案”。该案中,在百度搜索引擎中输入“任甲玉”,在页面“相关搜索”处显示有“陶氏教育任甲玉”等。因“陶氏”口碑不佳,任甲玉以“相关搜索”处的内容侵害其名誉权、姓名权和被遗忘权等为由,要求百度承担侵权责任。就此,一审法院认为,“百度公司在‘相关搜索’中推荐的有关任甲玉及‘陶氏教育’与相关学习法的词条是对网络用户搜索相关检索词内容与频率的客观反映,属于客观、中立、及时的技术平台服务,并无侵害任甲玉前述主张权益的过错与违法行为”;换言之,“该模式本身并无实质性的侵权之目的”。二审法院也认为,任甲玉与陶氏教育机构同时出现是对特定时间内网络用户所使用检索词的客观情况的反映,故百度公司对“陶氏任甲玉”等关键词在搜索结果中出现并不存在主观过错。可见,法院并不要求搜索引擎服务提供者对自动生成的检索词加以审查。与此类似,在金德管业案中,原告因在百度搜索“金德”等检索词时,“相关搜索”处出现了“金德骗子”“金德管业骗子”“金德管业招聘黑幕”等内容而提起诉讼。法院最终的判决是“并不要求北京百度公司对数量庞大的信息在出现前进行逐一审查”。因此,可以认为,我国司法裁判作出了不课予搜索引擎服务提供者对自动生成内容负有事前一般性审查义务的价值选择。


  比较法上关于搜索引擎自动生成内容的侵权责任的规定存在分歧。在意大利谷歌案中,原告在谷歌检索其名字时,自动补足的内容是“欺诈”和“骗子”。谷歌主张其应受到避风港规则的保护,但法院并未支持该主张,而是要求其移除该内容。与此类似,在香港谷歌案中,法院认为,谷歌在诽谤检索词出现的过程中存在“积极促进或有意帮助”。但在美国,似并无法院判决谷歌应就搜索引擎自动生成内容承担侵权责任之案例,尽管也有学者主张应基于“责归于上”的理念而要求服务提供者对其自动生成的内容承担责任。总体而言,国外对此问题的分歧主要源于制度理念、制度背景和产业状态的差异。(1)就理念而言,欧洲国家往往更强调人格权益保护,而美国则更强调言论自由和思想市场保护。关于言论自由和诽谤(侵害人格权)的关系,美国原则上采言论自由优先,即从保护言论自由的角度来限制诽谤的构成。因此,美国学界会争论自动生成内容是否构成“言论”。若构成“言论”,则应受到美国宪法第一修正案对言论自由的特别保护,即搜索链接服务提供者将可基于言论自由而在绝大多数情况下无须对其“自动生成的内容”承担责任。此外,从言论的角度来看,美国学界也往往强调“思想市场”(marketplace of ideas)的重要性。“最终被广泛接受的思想比单一主体的思想更接近于真相。换言之,许多积极参与的想法比单一想法(包括自己的想法)更可能认识到真相。”按此思路,要求网络服务提供者采取措施来限制内容的自动生成,将对思想市场的形成造成阻碍。(2)就制度背景而言,在美国,诽谤等人格权侵权问题多围绕CDA第230条的理解与适用展开。根据CDA第230(c)(1)条,“在信息由第三方信息内容提供者提供时,交互式计算机服务提供者(interactive computer service)或者用户不应适用发布者(publisher)或发言者(speaker)的规则”。而所谓“交互式计算机服务提供者”,根据CDA第230(f)(2)条,是指提供或使多个用户能够对计算机服务器进行计算机访问的任何信息服务、系统或访问软件提供者,而非第230(f)(3)条规定的“创造或开发”(create or develop)内容的网络服务提供者。因此,美国对自动生成内容的讨论多聚焦于搜索引擎自动生成内容行为是否构成“创造或开发”行为。美国的这一法律适用争议在其他国家并不常见。(3)就产业状态而言,相较于欧洲国家,美国更倾向于选择有利于网络服务提供者的产业政策。“美国与中国等互联网产业较为发达的国家,基于产业利益选择审慎地为搜索引擎设置法律责任。而欧盟等国家和地区的判决则普遍显示严格保护个人权利的传统倾向。”


  综上,基于理念、背景和产业的考虑,各国在生成式人工智能服务提供者侵权责任上有不同的选择。就我国而言,理念上更接近于欧洲国家强调人格权益保护;制度背景方面,也不存在如美国CDA般的免责条款;但产业政策选择方面则似更倾向于有利于互联网产业的政策。考虑到我国既有任甲玉案等判决并未为了保护人格权益而对网络服务提供者课以事前审查义务,同时在ChatGPT出现后社会上普遍对人工智能产业发展抱有期待,因而对生成式人工智能服务提供者采取相对宽松的规则,不对其在生成阶段课以一般性审查义务,应是当前更可取的选择。当然,随着未来产业的发展和技术的成熟,对生成式人工智能服务提供者的注意义务标准也可以逐渐提高。当下对“过错”认定作出弹性规定,也有助于法律根据时代需要作出适当调整。


  (三)生成式人工智能服务提供者移除维度过错的判断


  生成式人工智能服务提供者是否适用《民法典》第1195条等条款中规定的通知移除规则?即权利人通知服务提供者后,服务提供者是否有义务采取必要措施来避免相关侵权内容再次生成?对此可从事实和价值两个层面来分析。


  在事实层面,事后生成式人工智能服务提供者是否能以合理的成本和较高的准确度移除某些内容,以避免其再次生成?《生成式人工智能服务管理办法(征求意见稿)》第15条对此作出要求:“对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。”但我国既有判决对此存在分歧。在金德管业案中,一审法院认为,被告百度对搜索引擎上出现的内容负有一定的审查义务,“该义务的存在并不要求北京百度公司对数量庞大的信息在出现前进行逐一审查,但要求其对于已明知的存在明显侮辱、诽谤他人名誉、人格内容的信息,应主动予以删除或不予登载”;在金德管业公司以律师函方式告知百度公司后,百度公司未及时删除相关内容,故主观上存在过错,应承担侵权责任。但二审法院认为,“相关搜索”处显示的内容是自动生成,而非百度主动创造;这些词仅反映网络用户使用的搜索词的客观情况,并无实质性的褒贬含义,故这些词“尚不足以构成对金德管业公司的名誉造成实质性的伤害”;同时,“百度公司对这些相关搜索词的形成既无主观过错,又无实质性的控制力”,故不构成侵权。二审法院否定服务提供者承担责任的理由主要有二:一是受害人并无损害,因为自动生成的检索词并无实质性的褒贬含义。但这一理解错置了褒贬的评价主体,难有说服力。对计算机系统而言,其是在反映用户检索的客观事实,固然没有褒贬的意图,但判断受害人名誉等人格权是否受损不应关注计算机系统的褒贬意图,而应关注社会公众是否会因自动生成的检索词而对相关主体产生贬损的评价。若生成的内容会让公众对相关主体产生负面评价,应认定为存在侵害。二是百度并无实质性的控制力。尽管二审法院并未提及所谓“控制力”指内容生成还是内容移除维度的控制力,但结合二审法院对一审法院主张的否定,可推断二审法院认为,百度在移除维度也没有控制力。


  综合而言,判断生成式人工智能服务提供者是否有义务在事后避免侵权内容的再次生成,需考量以下因素:(1)具体的人工智能生成内容场景。比如,从技术原理来看,对于搜索引擎自动生成检索词这样的算法相对简单(主要以用户检索的频率来决定生成的内容)、生成内容相对可控的场合,事后删除相关内容在技术和成本控制方面具有更高的可行性。但对以ChatGPT为代表的大型语言模型而言,由于算法的复杂性,服务提供者有效避免某一具体内容的生成在技术上较为困难。(2)服务提供者是否作出相关承诺。从OpenAI的“使用协议”来看,其似乎能够对指定内容采取移除等措施,因为其协议内容承诺“会删除或断开涉嫌侵权的内容,并会终止重复侵权者的账户”。因此,若企业作出了类似承诺,则权利人可据此要求服务提供者移除相关内容。(3)行业的通常技术水平。即便OpenAI公司有能力移除侵权内容,也未必意味着法律上应对生成式人工智能服务提供者设置移除义务,因为法律上的义务要求应以行业通行水平为参考标准,而OpenAI或许处于生成式人工智能领域最先进的水平。因此,我国行业通行水平如何,有待制度设计者在政策制定中或者法院在诉讼中对相关技术的行业水平展开调查。(4)技术水平的发展变化。一般而言,服务提供者移除义务会随着技术水平的提升而逐渐加重。比如在金德管业案中,虽然二审法院否定了搜索引擎服务提供者对生成的内容有控制力,但这一事实判断并非一成不变,而应根据技术水平的变化不断调整。


  如果事实层面判断生成式人工智能服务提供者能以合理的成本有效避免侵权内容的再次生成,其在价值层面是否负有该义务?对此,比较法上不乏肯定意见。比如,在德国谷歌案中,法院认为,“尽管搜索引擎经营者不被要求一般性的审查算法生成的内容,但一旦经营者意识到违法侵害个人权利的内容,其负有移除该内容的义务”。有学者也认为,“法院常常警告,通过诉讼塑造过于谨慎的网站和网络服务提供者会引发言论寒蝉效应。但根据巴策尔(Batzel)案所采取的狭义观点,仅要求移除自动生成内容的展示这一救济方式可避免法院通常担忧的诉讼泛滥和寒蝉效应”。就我国而言,无论是从侵权过错认定的一般原理,还是从保护受害人权益,抑或从我国将通知移除规则一体适用于各种网络服务提供者类型的传统来看,都应对生成式人工智能服务提供者课以避免侵权内容再次生成的义务。当然如果因大语言模型的复杂性等原因导致服务提供者在事实层面无法以合理成本避免侵权内容的再次生成,则法律上不宜对其课以不得再次生成相关内容的义务。但这并不意味着服务提供者不负有任何义务。鉴于我国《民法典》第1195条对网络服务提供者提出的是采取“必要措施”的要求,故若技术上可行,生成式人工智能服务提供者也可能负有对涉嫌侵权的内容采取显著标识等方式来“提醒”用户等义务。当然,该设想是否可行仍有待技术、商业和制度的探索。


结 语


  目前生成式人工智能虽然处于起步阶段,但其造成的影响已迅速扩大。随着技术的快速发展,可合理预测,人们对生成式人工智能的信任度会逐渐提升,生成式人工智能在未来可能成为影响公众认知的“意见领袖”。换言之,人工智能生成内容将深度嵌入人们生活,对公众认知产生显著影响。因此,如何在法律制度层面尽可能防范生成式人工智能带来的风险,同时又避免对技术和产业发展造成过多的束缚,是法律面临的时代之问。就此而言,《生成式人工智能服务管理办法(征求意见稿)》中较为严苛的监管要求在当前阶段是否妥当,值得检视。生成式人工智能服务提供者法律责任规则的设计,应在保障合法正当权益和鼓励技术创新发展间寻求妥当的平衡。




推荐阅读-向上滑动,查看完整目录-
《法律科学》2023年第4期目录
【习近平法治思想研究】1.中国式现代化缘何需要法理诠释陈金钊(3)【法律文化与法律价值】2.法教义学之内的社会科学:意义与限度雷磊(14)3.非传统的人权历史叙事方式及其法治意义任瑞兴(33)【科技新时代法学】4.数据财产赋权的立法选择吴汉东(44)5.人机交互决策下的智慧司法丁晓东(58)6.论生成式人工智能服务提供者的法律地位及其责任——以ChatGPT为例徐伟(69)7.元宇宙的“网信安全”与法律适用邢会强(81)8.数字检察的梯次配置与纵深功能余钊飞(94)9.论大数据证据的法律地位周慕涵(104)【法律思维与法律方法】10.论机动车融资租赁交易的法律构造高圣平(115)11.论以物抵债协议的类型化适用李玉林(129)12.论生产经营型夫妻共债的认定叶名怡(142)13.食品安全犯罪主客观方面的司法证明舒洪水(154)【部门法理与法律制度】14.债券虚假陈述之作用力与赔偿责任缪因知(165)15.消失中的积极释明严仁群(181)16.论教育惩戒权的二元三重结构陈斯彬(192)







《法律科学》是由西北政法大学主办的、面向国内外公开发行的学术性刊物。《法律科学》主要发表法学学术理论文章,辟有法律文化与法律价值、法律思维与法律方法、部门法理、法律制度探微、科技新时代法学等栏目,注重学术性、专业性、知识性。本刊列入中文核心期刊、法律类核心期刊、中文社科常用期刊、法学类最重要的核心期刊、中文社会科学引文索引来源期刊(CSSCI)。


-END-

责任编辑 | 郭晴晴

审核人员 | 张文硕 李婉秋

本文声明 | 本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北大法律信息网(北大法宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。


往期精彩回顾

《法律科学》2023年第4期要目

吕鑫:论个人求助平台的法律规制 | 法律科学202303

张凌寒:深度合成治理的逻辑更新与体系迭代 | 法律科学202303

陈兴良:刑法教义学中的规范评价 | 法律科学202302

赵姗姗:收买被拐卖的妇女罪的法益追问与规范再造 | 法律科学202301

丁晓东:否定数字人权是新型人权何以错误 | 法律科学202206



关注下方公众号,获取更多法律信息

点击「在看」,就是鼓励
继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存