查看原文
其他

吴汉东、张平、张晓津:人工智能对知识产权法律保护的六大挑战(下) | 中法评

请多精彩,请关注 中国法律评论 2022-03-25




吴汉东

中南财经政法大学教授



张平

北京大学法学院教授



张晓津

北京知识产权法院审判第二庭庭长


目前,一方面人工智能需要我们不断向前推进,另一方面知识产权保护是建设创新型国家所面临的最重要的问题之一。因此,就人工智能对知识产权保护带来的冲击而言,只有认清和处理好两者之间的关系,才能实现两者的共同发展。


本期对话,我刊编辑部特别邀请中南财经政法大学吴汉东教授、北京大学法学院张平教授、北京知识产权法院审判第二庭张晓津庭长,专门就人工智能与知识产权法律保护的热点话题进行深入探讨,包括人工智能对知识产权法律规则带来的挑战、人工智能的专利侵权认定、人工智能作品的著作权归属以及人工智能背景下的垄断与不正当竞争等问题。



本文原题为《人工智能对知识产权法律保护的挑战》,首发于《中国法律评论》2018年第2期对话栏目(第1—24页),原文35000余字,限于篇幅,文章分为两部分推送,略有删减,本期推送第二部分。欲览全文,请点此购刊,参阅原文。


阅读本期,将会涉及如下要点:


  • 规则或者代码,未来会不会具有垄断性?谁来控制和解释规则和代码?

  • 在涉及知识产权的司法案件中,未来人工智能会有哪些帮助?

  • 如何规制和解释人工智能领域的不正当竞争形式?

  • 应该以什么样的价值认识去构建知识产权法律体系?


上期回顾

吴汉东、张平、张晓津:人工智能对知识产权法律保护的六大挑战(上)



人工智能与著作权

中法评

目前,日本已经给予机器人作者的身份,其创作的作品受到著作权法保护。有观点认为,这种行为颠覆了现代法律的认知,因为法律是保护人和人之间的社会关系。况且,机器是通过程序来创造作品,而程序是由人开发出来的,所以,作品的最终掌控者还是人。但也有观点认为,随着机器深度学习的能力越来越强,它创作出的作品完全不受程序开发控制。


这时如何划分不同主体对于同一作品的贡献程度?或者说,这些由机器自动生成的作品,该不该进行著作权保护呢?



张平:人工智能生成的产物越来越多,如果不明确其权利归属,就会产生很多问题。


比如,微软(亚洲)研究院就宣称放弃微软小冰生成诗歌的版权。那么在我国现行的著作权框架内,微软(亚洲)研究院有没有放弃其版权的主体资格?换言之,微软(亚洲)研究院究竟是不是该作品的著作权所有人?这个问题需要谨慎思考。


我认为,对于人工智能自动生成的结果或者说通过自动深度学习产生的机器创作成果必须给人工智能体以署名,或者说,这些成果一旦构成著作权法意义上的作品,人类必须放弃署名权,人类不能剽窃机器成果而署上人类的名字,这涉及人类的诚信、作品创作的客观事实、未来作品流通的市场秩序等问题。


例如,机器人通过深度学习,临摹某位知名画家的美术作品,在短期内临摹出非常逼真的该画家的作品,还可以创作出这位画家不曾画过但风格近似的作品。如果不给机器人以署名的话,就会造成欺世盗名的乱象。

 

但是给机器人以署名权,并不意味着要承认机器人的著作权主体地位。


我国《著作权法》规定的著作权主体是自然人、法人或其他组织。从法教义学的角度来讲,不能脱离“人”来谈著作权主体地位这个问题。如果将机器人视为著作权主体,那么就肯定了机器人与人一样成为了法律主体。


那么在权利变动的意思表示、侵权责任的主体等问题上,机器人要有同样的权利和义务。如何认定机器人的意思表示,如何判断机器人的侵权故意等,不仅对现行法律是一个巨大的问题,更是对法理的颠覆性挑战。所以机器人应当有署名权,但是著作权的归属必须是人。

 

著作权是归属软件设计人还是实际控制人呢?从学理上看,著作权法是为了保护并激发创作者创作的积极性,促进经济、科技的发展和文化、艺术的繁荣。机器的实际控制人利用机器创作,将权利归属于该实际控制人就是对其创作的肯定。肯定其拥有著作权,就是肯定其相应的人格权和财产权都会受到法律的保护。


这样的保护又能激励控制人的创作热情,继续利用机器创作出新的作品,形成一个良性循环,最终达到增加社会精神财富的目的。因此,除署名权外其他权利应当归属于控制人。


此外,国际标准化组织IEEE在其标准文件草案《合伦理设计:利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景》中也提出,“如果AI依靠人类的交互而实现新内容或者发明创造,那么使用AI的人应作为作者或发明者”。

 

我国对职务作品的保护方式是:作者享有署名权,著作权的其他权利由法人或者非法人单位享有。这样来看,对这类机器完成的作品可以类比于职务作品,除署名权外其他权利归使用人或控制人。

 

吴汉东:从计算机到机器人的发展,在作品创作方面是一个从阅读到写作的跨越。在机器人时代,某些作品就是人工智能的生成内容。


据美国Narrative Science公司的预测,未来15年将有90%的新闻稿件由机器人完成,大量的美术、音乐等艺术作品也将出自人工智能创作。机器人大举进入人类的文学艺术殿堂,表现出不凡的“创作”能力,可以效仿伦勃朗的画风作画,酷似巴赫那样编曲,写悬疑小说,构思剧本,创作诗歌,编辑电影预告片。


这些表现比机器人下棋更让人类惊叹,这些作品使我们看到机器所具有的审美能力、想象力、创造力甚至是幽默感。


2017年5月,微软公司在北京发布了人工智能“小冰”的诗集《阳光失去了玻璃》,计139首现代诗。机器人诗集的出版,衍生了一个新概念“人工智能创造”(AICreation),微软就此提出了“人工智能创造”的三原则:


第一,人工智能创造的主体,须是兼具IQ与EQ的集合体,而不仅是具有IQ;


第二,人工智能创造的产物,须能成为具有知识产权的作品,而不仅是某种技术中间状态的成果;


第三,人工智能创造的过程,须是对应人类某种创造力的行为,而不是对人类劳动的简单替代。

 

人类文学艺术的创作过程,是人类基于已有的知识元素在特定情景下进行的思想表达,在生物学意义上表现为人类大脑通过算法将人类的听觉、视觉、记忆力等与特定情景相联系,从而产生相应的创作成果。


微软的技术人员声称:“小冰”学习了自1926年以来500多位诗人的现代诗,经过上万次训练,其写作的思维过程与人类相似,也要经过创作诱发源、创作本体活动、创作成果训练等步骤。但就创作方式而言,机器人不是像人类那样根据语法和要表达的意思编句撰文,而是从大量文本语料中学习写作。


具言之,计算机的写作过程,大抵以大量文本语料(信息)的数据为基础,通过快速阅读并形成相关专题的写作模板(表达格式),最后通过语言模型对表达意思的信息进行加工、合成(智能),这即是基于“人机合作”系统而导致的内容生成。

 

人工智能的生成内容,是否属于著作权法意义上的思想“表达”(expression),还是仅对已知事物的“反映”(reflection),一些国家和地区的法学家试图做出正面回应。


2016年,欧盟法律事务委员会向欧盟委员会提出“与软硬件标准、代码有关的知识产权”的相关报告,建议界定人工智能“独立的智力创造”标准,探讨将机器人创作的作品纳入著作权范畴的可能性。另有消息称,日本也有立法动议保障人工智能的著作权作品,以防止机器人创作中的抄袭之风。

 

关于人工智能的生成作品,现行著作权法遇有以下几个问题:

 

一是机器人生成作品的“可版权性”问题。


著作权的保护范围与创作者的思想表现形式相联系而存在。“思想表现形式”,也称为“表现形式”,是著作权理论中最基本的逻辑概念,它在文学艺术和科学创作领域具象为作品。


作者的创作活动可以明确地分为两个部分,一部分是存在于作者大脑中的思想,而另一部分是作者的思想表现形式。这种思想表现形式是作品完成的最终形态,其基本构成要素是以文字、语言、色彩、线条、韵律、舞谱等为表现形式的符号,但它成为法律保护的作品尚须具备两个条件:一是独创性(或称原创性),二是可复制性。这些即是作品的“可版权性”要求。


人工智能生成作品与人类创作作品,在“思想表现形式”及其独创性要求方面很难辨识,这是因为它们具备一般作品的“可版权性”条件。依世界知识产权组织的权威解释,作品须具有独创性,即“作品是作者自己的创作,是完全不是或基本上不是从另一作品抄袭来的”。


这里问题的关键是,作者仅指人类作者,可否包括机器人作者?著作权的人格基础如何理解?有的学者认为,著作权总体而言是一种人格主义范畴的权利,即著作权法是以人类智力为中心来构建其保护对象的。从这一基点出发,人的智力活动才能被称为“创作”,人的智力创造成果才能视为“作品”。


在著作权法实践中,最典型事例即是“猴子自拍照”版权登记案。2011年,印尼原始森林的一只猿猴使用英国摄影师戴维·斯莱特(David Slate)的摄影设备自拍成照。为此,美国版权局强调,只有人类创作的作品才受保护。“对自然力、动物、植物产生的作品,版权局不会予以登记”,“对机器产生的作品,没有任何创造性输入或没有人类作者的干预而通过自动或随机运作的机械方法产生的作品,版权局也不会登记”。


按照这些学者的说法,人工智能不具备人类作者的人格属性,也就无须考量其生成作品的创造力和独创性问题,质言之,该类作品不属于著作权保护对象。


本人认为,人工智能生成之内容,即“机器创作的作品”,实为人机合作的智力成果,并没有离开著作权法的人格主义基础。这是因为,为特定目的而设计的作品生成软件,概为人类作者设计,不能将“机器作者”与生成软件等同而无视人的智力贡献;人工智能创作过程中,大量储备的文本语料和加工合成的语言模型本身,无一不是包含人类作者的创造劳动,这与美国版权局所认定“没有任何创造性输入或没有人类作者的干预”,仅是“自动或随机创作的机械方法”而产生的作品,并非同一情形。


还有学者从另一视角论证了人工智能生成内容的作品属性。该观点认为,对人工智能生成作品的“可版权性”判断,可以遵循“额头冒汗”原则建立独创性判断的客观标准,不能因为人工智能生成作品的创作主体不是自然人,就否认其“可版权性”,在传统著作权分析框架中,该类作品实际上是一种人工智能对设计版权的演绎作品。

 

二是机器人生成作品的权利归属问题。


作品的著作权归属,根据法律规定或合同的约定而确定。一般情况下,著作权属于作者所有,在现行著作权法中,作者即为人类作者。至于其他人能否成为原始权利主体,各国规定不一:我国规定,职务作品中的雇主、委托作品中出资人可成为原始主体,诸如英国、爱尔兰、加拿大等国也有类似规定。但也有一些国家如法国,规定只有创作作品的人才能成为原始主体,雇佣合同、服务合同的存在,并不影响作者对其作品所享有的著作权。


对权利归属问题的讨论有两种结果:倘若反对人工智能生成作品的“可版权性”,将无著作权归属及其行使问题之存在,换言之,机器人作品即使具有相当的创造水平和艺术价值,也只能属于公有领域的作品。在没有著作权保护的情况下,就会出现机器人复制机器人作品、自然人抄袭机器人作品的“合法行为”。著作权领域的“灰色地带”过于泛滥,不利于保护投资人、创造人投入人工智能创作的激情。


当然,如果承认人工智能生成作品的“可版权性”,在机器人不具备主体资格的情况下也能确认著作权归属问题。可以认为,机器人作品享有著作权,但机器人并不能像自然人作者或法人作者那样去行使权利,换言之,该项著作权应归属于机器人的创造人或所有人。


这是因为,机器人是机器而不是“人”,它是依靠数据和算法而完成写作,该机器人以及其写作的技术路径无一不是人类创制。在这种情况下,法律可以通过保护机器人作品以达到保护机器人的创造人和所有人的目的。具言之,可参照著作权法关于职务作品或雇佣作品的规定,由创制或投资机器作品生成软件的“人”而不是机器人本身去享有和行使权利。

 

三是机器人生成作品的权利保护问题。


这里主要讨论机器人作品著作权取得方式和保护期限。著作权取得方式,是指著作权人通过何种方式取得著作权,英美法系国家和大陆法系国家对于著作权的取得方式有着不同的规定,主要包括注册取得和自动取得两种方式。我国著作权法采取自动取得原则,即作者因进行了创作而自动取得作品著作权,无须履行其他任何手续。


根据自愿原则,著作权人可以对其创作的文学、艺术和自然科学、社会科学、工程技术作品进行登记。著作权登记不是权利产生之必需,而是作为证明权益存在、解决权利纠纷的证据。


考虑到未来人工智能生成作品的海量存在,对该类作品应要求登记备查,以便于确权认定。著作权保护期限有两种计算方式,对于一般作品适用“死亡起算主义”;对于特殊作品,则适用“发表起算主义”。


从理论上说,人工智能生成作品著作权期限,不宜采取“死亡起算主义”,即有生之年加死后若干年。这是因为,人工智能无“有生之年”限制,其“生命”周期谓之无限,采取“死亡起算主义”无疑会加大社会公众使用该类作品的成本。因此,机器人作品可以与法人作品、职务作品一样,规定著作权保护期为50年。

 

张晓津:如前所述,目前人工智能技术的发展尚处于弱人工智能的阶段,机器所创作出来的作品,仍然是由软件开发者开发完成的程序创作出来的,其中的自主性创作成分是不存在的,其本质仍然是对人的智能的应用。但随着机器学习能力的增强,深度学习技术的深入发展,可能会带来超出人类预设的程序,而由有自我意识的真正能思维的智能机器创作出作品的情况发生,也就是我们说的强人工智能时代的到来。


在强人工智能时代,确实需要我们去思考有自我意识的智能机器创作完成的作品,或是开发出来的技术方案能否受到著作权法或是专利法的保护,以及相关知识产权的权利归属应归属机器还是人类等问题。但在当前持续时间可能相对较长的弱人工智能时代,应该还不存在上述问题的讨论。

 

首先,关于人工智能创作物是否应受到著作权法的保护问题。


根据著作权法的相关规定,构成作品的要件包括其是否具有独创性以及是否能够以有形形式复制,其中重要的考量在于创作物本身是否系独立创作,是否具备独创性。在现行著作权法的原理和框架下,独创性的判断往往同创作者的人格属性密切相关,作品通常被理解为人类思想情感的表达。


人工智能在现阶段,也就是弱人工智能时代,仍属于创作工具,其运行的过程并未脱离人类作为软件开发者预设的算法,人工智能创作物本质上仍然是人类作者思想的表达。


此时,人工智能创作物如果符合“独创性”条件,仍应被认定为作品,仍应受到著作权法的保护。但人工智能如果发展到强人工智能时代,该人工智能创作物的完成已经在一定程度上摆脱了人类预设的软件算法,更多的是在人工智能自我意识、自我思维的状态下完成,在其符合独创性条件的情况下,能否将其纳入现行《著作权法》的框架,作为与创作者人格属性相关的作品得到保护就成为有待研究的问题。


在此情况下,我认为即使要赋予其作品法律地位,也需要对现行法律进行一定程度的修改,将与人类人格属性密切相关的作品概念进行适度拓展,将人工智能创作物囊括进去。

 

其次,关于人工智能创作物的权利归属问题。


如果人工智能创作物符合著作权法规定的作品构成要件,可以受到著作权法的保护,那该作品的著作权应如何确定权利归属?人工智能能否成为作品的作者?根据我国现行《著作权法》第2条和第9条的规定,我们可以看到作品的创作者仍然限于中国公民、外国人、无国籍人等人类的范围内,现行法律无法将非人类的创作者纳入作者的范畴。


如在原告长沙动物园诉当代商报社、海底世界(湖南)有限公司侵犯著作权及不正当竞争纠纷案中,法院认为“海豚所作出的表演,实质上是因驯养员的训练而产生的条件反射,是驯养员训练思维的一种机械性、生理性反映工具,海豚不具有法律上的人格意义,既不是表演者,也不能构成著作权的权利主体”。


而在前面吴教授提到的美国猿猴自拍照案中,摄影师认为是其事先设置好拍摄设备后远离设备,猿猴前去自拍,才有了猿猴自拍的照片,照片版权应归属摄影师;而某动物保护组织则认为照片版权应归属猿猴。后美国版权局于2014年12月22日发布的文件中明确规定了作品的人类创作条件。

 

在弱人工智能时代,符合作品构成要件的人工智能创作物的著作权也应当归属于人类,这与著作权法鼓励人类创作的初衷也是一致的,至于其著作权人是归属于软件程序开发者还是使用程序完成创作物的使用者,则应根据其贡献度进行个案综合判断。


在强人工智能时代,人工智能创作物由人工智能有意识的自主完成,其创作物的完成与人类无直接关系,则其著作权的归属可以考虑按照张平教授的观点,归属人工智能的实际控制者,对人工智能给予其在作品上署名的权利。


人工智能与

垄断和不正当竞争

中法评

接下来我们讨论一下人工智能背景下的垄断问题。在人工智能领域里,好多运行都是机器自动完成,由机器协议自动抓取、自动进行创作或者是自动进行工作,比如区块链。


那么,这种机器协议,这些规则或者代码,未来会不会具有垄断性?谁来控制和解释这些规则和代码?


 

张平:传统技术领域的垄断协议可能是由一家企业或几家企业联合形成的,这可以通过反垄断法进行规制,但是,类似于COOKIES这类爬虫协议,本身是计算机程序自动完成,得到行业共识,在没有哪一家企业对其有后续解释权的时候也无可非议,它已经成为虚拟社会的共同财富,就像早期互联网的TCP/IP协议一样,原始的技术公司放弃了知识产权。


但安卓系统就不同了,它是由AOSP和GMS两部分组成,其中开源的,是AOSP这部分。但尽管是开放的、放弃专利权和著作权,但谷歌保留对其的解释权和不断升级的公共许可(GPL)政策的制定权,这种协议是有可能违反反垄断法的。


另一部分GMS,即谷歌移动服务,其中包含了谷歌地图、play市场等多种谷歌服务软件。对于绝大部分厂商来说,谷歌都要求其必须内置play市场、谷歌地图等谷歌服务软件,以及对谷歌应用的开发者鼓励其接入admob SDK,这种依靠开源部分搭售软件的捆绑行为,极类似滥用市场支配地位。


再如,人工智能领域里的区块链技术,它利用Harsh算法的特点致使原始数据不可篡改并抓取自动协议。区块链的一切应用,都是以协议为基础的,其不可篡改的机器自治就是通过软件的自动协议定义的,这种机器协议软件尽管是开放的,但也不是所有人都能够掌握,一旦被部分企业所控制,对未来金融领域以及一切应用区块链技术的领域来说都可能构成市场支配地位以及垄断协议问题。


现在我们看到各个国家的中央银行和金融机构已经行动起来着手开始区块链的研究,2015年就有高盛、瑞银,以及国内的招商银行等金融巨头加入R3区块链联盟,后高盛、摩根斯坦利等银行又退出R3另起炉灶。可见各大金融机构对区块链的重视和掌控的决心。


虽然各家争夺,但目前还没有一个很好的解决方案,这也就是为什么自2017年以来,在区块链技术上各国展开了激烈的竞争,都想做机器协议的控制者。控制了机器协议,就拥有了下一代技术上极大的话语权,这对每一个国家来说都是极为重要的。所以这些规则或代码,未来很可能会具有垄断性。那么谁来解释,还要看各家争夺的结果和市场的走向。

 

张晓津:人工智能的发展,无论在弱人工智能阶段还是强人工智能阶段,都涉及根据机器协议去抓取数据、分析数据、按照协议指令去开展工作等问题,确实与机器协议的使用密切相关。区块链就是典型的基于协议而形成的一种去中心化的运行模式,尤其是对于用户的数据,除加强网络安全和个人隐私数据的保护外,可以实现其他数据的全社会共享,真正实现大数据的价值。


同时我们也要注意到,人工智能和机器算法在给社会公众带来良好和新鲜的生活体验,带来社会经济在全数字环境下迅速发展的福利的同时,算法编程和人工智能也可能会被不合理利用,成为操纵不合理价格、损害市场参与者利益、挑战执法机构的垄断工具。


为此,人工智能领域的标准化工作也应引起高度重视,因为标准化有助于营造公平开放的人工智能产业生态。目前行业巨头大多以开源算法、平台接口绑定等方式,打造自有深度学习框架等生态体系,造成用户数据信息较难迁移。这需要统一的标准实现厂商之间的交互操作与协同工作,防止出现行业垄断和用户绑定,形成良性的产业生态。

 

吴汉东:人工智能的核心在于算法,基础在于数据,人工智能领域的限制竞争与垄断风险也在于此。算法的不当利用、数据的秘而不宣,都会对市场的正常竞争秩序造成影响。


具体来说,有以下几个问题:

 

一是人工智能背景下的数据垄断。人工智能的深度学习技术需要海量数据,这些数据存在于电脑、手机、智能家电等电子用品中。在人工智能背景下,数据类似于一种工业原料,为一定的人工智能所开采收集,也可为其他人工智能进行开发利用,这就使数据具备了非凡的经济价值。


美国《哈佛商业评论》近期发表文章称,科技巨头正在比拼谁能收集更好、更全的用户数据进而给用户更精准地“画像”,同时阻止竞争对手获得数据。在竞争法视角下,数据的垄断,存在阻却新兴企业进入市场和固定既存市场份额的潜在风险;而在知识产权视角下,数据作为一种非物质财产,企业为其所做出的收集、整理的劳动值得法律保护。既要对数据财产给予保护,又要防止数据垄断,这是法律面临的难题。


二是人工智能使用者的媒介共谋。媒介共谋,即是指以人工智能为“信使”实施的抑制竞争的合意。换言之,人工智能可能为企业之间共谋提供隐蔽环境和高效手段,帮助合谋者达成垄断协议、实施垄断行为或监控垄断状态。


在美国航空运价发布(Airline Tariff Publishing)案中,涉案航空公司通过一种票价传播服务的人工智能进行协商最终达成合意,使票价超过了竞争性水平。该人工智能的设计本来旨在沟通使用者和各航空公司,而航空公司将该系统用作信息交流平台,从而产生了反垄断法上的风险。


无独有偶,Uber公司反垄断案,则是以算法实施垄断行为,其采用的自动定价算法被认为为剥削行为以及协同性涨价提供了机会。人工智能的开发者和使用者在Uber案中被认为存在纵向协议,而自动定价系统的使用则落实并监督了这种纵向协议的运行。

 

三是人工智能运行中的默示共谋。默示共谋,是指企业间尚未结成真正的协议关系,但当事人通过彼此相互依赖的关系和心照不宣的意思交流,实际上进行合作以避免竞争风险,达成限制竞争目的的行为。


实施反竞争行为的假设是,在某一行业中各企业采用相同或相似的人工智能以拟定经营计划,明晰市场状况和预测市场走向;在这种情况下,人工智能可以轻易察觉对手的市场行为,预测潜在竞争者的算法及其对竞争行为的回应,然后选择一种符合企业利益的竞争策略。这使市场处于一种近乎完全透明的状态,很容易在企业之间形成一种经营默契,这种默契并非是明确的垄断协议或者垄断行为。


企业间的这种默契会维持自身市场份额的稳定,甚至导致价格的提升。传统竞争法认为,证明当事人之间存在改变市场的协议十分必要,但是此类证据在这种默示共谋的条件下难以取得,经营者没有对于达成某种限制竞争的协议的合议,仅存在一定的放任态度。因而反垄断部门可能缺乏良好的规制工具。

 

四是人工智能学习中的算法作恶。算法作恶,是指不同企业独立开发的人工智能在经营者无意识的情况下通过深度学习达成的垄断。由于人类活动在垄断中的缺席,算法作恶也被称为自主共谋。企业独立开发、使用计算机算法,一般是服务于某种特定目的,并意图实现自身利益的最大化。通过自主学习和市场反馈,人工智能独立决定并不断调整经营手段,导致合谋并最终付诸行动,对此经营者可能毫不知情。

 

人工智能虽有相当智性,但缺乏心性和灵性,不足以取得独立的民事主体地位,因而也不具备可责性。而经营者缺乏限制竞争的意图,更无法准确预测人工智能限制竞争行为的发生,不宜苛责。这就导致了责任鸿沟。


就法律制度建设而言,如果总是基于技术及其效应的充分显现,以此形成以技术事实为基础的社会规范,那么法律制度的滞后现象将会十分严重,最终导致技术法律对技术“匡正”的失效和无力。我们需要重构我们曾经有过的制度,或者建立新的制度。


关于人工智能领域的反垄断介入方略,我拟提出如下构想:

 

(1)敦促数据公开。数据的垄断主要涉及以下三类:一是数据造成的进入性壁垒或扩张性壁垒;二是数据资本或数据服务的市场支配地位并滥用;三是数据寡头的垄断协议。以上三类垄断达成的前提都在于数据的秘而不宣,故而保障一定程度的公众接触的权利是十分必要的。


一方面,一些数据的产生来自零散消费者个人数据的总和,这使公众有对与自身休戚相关的数据的知情权和监督权;另一方面,数据对于人工智能的深度学习联系极其密切,数据的独占也容易使数据寡头对于人工智能市场进行上游控制。


值得注意的是,数据的公开并不意味着数据收集者对权利的损害。数据作为一种无形财产,对其设定类似著作权、专利权的法定许可制度是应有之义。互联网背景下数据市场日益扩张,使谈判成本将在频繁的交易中越来越高,数据的有限开放也是数据持有者和使用者所共同期望的。

 

(2)拟定伦理章程。反垄断法的法律滞后性,在日新月异的人工智能时代越发凸显。伦理规范可以先行和预设,对已变化或可能变化的竞争关系作出反映。机器人伦理章程的制定,可以为深度学习技术设定一定的边界,在防止机器算法作恶的同时,也可以对算法使用者产生一定的伦理约束。

 

(3)人类控制决策。关于人工智能决策合理性,仍在讨论之中。《人民日报》曾发文批判“算法决定内容”,称“任何时候,内容推送不能少了‘总编辑’,再好的传播渠道也要有‘看门人’”。事实上,这种担忧并非空穴来风。


据路透社报道,2018年3月19日,全球首例自动驾驶汽车导致路人死亡事故发生,Uber公司的自动驾驶汽车撞击一位路过女性致其死亡,导致Uber被迫宣布暂停所有自动驾驶测试。


除却在实际应用中存在的技术障碍,算法决策也存在关于人与机器关系的伦理沟壑。人对于机器绝对的控制力是人类社会物质文明的前提,算法作恶正在破坏这一前提。假设技术条件允许,具有法律底线和道德准则的人类做出的决策,较之于冰冷算法与机器而言无疑有着更为全面的考虑,即使决策因一些个人情感因素显得不够经济,这也是人工智能时代的核心法价值一一安全的必要代价。

 

(4)风险技术控制。智能技术的“核爆炸”,既对社会经济带来变革性的影响,也会产生技术性风险。正如前面所言,人工智能时代的竞争风险防范和治理,可采取技术控制与法律控制的综合治理机制。


技术控制是风险治理机制的重要措施。数据化的市场与竞争,便利了企业互相预测,以算法决胜,也为市场监管提供了便利手段。在数字化、智能化的市场中,技术控制能发挥重要作用,包括便利市场调研、洞察垄断状态、制止算法作恶、进行实时监督、确保有效执法等。

 

(5)严格责任原则。面对人工智能背景下的反竞争状况,最为简洁的解决途径是,在人工智能反垄断规制中全面普及无过错责任原则。如《日本禁止垄断法》第25条、《韩国限制垄断和公平交易法》第56条第2款,均规定了无过错责任原则。


从源头上杜绝企业取巧的观念,才能敦促经营者对于人工智能进行最为有效的控制。企业作为技术的开发者、使用者,因其对人工智能经营红利的实际占有,在收益范围之内对于人工智能自主合谋造成的损害结果进行补偿,这也是符合法律逻辑的。


中法评

在人工智能领域,不正当竞争的形式随着商业模式的增加而不断出现,问题日益增多。这些新的不正当竞争形式没有在法律中列举出来,所以如何妥善规制是目前面临的一个大问题,可否用帝王条款,用原则性条款,诚实信用条款,如爬虫协议,进行规制和解释呢?专家们可否有好的建议?



张晓津:我国的《反不正当竞争法》自1993年施行以来,一直到2017年才进行了第一次修改,今年开始施行新修改的法律,因此该法也被戏称为“生命力最强的法律”。


在长期的法律适用过程中,快速发展的互联网经济给市场竞争秩序和市场发展环境带来了非常大的变化,而《反不正当竞争法》是采用列举式的立法模式,1993年法律施行之时,互联网还没有开始大规模发展,法律中也没有相关的规定。因此,在司法实践中有大量涉及互联网领域的不正当竞争的行为是通过《反不正当竞争法》第2条的原则性条款来进行调整和规制的。

 

新的《反不正当竞争法》将第2条第1款修改为:“经营者在生产经营活动中,应当遵循自愿、平等、公平、诚信的原则,遵守法律和商业道德。”第2款修改为:“本法所称的不正当竞争行为,是指经营者在生产经营活动中,违反本法规定,扰乱市场竞争秩序,损害其他经营者或者消费者的合法权益的行为。”


从上述条文的内容看,其涵盖的范围是非常广的,但通常来说,法律规定中的原则条款往往都带有一定的宣誓性,通常不会直接予以适用。如《商标法》第7条所规定的“申请注册和使用商标,应当遵循诚实信用原则”的诚实信用条款,实践中通常也不在商标授权确权等司法和行政程序中适用,因其相关内容已经体现在法律的其他具体条文中了。

 

考虑到《反不正当竞争法》对不正当竞争行为进行列举式规定的立法模式,难免会出现挂一漏万的情况,因此该原则条款在某些情况下还是具有可适用的空间的。尤其是人工智能技术和产业发展迅速,立法的滞后性与技术迅猛发展的矛盾更为凸显。


在行业迅速发展的萌芽期和初创期,企业运用的技术手段和推出的商业服务模式不断推陈出新以抢占市场先机,争夺用户,竞争极为激烈,但由于缺乏行业规范和行业自律,法律也缺少相关规定,故极易引发纠纷,出现利益冲突甚至不正当竞争的情形。


此时,司法机关对于当事人提起诉讼的案件,又不能以缺少法律规定为由拒绝裁判,因此就只能依据法律的原则条款和立法目的等因素综合进行判定和处理。

 

对于互联网环境下的不正当竞争行为,《反不正当竞争法》修改后增加了第12条专门的互联网条款,列举了“经营者不得利用技术手段,通过影响用户选择或者其他方式,实施下列妨碍、破坏其他经营者合法提供的网络产品或者服务正常运行”的三项具体行为,并在第4项规定了兜底条款即“其他妨碍、破坏其他经营者合法提供的网络产品或者服务正常运行的行为”。


因此,对于人工智能领域涉及的不正当竞争问题,大多数都与互联网相关,如果能够适用互联网条款中的具体行为条款的,应优先适用;条款中没有对应的具体行为的,可适用该条款中的兜底条款;都无法适用的才去考虑第2条原则条款的适用。

 

张平:由于立法行为固有的滞后性,反不正当竞争法对于之后的技术发展很难有预见性,随着技术日新月异,商业模式不断增加,其规定的具体不正当竞争行为很难适用于互联网领域的不正当竞争现象。


比如爬虫协议,指网站所有者利用robots文本文件指导他们的网站如何应对网络机器人,允许还是拒绝网络机器人抓取信息的协议。当所有人遵守这个协议时当然没有问题,但当有人违反这一协议,那么是否属于不正当竞争行为;如果属于,在没有直接明确法律规范的情况下该如何规制?这的确是个问题。

 

我认为,一方面,要依靠原则性条款、诚实信用条款等一般条款进行规制。另一方面,也要靠人工智能行业自身的调节作用对不正当竞争行为进行规制,既要依靠行业技术标准发挥作用,又要依靠行业惯例、行业自律发挥作用。


人工智能

在司法实践中的应用

中法评

人工智能技术涉及“大数据+深度学习”技术,给司法实践带来了很多挑战和机遇,司法实践需要积极回应产业发展和需求,比如语音识别技术在审判中的应用、依托大数据对类案的统一裁判等。那么请嘉宾畅想一下,在涉及知识产权的司法案件中,未来人工智能会有哪些帮助?


 

张晓津:司法改革和信息化建设可以说是“车之两轮,鸟之双翼”,习近平总书记在2017年对司法体制改革作出重要指示时强调,要遵循司法规律,把深化司法体制改革和现代科技应用结合起来,不断完善和发展中国特色社会主义司法制度。

 

在知识产权司法审判领域,人工智能的发展对于司法改革模式下的案件裁判将会发挥非常大的作用。


第一,依托大数据和人工智能,充分发挥案例指导制度统一裁判尺度的作用。司法改革所倡导的“让审理者裁判,由裁判者负责”的司法责任制,突出了法官的主体地位,彰显了司法去行政化的变革,但也使裁判标准不统一的问题浮出水面。

 

第二,依托语音识别技术优化庭审,促进电子卷宗随案生成,进一步完善裁判文书公开、审判流程信息公开、庭审公开、执行信息公开四大平台建设,拓宽司法公开的广度和深度,主动回应社会关切。

 

第三,依托机器的深度学习技术和文书自动生成和智能校对系统,加强对已有司法裁判的研究和个案审理结果的预判,可有效辅助法官助理相关司法研究和裁判文书撰写方面的工作。


此外,在有些涉及卡拉OK歌曲侵权、网络影视作品侵权、摄影作品侵权等常规的类型化案件中,还可以引导当事人自行查看预判结果,寻求通过调解方式化解纠纷、解决矛盾的可能性。

 

伴随着人工智能技术和产业的迅猛发展,也有人在担忧人工智能是否会导致法官或法官助理等司法辅助人员失业的问题。然而,法官作为司法裁判者,其工作在于将知识产权法律的普遍知识与个案特殊的个性化事实相结合,得出法律适用的结果。


在此过程中,不是如机器人一般简单适用法律,还需要考虑到相关个案的特殊情况、国家的知识产权保护司法政策等因素。人工智能所做的司法裁判研究、裁判结果预判等工作仅仅是为法官或法官助理提供裁判参考,在一定程度上有利于促进同案同判,裁判文书自动生成和智能校对也可为法官和法官助理相对减负,但还无法从根本上替代法官或法官助理的工作,法官的存在依然是有必要和有意义的。

 

张平:在知识产权司法诉讼中,存在送达难、举证难、赔偿数额认定难等几个众所周知的困难。


送达难,难在对被告的送达,由于知识产权的无形性,加之很多当事人在外地,送达成了一个很大的问题。


举证难,难在知产诉讼专业性较强,当事人举证、质证能力较弱,实务中能提供损失证据的案件很少。


赔偿数额认定难,则是因为很多时候原告没有相关的证据,被告也拒绝提供相关证据,导致法院无法确定实际损失和侵权获利。加之现在法官数量下降和知产案件数量上升形成比较大的矛盾。


针对这些实际审判中存在的问题,法律人工智能应当有针对性地解决这些问题。


现在知识产权案件不仅数量越来越多,高难度案件也越来越多。很多专利案件不仅案情复杂,专业性强,而且涉及的说明书、权利要求书等动辄成百上千页,需要耗费法官大量的时间。若是能基于NLP、机器学习、预测性编程等技术,替法官进行审查、分析和研究,将大大节约人力和时间。

 

此外,相应的知识产权“大户”们,也应当做积极的尝试。例如,法务部门应当建立本企业所在领域的案件管理系统,包括相关起诉书、判决书、裁定书等法律文书,以及案件双方律师起诉、应诉方案等,为企业的知产布局打下坚实的基础。


坦率地讲,现在司法领域人工智能水平还比较低,还只能算“人工+智能”。目前的产品种类比较少,渗透率和覆盖率也偏低。我们的司法部门应当主动拥抱人工智能,运用较为成熟的技术,利用数字化、智能化实际解决司法中的问题。


人工智能将重构

知识产权法律价值

中法评

面对人工智能给知识产权法律带来的一系列挑战,对于立法者而言,应该以什么样的价值认识去构建知识产权法律体系?


 

吴汉东:探讨人工智能对知识产权法律的挑战,或者说对未来时代知识产权进行法律再造,必须厘清立法主体的法律价值取向,即立法者应该以什么样的价值认识去构建知识产权法律的体系、结构、内容和形式,以避免落入法律活动中的机械主义、技术主义和形式主义。从价值构成来看,知识产权法律应是价值理性与工具理性相统一的产物。


其中,首先,正义价值是伦理理性。知识产权法律的正义观念和体现正义的法律规范,都是以其相应的道德观念为基础的。正义作为一般法的普适价值,其蕴含的人格正义、分配正义、秩序正义构成人工智能法律保护的正当性基础。


其次,效率价值是经济理性。效率是知识产权法律构建的起始动因,也是促进人工智能发展、增加社会福祉的价值目标所在,其中产权保护、利用及限制的三大制度安排,表现了对信息资源进行优化配置的法律追求。


最后,创新价值是科学理性。创新是知识产权法律的价值灵魂,面向智能革命时代。知识产权法律的重要任务,即是通过产权制度创新实现以技术创新和文化创新为核心内容的知识创新。

 

基于人工智能对人类社会的影响,考量人类对未来时代制度的选择需要,我们有必要导入安全价值。可以说,安全价值既是一种时代理性,也是一种社会理性,它是人工智能法律的核心价值,亦可作为知识产权法律的价值构成。安全价值是对整个社会秩序稳定的维护。


对此,法哲学家雷加森斯·西克斯说:“如果法律秩序不代表一种安全的秩序,那么就不是一种法律。”人工智能作为未来时代技术尚在深入发展之中,但在当下已引发人们对其安全问题的普遍担忧。人工智能超越人类智能的可能性,人工智能产生危害后果的严重性,以及人工智能技术本身内在的不确定性,这些因素足以构成法律以及其他规范防止风险的必要性。


关于风险规制的安全规范,包括人工智能产品的伦理规范、人工智能技术的应用规范、人工智能安全的监测规范等,都是相关法律制度设计和安排需要考量的问题。

 

知识产权法律价值的实现,是法价值活动目的得以现实化的过程与结果。知识产权法律应与其他制度规范配合,以人工智能技术发展和规制为主题,形成包括法律规则、政策规定和伦理规范的社会治理体系。关于知识产权法律价值的实现途径,我认为应注意以下三个问题:

 

一是促进发展与风险防范的关系。人工智能已成为全球新一轮科技革命和产业复苏的着力点。人类社会正在从“互联网+”向“人工智能+”转型,旧领域生发出新的产业形态,多领域催生了新兴的细分行业,由此创造出巨大的经济财富和社会财富。可以预期,人工智能将从专业性较强的领域逐步拓展到社会生活的各个方面,人类未来会在“万物皆互联,无处不计算”的环境下精准生活。


在此,应发挥法律的风险控制功能,例如,知识产权法具有激励科技创新的制度功能,其授权客体的扩充及其权益保护,即是激励人工智能发展机制的法律表现。与此同时,知识产权法也要注重权利客体的排除领域,以及禁止权利滥用,限制权利行使等制度规则的适用,限制和消解人工智能的潜在危害。

 

二是伦理约束与法律调整的关系。从人类文明创始到现今人工智能时代开启,在社会规范体系中,法律与道德作为两种重要的调整手段,从不同方面、以不同方式、通过不同机制对社会生活发挥不同的影响和作用。对于人工智能社会关系的调整,伦理规范具有一种先导性的作用。


这是因为法律规范基于现实生活而生成,且立法过程烦琐,因而总是处于滞后境地;而伦理规范可以先行和预设,对已变化或可能变化的社会关系作出反映。


我国相关立法活动应未雨绸缪,组建专家团队对机器人专门法律开展研究,其重点包括:人工智能的法律地位、人工智能生成内容的权利归属、人工智能损害后果的责任分担、人工智能风险的法律控制等。


“智能机器人法则”是关于人工智能核心技术的专门立法,包括但不限于知识产权问题,换言之,该法则将是对现行知识产权法律的重要补充,也会引起知识产权现有观念和规则的重大变革。

 

三是法律控制与技术规制的关系。对人工智能的技术性风险和制度化风险,可建立法律控制与技术规制的综合治理体系。知识产权立法遵循“法定主义原则”,诸如严格授权对象范围、规范权利行使内容、禁止权利滥用的制度设计,都是风险控制规范的法律体现;知识产权司法裁判和行政执法,应秉持安全价值理念,在授权认定、权益纠纷处理以及侵权制裁中,注意限制和排除人工智能的潜在危害。


技术规制也是风险防范的重要举措,包括相关科技法规、公共政策规定和科技伦理规则,旨在对人工智能的研发、使用和传播建立限制机制、禁止机制以及惩戒机制。


这些技术规制具有以下特点:风险规避的主要路径,是事先预防而不是事后补救,即从技术研究开始规制,以预防技术产生的负面效应或副作用;风险规避的基础范式,是从技术研发到应用过程的责任制度,包括社会道义责任、科学伦理责任和法律责任;风险规避的重要措施,是奉行技术民主原则,包括技术信息适度公开和公众参与、公众决策。


推荐阅读

王利明:人工智能时代提出的法学新课题

吴汉东:人工智能时代的制度安排与法律规制

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存