查看原文
其他

ChatGPT问世,“人”往何处?

倪雪婧 数字法学 2023-12-16

点击蓝字,关注我们


The Author

本文作者


倪雪婧  


南京审计大学

法学院硕士


近期,美国89%的大学生利用ChatGPT完成作业,模仿鲁迅的文风生成散文等新闻,表现出ChatGPT在文本生成方面超越以往人工智能(如微软“小冰”、腾讯机器人)的水准与能力,为人工智能改变世界带来更多可供想象的空间。ChatGPT的问世与爆火,与自身特点及工作原理不无关系,但也因此引发大众对人工智能与自身未来的担忧。北密歇根大学一学生使用ChatGPT生成的论文获得班级最高分,引发社会热议。哥伦比亚一法官利用ChatGPT作出裁判,令人惊异。人们在感叹人工智能进步的同时,也开始反思自身与人工智能在智识方面的差异。多家学术期刊禁止将ChatGPT列为合著者,更是引发疑问。ChatGPT是否突破了人工智能与人脑间的界限,以至于需要限制ChatGPT对学术界的“入侵”?ChatGPT生成的文本是否具有人类“作品”的属性,换言之,ChatGPT生成的文本是否属于具有独创性的智力成果?这些问题不仅涉及对ChatGPT的定性,也是回答未来人机之间孰优孰劣的关键性问题。



首先是ChatGPT生成的文本的定性。人工智能生成物是处于“算法智能”阶段的产物(王小夏、付强,2017),以人工智能抓取大数据,并通过对海量数据的统计分析并结合算法而生成的符合人类语言表达的文本(吴东汉,2020)。基于此种原理而生成的文本,是否具有可版权性,成为相关领域的研究起点。对“思想表达二分法”原则的探讨,产生了著作权客体范畴的争议。认为著作权保护的客体为“表达”的学者指出,该原则旨在强调作品“表达”的重要性,只有以作品为可供评价的客观表达,才能进一步探讨作品的其他构成要件。算法生成物与作品外观无差别,也无须考量算法与“思想”之间的关联,能成为“作品”,进而讨论著作权归属的问题(刘强、刘忠优,2020)。另一派学者则认为,表达是蕴含思想的结果,二者无法全然分开,这也是我国《著作权法》与《著作权法实施条例》中明确“创作”的主体及内涵的缘由(冯晓青、潘柏华,2020)。也有学者认为,人工智能生成物是没有“思想”的“表达”,强调人工智能生成物的公共性,这样既可避免讨论著作权属及其保护问题,还可增加公共领域的知识(江帆,2020)。微软“小冰”产出的诗集获得广泛传播也已集结出版,腾讯机器人记者也可产出优质新闻稿件,采编效率和质量不低于记者。就“作品”的外在表现形式而言,人工智能生成物已突破著作权客体范畴的第一道防线,与自然人的作品无法直接作出区分,因此需要从具有“独创性”这一角度进行辨析。


一是“独创性”的判断标准。该标准既有源自“版权体系”下的作品中心主义解读的客观标准,也有源自“作者权体系”下的作者中心主义解读的主观标准。部分学者秉持着“独创性判断标准应向客观标准倾斜”的观点,认为只要作品不是对他人现有作品的复制(独立完成),表达形式能够与他人作品相区别,且能够排除惯用表达与思想同一性(最低限度的创作),即可构成著作权法意义上的作品(易继明,2017;梁志文,2017)。但问题在于,人工智能生成物因创作过程的独立性而引发著作权的争议,若认为独创性标准倾向于客观标准,更应围绕作品的“创造性”进行论证。因此,应以生成物的“创造性”进行着重讨论。在主观标准中,对“创造性”的评价聚焦于智力创作的过程,重点应当考察作者是否注入了“思想”或“精神”,并以此为基础对行为的创造性进行判定。事实上,正是作者在创作过程中,凭自身独特的个性、情感与思想,甚至是稍纵即逝的灵感,注入于创作过程中,使平凡的文字具有超凡的力量。


二是从工作原理来看,ChatGPT生成的文本仅止为信息处理物。纵观人工智能的原理,以“神经——中枢——大脑”的工作原理为依据,通过对人脑的基本单元神经元的模拟与链接,探索模拟人脑系统功能设计不断迭代、抽象的过程,以得到最优数据特征表示。近期爆火的ChatGPT,基于机器学习、神经网络及Transformer模型等多种技术积累外加嵌入人类反馈强化学习方案及人工监督微调,提升了对理解人类思维的准确性。但即便如此,本质仍是以一定的算法及模型为基础的程序,是依赖数理逻辑的计算理性的产物。换言之,输入特定的材料,人工智能运用算法进行处理,生成的结果虽不具重复性,却无法摆脱“同质化”的命运。在以往研究中,有学者认为,人工智能生成物不具备“独创性”的原因在于“创作过程”本质属于执行既定流程和方法的结果(王迁,2017)。即便比起前期的人工智能,ChatGPT通过预训练已经能更熟练的处理自然语言,且具备有效捕捉用户意图、敢于质疑、理解语境等先进特征,能够通过与提问者进行深度沟通而更改生成的结果,但仍难以从中看到属于人独有的“思想”与“精神”。



其次,如何看待人机关系的未来。尽管不能否认ChatGPT具有的强大的辅助功能,如已经制作出来的裁判文书因其制作过程搜集的相关信息更加全面,可以作为法官裁判时的参考,然而以ChatGPT全面替代人脑的设想显然不可行。这里涉及的是二者的根本性区别,即ChatGPT仅为高级的信息处理机制,而人脑则不仅在处理信息,还要有独有的临事议决的意识性、创造性活动。事实上,“创造性”是一个难以科学化的概念,更像是包含了人作为主体在构建人类社会过程中的一切实践与经验积累而生成的独特能力。这种独特的能力是源于人所特有的“意识”。“人类的意识是一个形式极其多样、结构极其复杂、变化及其微妙的精神世界。……下意识、无意识、感觉、知觉、表象、欲望、动机、想象、情绪、灵感、判断、推理、理论、假说、目的、计划、信念、信仰、理想、意志等等,都是人类精神活动最经常、最普遍地采用的形式。”(肖前,1994)。人作为一种有意识的类存在物,通过把对客观世界的观察转化为自身的认知,通过实践将感性认知上升为理性认知,以使自己认识世界、改造世界。在此过程中,理性的、逻辑的通过语言、文字的方式固定流传,感性的、非逻辑等无法言说或描述的则通过艺术作品、行为等方式固定。人的意识是逻辑与非逻辑的结合体,在创作时,那些非逻辑的、无可言说的情感透过作品,可以为读者营造出特定的氛围或感受。人工智能虽然可以通过特定的算法将蕴含丰富情感、知觉等多重因素的自然语言转化、固定为人工语言并以此基础模型,然而究其根本而言,作为人工智能基础的算法所依赖的计算理性是一种数理逻辑,所使用的语言实际上是一种以0和1这两个数码为单位的二进制人工语言,无论进阶到何种高级阶段,如自主学习和自动数据处理的更加智能化,其最终的原理都将还原为这种可以符号化的二进制人工语言,这与人脑在思维时融合了感觉、知觉、情感等理性和非理性因素而形成的包含多重复杂因素而形成的自然语言有着本质的不同。因此,仅具有“有限的理性”而无法处理逻辑之外的部分,无法做到对人类意识的复现,更无法体现出“创造性”。正如Stuart Russell(斯图亚特·罗素)在其新著Human Compatible所言:人工智能中没有人在使机器有意识,也没有人知道从哪里开始,也没有行为将意识当作先决条件。……所有那些好莱坞关于机器神秘地变得有意识和憎恨人类的情节真的错过了这个要点:重要的是能力,而不是意识。




总之,人工智能是人类在实践过程中创造出的工具,它的本质仍是一个信息处理机制。人工智能生成物虽从形式来看已然能达到“独创性”程度,但实质上并非思想或意识的表达。“创造”文本的过程,仅仅构成一种通过算法进行分析、选择所完成的机械式的输出,绝非是利用思维与意识产出的具有“创造性”的作品。随着人工智能对自然语言的理解能力与学习能力大幅提升,产出的文本将更具可读性,但什么时候人工智能生成物可以被认为具有“创造性”呢?可能需要实现杰弗里·杰斐逊(Geoffrey Jefferson)教授对“机器会思考”的怀疑:“直至一部机器因思考和情感而不是通过随机排列符号而写出一首十四行诗或谱写一部协奏曲,我们才能认同机器等于同大脑。”然而,这样的等同于大脑的机器会到来吗?读罢萨瑟兰(Stuart Sutherland)在为《麦克米兰心理学词典》撰写的词条中的一段说明:“意识,有知觉、思想和情感;觉知。除非使用一个更难理解的、没有把握住意识含义的术语给意识下定义,否则意识是不可定义的。意识是一种令人着迷但又难以捉摸的现象:不可能具体说明它是什么,能做什么,或者为什么会进化出意识。还没有任何值得一读的有关意识的作品。”也许您会和我有相同的感受,虽然对ChatGPT心存敬畏,终究怀疑满腹。


END


本文作者:倪雪婧本文编辑:朱嘉珺、顾 昂

本文审阅:冯然然

(本文观点和内容与本公众号无关)

(如有侵权,请联系删除)

延伸阅读:

全球下载量猛增10倍!微软必应集成ChatGPT后需求大爆发|数字法学周报

何元迦 | 算法正义还是数字正义?

金龙君、翟翌 | 论个人信息处理中最小必要原则的审查



主     编:李华勇

副  主  编:王星雨

来稿请投:zjulaw@aliyun.com

转载须授权

继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存