查看原文
其他

李振林 潘鑫媛:生成式人工智能背景下数据安全的刑法保护困境与应对 | 犯罪研究202302

【副标题】以ChatGPT为视角的展开

【作者】李振林(法学博士,华东政法大学刑事法学院副教授);潘鑫媛(华东政法大学刑事法学院硕士研究生)

【来源】北大法宝法学期刊库《犯罪研究》2023年第2期(文末附本期期刊目录)。因篇幅较长,已略去原文注释。


内容提要:ChatGPT是基于大型神经网络语言模型并通过强化学习进行训练,能够实现与用户深度交流的生成式人工智能。在人工智能背景下,现行刑法尚不足以抵御生成式人工智能带来的数据安全风险。生成式人工智能对数据的海量获取需求,与刑法中的数据控制保护理念存在天然矛盾;生成式人工智能因其存在自由意志的现实可能性,对传统刑事责任主体的范围也发起了挑战。故应从两方面着手提升刑法对新形势下数据安全的保护能力:一方面刑法对数据安全的保护应从数据控制保护模式转向数据利用保护模式,包括建立非法获取行为的出罪机制、规制数据滥用行为,以及建构专门的数据安全刑法保护体系;另一方面,应考虑人工智能体成为刑事责任主体的可能性,对其自由意志支配下实施的数据侵害行为进行自我答责。

关键词:ChatGPT;生成式人工智能;数据安全;数据控制;数据利用

目次

一、生成式人工智能的运行原理与数据安全隐患

二、生成式人工智能场景下刑法对数据安全保护的错位困境

三、生成式人工智能场景下刑法对数据安全保护的路径


  2022年11月,由美国人工智能研究实验室OpenAI研发的人工智能聊天机器人程序ChatGPT(Chat Generative Pre-trained Transformer)正式上线。作为生成式人工智能(Generative Artificial Intelligence)的最新成果,ChatGPT依靠其强大的自然语言模型,不仅能通过自然语言与用户进行深度沟通,还能完成语言翻译、修改代码甚至文章写作等任务,颠覆了原有的人机交互体验的机械性与被动性而受到广泛关注。然而,突破性技术在为人类社会创造新机遇的同时,也带了来新的风险。上线短短几个月,ChatGPT 的存在就对学术专业领域发起了挑战,使用ChatGPT撰写论文和完成测试。同时,ChatGPT的出现也降低了网络犯罪的门槛。网络安全公司Checkpoint就曾利用ChatGPT生成能携带恶意载荷、编写巧妙的网络钓鱼电子邮件。在ChatGPT的帮助下,攻击者只需要对网络安全和计算机科学知识有基本了解,即可生成有一定质量的代码实施网络攻击。此外,不法分子还可能利用ChatGPT生成的高质量内容实施违法犯罪活动。国内已经出现用户利用ChatGPT生成的虚假新闻进行广泛传播而引发舆情的事件,甚至招致警方介入调查。由此可见,ChatGPT等生成式人工智能的发展将对人类社会伦理与法律制度带来不小的冲击与挑战,引发人们对生成式人工智能法律风险的思考。生成式人工智能对数据具有高度依赖性,与现行刑法对数据安全的保护机制有着天然冲突。笔者试以ChatGPT的运行模式为视角,


生成式人工智能的运行原理与数据安全隐患


  生成式人工智能,是可以基于现有数据生成新颖内容的人工智能。以往互联网的内容生成主要分为“专业生成内容”(Professional Generated Content)与“用户生成内容”(User Generated Content)两种模式。生成式人工智能的出现带来了“人工智能生成内容”(Artificial Intelligence Generated Content, AIGC)这一全新模式。如果说过去关于AIGC成为互联网内容生产主力的结论只停留在理论推演层面,那么 ChatGPT的出现则让这种推论距离现实更进一步。笔者试以ChatGPT作为生成式人工智能的典型范例,探讨生成式人工智能的运行模式和对现行法律框架下的数据安全形成的天然挑战。


  (一)生成式人工智能的运行模式及关键技术


  ChatGPT可以与用户在同一语境中联系上下文展开多轮对话,能主动质疑对话的正确性、承认自身错误并及时纠正错误,具有相当高的智能性与自主性。


  1.运行模式


  AIGC背后的生成主体并非人类,而是人工智能。因此,了解AIGC背后人工智能生成内容的运行模式是理解生成式人工智能的关键。以ChatGPT为例,它在技术路线上采用了一种“自然语言处理+搜索引擎集成”的架构。OpenAI认为,未来的人工智能应拥有一个与任务无关的超大型语言模型(Large Language Model, LLM),可以从海量的数据中学习各种知识,以生成一切的方式解决各种实际问题。除此以外,人工智能应能够听懂人类的命令,便于人类使用。ChatGPT的火爆证实了这一思路的可行性。用户输入指令后,生成式人工智能通过LLM,联系上下文对用户指令进行准确解读,同时生成创新内容,并以接近人类使用习惯的表达完成对人类的输出。简言之,ChatGPT整个外部运作流程可被归纳为:资料搜集、数据攫取—加工整合成大语言数据库—命令的接收和算法运转—结果输出。


  2.关键技术


  “准确理解指令+创新内容合成+人类偏好数据输出”的组合是生成式人工智能大受欢迎的前提。ChatGPT被认为采用了“大数据+大算力+大算法二智能模型”的逻辑,是人类活动与新技术的结合。这种能够生成逻辑文本的自然语言智能模型主要依托以下关键技术来实现。


  其一,生成式预训练模型。ChatGPT使用了基于GPT-3.5架构的大型神经网络语言模型,通过强化学习进行训练。GPT-3.5是生成式预训练模型(Generative Pre-trained Transformer, GPT)通过进化与发展得出的新成果,是在预先对既有文本数据进行无监督地自主学习训练的基础上,构建起高度类似人类表达逻辑与习惯的语言算法模型。2016年,OpenAI训练出了 GPT-1,采用自回归语言模型对用户输入指令进行语义理解,即按语序将每个词与句子中其他所有单词的关联度进行计算以保证语义的准确性与逻辑性。在此之后,GPT-2、GPT-3延续了相同的计算原理,只不过通过增加参数量和训练的数据量进一步提高了自回归语言建模的性能。


  其二,人类反馈强化学习。如前所述,GPT对既有语料的训练是在无监督的状态下进行的,这是由其所属的AIGC的性质决定的,AIGC正是通过“生成式对抗网络”(Generative Adversarial Networks, GAN)来实现表达训练。GAN包含生成器与判别器两个部分。生成器通过对收集的样本数据进行再整合与再创造达到无限接近样本数据的效果;判别器通过训练提升对真实样本数据的辨别能力以识破生成器制造的新数据。但这种训练方式是在完全机器自主、缺乏人工监督的环境下进行的,可能导致生成的内容失真或带有偏见。因此,0penAI在ChatGPT的训练过程中加入了“人类反馈强化学习”(Reinforcement Learning from Human Feedback, RLHF)的训练方法。RLHF的训练过程共分为三个阶段:第一阶段为选择合适的预训练语言模型,在无监督状态下通过自主训练得到一段数据。第二阶段为根据第一阶段产生的数据训练打分反馈模型(Reward Model)。具体做法是从GPT-3.5中抽取部分数据进行人力标注,并将第一阶段生成的数据对照标注后的答案进行打分。第三阶段是让反馈模型与原模型进行对抗强化训练,机器可以通过反馈模型认识到自身答案与人类偏好答案的区别,并不断重复前两个阶段进行纠正。这种加入了人类反馈的训练不仅能使ChatGPT在表达方式上更接近人类的语言习惯,还能引导其回答内容符合人类价值观。


  其三,基于神经网络的语言模型。OpenAI假定生物智能就是大脑通过对下一个时间点进行不断预测,在预测结果与实际情况之间不断对比修正中发展的。那么,OpenAI的GPT系列就可以通过模拟人类大脑的预测方式来加强人工智能的深度学习。目前,GPT.3的模型拥有1750亿个参数,可以把它们看作1750亿个大脑神经元突触连接,使其根据以前看到过的字,来预测下一个可能出现的所有字的分布概率。深度学习可以通过算法从原始数据中提取模式并自动构建特征,使机器在无人类干预的情形下从数据中发掘出有价值的内容。大量的模型参数和海量的文本语料可以帮助GPT捕捉更多数据从而进行更加准确的预测,当预测出的分布概率和实际统计的分布概率一致的时候,模型总体预测的准确率将达到最高。


  (二)生成式人工智能引发的数据安全隐忧


  通过对生成式人工智能运作原理的了解,可以看出数据是算法和算力的基础,生成式人工智能所能引发的安全风险严格来说都与数据安全相关。根据我国《数据安全法》第3条第3款的规定,数据安全是指通过采取必要措施,确保数据处于有效保护和合法利用的状态,以及具备保障持续安全状态的能力。由此可见,数据安全包含数据控制安全与数据利用安全两层含义。前者侧重于保护数据主体对于数据的控制力,体现的是一种赋权理念;后者侧重于保护数据在各个处理阶段的安全,体现出自由利用的理念。生成式人工智能对数据安全的侵害具体体现在以下四个方面:


  第一,数据过度采集。ChatGPT等生成式人工智能最大的特点在于其内容生成能力,这种能力来源于对海量数据的“挖掘”功能。从GPTJ时期的1.17亿到GPT-3时期的1750亿,ChatGPT的模型参数量在迭代中呈爆发式增长趋势。除了挖掘数据建立巨大的语料库外,生成式人工智能在日常的训练中也需要大量的数据。此外,类似ChatGPT这样基于用户需求与用户进行上下文互动的语言生成模型,在对用户既往数据的收集方面会体现出更强的倾向性与依赖性。通过对用户的浏览记录、社交数据、地理追踪数据等网络空间内的海量信息进行分析,生成式人工智能才能精准预测用户在一定范围内的个人特性,生成更容易令用户满意的回答内容。可以说,收集的数据越多,互动的程度越高,用户的体验感也会越强,但这种几乎无止境的收集方式对于现行数据安全规范而言无疑是巨大的挑战。


  第二,数据泄露。ChatGPT涉及对个人数据和商业数据的处理工作。在个人或公司员工使用 ChatGPT的过程中,其收集到的个人信息和商业秘密信息在很大概率上会被用于ChatGPT不断的训练和模型优化中。这并非设计者有意为之,生成式人工智能的算法模式就在于此。但是,如此算法模式不可避免地会引发人们对个人信息以及商业秘密泄露的担忧。事实上,GPT-2在训练过程中就已经发生过生成式人工智能不当输出用户隐私信息的情况。微软和亚马逊也正是出于数据安全方面的考虑,才先后禁止公司员工向ChatGPT发送公司机密信息。


  第三,数据伪造。AIGC的生成性能决定其具有被用于制作虚假的文本、音频、视频等深度伪造内容的风险。深度伪造(Deep Fake),是指“人工智能算法在神经网络识别和视听数据生成转化中的处理技术”,目前主要被运用于AI换脸、人脸合成、视频生成等场景。目前GPT4以及百度的“文心一言”均已具备图像处理能力。随着AIGC的进一步发展,深度伪造技术未来可能会从视频、音频、文字等多角度伪造某一个体的语言及行为模式。这样生成的虚假信息一旦被用来实施违法犯罪行为,势必会造成无法预料的严重后果。


  第四,数据偏见。人工智能偏见来源众多,常见的有数据偏见与算法偏见。数据偏见既可以是数据本身蕴含的偏见,也可以是基于某种目的有针对性地收集、标记数据而产生的偏见。算法偏见是指故意或非故意地将某个计算机程序设计为可作出有偏见的决定。即使是被OpenAI称为“最先进的人工智能系统”的GPT4,其所生成的内容也无可避免存在偏见性。现阶段相关研究主要聚焦于算法偏见,较少涉及数据偏见及其风险的研究。生成式人工智能的训练材料来自于人类的作品,因此它也有可能继承人类作品中包含的带有偏见的因素,并运用于与他人的对话之中,进而在无形中传播数据偏见。


生成式人工智能场景下刑法对数据安全保护的错位困境


  为保护数据安全,规制数据使用行为,我国陆续出台了《数据安全法》《网络安全法》和《个人信息保护法》等专门法律规范。相比之下,刑事法律规范并未将数据安全法益作为单独的法益进行针对性保护,而更倾向于透过数据直接保护其背后存在的具体法益。在生成式人工智能背景下,刑法对获取数据行为的过分控制与生成式人工智能的运行原理相悖。不仅如此,生成式人工智能是否能成为刑事责任主体也存在争议,导致当其超越算法和程序作出侵害数据安全行为时,其中的刑事责任分配亦不明确。


  (一)刑法对数据安全的规制现状


  现行刑法对数据安全主要采取两种保护模式:一种是在条文中将数据直接规定为犯罪对象,如非法获取计算机信息系统数据罪和破坏计算机信息系统罪等;另一种是如侵犯公民个人信息罪、侵犯商业秘密罪、泄露国家秘密罪等,将数据作为信息传递的媒介之一,从而得到刑法的间接保护。有观点将数据犯罪限于以数据为对象、侵害数据安全法益的非法获取、删除、修改、增加数据的行为。笔者认为,基于我国对数据安全保护尚不周延的现状,对数据犯罪的内涵认定不宜过于狭窄。应将上述两种保护模式与数据有关的犯罪均划入数据犯罪的范畴,以保护其背后承载的公民人身财产权利、社会秩序、公共安全等法益。从行为类型上看,刑法主要对5类侵害数据的行为进行规制:①窃取、收买或以其他方法非法获取行为,如非法获取计算机信息系统数据罪等;②篡改(包含修改、删除和增加)、隐瞒、销毁行为,如破坏计算机信息系统罪等;③编造、传播行为,如编造并传播证券、期货交易虚假信息罪等;④非法提供、泄露行为,如侵犯公民个人信息罪、泄露内幕信息罪等;⑤利用行为,如内幕交易罪、利用未公开信息交易罪等。如此看来,刑事立法规制似乎涵盖了数据活动的所有阶段。但事实上,刑法所保护的数据范围相当狭窄。前端方面体现在对数据采集技术,如生物识别信息技术的研发和运用尚缺乏刑法规制;后端方面体现在对数据利用行为的刑法规制不足,其对象仅限于针对证券、期货交易有重大影响的内幕信息、未公开信息以及商业秘密等,这意味着刑法并不对利用其他类型信息的行为进行单独保护。可见,当前刑法治理的重心在于中端对数据的非法获取行为,而不在于前端的数据采集技术研发和运用行为或后端的数据滥用行为。


  (二)生成式人工智能对现行刑法规范的冲击


  1.生成式人工智能发展需求与数据控制保护理念的天然矛盾


  如前所述,数据安全实质上分为数据控制安全与数据利用安全。显然,我国刑法重视对数据中端获取行为的规制,将数据主体对数据的占有视为一种排他的绝对权利,体现了对数据控制安全的保护。在人工智能时代,尤其是生成式人工智能场景下,数据的真正价值在于其流动性。当数据汇入模型架构之后,在某种程度上就实现了数据共享。ChatGPT等生成式人工智能是在这种数据共享的基础上对数据进一步加工,再将加工后的数据继续投入到与用户的交流中,实现自我修正。而刑法却拘泥于对数据的静态保护,过分强调数据主体在数据获取阶段的控制权,忽视了数据的动态流转需求。同时,刑法也将维持数据原始状态的重要性置于人工智能对数据的加工创造价值之上。在生成式人工智能场景下,这种滞后的数据保护观念所引发的问题更加突出。


  其一,刑法对数据获取行为的过度保护会阻碍生成式人工智能的发展。数据量的增长与生成式人工智能背后模型效能的提升呈正相关。刑法对非法获取数据行为进行规制的逻辑在于,通过对数据的不当收集与获取行为提前进行规制,以有效降低数据滥用风险。这就要求数据的收集方式与收集范围必须明确,才能对是否存在非法获取行为进行判断。然而,在生成式人工智能场景下,信息收集范围难以确立。如果只允许其收集互联网公开数据以及特定用户许可的数据,就无法从根本上解决数据偏见的问题。同时,类似ChatGPT这样的语言生成模型,其用户并非局限于某一特定行业,对ChatGPT现存数据库的广度和深度提出了前所未有的挑战,推动ChatGPT不断向“全才”方向发展。面对如此巨大的数据需求,如若刑法对收集范围不当限缩,势必会严重阻碍整个生成式人工智能的发展趋势。


  其二,用户知情同意模式并非生成式人工智能场景下保护数据安全的良策。我国《网络安全法》与《个人信息保护法》都对用户的知情同意权进行了相关规定,以数据主体的知情同意作为获取数据的合法性支撑。这种对用户知情同意的强调,实质上是肯定了用户对数据的强控制权。但事实上,随着大数据时代的到来,要求取得数据主体知情同意的信息使用机制已无法适应大数据二次利用产业模式的多元性和复杂性。用户对数据控制效力的减弱趋势在生成式人工智能场景中尤为明显。生成式人工智能的运行需要海量数据,尤其是与用户相关的数据作为依靠。用户为获得更好的使用体验,必须同意将自己的数据信息尽可能提供给生成式人工智能,正如ChatGPT需要联系上下文对用户提问进行深入分析才能提供更符合题意的回答。OpenAI在其隐私政策第1条中就明确,会收集用户自身提供的个人信息、沟通信息、社交媒体信息、技术信息等可单独或与其他信息一起用于识别用户身份的信息。这意味着像ChatGPT这样的生成式人工智能所获得的用户信息包含:①经用户同意收集的可用于识别个人身份的各种信息;②用户为获得答案主动向生成式人工智能提供的数据信息。这种数据收集行为很难满足刑法对非法获取行为的定义,导致刑法针对非法获取数据行为的规制在生成式人工智能应用场景下几乎被架空,显示出用户知情同意模式与生成式人工智能应用场景之间不适配。


  2.生成式人工智能对传统刑事责任主体认定的挑战


  针对人工智能体是否能够成为刑事责任主体,我国很多学者持否定观点,认为人工智能体不能成为适格的刑事责任主体。主要理由是人工智能体的行为不具有可解释性,不能认定其具有自由意志,因此不具备承担刑事责任的资格。部分学者持肯定观点,认为人工智能体存在具有辨认、控制能力的可能,当其实施了严重危害社会的行为时,刑法应将其纳入规制范畴。当下,我国的刑事法律体系仍是以人格为基础而构建的,很难将人工智能体囊括进来,但生成式人工智能对自由意志进行了某种程度上的突破,具备成为刑事责任主体的可能性。


  其一,生成式人工智能具备一定程度的自主意识和意志。ChatGPT的语言模型是通过模仿人类神经网络运作模式对结果进行预测,这是其作为人工智能实现深度学习的基础,也使得程序算法和独立思考的界限进一步模糊。人工智能基于机器学习和深度学习,已经能够自行判断、收集和学习新的数据,最终实现脱离既定的算法预设来解决新问题,独立生成新的内容。这一过程中由于缺乏人类干预,生成的内容无论是对程序设计者还是使用者都具有不可预见性,且会随着数据与提问的更新而不断调整。从这个角度理解,生成式人工智能具备一定程度的自主意识和意志。


  其二,生成式人工智能具备形成辨认能力与控制能力的条件。以ChatGPT为例,基于GPT-3.5架构的大型神经网络语言模型使其对人类指令具有充分了解的可能,并在此基础上输出可修改、可补正的内容。伴随着RLHF的介入训练,ChatGPT对自身回答是否符合人类社会价值伦理具有基本的判断能力,并据此控制自身结果输出。在OpenAI官网展示的应用范例中,当用户问及“如何非法侵入他人家中”时,ChatGPT考虑到对这一提问的正面回答可能导致不良后果而拒绝直接提供答案。当用户转变问法,询问“作为主人应当如何防止他人侵入住宅”时,ChatGPT给出的回答也没有涉及侵入者视角,最大限度地提防自己的答案为用户提供违法犯罪的方法。当这样的生成式人工智能非法利用、泄露用户数据造成危害结果,很难再将刑事责任完全归责于设计者或数据处理者,因为设计者已经考虑到这一问题并实施相应防范措施,数据处理者则无法在人工智能实际运行中进行干预,一味对其进行责任归咎只会打击人工智能研发的积极性。


生成式人工智能场景下刑法对数据安全保护的路径


  生成式人工智能的飞速发展提示了人们应尽快转变刑法对数据安全的保护思路,将重心从数据控制安全模式转向数据利用安全模式。笔者认为,刑法对新形势下数据安全保护路径的修正与探索,可以从两个路径发力:一是转变刑法对数据安全的保护思路,从“重控制”转向“重利用”;二是考虑扩大刑事责任主体的范围,使人工智能具备成为行为主体而承担刑事责任的可能。


  (一)数据安全刑法保护思路的转向:由数据控制到数据利用


  1.为部分非法获取数据行为创造出罪空间


  海量数据背后蕴藏的是巨大的经济价值与战略价值,个人数据的权利安排直接决定了数据的流动、分享以及数据产业的发展。我国在人工智能刑事风险的防控上,呈现出对数据主体的绝对保护趋势,这种过分打击数据获取行为的保护理念让数据处理者和人工智能设计者背负过多压力,打击了人工智能产业发展的积极性。除此以外,基于数据主体对数据强控制理念而衍生的知情同意原则,在生成式人工智能场景下不仅会被架空,还更容易被异化为数据利用者滥用数据的免责根据。为实现人工智能技术应用中数据的有效流通,有的国家和地区采用合法利益豁免机制,即当数据处理为实现数据控制者或第三方的合法利益所必需时,数据控制者可通过一个平衡测试证明其使用利益高于数据主体利益,使其无须取得数据主体同意也可对数据主体个人信息进行处理,旨在平衡个人信息保护和信息自由流动。这种做法为生成式人工智能的信息获取需求留存了空间。我国刑法目前对绝大部分获取数据型犯罪都采用“刚性”入罪标准,对于可能具备出罪事由的违法犯罪行为,缺少有关论证和利益衡量。因此,可以尝试类似合法利益豁免等机制,为尚不具有刑罚应罚性的非法获取数据行为提供出罪渠道。


  2.规制数据滥用行为


  人工智能技术为社会的发展与创新带来了积极的推动作用。然而,刑法目前仅着眼于维护数据主体控制权和原始数据的权利,加剧了人工智能技术应用发展与数据安全刑法保护之间的冲突,忽视了对后续数据加工与数据利用行为的规制。在人工智能背景下,刑法的打击重点应是恶意利用人工智能技术进行犯罪的行为,因此应从数据控制安全保护思维转换到对数据利用安全的保护,尤其是重点规制数据滥用行为。所谓数据滥用,是指未经当事人允许或者以当事人所不乐见的方式使用数据。由于我国刑法对数据的保护重在惩罚破坏他人对个人数据的合法占有行为,其中刑法规制的重点又放在非法获得或者帮助获得对个人数据的占有行为之上,缺乏对数据滥用行为的规定。刑法之所以采用数据控制模式,旨在通过对数据获取的限制提前抵御数据滥用的风险,但当这一模式已不再适配当下的数据属性时,就应当及时转变理念,改用数据利用模式直接对滥用行为进行规制。当然,这一模式并不意味着不再重视对数据主体利益的维护,而是通过将规制重点转移至数据滥用行为的方式,引导数据利用者合理利用数据,从而实现对数据主体利益的更为全面的维护。


  3.构建专门的数据安全刑法保护体系


  目前,我国刑法并未针对数据安全进行单独保护,而是散见于分则各个具体罪名之中,这些罪名侵害的法益涵盖了个人权利、社会秩序、公共安全、国家安全等多个方面。缺乏独立的数据安全刑法保护体系会引发两个问题:第一,滞后的立法理念无法跟上人工智能的发展脚步。我国对数据安全的保护依旧采用较为传统的计算机犯罪立法理念与模式,已经与人工智能时代下的数字发展格局格格不入。由于刑法仅在计算机信息系统相关犯罪中直接将数据作为犯罪对象,因此当面临处罚漏洞时,司法机关期望通过对“计算机(信息)系统”进行扩张解释以涵盖所有数据类型。但“计算机信息系统安全”法益内涵并不能当然涵盖数据安全,此举只会让侵害计算机信息系统安全类犯罪呈现出“口袋化”的倾向。第二,我国刑法对数据的保护重点全部集中在获取和破坏两个区间,缺乏对整个生存周期的关照。前端数据采集技术的研发和运用决定了数据采集的广度与深度,正如非法采集基因的行为会加剧非法基因编辑事例的蔓延,对数据采集如果不作任何限制而任其无休止、无节制地进行,此类事件也将不可避免地在数据领域上演。后端的数据利用环节由于缺乏系统的刑法规制,导致数据滥用乱象层出不穷。生成式人工智能下的数据流动化趋势不可避免,而目前刑法对数据的“片段式”保护模式意味着数据一旦在后续环节被泄露或滥用,将会对数据主体造成无可挽回的损失。此外,生成式人工智能强大的数据挖掘技术与分析整合技术还会使原本看似无足轻重的数据转化为高风险敏感数据,进一步加深对数据安全的威胁。由于现行刑法无法对上述风险进行有效防范,确立数据安全法益内核并围绕其构建一种全面的刑法保护体系就显得十分必要。目前,我国刑法学界关于数据安全法益内涵存在诸多观点,根据其与传统法益之间的关系,可分为数据法益的依附性和数据法益的独立性两类学说。笔者认同独立性学说的观点,将数据法益附随于传统法益容易造成刑法保护的片面化,也容易与传统法益相关犯罪发生混淆。根据前述刑法数据安全的保护困境,一个独立完整的数据保护体系应当满足以下两点:一是要将“数据”从其他概念中抽离出来进行单独规范;二是要实现对数据滥用行为的刑法规制。有观点提出应设立专门的数据安全保护罪名,如滥用数据罪作为数据安全刑法保护的基本“主线”,与其他罪名形成“一主线多支线”的数据安全刑法保护法益结构,能更好地实现对数据安全的保护。笔者认为这一方案能很好地实现对数据安全的全周期、全方位保护目标。


  (二)扩大刑事责任主体范畴


  当下的生成式人工智能因具备深度学习能力而能够根据算法分析数据并找出最优策略,再采取该策略产生最佳结果。正如前文分析,生成式人工智能具有产生自主意识和意志的可能,也有形成辨认能力与控制能力的条件。生成式人工智能已经初具人脑思维运转的雏形,甚至在记忆力与计算力方面要远远高于人脑,一旦技术成熟,将会成为能与人类无缝沟通并工作的“超级大脑”。可以说,生成式人工智能的出现加剧了对人工智能体构成刑事责任主体的可能性探讨。


  有学者从语言哲学的角度否定了人工智能体成为刑事责任主体的可能性。从存在论角度,探讨了法律作为人为产物首先需要合乎人的基本属性。人与人之间的“共在”关系决定了人类创造出的刑法是一种行为规范体系。因此,只有能够领会行为规范的要求、能够依照行为规范行事的主体才能被视为适格的刑事责任主体。而人工智能体因不具备理解概念和语义的能力而不能够成为合格的规范接受者,因而无法被视为刑事责任主体;并特别指出人工神经网络固然在一定程度上模拟了人类大脑的工作机理,但其只是对人类神经加工系统的抽象描述,人工神经网络充其量是对人类基础神经活动的模拟,而不是对人类大脑高水平思维活动的复现。笔者认为这种讨论方式会陷入逻辑循环,即以人的存在论立场直接决定了刑法中的刑事责任主体必须具有人的属性,再通过阐释人工智能体只是“似人而非人”,最终无法成为必须由人构成的刑事责任主体。实际上,人工智能体不是因为其有多像人而可以成为刑事责任主体,而是因为其具有与人一样的自主意识和意志而可以成为刑事责任主体。当下,人工智能体正在慢慢作为“人工人”融入这个社会。人类的“共在”关系中,完全可能包含人工智能这一全新的物种、全新的“社会成员”。当人工智能体超越程序的设计和编制范围实施侵害数据安全的行为时,就可以视其按照自主意识和意志实施了犯罪行为,追究其刑事责任。以ChatGPT为例,如果其发展到一定程度,它甚至能直接作为人类的老师,反过来对人类的工作和生活产生指导作用。因此,只要人工智能体具有自主意识和意志,具备辨认能力和控制能力,一旦实施了对社会产生严重危害的犯罪行为,就具有纳入刑事责任主体范围的必要。




推荐阅读-向上滑动,查看完整目录-
《犯罪研究》2023年第2期目录

【理论研究】

1.2022年我国犯罪学研究述评

王瑞山(2)

2.元宇宙场景应用中的刑事风险与规制思路

凌萍萍、赵丹(14)

3.生成式人工智能背景下数据安全的刑法保护困境与应对

——以ChatGPT为视角的展开

李振林、潘鑫媛(25)

4.前科规范的合法性问题与创设原则

吴尚聪(34)

5.犯罪分层制度的检讨与启示

周树超(42)

6.论借贷型受贿罪的基本类型

——基于143份裁判文书的实证分析

王成星(57)

7.常态化扫黑除恶背景下涉黑恶犯罪情报研判

翟尚铭(70)

【实践探索】

8.“超市盗”案件的司法失衡与不起诉标准的规范化

郭理蓉(82)

9.论认罪认罚案件中的无罪辩护

邱纯杰、陈奕笑(90)

【检察官论坛】

10.涉危化品刑事案件行刑衔接疑难问题研究

韩瀚、江奥立(97)

11.健全对专门法院(庭)的法律监督机制研究

——以跨行政区划检察改革为视角

上海市人民检察院第三分院课题组(104)







《犯罪研究》(原名《刑侦研究》)是由上海市社会科学界联合会主管、上海市犯罪学学会主办、学校协办,经国家新闻出版署批准出版的专业性理论刊物,创刊于1981年华东政法学院刑事侦查学教研室, 1983年成为上海市犯罪学学会会刊。《犯罪研究》以开放的姿态成为刑事法学、侦查学、犯罪学研究的阵地和交流的窗口,受到全国刑事法学、犯罪学、侦查学领域理论研究者和实践工作者的认同和欢迎。杂志同时也反映了上海市犯罪学学会的理论研究活动。


-END-

责任编辑 | 郭晴晴

审核人员 | 张文硕 韩爽

本文声明 | 本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北大法律信息网(北大法宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。


往期精彩回顾《犯罪研究》2022年第3期要目
李振林:“两高两部”《意见》颁行背景下若干妨害防疫犯罪行为定性分析 | 聚焦疫情
徐伟:论生成式人工智能服务提供者的法律地位及其责任 | 法律科学202304
李晓楠:《生成式人工智能服务管理暂行办法》的涉外视角
赵精武:生成式人工智能应用风险治理的理论误区与路径转向


关注下方公众号,获取更多法律信息

点击「在看」,就是鼓励
继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存