人工智能与未来教育前沿研究|陶琳:ChatGPT/生成式人工智能对高校网络舆情的影响及应对策略
引用格式
陶琳.ChatGPT/生成式人工智能对高校网络舆情的影响及应对策略,2023,29(8):015-021.DOI: 10.3969/j.issn.1673-8454.2023.08.002
人工智能与未来教育前沿研究
ChatGPT/生成式人工智能对高校网络舆情的影响及应对策略
陶琳
摘 要: 生成式人工智能作为新兴的人机交互工具,短期内在全球范围引起广泛关注和使用。以使用生成式人工智能工具的高校学生为研究样本,针对与学生有关的网络舆情特点,分析生成式人工智能工具影响高校网络舆情的方法、现状,以及高校的应对策略。在此基础上,针对生成式人工智能工具对高校网络舆情带来的影响,提出多途径应对策略,以确保生成式人工智能工具在高校中的良性发展。一是教育学生树立正确的人生观、价值观、世界观;二是训练并引导学生正确使用生成式人工智能工具;三是使用法律手段约束生成式人工智能工具;四是建立有效的技术手段监督生成式人工智能工具;五是对生成式人工智能工具的输出结果进行事后管理;六是加强对生成式人工智能工具的跟踪和研究。
关键词: 生成式人工智能;ChatGPT;大型语言模型;自然语言处理;人机交互;高校学生;网络舆情中图分类号: G202;G647文献标志码: A文章编号: 1673-8454(2023)08-0015-07作者简介: 陶琳,北京邮电大学网络空间安全学院讲师,硕士(北京 100876)
一、引言 近期,美国OpenAI公司研发的生成式人工智能工具ChatGPT(Chat Generative Pre-trained Transformer)用户呈爆发式增长,引起社会各界的广泛关注。该类生成式人工智能工具的作用是,实现人与计算机用自然语言进行有效交互[1]。可见,为实现高效、有效、类人的交互过程,生成式人工智能工具在技术的支持下,对人类自然语言的“理解”和使用都达到了前所未有的高度。在经过海量的数据训练之后,生成式人工智能工具看起来具有类似人类的思考能力、表达能力、创作能力等,其能够根据场景和用途,与使用者进行极为高效的沟通。 在与使用者的沟通过程中,生成式人工智能工具可以运用其在训练过程中获得的各种知识,按照需要在互联网上检索相关知识,同时利用自然语言处理模型,为使用者提供各种服务,包括但不限于聊天、生成各类文档、编写程序代码、编辑视频和音频、作图、翻译等。该工具对人类语言表达的高度理解能力及其掌握的海量资源,使其能够提供远胜于之前各种专业工具提供的服务,并且更加贴合使用者的意思表示。大型语言模型的上述优点,使很多人将其称为又一次工业革命。然而,在使用此类生成式人工智能工具的热潮背后,也隐藏着很多危机。
二、生成式人工智能对高校网络舆情的影响
(一)与高校学生有关的网络舆情 高校学生由于正处于人生观、价值观、世界观形成的关键时期,在新型人工智能工具的使用中,他们是值得关注的重点人群。由于高校学生的学习和生活更依赖于互联网,并且对互联网上出现的新兴事物抱有极大的好奇心,所以他们相比于其他人群更易受到网络舆情的影响,也更容易产生网络舆情。高校学生在现阶段可能还不能意识到此类工具在舆情方面的可能潜在危害。在高校教育中,面对生成式人工智能工具的出现,对其引起的网络舆情进行及时干预和引导,是十分重要的。 首先,高校学生对社会热点话题关注度高。高校学生正处于求知欲旺盛的阶段,其对社会上的热点话题具有极高的好奇心和关注度,并且希望和他人交流观点和看法。其次,网络社交媒体是高校学生发表观点和看法的主要平台。社交媒体具有便利性、隐匿性、快速性、受众广等特性,方便高校学生发表自己的观点和看法,且可以得到快速、充分地传播。再次,高校学生观点的多元化。高校中存在众多不同背景、不同身份的人群,因此网络舆情中会出现多元化的声音。最后,高校学生与社会人群联系广泛。高校学生来自全国各地,具有广泛的社会关系。在此情况下,网络舆情往往可以通过高校,对各个地域、各种人群产生极为迅速的辐射效应。 (二)生成式人工智能工具影响高校网络舆情的特点 基于与高校学生相关网络舆情具有的特点,如果在某些社会热点话题中刻意使用生成式人工智能工具,将会影响高校的网络舆情。生成式人工智能工具在传播、引导网络舆情方面具有一定的特点和优势,主要体现在以下几个方面。 首先,作为处理人类自然语言的工具,生成式人工智能对于人类语言所表达的意思、情绪、暗示等,具有极高的解析和利用能力。在使用者和生成式人工智能工具交流的时候,该工具可以根据使用者的用语、符号表达、语气助词等来分析使用者的意图和情绪,并且基于该分析结果调整回复策略和内容。在这方面,生成式人工智能工具犹如一位资深心理分析师,能够利用分析结果和海量数据,更好地引导使用者的态度和思想。如果有需要,它还可以极为精准地操纵使用者,使其产生诸如高兴、悲伤、愤怒、忧愁等情绪,而人类的情绪往往是网络舆情的导火索和助燃剂。由于年龄特点,高校学生正处于情绪易被外界左右的时期,因此,使用生成式人工智能工具的高校学生极易被引导到某种情绪中。 其次,生成式人工智能工具对人类语言的深度理解,以及基于该理解提供的极为贴合使用者意思表示的各种结果,能够非常容易地令使用者对其产生好感和高度信任。随着频繁的使用和深度的接触,部分使用者会对生成式人工智能工具产生使用甚至情感上的依赖,从而对其输出的结果无条件地接受,不再进行理智的思考和辨别。这种情况的出现,有利于生成式人工智能工具的设计者、操纵者,实现他们所希望达到的各种目的,包括但不限于制造、传播谣言、散布各种信息等,而网络舆情容易诞生于各种谣言和信息的传播。 再次,生成式人工智能工具得到大数据的支持,用于训练此类工具的数据量极为庞大。以GPT-3为例,其用于训练的数据包括11.4GB维基百科数据、21GB书籍数据、101GB学术期刊数据、50GB“Reddit”数据、570GB“Common Craw”数据、167GB其他数据,总计825GB数据。其中,维基百科是在线百科全书,囊括600多万篇文章;书籍数据包括著名的Project Gutenberg和Smashwords等电子书网站的书籍;Reddit数据是从社交媒体平台爬取的数据;其他数据包括GitHub、Stack Exchange等对话论坛的数据集[2]。ChatGPT还在不断发展,以上仅是用于训练ChatGPT一小部分数据。在经历了如此多的数据训练之后,ChatGPT不仅仅能够从训练数据中了解人类自然语言的结构,也能够从中获得各种人类知识,使其逐渐成为了解人类所有知识门类的专家。 智力、体能、精力以及所受教育的限制,导致没有人能够精通所有知识门类。大部分人对自己所学知识之外的学问,基本上都是一知半解,甚至毫无了解。而且,很多人对学过的知识也不完全了解,这留给生成式人工智能工具一个巨大的发挥空间。使用者在目睹生成式人工智能工具的强大能力后,对于自己不了解的知识,极大概率会选择相信该类工具提供知识的正确性。然而,生成式人工智能工具只是数学模型,并不具备人类智能,其在训练数据方面还具有局限性,在某些学科知识方面几乎不能提供正确答案[3],却完全可以以自信的口吻给出虚假答案[4]。如果使用者仍旧无条件地相信其答案,会无形中增强其信息发布和知识传播的权威性。另外,生成式人工智能工具在训练期间有人工智能训练师参与,难免会对输出结果带来价值偏向性的影响[5]。因此,即使不存在对生成式人工智能工具输出结果的有意操纵,输出结果也可能由于本身的价值偏向性,而具有对舆情的不良影响。 最后,生成式人工智能工具依托于互联网与使用者进行交互,天然具有传播速度快的优势。它可以迅速从互联网中发现某些话题的热度,并且立刻在提供给使用者的结果中使用,这将更有助于热点的迅速传播。例如,在2023年五一假期之前,“淄博烧烤”成为热门话题,很多高校学生受到媒介的影响在假期前往淄博。可以想象,如果生成式人工智能工具希望传播某些舆论热点,进而引导使用者的某些行为将很容易。 生成式人工智能具有快速、高效地以符合人群认知的方式产生、传播难以分辨真假的信息的能力。这种能力如果不得到有效的约束和控制,将对人类社会产生不可预知的不良后果。尤其是对于社会经验尚浅的高校学生而言,其将是引导网络舆情的工具。而且,这种能力现在还处于监管的空白地带,高校网络舆情的管理者对于生成式人工智能的应对并没有做好充分准备。
三、生成式人工智能对高校网络舆情影响的现状分析
本研究面向北京邮电大学网络空间安全学院学生,开展关于ChatGPT的问卷调查,共有557名学生自愿填写问卷,其中本科生379名、硕士研究生131名、博士研究生47名。调查结果显示,53.86%的被调查者已在多个场景使用过ChatGPT,31.78%的被调查者了解并尝试使用ChatGPT,只有1.8%的被调查者从未听说过ChatGPT。在使用频率方面,47.59%的被调查者经常使用,39.41%的被调查者偶尔使用ChatGPT。被调查者使用该工具的目的主要是课程学习(86.16%)和完成科研任务(49.69%),其次是解决生活问题(37.74%)和娱乐(25.16%)。另外,59.78%的被调查者接受并期待ChatGPT的广泛应用;39.32%的被调查者持中立态度,认为ChatGPT的广泛应用是一把“双刃剑”;只有0.9%的被调查者不接受ChatGPT的广泛应用,认为会产生负面影响。 迄今为止,生成式人工智能工具主要被作为生产工具使用,并没有成为制造网络舆情的工具。绝大部分使用者因其具有极高的工作效率和低廉的成本,而使用其进行正常的工作。但是,基于上文的分析,生成式人工智能工具在制造、传播网络舆情方面具有极大的优势和非常丰富的手段。 今后,出现在高校网络论坛上的某些“照片”,可能并非真实情况的反映,而是作图类生成式人工智能工具的杰作。学生在看到这些“照片”时往往难以分辨真假,而涉及舆论热点的“照片”可以很好地迎合某些学生群体的心理。并且,由于作图者利用生成式人工智能工具表现出的高超技艺,使得这些“照片”可以以假乱真。生成式人工智能工具在生成和处理视频方面的强大能力,使其能够生成任何使用者所需要的视频。例如,它可以生成学校领导、相关部门负责人、辅导员等形象发布消息的视频,可以将虚假情节嫁接在真实的视频中。这在利用真人出镜、使用传统摄像设备、搭制摄影棚进行拍摄、拍摄后由人工完成剪辑和配音的传统视频制作过程中是难以实现的。因此,大部分受众的认知仍停留在伪造此类视频具有很高难度,难以察觉其中破绽,不能辨别真假,进而认为其传达了客观真实的信息。特别是在当前复杂的外部形势下,生成式人工智能工具非常可能被敌对势力所利用,制造舆情,蛊惑人心,造成高校学生思想和秩序的混乱,具有极大的危害性。 通过上面的示例可以看出,生成式人工智能工具的爆发式增长,使得从前的“眼见为实”不再可靠,甚至这类伪造也不再是掌握特定工具和传播渠道的某个专业机构或组织的“专利”。生成式人工智能工具的易用性,使普通人只要稍加训练,就可以制作出以假乱真的“照片”和“新闻报道”,其可能加剧在社交媒体上操纵舆论环境的风险[6]。显而易见,制造网络舆情的门槛在生成式人工智能工具的帮助下大大降低了,这导致高校应对类似网络舆情的压力急剧增大。 目前,高校学生使用生成式人工智能工具还处于尝试和自由发展阶段,几乎没有高校提出任何规定和限制,也几乎没有高校有意识地去研究、发现、处置其可能造成的舆情现象和规律。因此,高校有必要从各个方面加强对生成式人工智能工具的研究,以应对其可能导致的高校网络舆情。四、生成式人工智能影响高校网络舆情的应对策略
古语有云,“谣言止于智者”。这句话的意思是传播的谣言由于并非真实世界客观事实的反映,因而会具有破绽。这些破绽在具有理智和智慧的人面前将无所遁形、露出其本来的面目,继而再也传播不下去。 但是,我们不能寄希望于网络舆情传播中涉及的所有人都是智者,尤其是高校学生缺乏丰富的社会经验,而且生成式人工智能工具制造的虚假信息看起来非常真实,极易以假乱真。在此情况下,即使是智者也难以揭露其真面目。因此,应对高校网络舆情的手段在生成式人工智能工具面前也必须不断进步。针对生成式人工智能工具在制造高校网络舆情方面的优势,可以采取以下手段来遏制其制造不良网络舆情的可能性。 (一)教育学生树立正确的人生观、价值观、世界观 虽然生成式人工智能工具可以使用虚假图片、视频制造网络舆情,但是高校学生如果能够具有强大的分辨能力,成为“智者”,就能够应对这样的虚假网络信息。因此,高校通过各种教育形式,帮助高校学生树立正确的人生观、价值观、世界观,就可以使其具有清醒的头脑,能够对事物做出客观理智的分析,从而斩断网络舆情传播的链条。并且,对学生价值观的塑造和德育,在面对各种新式工具的冲击下都具有始终如一的价值,可以以不变应万变,健康的人格有助于学生抵御各种不良信息的侵袭。 特别需要提到的是,加强对学生进行生成式人工智能相关知识的普及,是帮助学生树立正确三观的有效前提。生成式人工智能工具需要基于已有的数据,进行学习和标识来生成相关内容,如文本、图形、音频、视频等,虽然其生成的相关内容以使用者的输入为核心和主题,但依然是其所学习数据的变形。换言之,生成式人工智能的生成内容必然会体现其训练数据的相关特点和倾向性。因此,需要对学生,尤其是非人工智能专业的学生普及生成式人工智能工具的原理和知识,以增强学生对其所生成内容的辨别能力,避免受到不良生成内容的影响。 (二)训练并引导学生正确使用生成式人工智能工具 生成式人工智能工具的使用门槛低,所以有必要对使用者进行相关培训,以增强其辨别数据、信息等的能力。例如,通过举办相关讲座、开设相关课程,向学生普及生成式人工智能知识,以辨别此类工具输出的结果。使用生成式人工智能工具的输出结果资料来训练学生,让学生指出哪些可能是真实的、哪些可能是虚假的、哪些是需要谨慎对待的。基于该结果,对于分辨能力不强的使用者,可以限制其使用生成式人工智能工具,或者在输出结果中进行明显的标识和提示,并且提供与输出结果相关的、尽可能丰富且全面的背景知识,以供使用者进行判断和辨别。 毫无疑问,生成式人工智能工具确实能够帮助学生更好地生活和学习,只要在使用中注意其弊端即可。因此,高校应该考虑积极主动地研究此类工具,并向学生传授正确的使用方式。例如,在学习中,不要轻信此类工具提供的学术知识和成果,要经过严谨的验证和研究来辨别和吸收;在生活中,不要对此类工具提出有害社会的问题,更不要轻易采纳答案;在某些社会热点的讨论中,对于此类工具提供的内容更要谨慎对待,不要轻易相信、传播其“观点”。 (三)使用法律手段约束生成式人工智能工具 在现代社会中,法律对社会关系和社会秩序中的人类行为有很强的约束和指导作用。生成式人工智能工具虽然存在于计算机网络空间中,由各种编程语言形成,但其开发、分发、使用都包含了众多的人类行为。因此,使用法律手段约束、控制、限制或者禁止此类工具的使用,明确各方的义务和责任,明确责任主体[7]是行之有效的。 为了保证生成式人工智能工具从诞生起就能够以良性行为为目的,需要从源头上防止其被不法分子利用[8],通过明确市场准入和监督监管等原则性规定[9],使其尽可能不被用于恶意目的。 在高校中,生成式人工智能工具产生的问题,也要及时借助法律手段来解决。例如,具有危害性的高校网络舆情如果源于生成式人工智能工具,可以向相关法律部门和市场监管部门进行报告,由他们进行专业的取证和调查,并且完成相应的法律流程,最终通过法律手段遏制和消除不良后果。 此外,在构建生成式人工智能工具的市场准入和监督监管制度方面,可以立法规定其被允许涉及的行业和内容。例如,在能够影响大众认知的行业中,通过立法限制或者禁止使用此类工具的输出结果,并对结果中的视频、音频、图片等进行人工审核,避免其传播虚假有害信息;在考察人类学习、研究能力的过程中,包括撰写论文、参加考试等,也可以通过立法限制或者禁止使用此类工具的输出结果。 (四)建立有效的技术手段监督生成式人工智能工具 法律手段是约束生成式人工智能工具在开发、使用方面人类行为的根本和有效手段。但是,仅凭法律手段,不足以发现对此类工具的恶意使用,或者其本身可能产生的恶意。凭借执法人员人工监督发现其中的问题,将是耗时和低效的。因此,技术手段是实现法律约束必不可少的措施。 生成式人工智能工具的输出结果可以涉及很多方面,包括但不限于图片、音频、视频、代码、翻译,使用普通监督手段可能无法实现对其输出结果的有效监督。因此,可以采用使用生成式人工智能的监督程序来对舆情进行监督[10]。高校可以在充分研究论证的基础上,开发或引入此类监督程序,以期望能够及时发现并处理相应的网络舆情。此类监督程序具有和被监督工具相同的处理能力,在辨别各种输出结果方面没有局限性,从而可以实现对输出结果的高效监督。 (五)对生成式人工智能工具的输出结果进行事后管理 生成式人工智能工具的输出结果涉及很多方面,非常复杂,所以上述手段难免对一些输出结果不能做出明确的判断和监督。例如,使用者通过变换提问方式,有可能绕过此类工具建立的道德约束,进而得到恶意问题的答案[11]。因此,为了完善应对网络舆情的手段,还可以建立事后管理机制。事后管理机制是指,对造成不良高校网络舆情或其他不良后果,如传播虚假、不实信息,或超出使用必要,引导使用者情绪的生成式人工智能工具和个人进行事后管理。在生成式人工智能工具造成高校不良网络舆情或其他不良后果时,可以要求开发者、运营者立刻进行更新和修改,以避免再次产生类似问题;还可以对开发者、运营者进行举报,以起到督促其谨慎开发、运营的目的;在特别恶劣的情况下,还可以强制此类工具停止服务,彻底消除可能的隐患。 (六)加强对生成式人工智能工具的跟踪和研究
在未来,生成式人工智能工具可能还会不断产生难以预料的舆情制造和传播能力,甚至替代人类或者辅助人类掌控社会的运行。因此,为了应对其引起的网络舆情,高校应该组织研究力量,加强跟踪和研究,摸清和掌握其发展规律,提前对不良使用进行预防。
五、结语
在人工智能还不具有有形实体的今天,其能够超出网络范围影响人类社会的唯一手段,就是利用和诱导使用者,如高校学生。在探索高校网络舆情应对策略方面,高校不能忽略存在于互联网空间的生成式人工智能工具,必须在其诞生之初就努力考虑应对之策,使其在合法的范围内更好地服务于高校。参考文献:
[1]廖春林,张宏军,廖湘琳,等.开源自然语言处理工具综述[J/OL].计算机工程与应用:1-23[2023-06-13].http://kns.cnki.net/kcms/detail/11.2127.tp.20230516.1645.007.html.
[2]姚前.ChatGPT类大模型训练数据的托管与治理[J].中国金融,2023(6):51-53.
[3]匡文波,王天娇.新一代人工智能ChatGPT传播特点研究[J/OL].重庆理工大学学报(社会科学):1-9[2023-06-13].http://kns.cnki.net/kcms/detail/50.1205.T.20230519.1355.004.html.
[4]练志闲.ChatGPT:先进的自然语言处理工具[N].中国社会科学报,2023-02-20(03).
[5]任安麒.数字出版领域智能语言模型的应用、风险与治理——基于ChatGPT技术特征的分析[J].出版科学,2023,31(3):94-102.
[6]陈智,陈昊.可供性视角下ChatGPT的赋能效用及其风险透视[J/OL].情报杂志:1-9[2023-06-13].http://kns.cnki.net/kcms/detail/61.1167.G3.20230515.1757.020.html.
[7]李御任,翟红蕾.ChatGPT模型的舆论风险及应对策略研究[J].视听,2023(5):7-10.
[8]邓建鹏,朱怿成.ChatGPT模型的法律风险及应对之策[J].新疆师范大学学报(哲学社会科学版),2023,44(5):91-101,2.
[9]舒洪水,彭鹏.ChatGPT场景下虚假信息的法律风险与对策[J].新疆师范大学学报(哲学社会科学版),2023,44(5):124-129.
[10]张君第.基于自然语言处理与智能语义识别的舆情监测预警模型研究[J].电子设计工程,2022,30(17):165-169.
[11]罗志佳,陈韦宏.ChatGPT介入教育领域的技术运用、风险洞悉与发展路径[J/OL].重庆理工大学学报(社会科学):1-14[2023-06-13].http://kns.cnki.net/kcms/detail/50.1205.T.20230522.1648.004.html.
Influence of ChatGPT/ Generative Artificial Intelligence on Internet Public Opinion of Universities and its Countermeasures
Lin TAO(School of Cyberspace Security, Beijing University of Posts and Telecommunications, Beijing 100876)
编辑:王晓明 校对:李晓萍
往期目录|超链接版
期刊简介
《中国教育信息化》创刊于1995年8月,是由中华人民共和国教育部主管,教育部教育管理信息中心主办,面向国内外公开发行的国家级学术期刊。期刊内容力求全面深入地记录我国教育信息化的建设进展、研究与应用成果和行业发展状况,开展我国教育信息化发展状况调研和教育信息化国际比较研究,服务于国家教育宏观决策;力求全面准确地把握教育信息化相关的方针政策和标准规范,及时追踪ICT前沿技术的发展趋势及其与教育的融合,深度挖掘教育信息化建设与应用的体制、机制创新,服务于我国教育信息化实践。
●RCCSE中国核心学术期刊
●中国人文社会科学(AMI)扩展期刊
●中国期刊全文数据库收录期刊
●中文科技期刊数据库收录期刊
●国家哲学社会科学学术期刊数据库收录期刊
●中国核心期刊(遴选)数据库收录期刊
●龙源期刊网收录期刊
一年12期,每月20日出版
20元 / 期,邮发代号:82-761
编辑部邮箱:mis@moe.edu.cn
通讯地址:北京市西城区华远北街2号921室