查看原文
其他

徐 源│人工智能伦理的研究现状、应用困境与可计算探索

徐 源 社会科学杂志 2022-09-13


      人工智能伦理的发展经历了几个阶段,从对人工智能伦理必要性的讨论,发展到对人工智能伦理基础理论、重要问题,以及伦理框架、原则和相关政策的研究。随着人工智能技术的快速发展,伦理研究已开始进入新的阶段,即通过一种“可计算的伦理”来打通伦理原则与技术实现之间的鸿沟。面对伦理原则技术落地中的困境,从“软”机制到“硬”机制的转变已初现端倪,已有的探索包括人工智能伦理实验、伦理即服务(EaaS)等,相关研究都提出了相应的理论框架与分析方法,但实践中的效果有待观察。人工智能伦理是一项集成多种技术指标、协调多种利益诉求的活动行为,包含人类行动者、人工行动者和人机协同行动者,处在一种复杂社会系统中,计算社会科学中研究人类信念体系的认知平衡机制可为人工智能伦理原则落地提供一种技术路径。


作者简介:徐 源,北京理工大学人文与社会科学学院特别副研究员、启元实验室研究员


本文刊载于《社会科学》2021年第9期


早在人工智能诞生之初,科学家就开始关注并探讨人工智能可能涉及的伦理问题,包括20世纪40年代艾伦•图灵(Alan Turing)和诺伯特•维纳(Norbert Wiener)对算法涉及的伦理问题的思考。然而过了很长时间,这一话题才引起政策制定者和伦理研究者的兴趣。伦理本质上是关于道德的学问,西方近现代伦理学思想的主要渊源是亚里士多德的《尼各马可伦理学》,亚里士多德在其中探讨了道德行为的目的和各项规定。在中国,伦理被理解为事物的条理或人与人相处的道德准则。例如,西汉刘德《礼记•乐记》中提到“凡音者,生于人心者也;乐者,通伦理者也”。这里的伦理指的是事物的条理。《朱子语类》卷七二中说:“正家之道在于正伦理,笃恩义。”这里的伦理指人与人相处的各种道德准则。可见,伦理学以人类的道德问题作为研究对象,是系统化、理论化的关于道德的观念集合,属于哲学范畴。
20世纪后期,针对技术发展中的不确定性和潜在风险等问题,技术伦理学出现了。技术伦理学试图通过对技术行为进行伦理调节,来协调技术发展与人类社会中的问题。人工智能以在机器上实现类人的智能为技术目标,对人类社会影响的广泛性、不可预知性比以往任何一种技术都明显。但原生于哲学的人工智能伦理具有很强的泛意性,可操作性弱,因此伦理原则很难直接量化为技术语言。同时,人机关系的复杂性和环境的不可预测性也无法确保一般的人工智能伦理在实际中真正符合伦理效度。基于此,本文将探讨人工智能伦理原则实际落地的可能路径。



人工智能伦理发展现状分析

       伦理研究对人工智能科技发展发挥着引领性、支撑性和规范性的作用。对人工智能系统的设计、开发和应用等一系列行为中的安全性和正当性的思考及价值判断,都需要伦理研究的介入。制定人工智能伦理规范,建立统一完善的标准体系,对引领人工智能科技发展、争夺智能领域治理规则的话语权具有重要意义。国内外与人工智能伦理相关的研究工作,主要在两个层面上展开:其一,理论性的研究工作,包括在哲学、社会学、心理学、管理学等具体学科中进行人工智能伦理基础理论与问题的探讨;其二,政策和规则的制定,包括有关国家、地区、机构和企业等针对人工智能技术发展制定的伦理原则、规范和政策等。


人工智能伦理的理论和重要问题研究是其应用原则的基础和前提,在讨论可操作的应用原则和治理机制之前,需要先研究清楚人工智能伦理究竟要解决什么问题,以及如何解决这些问题,并厘清其中涉及的概念、方法和关键要素。在承认人工智能伦理必要性的前提下,首先要阐述作为道德主体的人工智能何以可能。科克尔伯格(Mark Coeckelbergh)通过传统伦理学中的义务论、功利论与德性论探讨了机器人作为道德主体的哲学意义。其次要论证在实践中机器成为道德代理者是否可能。现有研究试图在人工智能的设计中加入“道德”功能,使人工智能具有功能性的道德,从而可以为其自身行为负责。甚至有研究者设计了一种人工道德智能体(AMAs),使其具有道德敏感性。例如,摩尔(James H. Moor)研究了机器作为道德代理者的可能性,包括:作为伦理关涉的代理者(ethical-impact agents),这种机器行为程序的编写需要关涉伦理要求;作为隐性伦理意识代理者(implicit ethical agents),这种机器在设计之初需要植入伦理程序源;作为显性伦理意识代理者 (explicit ethical agents),这类机器可以自动识别周围环境的伦理信息,在不同情境下判断当前行为的合理性,并对该行为产生的后果进行预测;作为完全伦理能力代理者(full ethical agents),这种机器可以高度模拟人类思维与伦理意识,在特定情境中做出判断与选择,完全可以被视为具有道德行为能力的道德主体。最后,当机器开始承载道德功能后,人机共存的未来社会会形成怎样的伦理社会秩序?对此,雷•库兹韦尔(Ray Kurzweil)首次提出了“奇点临近论”,即当人类临近“奇点”(singularity) 智能技术无限制突破,机器将融合人类的知识和智慧,成为超出人类生物学范畴的“智慧生物”,挑战人类生存空间,因此,构建“人类与机器文明”的社会伦理秩序,以及人工智能道德安全体系是人类生存与延续不可或缺的保障。
人工智能伦理的理论性研究也延伸到技术领域,包括人工智能伦理系统设计。博纳丰(Jean-François Bonnefon)等通过实验测试人工智能伦理系统对无人驾驶汽车实现道德自主权的可能性,认为伦理系统设计突出了人们对智能机器的道德期望、文化价值和法律标准,但实验结果证明,目前尚没有能协调道德价值观和个人利益的人工智能伦理系统,更无法通过伦理系统设计去融合文化差异,人工智能机器的伦理系统设计研究仍然任重道远。此外,对人工智能算法与数据的伦理控制也是研究热点,代表性研究包括牛津大学互联网研究所密妥斯泰特(Brent Daniel Mittelstadt)等提出的“人工智能算法的伦理调节作用”,他们认为,伦理中介应在人工智能代理算法中发挥三方面的调节效用,即调节运算信息不对称导致的不正当结果、调节运算信息不确定性导致的不透明或不公正结果、调节运算误差产生的偏见或歧视。
在人工智能伦理原则、规则和相关政策研究制定方面,据德国非营利机构Algorithm Watch 的统计, 世界范围内迄今已有160多个机构或组织提出了各自的人工智能伦理准则建议,世界主要国家都将人工智能伦理原则的提出或政策的制定上升为国家战略,各国政府陆续出台了相关政策以推动并规范人工智能的发展:美国颁布了《国家人工智能研究与发展战略规划》和《为人工智能的未来做好准备》两个国家级政策框架;日本出台了《第五期(2016-2020年度)科学技术基本计划》,提出了超智能社会5.0的概念;英国政府发布了《人工智能:未来决策制定的机遇与影响》;法国发布了《人工智能战略》;我国也发布了《新一代人工智能发展规划》等相关政策。虽然各国人工智能的伦理规范与政策不尽相同,但他们都高度关注人工智能的规范性与治理问题。同时,各国的人工智能伦理规范呈现出差异化特征。例如,美国是第一个出台军用人工智能伦理规范的国家。2019 年10月,美国国防创新委员会发布《人工智能原则:国防部应用人工智能伦理建议》,对美国国防部设计、开发和部署人工智能用于战斗或非战斗用途作出伦理层面的规范建议。欧盟试图通过规则的制定来占据国际竞争的主导权,促使欧洲成为人们信任的、以人为本的人工智能领导者。欧盟委员会人工智能高级专家组于2019年发布了《可信人工智能伦理指南》,提出可信AI具有三个组成部分:合法性、伦理性和鲁棒性(robustness)。此外,企业、行业对人工智能伦理与社会发展的关注度较高,各领军企业也日益重视人工智能的安全和伦理问题,发起行业人工智能伦理倡议,纷纷提出了各自的人工智能伦理原则。Facebook、亚马逊、谷歌、IBM、微软等公司联合成立 Partnership on AI 组织,汇集全球不同的声音,以保障人工智能在未来能够安全、透明、合理地发展,让世界更好地理解人工智能的影响。
相对于蓬勃发展的技术研究,人工智能伦理的系统性研究尚未成熟。实际上,人工智能伦理的发展具有阶段性:第一阶段是对人工智能伦理必要性的讨论。在这方面,耶鲁大学温德尔•瓦拉赫(Wendell Wallach) 等美国学者起了带头作用,在国际上引起了普遍重视。第二阶段是对人工智能伦理理论和重要问题的讨论,以及相关规则和政策的出台。随着人工智能技术的迅猛发展,人工智能技术带来的伦理和安全问题日益凸显,而一般性的规范和原则已无法满足技术的实际需求。如何将伦理规范融入人工智能技术设计和使用中?是否可形成“可计算的伦理”来打通伦理原则与技术实现之间的鸿沟?对这些问题的回答预示着人工智能伦理已经开始从“是什么”转变为“怎么做”。本文认为,人工智能伦理已经进入发展的第三阶段,即人工智能伦理的3.0时代,伦理原则的技术实现将成为未来人工智能伦理的重要方向。


人工智能伦理应用原则技术

落地中的困境

当前,人工智能伦理泛意性的原则尚未充分应用于具体的技术场景和技术产品中,伦理原则的可计算性尚未实现。我们不能期待人工智能伦理会比人类伦理简单,在融合了很多技术问题后情况可能会更加复杂。已有的对人工智能伦理的理论性研究或规则政策的出台是伦理原则实现可操作性的必要基础,但仍然与在技术中实现这些原则存在巨大的鸿沟,人工智能伦理原则往往过于抽象,类似“以人为本”的原则虽获得了一致认可,但对人工智能技术产品的开发设计并不具有直接的指导性和实际的可操作性。因此,伦理原则并不能很好地在技术实践中发挥作用。
首先,人工智能伦理作为一种规约和价值判断,似乎先天具有不可计算性。段伟文提出机器伦理的理论预设是可以用数量、概率和逻辑来描述和计算各种价值与伦理范畴,进而用负载价值内涵的道德代码为智能机器编写伦理算法。但目前这种设想可操作性不强,也存在一定的问题,如量化的伦理如何保真,机器如何与人有效沟通等,都是难以解决的问题。人类的情感也具有先天不可计算性,伦理计算与情感计算具有相似性。与运算和逻辑等可量化能力不同,情感与伦理都是基于个体的情境性主观反馈。20世纪80年代麻省理工学院媒体实验室罗莎琳德•皮卡德(Rosalind Picard)教授就提出情感计算的概念,然而很长时间以来,情感计算并没有获得主流学界的认可,当时人工智能学界追逐的是运算、推理等“理性”能力在机器上的实现,情感并没有被视为实现智能的相关因素。情感作为一种主观体验,体现了人与环境的互动关系。随着技术的发展和人们对“何为智能”的认识更加深入,有研究者认为,未来人工智能技术的突破将是实现情感智能,马文•明斯基(Marvin Minsky)认为,情感是人们用于增强智能的思维方式。情感计算目前的主要路径是通过对人的面部表情、生理指标等信息、数据的获取进行情感计算建模,这已经在面部识别、语音理解、人机交互等实际应用中取得了一定进展,但其面临的挑战也是多方面的,因为情感与伦理一样具有主观色彩,具有不确定性、模糊性和动态变化等特征,因此很难在其中寻找和发现客观规律。未来似乎可以沿着情感计算的路径去发展伦理计算,从而让伦理内嵌于机器中。然而伦理比情感负载更多的价值判断,因此在计算性上也更加困难。
其次,人工智能伦理具有一定的社会属性。复杂的社会场景涉及的关系众多、要素复杂,这决定了伦理问题难以还原为可量化的具体问题。麦克•安妮(Mike Ananny)等指出,现实是算法系统是人类和非人类角色的集合,它们具有许多非确定性的影响。要理解(并因此管理)伦理含义需要理解整个系统是如何工作的——包括系统部署后可能发生的未知事情,或该系统被用于其他目的,而这些都与最初的系统开发者所承诺的不同。人工智能伦理是一项集成多种技术指标、协调多种利益诉求和冲突的活动行为,是一种相对复杂的人工实践,需要众多的行动者参与。这些行动者包括人类行动者、非人类行动者以及特殊的行动者。人类行动者主要有规则制定者、智能机器的设计者、智能技术的使用者、智能技术监管者等。这些人类行动者代表了不同的利益诉求方和价值主体,这使得人工智能技术在人类行动者中形成了一个复杂的社会网络,特别是拥有智能技术的对立双方。非人类行动者主要是人工智能的机器、装备等。区别于其他技术种类,智能技术还产生了一类特殊的行动者:人机协同行动者。可见,人工智能实践中具有不同类型的行动者,出现了分布式的伦理形态,复杂的利益诉求形成了非单一的道德主体,而分布式的道德主体正是人工智能伦理困境的源头。在人工智能场景中,人类行动者、非人类行动者网络彼此交织,围绕着技术的开发和应用构成了一个立体的社会网络。这个立体网络在“内部”和“外部”关系上存在着多种复杂的安全利益和价值关系。不同行动者既可能是合作关系,也不可避免地存在冲突。从伦理研究的发展历程我们也可以发现,对于价值判断和伦理标准的选择本身就具有一定的多元性,不同国家、地区,不同文化背景和利益诉求的人在讨论问题时都会具有相当强烈的主观认识和意图。
最后,人工智能技术或产品是为了实现某种特定功能,伦理在一定程度上会弱化功能的实现,智能产品的伦理考量和技术考虑实现的是综合效益,但具有一定的矛盾性。伦理本质上是对做什么合适、不能做什么的规约,技术实现的是能做什么,相互之间有一定的反向作用力。例如在军事应用中,人工智能技术的伦理问题尤为突出。第一,关于人的尊严问题所涉及的机器夺取人的生命权的合法性,一些人认为,人具有其固有的尊严,其生命被自主武器剥夺永远是错误的,这与机器人杀人这一行为是否正确无关,与这一生命剥夺方法、过程的道德合法性有关,而自主武器不具有道德判断能力。在他们看来,只有能做出道德判断且自身拥有尊严的人,才有资格在道德层面为夺取他人生命进行自我辩护。第二,机器行为的无道德意识问题。人类战士具有诸如同情、尊重生命等情感意识,可在复杂的形势下进行适当的道德考量、约束过度的暴力倾向与行为,而机器不具备这种意识,它更注重效率、硬性标准,没有情感的机器系统缺乏任何正义战争所必需的基本人类特征。第三,远程操控(如无人机)可以让操控人员远离真实战场,虚拟化、游戏化的操纵方式往往降低了操控人员对死亡、身体损伤的真切感受。因此,在人工智能技术军事应用的场景下,技术的自主化程度越高、先进性越强就越会弱化伦理效度。
综上,伦理在人类社会中尚且需要德性、义务、契约等方式去规范,其所具有的个体性、主观性、价值与利益负载性在本质上不具有可计算性,是一种复杂的社会行为,何况人工智能伦理呢?那么,人工智能伦理在技术发展中究竟要如何发挥实际作用?可计算性究竟能否实现?


可计算伦理的探索:

EaaS与社会实验

当前人工智能伦理原则的主要制定者是人工智能从业者,其习惯性地倾向于采用自己较易理解的方式,而不是大众想要的方式来解释人工智能相关伦理准则,现行伦理准则偏向于指出问题而不是给出解决问题的方案,已有的伦理编译工具一般为一次性工具,仅仅在人工智能系统创建时发挥作用,不能随着系统的更新而更新,从而有可能为伦理准则的确立产生负面影响。莫利(Jessica Morley)等人认为,由于人工智能技术发展过快、人工智能行业的覆盖面极广,以及监管不到位等因素的共同作用,现行的伦理准则不能很好地适应各方需求。具体来说,人工智能技术发展过快导致伦理准则呈现出滞后性;人工智能行业覆盖面极广导致伦理准则表现出模糊性;人工智能行业监管不到位导致伦理准则缺少标准性。 
在制定人工智能伦理应用规范和原则的基础上,各国在完善技术设计研发规范方面也做了相应探索。在划定使用权限方面,提出人工智能系统的应用应具有时间、地域及任务类型限制,一旦超出限制,便应终止任务,避免带来不必要的危害;在可控性标准方面,提出人工智能系统的设计和使用应确保实现其预期功能,建立系统的手动或自动重定向或一键运行停止等功能,以应对人工智能系统出现事故、遇到突发事件、被严重干扰、机器决策明显失误等情形,特别是针对已部署的人工智能系统发生意外升级或其他行为时,操作员有权限及时干预、停止系统的行动;在可靠性标准方面,要求进行严格的测试,建立明确的、定义良好的测试体系与标准,测试包括设计过程、应用过程、反馈过程等全生命周期,实现自治系统的安全性与稳定性运行,可通过建立虚拟“沙箱”,在所有安全级别上对机器学习技术进行试验,或进行红蓝对抗,发现人工智能方法中的弱点并进行改进;在可追踪性方面,要求确保对自治系统的开发与运行过程的追踪,使技术专家能对人工智能系统的技术、开发过程和操作方法有适当的了解,包括透明和可审计的方法、数据源、设计程序和文件。这些方法和探索在一定程度上起到了对风险的预防和监管,但人工智能伦理原则并没有在根本上融入技术实践。拉布(Raab)认为,自上而下、指导性的方针意味着可以采取公式化的方法将伦理规范、原则和一般规则应用于具体实例。
国内外已有学者展开前期探索。凯特•克劳福德(Kate Crawford)等人指出,目前人工智能技术规范工具主要是对伦理规则的自觉遵守或哲学思辨,包括(1)守序准则(deploy and comply),即用道德约束人工智能技术,如谷歌算法歧视、脸书删除儿童色情图片等;(2)规范准则(values in design),即人工智能的设计应遵循行业规范,慎重对待涉及用户隐私、环境等问题;(3)思想实验(thought experiments),即为了解决人工智能所蕴含的诸多问题,学者们提出的诸多思想实验,如电车难题、中文屋等。而对于技术落地影响的测量和分析,是目前研究的盲区。一些研究者提出了“伦理即服务”(Ethics as a service,EaaS)的人工智能伦理实践方式,使人工智能伦理成为一种可实际运用的操作。他们认为,现行的AI伦理政策大致可以分为两类:一方面是“硬”的治理机制,如现行标准和法规;另一方面是“软”的治理机制,如道德编码、指南、框架以及相应针对性政策。前者具有强制性,而后者更多起引导作用。如果“硬”机制过于严格,受技术的限制相关伦理准则无法实现,就会制约AI的发展;但如果“硬”机制过于灵活,又会失去制衡的意义。同样,“软”机制如果过于模糊就会失去参考价值,如果过于具象化虽然可以解决特异性问题,但又会失去普遍性。因此,如何分别在两种机制的两个方向中找到平衡是一个重要问题。对于如何寻找“硬”和“软”的折衷方案,研究者认为人工智能伦理准则应经过社会、学界等多方人士的审核,并且定期对其内容进行更新;从业者应当用可重复、可复制的方法将这些准则转化为程序;相关准则制定、转化的全阶段应受到监管。同时,还应聚合好的准则,推广这些准则,并屏蔽坏的准则。基于此,他们认为人工智能伦理学的问题中心正在由伦理条例转移到算法实现上,“伦理即服务”是一个可行的方案,在制定相关准则时将所有有关方案纳入考量,结合实际解释伦理准则的具体含义,提供可行的、可重复使用的算法工具以供选择,同时对产品进行定期审核,以确保它们符合伦理标准。但是“伦理即服务”的实用性仍然需要进一步研究与论证。
贾开、薛澜以2021年全国信息安全标准化技术委员会《网络安全标准实践指南——人工智能伦理安全风险防范指引》发布为研究背景指出,从全球来看,人工智能治理原则大多以“软体系”的方式出现,未形成有效的“硬体系”,在关键概念、具体内容或决策过程中仍存在含糊与不一致。他们认为,由于人工智能发展应用进程即风险涌现的紧迫,治理规范在逐步向“硬体系”转移。苏竣等在2020年提出人工智能社会实验的研究路径,应面向广泛的人工智能应用场景开展人工智能社会实验研究,基于“控制-对照-比较”的研究逻辑,探索将泛意性概念转变为边界清晰的科学变量并进行测量和比较的技术路线,将人工智能社会实验室的基本研究路径划分为组织应用、科学测量和综合反馈三个阶段,最后形成技术规范、技术标准和政策建议。2021年,苏竣等又进一步提出了基于场景生态的人工智能社会影响整合分析框架,并在对近3000篇中英文文献分析的基础上,从微观层面技术与人的互动、中观层面行业与组织变革、宏观层面制度变迁与政策回应三个维度,从科学测量的角度建立了人工智能社会影响的数据采集与评价体系。
综上所述,我们可以发现:一方面,人工智能伦理由“软性”规范到“硬性”规范的转变正在逐步发生,现阶段的人工智能伦理的应用原则已不能满足技术快速发展所带来的社会问题,技术的快速发展对伦理规范提出了更高的要求,对技术问题的思考也推动了科技时代伦理等人文社会科学的发展;另一方面,已经有学者开始用科学测量等技术方法探索人工智能对社会影响的科学规律,无论是“伦理即服务”还是“社会实验”,一种科技与社会交叉研究的范式已然开启。


计算社会科学的研究路径

——人机认知平衡

文艺复兴后期,社会科学开始运用科学方法中的一些概念和原理,于是统计学和数学的方法逐步被运用到社会领域的研究中。二战后计算社会科学开始兴起,先驱人物查尔斯•斯皮尔曼(Charles Spearman)、鲁道夫•拉美尔(Rudolf Rummel)等人做了大量探索性工作,包括对人类认知空间维数等方面的研究。计算社会科学被定义为对复杂的,通常是大规模人类行为 (有时是仿真的) 数据计算方法的开发和应用,它基于一种社会的信息加工范式,以信息为关键要素去理解社会系统及其进程,通过信息处理来理解和解释社会复杂系统,以信息加工作为重要手段。它的一个重要特征是包含纯科学研究和应用政策分析,也就是除了研究对社会的基本理解之外,还具有改进社会生活的向度。
复杂适应系统是计算社会科学中的重要概念,指一个随着外部环境的改变而改变其自身结构及状态的系统。社会是一个复杂适应系统,是一个由人、机器及其中关涉的伦理问题所构成的系统。赫伯特•西蒙(Herbert A.Simon)在其经典著作《人工科学》(The Sciences of the Artificial)中引入了人工制品理论的概念。他认为,在本体论层面上存在自然系统、人类系统和人工系统三类,人工系统是由人类设计建造的,是人与自然之间的缓冲。西蒙认为,人工制品存在的起因是其作为人与自然之间缓冲的功能,人工智能技术也是人类的一种适应性策略,解决人类所面临的替代劳动的一些问题。我们已经分析过人工智能伦理作为一种社会复杂系统涉及的行动者和关系要素,那么如何通过计算社会科学的信息加工方法来实现其可计算性呢?
社会科学家已经在诸多领域使用抽象来制定复杂社会的统计方法和数学模型,用计算机程序和计算模型来抽象、表征、分析并理解人类和社会的复杂性。针对人工智能伦理应用原则这一问题域,我们需要通过社会信息提取并建立社会仿真模型。本文仅从微观层面考察人工智能伦理应用原则的计算社会科学实验路径,从人类信念体系来探索人工智能伦理的计算路径。人类的信念体系是跨文化的普遍性概念,但不同文化的信念体系会出现相异性。个体具有个人信念体系,但人类会共享某些信念体系,形成集体信念体系,如共同的伦理规范、社会认同等。信念体系包含一组概念实体(节点),节点可以代表某种态度价值、观点或概念。信念体系在计算上的困难主要有两个方面:一方面是巨大的数据规模,语言学家估计普通人大约认识一万个词,可能的关联和高阶连接大约有一千万个,而二元结构的数量可达数亿,那么节点信息量无疑更加巨大;另一方面人类信念体系是动态变化的,新的信息不断产生会增加新的节点。这种巨大的信息规模和动态变化却能保持一种整体平衡,这一重要现象被称为认知平衡(见图1)。

图1 价值网络的简单模型


认知平衡遵循符号代数逻辑,该逻辑中正向连接用实线表示、负向连接用虚线表示,在二元和多重连接情况中符号代数都会出现正向结果。罗伯特•埃布尔森(Robert P. Abelson)认为,人类有否认、支持、超越、分化四种平衡机制,认知平衡所遵循的符号代数逻辑如下:人工智能伦理应用原则可作为信念节点通过四种机制应用于机器中,尝试在特定问题或情境中达到人机认知平衡。本文以算法歧视和公平性原则为例:(1)否认机制。消解机器认知节点不平衡最简单的方法是否认,或者直接忽略问题,忽略数据中会产生变化的信息。比如,在筛选简历的算法系统中不特意标注性别。(2)支持机制。强调信息体系中的平衡部分,并坚信该部分更加重要。例如,选择信用系统强化“对60岁以上人群的信任”而忽略“60岁以上人群中仍有特定比例的不诚信率”。(3)超越机制。超越认知不平衡的不一致性。例如,面对著名的“电车难题”,电车究竟是撞向少数还是多数,在危机时期通常会考虑到“为了大众利益”维持社会秩序,虽然这种机制不一定是正确的。(4)分化机制。将一个概念划分为两个(或多个)概念,得出一些更加复杂但平衡的稳定结构。例如,在智能武器的使用中,武器(+)伤害人群(-),但出于人道主义的原因又不能伤害人类(+)这会导致认知不平衡,即+•+•-=-,可以通过划分人群里的敌人(-)和平民(+)来进行平衡,分化后的结构会达到新的平衡(见图2)。

图2 分化机制的认知平衡


从计算角度而言,这四种机制都可以应用于人工智能伦理所涉及的复杂系统,既可以单独使用,也可以组合使用,尽管都可能出现突发现象,但仍不失为一种可行的探索路径。


结    语


虽然计算和社会体系之间的映射并不精确,随着社会理论和研究的进步,以及计算各领域的发展,计算社会科学在研究复杂社会问题中取得了良好效果。从基础的理论研究到原则与规范的提出,再到人工智能技术之中的伦理原则的落地,人工智能伦理的研究范式也在发生相应变化。本研究从社会复杂网络中人类认知结构平衡机制来探讨人工智能伦理所面临的相同问题,是对人工智能伦理应用原则技术落地微观层的范式探究,后续的伦理决策、归责机制等问题还需要进一步研究,包括对人工智能伦理应用原则的社会仿真等,都将成为计算社会科学有益的探索。



推荐阅读

《社会科学》往期目录


《社会科学》往期摘要


杨庆峰│人类增强的傲慢后果及其记忆之药


周 靖|如何成为一名反表征论的实在论者?——经由语用中介的表达论策略


张 能|转向斯宾诺莎的伦理自然主义——德勒兹思想中恶的问题


程广云|基于唯物史观的政治哲学——规范理论还是境况理论?


张宏锋 刘瑾辉|薛瑄的孟学思想与明初孟学转向


黄燕强|“中国哲学史”创作中的“科玄之辩”


朱汉民|当代中国思想史的文化自觉


张庆熊|“朝向事情本身”与现象学运动


张 柯│无必要性的必要——论海德格尔思想之Not概念的实质含义

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存