查看原文
其他

回顾|全球视野下的人工智能伦理论坛@2021全球人工智能技术大会(上)

北大博古睿 博古睿研究院 2023-07-19



2017年以来,各国政府、智库以及谷歌等跨国科技企业纷纷提出人工智能治理原则,其中 “隐私”、“安全”、“透明”等原则得到各界认同;同时,人工智能技术以前所未有的速度在社会中普及和应用,影响遍及人类生活以及大自然的各个角落。


如何使那些已经达成共识的治理原则在技术上、文化上“落地”?技术持续发展,与此同时也进一步塑造着人类社会,这又为我们带来了哪些新的伦理议题?在应对新冠疫情防控时,数字治理起了非常重要的作用,但是也带来信息被过度采集、滥用的风险,“隐私”、“安全”的法律、文化界限在哪里?



6月6日,作为“全球人工智能技术大会”的重要部分,由中国人工智能学会(CAAI)主办,CAAI人工智能伦理道德委员会(筹)、北京大学博古睿研究中心承办的“第三届全球视野下的人工智能伦理论坛——数字化治理的伦理落地”在杭州举办。


论坛分主题一“伦理和数据治理需要落地!智能技术与数字化治理” 结合当下人工智能技术运用的问题场景,试图解决:人工智能伦理在数字产品上的具体实现问题;人工智能在解决重大社会问题中的应用和带来的问题;大数据时代与后疫情时代的隐私保护;智能技术在未来社会的进一步应用与产品开发的探索等问题。


论坛分主题一

“伦理和数据治理需要落地!

智能技术与数字化治理” 


怎么让机器学习

更公平?


南方科技大学

姚新 教授

作为人工智能技术开发的专家,来自南方科技大学的IEEE会士之一的姚新教授对技术带来的伦理和社会问题一直很关注。从技术研发的角度,他首先从人工智能伦理这个基础的话题谈起。

 

伦理学一般分为元伦理学、规范伦理学、应用伦理学。规范伦理学又包括美德伦理学(virtue ethics),道义伦理学(deontological ethics)和后果伦理学(consequentialist ethics)。而技术伦理属于应用伦理学的一个分支,讨论应用技术的后果和过程中的伦理学问题。主要领域包括纳米伦理学,信息伦理学等,人工智能伦理属于这一领域。从2010到2020年的十年间,各国政府、学术机构和公司等组织陆续发布了101个人工智能指南文件。这101个文献中的关键词中,有86个提及透明性原则(transparency),82个提及公平公正原则(justice and fairness)。

 

怎么保证符合人工智能伦理呢?姚新老师认为这主要通过技术、管理和法律手段实现,三者层层递进。因为算法的问题,谷歌图片错将人标为猩猩(2015),亚马逊AI的性别歧视问题(2018),这就涉及到公平性的问题。机器学习的公平性近年来备受开发者的关注,仅2020年就有超过100篇经过同行评议的论文被发表,或许这意味着可以通过技术手段来提高公平性。公平性的衡量指标包括:

(1)基于预测结果的指标:即定义什么是公平性;

(2)基于预测和真实结果的指标;

(3)基于预测概率和真实结果的指标;

(4)基于相似度的指标;

(5)基于因果推理的指标。

举例来说,公司招聘数据中区分敏感和非敏感属性数据,非敏感属性例如工作年份,敏感属性例如性别,如果依据敏感属性进行分类则会引起出现不公平性的可能。同时,公平与否的判断包括两大挑战——模型准确性和公平性矛盾,不同公平性指标之间的矛盾。姚新老师最后提出,重权衡、少损失、多样解、高并行的多目标学习可以达到更公平的机器学习。


北美AI伦理概况

和企业对AI伦理的反思


加拿大麦吉尔大学

博古睿学者

刘晓 助理教授

博古睿学者、来自加拿大麦吉尔大学的刘晓老师主要介绍了北美AI伦理目前的发展概况并提出了自己对AI伦理实践的反思。


目前,北美AI伦理原则的主要参与者包括政府、企业、学术机构、行业协会和非盈利性组织等,他们在政府对AI技术采购、人脸识别的应用、企业赞助非营利性机构的运作等方面合作紧密。最为AI 从业者所熟悉的是The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems。该机构为了确保从事AI开发技术人员受到足够伦理训练,制定了IEEE7000,并强调不同文化间伦理的多元性。非营利机构中包括已有的国际知名机构, 例如位于旧金山的Centre for the Fourth Industrial Revolution是世界经济论坛的分支机构,他们和各国企业政府合作制定AI治理框架。位于纽约的Data & Society通过人类学田野研究AI在应用过程中出现的问题,而Montreal AI Ethics Institute正在从事的工作是对AI伦理出版物进行整理摘评,另一家位于旧金山的机构Partnership on AI获得了多家大型技术企业的支持,DataEthics4All则普及孩童教育。此外,也存在大量挂靠高等院校的研究机构。


目前,谷歌,微软,IBM等公司都发表了“负责任的人工智能”原则,聘用专门人员进行研究讨论,但公众对此存在不少质疑——这些大型公司是否真的有动机致力于AI伦理实践?这一质疑与两个事件相关,其中之一是谷歌解聘AI伦理研究者Timnit Gebru,领导层与其关于一篇自然语言识别文章产生分歧,这篇文章没有通过谷歌内部评审。另一事件是Karen Hao于MIT technology review发表的“How Facebook got addicted to spreading misinformation”中认为,脸书(Facebook)缺乏有效审查遏制AI推荐虚假信息和极端言论的深层动力,因为这和脸书要求增强用户数目和粘性的商业模式是有抵触的。


据此,企业AI研究者的角色其实具有双重性:一方面他们是AI伦理的倡导者,但同时他们也是企业的雇员,这些研究员必须考虑企业自身的构架和组织文化。Data & Society在2020年9月发表了一篇关于企业伦理的报告,将这些在企业中从事AI Ethics研究的人称为Ethics Owners,他们的职责是确保企业AI的运用是合法合理的,文章讨论了他们在企业中的作用和工作中面临的问题,并为他们提出了几条建议,比如建立案例资料库并实现公司内或跨公司的经验分享,提倡Ethics Owner们与公民权益保护组织建立合作,考虑可量化标准之外的绩效测评方式。Partnership on AI最近也发表文章提出,现在多数企业的AI伦理职能界定不清晰,缺乏有效绩效考核方式,未来的伦理实践应该贯穿整个产品生命线。由此可见,AI伦理许多复杂的问题其实没有既定规律可循,要让AI伦理发挥作用,必须和具体的企业组织文化相结合。


最后,刘晓老师针对AI伦理实践提出自己的反思:她认为AI伦理应该和治理紧密相连,围绕AI数据和经济模式问题,发掘数据治理模式的多元性,可以打破巨型企业对数据的垄断,孵化更多有活力的AI创新企业,让用户对自己的数据更有掌控权。其次,针对AI伦理和治理的非西方视角与新兴市场,应该考虑地缘政治、非西方国家的经济发展实际情况,以及新兴市场的数字化和网络化情况。


从个人信息保护法看算法中的“人”


对外经贸大学

许可 副教授

对外经贸大学的许可老师主要讨论了算法对人的控制以及个人信息保护法的法律回应。

 

马克思在《德意志意识形态》中指出:人不是单个人所固有的抽象物,个人的一定的活动方式,是他们表现自己生命的一定的方式,他们的一定的生活方式。个人如何表现自己的生命,他们自己就是怎样。

 

算法恰恰通过“对人如何表现自己的生命”加以影响,以实现对人的控制。

 

我们可以上述控制可分为如下三步:

 

第一步是个人画像 (profiling),通过收集、汇聚、分析个人信息,对某特定人的职业、经济、健康、 教育、个人喜好、信用、行为等方面作出分析或预测,形成其个人特征模型的过程,从而达到“知道你是谁”(who are you?)的目标。

 

第二步是个性化推荐,即基于特定个人的网络浏览历史、兴趣爱好、消费记录和习惯等个人信息,向他们展示信息内容、提供商品或服务及其价格等活动。算法利用人的喜好,投其所好,潜移默化地塑造你。

 

第三步是产生自动化决策,即在无人干预的情形下,由算法手段对人作出决策。自动化决策主要分为单独的自动化的决策(例如红灯拍照罚款),和基于个人画像的自动化决策(如健康码)。这种决策人将产生重大影响,可以带给你利益,也能剥夺或限制你的权利。

 

针对这三个步骤,个人信息保护法中也应有三种法律回应。

 

首先,个人画像的法律回应包括:确保个人的知情同意;应遵循最小化规则(即应当限于必要的范围内);对个人特征描述不应包含淫秽、色情、赌博、迷信、恐怖、暴力的内容;或者表达对民族、种族、宗教、残疾、疾病歧视的内容;对未成年人应有特殊保护,比如全面禁止对未成年人个人画像。

 

其次,针对个性化推荐的法律回应包括:明确算法的透明性,显著区分个性化展示内容和非个性化展示的内容(比如对新闻内容的推荐);赋予个人选择权,应当同时提供不针对其个人特征的选项,或者提供个人拒绝和退出的选项;反垄断或反不正当竞争规制,具有市场支配地位的企业不得滥用市场支配地位,不得无正当理由对交易条件相同的交易相对人实施差别待遇;对未成年人特殊保护:禁止对未成年人进行个性化推荐。

 

最后,针对自动化决策的法律回应包括:个人信息的风险评估,就个人信息处理目的,处理方式是否合法、正当、必要,对个人的影响和风险程度,对所采取的安全保护措施是否合法,有效并与风险程度相适应等作出评估;同时,应赋予个人以知情权、算法解释权、拒绝权和人工干预权。


人工智能伦理治理的实践路径


腾讯研究院

曹建峰 高级研究员

腾讯研究院的曹建峰研究员主要讨论了在行业背景下,目前实现人工智能伦理治理的几种途径。

 

首先,国内外各大企业,如谷歌,脸书,IBM,DeepMind等纷纷设立伦理委员会,推进伦理研究与审查。例如,谷歌成立了负责任创新团队,对谷歌AI相关产品与交易进行伦理评估,以落实其AI原则。再比如,微软在科技伦理方面的AETHER委员会下设七个不同的工作组,将不同的问题拆解,设立工作组对自己的AI研究与应用进行伦理审查。自2018年剑桥分析事件后,脸书也成立了相关机构对内部算法进行研究。这些机构主要对企业自己的技术应用和对外商务合作进行伦理评估。关于伦理委员会的运作,可以从四个方面来看:首先,建立多元参与的社群;其次,建立及时反应的机制;第三,建立内部机制,包括敏感案例、工具开发等;第四,发挥治理主体的作用,成为制度知识的资料库。为法律制定探索先行经验,通过伦理探索推进治理。

 

第二个趋势是开发伦理工具,解决可解释、公平、安全、隐私等问题。例如,联邦学习框就可以有效解决数据隐私问题,几个组织之间不需要数据共享就可以联合开发算法。再如,在算法透明方面,既有政策都没有简单粗暴要求公开算法的源代码或训练数据集,因为这往往会带来巨大风险,如黑客攻击、用户隐私泄露等,而且无助于公众理解算法。行业在探索的模型卡、AI事实清单等机制也在致力于解决AI算法模型的透明度与可解释性问题。如何在算法中实现透明性,对算法的模型有一个一般性的说明,都可以通过设计工具实现,最终实现“伦理嵌入设计”(“ethics by design”),就像通过设计的方式保护隐私一样(privacy by design)。

 

第三个趋势是打造伦理SaaS,在云、算法等平台上提供伦理服务。可信AI和AI伦理服务(ethics as a service)是AI领域的最新发展趋势,AI伦理相关的创业公司不断涌现,在云、算法等平台上构建AI伦理服务体系,提供解决AI伦理问题、实现可信AI的技术解决方案。

 

第四是制定AI相关伦理标准,推进伦理认证,例如IEEE发布的人工智能伦理认证项目。

 

第五是开发AI相关伦理课程,加强伦理培训,例如谷歌开发了一系列伦理课程与培训,包括针对所有雇员的AI伦理教育材料与课程、高级别的伦理课程、解决AI原则问题的深度培训、技术伦理培训(technology ethics training)、AI原则实践培训等。在伦理培训方面,企业需要和学术界等加强合作。

 

最后,人工智能治理离不开科技人文协作。技术与伦理的互动如伦理嵌入设计、伦理SaaS等是一方面,法律治理是另外一个方面,需要在隐私与数据利用,透明可解释与效率、安全等方面实现平衡。


AI能不能带来人类

需要的改变?


中国科技大学

机器人实验室

陈小平 主任 教授

中国科技大学机器人实验室主任陈小平教授从讨论人工智能伦理和治理问题出发,认为AI为人类带来的改变并非完全由AI应用本身决定,而是由人类社会的多重因素决定,因此相应地也需要创新系统的支撑。

 

常识意义上的伦理是人的行为准则,人与人之间和人与社会的义务,伦理具有双重作用,它规定人应该做什么,人不应该做什么。那么AI伦理据此也应该具有双重作用,即AI应该做什么,不应该做什么。

 

AI伦理和治理的基本问题是“人类对AI的根本伦理诉求是什么?”陈小平认为,这个诉求就是:AI能不能带来人类需要的改变?

 

在这一讨论中,首先需要区分“研究”与“应用”。技术应用是practical application of knowledge,而技术研究是scientific study and use of mechanical arts and applied sciences。比如AI技术中,深度学习算法的研究属于技术研究,因为这些算法并非终端产品,通常无法被普通用户使用。而用深度学习算法和应用领域数据训练出来的神经网络是产品,可以为终端用户提供所需的服务。产品的研发过程属于技术应用。

 

建立在这一区分上我们可以做出一个基本判断,即AI技术研究及其直接成果通常是价值中性的,而AI技术应用(研发和产品)往往不是价值中性的。所以,我们应当呼吁的是,将价值中性设为AI研究的基本伦理守则,对AI研究和AI应用进行分类治理。

 

AI带来的改变并非完全由AI应用决定,技术应用需要创新系统的支撑。目前普遍实施的熊彼特(Schumpeter’s innovation system)创新体系,是市场要素的商业化组合;它有足够的商业利益,能产生税收,满足用户需求,效率高,除此以外没有其他的伦理约束。因此,它存在一定局限性。比如其虽然普遍适用于全球,却不适用于没有足够商业利益的社会需求,如人口老龄化(养老),产业少人化(长期就业)。它也会带来负面效应,例如数字鸿沟、阶层固化、低欲望社会等。因此,来自熊彼特模式的伦理问题比技术本身带来的更多、更严重。

 

在熊彼特体系上增加伦理约束对解决算法公平、数据安全等简单伦理问题有效,但对由熊彼特体系产生的深层伦理问题无效(因为商业和伦理的冲突),真正的解决办法是要实现从熊彼特创新到公义创新的升级。公义创新即市场要素和非市场要素的公义性组合,公义性是市场原则和人性原则中有效成分的提炼整合升级。技术研究和应用+创新模式的升级可以开辟更大的创造空间,实现我们人类需要的改变。

 

未完待续……

 

文字整理:蔡心怡(实习生)


我们生活在一个充满伟大变革的时代。通过搭建全球对话平台、推动跨文化交流、促进学术与思想创新、打造新型治理政策,博古睿研究院致力于增进人类对这个变革时代的深度理解,培养和发展新的思想和理念,助力全球各机构、政策制定者以及公众应对影响人类的深刻变化。


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存