查看原文
其他

【对撞机】妇女的数据也“顶半边天”

徐偲骕 零壹Lab 2022-10-08

编者按:

作为女性,我在生活中时常遇到如下场景:社交媒体的风潮裹挟我们不断对自身感到焦虑,而购物平台配合着风潮为我们精准推送广告刺激消费。在读到这篇文章之前,我单纯认为这是数据被过度收集的结果,海量数据为我们制造了焦虑。但这篇文章令我明白,这一切的根源不是女性数据的泛滥,而是女性数据的缺失。数据的缺失导致女性在信息时代依旧被延续的隐形社会规范束缚,技术没有消除,反而维持甚至加剧了性别不平等。数据和技术不客观。这篇文章为我们提供了对抗和消除这种不客观的思路。


作者简介

徐偲骕:上海大学文化研究系讲师、硕士生导师,上海大学中国当代文化研究中心研究员。复旦大学传播学博士、加拿大卡尔顿大学访问学者(2017年国家留学基金)。研究兴趣为传播政治经济学、大数据与平台社会、智慧城市治理等。


关于性别平等问题的已有讨论多集中在文化符号领域和线下社会,关注妇女社会性别表征的物化、刻板化与污名化,妇女在就业市场和婚姻家庭中遭受歧视和不公正对待等。随着智能技术社会的到来,有研究者发现,性别歧视开始溢出以上范畴,人脸识别、搜索推荐、智能招聘、金融授信以及电商大数据等场景中皆存在广泛的算法性别歧视案例,性别不平等已经深入到了各类算法系统之中,一些根深蒂固的社会性别观念也已经演化成算法的内在机制,不仅放大了人的歧视,而且固化为体制化和规范化的机器秩序,还有可能产生变异,造成新的不平等。为此,2020年,联合国-中国社会性别研究和倡导基金(China Gender Fund, CGF)在其第九期招标项目中专门设立了一项“促进人工智能算法性别平等”的研究资助,由联合国妇女署联合中国国内中标机构“上海玛娜数据科技发展基金会”开展相关领域的研究和干预工作,以弥补AI发展中的性别盲点,足见这一“社会-技术”问题的紧迫性。


2019年,英国作家和女性主义社会活动家卡罗琳·克里亚多·佩雷斯(Caroline Criado Perez)出版了《不被看见的女性:为男性而设计的世界中数据的性别偏见》(Invisible Women: Exposing Data Bias in a World Designed for Men)一书(尚无中文版,本文所涉内容参见“城读”微信公众号,感谢“城读”的无私译介)。在书中,她颇具启发性地指出,现有的大数据实际上并不完整,缺了世界上50%的人口——妇女的数据,我们的世界严重缺乏基于性别的分类数据,因为这是一个以男性数据为基础而设计的世界。男人就是“一般人”,是世界的“默认设置”。经济活动和日常生活各方面的安排都用男人的标准代替整个人类的生活,各个领域都充斥着妇女(数据)的“不在场”,导致对妇女永久性、系统性的歧视,令她们生活在一个没有考虑她们需求的制度和物质环境中,面临大量不尽如人意的服务、别扭的产品和糟糕的经历。



而且,这种“性别数据鸿沟”(gender data gap)并非数字时代才有,而是隐性社会规范延续的结果。长久以来,数据并没有被按照性别分类收集和使用。比如生理上,妇女如厕时间长于男性,加之来月经、需要陪伴儿童或老年人等,这些因素未被考虑在厕所设计中,才会导致厕位不足,女厕永远都排长队;游泳馆内男女泳客的规定时长被设定为一样,但妇女洗浴和吹头发的时间显然更长,因此不得不减少游泳的时间;剧场、教室、办公室的空调经常根据男性的体感设置温度,妇女普遍感觉太冷;手机设计尺寸太大,不适合妇女单手使用;抗疫期间护士防护服非常不合身,因为设计者是以男性身材为标准的;女驾驶员更可能死于车祸,因为车的座位和安全测试期间用的假人是按男性体格设计的,并不符合妇女身体的肌肉质量分布、脊椎骨间距、骨密度和身体平衡性——因为司机被默认为男人从事的职业。这些问题不是把产品或空间装饰成粉色、缩小一号就能解决的,其根源在于没有将妇女的数据纳入设计和决策系统,从而未能真正照顾到她们的需求。因为在一个主要为男人并由男人建造的世界里,另一半的人口被系统性地忽视了。


当缺乏妇女数据这一问题进入数字技术和互联网时代,且当人类越来越依赖数据和算法时,技术领域也充满了“不被看见的妇女”,她们仍然是“他者”和“第二性”。佩雷斯发现语音识别软件对于女声的识别度远低于男声,当汽车的语音指令系统无法理解女司机的语言时,她们就很危险了;翻译软件会默认将女医生、女博士翻译成男性头衔;妇女在使用VR时更容易产生晕车感,等等。科技产品中的性别偏见很大程度上是因为背后的数据和算法存在性别偏见,各个领域所用到的数据库都是基于男性的,缺少女人的数据。技术和企业可能不是恶意或故意的,这只是数千年思维方式的产物,但却扭曲着本应客观的支配生产生活的数据,从而影响了妇女生活的方方面面。这不是单纯提高妇女在IT行业的就业比例、增加妇女程序员的数量就能解决的问题,也不是仅仅将某一套算法道德化、透明化并做到可解释就能迎刃而解的,重点是“原料”本身就存在缺陷。


当然,从另一个方面来看,就像革命战争年代用碘酒擦拭信纸,让米汤所写的字迹显现出来那样,智能社会和算法技术(碘酒)的到来致令社会结构的形成和演化路径(米汤)变得无比清晰,结构分析不再只能依靠“看不见摸不着”的抽象推论和演绎,结构与行动间周而复始的互构关系可以在机器世界里被精确勾勒出来和追踪到。比如哪几种算法逻辑可能造成了哪些特殊的行动实践和制度后果?哪些行为和数据又训练出了怎样的算法(比如外卖员的送餐行动数据导致不断加速的劳动过程就是比较清晰一例)?这种算法是否作为前提和结构再次作用于个体的行动并建构了新的秩序?性别秩序当然不会是例外,相比前智能时代,恰好因为偏见和歧视经由技术系统变成显性的、可被观察的对象,主动识别并用技术反向纠正它们可能变得更容易了。包括近期兴起的基于价值流动的数据生态画布方法,通过尽可能追踪不同的数据获益方及他们之间的数据交换,来确定个人数据的具体流动方向。还有阿姆斯特丹和赫尔辛基等城市率先在全球推出的算法登记系统,要求凡是涉及公共算法自动决策的领域,都需要向公众开放,说明创建者、决策机制、哪些数据被输入进去,等等(相关内容可参阅“开放数据中国”高丰博士团队的工作)。



本文认为,在前沿技术领域,仅依靠哲学批判来对抗和逆转极端理性化的“数据主义”统治秩序似乎收效甚微,不妨变“对抗”技术为“驯化”技术,从丰富算法自动化系统的数据源入手,探索尽可能地采集、补充并输入同样“顶半边天”的妇女数据。这些数据不仅包括妇女已知的生理特征、行为习惯和设备使用模式,更蕴含着大量潜在的心理、精神和文化层面的女性元素。其一是为了防止原有性别不平等的社会文化秩序被写入机器决策过程,从而复刻、继承、加固旧的不平等,再生产新的不平等,届时的后果将更难以撼动。它不仅事关某些科技产品的设计思路和使用体验,更会影响公共政策的形成和供给;其二是通过强制性的技术力量克服人为制造的、主观上的不平等因素,反过来扭转和矫正现状。


但这一思路仍需解决两个问题:首先,在《个人信息保护法》和《数据安全法》列入本届全国人大立法计划,中国数据政策开始趋严的语境下,如何平衡扩大妇女数据采集与个人隐私保护之间的矛盾?当然,处理这个问题不分男女,皆应在严格脱敏和加强保护的前提下合理开发,释放数据在改善妇女生存环境方面的积极作用。也即保护时不分男女,开采和决策时扩大妇女的覆盖;其次,何为性别平等仍无共识,公众的看法和感受本身就是主观和因人而异的,也要谨防智能技术单方面定义平等并垄断其解释权,形成新的霸权。因此本文认为,在涉及分配等社会客观公正议题时,不将妇女单独列为一类,发挥技术的强制性力量,而在一些适宜保持差异的领域,训练机器对性别充分敏感,给出技术的“妇女可供性”。既弥合鸿沟,又承认不同。这就要求非常精细化的、综合的算法治理。


简言之,妇女的数据也“顶半边天”。文章提出改善数据源的目的,是为了引导机器“硬规则”向人道化和性别友好的方向进化,将我们身处的人-机交互环境乃至生活世界都改造得更为平等、包容和“柔软”,并让人工智能为妇女赋能。这绝非追求两性在社会分工和性别文化上的无差异绝对平等,相反,这种平等恰恰建立在对差异的充分识别、尊重和维护之上。


主编 / 付梅溪

责编 / 顾佳蕙

美编 / 顾佳蕙



您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存