查看原文
其他

研讨回顾 | 《心理游戏》:AI与偏见

老吕 in UK 科幻研究在伦敦 2021-12-17

各位老板真的不关注一下嘛?👆👆👆


感恩各位小可爱能在各种deadline和旅游计划(误)的间隙还能参加我们的研讨!
我知道其他的朋友们依然在家或远方关注着我们对不对!



一个没有答案的问题
一般来讲,如果一个动物看起来像只猫,听起来像只猫,甚至摸上去也像只猫,那么我们大可理直气壮地说,这本来就是一只猫。但是,如果一套程序或代码看起来似乎有思考的能力,交流起来也毫无障碍,甚至能够安抚焦虑者的情绪,那在这种情况下我们就可以说,这是一个人工智能吗?这个疑问本身并不新鲜。早在20世纪80年代,美国哲学家约翰·希尔勒就通过一个著名的思想实验“中文房间”表达了他的看法——

“假如有一个对中文一窍不通,只说英语的人关在一间只有一个开口的封闭房间中。房间里有一本用英文写成的手册,指示该如何处理收到的汉语讯息及如何以汉语相应地回复。房外的人不断向房间内递进用中文写成的问题。房内的人便按照手册的说明,查找到合适的指示,将相应的中文字符组合成对问题的解答,并将答案递出房间。”

在这个过程中,我们所谓的“人工智能”究竟有没有自主思考的能力?就像夏笳在这个故事里提到的,“机器能思考吗?”与“机器能做我们这些思考者所做的事吗?”这两个问题究竟可不可以相互替代?
"中文房间" (Chinese Room)是著名的思想实验之一
《心理游戏》并没有十分强烈的“科幻”感,反而更像是一篇纪实评论。夏笳设计了一个新颖的综艺栏目,邀请很多饱受心理问题困扰的咨询者接受来自心理咨询师的疏导,而屏幕另一端的“心理咨询师”有可能是实实在在的专业心理医师,但也有可能是一个智能聊天软件。但不论是谁,心理咨询中总需要有值得信赖的咨询师置身事外来扮演一个可靠的倾听者和陪伴者,以此来舒缓咨询者的情绪,帮助咨询者解开心结。夏笳认为,这个过程隐含着一个不可或缺的信念或前提,即“人类的情绪可以被有效地处理”。也就是说,“情绪”作为一直以来区别人类和人工智能的标准,实际上并没有人们原先以为得那样无懈可击。这并不是说“机器”同样可以拥有情绪,而是说“情绪”本身就是逻辑的产物——病人失眠不高兴,他就会思考自己不高兴的原因,而这个过程却反过来加剧了病人的失眠程度。只有跳出这个循环,从根源上“忘记”病人求而不得的那个欲望,甚至忘记“欲望”本身,才能够与自己达成真正的和解。
从这个角度来看,夏笳并没有试着去给故事开始时的问题提供一个答案,反而在结尾的时候展开了一个新的问题:人类与人工智能之间的差别,真的有我们原先以为的那样大吗?

在《西部世界》的最后,每个人实际上都可以被归纳为或长或短的代码序列,想理解一个人,去看一遍TA的代码即可

一个令人担忧的现实
显然,差别并没有那么大。实际上,“人类”与以人工智能所代表的“后人类”之间的过渡和融合早已开始,科幻小说中时常出现的义体、植入芯片等元素,已经慢慢融入我们的生活。现在越来越的人佩戴的眼镜,维持生命的心脏起搏器,帮助骨折病人恢复的医用钢板,都在渐渐地消解我们身体的“纯粹性”;而像手机、电脑、智能手表,甚至wifi本身,都可以看做我们身体不可或缺的自然延伸。通过这些方式,我们每个人都将我们的生活“数字化”,并将其归以不同的分类。
就像我们之前在讨论《北京折叠》时提到过的那样,在他人眼中,作为个体的“人”并不具有一个实在的形象。相反,每个人都会被赋予各种各样的标签,之前的所有的教育、工作、娱乐等经历首先会被数字化,然后变成可以被整合、分析的数据,通过在数据库中的横向比较被赋予一个“价值”,而这个价值,决定了每个人的社会地位、信用等级,以及所有能够接触并赖以生存的社会资源。

“人”同“数据”之间的差距似乎也并没有那么大
虽然《心理游戏》以及很多其它科幻作品中科幻的那种能以一敌百的“强人工智能”,不论它们将来能否发展出足以媲美人类的智慧和情感,在今天终究还只是停留在文学或哲学中“思想实验”这个阶段,但是,如今蓬勃发展的计算机科学却早已把我们的现实生活带入了“算法时代”。建构在大数据基础上的各种算法逻辑从根本上改变了我们的生活,甚至,在某种程度上,离开了“数据”,作为个体的我们在社会中将显得寸步难行。这本不是什么坏事,算法和数据带给我们的便利现如今比比皆是。我们相信,各式各样的算法通过学习浩如烟海的数据,能够发现并提炼出数据背后隐藏的规则和范式,加以运用,提高效率。

“人”与“机”的边界不断融合,逐渐消解着“人”的纯粹性
不过遗憾的是,数据本身却是带有偏见的,以至于由数据发展而来的程序、算法、甚至是未来有可能真正出现的人工智能,自然也就继承了人类社会遗留下来的各种刻板印象。美国曾经在具体的司法实践中尝试应用人工智能协助某些案件的裁决,运用程序模型来预判哪些在押人员会在被释后再次犯罪,甚至直接依靠软件来确定量刑。但在这个过程中,边缘群体却受到了“系统性”歧视。算法在预测评估时会参考对方及其亲属的生活环境、受教育程度、收入情况、违法记录等因素,这便形成了一种压制贫困者的体制。尽管这些算法并没有直白地询问或是考量被告人的种族和性别,但是其中很多问题设计却体现了同样的目的。许多学者已经提出很有说服力的论证,证明这些设计可能会引发种族或性别歧视。
与此类似的是,在我们享受着数据带给我们的各种方便和优惠时,甚至在我们的身体不断连接新的设备,不断与“后人类”相融合的时候,我们需要明白,虽然技术本身是中立的,但其背后使用、控制技术的“人”却不可能拜托自身原有的偏见。终有一天,建立在偏见之上的人工智能不断发展,强大到可以参与大规模的社会管理,那样的未来,似乎并不是我们所期待的。

人类世界中的偏见和刻板印象,同样可以融入到人工智能的意识当中
在故事的最后,夏笳这样说道:“在技术飞速发展的时代,我们必须不断甄别和判断,究竟哪些事情必须由人类来做,而哪些原本以为非人类不可的工作,机器其实同样可以胜任,甚至做得更好。在这样一个过程中,我们或许会感到,自己身为人类的尊严感正遭到持续不断的瓦解。我们会发现,在许多场合,人对于人来说其实都不是必需的。”不可否认,这里的“人”作为传统意义“纯粹”的人类正在日渐式微。但是,我们应当做的并不是慌张地拒绝一切同“后人类”融合的可能性,而是努力去改变我们今天的社会话语中暗藏的偏见和刻板印象。
毕竟,人工智能和大数据算法正对我们的生活施加着前所未有的影响,而它们自身也在逐步进化。甚至“文学创作”这一专属于人类的特长,也渐渐变得不再那么“专属”。夏笳的好友陈楸帆就曾在自己的故事中运用了“机器写作”这一手段,大家想看看人工智能是怎么评价人类对它们的担忧吗?:

恐惧中作为大脑极端痛苦的美感,仿佛所有者都只能重复让用户创造出来完全意义时,情感衰退以地壳风格的太空、燃烧、旋转、情感传递、一旦提高。因此那人记得自己一样,把自己看作地狱限度,没有任何通感渠道,便可以灵活地释放肌肉跃动,便无法陷入明亮。

嗯,反正我觉得很有道理(假装看懂)。


: . Video Mini Program Like ,轻点两下取消赞 Wow ,轻点两下取消在看

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存