查看原文
其他

对撞机 | 数字时代人文学科的机遇和挑战(下)

谭光辉 零壹Lab 2022-10-08


作者简介:谭光辉,1974年生,文学博士,四川师范大学文学院教授。

转载已获得授权,原文刊发于《江海学刊》

2018年第3期,在此感谢


人类智能不可能被取代的原因


人类智能被人工智能取代已经成为人类的一个重大忧虑,很多科幻文学作品早就在表达这种担忧。为了应对这种担忧,艾萨克•阿西莫夫(I- saac Asimov)在1950年就构想了 “机器人三定律”,成为科幻世界无可撼动的铁律:(1 )机器人不得伤害人类,或者因袖手旁观使人类受到伤害。 (2)机器人必须服从人类的命令,除了违背第一定律的情况。(3)机器人必须保护自己的生存,除了违背第一、第二定律的情况。[1]“机器人三定律”是人类担忧的集中体现。


人工智能在某一方面确实可以超过人类智能。比如在记忆方面,智能系统储存的信息量和持久度,都已经远远大于人脑。电脑在数字处理方面也可能远超人脑。1997年5月,超级计算机深蓝击败当时世界排名第一的国际象棋棋手加里•卡斯帕罗夫,震惊世界。然而更多的人相信电脑不可能超过人脑。李述茂认为:“电脑具有记忆和推理功能,但是其推理绝对严格,不具有可变性,不能产生新思想,没有智慧。所以,电脑不能取代人脑。”[2]左大开认为:“人制造的机器,即 使再精致和再高级,也不能出现生命的本质特征——自我更新。”[3]吕国忱说恩格斯早就有这样一个预见:“人们可以用人工的方法来模拟大脑的思维活动,但不能模拟和代替大脑的全部活动,‘电脑’不能取代人脑。” [4]


我们不禁会问,为什么电脑不能取代人脑? 电脑在哪些方面不可能取代人脑?对该问题进行集中讨论的著作,包括休伯特•德雷福斯(Hubert L. Dreyfus)的《电脑不能做什么:人工智能的限度》(What Computers Can’t Do : the limits of artificial intelligence,1979)和有增补的《电脑仍然不能做什么:人工理性的批判》(What Computers Still Can’t Do : A Critique of Artificial Reason,1992)、威廉•霍金斯(William Hawkins)的《电脑显像记录:它能做和不能做什么》〔The Computer (videorecording) : What it Can - and Can? t - Do, 1984 ] 、大卫•哈雷尔(David Harel)的《电脑公司:他们真的不能做什么》(Computers Ltd. What they really can’t do, 2003)等。德雷福斯认为,至少暂时,基于这样一个假设的研究计划已经走进了死胡同——人类运用事实和规则产生智能——而且没任何理由认为这样研究会成功。[5]他的意思是说,电脑只能处理事实和规则,而人类的智能并非都产生于事实和规则,所以至少以某种规则来模拟人类智能的努力会注定失败。


为什么电脑只能处理事实和规则呢?最根本的原因就是电脑是“被制造”出来的。或者说,电脑的“行为”选择是被决定的,不论它的程序设计有多么复杂。而人脑与它的最大不同是,至少迄今为止人们仍然相信我们有自由意志,人的每一个选择都不是被决定的,而电脑的选择是被程序决定的。阿尔法狗的出现似乎已经打破了人们的这一认知,引起世界的轰动。然而很多学者仍然暂时不愿承认它已经拥有了如人类那样自由思考的智能,即不认为它拥有了自由意志。


关于决定论和自由意志的争论已上千年。科学家试图说明人的选择行为都是按一定科学规律进行的,更多哲学家都更愿意相信人存在自由意志。例如诺贝尔奖获得者维尔纳•海森堡(Werner Heisengerg) 尝试从他的非决定论出发,得出自由意志的立场。[6]决定论和自由意志的争论至今未止,而且随着科学研究的不断推进而此消彼长地呈拉锯式发展。薛定谔在研究生命现象的时候也没有能够得出最终结论,但是他提出了一条重要的意见,认为可以尝试从下面两个前提中推导出正确且不矛盾的结论来:


(1)我的身体就像一台纯粹的机器,遵循着自然界的规律来运作。


(2)借我们丝毫不用怀疑的直接经验,我总是在指导着自己的身体运动,并且在运动的最后阶段总能预见到其结果。这些结果是决定性的因素,十分重要,鉴于此,我觉得有必要对这一结果负全部责任。


薛定谔因此认为“从这两个事实可以得出一个并且是唯一一个的可能推论是,如果有这样的人的话,那么我就是这样的人——一个按照自然规律来控制原子运动的人。” [7]这个说法表现出很强的决定论倾向,自由意志仿佛只是人的错觉。 从最近科学研究的结果来看,自由意志论和决定论仍然难分高下,但似乎支持存在自由意志的论点略占上风。自由意志论很容易获得常识的认可,也容易得到宗教、法律、伦理学、心理学、文学的支持。量子力学看起来似乎是支持了自由意志,实际上并非如此,量子力学只是认为物质具有概率波等不确定性,但认为仍然有稳定的客观规律,而不是说人的意志可以控制这些规律甚至让它发生改变。从总的倾向来看,科学研究结论的总体倾向是强调因果关系,强调客观规律,而人文 学科的总体倾向是强调心灵、自由意志的主动性。


关于决定论和自由意志的讨论争论千年而无结果,本文至今也无法给出一个确定的结论,但是在这个讨论中,我们可以得出另一个结论,而此结论至少可以用来说明人工智能和人类智能的核心区别:由于人工智能是人类按一定的目的设计制造出来的,所以人工智能的一切程序设计及运行规律均受控于人类设定的目的;而人类不可能完全按自己的目的设计制造自身,所以人类智能自身的运行规律不可能受控于自身设定的目的。简而言之,人工智能无法设计自己的目的,人类可以设计人工智能的目的;人工智能的目的被人类掌控,人类的目的不能被人工智能掌控,也不能被自己设计。人类的目的是不可掌控的、不可预知的、非必然的。康德认为人类的目的不能被感性地表现出来,所以“理性观念把这种目的当作判断人类形态的原则,人类的目的就通过作为其结果的人类形态在现象中显示出来”。[8]或者说,作为理性思考的对象,人类的目的不能被自己知觉或设计,只能通过结果显示。怀特海(Whitehead)认为:“我们的经验与我们的希望不是同步的”,所以“自由的实质便是目的的可行性”。[9]所谓自由意志,就是人类自己设计可行目的的能力,此能力不是必然性的设计,而是可能性的设计。人工智能的设计,是人类努力按照必然性原则的设计,因此人工智能能够解决在设计范围内的必然性问题。赵毅衡的说法很有趣,机器人一旦“获得人类的意义能力,世界就换了主人。幸好,至今为止,动物把所有时间用来觅食生殖,机器总得等待人来按按钮”。[10]


人工智能服从因果律,人类智能服从目的律。人类智能是根据目的去清理因果关系,人工智能是根据因果关系去完成某种目的,两者的根本区别正在于此。所以无论人工智能如何发达,它也无法超越自身去设计自己的目的。由自由意志律支配设计目的的能力,是人工智能不能替代人类智能的。正是由于这个原因,现行法律就找不到任何依据给机器人定罪,因为我们找不到任何证据表明机器人拥有自由意志。而法律之所以能够给人定罪,最根本的依据便是我们认为“人的活动不同于自然物,不是遵从自然律,而是遵从目的律” 。[11]此观念是新康德法学的创始人鲁道夫• 施塔姆勒的核心法学观点,也是现代法学的基本原则,因此现代法学认为“目的是整个法的创造者”。[12]对历史知识而言也是如此,唐君毅认为:“人类之建造其历史知识,必要求其所知的历史之发展,为合‘目的’‘律则’‘方向’之观念的。因而其所不断地选择为重要之历史事件与历史人物,即不自觉地受此‘方向’‘目的’与‘律则’之观念所裁定。”[13]此为人类学术史上的说法之一种,而他认为这些说法“皆可说”。总而言之,人文学科的基础在于它是服从目的律的学科,科学是服从因果律的学科,人类智能与人工智能的根本差别也正在于此。数字人文这个词,可拆分成两个部分,“数字”部分服从因果律,“人文”部分服从目的律。人文学科在这个时代的工作重点,在后半部分。凡是必须以人类的目的性为基础才能存在的知识、责任、情感等,就是人工智能不能替代的,也就是人文学学者未来工作的领域。


人工智能拥有情感能力的困难

和人文学科存在的价值


人工智能很难有人类所拥有的情感能力。魏斌等人认为,“人唯一了解的智能是人本身的智能”,所以“人工智能的研究往往涉及对人的智能本身的研究”[14],但是人类对自身的智能的了解还非常有限,所以人工智能至今不能模拟人类的很 多智能行为。就人工情感研究的现状而言,现在的人工情感研究也主要集中于对面部表情、姿态语言、语音合成的识别和模拟人面部表情和部分动作。人工智能可以做到在某些方面模仿人类的情感,但无法做到主动产生情感。人工智能的最终体现就是机器人。


本文想讨论的,不是机器人在何种程度上可以将人类的情感模拟得惟妙惟肖,而是想从理论上证明,机器人不可能拥有像人一样的情感系统。人工智能无论怎么发达,这一点将永远无法突破。


人工智能与人类智能的一个非常明显的区别是:人类智能是通过生长、学习、反思逐步获得的, 人工智能是通过程序设计人为注入的,格式化的过程不一样。由于没有成长过程,所以机器人不必对自己的智能程度负责。由于有成长过程,所以人类必须为自己的智能程度买单。机器人没有进行反思的程序设计,而人类时时处于反思之中。 机器人也没有“他人”与“自我”的观念和为某种 目的进行叙述的能力。机器人由于自己设计关于自我的目的之能力(包括生长的目的)的缺乏,导致它必然缺乏这些形成情感必备的要素。笔者曾给情感下过一个不太成熟的简明定义,情感是 “情感意向性压力下的叙述判断”[15],其中“意向性”即是人关于自我目的设计的基本能力。自我、目的、意向、叙述、判断,都必须有一个具有主体意识和目的意识的生物才可能具有。换言之, 如果一旦某天科技足够发达,我们创造的那个人工智能(机器人)具备了生长能力,并且具备了自我意识、目的设计、意向、叙述、判断能力,那么这个机器人可能已经是生物体,我们恐怕就只能重新定义“人工智能”了。


人类的情感大约起源于“分别心”,“分别” 是一个目的,而不是一个原因。学者发现,很多的情感只发生在有他人存在的情形之中,例如害羞、感到困窘等,这是因为“某些活动的发生乃是由于与别人在一起的直接结果”[16]。然而略加细思便 会发现,人自出生起,并不存在“无他人存在”的情形,因此也就很难证明“无他人存在”的时候人能否产生通常意义上的情感。耿兴永认为“狼孩”的事例说明了亲密关系对一个人成长的重要性[17],但我们也可以认为不是亲密关系,而是与人进行正常区分的能力丢失造成了狼孩正常情感的失去,因为狼孩与狼存在亲密关系,而他无法与狼有一个恰当的区分关系。人首先要有与他人的区分,才可能生成对于他人的态度,一切情感都是态度,所以人类的情感可能生成于一个与自己有很 多天然共性且有区别关系的他者的态度。比如被舍勒及众多哲学家都视为基本情感的“爱”,必然首先有爱者与被爱者的区分,才可能存在“爱”的可能。又因“爱”是最基本的情感,所以一切情感都必然首先源于自我与他人的分别。跟狼孩谈 “爱”,必定无法被理解,其他情感也就无从谈起了。同样的道理,一个没有成长经历的机器人 (人工智能),是无法区分自我与他者的。被注入的程序具有可复制性、可重复性,机器人便没有办法区别同一程序制造的自我与他者,当然也就没 有产生“爱”“恨”等基础情感的可能。从佛教的角度看,爱有很多种,除了包含着慈爱和悲悯心的 “大慈大悲”的那种爱之外,一般人所说的爱,“都是依着‘我’和‘我的’的观念而产生,因而是仍然纠缠于执著和分别心之内。”[18]而这恰恰说明,基 本于分别心而生的“自我”意识,乃是情感产生的基础条件。学者们在解释《道德经》第二十二章 “圣人抱一为天下式”的时候大都认为其意思是圣人没有分别心,因而就不会与天下人争夺任何东西,也就不会有常人的那些世俗情感。[19]而这一理解与佛家的观点非常一致:“圣人和凡人的区别在于,圣人没有分别心,众生都是一样。” [20] “圣人没有分别心,佛陀没有分别心,菩萨没有分别心。” [21]没有分别心也就没有常人的情感,而这正是人工智能的特征。人工智能没有分别心,也就不可能有情感。换个角度考虑,即使人工智能有了分别心,由于其与人的差异太大,不可能与人产生基于认同关系基础之上的分别心,也不可能产生与人一样的情感,或者说即使有某种情感机制也无法与人的情感进行有效沟通。


如果要让人工智能更有效地识别、模仿人类的情感,就必须首先弄清楚人类情感的形成原因、机制,然后才可能设计出合适的程序加以实施。这不可能从对人类情感的外部表现进行研究就可以实现的,而是必须首先有一个内省的研究才能知道应该识别、模仿什么。在这一方面,人文社会科学的内省式研究就拥有科学研究无法比拟的优势。科学研究对人类智能的模仿,只有借助人文社会科学提供的思路,才能更好地完成,也只有借助人文社会科学指引的方向和目的,才知道应该 向哪个方向前进。科学家们大都同意没有情感计算能力的智能机器无法充分实现人工智能。情感计算是赋予计算机感知、识别、表达和调控自身及人类情感的能力,计算机研究领域的目标,就是在计算机上实现心理学家在人类情绪智力方面取得的研究成果,[22]“使得计算机真正能够识别、适应人类的情感和心理,这是人工心理研究所追求的目标。” [23]人工智能只能以人类的心理为学习对象,而不是相反。这就说明,人工智能的第一个依托,必然是人文学科已经取得的研究成果。而人文学科通过对情感的反思和研究,必将为人工智能的实现做出重要的贡献。


 结论 


21世纪的科学主题是研究“复杂性”,人工智能、人工生命是其中的重点。[24]在研究复杂的人工智能时,情感研究是其中的核心内容。大数据系统的建设飞速发展,是人类的“复杂性”系统工程取得的重要成就,但是对研究人类智能,特别是目标设计、情感智能、意志力等而言,需要以人文社会科学的研究为指引。大数据、人工智能的发展的根本目的是更好地为人类服务,建设更好的生存和生活环境,是“生存取向”知识观指导之下的知识生产,这些知识生产以“目的论”为指导方向。新世纪科学发展的主要路径,就必然以人文学科为指引,以科技发展为渠道,逐步解决更多的复杂性问题。另一方面,科学研究必须以观察为前提手段,而人类对自身心灵的观察除了内省之外别无他途,所以人文社会科学的思辨、内省式的研究,就是新世纪科学发展的重要手段。人文学科既要提供方向,又要提供思维手段,科学研究主要解决技术手段问题。因此,人文学科在数字时代的科学研究中的作用将不是被弱化,而是将被大大强化,并且会变得越来越重要。人工智能无论如何发展,也不可能全部取代或超越人类的智能。如果真有一天,人工智能在各方面均已优于人类智能,人类没有再存在的必要,那么人类也许真该被淘汰,而世界将依然美好,而且可能更为美好。人类的理想不会因此趋于消灭,而是更完美地实现了。



注:

[1][英]罗伯特•格兰特:《科幻电影写作》,谢冰冰译,世界图书出版公司2015年版,第119页。


[2]李述茂:《能量子与客观世界》,海南出版社2011年版,第 143 页。


[3]左大开:《马克思主义哲学疑难问题分析》,成都科技大学出版社1997年版,第76页。


[4]吕国忱:《哲学的时代回响》,黑龙江人民出版社2008年版,第19页。


[5]Dreyfus H L. , What Computers Still Can’t Do: a Critique of Artificial Reason, MIT press, 1992, p. iy.


[6][美]明恩溥:《中国人的素质》,董秀菊译,(台北)文津出版社2014年版,第63页。


[7][奥]埃尔温•薛定谔:《生命是什么》,吉喆译,世界图书出版公司2016年版,第114页。


[8][德]康德:《美,以及美的反思》,曹俊峰译,金城出版社2013 年版,第409页。


[9][英]阿尔弗雷德•诺思•怀特海:《观念的冒险(修订版)》, 周邦宪译,北京联合出版公司2014年版,第75页。


[10]赵毅衡:《意义理论,符号现象学,哲学符号学》,《符号与传媒》2017年第2期。


[11]严存生:《法律的人性基础》,中国法制出版社2016年版,第 224 页。


[12]高鸿钧、赵晓力:《新编西方法律思想史(现代、当代部分)》, 清华大学出版社2015年版,第13页。


[13]唐君毅:《唐君毅全集(第十卷)》,九州出版社2016年版,第 423 页。


[14]魏斌、陈寒、张妍、黄素蓉:《人工情感原理及其应用》,华中科技大学出版社2017年版,第2页。


[15]谭光辉:《论情感:情感意向性压力下的叙述判断》,《南方文坛》2016年第3期。


[16][美]J. L.弗里德曼、D. 0.西尔斯、J. M.卡尔史密斯:《社会心 理学》,高地等译,黑龙江人民出版社1997年版,第558页。


[17]耿兴永:《一本书读懂心理学》,中国法制出版社2016年版,第127页。


[18]一行禅师:《佛陀传》,何蕙仪译,河南文艺出版社2014年版,第188页。


[19]李安纲:《道教三经——道德经》,中国社会出版社2003年版,第95页。


[20]—诚法师:《容忍:相信没有到不了的明天》,九州出版社2014年版,第108页。


[21]净空法师:《净空法师讲〈了凡四训〉》,长江文艺出版社2010年版,第34页。


[22]谷学静、石琳、郭宇承:《交互设计中的人工情感》,武汉大学 出版社2015年版,第76页。


[23]王志良:《人工心理》,机械工业出版社2007年版,第13页。


[24]吴今培、李学伟:《系统科学发展概论》,清华大学出版社 2010年版,第142页。


 “数字人文研究在中国” 专题


对撞机 | “数字人文研究在中国”专题

对撞机 | 数字人文:概念、历史、现状及其在文学研究中的应用(上)

对撞机 | 数字人文:概念、历史、现状及其在文学研究中的应用(下)

END


主编 / 陈静

责编 / 顾佳蕙

美编 / 张家伟

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存