查看原文
其他

乔姆斯基:ChatGPT 的虚假承诺

语言治理 语言治理 2023-03-14

 

近期乔老爷子在纽约时报观点栏目再次谈了自己对ChatGPT的看法。

那么Chomsky 这次会怎么看待ChatGPT呢?下面小编分享一下原文的译文

Chomsky 的观点

豪尔赫-路易斯-博尔赫斯曾写道,生活在一个充满危险和希望的时代,就是同时经历悲剧和喜剧,在理解我们自己和世界的过程中,有“启示的迫近”。今天,我们在人工智能方面的所谓革命性进展,确实让人既担心又乐观。乐观是因为智能是我们解决问题的手段。担忧是因为我们担心最流行、最时髦的人工智能--机器学习--会因为在我们的技术中加入了对语言和知识的根本性错误的概念而降低我们的科学,贬低我们的道德
OpenAI的ChatGPT、谷歌的Bard和微软的Sydney是机器学习的奇迹。简而言之,它们接受大量的数据,在其中寻找潜在模型,并越来越熟练地生成统计学上可能的输出结果--比如看似像人类的语言和思想。这些程序被誉为人工通用智能地平线上的第一道曙光--那是一个长期预言的时刻,机械思维不仅在处理速度和内存大小方面超过人类大脑,而且在智力洞察力、艺术创造力和其他各种独特的人类能力方面也超过人类大脑。
这一天可能会到来,但我们尚未看到曙光,这与在夸张的头条新闻中读到的和通过不谨慎的投资计算出来的情况相反。如果像ChatGPT这样的机器学习程序继续主导人工智能领域,博尔赫斯式的理解启示就没有也不会,而且,我们认为也不可能发生。无论这些程序在某些狭窄的领域多么有用(例如,它们可以在计算机编程方面有所帮助,或者为轻快的诗句提供韵律建议),我们从语言学和知识哲学中知道,它们与人类推理和使用语言的方式有着深刻的区别。这些差异对这些程序所能做的事情造成了很大的限制,使它们被编码为不可改变的缺陷
正如博尔赫斯可能指出的那样,这么多的钱和注意力应该集中在这么小的事情上,这既滑稽又可悲。与人类的思想相比,人类的思想通过语言,用威廉-冯-洪堡的话说,可以“无限地利用有限的手段”,创造具有普遍意义的思想和理论。
人类的思维并不像ChatGPT及其同类产品那样,是一个用于模式匹配的笨重的统计引擎,在数百兆字节的数据上大快朵颐,并推断出最可能的对话回应或最可能的科学问题的答案。相反,人类的思维是一个相当高效甚至优雅的系统,它利用少量的信息进行操作;它不是为了推断数据点之间的简单关联,而是为了创造解释。
例如,一个学习语言的小孩正在无意识地、自动地、迅速地从极小的数据中发展出一个语法,一个由逻辑原则和参数组成的令人惊叹的复杂系统。这种语法可以被理解为先天的、通过基因安装的 “操作系统”的表达,它赋予了人类产生复杂句子和长篇思想的能力。当语言学家试图发展一种理论来解释为什么一种特定的语言会如此运作(“为什么这些--而不是那些--句子被认为是符合语法的?”)时,他们正在有意识地、费力地建立一种明确的语法版本,而这种语法是儿童本能地建立的,而且接触的信息最少。孩子的操作系统与机器学习程序的操作系统完全不同。

事实上,这种程序停留在认知进化的前人类或非人类阶段。他们最深的缺陷是缺乏任何智能最关键的能力:不仅要说出现状是什么,过去是什么,将来会是什么--这就是描述和预测--而且要说出情况不是什么,什么可能和不可能是什么。这些都是解释的要素,是真正智慧的标志。
这里有一个例子。假设你手里拿着一个苹果。现在你让苹果离开。你观察结果并说,“苹果掉下来了”。这就是一种描述。预测可能是 “如果我张开手,苹果就会掉下来 ”的说法。两者都是有价值的,而且都可能是正确的。但一个解释是更多的东西。它不仅包括描述和预测,还包括反事实的猜想,如 "任何这样的物体都会掉下来",再加上附加条款 “因为引力 ”或 “因为时空的曲率”或其他附加因素,而这就是一个因果解释。“如果不是因为引力,苹果就不会掉下来”。这就是思维。
机器学习的核心是描述和预测,它没有提出任何因果机制或物理规律。当然,任何人类式的解释都不一定正确;我们是有缺陷的。但这也是思考的部分含义:要想正确,必须有可能出错。智能不仅包括创造性的猜想,也包括创造性的批评。人类式的思考是基于可能的解释和纠错,这个过程逐渐限制了可以理性考虑的可能性。(正如夏洛克-福尔摩斯对华生医生所说:“当你排除了不可能的事情后,剩下的任何事情,无论多么不可能,都必须是事实”)。
但是ChatGPT和类似的程序在设计上是无限的,它们可以“学习”(换种说法就是记忆);它们没有能力区分可能和不可能。例如,与人类不同的是,人类被赋予了一种普遍语法,它可以让我们以数学的形式去优雅地学习语言,而这些程序则以同样的方式学习人类可能的和人类不可能的语言。人类在我们可以合理猜测的解释方面受到限制,而机器学习系统可以学习地球是平的和地球是圆的。它们只是在随时间变化的概率中进行交互学习。

因此,机器学习系统的预测将总是肤浅而又不可靠的。例如,由于这些程序无法解释英语语法规则,它们很可能错误地预测“约翰太固执了,不愿意和他说话”,这意味着约翰太固执了,他不会和某人或其他人说话(而不是说他太固执,不愿意被人说理)。为什么机器学习程序会预测出如此奇怪的事情?因为它可能会把它从 “约翰吃了一个苹果”和 “约翰吃了”这样的句子中推断出来的模式进行类比,后者确实是指约翰吃了什么或其他东西。该程序很可能预测,因为“约翰太固执了,不愿意和比尔说话”与“约翰吃了一个苹果”相似,所以“约翰太固执了,不愿意和他说话”应该与“约翰吃了”相似。对语言的正确解释是复杂的,不能仅仅通过浸泡在大数据中来学习。

反常的是,一些机器学习爱好者似乎很自豪,他们的作品可以产生正确的“科学”预测(例如,关于物理体的运动),而不利用解释(涉及,例如,牛顿的运动定律和普遍引力)。但这种预测,即使成功,也是伪科学。虽然科学家肯定会寻求有高度经验佐证的理论,但正如哲学家卡尔-波普尔所指出的,“我们寻求的不是高度可能的理论,而是解释;也就是说,强大而高度不可能的理论”。

苹果落到地球上是因为那是它们的自然位置(亚里士多德的观点)的理论是可能的,但它只会引来进一步的问题。(为什么地球是它们的自然场所?)苹果落到地上是因为质量使时空弯曲的理论(爱因斯坦的观点)是非常不可能的,但它实际上告诉你为什么它们会掉下来。真正的智慧表现在能够思考和表达不可能但有洞察力的事情。
真正的智慧还能够进行道德思考。这意味着用一套道德原则来约束我们头脑中本来无限的创造力,决定什么是应该的,什么是不应该的(当然也要让这些原则本身受到创造性的批评)。为了有用,ChatGPT必须被授权产生新颖的输出;为了被大多数用户接受,它必须避免道德上令人反感的内容。但ChatGPT和其他机器学习奇迹的程序员们已经在努力来实现这种平衡。
例如,在2016年,微软的Tay聊天机器人(ChatGPT的前身)在互联网上充斥着厌恶女性和种族主义的内容,他们被网上的巨魔污染了,这些巨魔用攻击性的训练数据填充它。未来如何解决这个问题?由于缺乏从道德原则出发的推理能力,ChatGPT被其程序员粗暴地限制了对有争议的--也就是重要的--讨论做出任何新的贡献。它为一种非道德性牺牲了创造力。
请看Watumull博士最近与ChatGPT的交流,关于改造火星使其能够支持人类生命是否符合道德。

值得注意的是,所有看似复杂的思想和语言,都是由不聪明而产生的道德上的冷漠。在这里,ChatGPT表现出类似于邪恶的平庸:剽窃、冷漠和顺从。它以一种超级自动完成的方式总结了文献中的标准论点,拒绝在任何事情上采取立场,不仅辩称无知,而且辩称缺乏智慧,最终提供了一个“只是服从命令”的辩护,将责任推卸给它的创造者
简而言之,ChatGPT及其同类产品在结构上无法平衡创造力和约束。他们要么过度生成(产生真理和谬误,认可道德和不道德的决定),要么生成不足(表现为不承诺任何决定,对后果漠不关心)。鉴于这些系统的非道德性、假科学性和语言上的无能,我们对它们的流行只能哭笑不得。
本文选自NewYork Times,欢迎点击阅读原文查看原文链接。
学术访谈|Noam Chomsky教授谈语言学、语言习得与大脑的关系
学术访谈| Noam Chomsky 答学生问
学术讲座|Noam Chomsky:最佳解释与强式最简主义
学术访谈| 乔姆斯基:如何更好地理解语言学?
学术访谈| 乔姆斯基:生成语法的最初构想
学术访谈|乔姆斯基:语言是否影响我们的认知
大师对话|Steven Pinker与Noam Chomsky谈语言和人工智能在未来的发展
大师对话|Krashen 教授与 Chomsky教授谈隐性知识与显性知识在语言习得中的局限
大师对话|Krashen 教授与 Chomsky教授谈现代语言学的发展
学术访谈|王克非教授:首在审己,亦必知人,比较既周,爰生自觉
学术访谈|“应用语言学译丛”主编刘海涛教授访谈录
学术访谈|刘海涛教授:好奇是做研究的原动力
学术访谈| George Lakoff:大脑是如何思考的?
学术访谈| David Crystal 谈语言、语言学与文学
学术访谈|李宇明:国际中文教育“当地化”的再思考
学术访谈|Ken Hyland:如何在高水平期刊发表自己的学术论文
学术访谈|Steven Pinker:语言学是了解人类大脑的窗口
学术访谈|李嵬教授:Is it too early to think about retirement?
学术访谈| 李嵬:UCL 教育学院应当引领教育decolonisation潮流
学术访谈| Rod Ellis, David Nunan and Kathleen Bailey谈线上TESOL项目的发展
吾家吾国丨独家专访当代知名语言学家陆俭明、马真

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存