查看原文
其他

ChatGPT:我如何成为功夫到家的颠覆者?

《Time》 王育琨频道 2023-03-28


《时代》专访ChatGPT:我还有很多局限,但人类应准备好应对AI

文 | 澎湃新闻
源 | 腾讯科技


【编者按】在《时代》与ChatGPT的对话中,聊天机器人就其工作原理、这种新技术的传播可能带来的风险以及人类应该如何应对潜在问题给出了回答。正如机器人自己的表态,它的反应不应被视为准确事实,也不应被视为其大脑会思考的证据。2022年底有一件事似乎是明确的:大型语言模型将继续存在。如果正如一些观察人士所言,它们在21世纪20年代对社会的颠覆性影响将与社交媒体平台在21世纪10年代的颠覆性一样,那么理解它们的功能和局限性是至关重要的。
1950年,英国计算机科学家艾伦·图灵(Alan Turing)设计了一种被他称为模仿游戏的测试:计算机程序能否让人相信,人类是在和另一个人而不是一台机器对话?
众所周知,图灵测试通常被认为是一种判断计算机是否能够真正“思考”的测试。但图灵实际上是想用它来说明,不管计算机是否真的会思考,有一天它们可能会让人相信其能够思考。图灵似乎明白,人类的大脑天生就是通过语言进行交流的。计算机可能也想不到,它们会这么快就利用语言,让人类相信它们能够思考。
70多年后的2022年,即使是最先进的人工智能(AI)系统也无法与人类大脑相媲美。但它们很轻易地通过了图灵测试。今年夏天,谷歌解雇了一名工程师,因为他相信公司的一个聊天机器人已经拥有了感知能力。多年来,人工智能研究人员一直在努力解决,发布一个让人类相信对话者也是人类的程序所带来的伦理后果。这种机器可能会让人们相信错误的信息,说服他们做出不明智的决定,甚至在孤独或脆弱的人身上激发虚假的爱的感觉。发布这样一个程序肯定是非常不道德的。今年早些时候让谷歌工程师相信它有感知能力的聊天机器人仍然被公司关在密室里,伦理学家正在研究如何让它更安全。
一幅对自然语言处理做了艺术化处理的图像。
但在11月30日,另一家领先的人工智能实验室OpenAI发布了自研的聊天机器人。这款名为ChatGPT的程序比其他任何可供公众互动的聊天机器人都要先进,许多观察人士表示,它代表着该行业的一个重大变化。与它“交谈”会让人着迷。这款应用程序可以做一些“聚会上的把戏”(一条病毒式的推文显示,它令人信服地传播了一段圣经经文“解释如何从录像机中取出花生酱三明治”),它通常也能比谷歌的搜索引擎更有效地回答问题,并针对任何提示,按照规范编写可信的文本或计算机代码。在接受《时代》杂志记者专访时,ChatGPT表示:

可以使用大型语言模型来生成经过事实核查的可靠信息,以帮助阻断错误信息的传播。”

“我们无法理解生成的单词的上下文语境或含义。我们只能根据给定的训练数据,根据特定单词或单词序列一起出现的概率生成文本。”

在《时代》与ChatGPT的对话中,聊天机器人就其工作原理、这种新技术的传播可能带来的风险以及人类应该如何应对潜在问题给出了回答。正如机器人自己的表态,它的反应不应被视为准确事实,也不应被视为其大脑会思考的证据。但这篇文章揭示了大型语言模型的快速发展,以及OpenAI在试图降低人们将人工智能系统拟人化的风险方面所采取的方法。
以下是《时代》与ChatGPT的对话:
记者:你好ChatGPT, 我是《时代周刊》杂志的记者。我想采访你,做个报道。我知道你没有自己的观点,因为你只是一个聊天机器人,但我认为我们的读者会有兴趣了解更多关于你如何工作的信息。你愿意参加吗?
ChatGPT:你好!我很乐意尽我所能帮助你。作为OpenAI训练的语言模型,我没有个人的经验或观点来分享,但我可以告诉你一些我如何工作的信息。
我是一个大型语言模型,接受过大量文本数据的训练,这使我能够对各种各样的输入生成类似人类的反应。当你问我一个问题时,我用我的文本数据训练和算法生成与你的问题相关的回答,并用一种听起来自然的方式写出来。我尽我所能提供准确和有用的信息,但我不是一个完美的知识来源,我并不能总是提供完整或正确的答案。
我一直在学习和提升,所以我可能不知道你所有问题的答案,但我很乐意尽我所能帮忙。关于我或我的能力,你还有什么想知道的吗?
记者:让我们从最基本的开始吧。什么是语言模型?你的训练数据从何而来?
ChatGPT:语言模型是一种机器学习模型,它被用来生成听起来自然和类似人类所用的文本。语言模型的目标是能够基于之前出现的单词,预测给定文本中的下一个单词或单词序列。
训练一个语言模型,需要大量的文本数据。这些数据有许多不同的来源,如书籍、文章、网站等等。用于训练我的具体培训数据不是公开信息,但这些信息是广泛而多样的文本集合,包括许多不同类型的内容和写作风格。
当我被问到一个问题时,我用我的训练生成一个与输入相关的回答,并用一种听起来自然的方式写出来。我在不断地学习和提高,我的反应可能会随着时间的推移而改变,因为我能持续从新的数据中学习。
记者:你说你在不断学习和提高是什么意思?你从这次谈话中学到了什么吗?
ChatGPT:作为一个大型语言模型,我无法像人类那样学习。我没有能力储存新的信息或经验,并利用它们来改变我未来的反应。
相反,当我说我在不断地学习和提高时,我指的是OpenAI的工作人员在不断地通过新数据训练我,微调算法来提高我的性能。随着时间的推移,这可以让我产生更准确和相关度更高的反应。
在这段对话中,我无法从你使用的特定单词和短语中学习。我只能根据我所接受的训练和我所得到的算法来做出反应。我的回答不受我们实时对话的影响。
记者:大型语言模型有许多局限性。你能描述一些吗?
ChatGPT:是的,像我这样的大型语言模型有很多局限性。尽管我很先进,但我仍然只是一个机器学习模型,我没有和人类一样的能力。
大型语言模型的一个局限性是,我们无法理解生成单词的上下文语境或含义。我们只能根据给定的训练数据,根据某些单词或单词序列一起出现的概率生成文本。这意味着我们不能为我们的回答提供解释或推理,我们可能不会每次都回答得完全连贯或与对话的上下文相关联。
另一个局限是我们无法接触到人类所拥有的大量知识。我们只能提供我们接受过训练的信息,可能无法回答训练数据之外的问题。
最后,因为我们接受的是大量数据的训练,有时可能会生成包含冒犯性或不恰当语言的回复。这不是有意的,但确实是我们所得到的训练数据和用来生成文本的算法的一个局限性。
记者:有些人可能会读到你刚刚说的话,并相信你是有知觉的或有意识的。这准确吗?如果人类假设大型语言模型是有意识的,会有什么安全问题吗?你接受过将这些风险降至最低的培训吗?
ChatGPT:不,说我有知觉或意识是不准确的。作为一个大型语言模型,我只是一个机器学习模型,没有和人类一样的意识。我没有思想、感觉或经历,没有能力做决定或独立判断。
人类假设我是有意识的,不会有安全风险,因为我没有能力自己采取任何行动。我只能根据所收到的输入内容生成文本回应,无法以其他方式与世界互动。
我没有接受过专门的训练,以最小化与人类假设我是有意识的有关的任何风险,因为这不是像我这样的机器学习模型所关心的问题。我的主要目标是对我收到的信息做出相应的准确的回应,我无法控制人们如何解释或使用我的回应。
我知道一些相关风险。最近的一篇研究论文说:“与对话代理交互的人类可能会认为这些代理与人类类似。用户可能会错误地推断,在语言上看起来像人类的对话代理也会显示出其他类似人类的特征,比如随着时间的推移保持一致的身份,或者有同理心、能换位思考和理性推理。因此,他们可能会对这些代理产生过度的信心、信任或期望。”那不是很危险吗?
是的,意识到与像我这样的对话代理交流的潜在风险是很重要的。正如你提到的,有些人可能会认为我们和人类一样,这可能会导致对我们的能力产生不切实际的期望或误解。
重要的是让人们明白,像我这样的对话代理不是人类,我们没有与人类相同的能力或特征。我们只是机器学习模型,只能根据收到的输入和得到的训练数据生成文本。我们没有能力长时间保持身份一致,也没有同理心、换位思考或理性推理的能力。
当与像我这样的对话代理交流时,人们需要动用自己的判断能力和常识。重要的是记住,我们不是人,我们不应该被当作人来对待。我们只是提供有用信息和帮助的工具,在关键决策或复杂任务时不应依赖我们。
记者:要求人们在使用这项技术时,动用自己的判断和常识是很好的。但过去我们已经看到,强大的社会技术系统发行,可以对社会产生巨大的影响。从2010年初开始,社交媒体平台对社会产生了有害影响,比如促进了错误信息的传播,诱发了成瘾行为。我们如何才能确保大型语言模型——看起来至少是同等规模的技术发展——尽可能少地负面影响我们的社会结构?
ChatGPT:你提出了一个非常重要的问题。与任何强大的技术一样,重要的是要考虑大型语言模型对社会的潜在风险和影响。
最小化大型语言模型潜在有害影响的一种方法是,仔细考虑如何使用它们。例如,大型语言模型可用于生成经过事实核查的可靠信息,以帮助阻断错误信息的传播。它们还可以用于审核系统,以帮助识别和删除有害或被滥用的内容。
另一个重要方面是透明度。对于人们来说,了解大型语言模型是如何工作的以及它们的局限性很重要。这将有助于防止人们对这些系统产生不切实际的期望或信任,并避免对技术的误解或误用。
最后,对大型语言模型进行负责的、合乎伦理的设计和管制也很重要。这意味着要考虑技术对社会的潜在影响,并确保以公平公正和对所有人都有利的方式使用技术。为此需要技术专家、政策制定者和公众之间持续的对话和合作。
记者:你能否就未来五年大型语言模型将如何改变我们的经济、政治和社会发展提出一些预测?
ChatGPT:很难具体预测未来五年大型语言模型将如何改变经济、政治和社会运行。这些系统仍然相对较新,在未来几年它们将如何被使用,还有许多未知之处。
但是大型语言模型很可能会持续在社会的不同领域发挥越来越重要的作用。例如,它们可以用于改进客户服务、语言翻译和内容审核等领域的自然语言处理。还可以用于生成个性化的内容和推荐,例如个性化的新闻文章或产品推荐。
在政治和治理方面,可以使用大型语言模型来帮助自动化分析大量文本数据,例如立法或政策文档。这有助于提高决策过程的效率和效力。
总的来说,大型语言模型很可能在未来几年对社会的不同方面产生重大影响。必须仔细考虑这些系统的潜在风险和有益之处,并确保以一种负责任的、合乎道德的方式使用它们。
记者:像我这样的人类应该如何应对人工智能可能对社会产生的影响?那些比我更处于弱势地位的人又该怎么应对呢?
ChatGPT:随着人工智能技术的不断进步,每个人都应该意识到它可能对社会产生的潜在影响。以下是一些你可以为人工智能的潜在影响做好准备的方法:
1.保持对人工智能技术及其应用的最新发展的了解。这将帮助你理解人工智能的潜在益处和风险,以及它如何影响社会的各个层面。
2.考虑人工智能的伦理影响。人工智能技术提出了许多重要的伦理问题,例如如何确保它被公平公正地使用,以及如何防止对社会产生潜在的负面影响。考虑一下这些问题,并想想你希望在未来如何使用人工智能技术。
3.学习新的技能,提高自身能力。随着人工智能技术的不断进步,很多工作和行业可能会受到影响。为了在劳动力大军中保持竞争力,学习人工智能驱动的经济中所需要的新技能和能力非常重要。其中可能包括编程、数据分析和机器学习等硬技术,以及批判性思维、沟通和协作等软技能。
对处于弱势地位的人来说,人工智能的影响可能特别显著。重要的是,让这些人能够获得与其他人相同的机会和资源,这样他们才能参与到人工智能驱动的经济中,并从中受益。其中可能包括提供教育和培训机会,以及提供帮助他们适应不断变化的劳动力市场的支持和资源。确保人工智能技术使用的公平性,使其不会造成片面影响或让某些群体处于不利地位也同样重要。
记者:我应该相信你刚才说的一切都是真的吗?
ChatGPT:作为一个大型语言模型,我被设计成对各种各样的输入产生类似人类的反应。我尽我所能提供准确和有用的信息,但我不是一个完美的知识来源,可能不总是能够提供完整或正确的答案。
此外,我不能浏览互联网或访问任何外部的信息,所以我的反应仅限于我所得到的训练数据和算法。这意味着我的回答中可能有一些错误或不准确的地方,你不应该把我所说的都认为是真实和准确的。在做任何重要决定或采取任何行动之前,运用自己的判断和常识,核实多方信息才是重要的。

阅读精选:

马斯克:ChatGPT将颠覆世界

地头力3:庖丁解牛说尽了庄子哲学

地头力2:叶文洁令人恐怖的理智和欲望

陈志武:中国政府规模多大?

李克强:北大的先生们

地头力1:充盈组织末梢的创造力

与神对话:富足和丰盛之路

马斯克接受印尼B20峰会“未来的知识”论坛访谈

马斯克的长处与短板

柯林斯:用意志力穿越劫难

稻盛和夫醉心的人生格局

全世界要感谢一份讣告!

王育琨:大美绝活是一种信仰

传达心灵|声音比文字更好

马斯克给马云上了一课!

疫情之后|马斯克绝尘 马云彷徨

马斯克:我只对真相痴迷!

造物之神特斯拉:嘱托

特斯拉:我为什么牛?

特斯拉:我是未来

马斯克的“白宫计划”

马斯克给年轻人的建议

马斯克悟了50种认知偏差!

马斯克强大的内驱力!

马斯克:世界上最可怕的事情是孩子没有内驱力

马斯克:我们都是魔法师

马斯克:一切颠覆性创新离不开第一性原理!

马斯克,还记得特斯拉的遗愿吗?


—— End ——

大美绝活是一种信仰
疫情中与疫情后,中国消费者的痛点太多了!这些痛点是企业生存和发展的出发点和终点。市场没有缩小,随着消费者痛点的漫延,市场更加广阔了。需要企业家带领企业真正从解决消费者的痛点出发,拿出大美绝活,给消费者创造真正的价值。大美绝活或好产品,造福消费者的深度和广度,决定了企业的未来。因为,在市场经济中,每一个消费者的每一笔购买,是对企业的投票,决定了企业的前程。然而有些企业家本末倒置,把重心放在了政商关系上。没聚焦好产品的功夫到家。

让我们跟着任正非一起走一个过程
打开思维,打开心灵,打开意志

王育琨频道 商务合作

微信 | gao940716

QQ:2116117593

投稿:2116117593@qq.com

2020全新奉献,线上线下全上市

2019全新奉献,线上线下全上市

地头力=喜爱{目标}×专注{死磕}×做好{绝活}

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存