查看原文
其他

AI时代的漫谈 (附国产ChatGPT)

划水的花花 算法进阶 2023-09-10

文末彩蛋,附一个国产低配版ChatGPT小程序

一堆人工神经元在数据、算力以及魔力算法的加持下,"涌现"了“全能”的ChatGPT。自此,AI看上去不再那么像泡沫,也开启了我们对AI的无尽想象!

对于大部分人,隐约感觉到的是,风口已来,风暴已来,有对未来科技的美好想象,还有对于未知力量的一些恐慌。本文的尝试回答的是:ChatGPT是什么?对于我们会有什么影响?未来我们要做点什么?

ChatGPT是什么?

ChatGPT是一个大规模预训练语言模型(Large Language Model)。简单来说,它是一个千亿级参数的大模型,在通过在大量的数据中学习归纳到丰富的数据统计规律。

比如,它根据以往聊天问答文本可以灵活聊天对话,根据以往文章规律可以写出相似于真人的文章,根据各个领域的知识文本可以对各领域做出专业的知识解答,尽管它博学多才、口若悬河,但实际上它无法跳出训练文本的归纳范围,而是将历史的数据信息糅合提取作为回应。

ChatGPT带来的影响

  • 可以减少信息不对称

说到这里,其实当前的ChatGPT就像是一个具有非常强的信息摘要功能的搜索引擎。与互联网带来的信息革命一样,我们可以很容易通过搜索引擎等渠道获得信息及知识,现如今利用这样的AI搜索引擎,我们可以通过更为人性化的对话交互,定位到我们问题对应的答案,可以更为便捷地获取经过高度总结知识点、个性化的方案及建议等等。

虽然现在ChatGPT国内不容易使用,但是随着技术成熟度的提升,新一轮信息交互入口的争夺战是个必然,信息入口只会越来越多,越简单易用。随便写几个字、说几句话,您的智能ChatGPT助手就可以提供精确的信息。

通过这样的方式,信息搜寻与匹配的效率提高了,可以大大减少信息不对称的现象。

  • 会加剧互联网的信息量爆炸

chatgpt本质基于数据归纳的原理,有几个绕不开的缺点:

1、基于已有信息聚合生成,ChatGPT容易提出越主流的信息观点;缺乏实时信息或背景知识容易导致回答出错;由于数据偏差,训练数据直接影响回答的质量,信息的真伪性是不确定的;

2、仅有归纳能力,缺乏推理能力。对于数学题他类似于“记答案”,对于编程,它是不懂编程逻辑,而是根据代码片段统计概率来生成的。

所以,ChatGPT 增加的信息量,不仅仅会减少信息不对称,与之反面的,后面会有大量互联网的信息、文稿的自动生成,各种灌水,有用信息刚出现就被淹没掉了。

从互联网信息量的角度来看,这种信息量爆炸如果不加以控制,更多的无效信息导致更低的信息匹配效率,反而会增加信息不对称。更有甚者,大量的虚构的信息还可能造成社会性洗脑。

所以对于个人,提升甄别信息的能力是必要的。对于IT行业,有望出现另一个“NotChatGPT”的产品,用于帮助人类甄别信息的真伪,或判断是否为ChatGPT生成的。以提高信息筛选匹配的能力。

  • 资源聚集、垄断效应会增强

AI或者更为普遍概念的科技带来的效率提升,往往也会导致资源更加的聚集。

从社会层面来看,试想 一旦AI替代了一大部分的工作,效率提高的同时,社会收益还可以容易被个体垄断着。

从国家层面来看,谁拥有高质量的、庞大的数据,更高的算力,谁就能训练出强大的、领先的人工智能,并可以轻易形成自我延续的垄断循环。

未来我们可以做什么?

人类的发展历程的核心可以归纳为能源+信息(资源)的获取及利用,以传递基因信息及维持生命体的"减熵"行为

而人工智能带来的信息革命,本质上也是加快了获取信息的资源的效率。和以往的信息技术相同,人工智能也是一套信息计算框架,我们可以利用通用计算机做大规模信息获取、处理及智能化决策。

此次的ChatGPT为代表的人工智能带来了巨大的技术变革,可以提供大量高价值的信息,好在当前AI还没达到完全取代人的地步,还需要发挥人类的主观能动性去解放生产力,整个项目的计划实施也是需要具体去把握的。

但如今只凭过去学习技能就完全不够了,「更核心的是通过对需求的敏感观察,利用好AI获取信息,创新地整合资源来创造价值。」

总之。现在信息壁垒已经大大解决了,就看各人的领悟。作为程序员,我第一想到的是,以后也就是面向chatgpt编程了,查bugs、优化下我的代码。或对我写的水文在润色一下也不错。【当别人想着怎么面向chatgpt赚钱时,我却用它来调bugs,真的不开窍..】

借用荀子《劝学》的一句,“假舆马者,非利足也,而致千里。”利用好这次的ChatGPT,提高生产力去创造价值,我们思绪一样可以日行千里。


对于还没能试用ChatGPT的同学,附个国产版的ChatGPT吧(写作猫:xiezuocat.com/chat),这是近期公测的一个ai模型,试了一下还是比之前“人工智障”好沟通的:

写作猫的简单介绍:自研LLM大模型【并非调用OpenAI API】;从零开始处理数据/训练【并非借助开源模型】;已经具备了数百种技能【数不胜数】;训练花费不足1亿美金【远远不足】;现在可用【并非内测】;

电脑端:

xiezuocat.com/chat



您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存