查看原文
其他

我可能要给鼓吹 AI 的那些人,浇盆凉水了

The following article is from IT男 Author 年三石

现在好多媒体都在鼓吹AI无所不能,说得神乎其神。又是要替代人类,又是引发大面积失业,还有的说“不是AI淘汰了你,而是淘汰了没有掌握AI的你”。吧啦吧啦,跟直播间带货一样。

我本人就是做AI应用开发的,可能是才接触到皮毛的原因,我从一开始就没有感觉到,有什么值的震惊的地方。

因为我感觉东西还是那些东西。它就是个任务式生成。不管是写文案的文字创作,还是智能对话,或者封闭、开发式问答,这些都是老生常谈的功能。当川普还是总统的那年,这些东西就有很多Demo了,我也一一尝试过。只是现在,有人愿意花钱了,愿意买GPU了。并且从全球的网络上,搞到了足够多的训练数据,再加上算法确实优化了,所以才让AIGC水到渠成地脱颖而出。

但是,上面的这些话,我可不敢说呀。

因为说了就是逆着潮流,现在大家对ChatGPT可谓是好评如潮。我一说,相信网友的唾沫就能把我淹死,我的罪过比哥白尼轻不了。

博士的言论

后来,还是有一位老前辈说了,他就是吴军博士。

吴军博士说完后,好像也被网友攻击了。媒体给起得标题是“吴军说ChatGPT没什么”。

为了保命,我表达观点之前,先真心地肯定一下ChatGPT。ChatGPT确实很强大。在内容创作领域来讲,他确实起到了革命性的作用。AIGC爆火后,相信大家也看到了很多新闻,比如游戏公司裁掉了一些美工,电商店铺也不再聘请一天四五万的服装模特,取而代之的是改用了AI来生成效果图。

其实,吴军也没有否定它的价值。

我仔细分析了吴军说的内容,其实,跟我上面的见解也差不多。当然,这不排除是因为我喜欢读他的书,受他的影响。

他说,ChatGPT是一个语言模型,语言模型并不是新产物。另外,复杂模型的成败受算力的影响很大。这一点,以前是没有人愿意不计成本地花钱研究的。但是OpenAI这次舍得花钱了。这一火爆,会引发大家都舍得花钱。最后,他说ChatGPT在内容创作领域确实有用,但是人类的涉及的领域何其广泛。他提醒其他领域的同学们,不要盲目跟风,小心被卖课程的割了韭菜。

我觉得他说的没啥毛病。

文末如果有人想继续怼他或者怼我,请恕我无力回复。咱们萍水相逢,犯不上有这般的冤仇。如果愿意平和地探讨,我乐意彼此交换一下想法。

我只是想说一下自己遇到和看到的事情,仅此而已。

电力哥

最近,我遇到了很多人找我,有公司的领导,也有外界的朋友。

他们找我,无非就是想搞一搞人工智能,给自己的产业稍微加持一下AI能力,然后期望在行业内,能火上一把。

很遗憾,我帮不上他们的忙。或者说,他们有些乐观了。

有个做电力的老哥,他经朋友介绍,找到我。他见我第一面就跟我讲ChatGPT。然后,给我讲大语言模型,他还知道Transformer(一种神经网络的架构)。他说,他有个哥们在澳大利亚研究ChatGPT的源码。

介绍人跟我说,这哥们有AI需求,想咨询一下。怎么我这一来,他开始给我讲课了呢?

后来他说,他对AI是有接触的,但是太忙,没时间研究。

我点了点头说,是的,您连Transformer都知道。

他说,现在ChatGPT很火,又是开源的。能不能帮忙在私有云部署一套,他想自己再训练一下。他的要求不高,就是想实现电力数据的AI诊断。就是把一个工厂的电力信息给到ChatGPT,然后让ChatGPT提供一份详细的分析报告。包括哪个设备耗电多,哪个设备运行不正常。然后,再综合起来,评价一下这个工厂整体的电力布局,有什么优势,存在什么隐患,并给出一些优化建议。

他差点就开口问五千块够不够了。我赶紧说,我干不了。

我除了自己无能以外,我也给他分析了其他的几点客观原因。

大家也都看到了,像ChatGPT 4.0,铺天盖地全是新闻,但是国内还没有普遍使用。而且,ChatGPT它是以API的形式提供的,也就是花钱买一个账号,每次都去问它,它现场回答,要是断网那就芭比Q了。对方也能随时让你的账号失效。自从ChatGPT开始好用的那个版本开始,它就不开源了。一方面他开源了你也用不了,因为硬件成本太高。你自己训练一次需要上千万人民币。很多企业接触ChatGPT都是想要挣这上千万,并不是花这个钱。

再说,人家OpenAI投入几十亿美金,搞出一个成果,很难白送,只会馋哭隔壁的小孩。所以,它有什么功能,你就用什么功能,想打造自己的GPT,难度很大。到目前为止,我还没听过它能为某家工厂诊断电力的问题。所以,大哥您无法使用。

这哥们似乎有些郁郁寡欢,他感觉我说的不符合“人人皆可用AI逆天改命”的论断。他表示让我再研究研究,他也再找澳大利亚的那个哥们问问。

眼镜哥

我还接触过一个人,他文质彬彬戴眼镜。他没有透露自己的单位,但我感觉他应该不是在小私企。

我问:“您也想搞一个,自己行业定制的ChatGPT吗?”

这位眼镜哥,连连摇头:“不,不,不!ChatGPT我们不敢搞。他不支持私有化部署。我们要的平台,一定要能在内部网络中封闭使用”

我忽然有种遇到知己的感觉。

眼镜哥继续说:“其实,ChatGPT还有一个价值观导向的问题。如果它成了全民的知识大神、精神导师,它又是通过API方式调用,那么很难保证他不胡说乱说。除此之外,我们也不想,把关键数据送给它去训练,那样信息安全就无法保障了”

他问,有没有一种功能类似于ChatGPT,但是可以私有部署、内部训练的开源平台?

我问,预算多吗?

他回答,预算不少。

我说,你可以试试一个号称是ChatGPT的平替方案,是在4月中旬刚发布的。它就是Databricks公司发布的Dolly 2.0。据说它可以达到ChatGPT 3.5的水平。它完全开源,成本也低,从技术上来说是零门槛。人家官方也说了,可以随意用。这个公司就是看不惯ChatGPT打着Open的旗号搞Close的事情。Dolly在做1.0时,那时GPT-3还开源,因此就借用了它的一些数据,结果OpenAI就限制它不能商用。到Dolly 2.0时,因为这个公司本身就是做大数据的,这次他们就自己花钱做了训练数据集。并且他们还声明“任何人均可出于任何目的使用、修改或扩展这套数据集,包括商业应用程序”。它起名叫“Dolly”,其实指的是曾经的克隆羊多莉,就是希望大家多Copy,让老树发新芽的意思。

眼镜哥问:“成本大约得多少?”

我回答:“如果想跑得流畅,硬件起码得8块A100 GPU。这就80万了。再加上制作行业数据集,程序员开发部署。我觉得,少100万下不来”

后来,眼镜哥给了一个红包,就没再联系过我。

老领导

有一天,我的一个老领导也找到我。

老领导请我吃烤鱼,他说:现在ChatGPT很火,我很想借一把力。

老领导的公司是做教育行业的。我虽然不在那里干了,但是我们的私人关系一直很好。

我太了解原来的公司了:愿意投多少钱,有什么机器,有什么数据,有多少人,想达到什么目的。我门清儿。

我说,好啊,当初在你手下时,我就一直撺弄公司搞AI。但是你连一台物理机都不舍得买。现在终于主动了。

老领导说,咱也不搞大的,就搞一个又小又实用的。我们不是靠AI生存,只是想用AI给我们的平台点缀一下。

这样吧,我们就搞一个类似ChatGPT的功能。不用比它强,有那么点意思就行。可以中英文翻译,让学生不用上网查询。可以知识问答,让学生不用查书就能快速获取到答案。可以文案创作,让学生可以根据关键词就能学习如何写一段作文。

就这点功能吧,嵌入到我们的一个趣味问答的页面。学生闲暇时,可以跟它聊聊天。也算是增加了用户的粘性。但是,要注意关键词和敏感信息的拦截,这个和算法无关,我让他们从业务接口过滤就行了。

对我来说,这些需求很Easy。

于是,我就在我的电脑,搭建了一套清华大学的ChatGLM-6B模型。然后跑起来,给老领导看。

老领导喜欢看效果,而且还喜欢体验结果。

老领导问,这是你从GitHub上找的吧,哪个开源项目,叫什么名?

我说这是清华大学出的大语言模型,它用的训练数据集非常优质。所以,在中文的回答上,它表现很好,比百度那个强。而且它开源,可以自己部署,也可以自己微调训练。

“叫什么?”老领导问。

我说叫“ChatGLM-6B”。

“哦,ChatGLM-6B。哎,6B是什么意思?”

我说,B指的是billion,就是十亿的意思,6B就是60亿。这个数量,指的是大模型神经网络的参数。

这个参数就像是一个公司的部门。如果一个公司具有采购部,行政部,人力资源部,财务部,后勤部,部门越多,看问题的角度就越多,对于一个问题的表决就相对更精确。如果一个公司就一个人,老板、保洁全是自己干,那他回答的是很快,也省成本,但是结果全看他的心情。

老领导点了点头:“清华的这个是60亿参数。你原来说的那个什么克隆羊,它多少参数?”

我说,Dolly 2.0是12B,120亿参数。

“ChatGPT呢?”

“ChatGPT4.0……它的参数是B前面多个零,x00000B是百万亿级别的参数”

老领导想了想,他问,那我们这个6B会不会有点low啊?

我说,应对你提的那些小问答,绰绰有余。最关键的是,我的电脑就能跑,不用买服务器。就算是想要自己个性化训练,万元之内也能搞定。

老领导听说不用花钱,便饶有兴致地继续试用。

最后,领导说,它回复的还行,但是不符合行业特征。

我问:“什么行业特征?”

老领导说:“拿文本生成来说,我给它几个关键字,让它生成一段文本。我想让它给出学生作文的那种风格。但是,它输出的却更像是商品描述,或者新闻报道,而且文笔太过老道,没有稚气,更像是大人写的。我想要的是学生写记叙文、议论文的那种感觉”

我说,这个好办呀,我们可以训练自己的数据,这叫做“微调”。

老领导说,那你微调看看!

我说,我调不了。这种风格类的东西,得由专业一些的人来制作,像制作课件一样。

我给他展示了一条ChatGLM-6B中关于广告文案生成的训练集:

输入: 类型#上衣颜色#黑白风格#简约风格#休闲图案#条纹衣样式#风衣衣样式#外套。

输出: 设计师以条纹作为风衣外套的主要设计元素,以简约……带来大气休闲的视觉效果……不容易让人觉得它过时。

人工智能并不是天生就这么聪明的,其实它是经过海量数据训练出来的。

训练数据就是人工标记好的一些已知答案的数据。一般成对出现。比如训练识别猫,那这条数据就是先有一张猫的图片,然后再有一个猫的结果。经过上万条这样的数据训练。最后,再给一张猫的图片,人工智能就能分辨出来了。其实它的底层也是阅片无数,最终才能修成正果。

就跟教孩子叫爸爸一样,你得先朝着她喊几百声“爸爸”,她才能学会怎么叫。

训练文案自动生成也是一样,需要先有一组关键词作为输入,然后再来一段相匹配的最终结果作为输出。最后把它交给算法模型,告诉它:“你看,如果有人这么问,你就这么回答,好好体会下”。

最后,她就像孩子学话一样,她不但会说“爸爸”,也会偶尔冒出一句“哔了狗了”。这句话你并没有教她,是她自己从抖音上听的。她离开了你,也会学习了。

老领导说:“嗯,我明白了。我找人整理一下你说的训练数据。大概要多少条?”

我说:“先尝试2000条吧,这点数据量,效果可能也就一般。ChatGLM-6B能达到这个效果,那是使用了十万多条数据,才训练出来的!”

老领导最终还是放弃了。

他叹了一口气说:“大家都挺忙的,可能没有人去干这件事。就算有人,估计公司也没有途径,去弄那么多优质的学生作文数据”。

成本、通用和定制

上面三件事,提到了一个限制,那就是人工智能有三驾马车:算法,算力,数据。

对于算法,其实好多年才更新一次。类似ChatGPT这么优秀的NLP模型,它上一次的霸主还是Google推出的BERT,那还是2018年。

当然,只有算法这一架马车,其实没法跑。这不叫缺一条腿,实际上是只有盆骨,你想单腿蹦跶都立不起来。

因此,得花钱,搞算力,得买训练设备,买机器。就跟当年比特币挖矿一样。

这个投入,五位数入个门,上不封底。马斯克前段时间疯狂抢购了1万个GPU,少不了上亿人民币。这点GPU,不一定够用。

那位问了,我不求快,不搞你们那些个并行运算,我排着队行吗?行!设备不够,倒是也能跑,就是时间的问题,需要等。

需要等多久?举个例子。普通三五千的GPU训练Dolly 2.0,7.5个小时一轮。训练10000轮是3125天,训练结束需要八年半的时间。训练完了,最后工程师说,哎呦,不好意思,忘了加一个参数,得重新再来一遍。你说,这个企业还活不活了。

你要是用集群的英伟达A100,几天搞定。你用好设备,可以反复调试,调一点看一点,这样才能获得好的结果。A100,十万块钱一个,国内还买不到。兄弟,都是钱啊。

有人说,我为啥要训练呢?我花那个冤枉钱干啥?人家ChatGPT不都训练好了吗?我一块钱买5000个字符,也能跑起来。

这就不得不说第三辆马车,那就是数据。

数据是模型的灵魂与核心。人家拿自己手头的数据,训练出来的模型,那是人家的。类比到养孩子的话,数据就像是家庭、学校和社会对孩子的教育。培养出的孩子是勇敢担当,还是胆小怕事,全看平时的所见所闻,并由此形成的人格。虽然训练的数据都是通用的,但是细分到每个行业,却又有自己独特的需求。

我就遇到过一个关于行业特性的事儿,挺有意思的。

当年做教育软件的时候,给学生做了一个用手写笔做试卷的功能。学生拿笔在设备上写,考试答题。然后系统根据轨迹转成汉字。

结果老师找来了,有的学生写了这么一个字。

这个字就是武术的“武”啊,只不过是右下角多写了一撇。

对于输入法来说,这个字和武很像,就很合理地被识别成了“武”。

但是,对于老师来说,这是学生写错了,要保留原字图像,让我知道他写错了。写对了,你蹦出来个字没问题,写错了你就别再把正确的字给出来了。

这个问题,我们就解决不了。算法是人家的,人家怎么提供,我们就怎么用。人家也不会因为我们一家,去修改他们的程序。要是我们的改好了,写错了不出字,那么你让其他人怎么办?还有人想着写一横就出来个“武”字,他们感觉这样方便。

这可能不是特例。

那是厚积薄发,投机需谨慎

通用数据训练出来的模型,在垂直领域内使用时,往往会不够精确,或者侧重点有偏差。

因此说,行业数据很重要。

我们看,其实AIGC各有不同,也是有所侧重的,分为了很多方向。他们各自坚守一方,并不是啥都干,啥都能干。

Adobe公司推出了一款叫Firefly的软件。它能利用AI,实现对话式修图。下面这个图,你输入“把景色换成冬天”,咔一下,夏天变成冬天了,还能变成带有雪花飘飘的视频。

有人看到这个新闻就感慨了:“快看,人家很快都搭上AI的快车道了,我们公司得追上才行!”

其实,他们可能不知道Adobe公司是1982年创办的,到现在也40多年了。我们熟悉的Photoshop就是他家的产品。他们在图像的处理、设计、印刷等领域,深耕了几十年。类似的功能,我从2018年就看见他们提过,只是效果不好。

他们不是搭上了AI才火的,相反,是他们搞火了AI。

再个举例,微软搞的那个Office365 Copilot。说一句话就能自动制作PPT。你输入“给我添加一张PPT,内容是关于再生材料的好处”,咔咔就自动蹦出来一张设计好的PPT。

那么,谁又知道,这一项功能背后的算法、算力和数据呢?得是微软近50年来的沉淀吧。

我也听到过很多老板,甚至产品经理都说,他们说“管它爱啥啥的,都扔给ChatGPT,让它去自己想去,我们喝茶”。

说这么多,我始终没有否定AI的快速发展和巨大作用。我能去研究那么多AI平台和框架,还写这么一篇千字长文,说明我并不是一个科技保守派,顽固派。

我只是想说,蹭热度要适当,要量力而为,脚踏实地才是成功之道,千万不能脑袋一热就陷进去了。

作为一个普通人,我们可以利用AI让生活和工作更加便利。目前来看,基本免费用,因此你也不用投入太多。我们就是普通用户。对我们来说,哪种技术当道,跟我们关系不大,这家关了,我们就再换一家。

作为一个中小企业,如果不是以AI为生的,可能机会也不是很多。只有大模型才有惊人的效果,但是你自己又训练不起。如果仅仅是调用人家的API,使用别人训练好的模型,那么你与其他千千万万都调用的,又有什么区别呢?核心竞争点在哪里?可能就是开头一段时间火,会招揽一些普通用户注册个会员。但是,如果投入太大,后面还是得自谋生路。

对于大企业,尤其是大企业中有海量行业数据积淀的,有财力的,还愿意搞研究的,可能是一个机会。花个千八百万,可能会省去一些人工成本,并且有机会实现集团的智能化转型。

没啥别的意思。就是感觉过火了,唠一唠,希望能降降温。身边有很多连linux和windows还分不清的朋友,都想着自己搭一个ChatGPT赚钱。赚啥钱?赚到了吗?可能最赚钱的还是那些卖课的。

正如吴军博士说的,这有点像当年的淘金潮。大家都听说这里有一座金山,等着自己去挖,因此大批人涌来淘金。最后淘到金子的人很少,路边卖水的人却发财了。就连吴老师也去卖课了,因为卖课确实赚钱,需求量大。他提前提醒过大家,也算是讲些武德。

这次AI在一个领域内的突破,就好像是研究出来一种能根治艾滋病的解药。却引得糖尿病人、老年痴呆等一众患者纷纷疯狂抢购。可能他们也清楚,抢到了药并不意味着就能改变自己的命运。但是,距离他们的解药成功研发出来,应该也不远了。

- EOF -


加主页君微信,不仅Python技能+1

主页君日常还会在个人微信分享Python相关工具资源精选技术文章,不定期分享一些有意思的活动岗位内推以及如何用技术做业余项目

加个微信,打开一扇窗



推荐阅读  点击标题可跳转

1、Jupyter Notebook 好用在哪?

2、统计学基础知识梳理,建议收藏!

3、编译器大佬Chris Lattner全新编程语言「Mojo」:兼容Python核心功能,提速35000倍


觉得本文对你有帮助?请分享给更多人

推荐关注「Python开发者」,提升Python技能

点赞和在看就是最大的支持❤️

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存