查看原文
其他

下一次工业革命,必将由中国引领

镇长本人 大树乡谈 2024-04-24
今天周六,就不长篇大论了,提个观点,简单论证。

第四次工业革命或者说第一次智能革命,一定爆发在中国,并由中国引领,而非任何国家。美国也不可能,别管现在美国的ai潮多么汹涌、相关市值搞得有多高,这都不是战略性的,难以落地。

一个最简单的道理,任何科技革命必须以实体产业作为支撑,就算是电影《黑客帝国》这样幻想中的超未来世界,虚拟世界也要建立在客观物质和能源供应基础之上。
想想看现在被捧在风尖浪头的OpenAI,GPT的热度已经过去了,被热炒的SORA,国内有些人不知道出于什么原因,吹捧的过头了,什么“理解了物理规律”云云,好像以后搞科学研究用SORA在虚拟世界就行了。

SORA放出来的展示视频猛地一看挺不错,但是如果深挖细节,就会发现通往死路的台阶、诡异漂浮的椅子、怎么吹都没有任何摇晃的烛火、从玻璃杯底下漏出来的水等等非常不符合基本逻辑。
其实SORA本质还是GPT,只不过GPT是找语句中的统计规律,而SORA则理解一张张图片中的统计学规律,掌握一张张图片中像素的变化规律。

所谓的视频,就是一张张图片,而图片本就是一个又一个单元的排列组合,通过大量训练,找到这些单元之间的排列组合规律,进行相应编码,通过统计经验判断视频画面随时间发展最有可能发生的变化。

这个简单的道理,长期从事计算机领域的不应该不明白,为什么味着良心和知识瞎吹,大概率是有利可图。

当然,AI必须要完成通用大模型,最终极的目标是真正建立虚拟地球,但是这条路太难、太远,相比人类目前的生产力和科技水平,跨越太大,这就像非要求刚进入铁器时代的人类一定要造出火车一样,或许倾尽国力能造出几百米、几公里的铁轨,但在十几副铠甲就可以起家的古代,收益远远无法覆盖,这么做的国家很可能被拖死。

GPT、SORA都是大量数据和资金砸出来的。比如GPT背后是3万块最先进的GPU芯片支持,SORA的需求更加恐怖,所以奥特曼才会提出7万亿美元的超级计划;而数据也很好理解,中国最近几十年发展是很快,但是西方毕竟有数百年的积累,能够用于AI学习的有效数据中,中文语料占比还不到2%,巧妇也难为无米之炊。

这仍然是美国崇尚的“大力出奇迹”的做法,只要动力足,什么气动设计都不重要,但真的不重要吗?会导致多少资源的浪费?

所以,目前更现实、更有实际意义的是专用大模型的研究,智能驾驶就是最典型、最受全民关注的领域,建立在新能源汽车未来每年数十万亿的产值基础上,发展速度将远超过去。
中国的重点也是放在专用大模型上面,专用大模型涉及的领域、数量、质量以及产生的实际效益,都稳居世界第一。通用大模型也做,但由于基础数据和投入资源的严重不足,导致即使技术上差距并不大,但呈现效果较GPT和SORA有较大差距。

把重点优先放在与传统产业相结合的专用大模型上,就是要求AI必须能够赋能实体产业,最大限度提高效率和生产力,通过在各个特定领域专用大模型积累的经验和数据,再用于通用大模型的开发。

正所谓“磨刀不误砍柴工”,起码要能够自产性能足够的算力芯片,还要靠中国的规模优势把芯片价格打成白菜价,这才是通用大模型真正突破的基础。
这个道理其实很简单,中国在专用大模型领域遥遥领先,绝不是因为中国走错了路,仅仅是因为其他国家很难走这条路,而这条路也并不符合美国资本市场讲故事拉高市值的原则。

研究特定领域的专用大模型,必须有足够扎实的产业数据作为基础。

比如AI风洞模拟实验,这是中国率先推出的,基础是因为中国拥有遥遥领先的全覆盖风洞设备和技术、数据积累,只有掌握足够的基础信息,才能够不断提高AI模拟的精度。

又比如灯塔工厂、黑灯车间、智能港口、智慧物流等等,这些也必须建立在现实基础之上。

应用于实际生产的AI对于精度的要求远高于GPT或SORA,后者就算看到不符合客观物理规律的也不过一笑而过,大不了剪切掉不用就是了,别说万无一失了,就算不合理的占比超过一成甚至两成也无所谓,因为当前仍然停留在娱乐层面。

但是AI应用于实际生产和科研,精度必须高,任何一次小小的失误,带来的都可能是灾难性的结果。

而AI与产业相结合的过程,需要做大量极为枯燥的工作。

就拿美国AI潮典型代表的GPT和SORA来说,底层理论还是上世纪80年代提出的神经网络理论,简化下就是在输入、规则和输出这三个中,掌握其中两个,就可以推导出第三个。

像我们使用的计算器,输入数字和算式的过程就是输入,而计算器内置了人类预设的计算规则,计算器根据预设规则和输入的数字,就输出了计算的结果。

所谓的人工智能,其实就是给定输入和输出这两头,让AI通过大量的学习,自己去推导这其中的规则。所以才要强调学习,强调大规模数据的训练。当然GPT对于语言的分析、SORA对于图片和视频演化规则的分析,要比推导计算的规则难度更大,但本质的道理是一样的。

从上世纪80年代不被关注的神经网络理论开始,一路发展为深度计算、生成对抗网络,直到今天的AIGC才被公众普遍关注。
为什么现在才有了突破式进展?

核心还是靠大力出奇迹,靠大数据的涌现能力,一个是算力的提升,另一个是海量可学习数据的积累。

前者是算力基础,这一点常玩游戏的应该能理解,电脑配置不达标,大一点的游戏根本无法运行。

后者是解决AI学什么,注意AI学习必须基于大量数据,才能从输入和输出中尽可能找到内在规律,这个难度非常大。

就拿看照片来说,一只猫无论长成什么样子、什么姿势、什么颜色,哪怕只看到一条腿,人类也都能很轻易认出来这就是猫;但是让AI去认,能识别成什么,真就是玄学,这还仅仅是一只猫。

这个问题解决不了,SORA根本没有学习的基础。

怎么解决的呢?关键人是有“AI女神”之称的李飞飞,她在十几年前做了一件非常笨功夫的工作,用人力把几百万张图片上所有的元素逐一打标,标注这张图片上各个元素到底是什么,这就是解决“输出”的问题。

然后把人工打标后的几百万张图片让AI去学习,AI对照人工标注的“输出”结果,不断猜测为什么看起来根本不一样的东西,竟然都是“猫”,学习的多了,就渐渐在看图识猫上接近了一般人类的水平;再然后才能够学习不同元素之间的关系,通过对大量数据的统计分析,确定不同元素之间的内在逻辑。

在这个基础上,AI输出一张图片,就会把统计上关联性很强的几个元素放在一起,比如输入“过生日”,生成的图片中大概率会出现蛋糕、蜡烛等元素,但是AI并不知道蛋糕和蜡烛之间的内在联系,只是从大量统计结果得知,有生日就大概率有这两个元素。

上面只是简单的原理,实际做起来要复杂麻烦得多。

AI能够识别图片,这在过去是很难想象的事,经过大量工作积累终于实现了。这项技术也在中国落地,变成了实际产业。

比如进出小区的识别车辆号牌,各种公共场所的步态和人像识别,最近几年的减肥APP,可以拍照识别不同食物,然后自动给出热量、营养元素比例等等,

这项技术还扩展到城市治理,比如在(电动)自行车停放上,也可以应用,识别有没有准确停放在停车区,还能够进行分类;又比如对共享单车的管理,有的城市引入了配额和考核制度,用摄像头识别不同品牌车辆数量变化、活跃情况,作为考核的基础。

甚至还可以用来识别野猪,而这项技术在民用无人机上的应用,一定程度上颠覆了现代战争。

要想把AI与各个产业相结合,产生可落地的专用大模型,需要大量工程师极为枯燥的工作,需要足够庞大的产业积累、产业数据和产业从业者,这是办公室里的程序员拍碎了脑袋也无法空想出来的。

这就像创业,想点子太容易了,点子从来不缺,但是落地是最难的。

正所谓从俭入奢易、从奢入俭难,一个已经为了更轻松、更丰厚利润而去工业化的国家,在专用大模型的打磨上困难重重,或许也只能赌运气,用几万亿、几十万亿美元的海量投入硬砸通用大模型,赌能够砸出来一个真正能够理解物理规律的神。

那还不如期待上帝赐福、外星人从天而降,或许更现实点。


其他文章推荐
■  未来怎么走:重塑中国经济的底层逻辑
■  金融改革进入“深水区”,未来将走向何方?
■  大变革:2024年的中国战略与决策方向
■  未来的重大改革:剑指金融,重塑分配
■  中德合作,从内部拆解西方

如果喜欢,还请点赞、“在看”和关注吧
欢迎分享,让更多人发现“大树乡谈”

除本号外,小镇仅在以下两号发文

请注意辨别,欢迎关注

继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存