查看原文
其他

半导体行业专题报告:AI不止,关注“华为+算力+存力”产业链机遇

(报告出品:东北证券)

1. 类 ChatGPT 的对话式交互推动 AI 算力芯片需求激增

1.1. 在线式搜索应用潜力更优,芯片为成本大头

ChatGPT 访问量激增带来算力需求成倍增长。根据 Similarweb 最新统计数据,2023 年 3 月 ChatGPT 全球用户访问次数是 16 亿次,环增近六成,是 1 月访问量(5.9 亿 次)的近 3 倍。访问量激增带来的是算力需求的成倍增长。可以猜想的是,下一代 搜索引擎的形态也许已经形成。我们按 2023 年 3 月 ChatGPT 月活 16 亿次,用户 每轮咨询提问 6 个问题(微软 New bing 平均提问轮次约为 3 次,而 ChatGPT 不限 轮次)测算,则 ChatGPT 单月咨询量达到 80 亿次,折合年 960 亿次,对话式搜索 已经逐步向主流搜索方式渗透。根据华为的预测,到2030年,全球数据年新增1YB;通用算力增长 10 倍到 3.3ZFLOPS,AI 算力增长 500 倍超过 100ZFLOPS。

在线式搜索的单次搜索成本约为离线式搜索的 6 倍,其中芯片成本占比 65%。根 据 OneFlow,假设 OpenAI 云服务的毛利率 75%的情况下,分别采用 ChatGPT Equivalent(离线式:直接使用大模型推理,使用时无法访问外部知识)和 2-Stage Search(在线式:可在推理时访问 Google 等传统搜索引擎)方法所估算的单次搜索 成本是 0.01和 0.066 美元,数量级与 OpenAI CEO Altman 所言的“single-digits cents” 相符。我们认为未来在线式搜索具备更大应用潜力,但该方法相当于每次用大模型 查询 K 次,返回最优结果,会增加算力成本。考虑技术降本趋势,中性估计未来单 次搜索的成本约 0.04 美元。此外,根据沐曦光启智能研究院科学家李兆石的推测, 将英伟达 A100 按 5 年寿命线性折旧,单次查询的推理成本中有 65%来自购买 GPU 的折旧成本。考虑性能追求下的芯片更新换代需求,GPU 实际使用寿命可能短于 5 年,因此实际的芯片成本占比可能更高。

训练卡价值量显著高于推理卡,推理卡增长潜力有待边缘应用场景需求升级。大模 型训练需要使用专业的 AI 服务器,其中的训练芯片当前以英伟达的 A100、H100 为 主。而当基于大模型的应用规模化推广到用户侧时,应用场景对推理芯片的需求同 步扩张,增速可能超过训练卡。未来推理卡的需求数量可能和训练卡相等,但推理 卡的单卡性能低于训练卡,价值量也相对低。比较英伟达的 T4 和 A100,前者 FP32 下理论峰值计算能力为 8.1TFLOPS,是后者(19.5TFLOPS)的 42%。根据 ZOL 中 关村在线,英伟达 T4 推理卡参考报价 10999 元,折合为 0.16 万美元,明显低于 A100 (1.25 万美元)。目前无论是在 PC 还是智能音箱这类交互入口中,大模型类应用主 要还是通过调用云端 API 完成,因此边缘侧算力卡的潜力尚未释放(至少要达到英 伟达 T4 的性能)。参考华为的预测,到 2030 年,将有 80%的数据在边缘处理,全 球边缘计算市场规模将从 100 亿美元增长至数千亿美元。

1.2. AI 产业链有望形成“上游寡头垄断+中游行业专有模型+下游应用百 花齐放”的分工形式

未来的 AI 产业链可能形成此种分工方式:少量大公司掌握通用的 CV、NLP、科学 计算等大模型;部分有高质量行业数据和 Know-how 的企业与掌握微调能力的 IT 企 业结合,训练得到特定行业/应用场景的专属大模型,并进行持续微调和维护;下游 千行百业通过 API 接入云端使用大模型或者购买定制化的私有模型。上游:少数几家大模型公司寡头垄断。类似当前的微信、windows 操作系统。

理由 1:大模型的进化原理决定该行业具有明显的马太效应,具有先发优势的玩家 将会优则更优。原始的 GPT-3 使用大量基于互联网的文本数据进行训练,一开始只 能仿写人类提供的 prompt。在 openai 大量开展指令微调(Instruction Fine-tuning)之 后,其逐渐表现出了对特定任务的理解能力,但其产生的回答表现出对性别、种族、 意识形态的强烈偏见。因为 masked-language-modeling 方法是通过统计概率生成可 能的词序列,但在实际应用中,语言模型的目的是产生符合人类价值观的认知工作。OpenAI 提出的 RLHF(Reinforcement Learning from Human Feedback)就是创造出ChatGPT 的关键技术。该技术让模型可以从人类的反馈中进行强化学习,过程可分 成 3 步,其中第一步的监督调优是令该行业具有马太效应的关键。监督调优首先需 要收集 prompt,ChatGPT 除了使用标注员提供的 prompt 外,还使用了通过 API 从 InstructGPT 用户获取的 prompt。这意味着未来使用某一个大模型的用户规模越大, 模型所属的公司就能通过大规模的数据训练出更好的模型,更好的模型带来更多的 用户,循环往复,优则更优。

理由 2:大模型训练成本极高,头部玩家可以通过大规模推理应用摊薄成本。根据 国际欧亚科学院院士&华为云人工智能领域首席科学家田奇在人工智能大模型技术 高峰论坛的分享,大模型开发和训练一次需要 1200 万美元。根据 2020 年发布的 GPT-3(不包括上述基于 RLHF 的微调)的论文,预训练有 175B 参数量的 GPT-3 需 要 3.14E11 TFLOPS 的算力,成本极高,更遑论推理算力、服务器、电费等。

理由 3:时间性价比,使用他人预训练好的模型可以避免“重复造轮子”。上述种种原因导致 B 端无法形成自己训练大模型的行业共识与能力。中游:中等数量的专有行业大模型组成细分市场,推动各行业智能化升级。当专有 模型的需求逐渐明晰且固化,为实现高性价比,可能带动 ASIC 芯片、FPGA 芯片 的需求增长。

实例 1:SAM 模型的出现预示着强泛化性的通用大模型已经渐行渐近,将迅速统一 各类基础任务。类似 ChatGPT 做到的“回答一切”,近日 Meta 所开源的 CV 大模型 SAM(SegmentAnything Model)已经能够在分割任务(CV 的典型任务之一)做到 了“分割一切”,说明 NLP 的 prompt 范式已经开始延展到 CV。英伟达的人工智能 科学家 Jim Fan 认为 Meta 的这项研究是 CV 领域的 GPT-3 时刻之一,而这也将启发 其余领域在通用大模型的爆发。该类模型的出现为统一各种深度学习的主要任务带 来可能,比如目标检测、语音识别、科学计算等。

实例 2:华为已经为行业大模型赋能千行百业提供了范例。在大模型出现前,医学 领域已经有了使用深度学习赋能行业前沿研究的案例。比如 DeepMind 开发的 AlphaFold2 已经预测出了 98.5%的人类蛋白质结构,而此前科学家们数十年的努力, 只覆盖了人类蛋白质序列中 17%的氨基酸残基。华为在 2021 年发布盘古大模型之 后,就陆续发布了药物分子、矿山等行业大模型。其中,华为云盘古气象大模型成 为全球首个精度超过传统预报方式的 AI 模型,1 小时至 7 天预测精度均超欧洲气象 局实时预报,预测速度比传统天气预报提升 10000 倍;台风硅基预测准确度世界第 一,比欧洲气象局提升约 20%。可以预见的是,当通用大模型成熟&模型部署、微 调成本下降,各行业或者各细分需求场景的大模型就有望涌现。

下游:大模型赋能百花齐放的应用企业,落地领域扩散范围可能与现有行业数据集 规模强相关。从目前第一时间通过 API 接入 ChatGPT 的主流应用(比如知识管理应 用 NotionAI、内容写作工具 Jasper AI、编程工具 PyCharm)可推知,目前“文本创作”和“编程”是大语言模型的两大主流应用方式。当前 C 端的商业模式主要是由 已有的应用打通 OpenAI 的 API 渠道,用户自己填入自己的 API Key,从而获得更 优的用户体验。在此过程中,应用软件并未获得直接收入。未来 1-2 年随 AI 底层基 座的成熟,相关应用可能迎来爆发。考虑到行业数据的瓶颈,我们认为大模型可能 会沿已有高质量数据集的方向落地。

实例:AI 可极大促进企业降本增效,已有游戏公司 3 成原画师被裁。通用图片和文 本是网络上最方便获取的公开数据,也是目前在 AIGC 领域广泛受到认可的 ChatGPT 和 stable diffusion、midjourney 所基于的公开数据形式。目前 AI 绘画已经 能用远快于人类的速度(从 2 周到 3 天)帮助画师完成前期 50%的工作,AI 模特能 用远低于真人的成本(从 5 万元到 5 元)完成一次拍摄。去年 AI 绘画爆火之后,国 内各游戏公司开始陆续使用 AI 降本增效。根据 36 氪对某游戏公司特效总监的采访, 该公司从 2023 年初开始已陆续裁掉了 30%的原画师,基本为初级和中级原画师。目前 AI 已经可以帮助画师完成前期 50%的工作,达到了中级原画师的水平。除原 画师首当其冲,根据现有可获取训练集大小,未来建模、UI 设计、动作、地编和特 效也可能依次逐步被 AI 渗透。

阿里云宣布开放大模型能力,率先提供大模型 B2B 合作范例。此外,阿里云智能 CTO 已经于 4 月 11 日在北京云峰会宣布,阿里云将提供算力及大模型基础设施, 助力企业打造自己的专属大模型。让未来的企业既可以调用通义千问模型,也可结 合企业自己的行业 Know-How 和应用场景,训练自己的企业大模型。阿里云也将与 OPPO 联合打造 OPPO 大模型基础设施;与吉利汽车、毫末智行、波司登等展开相 关合作。大语言模型的接入有可能率先对此前基于关键词的搜索交互场景产生冲击, 比如电商场景下,未来可能通过详细描述衣物/物品的方式进行线上购物,对企业传 统业务赋能。随着大模型通过增大训练参数而获得更优性能的方法的边际效益递减,高质量数据 集重要性将愈发凸显。在质量较高的数据集上进行训练,那么小到可以在本地运行的模型也可以获得类似大模型的优秀性能。随着各公司密集发布大模型,模型的稀 缺性降低,高质量数据的价值逐渐凸显。

2. 需求:AI 有望在医/食/住/行/城/自然等场景全方位改善人类 生活

未来,AI 有望在衣食住行城等场景全方位改善人类生活。科学探索边界不断拓展, 带来算力需求提升,计算有望迎来创新的黄金 10 年。

2.1. 医食住行:从感知智能到认知智能,从物理+数字世界到虚实融合

智慧交通:智能交通从“运力”时代进入“算力”时代。通过传感器采集生成全息 数据,实现实时、历史路况的全息呈现,最后经云端计算形成不同的交通指令,出 行将变得更加高效、低碳。国际能源署(IEA)预计,到 2030 年,在道路上的电动 汽车、公共汽车、面包车和重型卡车的数量将达到 1.45 亿辆。若按照每辆车平均每 天行驶 2 小时,行驶中每秒上传的压缩数据从当前的 10KB 升至 1MB 测算,则 10 万辆车智能网联汽车需要传输的数据量大约为 720TB/天。车辆行驶过程中产生的 海量数据交给 AI,其以计算为核心,持续支撑交通的数字化升级和智慧化管理。“算力”的解放带来了交通安全、效率、体验的提升。有 AI 相助,城市日均通勤 时间将缩短 15-30 分钟;交通治理方面,拥堵会缓解,事故将会减少,“停车难”问 题也可能得到解决。更加高效、低碳的出行会释放出新生产力,推动社会经济的发 展。

无人驾驶:AI 应对边缘案例能力有望超越人类,促进 L5 级无人驾驶落地。随着边 缘案例(Corner Case)的产生积累,以及对自动化无监督的视频级 AI 机器学习训 练的实现需求,智能驾驶算力需求大幅增长,摩尔定律逐渐失效。到 2030 年,L4+ 自动驾驶汽车单车算力将达到 5000T,催生端云协同的计算需求,预计未来单个车 厂的云端至少需 10EFLOPS 以上的算力。L4 级的自动驾驶商用后,AI 会不断在实 例中学习训练,愈发“聪明”,最终于应对能力超越人类,得以实现 L5 级完全自动 驾驶。智慧城市:通过数据实现城市能源高效调度,将带来 100 倍的社会数据聚集。据联 合国人居署的统计,城市只占地球表面不到 2%的面积,却居住地球超 50%的人口, 消耗全世界 78%的能源,排放超过 60%的温室气体。城市智慧化治理是实现城市可 持续发展的必然方案。借由物理传感器,城市数字孪生得以建立,将带来 100 倍的 社会数据聚集,能源调度效率将会提升,将居民高峰用电平均需求减少 15%以上。

精准医疗:AI 参与病情推理,提高效率,缓解卫生工作者短期难题。在医疗领域, 人工智能已经可以自动识别出微小的肺结节,与以往肉眼识别、手工标识相比诊断 效率更高,可以节省医生大量时间。未来人工智能将在复杂的问诊中与医生“讨论 病情”,为医生提供诊断依据和预期疗效分析,逐渐形成人工智能出方案、医生审核 成为普遍的诊疗模式。据世界卫生组织,到 2030 年,预计出现 1800 万卫生工作者 的短缺,AI 可成为应对这一挑战的解决方案。药物筛选:通过将 AI 的推理过程透明化,帮助人类完成药物筛选等复杂任务。以 前,AI 是一个黑盒,而当人类仅得到结果,很难做出决策,所以发挥作用有限。未 来,AI 不仅告知结论,同时也能展现思考过程,和人类建立彼此的互信,帮助人类 完成复杂的任务,如药物筛选。

待大模型应用进入深水区,可能形成 AI 问诊的诊疗新模式。出于跨学科知识的鸿 沟,医疗人员难以直观感受大模型在其工作场景的应用潜力,而大模型的研究员对 医疗业务场景的理解又难以深入,因此大模型短期可能难以进入交叉学科应用的 “深水区”。但目前在国家医保局成立后,医疗信息化建设趋势渐起,医保数据要素 有望成为数据市场化和资产化的首批放开方向。随着大模型应用逐步落地,AI 问诊 前景可期,甚至可能冲击当前分诊室看病的诊疗模式。比如向大模型输入病情、过 往病例及诊疗结果,模型反馈初步的病情诊断结果,再配合人类医生的进一步判断, 可大幅提升诊疗效率。

个性化教育:人工智能可帮助人类重新认识教育、改革教育。人类训练人工智能模 型的过程,也是了解人类自身认知、推理能力形成机理的过程(比如强化学习、RLHF 技术的出现与人类认知行为密切相关)。未来可能出现 AI 教员,其通过精细化地分 析学生的行为习惯、能力等,为学生制定个性化的教学内容,将人工时代所稀缺的 教育资源变得更为普惠。华为预计到 2030 年,全球连接总数将达到两千亿,传感器的数量达到百万亿级, 数据量、时延等原因决定了产生感知的计算在边缘完成,未来能处理大约 80%的数 据。通过 AI,更多的行业可获得感知自我的能力,并进一步驱动企业数字化创新。

智慧农业:农业将迎来全方位全过程的数字化、网络化、智能化改造。未来,现代 信息技术与农业深度融合,为实现具备农业信息感知、定量决策等功能地全新农业 生产方式,也将产生广泛的对边缘 AI 计算的需求。智能化农业信息遥感网络也将 加快发展农业电子商务、食品溯源防伪、农业休闲旅游、农业信息服务水平。智能控制设备:AI 技术将提升关键生产环节的生产质量与与成本收益。AI 可帮助 企业实现智慧化运营、贯通层海量数据分析挖掘以及感知层更低时延诊断预警,若 在生产系统普及,则将带来工厂作业模式、人员配置、部门区域协同等一系列的升 级,如《中国制造 2025》所提出的,制造业重点领域全面实现智能化,试点示范项 目运营成本将降低 50%,产品生产周期缩短 50%,不良品率降低 50%。

制造业机器人升级:人工智能将驱动企业业务重塑。未来,人工智能将参与企业更 多的非操作性任务,人与机器形成无缝的协作关系。华为预计到 2030 年,每万名 制造业员工将与 390 个机器人共同工作。人与机器的协同将改变产品设计、生产、 销售,到企业架构、员工的雇用和培训等各个环节的业务,最终让人类告别重复枯 燥的任务、让人类远离危险的工作,并在越来越多的任务领域中赋能人类,帮助人类获得超越自我的能力。

智慧交互:未来 AI 可辅助人类完成更多创造力工作,实现从感知到认知、从弱人 工智能到强人工智能的转变。现今,人工智能已参与完成一些过去难以胜任的任务, 如通过图像辨别植物,帮助完成家务劳动等。2030 年,家用智能机器人使用率有望 超过 18%。未来,AI 将实现从感知到认知、从弱人工智能到强人工智能的跨越。当 今,AI 在作画、写诗、文学创作进行了初级的尝试,而在未来,AI 可完成更为复 杂的创造性工作。比如,通过多种插件的配合,实现从自然语言到自主搭建网站的 过程;通过多个传感器配合,实现更智能的家居。AR/VR:虚拟世界将重新定义人类生活、工作和学习的方式。未来,通过丰富的传 感器硬件,数字空间将与物理世界共同组成虚实融合的世界,人与人、人与社会、 人与自然、人与机器的交流方式将发生革命性的改变。华为预计 2030 年,超过 30% 的企业在数字世界中运营与创新,各种虚实结合的 AR/VR 用户数达到 10 亿。

元宇宙:通过数字体验驱动计算走向边缘端,人与设备之间实现实时交互。云端将 实现物理世界的建模、镜像,经过计算、加入虚拟元素形成数字世界,准确感知和 还原物理世界。边缘设备将具备听觉、视觉、触觉、嗅觉和味觉能力,多维协同的 计算将用户所处的环境整体变成一台超级计算机,在虚实结合的世界中识别用户意 图,并通过全息、AR/VR、数字嗅觉和数字触觉等技术进行用户呈现。

2.2. 前沿探索:AI 助力天气精准预报/地震预测/生物结构模拟等

数字世界算力的规模决定了物理世界探索的广度和深度。未来,随着人类认知边界 的不断扩展,科研用算力将爆炸性增长。比如,2027 年底欧洲核子研究组织(CERN) 将投入使用高光度大型强子对撞机,每秒发生约 10 亿次粒子碰撞,数据计算量将 增加 50-100 倍,存储需求达到 ZB 级。

生态监测:AI 帮助人类得出更好治理模式,有效解决环境挑战。以大数据为基础, 利用模型预测不同管理措施效果,并不断优化,AI 可为人类提供优良的环境保护方 案,如确定位污染源,预测污染扩散等。气象:气候模拟和天气预报精度更高,人类能够更加从容地应对极端天气。受限于 海量数据和巨大算力需求,目前很难对天气实现准确预测。据华为数据,天气预报 将从当前的 10 公里的精度,提升到公里、次公里,数据规模和算力需求提升 100~1000 倍。2030 年 100EFLOPS 级超级计算机的实现,可突破算力极限,大幅提 升预报能力,使人类在极端天气面前不再被动。

自然灾害预测:地震预报准确性、可靠性将极大提高。人工智能方法可突破震源机制参数的计算难题;应用地震大数据训练人工智能神经网络,可完善预报系统的准 确性和可靠性,实现地震预报领域的突破。宇宙结构探测:人工智能将助力加速研究宇宙大规模结构。传统研究办法需要对数 十万到百万个宇宙论模型进行精确的计算,已有全部计算资源都不难以完成。

风洞仿真:有望实现更大级别子系统,甚至整机的高精度仿真测试。计算机风洞仿 真是飞机、高铁等高速运动产品的重要测试手段。高精度仿真结果要求更大计算量, 需分解测试系统为更多子系统。在 AI 辅助下,未来计算能力将提升 2~3 个数量级, 高精度仿真测试成为可能。新药探索:人工智能将为解决“维度灾难”开辟新办法,加速人类认知的扩展。现 如今,在生物、材料、化学、宇宙等研究方向上,传统的计算方法面临“维度灾难”, 算力需求指数级增长,比如对于更复杂的人脑思维、记忆和行为研究。如模拟人脑 在特定刺激下的反应,每一小时模拟 Summit 需要计算 1024 年。人工智能有可能突 破“维度灾难”,为科学研究打开新的探索之道。2020 年戈登贝尔奖的研究工作就 利用人工智能实现了 1 亿原子规模模拟,比过去的同类工作计算空间尺度至少增大 100 倍,同时计算速度提高至少 1000 倍,实现了传统方法无法模拟的大尺度计算。

算力挖掘数据价值:优化生产关系,更好地匹配生产力和客户需求。以云计算、大 数据为基石,AI 可驱动行业数字化,提升管理效率,比如如 O2O 服务、电商等。实现全面应用上云,构筑 10X 的性能、效率、成本优势。端边云全栈 Serverless 化 是企业数字化、智能化转型现代化改造的主流技术。其基于云原生计算模式的编程 语言、语言 runtime、应用调度、运行、运维,构成了现代化软件及全栈 Serverless 化的基础。

精细化资源使用:新计算技术使得资源应用更加便捷,大幅减少企业计算资源浪费。在非云化时代,处理器仅有 10%的利用率,容器技术则将这一比例提升到 40%以上, 未来新的资源管理技术的广泛采用将进一步减少 50%以上的资源浪费。软件定义运营:工业制造等传统企业将在更加复杂的产业链上下游环境中实现由软 件定义的高效企业运营。工业物联网将驱动全球的供应、制造、维护、交付和客户 服务等业务流程实现广泛联接,未来企业将通过软件处理跨组织复杂协同,通过软 件快速定义业务的运营。

低碳 DC:企业将获得更加绿色的计算资源,能源效率更能得到指数级提升。随着 创新计算架构的引入,计算能效将极大的提升。传统计算过程中超过 60%能耗集中 在数据迁移,而未来以数据为中心的计算将使得能效提升数十倍。模拟计算(如量 子计算、模拟光计算)成为重要算力来源,能源效率得以指数级大幅提升。未来数 据中心受能源分布、算力需求分布的双重影响,计算架构发生更大空间维度的变化, 通过算力网络更好匹配绿电、时延、成本的差异,从而实现最优能源利用效率与碳 排放。

3. 趋势:从计算智能到感知智能,从“云端训练、边缘推理” 到端边云协同

AI 正从智能感知走向智能认知,多模态学习成为 AI 发展趋势。AI 从早期的计算 智能,升级到如今的感知智能,现在正逐步向认知智能发展,在这一发展过程中, 多模态学习是获得信息融合和协同、构建多模态大规模基础模型的重要手段。构建 大规模基础模型可以提高 AI 对复杂环境的认知能力,丰富 AI 的应用场景。以 ChatGPT 的发展为例,ChatGPT 的输入端只接受文字信息,而 GPT-4 已经发展到能 够接受图片、表格等多样的输入方式,具有多模态的数据处理能力。在该趋势下, 多模态学习还需要解决以下问题:1)利用跨模态数据的互补性及冗余性做好表征学 习;2)处理表征学习后的向量关系映射;3)处理训练场景下某个或某类模态数据 缺失后模型自适应的学习及迁移能力,保障模型精度维持在可接受范围内;4)处理 推理场景下,某个或某些模态数据缺失后的模型拓扑路由,提高推理增益等。

生成式 AI(AI generated content, AIGC)是最佳的自动化生产要素,其应用场景指 向金融银行、游戏、影视等需求侧。通过 AIGC 技术,AI 从理解内容走向自动生成 内容,并将人类创意融入内容生成过程,可进行文本续写、文字转图像、视频创作, 甚至生成 AI 主持人、游戏中的智能 NPC 等。AIGC 也在助力金融银行发展,在智 能客服、数字员工、数字营业厅、内容营销、智能投研中具有广泛的应用场景。尽 管 AIGC 已得到广泛应用,其仍面临以下问题:1)某些生成模型不稳定且难以控制 其行为,如生成的图片精确性不足但无法判别原因;2)可能被用于欺诈目的。如 AI 主持人、智能 NPC 等都可能被远程攻击、篡改,从而被用于诈骗行为。

3.1. 高算力带来高能耗,低 PUE 政策带动液冷服务器、液冷芯片需求

高算力带来高能耗,低 PUE 政策带动液冷服务器、原生液冷芯片需求。全球数据 中心总能耗占电力需求的 1%,通用计算的总能耗每 3 年增长 1 倍,AIGC&碳中和 目标将驱动算力提升百倍的同时提升能源利用效率。根据工信部 2021 年发布的《新 型数据中心发展三年行动计划》,到 2023 年底,全国数据中心总算力超过 200 EFLOPS,高性能算力占比达到 10%,新建大型及以上数据中心 PUE(即数据中心 总设备能耗/IT 设备能耗,理想水平为 1,表示只有 IT 设备在耗能)降低至 1.3 以 下,严寒和寒冷地区力争降低至 1.25 以下。根据腾讯云,一个典型的 Google 数据 中心在投产初期的 PUE~1.25。而 AI 服务器在执行复杂任务时,需要更高的能耗, PUE通常大于1.5。因此需要通过液冷、去冷机、去空调等技术优化数据中心的PUE。2022 年 5 月,英伟达发布了首款采用原生液冷芯片(Direct-to-Chip)技术的 PCIe GPU,就是基于 A100 和 H100 芯片,该类 GPU 在主流服务器的 GPU 中尚属首例。根据英伟达估计,液冷数据中心的 PUE 可能达到 1.15,远低于风冷的 1.6。根据英 伟达报告,切换至液冷后,2k 台服务器(4k 张 A100)的总电力需求降低了 28%。

3.2. 大算力需求下,新架构新技术开启新道路

(本文仅供参考,不代表我们的任何投资建议)

关于我们

我们是一家专注于分享国内外各类行业研究报告/专题热点行业报告/白皮书/蓝皮书/年度报告等各类优质研究报告分享平台。所有报告来源于国内外数百家机构,包含传统行业、金融娱乐、互联网+、新兴行业、医疗大健康等专题研究.....目前已累积收集近80000+份行业报告,涉及众多大板块,多个细分领域。

文琳编辑

免责声明:转载内容仅供读者参考,观点仅代表作者本人,不构成投资意见,也不代表本平台立场。若文章涉及版权问题,敬请原作者添加 wenlin-swl  微信联系删除。

为便于研究人员查找相关行业研究报告,特将2018年以来各期文章汇总。欢迎点击下面红色字体查阅!

文琳行业研究 2018年—2023年4月文章汇总

文琳编辑

今日导读:点击下面链接可查阅

公众号 :文琳行业研究

  1. 新型储能助力能源转型报告

  2. 2023年新型储能行业研究报告

  3. 能源金属行业2023年度策略:不畏浮云遮望眼,浪沙淘尽始见金

  4. SiC行业深度报告:SiC全产业链拆解,新能源行业下一代浪潮之基(上)

  5. SiC行业深度报告:SiC全产业链拆解,新能源行业下一代浪潮之基(下)

  6. 柔性电路板FPC行业研究报告:新能源激发新动力,消费复苏仍可期

  7. 薄膜电容行业研究:受益新能源,开启新一轮成长

  8. 薄膜电容行业研究:双重量升,中国大陆优质厂商乘势而来

    ▼长按2秒识别二维码关注我们


《文琳资讯》

提供每日最新财经资讯,判断经济形势,做有价值的传播者。欢迎关注

今日导读:点击下面链接可查阅

  1. A股主线浮出水面!"央企红"逆势上涨,高分红低估值,一键布局万亿巨头

  2. 这些城市,变了!

  3. 突发!俄方称普京官邸遇袭!视频曝光,莫斯科宣布!乌克兰刚刚表态

  4. 芒格:我和巴菲特是特殊时期的产物,投资的黄金时代已经结束

  5. 中国“天眼”拍下苏丹动乱,地面动向一清二楚

  6. 印尼,加大力度转移人口

▼长按2秒识别二维码关注我们

今日导读:点击下面链接可查阅

公众号 :文琳阅读

  1. 位置(精辟!)

  2. 五一从全国各地传回来的照片,太可怕了

  3. 首例!为儿吸血,父患狂犬病!狂犬病毒可能已具备突破黏膜屏障的能力?

  4. 纪录片《遇见最极致的中国》全7集

  5. 电影《新·奥特曼 》

  6. 音乐欣赏:6首经典口哨合集,太好听了(值得收藏)

  7. 苏州居然有26340家面馆?这些面好吃得把舌头都吞了!

  8. 今日英语:TED演讲:连续11天不睡觉会怎么样?

▼长按2秒识别二维码关注我们
公众号 :就业与创业
点击下方可看
  1. 梅西被停赛、停训、停薪!或还面临数十万欧元罚款

  2. B站五四短片爆火:原来,保持年轻真的不难

  3. 挤地铁的中国首富

  4. 在被提拔的前20天,应该注意什么?


继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存