查看原文
其他

Hyperion Research:2023年HPC市场报告

常华Andy Andy730 2024-03-16
Source: https://hyperionresearch.com/wp-content/uploads/2023/05/Hyperion-Research-ISC23-HPC-Market-Update-Breakfast-Briefing_May-23-2023.pdf



Hyperion Research 2023年预测


  1. 领先级别细分市场的强劲增长将支持全球本地化HPC市场的适度增长。
  2. 先进计算领域及其相关供应链将越来越多地受到国家和地区政府政策的影响,这些政策强调国内能力。
  3. 可持续性和能源效率考虑因素将成为许多采购中的主导因素。
  4. 云利用将转向生产工作负载,导致市场低端的本地化支出初步受到侵蚀。
  5. 2023年将是AI监管之年。
  6. 由于用户对其能力和易用性更有信心,AI将在生产层部署中变得更加普遍。
  7. HPC系统架构将分为为一组应用程序进行优化的系统和旨在解决多个应用的系统。
  8. 传统和现代工作负载的不同需求将把架构焦点从计算转移到互连和存储系统。
  9. 对于HPC边缘计算的兴趣将在2023年增加,尤其是在行业领域,但支出将受到限制。
  10. 由于继续难以获取和留住人才,许多HPC场地的增长将受到阻碍。

HPC市场预计将在2023年增长
预计2023年将接受多个百万兆次级系统
AI和云计算支出正快速增长

  • 预计2023年,本地化HPC服务器的支出将达到创纪录的约170亿美元,总体上线HPC支出将达到330亿美元
  • 但也存在一些问题:
    • 整体经济对许多购买方造成压力
    • Covid以及由此带来的供应链问题已成为一个主要问题已有3年之久,并预计将继续成为问题
    • 本地化市场的低端仍在艰难发展
  • 增长驱动因素包括:
    • 世界各国和企业继续认识到创新的价值,并投资于研发以推动社会进步,增加收入,降低成本并提高竞争力
    • AI、处理器等方面的新技术发展为用户提供了许多新的领域来推进他们的研究和工程
    • 云计算对更多HPC工作负载变得更有用

HPC存储继续增长

需求在所有行业和垂直领域上增加

  • 存储历来是增长最快的HPC要素
  • 存储占本地化HPC支出的约20%,并且正处于增长中
  • 近一半的调查对象预计他们的存储预算将增加超过5%

存储和互连:新的架构焦点
传统HPC建模/仿真和AI工作负载的差异要求将使HPC架构的焦点从计算转移到系统互连和存储系统上

  • 节点间的系统互连对于组合系统元素的性能和可扩展性至关重要
    • 预计InfiniBand和以太网的主导地位将继续存在
    • 从独立的节点到节点和存储网络的转变
  • 出现了解决组合内存的节点内互连,如CXL
  • 存储架构正在演变,以解决整个生态系统的广泛挑战
    • 计算密集型与数据密集型
    • IO配置文件(大块顺序IO与小块随机IO)
    • 访问方法(文件与块与对象)
    • 访问频率(热数据与存档与冷数据)
    • 局部性(集中数据中心与云与边缘)
    • 强制一致性(严格的POSIX与宽松的POSIX)

"最近的"事件

  • DPUs的整合和采用
    • AMD收购Pensando(旧闻)
    • 微软收购Fungible资产(相对较新的消息)
    • NVIDIA Networking Bluefield 3(持续投资)
    • Intel IPU
  • 互连的演进
    • InfiniBand、以太网和OmniPath的演进
      • 线路速率
      • 特性
    • 供应商的增强和创新
      • HPE Slingshot
      • Rockport
    • 专属云解决方案提供商投资
      • AWS: EFA
      • Google: Aguila, Apollo
      • 阿里巴巴: 与Broadcom的合作
  • 在解耦和可组合系统方面取得的进展
  • 对光纤I/O的强烈期待

对光纤I/O的强烈期待
用户和供应商都急切期待光纤I/O

  • 光纤I/O被评为未来2至6年中对改善HPC架构潜力最大的技术
    • 内存计算被认为是第二高影响技术领域
    • 芯片集的物理接口标准(例如UCIe)可以在主机SoC和封装内的光纤I/O芯片集之间实现标准化连接
  • 75%的受访者认为系统资源需要进行解耦
    • 实现工作负载驱动的可组合基础设施
  • 未来架构的主要系统问题
    • 系统规模扩展
    • 缺乏系统的可组合性
    • 网络吞吐量

大型语言模型和HPC
专注于最苛刻且最新的AI领域

  • AI总体正在经历一个范式转变,模型(例如BERT、DALL-E、GPT 3)在广泛数据(通常使用自我监督大规模训练)上训练,可适应广泛的下游任务
  • 称为基础模型,以强调其至关重要但不完整的特征
  • 大型语言模型在语言、视觉、机器人操作、推理、人机交互等方面具有应用
  • 大型语言模型基于标准的深度学习和迁移技术(在一个领域中学到的知识可以转移到另一个领域),但其规模带来了新的突出能力

制定LLM/HPC需求
LLM在HPC上的扩展主要由三个因素决定

  • 计算:训练LLM到所需准确度所需的浮点运算绝对数量
  • 数据集大小:用于训练LLM的输入数据集
  • 模型大小:标记或参数的数量
    • 参数越多,模型对每个词的含义和上下文的理解就越细致
  • 这种扩展规律被称为机器学习的理想气体定律
    • PV = nRT涵盖了一系列复杂的行为
    • 这里的扩展规律可表示为f(C, D, M)
  • LLM的需求最终定义了HPC的规格要求

总体结论

  • 2022年增长疲软,增长率为4.3%
    • 预计2023年将是一个健康增长的年份
      • 2023年和2024年将由百万兆次级系统推动增长
      • GPU、云计算、AI/机器学习/深度学习和大数据是高增长领域
  • 新技术显示出巨大潜力:
    • 处理器、AI硬件和软件、存储、量子计算等
    • 组合性可能在某些应用中非常合适
  • 云计算已成为许多HPC工作负载的可行选择
  • 存储可能会看到由AI、大数据和对更大数据集的需求推动的重大增长
  • 对供应链的担忧仍然存在,并对电力/可持续性和人才的增长表示担忧
继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存