查看原文
其他

SNIA 持久内存与计算型存储峰会记录

常华Andy Andy730 2024-03-16

Source: Tom Coughlin, SNIA Persistent Memory And Computational Storage Summit, Jun 11, 2022


SNIA与去年一样,在线举办了持久内存和计算型存储峰会。峰会探讨了这些专题的一些最新发展。让我们从第一天开始探索线上会议的一些见解。


三星内存解决方案实验室副总裁Yang Seok博士谈到了该公司的SmartSSD。他认为,计算型存储设备可以减轻CPU的处理负担,这可能会降低能耗,从而提供绿色计算替代方案。他指出,由于技术创新,自2010年以来,数据中心的能源使用量一直保持在1%左右(2020年为每年200-250 TWh)。然而,从2020年到2030年,将数据中心的温室气体排放量减少53%是一个具有挑战性的里程碑。


计算型存储 SSD(CSD,Computational Storage SSD) 可用于从 CPU 卸载数据以释放 CPU 以执行其他任务,或用于更接近存储数据的本地进程加速。这种本地处理以比CPU更少的功率完成,可用于存储设备中的数据缩减操作(以实现更高的存储容量和更有效的存储,以避免数据移动,并且可以成为虚拟化环境的一部分。CSD似乎具有竞争力,并且用于IO密集型任务的能源较少。此外,CSD 的计算能力也随着使用的 CSD 数量而增加。


三星在2020年宣布了其首款SmartSSD,并表示其下一代将很快上市,见下图。下一代将允许对CSD中的处理器可以执行的操作进行更大的定制,使其能够在更多应用中使用,并可能为许多处理任务节省能源。

 

三星的第二代智能SSD


来自Eidetic的Stephen Bates和来自英特尔的Kim Malone谈到了NVMe计算型计算的新标准开发。计算程序命令集中的这些新增功能之一是计算命名空间。这是 NVMe 子系统中的一个实体,它能够执行一个或多个程序,可能对子系统内存具有非对称访问,并且可能支持所有可能程序类型的子集。下面的概念图像给出了它是如何工作的。

 

用于计算型存储的计算命名空间


同时支持设备定义的程序和可下载的程序。设备定义的程序是制造商提供的固定程序或设备实现的各种功能,可以称为压缩或解密等程序。可下载的程序由主机加载到“计算程序”命名空间。


英特尔的Andy Rudoff对持久内存进行了更新。他按时间表谈到了当前进展。他说,2019年,英特尔Optane Pmem已经普遍可用。下图显示了英特尔使用傲腾 Pmem 连接到内存总线的方法。

 

将内存总线与 Octane Poem 连接起来


请注意,直接访问内存(DAX,direct access to memory)是使用傲腾 PMem 的关键。下图显示了自2012年以来PMem相关发展的时间表。

 

自2012年以来Poem相关发展时间表


Andy介绍了英特尔Optane PMem的几个客户案例,包括Oracle Exadata,通过RDMA,腾讯云和百度访问PMem。他还讨论了未来的PMem方向,特别是与CXL配对。其中包括通过时态缓存和元数据持久存储加速 AI/ML 和以数据为中心的应用程序。


来自VMware的Jinpyo Kim和来自Intel Labs的Michael Mesnier与MinIO合作,就虚拟化环境中的计算型存储发表了演讲。介绍的一些用途包括MinIO存储堆栈和Linux文件系统的数据清理(读取数据并检测任何累积的错误)。他们发现,在接近存储数据的情况下进行这种计算的可扩展性提高了50%至18倍,具体取决于链接速度(过程是读取密集型的)。VMware在与加州大学欧文分校(UC Irvine)的一个研究原型中,做了一个关于近存储日志分析的项目,发现与仅使用软件相比,查询性能提高了一个数量级——这种能力正在被移植到三星SmartSSD上。


VMware 还使用 NGD 计算型存储设备来运行 Greenplum MPP 数据库。他们在 vSphere/vSAN 上虚拟化 CSD(他们称之为 vCSD)方面做了大量工作,这允许更有效地共享硬件加速器并在兼容主机之间迁移 vCSD。CSD 可用于分解云原生应用并卸载存储密集型功能。下图显示了MinIO,VMware和Intel之间使用CSD的协作。

 

VMware、MinIO 和 Intel 的协作


Meta公司的 Chris Petersen 谈到了AI内存。Meta正在将AI用于许多应用程序,并且规模化,从数据中心到边缘。由于 AI 工作负载扩展速度如此之快,因此需要从软件要求到硬件设计进行更多的垂直集成。相当一部分容量需要高带宽加速器内存,但与训练相比,推理在低带宽下具有更大的容量。此外,推理具有严格的延迟要求。他们发现,除了HBM和DRAM之外,还可以利用一层内存,特别是对于推理。


他们发现,对于由SSD支持的软件定义内存,他们必须使用SCM SSD(Optane SSD)。使用更快的(SCM)SSD 减少了横向扩展的需求,从而降低了功耗。下图显示了Meta对AI应用程序所需内存层的看法,表明需要更高延迟的CXL更高的性能和容量的内存/存储来获得优化的性能,成本和效率。

 

Meta AI 的内存层次


SMART Modular Technologie 公司的 Arthur Sainio 和 Pecon Gupta 谈到了NVDIMM-N在DDR5和CXL支持应用程序中的使用。这些 NVDIMM-N 包括一个备用电池,允许在断电的情况下将模块上的 DRAM 写回闪存。该技术也正在为CXL应用开发,其NV-XMM规格的设备具有用于备用电源的板载电源,并与CXL Type-3设备的标准编程模型一起工作。下图显示了这些设备的外形规格。

 

CXL NVDIMM-N 外形规格


除了这些演讲之外,Intuitive Cognitive Consulting的David Eggleston还与当天的演讲者主持了小组讨论,他们在当天结束时主持了一场关于计算型存储的Birds of a Feather会议,由NGD的Scott Shadley和AMD的Jason Molgaard主持。


三星、英特尔、Eideticom、VMware、Meta 和 SMART Modular 在 2022 年 SNIA 持久内存和计算型存储峰会的第一天就持久内存和计算型存储进行了富有洞察力的演讲。


接下来,让我们从第二天开始探索线上会议的一些见解。


来自洛斯阿拉莫斯国家实验室的Gary Grinder谈到了高性能计算(HPC)应用的存储附近的计算。到2023年,他们运行具有10PB DRAM,100PB闪存和500PB HDD的HPC仿真系统,只是为了完成10PB文件和200PB广告系列的一项工作。在存储附近进行计算使常规而密集的数据管理任务更加高效且经济高效。它还使日常数据分析任务更加高效和具有成本效益。


他们还在改变数据分析的方式-专注于记录而不是文件。计算型存储允许更高的压缩率,昂贵的编码/解码以防止相关故障,实现更高的每服务器和每设备带宽以及更低的服务器成本和数量。下图显示了具有多个合作伙伴的计算型存储阵列。

 

洛斯阿拉莫斯国家实验室计算型存储阵列


计算型存储的一些改进,包括线设备索引和分析,以及减少对大型计算层作为大型合并排序空间的依赖。加快索引编制速度,使分析步骤加快 1000 个。


MemVerge 的首席执行官兼创始人  Charles Fan  谈到了 Multi-Cloud 中的 Big Memory。他谈到了多云内存即服务和可组合内存以及智能内存服务路线图 —— 见下文。

 

MemVerge Intelligent Memory Services Roadmap


MemVerge 的内存机器支持更高的虚拟机密度、更低的空间、功耗 和冷却,从而降低了总体拥有成本。CXL 上的内存中快照提供保护和更快的恢复。他们报告说,科学计算应用程序的执行时间缩短了60%以上。在云中,使用这些快照在 DRAM 中加载正在运行的应用程序可提高性能。它们还允许使用 PMem 并突发到云或在云实例之间移动。


NGD Systems 公司的 Scott Shadley和AMD的Jason Molgaar谈到了他们共同主持的SNIA计算型存储技术工作组的最新努力。目前有51家公司参与其中,有158名个人成员。他们有各种网络研讨会,博客和活动。他们还有一个SDXI小组协作,并确保与安全TWG保持一致。此外,他们还与NVM Express和xPU合作。


GigaIO 首席执行官Alan Benjamin谈到了CXL推进下一代数据中心。他说,CXL 2.0引入了内存QoS,可以确保该内存QoS以防止异构内存系统中的线路阻塞(例如 DRAM和 PMem)。它还增加了内存交错(2、4 和 8 路交错)、标准化寄存器接口和全局持久刷新。请求添加 3、6、12 和 16 路交错选项。他还有一张幻灯片,上面有关于尚未发布的信息。CXL 3.0 规范,见下文。

 

即将推出的 CXL 规范


NVIDIA 副总裁 Rob David 谈到了用于计算型存储的 GPU+DPU。他指出,DPU可以加速数据中心的工作负载,并且比传统的存储阵列或JBOF更紧凑。NVIDIA 提供 GPU 和 DPU PCIe 组合卡,如下所示,这对于计算型存储 AI 解决方案特别有用。

 

英伟达 GPU 加 DPU 解决方案


GPU 加 DPU 组合计算型存储解决方案允许按需进行就地分析、提取、 加载和转换。


来自戴尔的Shyam Iyer和SNIA SDXI技术工作组主席谈到了SDXI和标准化数据移动。随着加速器和内存技术的激增,这一点尤其重要。SDXI代表智能数据加速器接口,SNIA SDXI工作组正在努力实现1.0规范。内存到内存数据移动接口被视为持久内存技术和计算型存储的推动者。该规范的 v0.9-rev1 版本已公开审核。


软件 memcpy 是当前的数据移动标准,但它会降低应用程序性能并产生软件开销,并且对于用户级软件没有标准化。SDXI方法避免了创建缓冲区副本 以 移动数据,数据移动是直接在存储器之间进行的。SDXI在数据使用中的另一个重要原则是内存扩展,可以支持不同层的内存和多种加速器编程方法。下图显示了需要移动数据的不同类型的加速器和存储器。


SNIA SDXI 内存到内存数据移动选项


在 SDXI 中,数据移动是在不同的地址空间之间进行的,并且不由特权软件影响(一旦建立了连接)。Tit 允许通过特权软件进行抽象或虚拟化。它能够停顿、挂起和恢复每个地址空间数据移动器的体系结构存储。它还支持未来规范修订的前向和向后兼容性,并在将来包含其它的卸载。它是一个并发 DMA 模型。


IBM 研究员 Andy Walls 谈到了用于存储应用程序的计算型存储。IBM 使用其闪存核心模块 (FCM) 中内置的处理将存储应用程序处理卸载到 SSD(例如压缩)。这项工作也可以分布在多个FCM中。他指出,NAND闪存的带宽比IBM存储系统带宽高出近4.6倍。


这种额外的带宽可用于存储功能,例如压缩,但它也可用于其他目的,例如监视熵的实时变化,访问热以及数据如何更改和正在变化。它也可用于过滤, 搜索 和扫描。这可以支持各种AI操作 ,也 可用于恶意软件检测。他说,标准机构正在开展工作,为主机文件系统定义API或数据库以扫描卷。


在第二天结束时,Dave Eggleston进行了另一场演讲小组讨论,三星的David McIntyre回顾了这一天。


在SNIA PM和CS Summit计算附近的存储的第2天,讨论了多云中的大内存管理以及SNIA计算型存储组的最新进展。探索了CXL和PMem以及GPU和DPU的组合。SDXI TWG 正在进行标准化数据移动,并探索了新的计算方法。

继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存