查看原文
其他

Cloud 3.0 正在显现,独立供应商将被排除在外?

常华Andy Andy730 2024-03-16

Source: Chris Mellor, The emergence of Cloud 3.0 and independent vendor exclusion, July 4, 2022


按:1. 供应商锁定是全球性的问题,只是在中国更敏感(不是指的国产化要求,而是国内市场的割裂化更严重);2.公有云的客户是更容易被锁定(放1PB的数据试试);3.存储介质变革了、系统架构在发生变革、网络速度还不够快。


占主导地位的私有云/公有云抽象层可以将独立供应商排除在供应商的客户群之外。


DELL和HPE正在其本地硬件和软件系统上构建类似公有云的抽象层,通过公有云配置和消费模式将其转变为基于订阅的服务。但APEX(DELL)和 GreenLake(HPE)显然是可扩展的,可以覆盖三个主要的公有云 —— AWS,Azure,Google —— 形成一体化的云管理、订阅和配置服务,为众多云环境提供一出口。


研究咨询公司Wikibon表示,这个想法正在演变成一个“超级云”的概念。一份在线研究报告称:“早期的IaaS实际上是关于摆脱数据中心基础设施管理业务 —— 称为云1.0 —— 然后2.0实际上是关于改变运营模式,现在我们看到运营模式溢出到本地工作负载中。我们在这里谈论的是HPE的GreenLake和DELL的APEX等举措。”“



分析师John Furrier建议:“基本上这是HPE和DELL的Outposts。在某种程度上,HPE和DELL正在做的事情就是Outposts应该做的事情。我们发现这很有趣,因为Outposts在2018年敲响了警钟 ,并向传统玩家开了一枪。他们最初以灵活的金融计划作为回应,但最终我们看到真正的平台出现。”


Wikibon 说:“这是在构建Cloud 3.0或 Supercloud ,我们喜欢称之为Cloud。云层上方的抽象层,可作为跨本地、多云层,以及近端和远端边缘的连续统一体验。”


我们认为,推动这一目标的动力来自两个主要的本地化系统供应商:DELL和HPE。它们具有相当完整的硬件和软件堆栈,可在其上运行传统环境、虚拟机(VM)、和容器化应用。由于VMware和Nutanix所做的努力,虚拟机可以在本地(私有云)和公有云中运行。通过将 Kubernetes 作为标准,容器化应用程序也可以在私有云和公有云环境中运行。有了合适的公有云 API 接口, GreenLake 和 APEX 可以在这些环境之间传输应用,并配置所需的计算、存储和网络资源。由于数据引力(Data Gravity),传输数据并不容易,我们稍后将对此进行介绍。


支持混合云和多云环境符合DELL和HPE的利益,因为他们的企业客户正在采用这种模式。DELL和HPE都可以通过支持这一点来保持相关性。他们最初通过为其本地(现为私有云)产品Cloud 2.0复制公有云运营模型来实现这一目标,然后通过促进爆发或直接迁移到公有云来实现这一目标。他们在这里的保障措施是大声疾呼三大云服务提供商(CSP)中每个云锁定尝试令人沮丧,指出锁定到单个CSP的成本劣势。


它们还可以通过跨四个环境(私有云、AWS、Azure 和 Google)提供全局文件和对象命名空间来帮助更好地管理非结构化数据。 


这正在进入 Hammerspace 领域,并直接将我们带入独立存储和数据服务供应商的问题。该供应商是与DELL和HPE竞争还是与它们合作?


DELL和HPE的一个考虑因素是,他们拥有提供给有服务级别协议(SLA)的客户所获得的资产。他们不会希望提供合作伙伴产品,除非它们绝对符合APEX和 GreenLake SLA,并且可以得到适当的维护和支持。


像这样的考虑将鼓励这两个主要供应商进行有限的合作交易。他们还将他们的服务品牌化为APEX或GreenLake,而以前的产品品牌(如HPE Alletra 9000)则不再受到重视。因此,我们有用于块存储的GreenLake。假设GreenLake提供了WEKA来源的高速文件服务,那么它不一定被标记为WEKA的GreenLake,而是高速文件的GreenLake。


如果HPE与WEKA达成了这样的协议,那么很可能阻止HPE与DDN,IBM(Spectrum Scale),Panasas,Qumulo和ThinkParQ(BeeGFS)进行类似的交易。我们可能会看到,采用APEX和GreenLake风格的私有云的客户将大大减少IT系统软件组件的选择。


换句话说,独立的存储和存储应用程序供应商可能会发现自己被排除在向DELL的APEX和HPE的GreenLake客户销售产品之外,除非客户迫切需要APEX或GreenLake目录中未包含的产品。


这将给独立供应商带来有趣的战略和营销挑战。



数据重力(Data Gravity)


不言而喻,大型数据集无法快速上/下公有云传输,因为它需要太长时间,因此计算需要进入数据而不是相反。我们可以说,数据引力存在的唯一原因是因为网络太慢了。当10Gbit网络成为常态时,10TB数据集具有重力。假设在开销之后,10Gbit/s等于1GB/s,然后移动10TB数据集需要10000秒;166.7分钟或超过2小时46分钟。


现在我们有100Gbit网络。10GB/s,这将需要1000秒,16分42秒。现在,让我们将速度提高到400Gbit,40GB/s,我们的10TB数据传输需要250秒,42分钟。数据引力的影响随着网络速度的提高而减弱。如果我们达到800Gbit/s 的网络速度,那么我们的10TB传输将需要125秒,2.1分钟。


只要数据集继续增长,数据引力就始终存在。因此,一个查看1PB或更大数据集的数据分析应用程序肯定会受到数据引力多年的影响 —— 但较小的数据集很可能会发现,随着网络速度的增加,数据引力会大大减弱。

继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存