AWS/阿里云纷纷自研,英特尔/英伟达竞相布局,DPU有何魔力?

中智观察

共 4313字,需浏览 9分钟

 ·

2021-08-21 16:22


“我们将原本占用CPU资源的网络、存储负载全部转移到DPU芯片。”在青云科技云平台&服务高级总监陈海泉看来,运用了DPU的云主机,不仅使得CPU能尽可能多的管理业务,业务能更加稳定高效的运行。


同时,由于CPU的计算资源得以释放,所以在同等价位下,用户能使用到QingCloud云平台更多的资源,这既提升了QingCloud云平台的性价比,也为用户带来了更多的优惠。


上述也是DPU被业界追捧的部分原因。能看到这两年里,随着企业将目光从以业务为中心转向以数据为中心,DPU已成为继CPU、GPU之后冉冉升起的一颗新星。


DPU的价值


先简单了解下DPU。DPU,即Data Processing Unit数据处理单元,其被业界认为是继CPU,GPU之后,数据中心场景中第三类重要的算力芯片。甚至有说法称,未来的服务器中,可能部分不需要GPU,但一定少不了DPU。


之所以DPU兴起,原因在于随着数据量的爆发,人类社会已经从IT时代走向了DT时代。而传统数据中心基于冯·诺依曼架构,面向以业务为中心的场景;当下及未来的数据中心应面向以数据为中心的场景,传统冯·诺依曼架构制约了这一转型。


因为在传统冯·诺依曼架构中,CPU是核心,不仅负责数据的计算处理,网络、存储、安全这些基础负载也均由CPU完成。这意味着,CPU的计算资源部分被数据中心的基础设施所消耗,并未完全对外释放。


如英伟达创始人兼CEO黄仁勋曾表示,运行数据中心的传统基础设施需消耗CPU 20-30%的核心资源。在传统IT时代,CPU以及数据中心性能或许还勉强够用。而DT时代随着数据量爆发以及摩尔定律趋于极限,数据中心的性能也达到了瓶颈。

同时,海量的数据也给网络通信造成了困扰,如若出现诸如Allreduce、Barrier多打一的通信情况时,基于传统冯·诺依曼架构的计算模型势必网络拥塞。而用CPU解决,不仅浪费资源,同时延迟问题还无法解决。


这也是DPU所要解决的两个问题,即将数据中心自身网络、存储、安全等负载对CPU的消耗转移到DPU上,使得CPU能更专注于外部计算,同时降低网络传输中的延时以及丢包问题。


事实上,在DPU出现之前,智能网卡SmartNIC便被推出,旨在降低网络互联、安全、虚拟化、内存访问等对CPU资源的消耗。从某种意义上说,可以认为DPU是智能网卡的升级。


在形态上,DPU通常为SoC,且多基于Arm架构。由于DPU仅是数据处理单元芯片的统称,所以某些厂商所提供的具备DPU功能的芯片并未以DPU命名,如英特尔推出的IPU。


国外芯片厂商对DPU的布局


也正是如此,包括英特尔、英伟达、在内的国外芯片巨头纷纷布局DPU。分别来看,英特尔于今年的Six Five峰会上发布了其DPU产品——基础设施处理器 (IPU)。IPU基于FPGA,旨在使云和通信服务提供商减少在CPU)方面的开销,充分释放CPU性能。


据悉,IPU提供的能力包括:通过专用协议加速器来加速基础设施功能,包括存储虚拟化、网络虚拟化和安全;通过把软件中的存储和网络虚拟化功能从CPU转移到IPU,释放CPU核心;允许灵活的工作负载分配,提高数据中心利用率;允许云服务提供商根据软件速度对基础设施功能进行定制化部署。


英特尔表示,服务提供商和企业正大量投资于超大规模数据中心,以便为云原生应用和微服务提供高效的计算,提供这些服务的应用程序必须能够访问高速、低延迟的存储和安全的网络基础设施。但是,虚拟交换、安全和存储等基础架构服务可能会占用大量 CPU周期。


IPU则可加速网络基础设施,释放 CPU 内核,实现应用程序性能的提升。IPU 使云服务提供商能够以软件级的速度定制基础设施功能部署,同时通过灵活安排工作负载,提高数据中心的利用率。


比起英特尔,英伟达在DPU市场的布局更早也更广。


2019年4月,英伟达宣布以69亿美元收购数据中心网络公司Mellanox,这直接提升了英伟达在DPU市场的能力,因为Mellanox在智能网卡市场可谓是龙头。


在Mellanox硬件的基础上,英伟达在2020年推出了两款DPU产品:BlueField-2与BlueField-2X。BlueField-2集成NVIDIA MellanoxConnectX-6 Dx智能网卡,结合Arm内核,实现完全可编程,提供200 Gb/s的数据传输率,加快了数据中心安全、网络和包括隔离、信任根、密钥管理、 RDMA/RoCE、 GPU交换、弹性块存储、数据压缩等功能。


BlueField-2X具有BlueField-2的全部关键特性。另外, BlueField-2X还利用 NVIDIA Ampere 架构的GPU 进行了了 AI 功能增强。使用 NVIDIA 第三代 Tensor Core,可利用AI助力对服务器 进行实时安全性和管理分析,识别可能导致机密数据失窃的异常流量和侵犯主机内存的恶意活动,并可进行动态安全协调并自动响应。


今年4月的GTC大会上,英伟达又发布了BlueField-3 DPU。这是首款为AI和加速计算而设计的DPU,可助力各企业在任何规模的应用上实现业内领先的性能和数据中心的安全性。这款DPU针对多租户、云原生环境进行了优化,提供数据中心级的软件定义和硬件加速的网络、存储、安全和管理等服务。


据悉,一个BlueField-3 DPU所提供的数据中心服务可相当于多达300个CPU核才能实现的服务,从而释放CPU资源来运行关键业务应用。


除此以外,Broadcom、Marvell等国外芯片巨头以及Fungible、Pensando等国外芯片创企均参与DPU赛道。


国内诞生多家DPU创企


当然,近两年国内也刮起了DPU芯片风,随着诞生了多家DPU创企。如芯启源,成立于2015年,是一家针对超大规模电信和企业级的智能网络, 提供基于国产自主DPU核心芯片的智能网卡的高科技公司。

其智能网卡是基于SoC架构的DPU完整解决方案,在架构上采用领先的众核技术实现高效且灵活的网络报文处理和分发,硬件上还在片内增加丰富的专用硬件单元与主流SRIOV虚拟化技术相结合。


今年6月,芯启源近日宣布完成数亿元Pre-A3轮融资,并在2021世界人工智能大会上宣布将在上海建设全球芯片研发总部。


另一家DPU创企中科驭数,成立于2018年,多位创始成员来自中科院计算所计算机体系结构国家重点实验室。中科驭数自主研发了KPU(Kernel Processing Unit)专用处理器架构,并于2020年发布了基于该架构的DPU芯片K1。


中科驭数基于KPU架构的异构加速卡产品和解决方案已经应用于多家头部证券公司的金融极速交易、金融风控、极低时延数据库异构加速等场景,且和金证股份、中移物联网等企业达成战略合作,并在今年实现千万级别的季度营收。

今年7月,中科驭数宣布完成数亿元A轮融资。中科驭数透露,本轮融资将主要用于第二代DPU芯片K2的流片以及后续的研发迭代。


大禹智芯同样提供DPU产品。大禹智芯成立于2020年,团队核心成员均拥有十年以上云计算平台设计、研发和运营的经验,曾服务于百度、阿里、美团及英特尔、思科等公司。作为全球首批大规模部署DPU的云服务商核心研发人员,大禹智芯具有DPU产品的设计、研发和大规模使用的经验。


据悉,大禹智芯的DPU产品具有高速网络处理、无缝对接分布式存储和裸金属管理等功能特性,可广泛应用于云计算、数据中心、边缘计算、5G等领域。


7月份,大禹智芯宣布完成数千万元Pre-A轮融资,由华义创投和奇绩创坛投资,本次融资金将用于DPU产品的研发、生产投入以及高端人才的引入。


此外,星云智联、云豹智能、益思芯、云脉芯联、杭州菲数等几家公司也是国内DPU赛道的玩家。

不仅使用还自研DPU的云服务商


谈完了国内外布局DPU的芯片厂商。我们不妨来看看DPU芯片的用户。从其作用也不难发现,云服务商、通信服务商、数据中心厂商以及虚拟化厂商将是DPU的主力。


如华硕、戴尔科技、技嘉、云达科技和超微等厂商已宣布将提供采用英伟达BlueField-2 DPU加速的服务器。VMWare也和英伟达宣布共同开发Monterey项目。VMWare把云环境下在Hypervisor里的一些功能卸载到DPU上,比如防火墙、存储、管理等,通过把业务和基础设施操作完全隔离,实现了高安全性,也实现了裸金属的业务性能。


再如RedHat对DPU的应用。RedHat不管在数据中心运行容器还是虚拟化环境,即便使用所有的CPU核来运行虚拟化或容器,也没有办法达到100G线速。借助DPU运行Hypervisor、OVS或容器操作,可以在不消耗任何CPU的情况下以实现100G甚至200G全线速,并将CPU资源全部提供给业务。


云服务商更是对DPU青睐有加。如百度表示:“百度和英特尔在IPU领域展开全面合作,基于英特尔的IPU解决方案,百度自研智能网卡实现裸金属、虚机、容器多种算力在网络和存储功能的全面卸载和统一,极大赋能了百度云主机产品。”


UCloud基于英伟达BlueField DPU打造了高性能裸金属物理云方案,该方案将原来的10G网卡提升到现在DPU 25G,通过双网口bonding将带宽提升至50G,在性能与可靠性等方面均实现了提升,并且有效降低了裸金属云的成本。


AWS、阿里云等云服务巨头更是DPU的先行者。其对DPU的应用不仅更早,还是通过自研的形式。如阿里云则在其神龙服务器核心组件MOC卡中应用了专用X-Dragon芯片,统一支持网络、I/O、存储和外设的虚拟化。


早在2013年,AWS便着手开发定制ASIC芯片Nitro,因为其认为CPU中30%的处理能力被浪用于支持管理程序功能和管理系统的其它部分,包括存储和网络。随后在2015年,AWS斥资3.5亿美元收购了Annapurna自己研发Nitro2。


如今,AWS Nitro已迎来了第四代。凭借Nitro,AWS已将管理程序、网络和存储虚拟化转移到Nitro上,释放出CPU资源,使其云主机更有效地运行。同时,Nitro可运行Hypervisor,不占用主机资源不影响主机性能,实现近似裸机服务器的性能表现。



加入海比研究院交流群 | 获取更多报告

请添加小助手微信 :kaizhuo007
浏览 27
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

分享
举报