首页 > 编程知识 正文

技嘉退出大陆市场(cpu gpu npu的区别)

时间:2023-05-06 15:43:57 阅读:82004 作者:3783

作者

近年来,摩尔定律“失速”,中央处理器(CPU )的性能增长边际成本急剧上升。 研究数据表明,目前CPU的性能年化增长率(面积归一化后)仅为3%左右。 但是,人们对计算的需求仍然在爆炸性地增长。

在其背景下,包括人工智能(AI )芯片在内的专用计算芯片相继登上历史舞台,闪耀光芒。 现在,以数据为中心的专用处理器“DPU”成为专用计算芯片的“新价格”。 美国芯片巨头NVIDIA公司将数据中心定位为继CPU和图形处理器(GPU )之后的“第三大主力芯片”,掀起了行业热潮。

CPU,GPU和“三巴”,DPU真的有这么大的潜力吗? 其应用场景是什么? 我国能抓住DPU发展的机遇吗? 最近,中国科学院计算技术研究所(以下简称中科院计算所)主编、中科驱动数(北京)科技有限公司、中国计算机学会集成电路设计专业组、计算机体系结构国家重点实验室联合编制的行业首创《专用数据处理器(DPU)技术白皮书》 )以下《DPU技术白皮书》 )公布。 结合上述问题,《中国科学报》联系了主要作者探索了一体。

以数据为中心的专用处理器“DPU”正在成为“新贵”。 图片来源: unsplash

给CPU“减负”,为数据中心“降‘税’”

“DPU最直接的作用是作为CPU的卸载引擎,其效果是给CPU一个‘负’。 》《DPU技术白皮书》主编、中科院计算所研究员wjdhb在《中国科学报》上表示,作为形象的比喻,DPU提供了数据中心的“杀鸡”工具,节约了CPU这个“sdxc”,释放了CPU的计算力,更是必要的业务负荷。

接管CPU的网络协议处理任务就是一个很好的例子。 据wjdhb称,例如,数据中心只需要线速处理10G网络,就需要8核高端CPU的一半计算能力,但在40G、100G或更高的高速网络中,性能会有所超出

大型亚马逊云服务“AWS”形象地被称为“数据中心税”——,由于商业程序还没有运行,访问互联网数据会占用很多计算资源。

“DPU的诞生使命是承载网络虚拟化、硬件资源池化等基础设施层服务,将CPU的计算能力释放到上层APP应用中。 》《DPU技术白皮书》编委会成员、中科驱动高级副总裁神勇的鸡翅,将“CPU处理效率低,GPU无法处理”的负荷卸载到专用DPU上,可以抵消“数据中心税”,计算系统

据神勇介绍,DPU主要处理网络数据和输入输出(IO )数据,提供带宽压缩、安全加密、网络功能虚拟化等功能。 “这些可以说是距离我们tmdyl每天感知到的各种APP最远的功能。 这些基本功能是为日常APP提供更高效、更安全、更实时的保障。 ”

DPU的三个中文名

行业,DPU的“d”有三种说法,因此DPU有三个中文名称。

一个是“数据”,DPU被称为“数据处理器”; 一个是“数据中心”,DPU被翻译为“数据中心处理器”。 一个是“数据中心”,与之相对应,DPU可以称为“以数据为中心的处理器”。

中国科学院计算所研究员、中国计算机学会集成电路设计专业组副主任ckdyl向记者解释说,这三种说法,乍一看意义相似,但各自侧重。 “数据处理器”区别于信号处理器、基带处理器等“信号”处理和专门处理图形图像类数据的GPU,将各类时序化、结构化的数据置于核心。 虽然“数据中心处理器”的重点是描述DPU的APP方案,但显然不是指为数据中心提供服务的所有处理器。 第三个定律体现了DPU的设计理念,体现了计算架构从“以控制为中心”向“以数据为中心”的演变。

“以上三点是关于DP

U的说法,从不同角度反映DPU的特征,都有一定的可取之处,我们认为可以作为不同的三个维度来理解DPU的内涵。”ckdyl说。

“随着‘软件硬件化’成为常态,异构计算的潜能将因各种DPU的普及而彻底发挥出来。”《DPU技术白皮书》编委会成员、中科驭数联合创始人兼CTO结实的猫咪认为,新一代的DPU不仅可以作为运算的加速引擎,还具备“控制平面”(即追求数据处理功能的覆盖面)的功能,能更高效地完成网络虚拟化、IO虚拟化、存储虚拟化等任务,彻底将CPU的算力释放给应用程序。

“可以说,DPU的出现将让各行各业的业务层数字化应用更全面、更流畅、更绿色。”结实的猫咪说。

孕育已久

从市场规模角度来看,根据Fungible公司和英伟达公司的预测,用于数据中心的DPU量级将达到和数据中心服务器等量的级别。

“服务器每年新增大约千万量级,一台服务器可能没有GPU,但一定会有一颗或者多颗DPU,好比每台服务器都必须配网卡一样。”wjdhb说,服务器每年新增大约1500万台,每颗DPU以1万元计算,这将是千亿量级的市场规模。

在这个千亿量级市场中,国际传统芯片巨头如英伟达、英特尔、Marwell、博通等厂商,都在积极布局DPU产品研发。

这些芯片巨头的布局并不意外,他们或有智能网卡研发基础(如博通)继续延伸技术触角,或通过并购专用加速芯片公司(如英伟达、英特尔)补充其在DPU领域的技术能力。相比它们,更值得一提的是,亚马逊旗下的AWS和阿里云两大云计算巨头,早已注意到数据中心开销问题,并已有了良好实践。

据《DPU技术白皮书》显示,2013年,AWS研发了Nitro产品,将为虚拟机提供远程资源、加密解密、故障跟踪、安全策略等服务程序的资源开销,全部放到专用加速器上执行,“轻量化管理程序+定制化硬件”的上场一举节省30%CPU资源。几乎在同期,阿里云也着手研发“神龙架构”(X-Dragon系统),以硬件化的MOC卡统一支持网络、IO、存储和外设的虚拟化,如今“神龙架构”已经更迭到了第4代。

“可见,DPU其实在行业内已经孕育已久,从早期的网络协议处理卸载,到后续的网络、存储、虚拟化卸载,其带来的作用非常显著,只不过在此之前DPU‘有实无名’,现在是时候迈上一个新的台阶了。”wjdhb表示。

可喜的是,国内一些围绕DPU技术的创业公司也逐渐崭露头角。除了参与编写《DPU技术白皮书》的中科驭数之外,还有云豹智能、星云智联、芯启源、云脉芯联等新近成立的科技创业公司,展现出良好势头。

以中科驭数为例,这家创始团队来自中科院计算所的初创企业,在DPU理论基础、数据中心架构方面有着深刻理解,工程实现经验也因一些来自亚马逊、赛灵思、华为等动听的哑铃的加入,得到了很好的积累。2019年,中科驭数完成第一代DPU芯片的流片,预计将于2022年推出第二代DPU芯片“K2”。

与国外厂商“逐鹿中原”

“我们认为DPU的潜力确实是巨大的。”在wjdhb看来,从技术发展的角度来看,DPU的出现有一定的必然性——上层应用对于算力的需求在过去5年急剧增长,使得DPU的应用场景很多,它将广泛分布在5G、云计算、大数据、数据中心和边缘计算等领域。

而从工业和信息化部今年发布的《新型数据中心发展三年行动计划(2021—2023年)》中,wjdhb更是看到了新型算力芯片难得的历史发展机遇。

该计划明确提出要加快提升算力算效水平,“推动CPU、GPU等异构算力提升,逐步提高自主研发算力的部署比例”“加强专用服务器等核心技术研发”“树立基于5G和工业互联网等重点应用场景的边缘数据中心应用标杆”等要求和措施。

“虽然国内厂商在芯片产品化的环节相比国外一线厂商还有差距,但是在DPU架构的理解上是有独到的见解的,而且我国目前在数据中心这个领域,无论是市场规模、增速还是用户数量,相较于国外都有巨大的优势。”wjdhb认为,国内厂商有望充分利用这一“应用势能”,加快发展步伐,在DPU这个赛道与国外厂商“逐鹿中原”。

不过,挑战与机遇并存。

“目前要解决DPU标准化应用,还存在一定挑战。”wjdhb解释道,由于数据中心本身的复杂性,各大厂商一方面采用商用现货组件(即COTS)来构建系统,追求低成本,一方面又设法分层服务化,打造面向不用类型客户的标准化产品,但除此之外的所有技术实现几乎都是“八仙过海,各显神通”——如AWS有Nitro,阿里云有MOC。

“有的厂商强化IO能力、有的关注路由转发、有的重视存储卸载、有的关注安全加密,不一而足。”wjdhb说,而上层负载不同,也必然对底层架构有各异的需求,这也许是目前DPU标准化面临的最大挑战。

版权声明:该文观点仅代表作者本人。处理文章:请发送邮件至 三1五14八八95#扣扣.com 举报,一经查实,本站将立刻删除。