中科驭数发布第三代DPU芯片K2 Pro,较上一代能耗降低30%

描述

电子发烧友网报道(文/李弯弯)近日,中科驭数(北京)科技有限公司(以下简称“中科驭数”)在北京发布了关于DPU(指数据处理器芯片)的一套核心技术,包括国内首颗量产全功能DPU芯片K2Pro,以及基于该芯片的自研芯片架构和专用的指令集技术。
 
该公司表示,之所以发布一整套技术而非单颗芯片,是因为它们相互依赖、相互增强,共同构成了一个高效、灵活且功能强大的DPU解决方案。
 
中科驭数已完成三代DPU芯片的迭代研发
  
中科驭数成立于2018年,是一家专注于DPU芯片研发设计的企业,目前已经完成三代DPU芯片的迭代研发,并成功实现规模化商用。2019年,中科驭数研发了第一代DPU芯片K1,这是业界首颗数据库和持续数据处理融合加速的芯片。
 
K1能够应用在大数据以及数据计算密集型的场景,如金融计算、数据中心、5G等相关的计算场景。这颗芯片的重要意义在于验证了中科驭数KPU芯片架构的可行性。据介绍,K1已进入金融计算行业,在风控、极速交易等业务场景中实现应用。
 
KPU是中科驭数基于“软件定义加速器”技术路线自主研发的敏捷异构众核的芯片架构。目前中科驭数已经研发了5个应用领域80余类功能核,其中包括网络协议处理核、大数据处理核等重要的自研技术组件。KPU中不同的功能核可以通过软件定义进行自由配置,大大降低芯片的设计成本,同时KPU每个功能核都是面向特定的功能,因此能做到性能最优。
 
2022年12月,中科驭数发布了第二代DPU芯片K2,采用28nm制程工艺,支持网络、存储、虚拟化等功能卸载,是当时国内首颗功能较完整的ASIC形态的DPU芯片。K2可达到1.2μs超低时延,支持最高200G网络带宽。K2基于中科驭数自研的KPU芯片架构,可广泛适用于金融计算、高性能计算、数据中心、云原生、5G边缘计算等场景。
 
基于DPU芯片核心技术,中科驭数还研发了超低时延DPU网卡、RDMA加速卡、数据查询加速DPU卡以及面向金融计算领域的极速风控、极速行情等解决方案。
 
近日,中科驭数正式推出第三代DPU(数据处理器)芯片K2-Pro。K2-Pro是国内首颗量产全功能DPU算力芯片,专为未来数据中心和云原生环境定制优化。该芯片基于自主研发的KPU架构,集网络、存储、安全及计算等多业务卸载功能于一体。
 
在数据处理方面,K2-Pro的包处理速率翻倍至80Mpps,在网络密集型应用中能提供更高的吞吐量和更低的延迟。它强化了对复杂业务的支持,集成多种硬件卸载引擎,如网络卸载、流表卸载、存储卸载及RDMA网络卸载等。采用PPP、NP内核及P4可编程架构,实现业务与同构算力、异构算力灵活扩展,用户可以根据实际需求动态调整和优化系统配置。
 
在处理复杂任务时,K2-Pro较上一代芯片能耗降低30%,实现低功耗运行。K2-Pro可应用于超低延迟网络、数据中心、金融计算、大数据处理、高性能计算等场景,提升算力基础设施效率,减少能耗浪费,降低成本。
 
与K2-Pro DPU芯片同时发布的还有软件开发平台HADOS3.0,它拥有驱动、计算、存储、网络、安全等不同层次的API数量高达2765个,适配了8款CPU平台以及10大主流操作系统,是业内适配最完全、在国内实际落地部署最多的DPU软件平台之一。
 
还有联合行业内众多合作伙伴共同打造的驭云高性能云底座解决方案,将云计算体系中的基础设施层面完全下沉,为集群提供网络转发、存储服务、安全防护、管理调度等能力,可为云计算提供高性能、高吞吐、高安全的算力底座。
 
DPU在人工智能发展中的重要作用
  
DPU的概念最初由美国公司Fungible在2016年提出,旨在优化和提升数据中心效能。DPU被认为是数据中心继CPU和GPU之后的“第三颗主力芯片”,主要用于云计算、数据中心这种大规模算力场景。
 
最初,DPU是为了加速网络数据包处理而设计的,以降低主机CPU的负载。随着人工智能和大数据分析的发展,DPU的功能逐渐扩展到加速各种数据处理任务,包括深度学习推理、存储加速和安全加密等。
 
DPU被定位为以数据为中心构造的专用处理器,采用软件定义技术路线支撑基础设施层资源虚拟化,支持存储、安全、服务质量管理等基础设施层服务。
 
DPU的有着广泛多样化的应用场景,如,在数据中心中,DPU可以加速网络数据包处理、存储加速和安全加密等任务。在边缘设备上部署DPU可以加速本地数据处理,减少与云端的通信延迟,并提高隐私和安全性。DPU可以用于加速深度学习模型的推理过程,从而实现实时的人工智能应用。在图像识别、语音识别、自然语言处理等场景中,DPU可以提供高性能的计算能力,满足实时性要求。
 
DPU的发展有着非常重大的价值,随着计算任务的日益密集,以CPU为中心的传统数据中心架构面临性能提升的瓶颈。在大型数据中心,流量处理大约占用20%至30%的计算资源。而DPU最直接的作用是作为CPU的卸载引擎,接管网络虚拟化、硬件资源池化等基础设施层服务,从而释放宝贵的CPU资源以运行上层应用,实现数据为中心的业务和基础设施操作的分离。
 
中科驭数创始人鄢贵海介绍说:“如果把CPU比作大脑、GPU比作肌肉,那么DPU就相当于神经中枢。DPU负责数据在各种CPU和GPU之间高效流通,决定了系统是否能协同工作。将CPU处理效率低下、GPU处理不了的负载卸载到专用DPU,能够提升计算系统效率、降低整体系统成本。
 
事实上,在目前火热的AIGC应用方面,AI大模型的训练往往同时使用数千或数万个GPU芯片,整个服务器集群规模超10万,此时DPU可以支持超大规模组网算力互连,并可支持100G+的超高带宽,是AI产业发展的加速器。
 
写在最后
 
DPU的发展历程经历了从网络数据包处理到数据中心全方位数据处理能力的转变,其技术不断演进,功能逐渐丰富,应用场景日益广泛。随着云计算、大数据和人工智能等技术的快速发展,DPU将在未来数据中心中扮演更加重要的角色。
打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分