网络芯片哪家强?专业科普:原来这个领域要比你想的更复杂!

描述

随着大规模AI训练的兴起,在AIGC迅猛前进的道路上,智能算力作为AI网络的基石,是支持AI大模型训练和推理的关键;高性能超高带宽、超低延迟和超高可靠性的网络则是AI网络基础设施的纽带,推动更高性能的网络互联成为业界重要的探讨方向。

网络芯片是组建高性能网络的核心器件,国际领先的科技巨头无疑都是芯片领域的奠基者与引领者,国内也同样有一群为芯片事业呕心沥血者,其中井芯微电子就以高性能、高可靠性的网络芯片,成为该领域的引领者。

井芯微目前已经和即将发布的网络芯片有:RapidIO、TSN 以太网、FC以及PCIe交换芯片;PCIe转以太网的网卡芯片;PCIe转FC等HBA芯片等。

网络芯片这个概念,很多人看起来会觉得依稀平常,但其实都误解了,它其实是个大类,不同的领域,不同设备上,不同的应用场景,不同的通信方式,不同的互联协议,以及不同的下游客户,所谓的网络芯片概念都是不同的!但是由于这个概念非常常见且容易理解,以致于很多人甚至专业的投资机构都不觉得它很高精尖。

今天就打开了聊,彻底把这玩意儿给说清楚。

首先讲一个十多年前的洒家的真实故事。

十多年前,洒家还是大学时代,利用寒暑假期,我会去杭州文三路电脑城的颐高旗舰广场打零工,所谓打零工其实就是:老板,买电脑吗?买电脑看一下!给您报个价!!!

当时还没有现在这么发达的网购平台,也没有这么多懂行的人。当时买一台电脑要么就是品牌机,要么就是自己组装一台。俗称DIY。当时品牌机都比较贵,不仅贵且性能拉胯, 除了CPU等表面功夫做足,其他配件全是偷工减料的垃圾货。比如某想,6000多的主机里面奔腾4的CPU给你配一个VIA的主板,别人400内存,它给你整个333的,还是单通道的,呵呵。

心疼钱想追求性价比的都是自己DIY电脑,所以那些年,你别说电脑城生意还是可以的。

但是毕竟懂行的少,不懂的居多,所以遇到不太懂的人,各位销售人员想尽一切办法宰上几刀,也是现在俗称的“奸商”行为,品牌机宰得,我为什么宰不得?

这些“奸商”销售人员,一般脸上笑脸相迎,三分钟熟络后跟你称兄道弟,等最后谈总价的时候各种飙演技,“哎呀,这个价真的做不了,太低了,老板多少也留点利润?”…………

实际上随便怎么讨价还价,总能想办法宰一刀,实在遇到懂行的没辙,直接跑过来跟你说,您要的XX显卡没有货了,要不换个XX品牌,反正一样的价格,都是9600显卡,都是256M显存,但凡你一点头,算了算了,换一个就换一个,懂的都懂,这一换就是300+的利润差价。

反正凭借我人畜无害的长相且真诚的嘴脸,以及专业的硬件知识(十三年《微信计算机》老粉),再加上天花乱坠的忽悠本事,于是年纪轻轻就走上了“奸商”的道路,而且还是顶级奸商。甚至很多被我宰过的客户居然还记得我的好,觉得我比较实诚,甚至还有回头客户!这就是做销售的最高境界,各位,学着点!

打住,今天不是来装X的。

当年,那个大部分电脑都还是10M网络口的时候,我记得我卖过一块英特尔的千兆网卡。

当时是一个有点懂,但是又不是很懂的人,来配台公司用的服务器。当时戴尔,惠普,IBM的服务器巨贵无比,小公司当然是用不起的,于是选择自己配。

我还记得当时用的英特尔的志强CPU,ECC内存,以及15000转机械硬盘,然后我发现,当时配的所谓华硕的服务器主板,居然不是千兆网卡是百兆的!然后我灵机一动,一堆专业术语一顿忽悠之下,最后他加了一块英特尔的千兆网卡,由于这块网卡非常冷门,一般电脑商家哪懂这个?也问不到价格,属于最不透明那种,进价大概2000多,最后卖他4800,因此就这块千兆网卡的利润比其他几个部件加一起都赚的多!

那次也是我第一次知道,原来英特尔除了CPU,还做网卡这玩意儿。

所以今天从服务器网卡开始,一边讲行业,一边讲技术,今天把网络芯片彻底聊透!

服务器端:从网卡到DPU的发展历程

一个大型计算机中心,有着各种各样的设备,比如服务器,网络交换机,路由器,它们在行业内统称ICT,即信息,通信和技术三个单词首字母。

它是一个涵盖性术语,覆盖所有通信设备,应用软件等。

它的上游主要核心硬件就是集成电路行业的各种芯片,包括网络芯片,计算芯片,存储芯片,内存芯片,以及各种配套的电源管理IC,PCB板,电容电感等各种被动件在内的电子元器件。

中游就是IT基础设备,比如服务器,大型存储设备,交换机,路由器,网关,防火墙,基站等…………以及围绕这些硬件的设备制造商,比如中科曙光,浪潮信息,还有菲菱科思这种做网络设备代工的公司。

然后下游就是运营管理这些设备的服务商,比如数据中心服务商,云计算服务商,IaaS运营商,电信运营商等。

终端客户都是to G,to B,to C的各类用户,比如电信业,政府,银行,金融业,各种互联网企业,以及消费者等等。

cpu

近年来随着我国经济的不断发展及各行业信息化建设推进,我国ICT技术行业市场规模不断扩大。根据数据显示,中国ICT技术市场规模从2017年的4.4万亿元上涨至2022年的5万亿元。同比2021年增长1.21%。

先聊服务器。

服务器上的基本结构其实和个人PC差不多,它由一堆CPU,GPU、GPGPU,推理运算单元,AI运算单元等各种高性能计算芯片,外加一堆外围的如主板北桥芯片,南桥芯片,电源管理IC, 模拟芯片,当然还有重要的外部通信接口,就是由各种网卡芯片组成。

以前服务器用千兆,万兆网卡,随着数据量越来越大,现在高端的都是光模块,从25G到400G不等,未来甚至有800G,1.6T,可见半导体下游应用中,通信细分排第一不是没有道理的,毕竟我们身处信息社会中。

这个网卡,以前叫NIC,即基础网卡,或者叫以太网控制器,网络适配器,它以有线网线和其他网络设备连接,因为价格便宜而且以太网标准普遍存在,应用非常广泛。

前面我当奸商的小故事里,卖的英特尔千兆网卡的就是这个。

在国内这是一个80-100亿市场的规模,并且还以年均增长13.5%左右的增速和国内2000多亿的服务器市场遥相呼应。

随着公有云中虚拟化技术的发展以及软件定义网络(SDN)技术的兴起,对端系统协议栈提出了更高的要求,而传统的高性能网卡已经难以满足这些要求。所以,智能网卡(Smart NIC)技术逐渐发展起来。不同于传统网卡,智能网卡同时具备高性能及可编程的能力,既能处理高速的网络数据流,又能对网卡进行编程,实现定制化的处理逻辑。

和传统网卡相比,智能网卡有了很大的变化。其中硬件中普遍卸载了部分传输层和路由层的处理逻辑,如校验和计算、传输层分片重组等,来减轻CPU的处理负担。甚至有些网卡如RDMA网卡还将整个传输层的处理都卸载到网卡硬件上,以完全解放CPU。得益于这些硬件卸载技术,服务器端系统的网络协议栈处理才能与现有的高速网络相匹配。

不同的加速工作负载,智能网卡又分成基本连接型NIC,面向网路加速型的智能网卡,以及面向存储加速型的智能网卡等。

智能网卡的内部结构方案也五花八门,有多个CPU组合的ASIC,有基于FPGA(可编程门整列)的,或者是FPGA+ASIC的方案。

这个存储加速型的方向我特别看好,后面细聊。

再往下一代就是现在炒的火热的DPU!!!

DPU,也就是Date Processing Unit ,也就是数据处理器。

它和CPU,GPU/GPGPU不同的是,专门针对大型算力中心的网络信息处理进行优化。

在数据中心里,时时刻刻都有大量的数据在进行传输。主机在收发数据时,需要进行海量的网络协议处理。根据传统的计算架构,这些协议处理都是由CPU完成的。

有人统计过,想要线速处理10G(万兆)的网络,需要的约4个英特尔志强CPU的核。也就是说,仅仅是进行网络数据包的处理,就要占用个8核CPU的一半满负荷时候的算力。现在数据中心网络不断升级,从10G到40G 、100G,400G,以及未来还有800G,1.6T的网络速率,这些性能开销显然是承受不起的。

把大量宝贵的CPU运算资源浪费在这上面,显然是毫无必要的,所以就有把网络处理协议先从CPU“卸载”到智能网卡上,分担CPU负荷这样的操作。

2015年,云计算厂商AWS就率先使用这种智能网卡,同步他们也收购了Annapurna LABS公司,并于2017年推出Nitro系统。同年阿里云也搞出了类似功能的神龙(X-Dragon)架构。

再然后的故事大家都知道。

2019年3月,英伟达花费69亿美金的巨资收购了以色列芯片公司Mellanox(麦洛斯)。英伟达将 Mellanox 的 ConnectX 系列高速网卡技术与自己的已有技术相结合,于2020年正式推出了两款 DPU 产品:BlueField-2 DPU 和 BlueField-2X DPU 。

因此2020年也称为DPU元年,之后国内的DPU初创公司如雨后春笋一般冒出来,扎堆DPU领域。

从某种角度上来讲,DPU也可以说是智能网卡的扩展升级版。

DPU在智能网卡的基础上,将存储,安全,虚拟化等工作从CPU上“卸载”然后加载到自己身上,等于把CPU从部分繁重且和计算没关系的工作拆出来,让DPU来处理。

综上所述,DPU 芯片的作用本质,就是卸载、加速和隔离——把 CPU 的部分工作卸载到自己身上;利用自己的算力特长,对这些工作进行加速运算,整个过程实现了计算的隔离,增加性能,减轻CPU的负荷。

所以有人说DPU也是大型服务器中心的三大U,CPU,GPU/GPGPU,DPU,也对。

cpu

下面这个图应该非常清楚了。

cpu

到现在为了配合Ai和加速计算而设计的DPU,DPU针对多用户,云生态环境进行各种优化,提供数据中心级的软件定义和硬件加速的网络、存储、安全和管理的等各种服务。

到2025年,有专业机构预测这个DPU,有望超过120亿美金的市场空间!

在这个领域,国内国外公司就非常多了,包括英特尔,英伟达( Mellanox),博通,还有微软,亚马逊,Marvell等。当然主要就是英特尔,英伟达,博通这三家。

国内目前这类公司也不少,比如云豹智能,网迅,星云智联,芯启源,中科驭数,无锡沐创,大禹智芯,云脉芯联,江苏为是,赛芯半导体,楠菲微电子,以及上市公司*ST左江(300799)!!!

总结,过去服务器都是用普通的千兆,万兆网卡的那就是用NIC网络适配器,俗称网卡芯片。

之后开始升级,出现了智能网卡分担一部分CPU的功能,到现在出现DPU,实现更多功能,至于连接方式,也早不再是网线,而是光纤。

两幅图帮助各位理解:

cpu

DPU的定位。

cpu

网卡仅仅是承担了网络连接功能

服务器端的网络芯片就讲到这里。

网络设备端:路由,交换与无线设备的心脏!

网络设备就是指各种路由器,交换机,以及无线设备。

这些设备是整个网络的核心硬件,它通过使用数据包交换来接受数据,转发数据来到计算机网络里指定的设备上。

在整个网络设备,交换机规模排第一,大概占56%,其次是路由器占比为约30%,其余是网络无线设备占比约14%。

在交换机领域,有家大家都非常熟悉的美国公司,Cisco,思科。

交换机领域经过这些年的发展,其实国内外竞争格局非常稳定。

国外就是思科,Arista,HPE惠普这些。其中思科独霸全球市场40%以上;Arista排第二,国内互联网公司也有不少用它的设备,因此国内也有一定的市场份额;HPE惠普主要是服务器市场多,交换机不多,但是由于收购了Aruba Networks(阿鲁巴),在企业级无线领域有一定的占有率。

而国内,华为+新华三+锐捷三两家则占了90%左右的市场份额,其余几家分剩下的那点市场份额。

华为,新华三不说了,国内占主导地位。锐捷以前专注教育网,在医疗网络也比较厉害,现在也往B端客户,如数据中心,服务器中心,互联网企业此类客户去切。此外就是中兴,但是中兴的交换机不是强项,它的强项是无线基站,固定网络通信,家里的FTTH,光纤到家光猫,以及中心汇聚那些。

新华三历史上换过多次大股东,从华为+3COM的合资公司,到惠普,再到紫光,最近紫光股份想收255亿收购剩余的股份但被暂缓。

cpu

讲完交换机再讲路由器的格局。

在路由器领域,基本就是思科和华为两家,处于寡头垄断,两家加一起占了60%的份额,其他就是瞻博(Juniper),新华三分剩下的,零零散散还有烽火通信,腾达,TP-LINK(普联)等公司主要是消费级市场,家用为主,在大企业端市场基本没有存在感。

在无线领域,又分两部分,第一是基站侧,传统电信运营商那种就是华为,诺基亚,爱立信,中兴等传统电信设备巨头;Wifi端包括企业级就是思科,华为,锐捷,中兴,以及收了阿鲁巴的惠普,而消费级就是普联技术,D-LINK,Netgate网件这种,这个太多了按下不表。

随着Ai计算,数据中心,大型服务器的崛起,这个网络硬件领域变的越来越重要,特别是交换机。

9月11日,IDC发布数据显示,2023年第二季度,全球以太网交换机市场收入同比增长38.4%,达到118亿美元,算是一个快速增长的市场。

光大证券发布研究报告称,随着数据流量增长,高带宽业务开展和部署对网络设备要求增多,交换机由集线器(一层交换机)升级为第四代多业务产品,数据中心场景由于东西向流量占据主流叶脊网络架构取代传统三层网络架构,AI大模型训练南北向流量增加,或驱动向“Fat-Tree”架构转变,增加交换机使用数量,交换机在数据中心市场迎来巨大发展空间。

所以从行业发展趋势来看,交换机市场是最大的增量红利!

了解完这个行业大概之后,再来聊聊设备里的芯片。先从交换机的核心心脏——交换机芯片,Switch Chip!

交换机的心脏

以太网交换设备在逻辑层次上遵从 OSI 模型开放式通信系统互联参考模型,包括物理层,数据链路层,网络层,传输层,会话层,表示层,应用层,一共7层。

对,学过网络的小伙伴对这个一定不陌生,这个就是OSI 7层模型。

cpu

以前交换机主要工作在物理层、数据链路层这两层上;而路由器则工作在网络层和传输层上。

但是现在交换机和路由器定位也逐渐模糊。现在很多数据中心,如果也不是单纯用几个大型路由器组网,这样成本太高了。现在做交换机设备的公司,会把部分带有路由功能芯片装入交换机里面,比如在思科在自己的交换机里面加上博通的芯片,让交换机具有一定的路由功能,这样客户侧组网的成本会大大降低,特别是那些互联网公司已经不再单纯依赖路由器组网,而是选择使用带有路由功能的交换机组网来降低硬件投入成本。当然,传统电信公司还是走传统路线,该用啥用啥,但是不可否认的是交换机功能越来越强大,市场份额也在扩大。

思科之前收购过一家澳大利亚的FPGA的芯片公司, Exablaze,并把它芯片用于自家交换机上,等于交换机内部带有编程功能,可以在物理层做低延迟,优化过后特别适用于期货,证券交易这类客户,因此这个各领域思科还是很有竞争力的。

以太网交换设备拥有一条高带宽的背部总线和内部交换矩阵,在同一时刻可进行多个端口对之间的数据传输和数据报文处理。

cpu

MicroChip KSZ8563RNX的内部结构

为了实现这些功能,一个交换机里包括以太网交换芯片,CPU,PHY芯片,接口/端口等各种芯片和元件组成,当然带高级路由功能的交换机,更复杂,还有带FPGA,路由芯片之类的东西。

cpu

这是一个AR8327的网络交换机芯片,高通的,来举例。

这上面一共7个端口,其中1-5接了PHY芯片,这些端口只接终端设备;端口0和端口6属于灵活部署,可接PHY,也可以接MAC,这两个端口可以根据开发者需求自己定义,修改CPU可以自定义的端口。

以太网交换芯片为用于交换处理大量数据及报文转发的专用芯片,是针对网络应用优化的专用集成电路。以太网交换芯片内部的逻辑通路由数百个特性集合组成,在协同工作的同时保持极高的数据处理能力,因此其架构实现具有复杂性;CPU 是用来管理登录、协议交互的控制的通用芯片;PHY 用于处理电接口的物理层数据。也有部分高端的把以太网交换芯片将 CPU、PHY 集成在以太网交换芯片内部,形成一颗大核SoC方案。

交换机SoC芯片好坏,直接决定了交换机性能,毕竟核心芯片支持交换机最大能支持多少端口速率,是百兆,还是千兆,万兆,还是25G,100G?性能区别非常大。

其次交换机主要功能是提供子网内的高性能和低延时交换,而高性能交换的功能主要由交换芯片完成。同时由于交换机的部署 节点多、规模大,需要交换机具备更低的功耗、和更低的成本,对交换芯片功耗和成本提出了更高的要求。

就当下而言,由于近几年数字经济的高速发展,推动了云计算,大数据,物联网,人工智能,大型算力中心的发展,这些对网络带宽提出了新的要求,100G以上的以太网交换机芯片增多,400G会成为下一代主流,因此谁能研发出高端的交换机芯片,谁就在未来具有核心竞争力。

这个领域根据不同的客户有不同的商业模式,这个领域交换机分为品牌交换机,裸机交换机,和白盒交换机。

品牌机,就是思科,华为,HPE惠普这类;

裸机交换机,主要中国台湾的企业,比如Accton,Quanta QCT,Alpha Networks,Delta此类ODM公司。

白盒交换机相当于买了裸机交换机和一个操作系统,买回去你自己折腾,这类厂商有Juniper,Arista,锐捷等。

这些厂家中,有些实力强, 核心芯片用的是自研的芯片;有些实力弱,只能用第三方的芯片方案,当然也有根据不同系列高低档次产品,自家的和第三方的搭配使用。

巨头思科、华为等大公司,当然都是自研芯片用于自家交换机上,其他厂商外购第三方厂商以太网交换芯片为主,这些多在白牌上比较常见。

这种商业格局点类似SSD主控芯片领域。原厂如三星,海力士都有自己的主控芯片,但是也有慧荣,联芸,得一微,英韧,鹏钛,国科微,这种三方的SSD主控方案商,在其他普通品牌上常见,反正各有各的市场和客户群,凭自己本事赚钱。

国内刚刚上市的盛科通信(688702),就是干这个的,属于第三方芯片方案商,卖给类似新华三,锐捷这样的客户。

cpu

来自盛科通信的IPO资料

当然国内在这个领域除了华为,基本就是弟弟。因为国外有巨无霸博通,此外还有barefoot,这家公司2019年被英特尔收购,还有Innovium,今年8月被Marvell以11亿美金收购了,中低端市场还有“小螃蟹”,Realtek。

因此这个领域占主导的要么就是自研型的思科,华为,要么就是三方大公司博通,Marvell,英特尔,国内公司除华为之外目前无论技术实力还是市占率离国外大公司还是有些差距。

交换机里的CPU就没啥好说的,主要就是英格尔和AMD,两家CPU巨头,不过国内目前也在力争上游,有用ARM构架的,RISC-V构架的基于各种构架在开发的各种CPU,还有用FPGA类芯片来满足特定的功能。

然后配套CPU的还有各种存储,包括各种DRAM,以及Nor FLASH之类的东西。

此外就是PHY芯片。

PHY芯片是物理层子系统,它负责将链路层设备(如交换芯片)连接到物理介质(如光纤,或普通网线),并将链路上的模拟信号转化为数字化的以太网帧。

在PHY芯片上,还有端口子系统,端口子系统负责读取端口配置、检测已安装端口的类型、初始化端口以及为端口提供与PHY芯片交互的接口。

说白了,PHY芯片就是一个转换接口芯片,属于数模混合类芯片。懂的都懂,涉及数模转换的都不简单,尽管看起来不起眼,但是要做好还真的挺难!

对,这个上市公司裕太微(688515)就是干这个PHY芯片的活,此外还有景略半导体之类初创公司,其他还有一些大大小小的初创公司,比如杭州的鹏瞰,他们是搞的是机器人内部的总线通信芯片。

当然裕太微不止做交换机PHY,它还有其他网络上用的PHY芯片,比如车载网络的PHY芯片。

这里多提一句,裕太微和盛科通信未来基本面的问题。

虽然裕太微的PHY芯片没有盛科通信做的交换机核心芯片这么高大上,也不如无锡沐创,楠菲微电子那样玩服务器的智能网卡芯片,以后能讲DPU的故事,前景看起来非常牛逼,因此裕太微看起来似乎成长空间有限。

但是反过来说,裕太微只要当好小弟,做好PHY芯片就能活下去,等一个汽车的机会,毕竟汽车上才是大赛道!因为洒家认为以后汽车总线构架必然大改,博世主导的CAN构架根本不适应未来汽车智能化演进方向,因为它速率实在太慢了,以后车载以太网构架将会成为主流,这裕太微机会不就来了么!

反观盛科通信,在信息技术时代,国产化,安全化太重要了,“棱镜门”窃听事件历历在目,网络芯片安全性非常重要,都必须得用***,所以盛科的短期基本面没有任何问题,无忧无虑,但是远期来看竞争格局确实有尴尬之处。

打个比方,盛科现有的客户新华三,锐捷会不会考虑自研?假如自研就比较尴尬了,岂不是有被边缘化的风险了?而且在终端市场上华为又比较强势,新华三和锐捷以后能不能和华为保持三足鼎立的态势?假如顶不住华为的强势进攻,市场份额被华为占了,那盛科咋办?这不是唇亡齿寒的故事么。

所以这个问题留给各位思考,手动狗头,我只是假设说的,不是故意唱黑盛科也不是吹捧裕太微,盛科的粉丝别来打我。

有人问,网络芯片里最重要的都讲差不多了,炒火热的光模块在哪里?

简聊光模块

光模块在前文提到的服务器和网络设备上都有,目前高端的光模块从10G开始,25G,100G,400G,800G,以及未来的1.6T都用的是光口通信,而低端的1G(千兆),10G(万兆),多用普通网线口俗称电口通信。

所以现在电口和光口,可谓泾渭分明,电口也就是普通网络口,普通网络,PC,小企业,消费级用;大型计算机中心,云计算中心,服务器中心,电信级运营商,都是用光口,也就是光模块通信。

说起光模块,我相信很多小伙伴都纷纷表示,这个我熟!

毕竟上半年A股光模块的主线,高潮迭起,相信各位赚到盆满钵满!比如中际旭创,新易盛这种大牛股。

我就简单说几句。

光模块和前面提到的普通网线口其实基本功能差不多,但是速度快很多,主要用于大型服务器中心的数据交互,它也是工作在OSI的物理层上。

光模块里最重要的就是光发射和光接收芯片,此外还有各种无源被动件,放大器,驱动,CDR,调制解调等等。

在光发射由于使用的发光芯片不同,又分为比如半导体激光器LD,发光二极管LED,还有垂直腔体发射的VCSEL,甚至还有法布里FP,分布式反馈激光器DFB,电吸收调制激光器EML等等等。

发射类型又分边射型(EEL)和VCSEL垂直发射型。

接收端,主要是就是PIN结型二极管 ,以及APD雪崩二极管这种光探测芯片。

在光发射芯片材料,基本都是磷化铟(InP),砷化镓(GaAs),甚至还有氮化镓(GaN)等,主要是由3-5族的化合物半导体材料制造。

而光接收,也就是光的探测芯片,基本都是磷化铟这种材料做的。

这下小伙伴们应该知道磷化铟和砷化镓,以及氮化镓在光模块里是干嘛的了吧,当时炒云南锗业,就是讲这个故事。

整个过程就是发射端的光芯片,发射响应速率的调制过的光信号,通过光纤传输后到光接收芯片,然后由光接收探测到之后转化为电信号,再经过前置发大器,属于响应码率的电信号。

cpu

由于光有不同的波长,在实际应用中,一般以850nm(多模),1310nm(单模),1550nm(单模),三种波长的较为常见,这和光在光纤传播的损耗有密切关系,故业内多用这三种损耗小波长的光。

损耗越小,光纤的传输距离就越远,光信号的质量就越好。

在光传输的前后,还有CDR(时钟恢复),调制解调部分,放大器,驱动部分等各种芯片,它们负责光电信号的互相转换,即电信号到光信号,然后再从光信号到信号。

很不幸,这部分芯片全是德仪,ADI,Lumentum,美信,Marvell,瑞萨,博通之类的大公司,国内水平连弟弟都算不上。

因为这属于最高端的模拟电路,国内没有特别出彩的公司。

然后为了组成100G,400G,甚至800G的带宽。业内会有各种各种的光路多通道的组合方案,比如25*4=100G,或者100G*4=400G,这种这里就涉及光的拆分和复合的技术了。

牛逼的都是多路复合光路,这样在同样的光纤上传输的信息就更多,速率也就更快,带宽更大。

哪有人问,中际旭创,新易盛有什么芯片是自己的?难道只是一个组装方案商?

对,从严格意义上来讲,国内这些个光模块公司,它们仅仅是一个光模块封装方案商罢了。

因为光发射/接收以及光电转换,各种驱动,以及CDR,调制解调器,放大器之类的芯片都不是自己的。

当然了, 也不是说封装不重要,现在光模块的封装方案,发展实在太快了,看得我都眼花缭乱。 包括远古时期的GBIC,XENPAK,后面的XFP,SFP,SFP+,SFP28,QSFP,QSFP28,CFP,CFP2,QSFP-DD,OSFP等等等,大大小小几十种,连我也搞不清楚其中的区别。只知道不同的封装方案,适用不同的速率,有些支持1.25Gbps,有些支持25Gbps,10Gbps,有些是50Gbps。

然后还对应不同的传输距离,包括100米到160公里的不等。

然后调制解调格式,也是五花八门,包括NRZ,PAM4,DP-QPSK;接口工作方式也分双向的Depluxh和单向的BiDi。

总之各位记住,光发射,光接收,以及光电转换和驱动这些个芯片领域,国内和国外比差很远。

但是不管怎么说,这些公司的业绩增长也是实打实的,属于一个高增长的市场,今年上半年光模块概念炒火热的也确实有基本面逻辑。

讲到这里网络芯片相关概念大家应该都有一个清晰的认识了。

我再帮各位总结一下。

在服务器端上,所谓网络芯片是指网卡芯片从以前的普通的以太网控制器NIC, 开始向Smart NIC智能网卡,甚至DPU方向发展,核心逻辑是把部分浪费CPU算力资源的工作,从CPU的转移到智能网卡和DPU上,好刚用在刀刃上的思路。

在网络交换机上所谓的网络芯片,是指内部核心的交换机核心,以及配套的电口PHY芯片,以及光口,光模块相关芯片。

所以网络芯片其实是个很宽泛的概念。

讲完这些,回到各位最热切关注的DPU上。

打破冯诺依曼构架?存算分离?

现代计算机的构架分成,控制器、运算器,存储器(寄存器),输入和输出系统,五个系统。

cpu

这就是冯诺依曼的计算机体系结构,相信各位学计算机的小伙伴并不陌生。

和当年第一台电子计算机的“埃尼亚克”号相比,现代计算机性能有着巨大的提升,但是基本构架都是一样的,几十年过去了并没有改变。

但是发展至今,各种问题都来了,且听我仔细分析。

还是从存储角度入手,现在最大的系统瓶颈出现在存算上。

现在有两个存算概念,一个叫存算一体,一个叫存算分离。

有人说,你这不是上海宛平南路600号么,突出一个精神分裂,自相矛盾?

别急,听我讲。存储方面又分:内存和外存。

所谓内存,狭义上理解成内存条,它类似一个临时仓库,速度很快,但是断电不保存数据,也叫易失性,实际广义上的内存包括了内存条DRAM,以及SoC芯片内部的SRAM缓存区域,俗称L1级缓存,L2级缓存等。(一级放地址,二级放数据)。

实际上SRAM区域在一颗CPU内部占的面积是非常大的,比计算单元面积大多了。

外存,就是过去的机械硬盘,当然现在机械硬盘都不用了,改用NAND FLASH颗粒做成固态硬盘来永久保存数据,它能在断电情况下永久保存数据,因此叫非易性存储。

外存从严格意义上来讲,并不属于冯诺依曼构架存储器,而是属于输入输出的外存。

尽管内存条的速度对于硬盘来讲快很多,但是对于CPU内部的速度而言还是太慢了,而且大量的能耗浪费在进进出出的数据搬运上。

在冯诺伊曼架构之下,芯片的存储、计算区域是分离的。计算时,数据需要在两个区域之间来回搬运,而随着神经网络模型层数、规模以及数据处理量的不断增长,数据已经面临“跑不过来”的境况,成为高效能计算性能和功耗的瓶颈,也就是业内俗称的“存储墙”。

这存储墙,能耗墙,编译墙的“三堵墙”导致算力无谓浪费:据统计,在大算力的AI应用中,数据搬运操作消耗90%的时间和功耗,数据搬运的功耗是运算的650倍,打破“存储墙”势在必行。

因此当下解决方案是在CPU外挂HBM,拉进计算和存储之间的距离,用异构架的思路来打破“存储墙”,也就是Chiplet的解决思路!

对,直接把CPU/GPU和HBM高宽带内存封装到一起!进一步提升系统速度!毕竟插主板上的速度和在芯片内部封装到一起的相比,速度差了成千上万倍!

cpu

这就是存算一体!!!

再来聊存算分离。

一般来讲,在主板上以前有北桥芯片和南桥芯片之分,北桥芯片负责CPU和内存条之间的通信,当然了现在CPU都和HBM封到了一起了,CPU内部都有内存控制器直连了,北桥当然不需要了。

南桥芯片负责各种输入输出设备的接口,这其中包括硬盘和CPU之间的通信。

那么有没有一种可能,现在CPU和内存都在一起了,系统瓶颈是不是转移到硬盘和CPU之间了?

有没有办法把最后的一道系统瓶颈给打破?

比如别用南桥芯片了,直接学CPU+HBM的方案算了,直接用一条高速总线,把硬盘和CPU直连得了!

这样其中一块服务器的主板上,就只要一个个高性能计算单元,而另外一块服务器上,只插各种硬盘,然后用高速光模块,把计算服务器和存储服务器连接在一起?最大程度节省资源?

这样不仅能省服务器的硬件成本,而且还能提供更快的连接带宽?

前面提到过,DPU中有一项重要功能:

“不同的加速工作负载,又分成基本连接型NIC,面向网路加速型的智能网卡,以及面向存储加速型的智能网卡。”

“到现在为了配合Ai和加速计算而设计的DPU,DPU针对多用户,云生态环境进行各种优化,提供数据中心级的软件定义和硬件加速的网络、存储、安全和管理的等各种服务。”

对,非常的棒,如果这个方案可以试试,那可以把DPU功能再升级一下,进一步分摊CPU的工作,用一条高速通信的总线+光模块的方案把两个不同功能的服务器连接到一起,打破系统瓶颈,进一步提升性能。

因此在DPU的1.0功能时代,DPU也就分担了CPU网络通信功能,但是到2.0时代,DPU还能分担存储分离后数据预处理的功能!个人认为这才是未来DPU发展的重要方向,是不是非常哇塞?

这么一看,三大U里的DPU在未来分量真的非常重要,各位DPU初创公司是不是又有新的故事可以讲给投资人听了?

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分