可编程逻辑
装过机的朋友可能知道 PCI-e 总线,可以理解为如今电脑内部大部分元器件相互沟通的桥梁和语言。而在如今的 AI 时代,在深度神经网络的训练和机器学习算法的使用中,往往要用到 GPU、FPGA(现场可编程门阵列,一种定制化计算设备)等不同计算架构的设备。如果他们继续使用 PCI-e 作为沟通的语言,效能将大打折扣。
在英特尔的技术活动“互联日”(Interconnect Day) 上,英特尔处理器互联架构部主任 Stephen Van Doren 指出了现如今 PCI-e 作为互联技术的瓶颈所在:科技行业正在经历爆炸式的数据增长,AI 这样的使用场景促使人们开始让 GPU、FPGA 等专用硬件和 CPU 一起工作。而 PCI-e 作为一种古老的互联技术,其内存使用效率、延迟和数据吞吐量已经不能满足日益增长的数据和计算速度需要。
比如,PCI-e 在不同架构的处理器之间创造了过多孤立的内存池,导致内存使用效率很低。不仅如此,计算行业的最新趋势是内存解聚,也即让服务器不再配备利用率较低的过量内存,在这一趋势上 PCI-e 也无法满足。换言之,在 AI 计算的时代,PCI-e 已经不是 CPU、GPU、FPGA 以及其他 AI 计算设备(比如终端 AI 计算卡)之间沟通的最佳语言。
为了在不颠覆现有处理器的 PCI-e 硬件接口,导致过度创新的基础上,突破 PCI-e 的这一瓶颈,英特尔在今年3月宣布了 CXL,一项全新的开放互联技术。CXL 全称 Compute Express Link,是英特尔为 CPU 和工作负载加速器(如GPU、FPGA)之间实现高速、低延迟互连而设计的一项新“语言”。
它的好处,首先是处理器之间能够实现内存一致性,允许资源共享,从而获得更高的性能、降低软件堆栈的复杂性,降低系统的总成本;其次,它构建与 PCI-e 逻辑和物理层级之上,更容易被现有支持 PCI-e 端口的处理器(绝大部分的通用 CPU、GPU 和 FPGA)所接纳。
CXL 的数据交换层包括三个子协议:CXL.io,负责设备之间的互相发现、连接建立等等;.cache,让非 CPU 架构的处理器可以直接读取 CPU 的数据;.memory,让 CPU 可以直接读取非 CPU 架构处理器附带的内存。这套逻辑将使得数据中心服务器不再需要配备过量、低利用率的内存。
区别于英特尔在自主架构计算产品内部通用的 UPI 协议,CXL 是一个非对称的协议,使得异构处理器之间的内存调用不再臃肿不堪,数据交换更快。
因为可以存在于 PCI-e 的物理层面上,英特尔将 CXL 视为一种可选的协议,意即 PCI-e 的互联协议没有被完全抛弃。不过作为 PCI-e 标准制定组织的董事成员,英特尔已经计划在第六代 PCI-e 标准上大力推进 CXL 的采用。
数据中心运营者将会是这项技术最直接的获益者,这也是阿里巴巴、思科、戴尔EMC 、Facebook、Google、HPE、华为和微软这几大数据中心和云计算领域巨头加盟到 CXL 开放联盟的原因。
目前,异构计算技术高速进步,让 AI 计算从几十年前的另类幻想成为了可能,并且导致了无数新的使用场景、商业机会诞生。而通过推进 CXL,英特尔希望为异构计算赋予一种全新的语言,让参与者更加高效地进行数据上的“对话”。
全部0条评论
快来发表一下你的评论吧 !