英伟达发布最新GPUDirect储存技术

存储技术

595人已加入

描述

(文章来源:十次方)

Nvidia发展GPUDirect储存技术,大幅提升GPU加载大型资料集的速度,使用GPUDirect储存技术,GPU加载资料集的工作不再完全需要仰赖CPU,因而解除了资料I/O的瓶颈。Nvidia发展了名为GPUDirect储存(GPUDirect Storage)的资料传输技术,加快位在各种储存的资料,传输到GPU内存的速度,可以将频宽增加至原本的2到8倍,而且还能降低端到端的延迟达3.8倍。

由于人工智能以及高效能运算的资料集规模不断的增加,应用程序加载资料花费的时间越来越长,进而影响了应用程序的效能,而且特别是端到端架构,会因为缓慢的I/O使得运算速度日益提升的GPU无用武之地。Nvidia提到,将资料从储存器加载到GPU,过去都是由CPU负责,而这将会成为硬件效能的瓶颈。

资料从NVMe磁盘传输到GPU内存的标准路径,是使用系统内存中的反弹缓冲区(Bounce Buffer),而GPUDirect储存技术避免使用反弹缓冲区,以减少额外的资料副本,并使用直接内存存取引擎(Direct Memory Access,DMA)将资料直接放到GPU内存中,为远端或是本地储存,诸如NVMe或NVMe over Fabric,和GPU内存之间,建立一个直接传输资料的路径,而这能有效减轻CPU I/O的瓶颈,提升I/O频宽和传输资料的量。

Nvidia提到,GPUDirect储存技术的主要功能,就是透过这个新的档案系统,以直接内存存取的方式,将资料传输至GPU内存上。无论资源原本存放在什么位置,都能使用GPUDirect储存技术,这些储存可能位在机箱内、机架上甚至通过网络连接都可以。

Nvidia在GPU资料科学平台RAPIDS中的GPU资料影格(GPU DataFrame,GDF)函式库cuDF上进行实验,发现使用GPUDirect存储技术,比起原始cuDF CSV读取程序,将资料传输到GPU内存的吞吐速度快了8.8倍。cuDF是让使用者在GPU上,用来加载、过滤、排序和探索资料集的函式库。

Nvidia表示,应用这项新技术,远端储存、本机端储存以及CPU内存到GPU内存的频宽,可以在互相组合后加乘,以人工智能超级计算机DGX-2为例,从CPU系统内存到GPU内存的频宽限制为50 GB/s,但综合从系统内存、本机端硬盘以及NIC(Network Interface Card)的资料,最高频宽甚至可以达215 GB/s。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分