CERN如何使用深度学习和英特尔oneAPI加速蒙特卡洛模拟介绍

描述

独立顾问 James Reinders 刚刚在 NextPlatform.com 网站上发表了题为“CERN 采用英特尔深度学习加速技术和 oneAPI 在不影响准确度的情况下加快推理速度”的文章,详细介绍了 CERN 如何使用深度学习和英特尔 oneAPI 加速蒙特卡洛模拟 (Monte Carlo simulation),推动大型强子对撞机研究。

为了帮助满足全球最大的粒子加速器CERN的LHC(大型强子对撞机)的未来需求,CERN,SURFsara和英特尔的研究人员一直在研究提供全新高水平仿真的方法。

Reinders 写到,CERN 研究人员“业已证明在不影响准确度的情况下,通过降低精度,成功将推理速度提升了近两倍。”此项工作是英特尔通过 CERN openlab 与 CERN 长期合作的一部分。

CERN 研究人员发现,在名为“生成式对抗网络 (GAN)”的特定神经网络 (NN) 中,约一半的计算可以从 FP32 切换至 INT8 数值精度,英特尔 深度学习加速技术可以在不影响准确度的情况下直接支持这种切换。最终,GAN 性能提升了两倍,且准确度丝毫不受影响。虽然这项工作由直接支持 INT8 的英特尔 至强 可扩展处理器完成,但 Reinders 还在文章中提出了下一个逻辑跳跃:

“INT 8 的广泛支持得益于英特尔至强可扩展处理器,英特尔 Xe GPU 也支持 INT 8。FPGA 支持 INT8 和其他较低的精度格式。”

通过完全控制精度权衡来实现量化,从而为推理带来了显着的性能提升

此外,Reinders 还表示:

“执行并大幅改进此项工作的秘密武器是,oneAPI 支持轻松访问英特尔深度学习加速和其他加速技术,无需将应用锁定到单个厂商或设备中。”

值得一提的是,oneAPI 如何让此类工作更具价值。所用工具的关键部分,包括 TensorFlow 和 Python 中隐藏的加速,都利用了支持 oneAPI 的库。这意味着,它们是公开的,可随时用于异构系统,不只针对于一家厂商或一种产品(比如 GPU)。

oneAPI 是跨行业、开放式、基于标准的统一编程模型,可在所有加速器架构中提供统一的开发体验。英特尔帮助创建了 oneAPI,并为其提供各种开源编译器、库和其他工具的支持。编程后通过 oneAPI 使用 INT8,这样文章所述的 CERN 执行的此类工作可以使用英特尔 Xe GPU、FPGA 或其他支持 INT8 或其他数值格式(可以量化)的设备来完成。

原文标题:神经网络性能提升两倍,英特尔®深度学习加速技术和oneAPI推动大型强子对撞机研究

文章出处:【微信公众号:FPGA之家】欢迎添加关注!文章转载请注明出处。

责任编辑:haq

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分