本白皮书介绍了一种 7 位小浮点 (SFP) 数字表示形式,该表示法可以实现具有相同功能的深度神经网络模型精度与 INT8 相同,但 ResNet-50 的性能提高了 60%。这通过可以非常实施的 SFP 乘数实现改进在赛灵思 FPGA 上仅使用 9.5 LUT6 即可高效运行。由于 DSP 块不是乘法需要,使用 SFP 会导致显着提高计算量密度,同时仍能实现 600MHz 时钟速率。定义了 SFP 表示形式,并显示如何将其应用于深度神经网络,无需任何再训练。最佳实践然后描述构建基于 SFP 的卷积,该卷积利用Xilinx DSP 模块的独特功能可构建高效的大型加法器树。最后,定量结果比较了不同SFP的面积成本和效率变种。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉