数据中心部署FPGA AI加速卡拉动FPGA需求

可编程逻辑

1363人已加入

描述

(文章来源:半导体行业观察)

数据中心逻辑芯片是百亿美元市场,低延迟+高吞吐奠定FPGA核心优势。根据 Intel披露的数据,数据中心领域逻辑芯片市场规模2017年达25亿美元,2022 年有望达到80-100亿美元。数据中心FPGA主要用在硬件加速,相比GPU,FPGA在数据中心的核心优势在于低延迟及高吞吐。微软Catapult项目在数据中心使用FPGA代替CPU方案后,处理Bing的自定义算法时快出40倍,加速效果显著。数据中心对芯片性能有较高要求,硬件即服务模式下,未来更多数据中心采纳。

AI场景中FPGA市场规模2023年有望达52亿美元,未来五年复合增速达38.4%。FPGA由于其灵活性及高速运算能力,在AI加速卡领域应用广泛,根据 Semico Research的数据,AI领域FPGA市场规模2023年有望达52亿美元,相比于目前63亿美元的FPGA市场,AI领域的应用不可小觑。

FPGA在AI领域处理效率及灵活性具有显著优势,未来伴随AI技术发展迎来增 长。在加速二值化神经网络(BNN)中比较FPGA、CPU、GPU 和ASIC,FPGA提供了超过CPU和GPU的效率。即使CPU和GPU提供高峰理论性能,它们也没有得到有效利用,因为BNN依赖于更适合定制硬件的二进制bit级操作。尽管ASIC仍然更高效,但FPGA具有更高的灵活性,无需锁定固定的ASIC解决方案。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分