Flex Logix推出InferX X1P1 PCIe板卡,搭载高效率的InferX X1加速器

佚名 发表于 2020-10-29 15:53:53 收藏 已收藏
赞(0) •  评论(0
400万+工程师在用
400万+工程师在用

Flex Logix推出InferX X1P1 PCIe板卡,搭载高效率的InferX X1加速器

佚名 发表于 2020-10-29 15:53:53

Flex Logix公司推出了InferX X1P1 PCIe板卡,并宣布了其系列产品的技术路线图。该系列PCIe板卡都将搭载Flex Logix专为边缘侧系统设计的高性能、高效率的 InferX X1加速器。

Flex Logix推出InferX X1P1 PCIe板卡,搭载高效率的InferX X1加速器

InferX X1P1板卡是一个半高、半长的PCIe板卡,其上搭载有单颗InferX X1芯片和单个LPDDR4x DRAM。目前,这一板卡的样品已经开始向领先客户供货,并可在2021年一季度向更广泛的客户群体供货。目前预计于2021年二季度实现量产。InferX X1P4 板卡与X1P1尺寸相同,将搭载4颗InferX X1 芯片。InferX X1P4计划于2021年中期开始提供样品,并与2021年底全面量产。届时还将推出InferX M.2板卡。

InferX X1P4板卡在处理YOLOv3这一广泛应用于目标检测与识别的神经网络模型时可以达到和行业领军产品类似的吞吐量,而批量售价只有$649-$999。在多个实际客户模型方面,X1P4板卡更是可以达到高于当前行业领军产品的性能。

在处理YOLOv3模型方面,InferX X1P1板卡仅以$399-$499的批量价格,就可以为用户提供行业领军产品的约三分之一的性能。在其他用户模型方面,X1P1的性能更是优于行业领军产品。同系列的InferX M.2板卡与X1P1板卡有着相似的性能和价格。

“当前,对于大多数边缘处理器客户来说,当前行业的领军产品无疑是最受欢迎的推理加速器产品之一。然而,为了实现大批量应用,客户需要价格更为低廉的AI推理产品。”Flex Logix公司的CEO Geoff Tate这样说道:“InferX X1P1和X1M板卡将以更低的价格,为边缘推理服务器类的系统用户提供相对良好的AI推理性能。与此同时,对于那些想要保持现有性能的用户来说,X1P4的出现可以为其有效地降低成本。”

新的 InferX 系列 PCIe板卡将可以给低端服务器提供更高性价比的 AI 推理解决方案。今天推出的系列板卡包括以下几种产品:

InferX X1P1 PCIe 板卡 – 4条lane,第3/4代PCIe,19W 热设计功耗。

InferX X1P4 PCIe 板卡 – 8条lane,第3/4代PCIe, <75W 热设计功耗。

InferX X1M M.2 板卡 – 4条lane,第3/4代PCIe,19W 热设计功耗,M.2 尺寸为22x80mm。

此次发布会Flex Logix还揭开了其自主开发的系列软件工具的面纱。该系列软件工具可配套PCIe板卡使用。其中包括有TensorFlowLite/ONNX 模型的编译器,以及nnMAX实时运行软件。除此以外,InferX X1专用的驱动软件也包扩其中。该驱动软件包括了外部API,可以方便地对 X1进行配置并对X1P1板卡进行控制。

责任编辑:gt

打开APP阅读更多精彩内容

收藏

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容图片侵权或者其他问题,请联系本站作侵删。 侵权投诉

相关话题

评论(0)

加载更多评论

分享到

QQ空间 QQ好友 微博
取消