ONNX Runtime支持龙架构,AI推理生态再添新翼

描述

近日,备受瞩目的AI推理框架开源社区ONNX Runtime宣布推出支持龙架构的新版本1.17.0,这一里程碑式的更新意味着龙芯平台上的AI推理应用开发与部署将更加便捷。

ONNX Runtime(ORT)作为近年来兴起的AI推理框架软件,已逐渐成为众多AI应用的首选基础推理引擎。此次更新不仅丰富了ORT的算力后端支持,更在软件生态层面为龙架构注入了新的活力。新版本将支持PyTorch、Tensorflow、TFLite等多种模型格式输入,覆盖CPU、GPU、IoT、NPU、FPGA等多样化算力平台,从而满足各种复杂的AI推理需求。

此次ONNX Runtime对龙架构的支持,无疑将进一步推动龙芯平台在AI领域的应用和发展,为开发者提供更加广阔的创新空间。同时,这也标志着龙架构软件生态正在不断完善,为未来的AI技术革新奠定了坚实基础。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分