使用OpenVINO将PP-OCRv5模型部署在Intel显卡上

电子说

1.4w人已加入

描述

作者:英特尔创新大使刘力

上文介绍了《一键搞定!PP-OCRv5模型转ONNX格式全攻略》,本文将使用OpenVINO™工具套件在Intel® CPU、独立显卡、集成显卡上优化并部署飞桨PP-OCRv5模型。

一,OpenVINO™工具套件简介

OpenVINO™工具套件

是一个用于优化和部署人工智能(AI)模型,提升AI推理性能的开源工具集合,不仅支持以卷积神经网络(CNN)为核心组件的预测式AI模型(Predictive AI),还支持以Transformer为核心组件的生成式AI模型(Generative AI)。

OpenVINO™工具套件支持直接读取并优化PaddlePaddle训练好的模型(*.pdmodel)或者ONNX格式模型(*.onnx),

提升其在英特尔® CPU、独立显卡、集成显卡、NPU等硬件上的AI推理计算性能。

 

二,安装英特尔显卡驱动

参考链接:https://dgpu-docs.intel.com/driver/client/overview.html,在Ubuntu下完成英特尔显卡驱动安装。

三,搭建开发环境

首先,请克隆PP-OCRv5_OpenVINO到本地:

 

git clone https://github.com/openvino-book/PP-OCRv5_OpenVINO.git
cd PP-OCRv5_OpenVINO
OpenVINO

 

接着,创建并激活虚拟环境ppocrv5_ov,并安装所有依赖项。

 

conda create -n ppocrv5_ov python=3.11
conda activate ppocrv5_ov
pip install -r requirements.txt
OpenVINO

 

四,下载并导出PP-OCRv5 ONNX格式模型

请按《一键搞定!PP-OCRv5模型转ONNX格式全攻略》所示,下载并导出PP-OCRv5 ONNX格式模型到PP-OCRv5_OpenVINO文件夹。

五,编写PP-OCRv5推理程序

PP-OCRv5_OpenVINO项目已将推理程序编写完成,各文件功能如下:

OpenVINO

执行演示程序main.py,并指定模型路径和推理硬件设备:

 

python main.py --image_dir images/handwrite_en_demo.png 
--det_model_dir PP-OCRv5_server_det_onnx/inference.onnx 
--det_model_device CPU 
--rec_model_dir PP-OCRv5_server_rec_onnx/inference.onnx 
--rec_model_device CPU

 

运行结果,如下图所示:

OpenVINO

六,总结

开发者可以通过OpenVINO™工具套件将PP-OCRv5模型部署到Intel的CPU、独立显卡或集成显卡上。

如果你有更好的文章,欢迎投稿!

稿件接收邮箱:nami.liu@pasuntech.com

更多精彩内容请关注“算力魔方®”!

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分