ELF-RV112B RKNN模型加载与运行时初始化

电子说

1.4w人已加入

描述

1. 实验目的

• 验证 .rknn 模型文件在 ELF-RV1126B 板端可被正确加载。

• 验证 init_runtime 初始化成功,说明 NPU 运行时与模型版本基本匹配。

• 保留最小化验证日志,为后续 YOLOv8 目标检测部署做前置确认。

2. 准备事项

1)准备一个可用的 .rknn 模型文件,例如官方资料包中的 best.rknn。

2)建议在板端单独创建测试目录,避免模型文件路径混乱。

提示:如果你手头只有原始 ONNX / PyTorch 模型,还没有转换成 .rknn 文件,那么本实验暂时无法完成,需先在 PC 侧完成模型转换。

步骤 2.1  创建测试目录并确认模型文件存在

mkdir -p ~/rknn_test
cd ~/rknn_test
ls -lh ./best.rknn
NPU

这里提前将官方资料包中的best.rknn复制到了rknn_test文件夹下。

预期现象:best.rknn 文件存在,且文件大小明显大于 0。若文件不存在或大小异常,请先检查拷贝路径和模型文件完整性。

步骤 2.2  激活 Python 虚拟环境(按你的实际路径调整,这里重新在rknn_test文件夹下配置了虚拟环境)

python3 -m venv elf-env
source elf-env/bin/activate
python3 –version
pip install rknn-toolkit-lite2==2.3.2 -i https://pypi.tuna.tsinghua.edu.cn/simple
NPUNPU

步骤 2.3  编写最小化加载验证脚本 test_load_rknn.py

Vim test_load_rknn.py 
from rknnlite.api import RKNNLite

rknn = RKNNLite()
ret = rknn.load_rknn('./best.rknn')
assert ret == 0, f'load_rknn failed: {ret}'

ret = rknn.init_runtime()
assert ret == 0, f'init_runtime failed: {ret}'

print('RKNN model load and runtime init success')
rknn.release()
NPU

步骤 2.4  运行最小化验证

sudo ./elf-env/bin/python3 test_load_rknn.py
NPU

预期现象:终端打印 RKNN model load and runtime init success。若能够稳定出现该信息,说明模型文件、Lite2 版本和板端运行时已基本匹配。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分