400万+工程师在用

400万+工程师在用

Buffer加载AI模型的步骤

电子说

4949人已加入

描述

我们在进行CNN模型推理的时候,需要预先从DDR或者ROM中加载AI模型。大家平时一般用的是create from file的形式,为了保护自己的模型IP,一般会在模型上面做一些混淆。下面我们介绍另外一种方式,create from buffer。在编译算法sdk的阶段,可以将AI模型作为机器码编译进so中,算法加载的时候从栈内存进行加载就可以。这样模型的参数和定义就不会暴露在用户层面,目前MNN、NCNN和RKNN等都提供了create from buffer的类似接口,非常方便用户们进行使用。

使用的方式也非常的简单,分如下三步进行操作:(1)生成十六进制模型文件 (2)制作头文件和cpp文件 (3)采用create from buffer进行模型加载

一、生成十六进制模型文件

可以采用linux提供的xdd工具进行十六进制模型文件的生成。假设你有编译好的mnn模型或者rknn模型,只要执行如下操作就可以生成十六进制的模型文件:

xxd -i face\_det.mnn face\_det.cpp

二、制作头文件和cpp文件

pIYBAGALfbqAGpjSAAF3FS2bkmY041.png

cpp文件由xdd工具生成,文件形式如下(文件太大,只截取头尾两部分):

o4YBAGALfcCAbhrPAAX6NbOFHzo829.png

o4YBAGALfcmAKMdXAAUVlfDduGg377.png

三、采用create from buffer接口实现模型加载

我们采用MNN的接口为例,核心代码块如下:

o4YBAGALfdCAOfisAAHIWiHV9CU372.png

这样成功进行编译后,就可以将AI模型固化到算法sdk的so库当中了。
责任编辑人:CC 

打开APP阅读更多精彩内容

电子发烧友网

收听电子行业动态,抢先知晓半导体行业

全部0条评论

快来发表一下你的评论吧 !

打开APP