可编程逻辑
LITE_WITH_FPGA=ON
和LITE_WITH_ARM=ON
,问就是我们都用到。对应的FPGA的编译脚本是lite/tools/build_FPGA.sh,我们执行即可。
sh ./lite/tools/build_fpga.sh make publish_inference -j2 接下来我们编译示例demo,demo也在刚才的下载链接中。板子的使用过程请参考百度官方的文档,文档介绍的非常的清楚,阿chai这里就不花时间去讲解使用过程了。然后进入demo中进行编译:
# classification cd /home/root/workspace/sample/classification/ mkdir build cd build cmake .. make build目录下会出现image_classify和video_classify两个可执行文件,图片预测运行image_classify文件。使用FPGA 进行resnet50进行测试:
./image_classify_fpga_preprocess ../configs/resnet50/drink.json 可以看到对应的输出结果,同样detection的模型测试方式也这样操作。paddlemobile-0.0.1.linux-aarch64-py2.tar.gz | paddlemobile的python2安装包 |
edgeboard.py | 基于python的模型预测示例 |
api.py | edgeboard.py的api示例 |
configs.classification | 分类模型的配置文件目录,同C++示例的配置文件 |
configs.detection | 检测模型的配置文件目录,同C++示例的配置文件 |
models.classification | 分类模型的模型文件目录,同C++示例的模型文件 |
models.detection | 检测模型的模型文件目录,同C++示例的模型文件 |
全部0条评论
快来发表一下你的评论吧 !