×

Tengine Lite嵌入式设备推理引擎

消耗积分:0 | 格式:zip | 大小:6.65 MB | 2022-04-20

杨秀英

分享资料个

授权协议 Apache-2.0
开发语言 C/C++
操作系统 跨平台
软件类型 开源软件
所属分类 其他开源物联网

软件简介

Tengine Lite 由 OPEN AI LAB 主导开发,该项目实现了深度学习神经网络模型在嵌入式设备上快速高效部署。为实现众多 AIoT 应用中跨平台部署,本项目基于原有 Tengine 项目使用 C 语言进行重构,针对嵌入式设备资源有限的特点进行深度框架裁剪。同时采用完全分离的前后端设计,利于 CPU、GPU、NPU 等异构计算单元快速移植和部署。同时兼容 Tengine 框架原有 API 和 模型格式 tmfile,降低评估、迁移成本。

Tengine Lite 核心代码由 4 个模块组成:

  • dev: NN Operators 后端模块,当前提供 CPU 代码,后续逐步开源 GPU、NPU 参考代码;
  • lib:框架核心部件,包括 NNIR、计算图、硬件资源、模型解析器的调度和执行模块;
  • op:NN Operators 前端模块,实现 NN Operators 注册、初始化;
  • serializer:模型解析器,实现 tmfile 格式的网络模型参数解析。

架构简析

poYBAGJdSH2AZQi_AAQb-Kvrfb0530.png

如何使用

编译

  • 快速编译 基于 cmake 实现简单的跨平台编译。

示例

  • examples 提供基础的分类、检测算法用例,根据 issue 需求持续更新。

模型仓库

  • Tengine model zoo 兼容原有 Tengine 的模型示例仓库(密码:hhgc)。

转换工具

  • 预编译版本:提供 Linux 系统上预编译好的模型转换工具;
  • 在线转换版本:基于 WebAssembly 实现(浏览器本地转换,模型不会上传);
  • 源码编译:参考 Tengine-Convert-Tools 项目编译生成。

速度评估

  • Benchmark 基础网络速度评估工具,欢迎大家更新。

Roadmap

 

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

评论(0)
发评论

下载排行榜

全部0条评论

快来发表一下你的评论吧 !