二哈识图AI视觉传感器的应用及工作原理

描述

二哈识图(HuskyLens)是DFRobot新推出的一款简单易用的人工智能视觉传感器,内置6种功能:人脸识别、物体追踪、物体识别、巡线追踪、颜色识别、标签识别。仅需一个按键即可完成AI训练,摆脱繁琐的训练和复杂的视觉算法,让你更加专注于项目的构思和实现。

二哈识图AI视觉传感器的应用:

二哈识图(HuskyLens)板载UART / I2C接口,可以连接到Arduino、Raspberry Pi、LattePanda、micro:bit等主流控制器,实现硬件无缝对接,直接输出识别结果给控制器,无需折腾复杂的算法,就能制作非常有创意的项目。

二哈识图(HuskyLens)用起来很简单。拨动功能按键,就能切换算法;按下学习按键,二哈识图(HuskyLens)就能学习新事物,之后就能认识它们啦。

二哈识图(HuskyLens)自带2.0寸IPS显示屏,当你调校参数时,不再需要电脑的辅助,调试过程和识别结果直接显示在屏幕上,所见即所得,非常方便。

AI视觉传感器工作原理:

二哈识图(HuskyLens)内置的机器学习技术使其具有了人脸识别和物体识别的能力。此外,长按学习按键,二哈识图(HuskyLens)还能从不同的角度和范围进行学习,越学越准确

二哈识图(HuskyLens)采用了新一代的AI芯片Kendryte K210,内置64位400MHz双核RISC-V 处理器,运行神经网络算法的速度比STM32H743快1000倍以上。经典的YOLO人工智能算法在STM32H743上只能以每秒12帧的速度运行,但在 二哈识图(HuskyLens)上则可以快30倍以上。它的性能异常出色,捕获快速移动的物体也不在话下。

二哈识图AI视觉传感器应用:

有了二哈识图(HuskyLens),你的项目就有了全新的交互方式,有许多的新应用、新玩法供你探索与尝试,例如:交互手势控制、自动驾驶、智能门禁、交互式玩具等。

交互手势控制 利用二哈识图(HuskyLens)的物体追踪功能来学习特定的手势,它可以识别学过的手势,并提供其位置数据。利用这些数据,制作一个令人赞叹的交互式项目从未如此简单。

自动驾驶小车 巡线并不是什么新技术,在这个应用中,有许多性能出色的方案和算法。但是,它们大多数都需要繁琐的参数调校。二哈识图(HuskyLens)提供了一种全新的巡线方案,你只需要按一下按键,就能让二哈识图(HuskyLens)学习线条,之后就可以巡线了,从中体验制作的乐趣吧!

机器人的眼睛 二哈识图(HuskyLens)还可以成为机器人的眼睛。它能使你的机器人认识你,理解你的手势命令,或者帮你回收指定的东西,等等。一切皆有可能!

  审核编辑:汤梓红

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分