×

怎样用苹果CoreML实现iPhone的目标识别

消耗积分:1 | 格式:rar | 大小:0.50 MB | 2017-09-25

分享资料个

  在WWDC 2017上,苹果首次公布了机器学习方面的动作。iOS系统早已支持Machine Learning 和 Computer Vision ,但这次苹果提供了更合理,容易上手的API,让那些对基础理论知识一窍不通的门外汉也能玩转高大上的前沿科技。

  这篇文章介绍了通过苹果最新的API把YOLO模型集成到APP中的两种方法。此前,AI100(rgznai100)介绍过YOLO这个项目,它是一个用于摄像头的实时目标检测系统,详情请参阅:《YOLO一眼就能认出你:看一个神经网络如何全视野实时检测目标》

  作者 | Matthijs Hollemans

  编译 | AI100(rgznai100)

  参与 | thinkdeeper、胡永波

  几周前,我写了篇关于YOLO(一个用于目标检测的神经网络模型)的教程。并且我使用Metal Performance Shader和我的Forge神经网络库,实现了该版本的YOLO(实际上是Tiny YOLO)。

  关于YOLO的教程

  http://machinethink.net/blog/object-detection-with-yolo/

  Forge神经网络库

  https://github.com/hollance/Forge

  此后,苹果公司宣布了可以在设备上应用机器学习的两种新技术:Core ML和MPS graph API(Core ML 构建于MPS之上,MPS更底层)。在这篇博文中,我们会使用这些新的API来实现Tiny YOLO。

  在设备上应用机器学习的两种新技术

  http://machinethink.net/blog/ios-11-machine-learning-for-everyone

  

  快速回顾:YOLO是由9个卷积层和6个最大池化层组成的神经网络,但其最后一层不会像分类器那样输出概率分布。相反,最后一层产生13×13×125张量。

  该输出张量描述了13×13个单元格。每个单元格预测5个边界框(每个边界框由25个数字描述)。然后,我们使用非最大抑制来找到最佳边界框。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

评论(0)
发评论

下载排行榜

全部0条评论

快来发表一下你的评论吧 !