苹果面向iOS开发者推出了最新版的机器学习模型框架Core ML 3

电子说

1.2w人已加入

描述

在今年的全球开发者大会(WWDC)上,苹果面向iOS开发者推出了最新版的机器学习模型框架Core ML 3,将机器智能引入智能手机app。本文带你了解Core ML 3有何亮点。

Core ML 3将首次能够为设备上的(on-device)机器学习提供训练,以提供iOS app的个性化体验。利用不同的数据集训练多个模型的能力也将成为macOS上新的Create ML app的一部分,用于目标检测和识别声音等app。

支持100多种模型层

作为一种快速部署并尊重隐私的方式,设备上的机器学习越来越受欢迎。最近几个月,谷歌的TensorFlow和Facebook的PyTorch等流行框架通过联邦学习(Federated Learning)等方法提供了在线机器学习的解决方案。

Core ML框架在苹果内部被用于训练Siri、QuickType键盘、Memrise app的语言学习以及Polarr照片编辑app的预测。

在去年的WWDC上,苹果推出了Core ML 2框架,宣称比上一代快30%,同时推出Create ML,一个GPU加速的框架,用于通过Xcode和Swift编程语言训练定制的AI模型。

最初的iOS Core ML框架是2017年在WWDC上推出,并纳入到iOS 11。预置模型包括苹果的Vision API和自然语言框架。

不像谷歌的ML Kit同时适用于安卓和iOS开发者,Core ML是专为苹果iOS操作系统开发app的开发者设计的。2017年底,谷歌宣布TensorFlow Lite支持Core ML。

Core ML 3亮点抢先看

无需机器学习的专业知识,使用Core ML 3和新的Create ML app,轻松创建、训练并部署机器学习模型。

Core ML 3将多种机器学习模型集成到你的app中,支持高级神经网络、支持100多种图层,利用CPU、GPU和Neural Engine提供最高性能和效率。你可以直接在设备上运行机器学习模型。

设备模型个性化

Core ML模型被捆绑到app中,帮助驱动像在照片中搜索或对象识别这样的智能功能。现在,这些模型可以通过设备上的用户数据进行更新,帮助模型在不违背隐私的情况下了解用户行为。

支持高级神经网络

现在最复杂的机器学习模型可以在带有Core ML 3的设备上运行。可以使用并运行最新的模型,如用于理解图像、视频、声音和其他富媒体的尖端神经网络。

视觉

在app中轻松构建计算机视觉机器学习功能。利用人脸检测、跟踪和捕获以及文本识别、图像显著性和分类,以及图像相似性识别。其他功能包括提高地标检测、矩形检测、条形码检测、目标跟踪和图像配准。使用新的Document Camera API通过相机检测和捕获文档。

自然语言

对自然语言文本进行分析,推导出其语言特有的元数据,以供深入理解。你可以使用这个框架和Create ML来训练和部署定制的NLP模型。功能包括Create ML文本模型的迁移学习、词嵌入向量(WordEmbedding)、情感分类和文本目录。可用于英语、法语、德语、意大利语、简体中文和西班牙语。

演讲

利用设备上10种语言的语音识别以及语音显著性功能,如语音信息、streaming confidence、语音检测和声学功能。你的app可以通过访问语音识别信息来消除同音词的歧义。这些功能现在也可用于Mac app。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分