借助 NVIDIA GPU,亚马逊Alexa语义识别模型的识别准确度提高了15%

描述

近期,来自于约翰霍普金斯大学(John Hopkins University)和亚马逊(Amazon)的研究人员们发布了一篇论文,介绍他们是如何通过训练一个深度学习系统来帮助亚马逊Alexa语音助手识别并忽略那些并非是对她说的话,从而将其语义识别模型的识别准确度提高了15% 

研究人员在他们的论文中指出,“诸如Amazon Echo和Google Home的这类家用声控设备都面临着一个问题,那就是当周围存在干扰声源的时候,设备如何能够照常地识别指令。”

为了让Alexa更好地识别指令,研究人员训练了一个神经网络,来匹配和识别“唤醒词”(通常是“Alexa”)以及紧随其后的指令,并忽略那些来自于其他人或媒体设备的干扰。

研究人员介绍说:“这项任务的挑战在于需要从含有特定词汇的话语片段中学习使用者的语言习惯。借助于两种不同的神经网络架构,我们最终实现了这一目标。两个神经网络架构都是具有注意机制的序列到序列编码器 - 解码器网络的变体。”

借助于NVIDIA V100 GPU和OpenSeq2Seq 工具,用于序列到序列模型的分布式和混合精度训练,使用TensorFlow建立,团队用1,200小时来自于Amazon Echo的实时英文数据训练他们的算法。

NVIDIA

通过改进所开发的基线网络,该团队还添加了一个额外的输入端,能够通过优先处理类似于锚字的语音来增强注意机制。研究人员总结说: “在训练期间,注意机制会自动学习唤醒词的哪些声学特征,以便在随后的演讲中寻找。”

该团队还开发了一个mask-based模型,该模型能够更加明确地将输入语音与锚字的声学轮廓相匹配。

最后的测试结果显示:第一种方法的性能更好,达到了15%的改进;第二种模型也达到了13%的改进。

根据研究人员介绍,该算法在训练和推理过程中都采用了NVIDIA GPU。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分