在基于神经网络的中文命名实体识别过程中,字的向量化表示是重要步骤,而传统的词向量表示方法只是将字映射为单一向量,无法表征字的多义性。针对该问题,通过嵌入BERT预训练语言模型,构建BERT- BIRU-CRF模型用于表征语句特征。利用具有双向 Tran former结构的BERT预训练语言模型增强字的语义表示,根据其上下文动态生成语义向量。在此基础上,将宇向量序列输人 BIRU-CRF模型中进行训练,包括训练整个模型和固定BERT只训练 BIGRU-CRF2种方式。在MSRA语料上的实验结果表明,该模型2种训练方式的F1值分别达到95.43%和94.18%,优于 BIRU-CRF、 Radical- BILSTM-CRF和 Lattice-lstm-crf模型。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
全部0条评论
快来发表一下你的评论吧 !