预先训练的语言模型能像人类一样聪明地解释明喻吗?
NVIDIA NeMo最新语言模型服务帮助开发者定制大规模语言模型
一种将知识图谱与语言模型结合的具体方式分享
计算语言学的发展趋势、不足与挑战
如何进行MLM训练
基于对抗自注意力机制的预训练语言模型
汇总在事件抽取方向的相关厂商调研结果
Zero-shot-CoT是multi-task的方法
一种缓解负采样偏差的对比学习句表示框架DCLR
一种基于乱序语言模型的预训练模型-PERT
Multilingual多语言预训练语言模型的套路
基于神经转移模型的论辩挖掘任务
OpenAI又放大招:连接文本与图像的CLIP
PaddleOCR历史表现回顾
谷歌开发出一个新的语言模型,包含了超过1.6万亿个参数
Google科学家设计简化稀疏架构Switch Transformer,语言模型的参数量可扩展至 1.6 万亿
如何使用较小的语言模型,并用少量样本来微调语言模型的权重
AI领域顶会EMNLP 2020落下帷幕
什么是XLNet,它为什么比BERT效果好
关于语言模型和对抗训练的工作