有了Fine-tune-CoT方法,小模型也能做推理,完美逆袭大模型
基于预训练语言模型的行业搜索的应用和研究
摘要模型理解或捕获输入文本的要点
一种基于prompt和对比学习的句子表征学习模型
文本噪声标签在预训练语言模型(PLMs)上的特性
基于训练阶段使用知识库+KNN检索相关信息辅助学习方法
几种常用的NLP数据增强方法
基于OpenAI的GPT-2的语言模型ProtGPT2可生成新的蛋白质序列
基于图文多模态领域典型任务
Transformer的细节和效果如何
如何用语言模型(LM)实现建模能力
基于中文数据的标签词构造过程
预训练语言模型的字典描述
Meta开源NLLB翻译模型,支持200种语言互译
基于GPT-2进行文本生成
一文详解知识增强的语言预训练模型
万能的prompt还能做可控文本生成
GPT系列的“高仿” 最大可达GPT-3大小 自主训练
为什么要给 LM 加上神经网络?
XLNet vs BERT,对比得明明白白!