书生・浦语 2.0(InternLM2)大语言模型开源

人工智能

631人已加入

描述

1 月 17 日,书生・浦语 2.0(InternLM2)发布会暨书生・浦源大模型挑战赛启动仪式在上海举行。上海人工智能实验室、商汤科技联合香港中文大学和复旦大学共同发布了新一代大语言模型书生・浦语 2.0(InternLM2)。    

这个模型在 2.6 万亿 token 的高质量语料基础上进行训练,包含 7B 和 20B 两种参数规格以及基座、对话等版本,以满足不同复杂应用场景的需求。上海 AI 实验室秉持“以高质量开源赋能创新”的理念,为 InternLM2 提供免费商用授权。

InternLM2 的核心理念在于回归语言建模的本质,通过提高语料质量和信息密度,提升模型基座的语言建模能力。它在数理、代码、对话、创作等方面都有显著进步,合性能达到同量级开源模型的领先水平。它支持 200K token 的上下文,一次性接收并处理约 30 万汉字的输入内容,准确提取关键信息,实现长文本中的精准筛选。

大模型

 

大模型

在评测中,研究人员定义了语言、知识、推理、数学、代码、考试等六个能力维度,并在 55 个主流评测集上对多个同量级模型进行了综合评测。结果显示,InternLM2 的轻量级(7B)及中量级(20B)版本在同量级模型中表现优异。与初代 InternLM 相比,InternLM2 在各项能力上都有显著提升,特别是在推理、数学和代码方面。

大模型

 

大模型

审核编辑:黄飞

 

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分