Stability AI推出迄今为止更小、更高效的1.6B语言模型

描述

Stability AI 宣布推出迄今为止最强大的小语言模型之一 Stable LM 2 1.6B。以英语、西班牙语、德语、意大利语、法语、葡萄牙语和荷兰语的多语言数据为基础进行了训练,体积小、速度快,降低了硬件门槛;并提供了完全透明的训练细节,旨在让开发人员和模型创建者能够快速进行实验和迭代。

Stable LM 是一种文本内容生成 LLM,Stability AI 于 2023 年 4 月首次推出了 30 亿和 70 亿参数模型。新的 StableLM 模型实际上是 Stability AI 在 2024 年发布的第二个模型,此前该公司在早些时候还发布了一个 Stable Code 3B。

Stability AI 声称,Stable LM 2 1.6B 在大多数基准测试中均优于其他参数低于 20 亿个的小语言模型,如微软的 Phi-1.5 (1.3B) 和 Phi-2 (2.7B)、TinyLlama 1.1B 或 Falcon 1B。

语言模型语言模型语言模型语言模型

不过他们也警告称,由于小型、低容量语言模型的特性,Stable LM 2 1.6B 可能会出现高幻觉率、潜在的有毒语言等类似的常见问题。“我们要求社区在构建应用程序时牢记这一点,并采取适当措施确保以负责任的方式进行开发。”

Stable LM 2 1.6B 目前可在商业和非商业领域使用,只要拥有 Stability AI 会员资格,即可在 Hugging Face 上测试该模型。





审核编辑:刘清

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分