富士通使用富岳超级计算机训练LLM

描述

尽管富士通的富岳超级计算机不再是超级计算机500强名单中最快的机器,但它仍然是一个非常强大的系统,A64FX处理器的多功能性允许将其用于各种工作负载,例如AI。本周,富士通发布了Fugaku-LLM,这是一个具有高级日语处理能力的大型语言模型,专为研究和商业应用而设计。

富士通的Fugaku-LLM在富岳超级计算机的13,824个节点上使用3800亿个符记进行训练,该超级计算机基于A64FX处理器,支持FP64、FP32、FP16和INT8模式,适用于各种AI和传统超级计算机应用。Fugaku-LLM的训练利用了针对超级计算机架构和互连优化的分布式并行学习技术。

Fugaku-LLM 有 130 亿个参数,与 GPT-4 的 1750 亿个参数相比显得苍白无力,不过,Fugaku-LLM是日本有史以来训练量的最大 LLM。富士通表示,其130亿参数的LLM不需要大量的计算资源来推理,这对日本的企业和研究人员来说是最佳选择。大约 60% 的训练数据是日语,40% 的数据是英语、数学和代码数据。

这种广泛的以日语为中心的训练使其有别于其它主要在英语数据集上训练的日语模型。因此,Fugaku-LLM拥有卓越的日语水平,在日语MT-Bench上获得了5.5的平均分,这是使用日本原始数据训练的公开可用模型中的最高分。根据富士通的数据,它在人文和社会科学方面尤其出色,取得了令人印象深刻的 9.18 分的基准分数。

Fugaku-LLM计划是由东京工业大学、东北大学、富士通株式会社、RIKEN、名古屋大学、CyberAgent和Kotoba Technologies等日本领先机构之间的合作推动的。他们合作的原因之一是通常用于训练和推理 AI 模型的 GPU 短缺。另一个原因是,该模型可以与富士通的下一代 150 核 Monaka 数据中心 CPU 一起使用,该 CPU 针对 AI 和 HPC 工作负载进行了优化。

Fugaku-LLM现在可以在GitHub和Hugging Face的指定许可条款下用于学术和商业目的(尽管富士通没有提供任何链接)。此外,它从2024年5月10日起通过富士通研究门户网站提供。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分