昆仑芯加入智源研究院FlagOpen大模型技术开源体系,共筑AI大模型算力基座

描述

近日,昆仑芯科技正式加入北京智源人工智能研究院(以下简称“智源研究院”)的FlagOpen(飞智)大模型技术开源体系,携手多家顶尖硬件企业与高校科研团队,共建“北京国家新一代人工智能创新发展试验区AI开放生态实验室”,加速完善软硬件生态建设。

人工智能

FlagOpen大模型技术开源体系是由智源研究院与多家企业、高校和科研机构共建的一站式、高质量的大模型开源开放软件体系,包括大模型算法、模型、数据、工具、评测等重要组成部分,旨在建设大模型领域的“Linux”。

基于FlagOpen,国内外开发者可以快速开启各种大模型的尝试、开发和研究工作,企业可以低门槛进行大模型研发。同时,FlagOpen大模型基础软件开源体系正逐步实现对多种深度学习框架、多种AI芯片的完整支持,支撑AI大模型软硬件生态的百花齐放。

作为AI芯片领域的先行者,昆仑芯科技已深耕人工智能加速领域十余年,积极推进AI芯片技术发展,与行业内上下游伙伴紧密合作,在大模型场景落地方面进展领先。去年6月,智源研究院联合昆仑芯科技等共建AI开放生态实验室,此次双方合作再度升级,将丰富FlagOpen的技术生态,推动AI底层基础软硬件生态的共建共享、共同繁荣,共筑AI大模型算力基座。

 

人工智能

昆仑芯科技研发总监 郑焕鑫

在AI大模型领域,昆仑芯科技已经做出了布局优化,并在百度搜索、凤巢、文心一格等实际业务场景中进行了切实落地,以高性能的芯片产品为AI大模型提供算力支撑。本次大会上,昆仑芯科技研发总监郑焕鑫围绕“开源软件生态建设”的主题,介绍了昆仑芯科技十余年的发展历程与两代芯片产品,并分享公司推进AI芯片产业化的成功实践经验。

昆仑芯科技持续推进软硬协同技术研发,在深刻理解客户需求的基础上,以灵活易用的昆仑芯XPU和昆仑芯SDK,不断增加的大模型覆盖数量,为客户提供开箱即用的芯片产品。目前,昆仑芯已与百度飞桨、PyTorch、TensorFlow等多款通用处理器、操作系统、AI框架完成端到端适配,实现了软硬件解决方案的技术栈,为AI大模型的场景落地与优化提供通用、易用且高性能的AI算力支撑。

未来,昆仑芯科技将继续秉承“让计算更智能”的使命,充分发挥公司领先技术优势,联合各方共同推进大模型技术的开发和落地应用。

关于昆仑芯科技

昆仑芯(北京)科技有限公司前身为百度智能芯片及架构部,于2021年4月完成独立融资。团队深耕AI加速领域十余年,专注打造拥有强大通用型、易用性和高性能的通用人工智能芯片,在体系结构、芯片实现、软件系统和场景应用均有深厚积累。

目前,公司已实现两代通用AI芯片的量产及落地应用,在互联网、智慧金融、智慧交通等领域已规模部署数万片。近日,应用于边缘场景的昆仑芯AI加速卡R100正式发布。第三代、第四代芯片正在研发中。

昆仑芯科技致力于成为芯片创新链、产业链的“赋能者”,与上下游企业携手,积极构建软硬一体化的AI芯片生态,打造从芯片到终端、应用、云端、服务的生态闭环,创造更大的商业和社会价值。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分