不同技术架构AI芯片比较

人工智能

636人已加入

描述

英伟达业务模式拟打造成类似于计算堆栈或神经网络,包含硬件、系统软件、平台软件和应用四层,公司结合芯片、系统和软件的全栈创新能力构建加速计算平台,并且完善针对AI加速计算及数据中心的GPU、CPU、DPU三种芯片产品结构。AI布局方面,早在生成式AI变革初期就已参与并与OpenAI、微软合作。 2023年3月,英伟达在GTC大会上推出4个针对各种生成式AI应用程序进行优化的推理平台,其中发布带有双GPU NVLink的H100 NVL加速计算卡,以支持ChatGPT类大型语言模型推理。与适用于GPT-3处理的HGX A100相比,配备四对H100与双GPU NVLink的标准服务器的速度最高可达10倍。

2022年12月,OpenAI发布基于GPT-3.5的聊天机器人模型ChatGPT,参数量达到1750亿个。ChatGPT引领全球人工智能浪潮,人工智能发展需要AI芯片作为算力支撑。 据Tractica数据,全球AI芯片市场规模预计由2018年的51亿美元增长至2025年的726亿美元,对应CAGR达46.14%; 据前瞻产业研究院数据,中国AI芯片市场规模预计由2019年的122亿元增长至2024年的785亿元,对应CAGR达45.11%。AI芯片中由于GPU通用型强,满足深度学习大量计算的需求,因此GPU在训练负载中具有绝对优势。以GPT-3为例,在32位的单精度浮点数数据下,训练阶段所需GPU数量为1558个,谷歌级应用推理阶段所需GPU数量为706315个。

 

 

AI

AI

AI

AI

AI

AI

AI

AI

AI

AI

AI

AI

AI

AI

2023年3月,公司在GTC大会上推出4个针对各种生成式AI应用程序进行优化的推理平台,帮助开发者快速构建专业的人工智能应用程序。每个平台都包含针对特定生成式人工智能推理工作负载进行优化的GPU以及专用软件,包括AI视频、图像生成、大语言模型部署及推荐系统:

NVIDIA L4 for AI Video可以提供比CPU高120倍的人工智能视频性能,同时能效提高99%;NVIDIA L40 for Image Generation针对图形和支持AI的2D、视频和3D图像生成进行了优化;NVIDIA H100 NVL for Large Language Model Deployment是大规模部署ChatGPT等大规模语言模型的理想选择;NVIDIA Grace Hopper for Recommendation Models是理想的图推荐模型、矢量数据库和图神经网络。

编辑:黄飞

 

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分