6月13日(星期二),AMD举行新品发布会,最重磅的新品当属于具有大模型训练功能的GPU Instinct MI300。
该芯片是针对LLM的优化版,拥有192gb的hbm3内存、5.2 tb/s的带宽和896gb/s的Infinity Fabric带宽。amd将1530亿个晶体管集成在12个5纳米芯片内。使用cdna 3 gpu结构、24个zen 4 cpu核心、128gb hbm3内存。与前作mi250、mi300相比,性能和效率分别提高了8倍和5倍。
mi300x提供的hbm与英伟达ai芯片h100的密度相比,最大2.4倍,带宽最大1.6倍。amd的芯片将可以运行比英伟达更大的模型。
amd首席执行官苏姿丰表示,mi300x支持400亿个hugging face ai模型运行,并演示llm可以写关于旧金山的诗。单一mi300x最多可运行一个参数800亿个模型,这是世界上第一次在单一gpu上执行如此大的模型。
审核编辑:郭婷
全部0条评论
快来发表一下你的评论吧 !