Chiplet发展到什么阶段?

制造/封装

504人已加入

描述

ChatGPT 对算力要求很大,现在是 GPT3.5, 训练 NLP 大模型,训练一次算力 3640p, 如果用 英伟达 A100 的显卡,需要上万块才能完成。

受益最大的是提供算力的 AI 芯片厂,会促使整 个产业链都去做高性能芯片。从设计公司看,谁能抢到这个市场,都是一个机遇。

目前看支持 ChatGPT 训练的肯定要往大算力方向走。从设计端看到两个思路。一是依靠先进 工艺迭代,从 16 纳米到 7 纳米,晶体管集成度提高一倍。再从 7 纳米提高到 5 纳米,3 纳 米。

这是一个思路,但靠工艺迭代已经有了瓶颈,到 2,3 纳米以下,以后技术难度要增加很多,而且也接近硅材料的物理极限,再小也做不了。

另外一种思路是先进封装,有比较成熟的解决方案,像 2.5D 封装,内存上有用 3D 封装。目前 AI 上用的最成熟的是 2.5D 封装。把高宽带的内存颗粒和芯片封在一个封装上,提高带宽 内存访问速度,也提高 AI 整体性能。算力再强,访问速度慢,计算性能也差。

2.5D 封装目 前就是要解决大算力性能跟宽带的思路再以后要提高算力,就走 Chiplet 路线,把晶粒放一起,通过高速互联接口,把它连起来, 算力翻倍。苹果把两个 CPU 拼在一起,同理也可以通过 Chiplet 把两个 AI 处理器拼一起。

先进制程和先进封装能延续摩尔定律的思路。现在受限于大算力芯片功率问题,用的 2.5D 封装,没有直接用 3D 叠上去做。以后散热问题解决,算力还能提升。

散热有哪家公司在做吗?

整个行业还没有突破这个技术。AI 芯片功耗大,尤其大算力芯片,需要散热。做 2.5D 的还 是放在平面,散热好一点。如果叠放,热量出不去。以后可能通过把距离拉宽,或者打孔来 实现。目前还没有完全突破。

Chiplet 发展到什么阶段?

在这个技术比较早,最开始是 AMD 在用。但当初封装技术不是特别成熟,也没给 AMD 带 来大的收益。产业链也不是非常认可这个技术。21,22 年火了起来。

当时中国被限制,所以 在积极推动先进封装的技术。

Chiplet 概念很简单,叫小芯片,和 SOC 是对立的概念。原来的手机处理器 SOC, 叫系统级芯片,把所有东西都装在一个芯片上。CPU, GPU, 图形处理器,解码器,都集合在一起。通过台积电的先进工艺一次性做出来。

Chiplet 是个相反概念。把复杂的SOC 分开设计,按不同 功能拆解,假设一个手机 CPU, 把 SOC 拆成 GPU 等,在按最适合的生产和工业区生产,每 个都按新项目。一片 Wafer 上有一个 CPU, 有一个内存,做好之后按不同的工艺做成晶圆。

做芯片,把东西全切下来,封在封装里面。零件搭好,切出不同的模块。不用全流程都是 5 纳米,7 纳米,相对便宜些。通过高速互联接口,性能也没差。这就是替代的概念。

只用在手机的SOC 芯片吗?

都可以用,在 AI 芯片里也能做。AI 芯片里有 AI 处理器,内存,CPU, 还有高速内存接口。可以拆解,按不同模块去做,到时候通过芯片封装封在一起。从设计端就要这么建立。有一 个优势,有的模块可以采购。

现在是 Chiplet, 只做 一个模块,直接卖晶圆给海思,直接卖实物。现在的问题是没有统一的标准,各家有自己的接口。去年底成立了 UCIE 联盟,希望以后按 统一的标准来做。

国产的 EDA 设计软件,有 Chiplet 设计吗?

原来的 EDA 软件不用考虑工艺制程。现在 Chiplet 对设计和验证工具提出了不同的要求。需要堆叠和互联接口,不同的架构不同的接口,原来放在一起做,现在拆开做。

前三大 EDA 厂商,去年年底已经推出第一款,现在正在迭代。国产的 EDA 厂商,华大,概伦在模拟芯片这比较成熟。高端制程上还是空白。对于国产厂 商来说,EDA 是个机遇。

开发 Chiplet 的 EDA 软件比直接开发 SOC 的难度要小。以前所有东 西都要在一个软件设计,现在可以设计部分的软件。美国的限制也提供了国产软件的机会,需求端爆发,国内有些厂家已经在布局。

编辑:黄飞

 

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分