千亿规模AI数据中心,电感如何提高电源效率?

描述

电子发烧友网报道(文/梁浩斌)得益于云计算、AI的需求,数据中心市场在近年持续高速扩张。IDC和浪潮信息在2月推出的《2025年中国人工智能计算力发展评估报告》显示,2024年全球人工智能服务器市场规模为1251亿美元,2025年将增至1587亿美元,2028年有望达到2227亿美元。其中,生成式人工智能服务器占比将从2025年的29.6%提升至2028年的37.7%。
 
在数据中心规模增长的同时,也面临着能源问题。如今大模型等AI应用对算力的需求,推动了AI芯片算力不断提高,与此同时带来的是越来越高的功耗。单颗算力芯片的功耗,从过去的300W左右提升至如今的1000W,大功率AI芯片给数据中心带来了更高的电源要求。
 
一方面,数据中心需要更加高效率的PSU(电源供应单元),另一方面,在GPU等算力卡上同样需要更强的供电设计。
 
那么为了提高PSU的能效,很多情况下可以选择使用SiC、GaN等宽禁带半导体功率器件,此前我们有多篇文章对高效率PSU方案进行过介绍。除此之外,其实电感同样是提高电源效率、增加负载能力的关键器件。
 
电感是被动元件的一种,核心功能是储存磁场能量,并通过电磁感应现象对电路中的电流变化产生阻碍作用。
 
在结构上,电感是由绝缘导线绕制而成的线圈,包裹铁氧体、铁粉芯等磁性材料组成,形状可以是环形、柱状、片式等,服务器中目前片式电感为主流。
 
基于法拉第电磁感应定律和楞次定律,当电流通过电感的线圈时,会产生磁场,这个时候电能转化为磁能储存;当电流发生变化时,磁场变化产生感应电动势,也就是反向电压,同时释放电能。于是电流发生突变时,电感就起到缓冲作用,能够稳定电压。
 
举个例子,在GPU计算卡的供电电路中,需要12V转1V给GPU供电,由于电压低且功率高,电流可以高达数百安培。当GPU计算卡启动时,电流需求激增,那么对于电源而言有可能会导致电压骤降,电感在GPU中则可以通过释放存储的能量,来避免电源电压骤降,保证GPU的稳定运行。同时在GPU应用中,还要求电感在高频环境下保持低发热,避免因温升导致性能下降。
 
除了在GPU上,电感在数据中心内还广泛应用于电源部分,比如在PSU的DC-DC部分,电感通过储能和释能稳定电压,保障服务器、GPU等设备的稳定运行。
 
在光模块中,电感能够滤除高频电路中的电磁干扰(EMI),提升信号传输质量,尤其在高速光模块上更为关键。
 
随着数据中心的发展,电感当前有三大主要的发展方向。首先是AI数据中心算力硬件的功率不断提高,需要电感在服务器机架的有限空间中,承载更大功率,并且要提高耐高温能力,在高温下保持稳定性。
 
二是高频化和低损耗,数据中心的PSU中越来越多地使用到GaN、SiC等宽禁带半导体器件,这些高频器件也需要电感支持更高的工作频率,同时降低磁芯损耗,提高整体系统的转换效率。
 
三是小型化和集成化,AI数据中心中,服务器、AI加速卡都趋向于在有限空间内集成更多计算单元,对于包括电感在内的元器件都有小型化的需求,目前应用于服务器的贴片电感尺寸已经缩小至毫米级。与此同时,电感体积缩小,还要提高功率密度,于是集成化就成为趋势,比如DrMOS将电感、电容、MOSFET等集成到一个电源模块封装内。
 
随着数据中心算力密度持续攀升,电感将进一步向集成化(嵌入基板)与功能融合化(与IC协同设计)演进,成为支撑下一代高能效电子设备的核心基石。
 
 
 
 
 
 

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分