当Chat GPT每秒“吞吐”数万次请求、自动驾驶汽车毫秒级解析路况、AI大模型训练一口“吞”掉百万度电时,我们正亲历着一场由“算力浪潮”驱动的科技革命;与此同时,一个严峻的现实问题也浮出水面:强大的AI背后是对电力的极度渴求,算力增长与能源约束之间的矛盾已成为全球面临的关键挑战。
国际能源署(IEA)2025年发布的《能源与人工智能》报告显示,2024年全球数据中心电力消耗达415太瓦时,占全球总电力需求的1.5%,预计到2030年将翻倍至945太瓦时,占比略低于3%。Uptime Institute预测,2025年人工智能业务在全球数据中心总用电量中的占比将从2%猛增至10%。中国信通院《绿色算力发展研究报告(2025年)》指出,2024年中国数据中心用电量1660亿千瓦时,2030年将达3,000~7,000亿千瓦时,占全社会用电量2.3%~5.3%。
时代的发展既要AI“算得快”,还要电力“供得上”,更要“用得绿”。AI数据中心的可持续化发展已不是业界的选择题,而是必答题。一场电力突围大战正在上演。

图1:全球数据中心与AI数据中心能耗趋势预测(数据来源:IDC,2025)
亚太市场现状扫描

图2:中国智算服务市场规模预测(数据来源:IDC,2025)
建设增速惊人,算力需求暴涨
走进新加坡裕廊工业区,多个数据中心园区持续扩容新建;在东京湾畔,超大规模数据中心新项目接连开工;而中国长三角、粤港澳大湾区的智算中心集群更呈“井喷式”增长——这正是当前亚太数据中心市场的真实写照。
莱坊2024年报告显示,微软、亚马逊AWS、环旭、Meta等科技巨头合计投入超1600亿美元,推动亚太数据中心容量持续扩容。东京市场电力价格与租赁率同步上涨,大阪加码超大规模数据中心投资,悉尼市场供应大幅增长仍供不应求,孟买正加速推进超大规模数据中心建设。
政策支持更为这场建设热潮添薪加柴。新加坡政府规划到2029年将数据中心容量提升至200MW;中国“东数西算”工程已累计拉动投资超4,000亿元,在贵州、内蒙古等地建成多个千万亿次算力级别的智算中心;日本借助“数字田园都市”计划,在地方城市布局低碳数据中心。
建设热潮的驱动力来自于算力需求暴涨,亚太地区正成为全球算力增长的“核心引擎”。Gartner于2025年的新预测显示,亚太地区AI服务器支出将达2020亿美元,是传统服务器支出的两倍,占全球服务器市场份额的关键比重。企业端应用全面渗透,BCG于2025年10月调研显示,78%的亚太受访者每周至少使用一次AI,中国采用率高达87%。算力规模同步飙升,中国信通院数据显示,截至2025年6月中国智能算力规模达788EFLOPS(FP16),全年预计突破1037.3EFLOPS,同比增长43%。
IDC数据显示,中国在亚太地区AI市场中持续保持引领地位,2024年占亚太地区AI总支出超五成。预计到2028年,中国AI市场总投资规模将突破1,000亿美元,五年复合增长率为35.2%。在生成式AI方面,2024年其在中国AI市场投资总规模中的占比为18.9%,到2028年这一占比将提升至30.6%,投资规模超300亿美元,五年复合增长率达51.5%。
发展面临重重挑战
AI数据中心具有“高功耗、高密度、高热流”的特性。如果把AI数据中心比作“算力工厂”,“生产原料”是电力和水资源,冷却系统是“散热保障”,基础设施是“底座”。在亚太地区,这些“核心资源”都面临着不小的压力。
1电力
其中,电力瓶颈首当其冲。AI数据中心和传统数据中心是“不同物种”。传统数据中心的负载相对稳定,就像匀速行驶的汽车;而AI数据中心的负载,更像在赛道上冲刺的赛车,时而全功率运转,时而瞬时峰值,对电力系统的考验堪称“极限挑战”。在能源紧张地区,电力调度的微小波动都可能引发运维风险,亚太地区的电力结构尤其增加了这种风险。日本、韩国电力供应依赖化石能源,中国的部分地区电力网络仍在升级,新加坡面临电力进口依赖度高、本地电网容量有限的困境,数据中心电力审批已成为项目落地的主要瓶颈。
2冷却与水资源
其次是冷却与水资源难题。冷却难题是技术层面的核心挑战。传统风冷在面对30kW以上高功率密度机架时已力不从心,风冷散热能力存在物理上限,无法满足下一代150kW以上超高功率密度机架的冷却需求。Uptime Institute(2024)数据显示,全球超过70%的超大规模数据中心正在研究液冷或浸没式冷却方案,以替代传统风冷。水资源紧张则成为另一个隐形障碍。一个10MW规模的传统数据中心,年耗水量可达数十万吨。亚太地区不少数据中心集中在缺水区域,如何平衡算力需求和水资源保护成了棘手问题。
3基础设施
第三个挑战来自基础设施本身的演进瓶颈。当前亚太地区多数数据中心的设计标准和技术架构,难以适配下一代AI工作负载的需求。亚太许多数据中心建于2010年前后,当时设计功率密度仅为5~10kW/机架,而如今AI服务器的峰值功耗往往超过40kW,传统供配电架构和散热通道已无法支撑这种负载,结构性升级迫在眉睫。
4网络架构
网络架构的瓶颈同样突出。AI训练需要海量数据在服务器之间传输,对网络带宽的需求是传统业务的10倍以上。现有数据中心的网络架构多为10G/25G以太网,无法满足AI负载的低延迟、高带宽需求,必须升级到100G/400G高速网络,这又是一笔不小的投入。
此外还有场地空间的限制。AI服务器体积更大,加上冷却设备、配电设备,对机房空间的要求更高。新加坡、中国香港等土地资源紧张的地区,传统数据中心的空间根本无法容纳高密度AI机架,只能通过“垂直堆叠”“模块化部署”等方式破解,进一步推高了建设成本。
技术革新的破局力量
面对能源与算力的巨大张力,绿色供电、先进冷却、边缘计算,以及芯片与电源技术革新正在成为AI数据中心突破发展瓶颈的四大方向,也为行业发展带来新机遇。
绿色供电。破解电力瓶颈的第一步,是构建“绿色为主、弹性互补”的供电体系。储能技术的突破有效缓解了可再生能源的“不稳定性”。智能电力调度技术成为“用好电”的关键支撑。基于AI算法的负荷预测系统表现亮眼,能提前24小时精准预测电力需求,误差率低于5%;微电网技术赋予数据中心灵活适配能力,可在电网故障时切换至“孤岛运行”模式,保障持续供电;虚拟电厂(VPP)模式则通过整合多个数据中心的储能资源,与电网形成互动调峰,进一步提升电力利用效率。
从微软到谷歌,主流云厂商纷纷在亚太地区签订可再生能源长期购电协议(PPA),并结合储能与虚拟电厂技术,提升绿电利用率。通过AI预测负载实现“算力与电力协同调度”,正在成为绿色转型的新趋势。
先进冷却技术。如果说传统风冷是给设备“吹风扇”,那液冷技术就是给设备“做降温SPA”,散热效率和节能效果不在一个量级。当AI机架功率密度突破50千瓦,液冷技术就从“可选”变成了“必选”。随着液冷、沉浸式冷却正在从小众走向主流,新技术不仅带来能效提升,更显著改善了设备稳定性与空间利用率。根据英伟达的测试数据(2024年),液冷系统可将整体能耗降低30%~40%。
在这方面,部分国家已率先实现规模化落地。例如英国Kao Data的KLON-03数据中心采用混合冷却方案,支持直接芯片液体冷却,在满足130kW超高机架密度的同时,实现电能利用效率(PUE)值达到1.2以下。目前中国已成为全球液冷数据中心的主要市场,阿里、腾讯、华为等企业的智算中心均大规模采用液冷技术,中国移动呼和浩特智算中心实测全年平均PUE值为1.15-1.168。随着液冷技术的成本快速下降,规模效应显现,液冷技术必将成为AI数据中心的“标配”。
边缘计算架构。如果说大型AI数据中心是“中央厨房”,那边缘计算节点就是“社区便利店”。边缘计算通过“算力下沉”,将AI推理任务部署在靠近用户或数据源的边缘节点,从而减少核心数据中心的带宽与延迟负担:传统集中式模式下,数据传输网络能耗占比可达总能耗的15%;而边缘计算可降低80%以上传输能耗。IDC数据显示,2024年亚太边缘节点部署数量同比增长62%,标志着算力正从中心向网络边缘有序下沉。
芯片与电源技术革新。数据中心的能耗,不仅来自服务器和冷却系统,电源转换环节也会消耗大量电力。传统硅基芯片和电源存在明显效率瓶颈,转换效率通常在85%-90%,存在高达10%的功率损耗。氮化镓(GaN)和碳化硅(SiC)等第三代半导体材料的出现正突破电源效率的“天花板”,其禁带宽度、击穿电场强度和开关速度均远超硅材料。Yole Group的研究表明,GaN与SiC材料可使电源转换效率超过98%,成为AI服务器高效供能的关键材料,推进高效电源管理革新。
目前领先的芯片与电源厂商已有相关方案落地。例如英飞凌的混合电源解决方案,其12kWPSU参考设计在100W/in³功率密度下实现97.5%基准效率,为MW级AI服务器机架提供高效支撑。长城电源在AI数据中心专用钛金级电源中采用SiC器件,转换效率提升至96%以上;英诺赛科基于GaN器件开发的服务器电源,功率密度达到30W/cm³,较传统方案提升50%。
亚太地区在第三代半导体领域布局超前。中国的GaN芯片产能占全球60%以上,华为、比亚迪等企业已经实现GaN电源的规模化应用;日本的碳化硅材料技术全球领先,丰田、三菱等企业将SiC芯片用于新能源汽车和数据中心电源;韩国三星、SK海力士也在加大GaN/SiC材料的研发投入。随着GaN/SiC电源成本的下降和技术成熟,数据中心的“电源损耗”将大幅降低,成为绿色算力的又一重要支撑。
(下一期,将进一步解析亚太地区实现可持续智能未来的路径和未来发展方向,敬请期待。)
全部0条评论
快来发表一下你的评论吧 !