AI数据中心五年投资超5万亿美元能源瓶颈促液冷加速普及

近日,摩根大通策略师团队发布AI数据中心融资需求报告强调,未来五年AI数据中心的建设热潮至少需要5万亿美元,甚至可能高达7万亿美元的资金支撑,展现出AI基础设施庞大的市场规模。

东吴证券认为,当前AI产业正处于从技术突破迈向平台化与产业化的爆发期,全球算力、存储及高速互联需求进入指数级扩张阶段。

与此同时,谷歌、微软等国内外科技巨头,为支撑AI发展需要,已将“AI算力军备赛”卷向能源领域,作为数据中心降低能耗的重要手段,液冷技术进入加速渗透期。

在此背景下,联想集团等软硬件提供商凭借在算力产业链的深度布局,尤其是液冷等关键领域的领先优势,正受益于市场规模持续扩张与需求结构变化带来的双重机遇,进入新一轮成长周期。

摩根大通研报指出,全球AI和数据中心的建设将是一次“非同凡响且持续的资本市场事件”。报告基础预测显示,仅在2026年至2030年间,全球就需要新增122吉瓦的数据中心基础设施容量。相比之下,据国际能源署(IEA)预计,2025年全球数据中心装机容量将为114.3吉瓦。这意味着,未来5年间全球数据中心容量将增加超过一倍。

值得注意的是,摩根大通还基于全球半导体订单数据,给出了未来3年数据中心规模增长144吉瓦的更乐观预测。换言之,在乐观预测之下,全球数据中心容量翻倍所需时间将不足3年。

并且,考虑到技术迭代之下单位算力能耗的大幅下降,期间算力规模增速无疑远高于数据中心容量增速,充分印证了东吴证券关于算力等需求指数级扩张的论断。

这种大规模的算力增长,为产业链企业带来了强劲的市场需求,并带动其业绩与估值的持续上升。近日,高盛、里昂等国际投行接连上调联想集团等企业的业绩预期与目标价,均与相关企业在算力产业链相关业务密切相关。

IDC数据显示,联想集团2025年第一季度x86服务器同比增速高达74.8%。2025/2026财年第一季度(自然年第二季度),联想集团人工智能服务器业务收入增速更是超过一倍。高盛表示,联想集团服务器业务产品持续升级,价位向1万至10万美元迈进,推动基础设施方案业务(ISG)收入增长,将公司2027及2028财年的非香港财务报告准则净收入预测分别上调2%及1%,维持“买入”评级。

从全球AI发展阶段来看,应用端的加速落地与技术端的突破性升级,是当前算力需求爆发的两大驱动因素。

在应用端,业界普遍认为,AI已经进入大规模落地应用的关键节点。AI从实验室进入日常生产生活的方方面面,并开始为AI应用企业带来日益丰厚的业绩收益。如联想集团的AI PC在个人电脑总出货量中的占比已超过30%;公司于今年5月发布的“天禧个人超级智能体”,平均周活跃度已达到40%;乐享超级智能体半年创收18.9亿元。国内外人形机器人、智能眼镜等AI应用赛道,亦开始进入商业化节点。大规模的AI应用,促使推理侧接棒训练侧,成为算力需求增长的新引擎。

在技术端,大模型参数的不断扩张与升级,背后则是训练侧、推理测算力需求的同步指数级增长。以10月初OpenAI旗下爆火的Sora 2为例,据开源证券测算,训练侧Sora至少需要4200-10500块H100 GPU训练1个月;推理阶段,估计单片H100 GPU每小时最多可以生成约5分钟的视频,较LLM推理算力需求高几个数量级。

与此同时,大模型训练技术的演进,也在带来算力需求的强劲增长。今年以来,Mid-Training逐渐崛起,打破“预训练+后训练”二段式范式,构建三段式架构,成为头部实验室算力消耗的核心驱动,取代Pre-Training成为新的竞争焦点。

在技术原理上,东吴证券指出,Mid-Training通过强化学习与合成数据生成,将算力投入从“盲目扩张”转向“精确提效”,本质上是用更高算力驱动更高质量的数据生产与模型迭代,形成新的正反馈飞轮。可以说,Mid-Training把AI训练的算力投入从一次性支出转变为持续复利型资产,推动行业从“算力消耗”迈向“算力投资”,也因此成为全球科技巨头在AI军备竞赛中不断加码数据中心的核心原因。

从应用端推理算力需求进入爆发节点,到训练侧大模型技术升级,再到大模型训练模式变革,不难预测,未来这三大环节若继续出现突破性进展,全球算力需求增速还有望继续提升,从而带来算力投资增长的进一步加速。

这在当前阶段已有验证。近日,国际知名机构TrendForce上修了2025年全球八大主要CSP厂商资本开支总额增长率至65%(原值61%),并预期2026年CSPs仍将维持积极的投资节奏,合计资本支出将进一步推升至6000亿美元以上,年增40%。信达证券表示,这波资本支出成长将激励AI Server需求全面升温,并带动GPU/ASIC、存储器、封装材料等上游供应链同步扩张,驱动AI硬件生态链迈入新一轮结构性成长周期。这也意味着,联想集团等算力产业链企业,未来仍有超预期增长的可能,企业估值也存在随之上升的更大空间。

摩根大通表示,这场万亿美元级别的AI算力投资热潮,仍面临物理世界的“硬约束”,其中电力是最大的瓶颈。

其分析称,天然气涡轮机的新订单交付周期已延长至3-4年,而核电站的建设周期则长达十年以上,均无法满足短期的数据中心能源增长需求。在满足新增电力需求的同时平衡居民电价,将成为一个美国敏感的政治经济问题。

公开信息显示,仅10月以来,即出现谷歌与NextEra、道达尔,微软与阿布扎比国家石油公司、Masdar、IREN,Applied Digital与‌Babcock & Wilcox,Brookfield与Bloom Energy等多个AI产业链企业与能源提供商之间的大规模合作。其中不乏近百亿美元的巨大金额与长达25年的长期协议,电力来源也覆盖水电、核电、风电、太阳能、天然气发电、燃料电池等多种类型。

如此密集的大规模、长时间、多元电力订单合作,表明摩根大通所述能源瓶颈已不再是未来预测,而是成为了“现在时”。AI科技企业们已达成默契:谁能率先解决能源保障问题,谁就能在这场算力军备赛中占得先机,从而增强其AI大模型与应用的市场竞争能力。

如果说与能源供应商绑定,是解决能源瓶颈问题的“开源”措施,通过降低数据中心PUE(电源使用效率,计算公式为数据中心总能耗与IT设备能耗的比值,其值越接近1表明能效越高)实现“节流”,则是国内外普遍选择的另一路径。

我国发布的《数据中心绿色低碳发展专项计划》规定,到2025年底,全国数据中心整体PUE需降至1.5以下;新建及改扩建大型和超大型数据中心PUE降至1.25以内,且国家枢纽节点数据中心项目PUE≤1.2。欧洲亦规定自2026年7月起,现有数据中心需满足PUE1.5,2030年进一步降至1.3以下;新建数据中心自2026年起PUE需小于1.2。

如此低的PUE值要求,使得具备散热效率高、能耗低、噪音小等优势的液冷方案,从“技术备选”升级为“刚需配置”,进入加速渗透期。如联想集团研发的“海神”温水水冷系统,采用100%全覆盖冷板式液冷设计,功耗比传统风冷直降40%,PUE值可以降至1.1以下。公司今年新发布的双循环相变浸没制冷系统,则通过创新的外接单相换热器设计,实现相变腔体温度的精准控制和沸腾换热效能的显著提升,散热能力较传统方案翻倍提升,系统PUE可低至1.035。

目前,英伟达最新商用的GB200系列及以后技术,均采用液冷技术散热,100%全液冷架构,液冷覆盖CPU、GPU、内存等核心部件。其他AI科技巨头如谷歌、微软等,均将数据中心冷却方案从风冷向液冷转型。

值得注意的人,除“海神”温水水冷系统与双循环相变浸没制冷系统之外,联想集团还于今年发布了飞鱼仿生散热设计,采用单相浸没式技术路线,解决散热器性能瓶颈。这种多路线并行的布局策略,一方面表明不同液冷技术路线之间的竞争尚未收敛,另一方面也表明,在算力能源瓶颈背景下,液冷技术在不同场景中均具备较大市场需求。

国信证券指出,目前国内运营商、互联网建设数据中心均逐步选择液冷方案,国内数据中心液冷渗透率有望于2025年进入加速期。其测算,到2026年,国内AI服务器液冷渗透率将超过50%,2027年占比进一步扩大,或达200亿元以上。海外方面,2026年仅英伟达液冷应用便可带来超70亿美元液冷规模。

随着AI技术升级与应用爆发的共同推动,超5万亿美元大规模算力投资热潮逐渐落地,以及能源瓶颈激发的液冷渗透率逐渐提升,联想集团等从服务器、存储、网络设备,到液冷技术实现全面布局的算力基础设施提供商,业绩增长与估值提升潜力将持续释放。

阅读剩余
THE END