2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

2026年算力景气度持续上行。 微软、谷歌、Meta、亚马逊等海外大厂对2026年资本开支指引乐观,我们预计2025年、2026年四家大厂资本开支总和分别为4065、5964亿美元,分别同比+46%、47%,且用于投资AI算力及基础设施的比例有望持续提升。

目前,海外大厂仍以采购英伟达AI芯片为主,2026年AMD、海外大厂自研芯片有望快速放量。

互联侧:光摩尔定律,单卡价值量代际增加

2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

1)光模块

一方面,端口速率按“1–2年一代”从10G/40G-100G/400G-800G/1.6T;另一方面,数据中心网络从“少量跨机柜光互连”走向leaf-spine扁平化、东西向流量主导,叠加AI训练集群由几十卡扩展到数百卡规模,使得光模块的用量、规格与单点价值量同步抬升。

未来,800G将加速规模化部署、1.6T进入导入期;同时LPO/CPO、硅光、AOC等路线让网络向“更低功耗、更高密度、更高可靠”演进。

2)PCB

行业进入AI驱动的新周期,需求结构发生根本性转变。AI服务器集群建设带来算力板卡、交换机与光模块的同步升级,推动PCB需求量和单价双升。

随着算力架构从GPU服务器向正交化、无线缆化演进,信号链条更短、对材料损耗更敏感,PCB成为AI硬件中最核心的互联与供电载体之一。本轮AI周期不同于5G周期的“高峰—回落”型特征,而呈现“技术迭代带动持续渗透”的长周期属性。

3)冷却侧

功率密度持续提升,液冷大势所需。根据Vertiv数据显示,AI GPU机架的峰值密度有望从2024年的130kW到2029年突破1MW,采用液冷技术是大势所趋。

海外机柜算力密度提升直接带来二次侧及ICT设备侧价值量的提升,其中,CDU、冷板价值量占比较高。

4)供电侧

AIDC供配电路径演变,关注HVDC、SST领域。

随着AI服务器功率的持续提升,传统供配电架构下配电房占地面积大幅提升、电能传递损耗大幅增长,迫切需要通过供配电架构升级减少占地面积、提升系统效率、减少用铜量、提升分布式能源接入能力。

我们预计,AIDC供配电方式将遵循UPS-HVDC-SST路径演变,2026年行业催化有望持续。

2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

微软

3Q25公司Capex(包含融资租赁)为349亿美金,同比+75%、环比+44%,且根据电话会议披露信息,预计FY2026(本季度3Q25为微软FY1Q26)资本开支增速高速FY2025。

此处假设4Q25 Capex环比微增,为360亿美金,则2025全年资本开支为1165亿美金,同比+54%,假设2026年Capex增速为60%,则2026年资本开支为1864亿美金。

2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

谷歌

3Q25公司资本开支为240亿美金,同比+84%、环比+7%,且根据电话会议披露信息,2025年Capex指引上调至910-930亿美金(前值为850亿美金),则4Q25 Capex预计为294亿美金;且指引2026年资本开支将显著增长,假设2026年资本开支增速为50%,则2026年资本开支为1395亿美金。

2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

亚马逊

3Q25公司资本开支为342亿美金,同比+61%、环比+9%,且根据电话会议披露信息,2025年Capex指引1250亿美金,则4Q25 Capex预计为351亿美金,且指引2026年资本开支持续增长。

此外,亚马逊在电话会议披露,为满足公司对AI需求,过去12个月中增加了3.8GW电力容量(目前是22年2倍),预计4Q25新增1GW,且2027年电力容量预计翻倍;假设2026年资本开支增速为30%,则2026年资本开支为1625亿美金。

2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

Meta

3Q25公司资本开支为194亿美金,同比+110%、环比+14%,且根据电话会议披露信息,2025年Capex指引上调至700-720亿美金(前值为660-720亿美金),则4Q24 Capex预计为219亿美金,且指引2026年资本开支增长将显著高于2025年,假设2026年资本开支增速为50%,则2026年资本开支为1080亿美金。

图1:海外大厂Capex及预期
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

微软-2026年芯片需求测算

微软2026年芯片需求测算:主要购买英伟达芯片,其次为AMD和自研Maia芯片。

  • GPU服务器资本开支:根据前文测算,2026年资本开支为1864亿美金,根据微软3Q25电话会披露数据,约50%资本开支用于购买GPU、CPU服务器,且预期比例持续提升;我们假设用于购买GPU、CPU服务器的资本开支占比为60%,且GPU服务器在其中占比为90%(由于GPU服务器ASP大幅高于CPU服务器),则2026年用于购买GPU服务器的资本开支为1007亿美金。
  • 采购英伟达芯片:考虑到芯片性能、运行稳定性、兼容性等维度,微软仍以采购英伟达芯片为主,假设2026年采购英伟达GPU服务器资本开支占比为85%,则对应购置英伟达服务器资本开支为856亿美金,假设AI芯片占服务器价值量为70%,对应英伟达GPU芯片价值量为599亿美金,分别假设采购英伟达B300(包括GB300)、R200(包括VR200)资本开支占比为55%、45%,假设B300、R200单价分别为3.5、4.5万美元(考虑到性能提升、HBM及晶圆成本提升等因素),对应B300、R200采购量分别为94、60万颗。
  • 采购AMD芯片:AMD芯片快速迭代发展,MI400系列芯片性能表现出色,预计2026年微软将采购部分AMD芯片作为补充,此处假设采购AMD GPU服务器资本开支占比为10%,且用于购置MI355、MI400资本开支占比分别为5%、95%,且假设MI355、MI400芯片单价分别为2.5、3.5万美金,对应MI355、MI400采购量分别为1、19万颗。
  • 自研ASIC芯片:2026年微软自研芯片Maia200、Maia300有望放量,此处假设自研ASIC服务器资本开支占比为5%,ASIC芯片占服务器价值量为50%,对应自研ASIC资本开支为25亿美金,假设购置Maia200、Maia300资本开支占比分别为25%、75%,假设Maia200、Maia300单价分别为0.5、0.7万美金,对应Maia200、Maia300采购量分别为11.6、27.5万颗。

图2:微软-2026年芯片需求测算
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

谷歌-2026年芯片需求测算

谷歌2026年芯片需求测算:自研TPU为主,同时采购英伟达GPU主要供云客户使用。

  • GPU服务器资本开支:根据前文测算,2026年资本开支为1395亿美金,根据谷歌3Q25电话会披露数据,约60%资本开支用于购买服务器,且预期比例持续提升;我们假设用于购买GPU、CPU服务器的资本开支占比为70%,且GPU服务器在其中占比为90%(由于GPU服务器ASP大幅高于CPU服务器),则2026年用于购买GPU服务器的资本开支为879亿美金。
  • 自研ASIC芯片:考虑到谷歌自研TPU芯片性能出色、性价比高,且谷歌主要AI任务(大模型训练、推理等)主要依靠自研TPU芯片,此处假设自研ASIC服务器资本开支占比为70%,ASIC芯片占服务器价值量为65%(谷歌TPU芯片性能强大,ASP相对较高),对应自研ASIC资本开支为400亿美金,假设购置Trillium、Ironwood、TPU v8p、TPU v8e资本开支占比分别为8%、65%、20%、7%,假设单价分别为0.8、1.2、2.0、0.9万美金,对应采购量分别为40、216、40、32万颗。

谷歌-2026年芯片需求测算

核心观点:主要采购英伟达芯片供云客户使用。

  • GPU服务器资本开支:根据前文测算,2026年资本开支为880亿美元。假设用于购买GPU服务器的资本开支占比为30%,且AI芯片占服务器价值量的70%,则对应英伟达GPU芯片价值量为185亿美元。
  • 采购英伟达芯片:假设采购英伟达B300(包括GB300)与R200(包括VR200)的资本开支占比分别为60%和40%。基于B300、R200单价分别为3.5万、4.5万美元的假设,对应B300、R200采购量分别为32万颗和16万颗。

图3:谷歌-2026年芯片需求测算
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇


亚马逊-2026年芯片需求测算

核心观点:主要购买英伟达芯片,其次为AMD和自研Trainium芯片。

  • GPU服务器资本开支:根据前文测算,2026年资本开支为1625亿美元。假设用于购买GPU、CPU服务器的资本开支占比为50%,且GPU服务器在其中占比为90%,则2026年用于购买GPU服务器的资本开支为731亿美元。
  • 采购英伟达芯片:假设采购英伟达GPU服务器的资本开支占比为65%,AI芯片占服务器价值量的70%,对应英伟达GPU芯片价值量为333亿美元。假设采购B300(包括GB300)与R200(包括VR200)的资本开支占比分别为55%和45%,基于单价3.5万、4.5万美元的假设,对应B300、R200采购量分别为52万颗和33万颗。
  • 采购AMD芯片:假设采购AMD GPU服务器的资本开支占比为12%,对应资本开支为61亿美元。假设用于购置MI355、MI400的资本开支占比分别为5%和95%,基于单价2.5万、3.5万美元的假设,对应MI355、MI400采购量分别为1万颗和17万颗。
  • 自研ASIC芯片:假设自研ASIC服务器的资本开支占比为23%,ASIC芯片占服务器价值量的50%,对应自研ASIC资本开支为84亿美元。假设购置Trainium2.5、Trainium3的资本开支占比分别为15%和85%,基于单价0.4万、0.6万美元的假设,对应Trainium2.5、Trainium3采购量分别为32万颗和119万颗。

图4:亚马逊-2026年芯片需求测算
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇


Meta-2026年芯片需求测算

核心观点:主要购买英伟达芯片,其次为AMD和自研MTIA芯片。

  • GPU服务器资本开支:根据前文测算,2026年资本开支为1080亿美元。假设用于购买GPU、CPU服务器的资本开支占比为60%,且GPU服务器在其中占比为90%,则2026年用于购买GPU服务器的资本开支为583亿美元。
  • 采购英伟达芯片:假设采购英伟达GPU服务器的资本开支占比为80%,AI芯片占服务器价值量的70%,对应英伟达GPU芯片价值量为327亿美元。假设采购B300(包括GB300)与R200(包括VR200)的资本开支占比分别为55%和45%,基于单价3.5万、4.5万美元的假设,对应B300、R200采购量分别为51万颗和33万颗。
  • 采购AMD芯片:假设采购AMD GPU服务器的资本开支占比为15%,对应资本开支为61亿美元。假设用于购置MI355、MI400的资本开支占比分别为5%和95%,基于单价2.5万、3.5万美元的假设,对应MI355、MI400采购量分别为1万颗和17万颗。
  • 自研ASIC芯片:假设自研ASIC服务器的资本开支占比为5%,ASIC芯片占服务器价值量的50%,对应自研ASIC资本开支为15亿美元。假设MTIA 3单价为0.5万美元,对应采购量为30万颗。

图5:Meta-2026年芯片需求测算
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇


其他厂商-2026年芯片需求测算

核心观点:以购买英伟达芯片为主,购买AMD和自研芯片为辅。

  • GPU服务器资本开支:假设2026年全球AI相关资本开支为9600亿美元,剔除前述四大厂后剩余3636亿美元。假设其中80%用于购买GPU服务器,则对应资本开支为2909亿美元。
  • 采购英伟达芯片:假设采购英伟达GPU服务器的资本开支占比为75%,AI芯片占服务器价值量的70%,对应英伟达GPU芯片价值量为1527亿美元。假设采购B300(包括GB300)与R200(包括VR200)的资本开支占比分别为60%和40%,基于单价3.5万、4.5万美元的假设,对应B300、R200采购量分别为261万颗和138万颗。
  • 采购AMD芯片:假设采购AMD GPU服务器的资本开支占比为5%,对应资本开支为104亿美元。假设用于购置MI355、MI400的资本开支占比分别为19%和81%,基于单价2.5万、3.5万美元的假设,对应MI355、MI400采购量分别为8万颗和24万颗。
  • 其他GPU及自研ASIC芯片:假设其他GPU及自研ASIC芯片的资本开支占比为20%,对应579亿美元。

图6:其他厂商-2026年芯片需求测算
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇


汇总-2026年芯片需求测算

核心观点:以英伟达芯片采购为主,海外大厂自研ASIC、AMD有望放量。

  • 英伟达:预计2026年英伟达芯片总出货量为770万颗,其中B300系列为490万颗,R200系列为280万颗。
  • AMD:预计2026年AMD芯片总出货量为88万颗,其中MI355为12万颗,MI400为76万颗。

01 自研芯片:大厂ASIC加速放量,市场格局初显

根据测算,预计到2026年,主要科技巨头的自研AI芯片(ASIC)将进入快速放量阶段。具体出货量预测如下:
* 谷歌TPU:合计出货量预计达328万颗。
* 亚马逊Trainium:预计出货量为151万颗。
* 微软Maia:预计出货量为40万颗。
* Meta MTIA:预计出货量为30万颗。

图7:2026年主要厂商AI芯片需求测算
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇


02 互联侧:光模块与PCB持续迭代,量价齐升

数据中心互联-光模块:遵循“光摩尔定律”,单卡价值量代际跃升

  • 速率快速迭代:光模块端口速率遵循“1-2年一代”的升级节奏,从早期的10G/40G演进至100G/400G,并正向800G/1.6T迈进。同时,数据中心网络架构向leaf-spine扁平化演进,东西向流量占比提升,叠加AI训练集群规模从几十卡扩展至数百卡,共同驱动光模块的用量、规格及单点价值量同步提升。
  • 芯片迭代驱动需求:以英伟达为代表的AI芯片厂商加速产品迭代,其芯片架构升级周期已从早期的4年缩短至约2年。相应地,AI算力集群规模从64卡机柜扩展至256卡乃至576卡集群,芯片间网络连接速率也从400G快速演进至1.6T。
  • 价值量进入新量级:单张高端AI加速卡(如英伟达B200/B300)所对应的光模块价值量已进入千美元级别(约2100美元,更高代际方案可超4000美元)。谷歌TPU v6/v7与Meta MTIA2/3方案的价值量亦在3000美元以上,光互连在单机柜/单集群中的投入随代际翻倍增长。
  • 未来趋势:光模块市场的核心增长变量为“速率 × 端口密度 × 网络层级渗透率 × 集群规模”,呈现量增与结构升级并存态势。800G光模块将加速规模化部署,1.6T进入导入期,网络速率迭代快于芯片迭代。同时,LPO(线性驱动可插拔光学器件)、CPO(共封装光学)、硅光、AOC(有源光缆)等技术路线推动网络向更低功耗、更高密度、更高可靠性演进。

图8:可插拔光模块示意图
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

图9:GPU单卡对应光模块价值量分析
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

数据中心互联-PCB:新架构推动价值量倍增

GB300 NVL72架构PCB量价拆解:
1. Bianca板:采用M8级别覆铜板,规格为5阶22层HDI,单价约4000~4500元/块。单个GB200 NVL72机柜需18个Compute Tray,共计36块Bianca板,单机柜价值量约14~16万元。
2. Switch板:集成多颗NVSwitch芯片,构建低延迟、高带宽的GPU通信网络。采用M8级别覆铜板,规格为24层高多层PCB,单价约8000~8500元/块。单机柜需9个Switch Tray,价值量约7~7.5万元。
3. 配板:包括ConnectX-7网卡板及DPU板等,对PCB要求相对较低,预计单机柜价值量不超过3万元。
综合测算,GB200 NVL72单机柜PCB总价值量约23~25万元,折合单GPU对应PCB价值量超过3000元。

Vera Rubin CPX系列(以NVL144 CPX为例)PCB量价拆解:
1. Computer Tray:仍包含两块类似GB300的Bianca板,预计规格升级为5阶26层HDI,单机柜价值量约23~24万元。
2. Switch Tray:预计使用M8级覆铜板的32层高多层板(HLC),单机柜价值量约10~11万元。
3. GPU子卡:每个托盘内含8个CPX GPU,置于4个子卡上,预计为5阶22层HDI,单机柜价值量约18~20万元。
4. Midplane(中板):用于替代GB300 Tray中的跳线,连接Bianca主板、CX-9网卡和Bluefield DPU。因信号传输速率要求高,预计采用M9材料高多层板,价值量约6~6.5万元。

图10:机柜内各类PCB价值量构成
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

图11:单GPU对应PCB价值量趋势
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇


03 冷却侧:功率密度飙升,液冷成为必然选择

液冷成为高功率密度散热主流方案

随着AI训练对算力需求的集中化,GPU芯片功耗持续攀升。英伟达B200芯片TDP功耗已达1000W,GB200超级芯片(一颗Grace CPU+两颗Blackwell GPU)功耗达2700W。据Vertiv数据,AI GPU机架的峰值功率密度有望从2024年的130kW增至2029年的1MW以上,采用液冷技术已成为必然趋势。

当前液冷价值量测算

  • 单芯片价值量:经测算,单颗GB200与GB300对应的液冷价值量分别为1110美元和1409美元。
  • 单机柜价值量:GB200与GB300单机柜(均含72个GPU)的液冷价值量分别约为79930美元和101420美元。
  • 单位功耗价值量:考虑到GB200/GB300的单GPU功耗分别为1000W/1400W,当前海外液冷价值量可基本按1-1.1千美元/kW计算。预计功耗更高的R200(1.8-2.3kW)单卡对应液冷价值量或达2400美元。

图12:单机柜功率密度与适宜散热方式的关系
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

图13:单颗GPU及单kW功耗对应液冷价值量测算
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

液冷系统价值量拆分:冷板与CDU占比最高

液冷系统分为机房侧和ICT设备侧:
* 机房侧:包括一次侧(冷却塔至CDU的室外循环系统)和二次侧(CDU至机柜内液冷元器件的室内循环系统)。
* ICT设备侧:主要为机柜内部零部件,如冷板、快换接头(UQD)等。

算力密度提升直接带动二次侧及ICT设备侧价值量增长,其中CDU(冷却液分配单元)和冷板价值占比较高:
* CDU:传统功率为200-300kW,价值量约占ICT侧的30%。随着算力密度提升,单台CDU功率需求接近2MW,其在GB200/GB300方案中的价值占比提升至35%以上。
* 冷板:常用材料为紫铜、铝,需综合考虑流道设计、流速、热阻等指标,在GB200/GB300方案中价值占比约30%。未来微通道水冷板(MLCP)的应用有望使冷板价值量提升3-5倍。
* Manifold(歧管)及UQD:整体价值占比约30%。

图14:英伟达GB200/GB300液冷方案成本对比
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

图15:英伟达GB200/GB300液冷方案示意图
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

液冷产业链结构

液冷产业链可分为上、中、下游:
* 上游:提供液冷系统核心零部件,包括冷却塔、冷水机组、CDU、Manifold、UQD、液冷板等。
* 中游:系统集成商,负责采购或自产上游零部件,为下游客户提供机房侧或服务器侧的系统级液冷解决方案。
* 下游:数据中心服务商、云运营商、互联网大厂等最终用户。

图16:上游液冷系统核心零部件示意图
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

图17:液冷全产业链图谱
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

英伟达冷板、NVQD、Manifold等柜内零部件主要由AVC、CoolerMaster、双鸿供应,其中AVC和CoolerMaster在价值量较高的冷板环节占据主要份额。CDU环节则以Vertiv为核心供应商。

2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇 2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇 2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

海外和台资企业:在北美零部件环节仍占据主导

电子散热等零配件市场集中度高,以海外及台资企业为主。

全球热管主要生产企业包括 Honeywell、 Fujikura、双鸿科技、奇鋐科技等。
* 奇鋐、双鸿、台达电子等台资热管理厂商早期为ODM服务器厂商提供风冷散热方案,并在液冷大规模应用前,已配合英伟达进行液冷散热预研。
* 随着液冷成为主流,早期配合英伟达开发液冷产品的台资厂商迅速获得批量订单,成为本轮AI液冷需求的主要受益方,预计占据全球70%以上的液冷组件市场份额。
* 然而,随着北美液冷需求快速扩张,多个环节预计出现产能瓶颈。以谷歌、Meta为代表的云服务提供商(CSP)并未与台资厂商深度绑定,部分大陆厂商有望凭借成本与服务优势抢占市场。

图23:台企电子散热器件厂商
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

图24:台企厂商对比
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

竞争格局—系统级:综合能力是关键,绑定芯片方案有先发优势

液冷系统集成复杂度成倍提升,对温控稳定性的要求使得系统级能力至关重要。

从风冷转向液冷,系统集成难度主要体现在:
1. 设计难度增大:需融合传热、流体、材料等多学科知识。
2. 供应商零部件差异明显:各部件供应能力与接口不统一,拉长开发周期,难以实现系统最优。
3. 采购难度加大:需协调多个供应商同步交付,增加管理负担。
4. 后期运维难度提升:单一供应商难以独立解决系统故障。因此,涵盖前期设计与后期运维的综合系统能力成为核心壁垒。

温控产品的优势需经长期运行验证,其稳定性依赖于材料选择、CDU软件优化及运维能力等综合系统实力。

由于系统复杂度提升,产业链各环节的沟通协同有望进一步加强。 无论是冷板式还是浸没式液冷,均需服务器厂商、液冷厂商与数据中心业主共同参与设计。当前阶段,与加速卡芯片厂商深度绑定的公司具备显著的先发优势。

图25:液冷数据中心系统复杂度增大
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

图26:液冷时期各环节配合度有望进一步加强
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

竞争格局—零部件:制造环节有一定壁垒

液冷系统涉及众多零部件,其设计与生产难度各异。以冷板式液冷为例,关键部件包括冷板、快接头、Manifold、CDU等。
* 冷板:制造难点在于通过针翅、微通道等定制化设计来优化流速、流量与热阻,但本身属于机加工件,壁垒相对较低。
* 快接头:核心难点在于防漏液控制。
* Manifold:通常采用316不锈钢及无缝焊接工艺。
* CDU:核心部件为水泵与换热板,其控制软件需具备响应高功率机柜需求的能力。

图27:冷板设计核心指标
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

图28:CDU内部核心部件是水泵与换热板
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

国产厂商:在温控、服务器及CSP云厂相继布局

全球AI发展趋势下,国内液冷供应商广泛参与,涵盖服务器厂商、互联网公司、温控设备商及零配件公司,各具优势:
1. 温控设备厂商:深耕技术应用,理解深厚,能提供定制化全链条解决方案及关键部件设计制造。
2. 服务器厂商:贴近终端客户,可利用客户关系进行系统集成。
3. 互联网大厂(如阿里、华为):作为客户或总包方,对场景需求理解深刻,产业链位置领先。
4. 零配件公司:以高难度配件切入,逐步完善整体方案。

国产公司市场占有率有望持续提升。 液冷系统增加了后期运维的复杂度与成本(需定期进行腐蚀、密封性等检测)。相较于国外企业,国产品牌在服务响应、设计灵活度及运维支持方面更具优势,预计未来将在温控领域占据主要地位,典型公司如英维克。同时,部分消费电子领域公司(如飞荣达)通过跨界进入,在国产替代背景下份额有望提升。

图29:中游参与厂商对比
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

图30:数据中心精密空调市场格局
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

图31:英维克的UQD产品已进入英伟达供应链
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

国产厂商:以英维克为代表的国产温控厂商有望突破全球市场

专业温控厂商方案已落地,呈现多方合作模式。目前,英维克、申菱环境和高澜股份已有液冷项目落地(如字节马来西亚项目),处于行业领先位置。曙光数创主要服务于曙光系超算中心,以浸没式方案为主。
英维克通过与Intel等芯片方案绑定,目前优势较为突出。申菱环境、高澜股份等也具备发展机会。

图32:数据中心液冷温控可比公司综合对比
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

国内液冷产业链主要上市公司

图33:我国液冷产业链主要上市公司主营业务和相关液冷技术布局
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

04 供电侧:AIDC供配电路径演变,关注HVDC、SST领域

供电侧:北美云服务厂商资本开支超预期

北美四大云厂资本开支持续超预期。根据三季度财报,其全年资本开支计划均获上调,预计2025年总额接近4000亿美元,同比增长超60%,AI算力基础设施投入持续加大。
* 微软:预计2025自然年Capex约1100亿美元,同比+46%。
* Meta:上修2025年Capex至700-720亿美元,同比+78%~84%。
* 谷歌:全年Capex由850亿美元上修至910-930亿美元,同比+73%~77%。
* 亚马逊:预计全年Capex 1250亿美元,同比+61%。

在AI数据中心初期投资中,电源设备投资占比约5%(仅次于IT设备与工程建设)。AIDC电源设备包括后备电源(柴油发电机)、UPS、配电及开关设备等,每GW数据中心约需20亿美元以上电源投资。

图34:北美四大云服务厂商季度资本开支(亿美元)
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

供电侧:智算中心供配电设备占地面积缩减、效率提升需求迫切

据统计,供配电系统及其辅助设施占地面积通常超过数据中心机柜面积的50%。随着单机柜功率提升,配套供配电系统占地面积快速增加,减少其占地、提高空间利用率已成为数据中心建设的关键指标。
根据ODCC测算,在1万m²的机房内,单机柜功率从6kW提升至30kW,配电房面积将从0.5万m²增至2.5万m²,占据大部分空间。

此外,随着服务器功耗增长,AIDC用电量激增,供配电链路效率对项目经济性影响显著,提升效率成为核心要求。目前供电链路以铜导体为主,在铜价上涨背景下,减少用铜量也成为重要诉求。

图35:数据中心典型功能区分布图
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

图36:数据中心配电房占比面积与机柜功率关系
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

供电侧:AIDC供配电方式演进路线

AIDC供配电方式的演进围绕减小占地、提升效率、减少用铜量三大核心目标展开,同时需兼顾电网友好性、分布式能源接入便利性及技术方案成熟度。

2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

供电侧:800V直流供电方案逐步成为主流

当前,UPS(不间断电源)仍是国内外IDC数据中心的主流供电方案。然而,随着服务器电源功率的提升及大规模算力集群的建设,UPS方案转换损耗大、结构复杂易故障、占地面积大等缺点日益凸显。

2024年10月,谷歌在OCP(开放计算项目)大会上介绍了应用于AIDC的±400V直流供电架构。其过渡期采用专用电源柜(Sidecar)方案,终极目标是将±400V直流与电池备份整合至数据中心基础设施,并与微电网、储能等结合,实现能效最大化(>96.5%)和计算密度跃升。Meta及微软也在积极推进±400V直流供电方案。

2025年5月,英伟达宣布将于2027年导入800V高压直流(HVDC)数据中心架构,以应对高功率AI服务器的需求。现行的54V架构因铜缆过重、空间受限及能耗等问题,已难以支撑高密度运算需求。800V HVDC通过单步AC/DC转换,可将能效提升5%、功率传输量提升85%,并减少45%的铜材用量,从而降低系统复杂度与维护成本。英伟达正与多家产业伙伴合作推动标准化生态,预计可将总体拥有成本(TCO)降低30%,为生成式AI提供稳定高效的电力基础。

固态变压器(SST),亦称“能源路由器”或“电力电子变压器”,由电力电子变换器和高频变压器组成,可实现高压交流至低压直流/交流的电压变换及能量双向流动。固态变压器未来有望成为800V直流供电架构的核心组件,直接实现10kV交流到800V直流的转换,效率高达98%。

图37:±400V DC供电架构
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

图38:800V DC供电架构
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

供电侧:固态变压器(SST)有望成为AIDC终局供配电方案

固态变压器(SST)由电力电子变换器和高频变压器组成,可实现高压交流至低压直流/交流的电压变换及能量双向流动。

相较于传统的工频变压器,电力电子变压器不仅具备电压等级变换和电气隔离功能,还能提供不同电压等级的多个直流端口,以满足直流电网或交直流混合电网中直流设备的需求,从而实现更灵活高效的电能管理。其潜在应用场景包括数据中心、电动汽车、铁路牵引、新能源并网、直流配网等。

固态变压器具有以下几大突出优势:
1. 节省空间与提升效率:取消工频变压器环节,占地面积可节省50%以上,系统效率提升2%以上。
2. 大幅减少用铜量:通过高频电力电子技术,最高可节省90%的用铜量。
3. 高灵活性:可作为光伏、储能、充电设施的“能量路由器”,实现直流设备灵活接入。
4. 电网友好:可实现功率、电压、频率的精准实时控制。

固态变压器的技术难点主要体现在以下几方面:
1. 技术融合要求高:SST是电力电子装置和变压器原理相结合的产物,企业需同时具备对两者的深刻理解。
2. 系统集成复杂度高:SST是解决方案而非单一设备,是电网和服务器之间的唯一屏障,需要企业对电网特性和算力负载特性有深度理解。
3. 电压等级差异:SST是中压(10-40kV)电力电子装置,与UPS/HVDC等低压装置存在较大技术差异。

图39:固态变压器原理示意图
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

图40:数据中心SST方案与HVDC方案对比
2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

机会发现

2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

算力侧:微软、谷歌、Meta、亚马逊等海外科技巨头对2026年资本开支指引乐观。预计2025年、2026年四家大厂资本开支总和分别为4065亿、5964亿美元,同比分别增长46%和47%,且用于投资AI算力及基础设施的比例有望持续提升。2026年AI算力景气度预计将持续上行。

互联侧
1. 光模块:端口速率按“1-2年一代”的节奏从10G/40G演进至100G/400G,再到800G/1.6T。同时,数据中心网络从“少量跨机柜光互连”走向Leaf-Spine扁平化架构,东西向流量占主导,叠加AI训练集群规模从几十卡扩展至数百卡,共同推动光模块的用量、规格与单点价值量同步提升。
2. PCB(印制电路板):随着算力架构从GPU服务器向正交化、无线缆化演进,信号链条更短、对材料损耗更敏感,PCB成为AI硬件中最核心的互连与供电载体之一。

冷却侧:根据Vertiv的数据,AI GPU机架的峰值密度有望从2024年的130kW提升至2029年的1MW以上,采用液冷技术已成为大势所趋。

供电侧
1. 中国HVDC渗透率提升,800V HVDC进入试点应用阶段。
2. 2026年固态变压器(SST)有望在国内外试点落地,催化行业关注度。
3. 英伟达服务器电源订单逐步落地,相关市场份额及单机柜价值量有望提高。

2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇2026年AI算力产业链全景解析:从芯片到冷却的万亿级市场机遇

百万亿规模!英伟达最新Rubin平台AI计算架构及产业链深度剖析!2026

万亿市场!持续爆发!2025信创产业发展趋势及50强报告!

持续增长!百万亿市场!AI 基础设施之通信篇深度洞察!2026

突发!行业巨震!马斯克: 3年内机器人超越顶尖医生深度洞察!2026

今夜无眠!百万亿规模起飞!英伟达突发开源Alpamayo的全新自动驾驶汽车大模型之深度洞察!

  • 万亿空间!加速起飞!中国企业级AI应用行业发展深度洞察!2026
  • 突发!百万亿规模!工信部印发《工业互联网和人工智能融合赋能行动方案》深度洞察!2026
  • 突发!百万亿规模!CES 2026 英伟达扔出3枚重磅“炸弹”之深度洞察!
  • 开年大戏,AI存储持续涨价的背景下产业链投资策略深度洞察!2026
  • 万亿规模!面向2026!大模型和AI芯片发展战略方向趋势预测!2026
  • 突发!开源!清华大学发布视频生成加速框架 TurboDiffusion!AI 视频生成进入“秒级”新时代!
  • 突发!Meta数十亿美元收购Manus背后的战略棋局深度洞察!2026
  • 新年巨献!AI原生基础设施实践解决方案白皮书!2026
  • 突发!上不封顶!新年第一天,互联网头部大厂年终奖之深度揭秘!2026
  • 最新!独家发布!面向智算的算力原生白皮书 2026!
  • 年终巨献!中国AIDC储能行业核心技术和产业链发展深度洞察!2026
  • 年终巨献!未来百万亿十大赛道深度洞察!2026
  • 万亿市场!国产GPU四小龙核心技术路线及市场深度洞察!2026
  • 最新!独家发布!面向AI自动驾驶的车联网架构技术白皮书(2026)
  • 最新!独家发布!AI大模型的智算中心网络白皮书(2026年)
  • 最新!AI算力中心GPU集群智能算力管控调度解决方案!2026
  • 突发!万亿规模起飞!中国太空算力战略部署深度研究报告!2026
  • 万亿空间!央国企AI数智化转型解决方案白皮书!2026

关注“鲸栖”小程序,掌握最新AI资讯

本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/18641

(0)
上一篇 2026年1月22日 上午6:51
下一篇 2026年1月22日 上午8:21

相关推荐

  • AI视频生成技术深度解析:从萌宠治愈到Sora2留存困境的技术演进与市场挑战

    近期,社交媒体上涌现出大量展现儿童与宠物温馨互动的短视频,这些内容以其纯粹的情感表达和高度真实的画面质感迅速引发广泛关注。然而,仔细观察后不难发现,这些视频实际上是由AI视频生成技术制作的产物。本文将从技术原理、模型对比、市场表现等多个维度,对这一现象进行深入分析。 从技术层面来看,当前主流的AI视频生成模型如Sora2、Veo3.1以及可灵Video 2.…

    2025年12月7日
    9200
  • Meta SAM 3D与SAM 3深度解析:从单张图像到三维世界的技术革命

    在计算机视觉领域,Meta近日发布的SAM 3D和SAM 3系列模型标志着图像理解技术迈入了全新阶段。这次更新不仅延续了Segment Anything Model(SAM)系列在图像分割领域的领先地位,更将2D图像理解能力拓展到3D重建、物体姿态估计和概念分割等多个维度,为AR/VR、机器人、内容创作等应用场景提供了前所未有的技术支撑。 **SAM 3D:…

    2025年11月20日
    7600
  • 智能体系统规模化的科学法则:Google研究揭示“45%陷阱”与架构选择优先原则

    在人工智能系统设计中,多智能体架构常被视为提升复杂任务处理能力的自然路径。然而,Google研究团队近期在论文《Towards a Science of Scaling Agent Systems》中,通过系统性的实验分析,揭示了智能体系统规模化过程中存在的非直观规律:智能体数量并非越多越好,而架构设计的科学性比单纯增加智能体数量更为关键。 研究团队在GPT…

    2025年12月13日
    8600
  • AI驱动PC产业新周期:联想财报揭示硬件巨头的智能化转型路径

    近期IDC发布的2025年第三季度全球PC出货量数据显示,市场总量达到7590万台,同比增长9.4%,实现连续四个季度的正增长。这一数据有力驳斥了“PC行业触顶论”,表明在AI技术赋能下,传统硬件产业正迎来结构性复苏。作为行业风向标的联想集团,其最新财报更揭示了AI如何重塑PC价值链,推动硬件制造商向智能化服务商转型。 联想2025/26财年第二财季财报显示…

    2025年11月23日
    8400
  • 从执行到创造:百度伐谋超级智能体如何重塑AI自主优化新范式

    在人工智能技术快速迭代的浪潮中,AI正从被动执行指令的工具,向主动探索解决方案的创造者转变。这一变革的核心驱动力,在于智能体技术的突破性进展。近日,百度世界大会上发布的全球首个可商用、自我演化超级智能体——百度伐谋(FM Agent),标志着AI自主优化能力迈入了全新阶段。它不仅是一个技术产品,更是一种颠覆传统问题解决范式的引擎,为复杂工业场景提供了前所未有…

    2025年11月14日
    9400