本文基于MIR DATABANK数据库报告信息撰写。
一个GB200机柜的功耗,足够点亮半栋写字楼——而当AI模型参数从万亿级冲向十万亿级,单机柜功率正逼近50kW的物理极限。更麻烦的是,传统风冷在20kW时已接近散热天花板,这意味着:如果不换散热技术,AI算力将被“热”锁死。
液冷不是可选项,而是AI继续进化的“生死线”。本文将系统分析智算中心对高功率芯片的驱动作用,全面拆解液冷技术核心零部件生态,并梳理国内主流供应商的最新布局动态,为读者呈现液冷行业的完整图景。
01、智算中心催生高算力芯片,系统级功耗大幅提升
ChatGPT引爆的生成式AI浪潮正在推动数据中心产业投资从通用算力中心快速转向智能算力中心。这种转变不仅改变了数据中心的运算模式,更对散热系统提出了前所未有的高要求。
智能算力中心与传统数据中心存在本质差异,其核心价值在于按需聚合、调度GPU级别的高并行算力。这种专业化趋势直接导致了两个显著变化:单芯片功耗的跃升和系统级能耗的暴涨。
以行业标杆企业为例,英伟达Blackwell架构下的芯片演进路线清晰展现了这一趋势:从B100到GB200,单芯片半精度算力从1.8Pflops提升至5Pflops的同时,最大热设计功率(TDP)也从700W飙升至2700W。即将发布的B300/GB300系列,算力较GB200再提升50%,TDP再增200W。
国内代表企业华为的表现同样引人注目。其910C芯片半精度算力达到780Tflops,而基于910C的CloudMatrix384系统通过多对多拓扑连接384个昇腾芯片,系统总算力达300PFLOPS,是英伟达GB200-NVL72架构的1.7倍,但系统总功耗高达559,378W,能效挑战更为严峻。
这种功率密度的跃升直接突破了传统风冷方案的散热极限。实践表明,当机柜功率密度超过20kW时,传统风冷已难以满足散热需求。目前,英伟达GB300的OEM/ODM厂商均已采用全液冷架构,预示着液冷技术正在成为高密度算力中心的标配解决方案。
02、液冷技术核心零部件全景拆解
液冷系统是一个精密的散热工程,其高效运转依赖于多个专业零部件的协同工作。我们将以当前主流的冷板式液冷为例,全面解析液冷系统的"器官"构成。
2.1系统架构:三大核心要素
液冷系统的通用架构由三个关键要素构成:
一次侧冷源:数据中心冷量传递的上游环节,包括冷却塔、冷水机组等;
二次侧热捕获:冷量传递的最终环节,也是热传递的起源,主要包括冷板等组件;
冷量分配单元(CDU):连接一二次侧的关键枢纽,负责热量交换和工质管理。
液冷系统通用架构原理图
图片来源:《中兴通讯液冷技术白皮书》
2.2核心零部件详解
1)冷量分配单元(CDU):系统"心脏"
CDU作为液冷系统的核心控制单元,主要由换热器、循环泵、管路组件和控制系统组成。根据换热介质不同,CDU可分为液-液和风-液两种类型。液-液CDU通过间壁式换热器实现全液冷系统的热量交换,而风-液CDU则能满足传统数据中心改造需求。
2)冷板:热交换"起源"
冷板是直接与芯片接触的散热部件,通常由铜或铝等高导热金属加工而成。其性能由两个关键指标决定:
压降:液体通过微通道时的阻力损失,影响换热效率;
热阻:冷板两端温度差与热流量的比值,越低越好。
冷板结构横截面
图片来源:《数据中心液冷技术的应用研究进展》
3)冷却液分配"管家"(Manifold)
Manifold是连接CDU与服务器冷板的分配枢纽,由供液/回液主管和多个节点组成。数据中心可根据需求定制不同规格的Manifold,其分支口数量和间隔都可个性化调整。
4)快接头:防漏"小关节"
快接头用于Manifold与服务器的连接,主要分为:
手插式:需人工对准,维护较复杂;
盲插式:自动对接,适合高密度部署。
盲插快接头 对接时允许误差
5)管路与冷却液
冷却管路是系统的"血管",常用材料包括EPDM橡胶管、PTFE塑料管和不锈钢金属管。冷却液则相当于"血液",冷板式液冷多使用水基溶液,两相系统则选用低沸点碳氟类介质。
2.3交付模式:一体化趋势明显
当前液冷系统交付主要有三种模式:仅液冷服务器、液冷服务器+机柜、全系统一体化交付。
液冷系统交付方案主要分为3种
图片来源:《冷板液冷服务器设计白皮书 》
考虑到兼容性和部署效率,目前行业更倾向于"液冷服务器+液冷机柜+CDU+二次侧管路"的一体化交付模式,这种方案能显著缩短建设周期,简化后期运维。
03、国内液冷零部件供应商动态扫描
随着液冷市场需求爆发,国内供应商正加速布局。我们从全链条方案商和核心零部件商两个维度梳理行业最新进展。
3.1全链条方案提供商
英维克:液冷生态布局最完善的企业之一,推出Cool inside全链条液冷解决方案,覆盖从冷板、快接头到CDU、机柜的全产品线。截至2025年3月累计交付达1.2GW,UQD产品进入英伟达MGX生态系统。
Coolinside 全链条液冷解决方案
图片来源:英维克官网
申菱环境:2024年数据服务业务同比增长75.4%,重点拓展东南亚智算中心业务。其液冷产品包括冷板、Manifold、快接头等全套解决方案,客户涵盖国内主要互联网巨头。
同飞股份:推出冷板式和浸没式全套解决方案,单机柜支持高达50kW功率密度。创新性提出预制化解决方案,预制装配率达90%,大幅缩短建设周期。
高澜股份:在浸没式液冷领域技术领先,2024年推出定点浸没产品,相比全浸没方案减少60%工质用量。其服务器浸没式液冷产品已应用于知名互联网企业数据中心。
维谛技术:提供冷板式(Liebert? XDU)和浸没式液冷(CoolChip CDU系列)解决方案,适配30kW+高密机柜。2024年维谛与英伟达的专家团队在深圳共同测试并发布了针对GPU高密度数据中心的创新制冷方案,还参与英伟达的COOLERCHIPS计划,共同开发集冷板液冷和浸没液冷于一体的混合冷却系统。
科华数据:推出了多款具有自主知识产权的液冷解决方案。2023年,公司为中国移动长三角(苏州)数据中心打造首个服务器与液冷系统解耦的试点项目;2025年,与沐曦股份联合推出高密度液冷算力POD,为高性能GPU服务器集群研发新一代基础设施微环境。
华为:2024年,华为与华鲲振宇合作发布双液冷解决方案,挑战PUE小于1.1,单柜功率最大支持66kW,每瓦功率所产生的算力达到业界水平的2倍。
3.2核心零部件供应商
川环科技:凭借汽车管路经验切入数据中心液冷市场,产品通过UL认证。2024年底获得6万套服务器液冷管路订单,目前正分批交付,液冷接头产品也进入客户验证阶段。
飞龙股份:2025年推出22kW大型IDC液泵HP22K,并获得台湾知名能源企业的数据中心电子水泵订单,终端用户涵盖国际领先云服务商。
飞荣达:3D VC散热器散热功耗达1400W,行业领先。服务器液冷业务已获得华为、中兴、浪潮等批量订单,2024年相关收入显著增长。
写在最后
随着全球算力需求持续增长和"双碳"目标深入推进,液冷技术正迎来快速发展期,预计2025年液冷在数据中心的渗透率将从2024年的10%增长至20%以上。国内《数据中心绿色低碳发展专项行动计划》也明确提出,到2025年底新建大型数据中心PUE需降至1.25以内,这将进一步加速液冷技术的普及。
从产业链角度看,液冷市场呈现两大发展趋势:一是全链条解决方案商通过整合资源提供更完整的服务;二是专业零部件供应商深耕细分领域,推动国产替代进程。在这轮产业升级中,那些具备核心技术、能快速响应客户需求的企业将获得更大发展空间。
如需了解更加详细的AI产业链相关市场信息,可通过文末的联系方式与我们取得联系!
联系我们客服微信:mm2450599812
MIR DATABANK-北京总公司阎学会 ? ? +86-18600855341michael.yan@delkaconsulting.com?沈霞 ? ? ? +86-13683509940xia.shen@delkaconsulting.com
MIR DATABANK-上海分公司李玉杰 ? ? +86-18221802598yujie.li@delkaconsulting.com李雪姣 ? ? +86-15921636781xuejiao.li@delkaconsulting.com
MIR DATABANK-武汉分公司李雪姣 ? ? +86-15921636781xuejiao.li@delkaconsulting.com
MIR DATABANK-华南分公司刘国 ? ? +86-15120045385guo.liu@delkaconsulting.com
								
								
								
1807