IT设备消耗电力,电力最终会转化为热量。为了防止IT设备因过热发生故障,需要在产生热量的同时将其移除。过去几十年来,数据中心一直采用空气冷却,风扇吹过服务器芯片顶部的散热器以带走热量。然而空气冷却有局限性,与液体相比,空气的导热性较差。
服务器机架功率密度不断上升,GPU在AI应用中的广泛使用加速了服务器功耗的增加。芯片功率密度的一个关键指标是TDP:当芯片TDP达到200W-300W时,需要特殊的气流管理,以及增加风扇风量和速度,以便足够快地带走热量。当TDP达到350W-400W时,通常需要更大的散热器来增加可用于空气冷却的面积。在运行时,通常需要强力风扇全速运转,噪音较大,而且会消耗额外的电力。
芯片TDP在过去三四年中加速增长,尤其是随着GPU应用,这种趋势还将继续。CPU的TDP接近400W-500W,GPU达到1000W以上。GPU服务器的热密度更高,动辄达到数十千瓦。简而言之,风冷已被推向极限,需要从液冷寻求答案。
OMDIA调研显示,2022到2023年单相冷板液冷爆发强劲需求,市场同比增长70%,并在2024年保持其增长速度。相比之下,两相浸没液冷由于应用限制和供应链不成熟,略显滞后。由于背板与冷板液冷的良好协同,正在以40-50%惊人增速扩张。目前,液冷已占据数据中心冷却市场的16%,预计到2027年占比将会达到三分之一。
在大型数据中心,液冷技术更为重要,但这并不代表风冷会被完全取代。关于此问题,Uptime做了相关调研,结果显示超过75%的人认为,3年内,风冷的市场主导地位不会被动摇,但随着液冷技术应用不断成熟,液冷将逐渐成为主流方案。
无论是现在,还是可预见的未来,风冷仍将继续存在。即使在面向人工智能的高性能服务器中,并非所有IT都与液冷兼容,在可预见的未来,仍将继续采用风液混合的方式。
374