• 正文
  • 相关推荐
申请入驻 产业图谱

算力时代,科技创新打造智算技术新蓝图

08/28 09:55
1517
加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论

8月15日,由中讯邮电咨询设计院有限公司与CDCC联合主办的第14届中国数据中心设计高峰论坛在北京圆满举行。本届论坛以“创新设计 重构未来”为主题,聚焦技术创新,凭借权威视角、深度内容与专业阵容,探讨数据中心设计的新方向。

会上,中国联通网络通信科学家,中讯邮电咨询设计院有限公司总工程师钟志刚以《算力时代,科技创新打造智算技术新蓝图》为题发表演讲,描绘了智算时代的宏伟蓝图,为行业的技术创新指明了前行路径。

现根据演讲实录整理供读者参考学习(内容有删减)

人工智能时代,算力需求迅猛增长,单节点与数据中心的规模持续扩大,对供电与制冷的要求也日益提高。同时,千行百业对人工智能的需求日趋多元,网络承载架构正迎来深刻变革。我将从三个方面分享中国联通与中讯院在AIDC时代下的探索与实践。

一、风起云涌——国家政策导航与智算时代的变局挑战

自2020年“东数西算”工程启动以来,中国联通积极响应国家战略,围绕八大枢纽和十大集群,构建了“4+4+31+X+O”的AIDC整体布局,并通过打造智算算力承载网络,强化以网强算、能源配套与数据流通,为不同行业客户赋能。

中国联通已初步完成算力网络布局:底层是以“八纵八横”光缆网为基础的全光传输底座,提供100G-400G的高速传输能力;中层是IP承载网,通过智能城域网实现本地快速接入,并通过169互联网与产业互联网两大骨干网连接数据中心,提供高速带宽;上层则通过智能控制单元,实现从用户端到数据中心的算网资源编排和业务按需调度。

2025年,随着DeepSeek的迅速崛起,其高智能、高效率、全面开源和低成本优势,掀起了国内人工智能的新一轮浪潮。国内领先运营商,包括三大运营商及腾讯、阿里等主流云服务商纷纷引入并部署DeepSeek。与此同时,国产芯片厂商也迅速完成与DeepSeek的适配,打通了AI走进普通家庭与企业应用的“最后一公里”,为我国人工智能的广泛普及奠定了坚实基础。

AI中间件厂商推出了基于DeepSeek的国产算力加速服务,国内大模型企业也积极借鉴其成功经验优化自身模型。例如,阿里在DeepSeek基础上推出了千问2.5,中国联通则将DeepSeek与自研的“元景”大模型相融合,探索出大模型发展的新范式。

当前算力发展呈现出现两大显著变化:一方面,为应对大模型训练需求,算力正向集中化方向发展,训练与推理任务愈发集中于大型算力枢纽,其规模已从万卡级跃升至十万卡级,且未来仍将持续增长;另一方面,为贴近终端用户提供高效推理服务,算力资源也正以分布式形态部署,逐步下沉至省级和地市层面,通过推理一体机、训练一体机等形式敏捷交付。自DeepSeek推出以来,这一“集中+分布”的双轨模式正深刻重塑我国算力格局。

我们来分析人工智能及大型算力中心兴起对承载网络提出的新要求。

AI时代主要存在以下几类典型场景,其对承载网络的需求各有侧重:

首先是大规模训练场景,其对承载网络提出三方面要求:

第一,海量数据入算。企业需将训练数据快速上传至算力中心,要求承载网络提供高带宽、低时延的数据通道,以实现高效样本上传。

第二,数据中心(DC)间数据协同。跨DC训练成为常态,需保障数据中心之间的高速互联。

第三,存算拉远。为满足数据安全需求,部分企业希望数据保留本地,而训练在远端进行,这种模式下也需稳定可靠的跨地域传输能力。

其中,海量数据入算要求承载网络具备高带宽和低时延;而存算拉远和跨DC训练除带宽与时延外,更强调无损传输、负载均衡能力,尤其是在处理AI大规模数据流时,必须实现零丢包,这对承载网络提出了前所未有的挑战。

此外,在大规模推理场景中,承载网络需支持数据中心高并发处理及大容量出口带宽,同时面向客户提供快速可编程、可定义的灵活连接能力。总体而言,人工智能的快速发展正深刻改变运营商承载网络的架构与性能要求。

我们再来关注数据中心内部的变化。随着GPU、算力节点及集群整体性能的持续提升——以英伟达芯片为例,从A100?到GB200,单个GPU的功耗从400W大幅增至2700W,单机柜功耗也从33kW上升到120kW,这对AIDC基础设施提出了升级改造的迫切需求。

与此同时,国内GPU的处理能力也在不断进步,目前来看,在实现相同算力水平的情况下,国内技术生态的功耗普遍更高。因此,在未来大型AIDC的建设中,能源消耗与内部功耗管理将成为关键挑战,亟需在架构设计和能效优化层面实现突破。

在制冷方面,也将迎来显著变革。制冷需求随之发生根本性转变。过去通常采用房间级制冷,以整个机房为单位进行供冷;而随着单设备功耗持续上升,制冷方式正逐步从房间级向列间级、机柜级,乃至芯片级演进。随着芯片功耗不断提高,制冷必然越来越贴近热源,走向末端的精准化与高效化,这已成为不可逆转的趋势。此外,制冷技术也在从单一形态向多元混合形态发展。例如,风冷和液冷混合应用的“风液同源”模式正逐渐兴起,进一步体现了制冷系统在应对高密度算力场景下的持续演进与创新。

二、破局而立——联通的当下布局与核心能力矩阵

在AI驱动的制冷与算力新纪元下,数据中心及承载网络正面临一系列技术挑战与演进。我们对当前的整体考量如下:

首先是无损传输与流控技术。在智算中心内部,GPU与GPU、GPU与内存、节点与节点之间的高速互联均要求超大带宽与零丢包传输,这高度依赖于RDMA及负载均衡等技术。目前,这些技术在数据中心内部已相对成熟,但在跨数据中心的广域无损传输方面,仍存在技术瓶颈,国内多家企业与高校正在联合攻关。

其次,在数据中心之间的承载方面,为确保链路高效、安全与可控,多项新技术正被引入。例如基于IPv6+的随流检测技术,通过在报文头部植入检测标识,可实时感知链路传输质量;又如APN6等技术,通过携带业务属性与需求信息,使承载网络能够动态分配链路资源,满足差异化服务需求。此外,小颗粒切片等技术也在逐步应用,以增强网络灵活性。

设备层面也在持续升级。数据网络芯片的处理能力不断提升,400G平台已成熟商用,底层光传输400G已在三大运营商规模部署,并向800G及1.6T持续演进。在光缆方面,G.654.E光纤正逐步走向空心光纤。其利用反谐振效应将光限制在空气芯中传输,具备超低损耗与不受频谱限制的特性,将成为未来数据中心高速互联的重要基础。

在架构层面,运营商正积极推进传输与承载网络的转型升级,包括白盒化设备、可编程网络等方向,以构建端到端的智能调度能力。

此外,随着算力中心规模不断扩大,全光智联的光交换机也将广泛应用于数据中心内部,成为智算网络演进的重要技术路径。

在这一整体布局下,中国联通全力构建了“DCA—DCI—DCN”一体化贯通的算力智联网络体系——AINet,旨在提供高质量算网服务,全面保障AI应用的端到端体验。

在承载网架构方面,我们进行了系统性的升级:

在DCA(用户接入层),将传统BNG组网升级为BNC架构,通过控制与转发分离,实现了用户接入的动态化和快速化,能够灵活的提供差异化服务。

在DCI(数据中心互联层),基于现有本地承载+骨干承载网络,打造了IP+光、400G的链路,实现100G/400G混合统一调度,可依据业务需求灵活分配网络资源。

在DCN(数据中心网络层),为满足跨域协同计算尤其是无损传输需求,正将传统出口设备升级为智算网关,以提供更高性能的互联能力。

我们从底层光缆、下一代确定性网络,到广域无损传输能力,均实现了体系化升级。未来,智算网络将基于数字孪生技术,构建虚拟化可仿真的网络模型,依托业务驱动实现端到端的智能调度与服务按需随选。

在安全方面,我们系统构建了覆盖通用安全、运营安全与编排调度的多维防护体系。在基础网络层面,“八纵八横”骨干网络已全面延伸至各省,实现三路由出省高可靠架构,169骨干网与CUI网络持续优化并深入算力中心。在城域层面,通过“极简网络”架构,形成了核心机房、汇聚机房、综合接入机房关键节点的架构机房,围绕架构机房重组了光缆网,并退网了老旧设备,强化关键节点能力,基础设施安全性显著提升。

网络安全防御方面,我们正从两大方向持续加强:一是不断完善运营安全体系,二是构建面向算力网络的纵深防御机制,系统保障算力服务的可靠性与安全性。

在数据中心供电领域,预制式供电模式已成为行业主流。中讯院依托科技创新能力,自主研发了一体化电力模组OnePower,并已经有数百套在中国联通多个数据中心应用并且安全运行。该方案具有五大优势:占地面积节省高达50%,交付速度提升80%,大幅降低工程建设成本,投资造价显著优化,同时具备良好的智能化水平,充分满足当前绿色高效数据中心的建设需求。

在制冷领域,我们围绕新建数据中心及老旧机房改造中的痛点,开发了涵盖风冷、水冷及液冷等多种技术的全系列制冷解决方案。例如,VRM智能双循环(氟泵)多联模块化机房空调具备弹性多联、高效节能、安装灵活、节省占地等特点,可以有效解决老旧机房改造中室外机安装空间不足、室内外机落差受限等难题,已在多个项目中规模化应用。MHU空调采用了间接蒸发冷却技术并针对通信机房等应用场景进行小型化的创新研发,节能效果显著。

此外,间接蒸发冷却高效集成冷站将传统冷冻站中的设备集成于设备本身,通过工厂预制、现场快速装配,无需占用建筑内空间,可提高整体出柜率,特别适用于空间受限的场景。该技术已全面应用于中国联通广东韶关数据中心,融合AI寻优、高效节能的智能控制策略,经权威协会评审认定达到国际先进水平。

面向未来,我们也在液冷云舱等前沿方向积极布局,持续完善绿色制冷生态体系。

为确保数据中心实现持续节能与高效运行,仅凭优良设计仍不足够,运营管理尤为关键。为此,我们构建了覆盖从设计到运营全流程的数字孪生平台,在其中集成自研气流仿真技术与空调AI节能系统。该平台可实时预测数据中心内部温度分布,并基于预测结果自动调节空调送风策略,联合冷源系统AI调优,实现精准安全温控和全链路节能优化,有效降低整体能耗。

以上是我们为推动数据中心绿色高效运营所实施的关键举措。

三、向新而行——面向未 来的深度思考与蓝图规划

面向未来,我们部署了多个方面的技术蓝图。

首先,在承载网层面,尽管各家运营商已构建了较为成熟的承载网络,为应对智算、工业互联网等新业务需求,我们建议在现有网络基础上快速引入新型平面化架构。例如,可专为智算场景部署无损传输平面,为工业互联网提供确定性网络平面。此类业务目前节点规模虽不及传统通信网络,但通过专用平面即可高效满足其差异化需求,而这些平面均可基于白盒化、可编程的设备实现灵活构建与业务适配。

其次,应持续推进通信网络架构的开放化,尤其在光缆网络层面加快开放进程。承载网络的开放解耦是未来发展的必然方向,也将为网络注入新的创新活力。

在安全领域,从规则驱动到AI原生转变,同时隐私计算与数据安全融合,防止原始数据泄露。

此外,在AI自身模型安全加固方面,保证模型抗攻击可追溯可审计等,这是安全领域要做的工作。

数据中心的供电方面,为了高效提升空间利用率,基于固态变压器技术的全直流柔性供电将成为必然趋势。中讯院和中国联通在2024年部署了800V全直流供电技术以及固态变压器的研发。该技术可节省70%的设备空间,减少50%的电缆消耗,并提升整体能效3%。今年初,英伟达已宣布将于2027年全面在其数据中心部署800伏直流供电系统。中国联通在新型供电体系布局方面处于行业领先位置,我们研发的高功率密度的固态变压器样机成果将于今天发布。今天上午,我们与业内多位顶尖专家通力合作编纂的《数据中心800V直流供电技术白皮书》也将正式发布,希望通过对直流供电系统从理论到实践的深度解析,进一步促进数据中心直流供电技术的发展。

在未来的算力基础设施演进中,“算电协同”将成为关键变化之一,主要体现在两大维度:第一,广域层面的算电协同。核心在于将算力节点布局在市电资源充裕的区域,并通过算力调度平台实现跨地域的算力均衡与能效优化。同理,在数据中心内部,也可通过机架间算力调度实现能耗的动态平衡,提升整体能效。第二,园区级的实时协同。在大型算力园区中,应构建“源-网-荷-储”协同体系,实现“电随算动”的动态调控。算电协同不仅是实现绿色低碳算力的核心路径,也是未来新型数据中心的关键技术方向。

在制冷技术领域,当前正经历从风冷为主向液冷为主导的转型。目前,冷板式液冷因成本较低、技术成熟且稳定,已得到广泛应用。未来,喷淋式与浸没式液冷将成为重要发展方向。同时,风冷技术也将向“一专多冷”及风液协同等融合模式演进,以实现更高效的散热与能源利用。

数字孪生智能体将成为未来数据中心发展的核心方向之一。通过融合大数据与AI建模,可构建覆盖供电、制冷、IT设备等全系统的虚拟孪生智能体,实时模拟、预测和推演数据中心运行状态。该技术不仅可用于评估规划设计的能效与合理性,还能在实际运营中持续优化设备运行参数,全面提升数据中心的可靠性与能效水平。

以上是中国联通关于当前面临的挑战、现有能力布局以及未来战略思考的汇报。不足之处,恳请各位专家批评指正。谢谢大家!

相关推荐