当NVIDIA B200 GPU将单芯片算力推至20PetaFLOPS时,数据中心的液冷革命也在如火如荼的进行中。Supermicro作为全球AI服务器龙头,其液冷方案迭代已与GPU性能形成了共生进化。这也揭示了数据中心未来发展的方向——AI算力革命的上半场拼芯片性能,下半场则更注重能源效率。
过去3年,Supermicro营收增长4倍,主要动能就来自于液冷技术(DLC)的成熟推进。在Computex 2025期间,?Supermicro创始人/CEO梁见后接受<与非网>等媒体采访时表示,“2023年,Supermicro成为全球首家量产交付NVIDIA DGX H100 HGX全栈解决方案的厂商,较竞品商业化部署提前6个月。2024年,我们再次以行业第一的速度推出H200解决方案,并部署了全球80%的DLC产品,累计交付超4000个机架。”
进入2025年,Supermicro又推出了下一代AI基础设施范式——DCBB数据中心模块化解决方案,以帮助构建AI数据中心降低构建和运营成本。
该方案涵盖最新的系统级、机架级或机架可插拔级GPU解决方案、优化的存储解决方案、各类网络交换机,以及完整的冷却基础设施(包括DLC直接液冷、水塔、冷冻门等)和电力机架及备电方案;此外,DCBB还提供网络设计、现场安装部署、线路布设管理等一系列解决方案。
梁见后表示,虽然许多技术人才具备自行设计数据中心冷却方案等能力,但并非所有企业都拥有这样全面的人才储备。这也正是SUpermicro提供DCBB方案的主要原因,希望为企业客户提供端到端的整体解决方案,让AI数据中心建设过程变得像搭乐高积木一样简单快捷。
据了解,DCBB能显著提升效率,大幅缩短交付时间(TTD)和上线时间(TTO)。过去可能需要一年才能完成的数据中心建设或升级,现在只需数月。这不仅意味着更快、更便捷,通过模块化和规模化生产带来的成本优势,DCBB还能帮助客户节省总资本支出(包括运营成本)甚至高达30%。
DLC-2第二代直接液冷技术,功耗降低达40%
Computex 2025期间,Supermicro宣布推出了下一代液冷DLC-2 系列,可将数据中心功耗降低达40%。同时,这些先进技术能够加快尖端液冷 AI 基础设施的部署速度,缩短上线时间,同时使总拥有成本降低达 20%。
据了解,DLC-2实现高效能和低成本的关键,在于对服务器组件近乎全面的冷板覆盖,这显著减少了对高速风扇的需求,从而降低了能耗和噪音。在降噪效果方面,DLC-2的机架噪音可降至约50分贝,低于此前约73分贝的噪音水平。此外,DLC-2还能够提供高达98%的系统级热能捕捉,可将入口液体温度提高到45°C。更高的入口温度消除了对冷冻水的需求、冷却器压缩机设备成本和额外的电力使用,节省了高达40%的数据中心用水量。
“DLC-2代表了Supermicro在直接液冷解决方案的重大进步,显著提升了数据中心的能效和成本效益”,梁见后表示。
新的Supermicro DLC-2解决方案支持新的4U前端I/O NVIDIA HGX B200 8-GPU系统,机架内冷却液分配单元(CDU)的容量增加,可消除每个机架产生的250kW热量。DLC-2还利用垂直冷却液分配歧管(CDM)来去除热液体,并将较冷的液体返回到整个机架的服务器。机架空间需求的减少使得可以安装更多的服务器,从而提高了每单位占地面积的计算密度。
结合液冷服务器机架和集群,DLC-2还提供混合冷却塔和水塔作为数据中心构建模块的一部分。混合式冷却塔将标准干式冷却塔和水塔的特点结合在一起。这在季节性温度变化较大的数据中心位置尤其有益,可以进一步减少资源使用和成本。
目前,Supermicro适用于NVIDIA B200 GPU的基于DLC-2直接液态冷却技术的机架已出货,针对Blackwell B300和GB300的DLC-2方案也已做好准备。
如何布局AI服务器未来发展?
梁见后表示:“随着液冷数据中心需求将占全球部署量的30%,传统散热方案已无法满足AI算力爆发式增长。DLC-2的推出不仅降低40%电力成本,更通过模块化架构推动液冷技术普及化——这是AI基础设施迈向可持续发展的关键一步。”
如何进一步满足市场需求并推动液冷技术布局?他指出,一方面,模块化解决方案能够为数据中心客户带来效率提升,通过快速交付实现规模效应;另一方面,液冷技术是重要的差异化优势,2024年全球部署超2000个液冷机架,如今有了升级版的DLC方案,能够更好地服务传统客户,以及大型OEM、大型CSP和数据中心运营商。通过足够灵活的产能,提供更多定制化、个性化的配置,快速响应全球客户需求。
随着生成式AI与大模型训练推动算力需求继续增长,液冷成为超万卡集群的刚性配置。在这一趋势下,梁见后对通用AI服务器发展持乐观预期,并期待公司未来三年能够实现3-5倍增长。
来源: 与非网,作者: 张慧娟,原文链接: /article/1843402.html