热管理工具软件

向液冷过渡的AI服务器

向液冷过渡的AI服务器

      生成式人工智能带来了众多创新应用,推动了对数据中心计算的需求,从而催化了散热架构的发展。尽管风冷技术已经成熟,但其散热上限约为10~15kW。这种局限性促使人们转向混合解决方案,例如“水冷+风冷”和液冷耗散系统。认识到这一趋势,科技行业主张加快政府对电力使用效率(PUE)的监管,以符合全球标准。

目前,风扇风冷系统仍然是服务器中的主要散热解决方案,利用该技术的成熟度及其成本效益,尤其是在非高速计算设置中。然而,芯片不断升级的功率需求需要更大的容量,这给空间受限的服务器机房(例如边缘数据中心)带来了挑战,尤其是边缘数据中心的服务器机房。此外,当芯片功率超过某些阈值时,风扇能耗会增加,导致噪音问题,并且通常需要额外的空调,从而影响整体能效和 PUE 合规性。

 

AI算力澎湃,“风水冷”过度

台湾热管理协会(TTMA)会长、英特尔液冷冷板工作组负责人Edward Kung指出,随着人工智能计算的快速兴起,液冷解决方案变得越来越重要,特别是对于产生500W或更高热量的CPU/GPU。

然而,现有服务器机房的环境限制阻碍了液体冷却解决方案的快速采用。Kung建议,如果不对机柜架构进行重大修改,许多供应商可能会采用“水冷+风冷”方法(风-水冷),功耗高达80kW。对于超过100kW的散热需求,涉及带有双组换热机柜的解决方案可能就足够了。然而,这种解决方案带来了规模挑战。因此,随着环境变得有利,高速计算将倾向于更密集的冷板液体冷却和浸没式解决方案。

向液冷过渡的AI服务器

常用冷却技术的比较。(图片来源:趋势力量)

 

冷板和浸没式液体冷却的挑战依然存在

冷板液体冷却具有出色的散热性能,是高密度、高速计算应用的理想选择。与浸没式液体冷却相比,它降低了能耗,增强了数据中心的可持续性,并拥有成熟的生态系统,材料兼容性问题更少。PUE的范围为1.2到1.08。然而,对泄漏的担忧仍然存在,因为要实现最佳能源效率,需要通过每个硬件组件铺设液体管道,从而增加设计和施工成本。

浸没式液体冷却同样提高了能源效率,而内部系统机制限制了散热。与冷板液体冷却不同,它消除了漏水问题。PUE可以达到1.08或更低,促进可持续性。尽管如此,浸泡式行业生态系统仍然不完整,对液体兼容性和保修问题的持续澄清。虽然两相浸没式冷却提供了卓越的热容量,但环境和可持续性要求阻碍了进展,导致人们专注于单相浸没式解决方案以提高效率。

 

亟待生态系统发展

为了应对市场趋势,英特尔率先推动散热行业的发展和标准化,与供应链合作伙伴合作,为可持续数据中心开发尖端解决方案。自 2019 年以来,英特尔一直积极参与制定冷板和浸没式液体冷却的OCP规范和标准,同时为全球数据中心液体冷却的采用制定参考设计文档。这些努力与冷却生态系统合作伙伴的合作相结合,加速了液体冷却解决方案与全球生态系统的集成。

在冷板领域,英特尔专注于重要组件规格、泄漏检测和机柜歧管设计。对于浸入式解决方案,它侧重于液体兼容性、设计和验证标准。Kung强调,随着AI服务器需求的激增,液冷技术将激增,特别是有利于HPC和AI服务器。然而,他强调,虽然液体冷却代表着未来,但并非所有解决方案都将完全依赖它,并强调了与客户规格、期望和目标保持一致的重要性。

版权声明:部分内容由互联网用户自行发布,该文仅代表作者本人观点。如有不适或侵权,请联系我们进行反馈,一经查实本站将予以删除。

给TA打赏
共{{data.count}}人
人已打赏
热管理技术

并行流道液冷板结构设计和散热性能分析

2024-5-26 10:19:44

热管理技术解决方案

大功率器件的散热装置设计

2024-6-15 17:17:46

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索