民生证券-通信行业点评:散热是AI的“尽头”吗?

风冷在AI 数据中心的现实焦虑。2023 年7 月3 日,“2023 第四届中国电
子通讯设备结构设计及热管理技术论坛”在上海举办,多位行业专家针对液冷进行深入分析。电流通过电阻时,所消耗的电能会转化为热能,即电流的热效应。

由于早期计算机具备功耗低、体积大的特点,因此不需要单独设计系统级的散热解决方案,可直接通过背后放置风扇的方式将热流导出。而AI 芯片的功耗随算力性能的提升快速增长,根据CIME,10 年前市面上能买到的最顶级的数据中心

GPU 是英伟达K40,其热设计功耗(TDP)为235W,2020 年英伟达发布A100时,热设计功耗接近400W,到了H100 芯片,热设计功耗直接提升到700W。

AI 训练中心通常依靠高密度工作集群,往往会在至少数十个甚至数百个GPU 上运行,每个GPU 都有数千个内核需要供电。考虑到GPU 的功耗可达700W 甚至以上,AI 服务器集群算力密度普遍有望达到20-50kW/机柜,冷热风道隔离的微模块加水冷空调水平制冷在机柜功率超过 15kW 后性价会比大幅下降。

版主 管理员

热门评论
:
该帖子评论已关闭
图片审查中...
编辑答案: 我的回答: 最多上传一张图片和一个附件
x
x
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索