随着机架密度的飙升,数据中心冷却已成为该行业日益严峻的挑战。为了满足人工智能等工作负载日益增长的需求,Supermicro 推出业界首款NVIDIA HGX H100 8和4-GPU H100液冷服务器,降低数据中心电力成本40%液体冷却大型AI培训基础设施是一套整体机架集成解决方案,可以加快部署速度、提高性能,降低环境总成本。
Supermicro, Inc是云计算、AI/ML、存储和5G /边缘整体IT解决方案提供商,继续使用液冷NVIDIA HGX H100机架式解决方案扩展其数据中心产品。先进液冷技术完全由 Supermicro开发,可以缩短整个设备的交付周期,提高性能,降低运营费用,同时显著降低数据中心电源利用率。与空气冷却数据中心相比,使用 Supermicro液冷解决方案的数据中心估计可节省40%的电力。此外,与现有数据中心相比,直接冷却成本可降低86%。
Supermicro 总裁兼首席执行官 Charles Liang 表示:"Supermicro继续引领行业,支持全球人工智能工作负载和现代数据中心的苛刻需求。我们的创新 GPU 服务器,采用我们的液冷技术,显著降低了数据中心的电源需求。根据实现当今快速发展的大规模 AI 模型所需的功率,优化 TCO 和环境总成本(TCE)对数据中心运营商至关重要。我们在设计和构建整个高性能服务器机架方面拥有经过验证的专业知识。为机架级从零开始设计这些GPU系统,采用液冷方式,具有超高性能和效率,可简化部署过程,因此,我们能够在较短交付时间内满足客户要求。