Supermicro 推出业界首款NVIDIA HGX H100 8和4-GPU H100液冷服务器,降低数据中心电力成本40%
液体冷却大型AI培训基础设施是一套整体机架集成解决方案,可以加快部署速度、提高性能,降低环境总成本
Supermicro, Inc.(纳斯达克代码:SMCI)是云计算、AI/ML、存储和5G /边缘整体IT解决方案提供商,继续使用液冷NVIDIA HGX H100机架式解决方案扩展其数据中心产品。 先进液冷技术完全由 Supermicro开发,可以缩短整个设备的交付周期,提高性能,降低运营费用,同时显著降低数据中心电源利用率。 与空气冷却数据中心相比,使用 Supermicro液冷解决方案的数据中心估计可节省40%的电力。 此外,与现有数据中心相比,直接冷却成本可降低86%。
Supermicro 总裁兼首席执行官 Charles Liang 表示:"Supermicro继续引领行业,支持全球人工智能工作负载和现代数据中心的苛刻需求。 我们的创新 GPU 服务器,采用我们的液冷技术,显著降低了数据中心的电源需求。 根据实现当今快速发展的大规模 AI 模型所需的功率,优化 TCO 和环境总成本(TCE)对数据中心运营商至关重要。 我们在设计和构建整个高性能服务器机架方面拥有经过验证的专业知识。 为机架级从零开始设计这些GPU系统,每张采用液冷方式,具有超高性能和效率,可简化部署过程,因此,我们能够在较短交付时间内满足客户要求。"
Supermicro GPU 服务器相关更多信息,请访问:htt ps://www.supermicro.com/en/products/gpu
AI 优化机架采用Supermicro最新产品系列,包括Intel和AMD服务器产品系列,可以以标准工程模板快速交付,或根据用户独特要求轻松定制。 Supermicro 继续提供业界最广泛的产品线,提供性能最高的服务器和存储系统,以解决复杂的计算密集型项目。 通过机架式集成解决方案,客户有信心和能力将机架插入、连接至网络,与他们自己管理技术相比,效率提高。
这款顶级液冷 GPU 服务器包含双 Intel 或AMD CPU以及8个或4个互连NVIDIA HGX H100 Tensor Core GPU。 使用液冷可将数据中心40%功耗,从而降低运营成本。 此外,这两款系统都大大超过了上一代NVIDIA HGX GPU 设备系统,与当今大型变压器型号相比,由于 GPU-GPU 互连速度更高和采用基于 PCIe 5.0的网络和存储,性能和效率提高30倍。
免责声明: 凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处。非本网作品均来自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。