Supermicro推出配备NVIDIA HGX及PCIe型H100 8-GPU尖端服务器系统,适用于AI 训练、深度学习、HPC和生成式AI,加速AI和元宇宙时代到来从云端到边缘完善的系统组合,支持NVIDIA HGX H100系统、L40和L4 GPU及OVX 3.0系统Super Micro Computer, Inc. (NASDAQ:SMCI) 为AI/ML、云端、存储和5G/智能边缘应用的全方位IT解决方案供应商,宣布其配备最新NVIDIA HGX H100 8-GPU系统的顶级全新GPU服务器开始出货。该服务器整合了最新的NVIDIA L4 Tensor Core GPU至从边缘到数据中心的各种应用优化服务器中。
Supermicro总裁暨首席执行官梁见后(Charles Liang)表示:"Supermicro提供业界最全面的 GPU系统产品组合,包含 8U、6U、5U、4U、2U 和 1U 外形尺寸的服务器,并支持全系列新NVIDIA H100 GPU的工作站和SuperBlade系统。 通过这款NVIDIA HGX H100 Delta-Next 服务器,客户将获得相较上一代 AI 训练应用9倍的性能提升。 我们的GPU服务器采用创新的气流设计,能全面降低风扇转速、噪音和功耗,进而降低总拥有成本(TCO)。 此外,对于正在寻找符合未来需求的数据中心的客户,我们也为其提供完整的机柜级(rack-scale)液冷选项。 "Supermicro的高性能新型8U GPU服务器现已大量出货。 这款全新 Supermicro 8U 服务器特别针对AI、DL、ML和HPC工作负载进行了优化,搭载能达到高GPU-to-GPU通信的NVIDIA HGX H100 8-GPU,使用高速NVIDIA NVLink? 4.0技术、NVSwitch 互连,以及 NVIDIA Quantum-2 InfiniBand 和 Spectrum-4 以太网,从而大幅突破 AI 的障碍。 此外,Supermicro还提供多种性能优化的GPU服务器配置,包括直连/单根(single-root)/ 双根(dual-root) CPU-to-GPU,另外还有前置或后置 I/O 机型,在标准和OCP DC机柜 配置中使用AC与DC 电源。 Supermicro X13 SuperBlade? 机壳可在一个 8U 机壳内放入 20 个 NVIDIA H100 Tensor Core PCIe GPU 或 40 个 NVIDIA L40 GPU,6U机壳则最多可使用10个NVIDIA H100 PCIe GPU或20个NVIDIA L4 TensorCore GPU。 这些新系统为运行NVIDIA AI 平台软件层 NVIDIA AI Enterprise提供理想的优化加速功能。免责声明: 凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处。非本网作品均来自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。