未来AI服务器:搭载NVIDIA下一代Rubin Ultra AI GPU,机架密度达1000kW+
11/25/2024, 05:51 AM UTC
未来AI服务器:搭载NVIDIA下一代Rubin Ultra AI GPU,机架密度达1000kW+AI servers of the future: 'rack density' of 1000kW+ with NVIDIA's next-gen Rubin Ultra AI GPUs
➀ 由于NVIDIA即将推出的Rubin Ultra AI GPU和HBM4内存,预计AI服务器将消耗超过1000 kW的电力;➁ 当前AI服务器使用130-250 kW,但未来的Blackwell Ultra和Rubin AI服务器将需要250-900 kW,到2026-2027年,每个机架的GPU数量可能达到576个;➂ NVIDIA未来的AI服务器,配备Rubin Ultra AI GPU,到2028-2029+年将使用1000 kW或更多的电力。➀ AI servers are expected to consume over 1000 kW of power due to NVIDIA's upcoming Rubin Ultra AI GPU and HBM4 memory; ➁ Current AI servers use 130-250 kW, but future models like Blackwell Ultra and Rubin AI servers will require 250-900 kW, with up to 576 GPUs per rack by 2026-2027; ➂ NVIDIA's future AI servers with Rubin Ultra AI GPUs will use 1000 kW or more by 2028-2029+.
随着NVIDIA下一代Rubin Ultra AI GPU和新型HBM4内存的推出,预计未来的AI服务器将消耗超过1000 kW的电力。目前,AI服务器的功率密度在130 kW到250 kW之间,但未来的Blackwell Ultra和Rubin AI服务器将需要250-900 kW的功率,预计到2026-2027年,每个机架将配备高达576个GPU。
NVIDIA计划在2028-2029+年推出配备Rubin Ultra AI GPU的新AI服务器,其功率密度将达到1000 kW或更高。据数据中心公司Vertiv的分析,随着机架密度的提高,预计新的机架密度将在不同的工作负载应用和市场细分领域平均增加。
回顾过去,仅4年前,2020年AI服务器的平均机架密度约为8.2 kW,但随着对AI需求的不断增长,这一数字已经飙升至132 kW,这是由NVIDIA新推出的GB200 NVL72 AI机柜所实现的,它是历史上功耗最高的服务器。
---
本文由大语言模型(LLM)生成,旨在为读者提供半导体新闻内容的知识扩展(Beta)。