华硕AI POD搭载36颗NVIDIA Grace CPU和72颗Blackwell GPU,三月发货
02/04/2025, 09:02 AM UTC
华硕AI POD搭载36颗NVIDIA Grace CPU和72颗Blackwell GPU,三月发货ASUS AI POD with 36 NVIDIA Grace CPUs and 72 Blackwell GPUs shipping in March
➀ 华硕AI POD搭载NVIDIA GB200 NVL72平台,计划于2025年3月发货。
➁ 它配备了26颗NVIDIA GRACE CPU、72颗Blackwell GPU以及先进的冷却系统,显著提升了AI性能。
➂ 它专为数据中心设计,支持大规模AI训练和推理,并提供全面的服务解决方案。
➀ The ASUS AI POD, featuring the NVIDIA GB200 NVL72 platform, is set for March 2025 shipping.
➁ It boasts 26 NVIDIA GRACE CPUs, 72 Blackwell GPUs, and advanced cooling, offering significant AI performance enhancements.
➂ Designed for data centers, it supports large-scale AI training and inference, with ASUS providing full-service solutions.
华硕(ASUS)宣布了一款名为AI POD的新产品,该产品将于2025年3月开始发货。这款设备集成了最新的AI硬件和先进的冷却技术,旨在为数据科学家和研究人员提供强大的计算能力。
什么是AI POD?
AI POD是一款专为数据中心设计的强大计算设备。它搭载了NVIDIA GB200 NVL72平台,包括26颗NVIDIA GRACE CPU和72颗Blackwell GPU。这些处理器和显卡都是目前市场上最先进的AI硬件之一,能够显著提升AI模型的训练和推理速度。
强大的硬件配置
AI POD的核心是NVIDIA GB200 Grace Blackwell Superchip,这是一款专为高性能计算(HPC)设计的超级芯片。它采用了第五代NVIDIA NVLink互连技术,可以实现低延迟通信,带宽高达14.4 TB/s。每个Blackwell GPU都包含两个die,通过10 TB/s的芯片间互连技术连接,提供了比NVIDIA H100 Tensor Core GPU高30倍的语言模型推理能力和4倍的语言模型训练性能。
先进的冷却技术
为了保证高性能运行,AI POD还配备了先进的冷却系统。它支持液气冷却和液液冷却两种方式,可以有效提高能效。冷却系统包括CPU和GPU冷板以及冷却液分配装置,确保在高强度计算时也能保持稳定的工作温度。
应用场景
AI POD专为需要进行大规模AI训练和推理的数据中心设计。它可以用于训练万亿参数的语言模型,并实现实时的AI推理。此外,华硕还为用户提供从设计到部署的一站式服务,包括测试和现场部署。
如何参与测试
华硕正在寻找愿意尝试并探索AI计算潜力的创新者。如果您有兴趣参与AI POD的在线测试项目,请填写此表格。华硕将为您提供免费的AI POD,并帮助您进行测试和部署。
更多信息
更多关于AI POD的信息,请访问官方产品页面。
---
本文由大语言模型(LLM)生成,旨在为读者提供半导体新闻内容的知识扩展(Beta)。