Logo

SemiVoice

  • 华硕AI POD搭载36颗NVIDIA Grace CPU和72颗Blackwell GPU,三月发货

    tweaktown

    02/04/2025, 09:02 AM UTC

    ➀ 华硕AI POD搭载NVIDIA GB200 NVL72平台,计划于2025年3月发货。

    ➁ 它配备了26颗NVIDIA GRACE CPU、72颗Blackwell GPU以及先进的冷却系统,显著提升了AI性能。

    ➂ 它专为数据中心设计,支持大规模AI训练和推理,并提供全面的服务解决方案。

    华硕(ASUS)宣布了一款名为AI POD的新产品,该产品将于2025年3月开始发货。这款设备集成了最新的AI硬件和先进的冷却技术,旨在为数据科学家和研究人员提供强大的计算能力。

    什么是AI POD?

    AI POD是一款专为数据中心设计的强大计算设备。它搭载了NVIDIA GB200 NVL72平台,包括26颗NVIDIA GRACE CPU和72颗Blackwell GPU。这些处理器和显卡都是目前市场上最先进的AI硬件之一,能够显著提升AI模型的训练和推理速度。

    强大的硬件配置

    AI POD的核心是NVIDIA GB200 Grace Blackwell Superchip,这是一款专为高性能计算(HPC)设计的超级芯片。它采用了第五代NVIDIA NVLink互连技术,可以实现低延迟通信,带宽高达14.4 TB/s。每个Blackwell GPU都包含两个die,通过10 TB/s的芯片间互连技术连接,提供了比NVIDIA H100 Tensor Core GPU高30倍的语言模型推理能力和4倍的语言模型训练性能。

    先进的冷却技术

    为了保证高性能运行,AI POD还配备了先进的冷却系统。它支持液气冷却和液液冷却两种方式,可以有效提高能效。冷却系统包括CPU和GPU冷板以及冷却液分配装置,确保在高强度计算时也能保持稳定的工作温度。

    应用场景

    AI POD专为需要进行大规模AI训练和推理的数据中心设计。它可以用于训练万亿参数的语言模型,并实现实时的AI推理。此外,华硕还为用户提供从设计到部署的一站式服务,包括测试和现场部署。

    如何参与测试

    华硕正在寻找愿意尝试并探索AI计算潜力的创新者。如果您有兴趣参与AI POD的在线测试项目,请填写此表格。华硕将为您提供免费的AI POD,并帮助您进行测试和部署。

    更多信息

    更多关于AI POD的信息,请访问官方产品页面。

    ---

    本文由大语言模型(LLM)生成,旨在为读者提供半导体新闻内容的知识扩展(Beta)。

Related Articles (CSV)

SemiVoice 是您的半导体新闻聚合器,探索海内外各大网站半导体精选新闻,并实时更新。在这里方便随时了解最新趋势、市场洞察和专家分析。
📧 [email protected]
© 2025