专为 AI 推理时代而打造

ASUS AI POD 搭载 NVIDIA GB300 NVL72

ASUS AI POD 搭载 NVIDIA GB300 NVL72,将 72 个 Blackwell Ultra GPU 和 36 个 Grace™ CPU 集成到液冷机架式平台中,旨在将 AI 工厂扩展到全新的水平。专为测试时缩放和先进的AI推理而设计,提供推动新一代生成式AI、大语言模型和科学突破所需的计算密度和效率。
数据中心服务器机架,标题为“为AI推理时代而生”,重点展示华硕与英伟达的基础设施解决方案。

NVIDIA Blackwell Ultra GPU 突破算力瓶颈

NVIDIA GB300 Grace Blackwell Ultra 超级芯片具有 2080 亿个晶体管,采用双倍光刻极限尺寸的裸片,通过 10 TB/s 的片间互联技术连接成一块统一的 GPU。与 NVIDIA Blackwell GPU 相比,具备 288GB HBM3e 和 1.5 倍的 AI 计算能力,可实现更大的上下文窗口、更快的推理速度和突破性的可扩展性,为下一代 AI 模型提供高达 NVIDIA Hopper 平台 50 倍的推理性能。
XA GB721-E2 提供无缝的 GPU 间通信和加速的数据传输,构建统一的高性能架构。这些技术共同提供快速、高效且可靠的连接能力,为AI超算基础设施释放可扩展的性能。
GPU组件特写,展现其为人工智能工作负载提供的高级计算能力 GPU组件特写,展现其为人工智能工作负载提供的高级计算能力

第五代 NVIDIA NVLink™

实现无缝的GPU间通信,释放全新水平的推理性能。
数据中心机架内配备专为AI训练和推理优化的华硕服务器。

NVIDIA Quantum-X800 InfiniBand /
NVIDIA Spectrum-X™ Ethernet

搭配 NVIDIA ConnectX®-8 SuperNIC™ 提供出色的 RDMA 技术,实现峰值 AI 工作负载效率。
NVIDIA NVLink交换机与网络技术,加速数据吞吐量。 NVIDIA NVLink交换机与网络技术,加速数据吞吐量。

NVIDIA® BlueField®-3

通过云网络和敏捷可组合存储,实现基础设施转型。

全面解决方案,加速产品上市

除了全面的硬件配置外,华硕还针对 ASUS AI POD 提供完整的软件、存储、网络、散热及管理服务套件。这种一体化方案可简化运营流程,助力快速部署,并赋能企业加速人工智能创新,缩短产品上市周期。

针对工作负载优化的存储解决方案

华硕AI POD融合全闪存实现高性能,采用经济高效的混合架构满足可扩展容量需求,并提供从边缘到云端的企业级弹性保障。该方案专为高性能计算与AI数据驱动型工作负载优化,同时提供适用于各类应用场景与平台的企业级存储解决方案。
  • 专为AI训练工作负载优化的高容量存储服务器

    全闪存
    热分层存储

    AI / HPC

    RS501A-E12-RS12U

    了解更多
  • 专为高性能计算和推理任务设计的平衡存储系统。

    混合存储
    冷分层存储

    AI / HPC

    OJ340A-RS60

    了解更多
  • 支持多机架AI部署的可扩展存储解决方案

    闪存和混合
    统一存储

    企业虚拟化 , 数据库

    VS320D-RS26U + JBOD

    了解更多
  • 适用于各类企业人工智能应用的紧凑型存储系统。

    混合
    统一存储

    企业数据备份 , 监控

    VS320D-RS12U + JBOD

    了解更多

优化效率,减少热量

水冷架构

NVIDIA GB300 Grace Blackwell Ultra 超级芯片具有 2080 亿个晶体管,采用双倍光刻极限尺寸的裸片,通过 10 TB/s 的片间互联技术连接成一块统一的 GPU。与 NVIDIA Blackwell GPU 相比,具备 288GB HBM3e 和 1.5 倍的 AI 计算能力,可实现更大的上下文窗口、更快的推理速度和突破性的可扩展性。NVIDIA GB300 NVL72 为下一代 AI 模型提供高达 NVIDIA Hopper 平台 50 倍的推理性能。
  • 服务器散热系统剖面图:优化效率,减少热量

    液冷至风冷解决方案

    适用于设施紧凑的小型数据中心。
    专为满足现有风冷数据中心的需求而设计,可轻松集成到现有基础设施中。
    非常适合需要立即实施和部署的企业。

  • 华硕机架式服务器,采用优化气流与先进散热设计

    液冷至冷解决方案

    适用于工作负载高的大型、广泛的基础设施。
    提供长期、低PUE值,并随时间推移保持持续的能源效率。
    降低总体拥有成本,实现更大价值和经济高效的运营。

经验证的拓扑
实现可扩展的AI基础设施

华硕AI POD搭载NVIDIA GB300 NVL72,采用经过验证的参考架构,可简化网络拓扑部署,确保性能可预测性并实现简易扩展。
更多服务 右箭头
  • 带有向上箭头和齿轮的条形图图标,代表预测性能

    可预测的性能

    为高要求的人工智能工作负载提供保障带宽和低延迟

  • 网络中连接节点的图标,代表简化的集成

    简化缩放

    经过验证的设计确保从机架到集群的平稳扩展

  • 齿轮图标连接分层线条,象征部署与可扩展性

    部署效率

    参考架构可加速部署并降低复杂性

工程师正在服务器机架上配置人工智能基础设施系统。

加速上市时间

华硕自带软件和控制器

NVIDIA NVLink 交换机配备144个接口,交换容量达14.4 TB/s,可在单个NVLink域内将九台交换机与72块NVIDIA Blackwell Ultra GPU上的NVLink接口互连。
  • 华硕控制中心(ACC)服务器监控与人工智能管理软件界面

    ASUS Control Center (ACC)

    集中式IT管理软件,用于监控和控制华硕服务器

    • Power Master - 为数据中心提供有效的能源控制
    • 轻松搜索和控制设备
    • 轻松快捷地增强信息安全
  • 什么是搭载 NVIDIA GB300 NVL72 的 ASUS AI POD?
    什么是搭载 NVIDIA GB300 NVL72 的 ASUS AI POD? 搭载 NVIDIA GB300 NVL72 的 ASUS AI POD 是一款机架级AI基础设施解决方案,集成了72 NVIDIA Blackwell Ultra GPU和36 NVIDIA Grace CPU,可为大规模LLM推理、训练及AI推理提供强大算力支持。