企业 AI 工厂的基础建设模块

NVIDIA Blackwell HGX™ B200 8-GPU AI 服务器

ASUS ESC-NB8-E11 采用 NVIDIA Blackwell HGX™ B200 8-GPU,并配备两个第5代英特尔至强® 可扩展处理器,借助 NVIDIA NVLink™ 实现 GPU 之间直接互连,提供 1,800GB/s 带宽,实现优化扩展。其采用专用的单 GPU 对单 NIC 拓扑,最多支持 8 个 NIC,在计算密集型工作负载期间提供高吞吐量。ESC-NB8-E11 专为作为企业 AI 工厂的基础建设模块而设计,可加速计算、网络、存储和软件整合,实现更快、更可靠的 AI 工厂部署,同时降低风险并提高营运效率。

推动数据中心进入加速计算新时代

NVIDIA Blackwell HGX™ B200

NVIDIA HGX B200 专为严苛的 AI、数据分析和高性能计算 (HPC) 工作负载而设计,以新一代的加速计算和生成式 AI 功能改变数据中心。搭载强大的 NVIDIA Blackwell GPU 和超高速互连技术,可提供高达 1.4TB 的 HBM3E 内存,实现出色的数据吞吐量,并通过 NVSwitch™ 提供 1800GB/s 的 NVLink 带宽,实现无缝的 GPU 通讯。
在 GPT-MoE-1.8T 等大规模模型工作负载中,NVIDIA B200 NVL8 实现了性能跃进:
直方图比较每秒 token 数的训练吞吐量。使用 32,000 个 GPU 进行训练时,NVIDIA B200 NVL8 的性能比 NVIDIA H200 NVL8 快 1.8 倍。

大规模训练

使用 32,000 个 GPU 进行训练时,B200 NVL8 的性能比 H200 NVL8 快 1.8 倍。
直方图比较每秒 token 数的推理吞吐量。使用 32 个 GPU 进行推理时,NVIDIA B200 NVL8 的性能比 NVIDIA H200 NVL8 大幅提升 5 倍。

大规模推理

使用 32 个 GPU 进行推理时,B200 NVL8 的性能比 H200 NVL8 大幅提升 5 倍。
NVIDIA HGX B200 8-GPU AI 服务器的 3D 分解图,显示 GPU、CPU、NIC 和电源等关键组件,并标示系统配置和气流 NVIDIA HGX B200 8-GPU AI 服务器的 3D 分解图,显示 GPU、CPU、NIC 和电源等关键组件,并标示系统配置和气流

1,800 GB/s 带宽
通过 NVLink 进行 GPU 对 GPU 直接互连

PCIe 5.0 交换板 (switch board) 可更快
连接存储设备、显卡和 NIC

10 个 NVMe 存储设备
- 前面板 8 个
- 后面板 2 个

模块化和免工具设计
搭配滑轨式设计和手把

独立气流通道设计
搭配双转子风扇模块

NVIDIA Blackwell HGX B200 服务器前视图,显示包含 8 个 GPU、NIC 插槽的系统配置,并标示气流方向,说明硬件可维修性和散热路径。 NVIDIA Blackwell HGX B200 服务器前视图,显示包含 8 个 GPU、NIC 插槽的系统配置,并标示气流方向,说明硬件可维修性和散热路径。

GPU 滑架风扇 8080 x 15 个

NVMe x 8

双节点服务器系统后视图,显示已标示的组件,包括两个服务器节点 (节点 1 和节点 2)、OCP 3.0 插槽、USB 3.0 端口、1-Gigabit 以太网络、10-Gigabit 以太网络和电源。左侧的导览选项包括系统配置、面板配置和方块图。 双节点服务器系统后视图,显示已标示的组件,包括两个服务器节点 (节点 1 和节点 2)、OCP 3.0 插槽、USB 3.0 端口、1-Gigabit 以太网络、10-Gigabit 以太网络和电源。左侧的导览选项包括系统配置、面板配置和方块图。

NVMe x 2

1 x PCIE Gen4 x 8

8 x PCIe Gen5 x16 (LP)

2 x PCIE Gen5 x 16

PSU x 6

模块化设计,减少线材使用

轻松排除故障,并达到导热优化

模块化设计大大减少了线材使用,可缩短系统组装时间、减少整线需求,并藉由降低气流阻塞风险,达到导热优化。
服务器模块化主板设计的特写影像,显示通过 GPU 直接互连和优化的散热布线,将线材使用降至最低,从而提高可维护性和气流效率。

先进的 NVIDIA 技术

充分使用 NVIDIA GPU、DPU、NVLink、NVSwitch 和网络技术

ESC NB8-E11 结合第四代 NVLink 和 NVSwitch 技术,以及 NVIDIA ConnectX-7 SmartNIC,加速 AI 和数据科学发展。此外还运用 GPUDirect® RDMA、NVIDIA Magnum IO™ 存储空间以及 NVIDIA AI 平台软件层的 NVIDIA AI Enterprise。
比较采用 PCIe 交换器和 NVSwitch 的服务器设计的拓扑图。HGX B200 架构使用 NVSwitch 实现完整的 GPU 对 GPU 带宽,并减少延迟瓶颈,图中以彩色编码的连接线和箭头显示。

优化的散热设计

双层 GPU 和 CPU 滑架可提升导热效率

ESC NB8-E11 采用流线设计,具有专属的 CPU 和 GPU 气流通道,可有效提升散热功能。双层 GPU 和 CPU 机箱设计可将热量排放到周围的环境空气中,提升导热效率、可扩展性和整体性能,改善能源效率,节省整体系统功耗。
显示优化散热设计的动画。双 GPU 和 CPU 服务器模块的俯视图,带有红色散热器,突显了从前到后的优化热流的热气排出路径。
显示优化散热设计的动画。双 GPU 和 CPU 服务器模块的俯视图,带有蓝色散热器,显示冷空气进气区以改善气流和散热效率。

5+1 电源

高电源效率

为降低运行成本,ESC NB8-E11 具备高效的散热设计和创新组件。80 PLUS® 钛金级电源采用 5+1 冗余配置,有效提供充足电力。
服务器中的 5+1 冗余电源模块,确保高效率和故障转移能力。

可维护性

提升 IT 营运效率

  • 符合人体工学的手把设计

    符合人体工学的手把设计

  • 免工具手旋螺丝

    免工具手旋螺丝

  • 转接卡固定扣

    转接卡卡扣

  • 免工具外盖

    免工具外盖

BMC

远程服务器管理

ASUS ASMB11-iKVM 是 ASUS 服务器管理解决方案,采用 ASPEED 2600 芯片组并执行于 AMI MegaRAC SP-X。此模块提供多种界面,可通过 WebGUI、智能平台管理界面 (IPMI) 及 Redfish® API 执行频外服务器管理。
进一步了解
ASUS BMC 开机时间比较图

IT 基础架构管理软件

通过单一仪表板简化 IT 营运

ASUS Control Center (ACC) 是一款远程 IT 管理软件应用程序,用于监控硬件和软件 IT 资产和库存状态,实现无缝的远程 BIOS 设定和更新、高效的 IT 诊断和故障排除,以及通过 Hotfix 更新强化安全性,让任何人都能更轻松管理服务器 IT 基础架构。
进一步了解
显示性能、警示和资源指标的 IT 基础架构管理软件仪表板。

硬件信任根解决方案

侦测、恢复、启动和保护

ASUS 服务器整合 PFR FPGA 做为平台信任根解决方案,可提供固件弹性以防止黑客取得基础设施的存取权。ASUS 安全解决方案符合 2018 年 NIST SP 800 193 规范。

* 平台固件弹性 (PFR) 模块必须在订购时指定并在原厂安装,并无单独出售。

TPM 2.0

ASUS 服务器还支持 TPM 2.0,可通过整合的加密密钥确保硬件安全,并定期更新固件以修补安全漏洞。
进一步了解产品支持列表

性能

第5代英特尔® 至强® 可扩展处理器

第5代英特尔® 至强® 处理器通过直接兼容的 LGA-4677 插槽,将平均通用性能提升高达 21%,显著改善 AI 推理和训练。这款创新强大的处理器加速了 AI、HPC、分析、网络、存储等领域的发展,并提供八个 DDR5-5600 内存通道,支持 2TB 容量、80 个支持 CXL 1.1 的 PCI Express® 5.0 通道,以及适用于 1P 和 2P 配置的 350W TDP,为未来的计算做好准备。
进一步了解 Intel Xeon 处理器周围环绕着六个内建加速器,包括 AMX、DSA、QAT、IAA、DLB 和 DSA,可针对特定工作负载提升性能。

* 加速器的可用性因 SKU 而异。