更新 : 2025/05/19 14:00:00
要点
华硕今天在 Computex 2025 上宣布,推出 NVIDIA Enterprise AI Factory 验证设计,以先进的华硕 AI POD 设计和优化的参考架构为特色,引领下一波智能基础设施浪潮。这些解决方案作为 NVIDIA 认证系统,可用 NVIDIA® Grace Blackwell、HGX和MGX平台,支持风冷和液冷数据中心。这些创新产品专为加速各种规模的代理AI应用而设计,具有出色的可扩展性、性能和热效率,是寻求以出色的速度和规模部署AI的企业的理想选择。
经过验证的英伟达企业AI工厂与华硕AI POD设计为在内部 NVIDIA Blackwell 平台上开发、部署和管理代理AI、物理AI和HPC工作负载提供了指导。它专为企业 IT 而设计,可提供加速计算、网络、存储和软件,帮助实现更快的 AI 工厂部署,同时降低部署风险。
以下是参考架构设计,可帮助客户采用经认可的实践,为各种应用提供知识库和标准化框架。
针对大规模计算,先进的 ASUS AI POD 由 NVIDIA GB200/GB300 NVL72 机架加速,并集成了 NVIDIA Quantum InfiniBand or NVIDIA Spectrum-X Ethernet 网络平台,采用液冷技术,可在8个机架上实现无阻塞的576个GPU集群,或采用风冷解决方案,支持一个机架上的72个GPU。这种超密集、超高效的架构重新定义了AI推理计算的性能和效率。
华硕推出符合 NVIDIA MGX 标准的机架设计,ESC8000 系列配备双 Intel® Xeon® 6 处理器和 RTX PRO™ 6000 Blackwell 服务器版,以及 NVIDIA ConnectX-8 SuperNIC - 支持高达 800Gb/s 的速度或其他可扩展配置 - 为先进的 AI 工作负载提供出色的可扩展性和性能。与 NVIDIA AI Enterprise 软件平台的集成可提供高度可扩展的全栈服务器解决方案,满足现代计算的苛刻要求。
此外,经过华硕优化的 NVIDIA HGX 参考架构可提供出色的效率、散热管理和GPU密度,用于加速AI微调、LLM推理和训练。该集中式机架解决方案基于配备 NVIDIA HGX B300 的华硕 XA NB3I-E12 或嵌入 NVIDIA HGX B200 的 ESC NB8-E11,可为液冷或风冷机架系统提供强大的制造能力,确保及时交付、降低总体拥有成本(TCO)并实现一致的性能。
华硕基础架构与英伟达代理AI展示集成,支持自主决策AI,具有实时学习和可扩展AI代理的特点,适用于各行业的业务应用。
作为AI基础架构解决方案的全球领导者,华硕提供完整的数据中心,包括风冷式和液冷式两种选择--提供强大的性能、效率和可靠性。我们还提供超高速网络、布线和存储机架架构设计,以及NVIDIA认证存储、RS501A-E12-RS12U 和 VS320D 系列,以确保 AI/HPC 应用的无缝可扩展性。此外,先进的基于 SLURM 的工作负载调度和 NVIDIA Quantum InfiniBand 网络的 NVIDIA UFM Fabric 管理可优化资源利用率,而 WEKA 并行文件系统和华硕 ProGuard SAN 存储可提供高速、可扩展的数据处理。
华硕还提供全面的软件平台和服务,包括华硕远程管理中心(数据中心版)和华硕基础架构部署中心(AIDC),确保无缝开发、协调和部署AI模型。经过华硕 L11/L12 验证的解决方案通过出色的部署和支持,使企业能够放心地大规模部署AI。从设计到部署,华硕是下一代AI工厂创新值得信赖的合作伙伴。
深入了解 ASUS AI POD 搭载 NVIDIA GB200 NVL72:ESC NM2N721-E1 | 华硕服务器
深入了解 ASUS AI POD 搭载 NVIDIA GB300 NVL72:ASUS AI POD 搭载 NVIDIA GB300 NVL72
深入了解 NVIDIA 认证系统: ASUS NVIDIA 认证系统