更新 : 2025/03/19 04:00:00
关键点
ASUS AI POD 在 GTC 2025 上首次亮相: 下一代 AI 基础设施,搭载 NVIDIA GB300 NVL72 平台,同时宣布已获得关键订单,创下行业重要里程碑。
全面的 AI 解决方案展示: 完整的 AI 服务器阵容,包括由 NVIDIA Blackwell, NVIDIA HGX 和 NVIDIA MGX
面向企业的 AI 部署: 端到端的 AI 解决方案,从硬件到基于云的应用,确保无缝部署和效率。
突破性的 AI 超级计算机: 突破性的 AI 超级计算机 ASUS Ascent GX10,由 NVIDIA GB10 Grace Blackwell 超级芯片提供动力,适用于高达 2000 亿参数的 AI 模型。
2025年3月19日 — 华硕今日以钻石级赞助商参加 GTC 2025 大会(展位号:1523),展示了搭载 NVIDIA® GB300 NVL72 平台的 ASUS AI POD。公司同时宣布已获得关键订单,创下行业重要里程碑。
在 AI 创新的前沿,华硕还展示了搭载 Blackwell 和 HGX™系列的 AI 服务器。 其中包括搭载 NVIDIA B300 NVL16 的 ASUS XA NB3I-E12,搭载 NVIDIA DGX B200 8-GPU 的ASUS ESC NB8-E11,搭载 NVIDIA HGX H200 的 ASUS ESC N8-E11V,以及将支持采用 MGX 架构的 NVIDIA RTX PRO 6000 Blackwell 服务器版的 ASUS ESC8000A-E13P/ESC8000-E12P。华硕致力于推动 AI 技术普及,通过整合 NVIDIA AI Enterprise 软件平台 和 NVIDIA Omniverse 平台,为企业客户提供完整的AI基础架构解决方案,同时推出个人适用的超级计算机,加速AI技术研发与产品上市进程。通过有效降低AI导入门槛,企业与个人得以加速数字转型,在市场竞争中取得先机。
通过整合 NVIDIA GB300 NVL72 服务器平台的强大能力,ASUS AI POD 提供强劲的处理能力,使企业能够轻松应对大规模的 AI 挑战。GB300 NVL72 采用 NVIDIA Blackwell Ultra,凭借优化运算、扩增内存及高性能网络连接,发挥突破性性能,引领AI走向新纪元。
产品采用机架规模设计,配备 72 个 NVIDIA Blackwell Ultra GPU 和 36 个 Grace CPU,显著提升AI每秒浮点运算次数(FLOP),并提供最高每机架 40TB 的高速内存配置。ASUS AI POD更整合 NVIDIA Quantum-X800 InfiniBand 和 Spectrum-X Ethernet网络平台,搭载易于维护的 SXM7 和 SOCAMM 模块、采用 100% 液冷设计,并支持兆级参数LLM推理和训练。此为AI基础设施的重大突破,为客户提供可靠且可扩展的解决方案,以满足不断增长的AI需求。
华硕已具备 NVIDIA GB200 NVL72 架构的数据中心建置经验,为了降低数据训练和推理延迟,华硕在GTC中进一步展示了 ASUS RS501A-E12-RS12U。这款强大的SDS服务器能有效强化 NVIDIA GB200 NVL72的运算性能,并实现软件定义储存架构的高计算效率。从硬件到云端应用,华硕涵盖架构设计、先进的散热解决方案、机架安装、大规模验证/部署和AI平台,以丰富全面的专业知识,赋予客户实现打造出色的AI基础设施,更能加速上市时间。
NVIDIA GPU产品副总裁 Kaustubh Sanghani 表示:「NVIDIA正与华硕携手推动数据中心的下一波技术创新,华硕以领先业界的服务器结合Blackwell Ultra平台,将加速训练及推理,有助于企业在AI推理和AI代理等领域中,发掘新的可能性。」
华硕在GTC展示一系列支持 NVIDIA AI Enterprise 和 Omniverse 平台应用的 NVIDIA 认证服务器,能无缝处理数据和计算,提升生成式AI应用程序的服务性能。
ASUS 10U ESC NB8-E11 配备NVIDIA Blackwell HGX B200 8-GPU,提供强大的AI性能。其中,ASUS XA NB3I-E12搭载HGX B300 NVL16,具备更高的AI每秒浮点运算次数、配备2.3TB HBM3e内存,并整合NVIDIA Quantum-X800 InfiniBand和Spectrum-X Ethernet网络平台,其Blackwell Ultra可为AI推理、AI代理及视频推理应用提供突破性性能,满足各类数据中心不断演进的需求。
另外,7U ASUS ESC N8-E11V 双插槽服务器配备八个 NVIDIA H200 GPU,同时支持风冷和液冷选项,采用可有效散热的设计与创新零件,能够提供出色的散热效率、扩展能力及强大的性能。
华硕也推出专为AI推理设计的服务器与边缘AI解决方案—ASUS ESC8000系列,搭载了最新NVIDIA RTX PRO 6000 Blackwell Server Edition GPU。ASUS ESC8000-E12P是一款高密度4U服务器,可容纳八个双插槽的高阶NVIDIA H200 GPU,并支持 NVIDIA AI Enterprise 和 Omniverse,软件平台,全面兼容 NVIDIA MGX 架构,确保灵活扩展及快速与大规模部署。此外,ASUS ESC8000A-E13P作为4U NVIDIA MGX服务器,也支持八个双插槽NVIDIA H200 GPU,为现代数据中心与动态IT环境提供无缝整合、优化及高度扩展性。
华硕发布突破性的 AI 超级计算机,以精巧设计打造强大性能能。其搭载NVIDIA® GB10 Grace Blackwell 超级芯片,拥有1000 AI TOPS的强大运算能力,专为高强度工作负载设计。ASUS Ascent GX10 配备Blackwell GPU和20核心Arm CPU,拥有128 GB内存,支持高达2000亿参数的AI模型,提供全球开发者、AI研究人员和数据科学家,在办公桌上就能进行AI模型设计、调校和AI推理的能力。
华硕物联网(ASUS IoT)也再GTC展示先进的边缘AI运算能力,强调在AI推理的出色表现。ASUS IoT PE2100N边缘AI计算机,采用NVIDIA Jetson AGX Orin和NVIDIA JetPack SDK,提供高达275 TOPS的运算性能,适合生成式AI、视觉语言模型(VLM)和大型语言模型(LLM)应用,可通过自然语言与视频/影像互动,以进行事件识别或物体侦测。具备低功耗设计和支持可选的4G/5G及Out-of-Band技术,非常适合智能城市、机器人和车载应用解决方案。此外,ASUS IoT PE8000G坚固型边缘AI GPU计算机,支持双450W NVIDIA RTX PCIe显卡,在实时AI推理、预处理和感知AI方面表现优异。具有灵活的8-48V DC电源输入、点火电源控制,并可在-20°C至60°C的严苛环境中稳定运行,适用于计算机视觉、自动驾驶汽车、智能视频分析和生成式AI应用。
华硕致力于提供创新的AI基础设施解决方案,满足高效能运算(HPC)与AI工作负载的严苛需求,通过精心设计的服务器与存储系统,提升性能、可靠性与扩展性,满足多元企业需求。
华硕所提供的L12基础设施解决方案,搭载节能电源、高效散热系统与云端服务与应用,推动数据中心在生命周期中实践永续。除了出色的硬件基础设施,华硕更结合自行开发的ASUS Infrastructure Deployment Center(AIDC)满足大规模部署需求,并整合ASUS Control Center(ACC)进行IT远程监控管理,同时支持NVIDIA AI Enterprise与 Omniverse平台,协助客户实现无缝的AI与HPC体验。凭借软硬件结合的一站式整合服务,不仅有效降低营运成本、总拥有成本(TCO)与电源使用效率(PUE),大幅减少环境影响,更可确保维持高效的服务标准。
华硕自1995年来,深耕服务器产业已累积逾30年经验,持续助力客户在AI竞赛上取得优势地位。凭借华硕创新AI驱动解决方案,支持动态工作负载管理,确保有效率的运算资源分配,并以华硕行业领先的技术与专业知识,协助企业应对AI基础设施发展所带来的挑战,驱动产业创新、实践永续目标。