更新 : 2024/06/02 20:30:13
2024年6月2日,华硕在 Computex 2024 电脑展大放异彩,展示了一系列适用于生成式人工智能和创新存储解决方案的 AI 服务器。参展的亮点是华硕 AI 解决方案的创新力作,全新华硕 ESC AI POD 搭载 NVIDIA® GB200 NVL72 系统。同时展出的还有全新华硕 NVIDIA MGX 系统,包括 ESC NM1-E1,ESC NM2-E1 配备 NVIDIA GB200 NVL2 和 ESR1-511N-M1 配备 NVIDIA GH200 Grace Hopper 超级芯片,以及华硕最新解决方案嵌入 NVIDIA HGX H200 和 Blackwell GPU。
华硕致力于提供端到端解决方案和软件服务,涵盖混合服务器到边缘计算部署。通过此次展示,华硕展示了其在服务器基础设施、存储、数据中心架构和安全软件平台方面的强大实力,旨在推动不同行业的广泛应用人工智能。
华硕在打造高性能、高效率的AI服务器方面拥有丰富的经验,而与 NVIDIA 的合作,进一步提升了华硕的技术实力。此次展示的一大亮点是搭载 NVIDIA Blackwell 的大规模大尺寸系统 - 搭载 NVIDIA GB200 NVL72 的 ESC AI POD。全机架解决方案巧妙地结合 GPU、CPU 和交换机,以更快的速度直接通信,为万亿参数 LLM 训练和实时推理提供动力。配备了新一代 NVIDIA GB200 Grace Blackwell 超级芯片和第五代 NVIDIA NVLink 技术,并支持液冷对风冷和液冷对液冷解决方案,以释放上佳的 AI 计算性能。
华硕电脑全球副总裁兼开放平台事业群共同总经理 Paul Ju 强调:“通过与全球人工智能领域领导者 NVIDIA 的持续深入合作,进一步巩固我们的专业知识。我们共同发挥强大的协同效应,使我们能够打造出具有高性能和高效率的 AI 服务器。”
“华硕在服务器基础设施和数据中心架构领域积累了深厚的经验和专业知识,通过我们的合作,我们能够为客户提供先进的加速计算系统,”NVIDIA GPU 产品管理副总裁 Kaustubh Sanghani 表示。 “在 COMPUTEX 上,华硕将展出一系列搭载 NVIDIA AI 平台的服务器,这些服务器能够满足企业的独特需求。”
为推动生成式 AI 应用的兴起,华硕推出了基于 NVIDIA MGX 架构的全系列服务器。其中包括搭载 NVIDIA GB200 NVL2 服务器的 2U ESC NM1-E1 和 ESC NM2-E1,以及 1U ESR1-511N-M1。利用 NVIDIA GH200 Grace Hopper 超级芯片的强大功能,ASUS NVIDIA MGX 通过快速的数据传输、深度学习 (DL) 训练和推理、数据分析和高性能计算来满足大规模 AI 和 HPC 应用的需求。
华硕 HGX 服务器专为 HPC 和 AI 设计,包括搭载第 5 代英特尔至强可扩展处理器和 NVIDIA Blackwell Tensor Core GPU 的 ESC N8,以及搭载 AMD EPYC™ 9004 和 NVIDIA Blackwell GPU 的 ESC N8A。得益于增强的散热解决方案,提供上佳的性能和更低的 PUE。强大的 NVIDIA HGX 服务器专为 AI 和数据科学进步而设计,提供独特的一对一 NIC 配置,可在计算密集型任务中实现更大的吞吐量。
华硕提供量身定制的数据中心解决方案,为企业需求提供提供出色的硬件和全面的软件解决方案。我们的服务涵盖从系统验证到远程部署的所有内容,确保加速 AI 开发所必需的平稳运行。包括一个统一的软件包,其中包含Web门户,调度程序,资源分配和服务操作。
此外,华硕 AI 服务器解决方案整合了 NVIDIA BlueField-3 SuperNIC 和 DPU,支持 NVIDIA Spectrum-X 以太网网络平台,为生成式 AI 基础设施提供增强的网络功能。除了优化企业生成式 AI 推理流程外,NVIDIA NIM 推理微服务(用于生成式 AI 的 NVIDIA AI Enterprise 软件平台的一部分)能够加快生成式 AI 的运行速度并简化生成式 AI 应用程序的开发流程。华硕还通过与独立软件供应商 (ISV) 合作,为云或企业客户提供定制的生成式 AI 解决方案,例如专注于大语言模型和企业应用的 APMIC。
华硕致力于优化硬件和软件之间的协作,助力客户加快研究和创新进程。随着华硕在服务器领域不断发展,其数据中心解决方案结合了华硕 AI Foundry 服务,已在全球关键性站点部署应用。