更新 : 2024/03/19 06:00:55
华硕出席 NVIDIA GTC 全球 AI 大会,并在 #730 展位展示其解决方案。参展的亮点是华硕 GPU 服务器的创新力作ESC NM1-E1 和 ESC NM2-E1,基于 NVIDIA MGX 模块化参考设计架构,将 AI 超算推向新的高度。为了满足生成式AI日益增长的需求,华硕采用 NVIDIA 的新技术,包括 B200 Tensor Core GPU、GB200 Grace Blackwell 超级芯片和 H200 NVLink,提供优化的 AI 服务器解决方案,以推动人工智能在各个行业的应用。
为了更好地支持企业建立自己的生成式AI环境,华硕提供一系列服务器产品,从入门级到高端 GPU 服务器解决方案,以及一系列液冷机架解决方案,以满足各种工作负载。此外,凭借在 MLPerf 方面的强大实力,华硕团队通过优化大型语言模型 (LLM) 训练和推理的硬件和软件并无缝集成整体 AI 解决方案,以满足 AI 超算领域苛刻的应用需求。
全新华硕 NVIDIA MGX 2U 服务器,ESC NM1-E1 和 ESC NM2-E1,凭借出色的 NVIDIA GH200 Grace Hopper 超级芯片提供高性能与高能效。再加上 NVIDIA Grace CPU 包括 Arm® Neoverse V9 CPU 核心与可伸缩向量扩展指令 (SVE2) 并由 NVIDIA NVLink-C2C 技术提供动力支持。借助结合 ConnectX-7 网卡的 NVIDIA BlueField-3 DPU 网络平台,ASUS MGX 系列服务器提供高达 400Gb/s 的数据吞吐量,非常适合于企业 AI 开发和部署。结合用于构建和部署企业级 AI 的端到端云软件平台 NVIDIA AI Enterprise,由 MGX 提供动力支持的 ESC NM1-E1 可为人工智能数据中心、HPC、数据分析和 NVIDIA Omniverse 应用带来出色的灵活性和扩展性。
AI 应用的激增,提升了对服务器冷却的需求。华硕直触芯片式(D2C)散热技术,不仅可快速安装,并能够有效降低数据中心的电力使用率(PUE)。华硕 ESC N8-E11 和 RS720QN-E11-RS24U 服务器支持集管和冷板,实现多样化的散热解决方案。此外,华硕服务器均配备符合标准机架设计的后门散热器,无需更换所有机架即可启用液冷,建置更随心所欲。通过与先进的散热解决方案提供商密切合作,华硕提供企业级综合散热解决方案,并致力于降低数据中心的电力使用率(PUE)、减少碳排放和能源消耗,创建更环保节能的数据中心。
凭借强大的 AI 超算技术实力,华硕提供针对数据密集型工作负载的优化服务器设计和机架整合。在 GTC 大会上,华硕展示 ESC4000A-E12,展示了一个整合软件微型化技术的无代码AI平台,让企业能加速在LLM预先训练、微调和推理方面的AI开发,以减少风险、缩短上市时间。此外,华硕提供一项综合的解决方案,支持不同 LLM 认证,从 7B、33B 甚至到 180B 以上,并配备客制化软件,成就上佳的服务器数据调度。通过优化GPU资源的分配进行微调训练,华硕软件微型化技术可确保AI应用和工作负载顺畅运行、不浪费资源,大幅提高效率与投资回报率(ROI),搭配集成开发的软、硬件,企业将可依各式需求选择合适的AI功能。
这款创新的软件方法可优化专用 GPU 资源在人工智能训练和推理方面的分配,从而提升系统性能。其集成的软硬件协同作用可以满足各种人工智能训练需求,使包括中小企业在内的所有规模的企业都能轻松高效地利用先进的 AI 功能。
随着企业智能物联网应用日新月异,华硕也致力与企业合作伙伴、软件专家及专业领域的整合商合作,旨为现代数据中心、AI和HPC应用的全面安装和测试,开创完备健全、即插即用的服务器解决方案。