Instinct™ MI350 系列 GPU

AMD Instinct™ MI350 系列 GPU 专为引领 AI 和加速高性能计算 (HPC) 而设计。基于第四代 AMD CDNA™ 架构。

采用全新架构,它们为 AI 训练、推理和复杂的高性能计算 (HPC) 工作负载提供出色的性能和效率。

 

  • 专为下一代 AI 和 HPC 而打造

MI350 系列 GPU 采用第四代 AMD CDNA 架构,旨在为 AI 推理和高性能计算工作负载提供强大的性能。

 

  • 更大的内存和带宽

MI350 系列 GPU 配备 288GB HBM3E 显存和 8TB/s 的内存带宽,能够使用更少的 GPU 对大规模 AI 模型进行训练和推理,从而提高效率并降低成本。

 

  • 扩展的数据类型支持,可加速AI

支持高级 FP16、FP8、FP6 和 FP4 数据类型,可更大限度地提高计算吞吐量和能效——非常适合生成式 AI、NLP 和视觉工作负载。

 

  • 与现有平台即插即用

MI350 系列 GPU 采用风冷散热,可与之前的 AMD Instinct MI300X/MI325X 基础架构无缝集成,无需进行重大硬件升级即可实现经济高效的升级。

 

  • AI 优化软件栈

完全受 AMD ROC™ 支持软件,一个开源平台,为 PyTorch、TensorFlow、JAX、ONNX Runtime、Triton 等主流 AI 框架提供 Day 0 支持。

 

  • 使用 Kubernetes 轻松部署

AMD GPU Operator 简化了 Kubernetes 集群中的容器化部署,从而能够快速配置和扩展 AI 应用。

 

  • 专为企业级 AI 设计的安全保障

内置安全启动、安全更新、SR-IOV 和 Infinity Fabric™ 等功能。

链路安全确保多租户环境的安全,并保护 AI 模型和数据。

 

 

  • 行业领导者的信赖

包括微软和 Meta 在内的主要 AI 厂商都依赖 AMD Instinct GPU 来驱动 Llama 405B 和 GPT 等大型模型,这验证了其性能、可扩展性和可靠性。

 

  • 开放的生态系统,无厂商锁定

支持基于以太网的开放式网络连接,适用于可扩展的 AI 集群,并支持与各种云服务提供商和 OEM 平台集成。

 

  • 可持续且高效的性能

针对能源效率和降低总体拥有成本进行了优化, MI350 系列 GPU 是数据中心扩展 AI 应用、同时更大限度降低运营成本和环境影响的理想之选。

 

AMD Instinct MI350 系列 GPU 和平台为数据中心提供出色的性能。正如拍电影首先需要一个好的剧本一样,MI350 系列 GPU 提供强大的计算能力和效率,能够将强大的 AI 和 HPC 愿景变为现实,从而大规模推动创新。

 

了解更多: ESC A8A-E12U | 华硕服务器