3月19日消息,英伟达GTC 2024大会期间,华硕公司正式对外展示了其专为满足日益增长的人工智能服务器市场需求而精心打造的数据中心解决方案。该方案核心采用了英伟达最新的MGX技术平台,以实现高效能、高稳定性的AI计算能力。
华硕表示,为了满足生成式 AI 不断增长的需求,华硕使用了来自英伟达的最新技术 —— 包括 B200、GB200 Grace Blackwell 和 H200 NVL,以提供优化的 AI 服务器解决方案。
基于英伟达 MGX 的华硕服务器解决方案,专为 AI 需求定制
华硕本次发布了 ESC NM1-E1 与 ESC NM2-E1 2U 服务器,基于英伟达 MGX 模块化架构,采用英伟达 GH200 Grace Hopper 超级芯片。
英伟达 GH200 包括支持 SVE2 的 Arm Neoverse V9 CPU 核心,并由 NVLink-C2C 技术互联。结合英伟达 BlueField-3 DPU 和 ConnectX-7 网络适配器,该服务器数据吞吐能力达 400Gb / s。
液冷解决方案
华硕 D2C(direct-to-chip)冷却方案支持快速部署,降低数据中心的 PUE(Power Usage Effectiveness)比率。本次展示的 ESC N8-E11 和 RS720QN-E11-RS24U 服务器支持多样化的冷却解决方案。
此外,华硕服务器支持与标准机架服务器设计兼容的换热器,无需更换所有机架 —— 只需更换后门即可启用机架内的液冷。
AI 软件解决方案
华硕将在 GTC 展会上使用 ESC4000A-E12 服务器,演示无代码 AI 平台与集成软件栈,加速企业在 LLM 预训练、微调和推理上的 AI 开发速度,支持 7B、33B 甚至到超过 180B 参数的大模型。
华硕表示其定制软件可以通过通过优化 GPU 资源的分配,确保 AI 应用程序和工作负载可以在不浪费资源的情况下运行,从而提高效率和投资回报率(ROI)。
查询华硕官网获悉,ESC4000A-E12 服务器使用 AMD EPYC 9004 处理器,支持四块双槽 GPU,采用液冷散热解决方案,提供 8 根 PCIe 5.0 插槽。
文明上网,理性发言,共同做网络文明传播者