从云端到边缘完善的系统组合,支持 HGX H100系统、L40和L4 GPU及OVX 3.0系统
【2023 年 3 月 21 日美国加州圣何塞讯】Super Micro , Inc. (:SMCI) 为AI/ML、云端、存储和5G/智能边缘应用的全方位IT解决方案供应商,宣布其配备最新 HGX H100 8-GPU系统的顶级全新GPU服务器开始出货。该服务器整合了最新的 L4 Core GPU至从边缘到数据中心的各种应用优化服务器中。
总裁暨首席执行官梁见后( Liang)表示:“提供业界最全面的 GPU系统产品组合,包含 8U、6U、5U、4U、2U 和 1U 外形尺寸的服务器,并支持全系列新 H100 GPU的工作站和系统。 通过这款 HGX H100 Delta-Next 服务器,客户将获得相较上一代 AI 训练应用9倍的性能提升。 我们的GPU服务器采用创新的气流设计,能全面降低风扇转速、噪音和功耗,进而降低总拥有成本(TCO)。 此外,对于正在寻找符合未来需求的数据中心的客户,我们也为其提供完整的机柜级(rack-scale)液冷选项。 ”
的高性能新型8U GPU服务器现已大量出货。 这款全新 8U 服务器特别针对AI、DL、ML和HPC工作负载进行了优化,搭载能达到高GPU-to-GPU通信的 HGX H100 8-GPU,使用高速 ® 4.0技术、 互连,以及 -2 和 -4 以太网,从而大幅突破 AI 的障碍。 此外,还提供多种性能优化的GPU服务器配置,包括直连/单根(-root)/ 双根(dual-root) CPU-to-GPU,另外还有前置或后置 I/O 机型,在标准和OCP DC机柜 配置中使用AC与DC 电源。 X13 ® 机壳可在一个 8U 机壳内放入 20 个 H100 Core PCIe GPU 或 40 个 L40 GPU,6U机壳则最多可使用10个 H100 PCIe GPU或20个 L4 GPU。 这些新系统为运行 AI 平台软件层 AI 提供理想的优化加速功能。
此类服务器内置的液冷系统也适用于其他众多GPU 服务器。 此外, 发布了一款液冷式 AI 开发系统 (塔式或机架式配置皆可),内含两个 CPU 和四个 A100 Core GPU,适合办公室和家庭办公环境,并能部署在部门和企业集群中。
系统支持新的 L4 GPU,与前几代产品相比,加速和能效均提升数倍。 此系统同样适用于企业、云和边缘的 AI 推理、视频流、虚拟工作站和图形应用程序。 L4 采用的AI平台和全堆叠方法,经过优化调整,适合进行各种 AI 应用程序的大规模推理,包括推荐、语音型 AI 虚拟人物助理、聊天机器人、视觉搜索和客服中心自动化等,能提供出色的个性化体验。 L4是适用于主流服务器的高效加速器,拥有高达4倍的AI性能、更高的能源使用效率,还有3倍以上的视频流容量与效率,因此能支持 AV1 编码/解码。 L4 GPU拥有多样化的推理和可视化功能,加上轻巧、节能、单插槽、薄型、72W的低功耗规格,是包括边缘位置在内全局部署的理想选择。
加速计算产品主管Dave 表示:“ 服务器配备新的 L4 Core GPU,拥有无与伦比的强大性能,让客户能高效且可持续地加快工作负载速度。 L4经过优化,适合用于主流部署,加上外型轻薄,可在72W的低功耗范围内作业,将边缘AI性能和效率提升至全新境界。”
最新的PCIe加速解决方案支持打造3D世界、数字孪生、3D模拟模型和工业元宇宙。 除了支持前几代 OVX™系统,也提供OVX 3.0 配置,配备四个 L40 GPU、两个 -7® 、一个 -3® DPU及新的 ™软件。
深入了解所有 先进的新GPU系统,请访问:
欢迎至2023 GTC深入了解:-