支持chatgpt的gpu服务器 Supermicro推出配备NVIDIA HGX及PCIe型H100 8

默认分类1年前 (2023)发布 admin
5,020 0
ChatGPT国内版

从云端到边缘完善的系统组合,支持 HGX H100系统、L40和L4 GPU及OVX 3.0系统

【2023 年 3 月 21 日美国加州圣何塞讯】Super Micro , Inc. (:SMCI) 为AI/ML、云端、存储和5G/智能边缘应用的全方位IT解决方案供应商,宣布其配备最新 HGX H100 8-GPU系统的顶级全新GPU服务器开始出货。该服务器整合了最新的 L4 Core GPU至从边缘到数据中心的各种应用优化服务器中。

总裁暨首席执行官梁见后( Liang)表示:“提供业界最全面的 GPU系统产品组合,包含 8U、6U、5U、4U、2U 和 1U 外形尺寸的服务器,并支持全系列新 H100 GPU的工作站和系统。 通过这款 HGX H100 Delta-Next 服务器,客户将获得相较上一代 AI 训练应用9倍的性能提升。 我们的GPU服务器采用创新的气流设计,能全面降低风扇转速、噪音和功耗,进而降低总拥有成本(TCO)。 此外,对于正在寻找符合未来需求的数据中心的客户,我们也为其提供完整的机柜级(rack-scale)液冷选项。 ”

的高性能新型8U GPU服务器现已大量出货。 这款全新 8U 服务器特别针对AI、DL、ML和HPC工作负载进行了优化,搭载能达到高GPU-to-GPU通信的 HGX H100 8-GPU,使用高速 ® 4.0技术、 互连,以及 -2 和 -4 以太网,从而大幅突破 AI 的障碍。 此外,还提供多种性能优化的GPU服务器配置,包括直连/单根(-root)/ 双根(dual-root) CPU-to-GPU,另外还有前置或后置 I/O 机型,在标准和OCP DC机柜 配置中使用AC与DC 电源。 X13 ® 机壳可在一个 8U 机壳内放入 20 个 H100 Core PCIe GPU 或 40 个 L40 GPU,6U机壳则最多可使用10个 H100 PCIe GPU或20个 L4 GPU。 这些新系统为运行 AI 平台软件层 AI 提供理想的优化加速功能。

支持chatgpt的gpu服务器 Supermicro推出配备NVIDIA HGX及PCIe型H100 8

此类服务器内置的液冷系统也适用于其他众多GPU 服务器。 此外, 发布了一款液冷式 AI 开发系统 (塔式或机架式配置皆可),内含两个 CPU 和四个 A100 Core GPU,适合办公室和家庭办公环境,并能部署在部门和企业集群中。

系统支持新的 L4 GPU,与前几代产品相比,加速和能效均提升数倍。 此系统同样适用于企业、云和边缘的 AI 推理、视频流、虚拟工作站和图形应用程序。 L4 采用的AI平台和全堆叠方法,经过优化调整,适合进行各种 AI 应用程序的大规模推理,包括推荐、语音型 AI 虚拟人物助理、聊天机器人、视觉搜索和客服中心自动化等,能提供出色的个性化体验。 L4是适用于主流服务器的高效加速器,拥有高达4倍的AI性能、更高的能源使用效率,还有3倍以上的视频流容量与效率,因此能支持 AV1 编码/解码。 L4 GPU拥有多样化的推理和可视化功能,加上轻巧、节能、单插槽、薄型、72W的低功耗规格,是包括边缘位置在内全局部署的理想选择。

加速计算产品主管Dave 表示:“ 服务器配备新的 L4 Core GPU,拥有无与伦比的强大性能,让客户能高效且可持续地加快工作负载速度。 L4经过优化,适合用于主流部署,加上外型轻薄,可在72W的低功耗范围内作业,将边缘AI性能和效率提升至全新境界。”

支持chatgpt的gpu服务器 Supermicro推出配备NVIDIA HGX及PCIe型H100 8

最新的PCIe加速解决方案支持打造3D世界、数字孪生、3D模拟模型和工业元宇宙。 除了支持前几代 OVX™系统,也提供OVX 3.0 配置,配备四个 L40 GPU、两个 -7® 、一个 -3® DPU及新的 ™软件。

深入了解所有 先进的新GPU系统,请访问:

欢迎至2023 GTC深入了解:-

© 版权声明
广告也精彩

相关文章

暂无评论

暂无评论...