Supermicro 推出搭载 NVIDIA HGX A100 8-GPU 的最高密度 4U 服务器及最新8U SuperBlade®

2020 年 10 月 9 日,加州圣何塞— Super Micro Computer, Inc. (纳斯达克代码:SMCI) 是企业级计算、存储、网络解决方案和绿色计算技术等领域的全球领导者,今日宣布推出支持 8 张 NVIDIA® HGX A100™ GPU 且拥有双倍 GPU 功能的全新 4U 服务器。Supermicro 提供业界最多样化的 GPU 系统产品组合,涵盖 1U、2U、4U 和 10U 的 GPU 服务器及 SuperBlade 服务器,并提供各种可自定义组态。

Supermicro 在推出最新的 NVIDIA HGX A100™ 8-GPU 服务器后,目前可供应业界类型最广、规格最多样的 GPU 系统选择,能为边缘到云端等应用提供优异效能。整个产品组合包括 1U、2U、4U 和 10U 机架式 GPU 系统;Ultra、BigTwin™ 和嵌入式解决方案,并可选择搭载 AMD EPYC™ 和支持 Intel® Deep Learning Boost 技术的 Intel ® Xeon 处理器。

Supermicro 首席执行官兼总裁 Charles Liang 表示:"Supermicro 推出采用 NVIDIA HGX™ A100 8-GPU 主板(原代号为 Delta )的全新 4U 系统,与目前的系统相比,新系统可提供 6 倍 AI 训练效能和 7 倍推论工作负载容量。此外,最新发布的 NVIDIA HGX™ A100 4-GPU 主板(原代号为 Redstone)拥有广泛的市场接受度,让我们对未来全球客户的回响有着高度期待。这些最新的 Supermicro 系统可针对加速工作负载来大幅提升整体效能,以满足瞬息万变的市场需求。同时,新系统可应用在包括高性能计算 (HPC)、数据分析、 学习训练和推论等领域。"

Supermicro 推出搭载 NVIDIA HGX A100 8-GPU 的最高密度 4U 服务器及最新8U SuperBlade®

最新高密度的 2U 和 4U 服务器采用 Supermicro 的进阶散热设计(包括客制化散热片和选购的水冷系统),并搭载 NVIDIA HGX A100 4-GPU 8-GPU 主板,另外还推出支持 8 张 NVIDIA A100 PCI-E GPU 的全新 4U 服务器(即日起供货)。Supermicro 的进阶 I/O 模块(AIOM)规格具有高灵活性,可进一步提升网络通讯功能。AIOM 可搭配高速、低延迟的最新 PCI-E 4.0 存储与网络装置使用,支持 NVIDIA GPUDirect® RDMA 和 GPUDirect Storage,并可通过 NVIDIA Mellanox® InfiniBand 的 NVME over Fabrics(NVMe-oF)将连续数据流馈入可扩展的多重 GPU 系统,而不会出现瓶颈。此外,Supermicro 的钛金级电源供应器能提升系统的省电效率,能源效率为业界最高的 96%,不仅省下更多电费,还能为 GPU 提供备援支持。

NVIDIA 产品管理与营销部资深总监 Paresh Kharya 表示:"Supermicro 搭载 NVIDIA A100 的系统可快速扩充至数千张 GPU,或可使用最新的多实例 GPU 技术,将每张 A100 GPU 分割成 7 张独立的 GPU 实例,以执行不同的工作。支持 TensorFloat 32 的 NVIDIA A100 Tensor Core GPU 可提供比前一代高 20 倍的运算容量,无需变更任何程序代码。"

Supermicro 搭载 HGX A100 4-GPU的进阶 2U 设计

此 2U 系统搭载 NVIDIA HGX A100 4-GPU 主板,并采用 Supermicro 的进阶散热片设计,在满载下仍可维持最佳的系统温度,且外型规格精简轻巧。系统可通过 NVIDIA NVLink® 执行高 GPU 点对点通讯,可安装最高 8TB 的 DDR4 3200Mhz 系统内存,具备 5 个支持 GPUDirect RDMA 的 PCI-E 4.0 I/O 插槽,还有 4 个支持 GPUDirect Storage 功能的可热插入 NVMe。

搭载 HGX A100 8-GPU 的高密度、多功能 4U 设计

最新 4U GPU 系统搭载 NVIDIA HGX A100 8-GPU 主板,具备最多 6 个 NVMe U.2 和 2 个 NVMe M.2、10 个 PCI-E 4.0 x16 插槽,并采用 Supermicro 独家的 AIOM,能通过 GPUDirect RDMA、GPUDirect Storage 及 InfiniBand 上的 NVMe-oF 等最新技术堆栈,支持系统之间的高效 8-GPU 通讯与数据流。系统使用 NVIDIA NVLink 和 NVSwitch 技术,适合用于大规模的 学习训练、研究或国家实验室专用的神经网络模型应用、超级运算丛集和高效能计算云端服务。

搭载 20 张 A100 PCI-E GPU 的超高密度、节能 8U SuperBlade

这款业界最高密度的 GPU 刀锋服务器装载在 Supermicro 的 8U SuperBlade 机壳内,可支持最多 20 个节点和 40 张 GPU,每节点两张单宽 GPU,或每节点一张 NVIDIA Tensor Core A100 PCI-E GPU。在 8U 尺寸内装入 20 张 NVIDIA A100 GPU,进一步提升计算效能密度,且尺寸更小巧,能为客户降低总体拥有成本(TCO)。为支持 GPU 优化的配置并维持高需求 AI 应用程序所需的顶尖效能和传输量,SuperBlade 提供 100% 不阻塞的 HDR 200Gb/s InfiniBand 网络基础架构,可加速 学习并支持实时分析和决策。SuperBlade 同时具备高密度、可靠度和可升级性,为企业应用程序提供 AI 服务的完美建构基础。

业界最多样化的 GPU 加速系统产品组合

Supermicro 持续支持各种规格的 NVIDIA 高阶 GPU,专为客户的独特使用案例场景和需求进行优化。1U GPU 系统可通过 NVLink 容纳最多 4 张 NVIDIA GPU,已通过包括 NEBS 第 3 级认证、5G/边缘就绪的 SYS-1029GQ 等认证。Supermicro 的 SYS-2029GP-TR 等 2U GPU 系统支持最多 6 张 NVIDIA V100 GPU,可在同一系统内容纳双 PCI-E 控制源(Dual PCI-E Root Complex)功能。最后,如 SYS-9029GP-TNVRT 等 10U GPU 服务器支持最多 16 张 V100 SXM3 GPU,并可搭载内建 AI 加速能力的双 Intel Xeon 可扩充处理器。

弹性的解决方案系列采用 NVIDIA GPU 和 NVIDIA NGC™ 生态系统提供的 GPU 软件,能为各种工作提供适合的建构基础,满足不同产业组织的需求,适用于开发模型的 AI 推论、高效能计算到高阶训练等应用。

敬请通过 LinkedIn、 Twitter 和 Facebook关注 Supermicro,获取最新动态与公告。

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

Baidu
map