NVIDIA Mellanox InfiniBand 交换机

400Gb/s 端口速度

NVIDIA® Mellanox® InfiniBand 交换器系统为高效能运算 (HPC)、人工智能、网络 2.0、巨量数据、云端和企业数据中心提供最高效能和端口密度,可支持 36 到 800 埠的设定,且每个端口每秒最高可达 400 GB,让运算丛集和聚合数据中心能在任何规模中运作,并同时降低营运成本和基础架构的复杂性。

出色的 InfiniBand 性能

NVIDIA 的 InfiniBand 交换机系列提供完整的机箱内和网络级管理,能让管理者构建极其经济高效、可扩展的交换网络,支持从小规模集群一直扩展到数万个节点的大集群。静态路由、动态路由和拥塞管理等丰富功能确保在各种流量状况下始终提供极高的有效网络性能。

边缘交换器

外形规格为 1U 的 NVIDIA 边缘交换机系统系列能以高达 32Tb/s 的无阻塞带宽传输聚合数据,而且端口到端口延迟极低,为客户带来性能超强的网络解决方案。每个端口都支持高达 400Gb/s 的速度,并采用四通道小型可插拔 (QSFP) 接口,提供全双向带宽。这些边缘交换机非常适合 ToR 叶级连接或构建中小型集群。NVIDIA 的边缘交换机提供两种类型,一种是带内管理的交换机,另一种是带外管理的交换机,可满足各种不同部署场景的要求。

导向器交换机

NVIDIA InfiniBand 系列机框式交换机提供超高密度交换解决方案,单一机框支持从 43Tb/s 扩展到 320Tb/s的交换带宽,并保持低延迟和高达 200Gb/s 的每端口速度。其智能设计提供了超强的性能,简化了集群的构建,可将集群轻松扩展到数千个节点。此外,叶片、叶脊刀片、管理模块、电源和风扇单元均可热更换,为用户消除了停机烦恼。

产品

NVIDIA QM9700 InfiniBand 64-port Non-blocking HDR Switch Series

QM9700 64 端口 NDR 400Gb/s InfiniBand 交换机系列

NVIDIA Mellanox InfiniBand 可为 AI 开发者和科研人员提供超高网络性能,以应对极具挑战性的问题。下一代数据速率 (NDR) 400Gb/s InfiniBand 和新的 NVIDIA 网络计算加速引擎可提供超低延迟,同时为超级计算机、人工智能和超大规模云数据中心提供所需的可扩展性和丰富的功能。

QM8700 InfiniBand 40 端口无阻塞 HDR 交换机系列

QM8700 40 端口 HDR 200Gb/s InfiniBand 交换机系列

NVIDIA Mellanox 提供业界超快的智能交换机,通过 NVIDIA Mellanox Scalable Hierarchical Aggregation and Reduction Protocol (SHARP)™ 技术实现网络计算。Quantum QM8700 系列提供高达 16Tb/s 的无阻塞带宽,低至 130 纳秒 (ns) 的端口到端口延迟,网络性能在市场上处于领先地位。QM8700 系列使用 Mellanox Quantum InfiniBand 交换机设备,提供 40 个端口,每端口均提供高达 200Gb/s 的全双向带宽。此外,QM8700 系列交换机提供带内管理和带外管理两种型号。

SB7800 InfiniBand 交换机系列

SB7800 36 端口 EDR 100Gb/s InfiniBand 交换机系列

NVIDIA Mellanox SB7800 交换机系列基于 NVIDIA Mellanox Switch-IB® 2 芯片,每个端口均提供高达 100Gb/s 的全双向带宽,支持 36 个端口。SB7800 系列智能交换机通过 Mellanox SHARP 技术实现网络计算。此架构可让所有工作中的数据中心设备使用嵌入式硬件加速通信框架,从而将应用程序性能提高一个数量级。SB7800 系列交换机提供带内管理和带外管理两种型号。

SB7780 InfiniBand 路由器

SB7780 36 端口 EDR 100Gb/s InfiniBand 路由器

NVIDIA Mellanox SB7780 InfiniBand 路由器将可扩展性和隔离性提升到新高度,这对于下一代数据中心至关重要。SB7780 InfiniBand 路由器基于 Switch-IB 专用集成电路 (ASIC),提供 36 个高度灵活的增强型数据速率 (EDR) 100Gb/s 端口,可以划分为 6 个不同的子网。通过 SB7780 InfiniBand 路由器,不同类型的拓扑结构之间也可以实现互连。因此,它能优化每个子网的拓扑结构,来更好地适配应用和更大限度的提高应用性能。例如,存储子网可能使用胖树拓扑结构较好,而计算子网则可能使用 3D-torus、DragonFly+、胖树或其他拓扑更适合本子网应用的需求。SB7780 还可以实现集群分区,让那些需要独占资源来获得更佳性能的应用程序从需要整体网络资源的应用程序中分离出来。

Mellanox Quantum<sup>™</sup> CS8500 HDR 机框式交换机系列

Quantum CS8500 800 端口 HDR 200Gb/s InfiniBand 机框式交换机系列

NVIDIA Mellanox CS8500 交换机系列提供多达 800 个高数据速率 (HDR) 200Gb/s InfiniBand 端口,为 HPC 和云基础设施提供更快的互连速度。作为业界超智能的网络交换机,CS8500 交换机在 29U 的机架空间内提供性能优异的网络解决方案,并提供 320Tb/s 的全双向带宽和超低端口延迟。CS8500 将 Mellanox 基于 SHARP 的网络计算、动态路由和拥塞控制等多种优点集为一身,可将 HPC 和 AI 应用程序的性能实现数量级的提升,并提供极高的可扩展性。CS8500 还可利用 Mellanox 的 SHIELD™ (Self-Healing Interconnect Enhancement for Intelligent Data Centers) 技术克服链路故障影响,使网络故障恢复速度比其他基于软件的解决方案快 5000 倍。

Mellanox CS7500 InfiniBand 交换机系列

CS7500 648 端口 EDR 100Gb/s InfiniBand 机框式交换机系列

NVIDIA Mellanox CS7500 智能机框式交换机系列在 28U 的空间内提供多达 648 个 EDR 100Gb/s InfiniBand 端口,为 HPC 环境带来高性能网络解决方案。CS7500 交换机系列可提供 130Tb/s 的全双向网络交换带宽和 400ns 的端口到端口延迟,可以在保障带宽和细粒度服务质量的前提下传输融合流量。CS7500 智能型网络交换机还支持使用 Mellanox SHARP 软件的网络计算,使用交换机内嵌硬件引擎加速通信框架,从而为应用程序提供数量级的性能提升。SB7800 交换机提供 3 种不同的端口配置:648、324 和 216 个端口。

InfiniBand 交换机软件

NVIDIA Mellanox MLNX-OS® 是 NVIDIA 的 InfiniBand 交换机操作系统,适用于为存储、企业、高性能和机器学习计算和云网络提供支持的数据中心。基于 MLNX-OS,构建网络时可以扩展到数千个计算和存储节点的网络规模,并可以在 InfiniBand 网络运行过程中进行监控和调配。MLNX-OS 专为数据中心定制,它提供了适用于有损和无损网络的可靠桥接包和完整解决方案。

网络计算

NVIDIA SHARP 将消息传递接口 (MPI) 操作从 CPU 卸载到交换机网络,不必多次发送数据,减少了遍历网络的数据量,并大幅减少了 MPI 操作时间,从而提高了操作性能。

可扩展高性能计算软件

NVIDIA Mellanox HPC-X® 是完整的 MPI 和 SHMEM/PGAS 软件套件,适用于高性能计算环境。HPC-X 提供增强功能,可显著提高网络中消息通信的可扩展性和性能。利用 HPC-X,无需克服特许第三方工具和库的复杂性和成本问题,即可快速部署应用程序和提供更高的应用程序性能。

Unified Fabric Manager (UFM)

NVIDIA Mellanox UFM® 平台可助力研究和工业数据中心操作人员对现代数据中心架构进行高效预配、监控与管理以及预防性问题排查。从工作负载优化和配置检查,到通过 AI 的方式来侦测网络异常并进行前瞻性的维护来提升网络的性能,UFM 包含一个完整的功能集,可满足广泛的现代横向扩展型数据中心的需求。

资源

了解如何打造最有效率的高效能网络。

配置工具

学习网络课程

准备好购买了?