CS7500 InfiniBand 系列

Switch-IB 2 EDR 100Gb/s InfiniBand 智能机箱式交换机

当今数据量的蓬勃增长和实时数据处理的需求向高性能计算 (HPC)、云计算和超大规模数据中心提出更快、更高效的互连要求。NVIDIA® Mellanox® CS7500 Infiniband 交换机可在 28U 的机箱中提供极低的延迟和 100Gb/s 端口带宽,具有可靠的带宽和细粒度的服务质量。CS7500 系列的创新功能提供了极高的系统性能、可扩展性和上佳的网络利用率。

扩展数据中心

NVIDIA Mellanox CS7500 系列智能机箱式交换机在 28U 空间内提供最多 648 个 EDR 100Gb/s 端口,为 HPC、AI、云和超大规模数据中心基础设施提供高性能的网络解决方案。其智能设计提供了超强的性能,简化了集群的构建,可将集群轻松扩展到数千个节点。此外,叶交换板 (Leaf)、Spine 交换板、管理模块、电源单元 (PSU) 和风扇模块均可热插拔,为用户消除了停机维护烦恼。

NVIDIA Mellanox CS7500 系列智能机箱式交换机

亮点

出色的 InfiniBand 性能

NVIDIA Mellanox 可扩展分层聚合和归约协议 (SHARP) 网络计算技术

网络计算

NVIDIA Mellanox 可扩展分层聚合和归约协议 (SHARP)™ 网络计算技术可将集合通信运算从 CPU 卸载到交换机网络,从而将应用程序性能提高一个数量级。

NVIDIA Mellanox InfiniBand 网络具有自我修复功能

自我修复网络

NVIDIA Mellanox InfiniBand 网络具有自我修复功能,可克服链路故障,使网络恢复速度比其他基于软件的解决方案快 5000 倍,从而提升系统性能、可扩展性和网络利用率。

NVIDIA Mellanox Unified Fabric Management (UFM)

UFM 管理

NVIDIA Mellanox Unified Fabric Management (UFM®) 平台将增强的实时网络遥测与 AI 驱动的网络智能和分析相结合,以实现更高的网络资源利用率和竞争优势,同时降低运营成本。

主要特性

  • 一台 28U 的交换机提供最多 648 个 EDR 100Gb/s 端口
  • 高达 130Tb/s 的交换容量
  • 超低延迟
  • 符合 InfiniBand 行业协会 (IBTA) 规范 1.3 和 1.2.1
  • 服务质量强制实施
  • N+N 冗余电源
  • 集成子网管理器代理(最多 2000 个节点)
  • 快速高效的网络 bringup
  • 全面机箱管理
  • 直观的命令行界面 (CLI) 和简单易用的图形用户界面 (GUI)
  • 可通过 UFM 进行增强
  • 温度传感器和电压监视器
  • 风扇速度由管理软件控制

优势

  • 高投资回报率 – 能源效率、成本节省、可扩展的高性能
  • 用于并行计算或输入/输出 (I/O) 收敛的高性能网络
  • 最多 648 个端口,实现模块化扩展
  • 用于计算密集型应用程序的高带宽、低延迟网络
  • 快捷易用的设置和管理
  • 通过消除网络拥塞来更大限度提高性能
  • 适用于集群和融合式 I/O 应用程序的网络管理

CS7500 系列比较表

  链路速度 端口数 高度 交换容量 冷却系统 Spine 模块 Leaf 模块 接口 管理模块 PSU 数量
CS7500 100Gb/s 648 28U 130Tb/s 20 个风扇 18 18 QSFP28 1-2 10
CS7510 100Gb/s 324 16U 64.8Tb/s 12 个风扇 9 9 QSFP28 1-2 6
CS7520 100Gb/s 216 12U 43.2Tb/s 8 个风扇 6 6 QSFP28 1-2 4

相关资源

了解如何打造兼具高效率与高性能的网络。

配置您的集群

参加网络课程

准备购买?