更大限度提升数据中心性能并提高投资回报率
作为一种创新的网络网卡架构,NVIDIA® Mellanox® Socket Direct® 支持对多个 CPU 插槽的直接 PCIe 访问,让网络流量无需遍历进程间总线。这优化了整体系统性能和最大吞吐量,可满足要求苛刻的应用程序和市场的需求。
依托 NVIDIA Mellanox Multi-Host® 技术,NVIDIA Mellanox Socket Direct 技术使多路服务器中的多个 CPU 能够通过各自的专用 PCIe 接口直接连接到网络。通过在两个卡之间划分 PCIe 通道的连接线束,或通过为单个卡分隔 PCIe 插槽。这消除了穿越插槽之间的内部总线的网络通信量,从而不仅降低了 CPU 利用率并增加网络吞吐量,还显著降低了开销和延迟。此外,由于 Mellanox Socket Direct 支持原生 GPU-Direct® 技术,它还提高了人工智能和机器学习应用程序性能。
延迟改进
降低 80%
CPU 利用率
降低 50%
吞吐量
改进 16-28%
网络协议
以太网/InfiniBand
Socket Direct 网卡可以使用 MCTP over SMBus 或 MCTP over PCIe 连接到 BMC,类似于标准 NVIDIA PCIe 立式网卡。所选的管理接口可促进平台管理和子系统组件之间的通信,然后通过选定的服务器管理解决方案可以透明地配置 Socket Direct 网卡。
Socket Direct 技术利用相同的底层技术,支持 Multi-Host,单纯用于同一服务器中的不同 CPU。与实施 Socket Direct 时相比,在应用处理器负载的同时比较服务器的外部吞吐量时,与单个 CPU 的标准网卡连接相比,吞吐量提高了 16%-28%。
*有关 Socket Direct 以太网虚拟化或 Socket Direct 双端口用例,请联系 NVIDIA Mellanox 客户支持
ConnectX-5 产品概览
ConnectX-6 产品概览
VPI Socket Direct 产品概览(支持以太网)
ConnectX-5 Socket Direct 用户手册
ConnectX-6 用户手册
借助 Mellanox Socket Direct 网卡更大限度提升服务器性能
我们随时待命,为您打造兼具高效率与高性能的网络。