Magnum IO

多 GPU、多节点网络和存储 IO 优化堆栈

满足计算密集型工作负载的带宽需求

GPU 可提供处理计算密集型工作负载所需的性能,但由于数据消耗量巨大,输入或输出 (IO) 带宽的需求也会随之上升。NVIDIA Magnum IO 是集计算、网络、文件系统和存储于一身的 NVIDIA API 集,可更大限度地提升多 GPU、多节点加速系统的 IO 性能。该 API 集已连接 CUDA-X 库,因而可实现从 AI 到可视化等各种工作负载的 IO 加速。

GPU 优化的网络和存储 IO 性能

Magnum IO 集成了基础架构元件,可更大限度地优化存储和网络的 I/O 性能和功能。主要优势包括:

经优化的 IO 性能: Magnum IO 会绕过 CPU,在 GPU 显存和网络存储之间实现直接 IO。

系统平衡和利用率: Magnum IO 可通过减少 CPU 争用打造更平衡的 GPU 加速系统,同时可借助 1/10 的 CPU 内核数提供最大 IO 带宽。

无缝集成: 无论数据传输是延迟敏感型、带宽敏感型还是二者兼具,Magnum IO 均能为当下和未来的平台优化部署。

IO 优化堆栈

Magnum IO 采用多种 IO 优化创新技术,例如 NCCL、NVIDIA® GPUDirect RDMA 和 NVIDIA Fabric Manager。 GPUDirect Storage 是该堆栈的核心功能。该功能在 GPU 显存和存储之间开辟了一条直接数据路径,因此可完全避开 CPU。这条直接路径有助于提高带宽、降低延迟以及 CPU 和 GPU 的工作负载。使用 Magnum IO 解决 IO 问题有助于打造平衡系统。

IO Optimization Stack

详细了解助力打造 Magnum IO 的各种技术。