NVIDIA DGX-2

突破 AI 速度和规模的限制

能够应对复杂 AI 挑战的 AI 服务器

NVIDIA DGX-2 是 NVIDIA 首款集成了 16 个 NVIDIA V100 Tensor 核心 GPU 的 2 petaFLOPS 系统,适用于大规模 AI 项目,让您可以体验 10 倍于以往的深度学习性能。DGX-2 由 NVIDIA DGX 软件和 NVIDIA® NVSwitch™ 的可扩展架构提供支持,是应对复杂 AI 挑战的上佳平台。

了解相关优势

出色的计算能力

出色的计算能力

NVIDIA DGX-2 配备 16 个 NVIDIA V100 GPU,其性能是 8-GPU 系统的 10 倍,因此您可以处理大型训练数据集。利用增强型 DGX-2H 实现更高的性能。

革命性的 AI 网络结构

革命性的 AI 网络结构

NVSwitch 网络结构的对分带宽达到每秒 2.4 兆兆字节 (TB/s),比前几代产品高出了 24 倍,可提高模型并行计算能力。

更大规模的 AI

更大规模的 AI

借助虚拟化支持和专为扩展打造的架构,构建您自己的企业级 AI 私有云。

获取 AI 专业知识

获取 AI 专业知识

凭借专门打造的集可靠性、可用性和可维修性 (RAS) 为一体的系统缩短停机时间,并通过企业级支持以及获取 NVIDIA AI 专业知识来提高洞察速度。

设置 AI 基准

NVIDIA DGX-2 可将深度学习训练速度提高 195 倍

探索功能强大的 DGX-2 组件

16 个全连接的 TESLA V100 32GB GPU
总容量达 0.5 TB 的高带宽内存,适用于更复杂的深度学习模型
12 组 NVSWITCH
提供 2.4 TB/s 的对分带宽
8 路 EDR INFINIBAND/100 GigE
1600 Gb/s 的低延迟总双向带宽
NVLINK PLANE CARD
创新的双 GPU 基板互联
2 块 XEON PLATINUM
新一代 CPU,可提供更快速、更灵活的启动和存储管理
1.5 TB 系统内存
系统内存容量更大,可以处理更大的深度学习工作负载
两个高速以太网网卡
为您的 AI 数据提供高 I/O 吞吐量
30TB NVME SSDs
将大型数据集快速提取至缓存

Red Hat Enterprise Linux 基于 NVIDIA DGX 系统

架构改进

DFKI 利用 AI 开展危机管理

德国人工智能研究中心 (DFKI) 正在利用 NVIDIA DGX-2 中增加的 GPU 显存和基于 NVSwitch 架构的全连接 GPU,分析大规模的卫星和航空影像并高效调度应急资源。

DFKI 利用 AI 开展危机管理

OSU 加速研究和训练

俄勒冈州立大学 (OSU) 利用 DGX-2 加速其在 AI、机器人、无人驾驶汽车、医学成像和其他研究领域的工作。

OSU 加速研究和训练

伦敦国王学院率先在英国打造医院专用 AI 平台

NVIDIA DGX-2 具备大量显存和大规模计算能力,这让专家能够在几分钟(而不是几天)内完成大型 3D 数据集的训练,同时通过联合学习基础设施确保数据的安全性。

伦敦国王学院率先在英国打造医院专用 AI 平台

Sberbank 建立由 AI 提供支持的组织

Sberbank 正在利用基于 NVIDIA DGX-2 系统构建的 NVIDIA DGX SuperPOD™ 进行自然语言处理 (NLP),以改善支持通话方面的客户体验。他们还在研究其他 AI 用例,例如欺诈检测、推荐系统、预测性维护和生物特征面部识别等。

Sberbank 建立由 AI 提供支持的组织

了解有关 NVIDIA DGX 系统的企业级支持。

NVIDIA DGX SuperPOD

Leadership-Class AI Infrastructure

立即购买 NVIDIA DGX

详细了解 DGX 系统

系统级别的规格
GPU 数量 16 个 NVIDIA V100 GPU
GPU 显存 512 GB
网络 8 EDR InfiniBand 或 100 GbE

常见问题解答

  • DGX-2 的用途是什么?

    DGX-2 系统用于涉及大型模型、更复杂的网络以及数据和模型并行处理的工作负载,包括高清视频训练和自然语言处理 (NLP)。

  • 在哪里可以获得 DGX-2 上运行的优化软件?

    DGX 操作系统 (DGX OS) 已经包含必要的软件包、驱动和其他配置。所有人均可通过 NGC™ 免费获得 NVIDIA 优化的深度学习软件容器目录

  • 如何为更大规模的项目连接两个或两个以上的 DGX 系统?

    有关如何部署、管理和监控多节点 DGX 集群的信息,请参阅我们的用户指南