Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
专为解决全球最富挑战的计算难题
随着模型的复杂性激增,加速计算和能源效率对于满足 AI 需求变得至关重要。NVIDIA Grace™ CPU 是一款突破性的 Arm® CPU,具有超强的性能和效率。它可以与 GPU 紧密结合以增强加速计算能力,也可以作为强大而高效的独立 CPU 进行部署。NVIDIA Grace CPU 是新一代数据中心的基础,可采用多种配置来满足不同数据中心的需求。
NVIDIA GB200 Grace Blackwell 超级芯片将两个 NVIDIA Blackwell Tensor Core GPU 和一个 Grace CPU 相结合,可以扩展到含有 72 个 GPU 通过 NVIDIA® NVLink® 连接的大型系统 GB200 NVL72,为大语言模型提供速度提高 30 倍的实时推理。
The NVIDIA Grace Hopper™ 超级芯片通过 NVIDIA® NVLink®-C2C 结合Grace 和 Hopper 架构,为加速 AI 和高性能计算 (HPC) 应用提供了 CPU+GPU 内存一致性模型。
NVIDIA Grace CPU 超级芯片采用 NVLink - C2C 技术,可提供 144 个 Arm® Neoverse V2 核心和 1 TB/s 的内存带宽。
了解 NVIDIA Grace CPU 如何为新型大容量超级计算机提供支持。
NVIDIA GB200 NVL72 Grace Blackwell 超级芯片是为新一代 AI 打造的架构,可为实时万亿参数语言模型提供强大动力。
作为一款开创先河的 HBM3e 处理器,它可提供惊人的内存和带宽,为加速计算和生成式 AI 时代再添强劲助力。
基于 Arm 的 NVIDIA Grace Hopper™ 超级芯片、BlueField® - 3 DPU 和 Aerial™ SDK 为生成式 AI 和 5G/ 6G 通信提供革命性架构。
了解由 NVIDIA Grace CPU 驱动的用于气候科学、医学研究等领域的最新节能 Arm 超级计算机。
配备 GH200 的系统加入全球系统制造商正在推出的 400 多种系统配置,以满足对生成式 AI 的激增需求。
了解 QCT 和 Supermicro 如何采用模块化设计,为各种 AI、高性能计算 (HPC) 和 5G 应用快速且经济高效地构建多个数据中心配置。
解决重大的 AI 和 HPC 问题需要高容量和高带宽内存 (HBM)。第四代 NVIDIA NVLink-C2C 可在 NVIDIA Grace CPU 和 NVIDIA GPU 之间提供 900 GB/s 的双向带宽。此项互连技术可提供统一、缓存一致性的内存地址空间,后者将系统和 HBM GPU 显存相结合,能够简化可编程性。CPU 和 GPU 之间这种一致、高带宽的连接是加速解决未来复杂问题的关键。
NVIDIA Grace 是率先通过纠错码 (ECC) 等机制,利用具有服务器级可靠性的 LPDDR5X 内存来满足数据中心需求的服务器 CPU,其内存带宽为当今常规服务器内存的 2 倍,能效更是高达后者的 10 倍。NVIDIA Grace LPDDR5X 解决方案与大型高性能最后一级缓存相结合,为超大模型提供必要的带宽,同时降低系统功耗,以更大限度提高其处理新一代工作负载的性能。
随着 GPU 并行计算能力的不断提高,仍然可以通过在 CPU 上运行的序列任务来控制工作负载。快速高效的 CPU 是系统设计的关键组件,可以更大限度地加速工作负载。NVIDIA Grace CPU 集成了 Arm Neoverse V2 核心与 NVIDIA 可扩展一致性结构,能够以节能高效的设计实现高性能,使科学家和研究人员更轻松地开展其毕生事业。
生成式 AI 需要大量显存和计算。NVIDIA GB200 超级芯片使用 380GB 的 HBM 显存,提供的 GPU 显存带宽超过 NVIDIA H100 Tensor Core GPU 的 4.5 倍。Grace Blackwell 中的高带宽显存通过 NVLink-C2C 连接到 CPU 内存,可为 GPU 提供近 860GB 的快速访问显存,从而为处理全球复杂度数一数二的生成式 AI 和加速计算工作负载提供所需的显存容量和带宽。
NVIDIA 通过性能调整指南、开发者工具和库为 NVIDIA Grace 提供深度支持。