NVIDIA Grace CPU

专为解决全球最富挑战的计算难题

加速大型 AI、HPC、云和超大规模工作负载

AI 模型的复杂性和规模呈爆炸式增长,因为它们增强了包含数百 TB 数据的深度推荐系统,改进了包含数千亿参数的对话式 AI,并实现了科学发现。扩展这些大型模型需要能够快速访问大型内存池并使 CPU 和 GPU 紧密合的新架构。NVIDIA Grace™ CPU 提供高性能、能效和高带宽连接,可用于各种配置,以满足不同的数据中心需求。

借助 NVIDIA Grace Hopper Superchip 提高推荐系统准确性。

获取 NVIDIA 超级芯片的最新消息

了解 NVIDIA Grace CPU 如何为新型大容量超级计算机提供支持。

NVIDIA 和 Softbank

NVIDIA 和 SoftBank 利用生成式 AI 重塑 5G 数据中心

基于 Arm 的 NVIDIA Grace Hopper 超级芯片、BlueField - 3 DPU 和 Aerial SDK 为生成式 AI 和 5G/ 6G 通信提供革命性架构。

英国研究联盟、GW4、Arm、HPE

新一波节能超级计算机

了解由 NVIDIA Grace CPU 驱动的用于气候科学、医学研究等领域的最新节能 Arm 超级计算机。

NVIDIA GH200 Grace Hopper 超级芯片已全面投产

NVIDIA GH200 Grace Hopper 超级芯片已全面投产

配备 GH200 的系统加入全球系统制造商正在推出的 400 多种系统配置,以满足对生成式 AI 的激增需求。

借助 NVIDIA MGX 更快地创建加速数据中心

借助 NVIDIA MGX 更快地创建加速数据中心

了解 QCT 和 Supermicro 如何采用模块化设计,为各种 AI、高性能计算 (HPC) 和 5G 应用快速且经济高效地构建多个数据中心配置。

为巨型 AI 模型提供海量共享 GPU 显存

为巨型 AI 模型提供海量共享 GPU 显存

了解 NVIDIA Grace Hopper 超级芯片如何为新兴 AI 的新型大型内存超级计算机提供支持。

深入了解超级芯片的 Grace 系列

NVIDIA Grace Hopper 超级芯片

NVIDIA Grace Hopper™ 超级芯片将 Grace 和 Hopper 架构与 NVIDIA® NVLink® - C2C 相结合,为加速 AI 和高性能计算 (HPC) 应用提供 CPU + GPU 一致性内存模型。

NVIDIA Grace Hopper 超级芯片
NVIDIA Grace CPU 超级芯片

NVIDIA Grace CPU 超级芯片

NVIDIA Grace CPU 超级芯片采用 NVLink - C2C 技术,可提供 144 个 Arm® Neoverse V2 核心和 1 TB/s 的内存带宽。

探索适用于现代数据中心工作负载的 Grace 参考设计

面向数字孪生、AI 和高性能计算的系统设计

OVX-Digital Twins & Omniverse

NVIDIA OVX™

适用于数字孪生和 NVIDIA Omniverse™。

NVIDIA Grace CPU Superchip
NVIDIA GPUs
NVIDIA BlueField®-3

HGX-HPC

NVIDIA HGX™

适用于 HPC。

NVIDIA Grace CPU Superchip
NVIDIA BlueField-3
OEM 定义的输入/输出 (IO)

HGX-AI Training, Inference & HPC

NVIDIA HGX

适用于 AI 训练、推理和 HPC。

NVIDIA Grace Hopper Superchip
NVIDIA BlueField-3
OEM 定义的 IO/第四代 NVLink

专为解决复杂问题而设计

NVIDIA Grace CPU 通过 Arm 架构的灵活性来创建 CPU 和服务器架构,该架构是专门针对加速计算而从头开始设计的。与当今运行最快的服务器相比,这种创新设计将聚合带宽提高 30 倍,并且对于运行数万亿字节数据的应用,性能将提高 10 倍。NVIDIA Grace 旨在使科学家和研究人员能够训练规模最大的模型以解决最复杂的问题。

详细了解最新技术创新

借助 NVLink - C2C 加速 CPU 到 GPU 的连接

解决重大的 AI 和 HPC 问题需要高容量和高带宽内存 (HBM)。第四代 NVIDIA NVLink-C2C 可在 NVIDIA Grace CPU 和 NVIDIA GPU 之间提供 900 GB/s 的双向带宽。此项互连技术可提供统一、缓存一致性的内存地址空间,后者将系统和 HBM GPU 显存相结合,能够简化可编程性。CPU 和 GPU 之间这种一致、高带宽的连接是加速解决未来复杂问题的关键。

使用 LPDDR5X 处理高带宽显存

NVIDIA Grace 是率先通过纠错码 (ECC) 等机制,利用具有服务器级可靠性的 LPDDR5X 内存来满足数据中心需求的服务器 CPU,其内存带宽为当今常规服务器内存的 2 倍,能效更是高达后者的 10 倍。NVIDIA Grace LPDDR5X 解决方案与大型高性能最后一级缓存相结合,为超大模型提供必要的带宽,同时降低系统功耗,以更大限度提高其处理新一代工作负载的性能。

借助 Arm Neoverse V2 核心提升性能和效率

随着 GPU 并行计算能力的不断提高,系统仍然可以通过在 CPU 上运行的序列任务来控制工作负载。快速高效的 CPU 是系统设计的关键组件,可以更大限度地加速工作负载。NVIDIA Grace CPU 集成了 Arm Neoverse V2 核心,能够以节能高效的设计实现高性能,使科学家和研究人员更轻松地开展其毕生事业。

了解我们的合作伙伴

Asus
Atos logo
DELL logo
Fii logo
Gigabyte logo
H3c logo
Hewlett Packard Enterprise Logo
Inspur logo
Lenovo logo
Nettrix logo
Quanta-cloud
Supermicro
Wiwynn-logo
xfusion-logo

更多资源

亮点内容

了解采用 NVIDIA Grace CPU 的新一代高效 ARM 超级计算机。