NVIDIA Grace CPU

专为解决全球最富挑战的计算难题

加速最富挑战的 AI、高性能计算、云服务和超大规模工作负载

AI 模型通过数千亿的参数改进对话式 AI,增强包含数万亿字节的深度推荐系统,并获得新的科学发现,其复杂性和规模正呈现爆炸式增长。这些庞大的模型正在挑战当今系统的极限。继续扩展模型以实现高度准确性和实用性,需要能够快速访问大型内存池并使 CPU 和 GPU 紧密耦合。

产品

NVIDIA Grace Hopper 超级芯片

NVIDIA Grace Hopper 超级芯片结合了 Grace 和 Hopper 架构,使用 NVIDIA® NVLink-C2C 技术为加速 AI 和高性能计算 (HPC) 应用提供 CPU+GPU 一致性内存模型。

  • CPU+GPU 的设计专为解决巨型 AI 和 HPC 挑战
  • 全新 900 GB/s 一致性接口,比 PCIe 5.0 快 7 倍
  • 与 DGX A100 相比,GPU 的聚合系统显存带宽提高了 30 倍
  • 可运行所有的 NVIDIA 软件堆栈和平台,包括 NVIDIA HPC、NVIDIA AI 和 NVIDIA Omniverse
NVIDIA Grace Hopper 超级芯片
NVIDIA Grace CPU 超级芯片

NVIDIA Grace CPU 超级芯片

NVIDIA Grace CPU 超级芯片通过 NVLink-C2C 技术带来 144 个 Arm® v9 核心以及 1 TB/s 内存带宽。

  • 用于 HPC 和云计算的高性能 CPU
  • 拥有多达 144 个 Arm v9 CPU 核心的超级芯片设计
  • 率先采用 ECC 技术的新一代 LPDDR5x 内存,总带宽为 1TB/s
  • SPECrate®2017_int_base 得分预计超过 740
  • 900 GB/s 一致性接口,比 PCIe 5.0 快 7 倍
  • 封装密度比 DIMM 解决方案提高了 2 倍
  • 每瓦性能 2 倍于当今领先的 CPU
  • 可运行所有的 NVIDIA 软件堆栈和平台,包括 NVIDIA RTX、HPC、NVIDIA AI 和 NVIDIA Omniverse

观看 NVIDIA 创始人兼首席执行官黄仁勋先生的主题演讲,了解 Grace CPU 超级芯片。

 

专为解决复杂问题而设计

NVIDIA Grace CPU 通过 Arm 架构的灵活性来创建 CPU 和服务器架构,该架构是专门针对加速计算而从头开始设计的。与当今运行最快的服务器相比,这种创新设计将聚合带宽提高 30 倍,并且对于运行数万亿字节数据的应用,性能将提高 10 倍。NVIDIA Grace 旨在使科学家和研究人员能够训练规模最大的模型以解决最复杂的问题。

最新技术创新

第四代 NVIDIA NVLink-C2C 互连技术

解决重大的 AI 和 HPC 问题需要高容量和高带宽内存 (HBM)。第四代 NVIDIA NVLink-C2C 可在 NVIDIA Grace CPU 和 NVIDIA GPU 之间提供 900 GB/s 的双向带宽。此项互连可提供统一、缓存一致性的内存地址空间,后者将系统和 HBM GPU 显存结合在一起,能够简化可编程性。CPU 和 GPU 之间这种一致性、高带宽的连接是加速解决未来复杂 AI 和 HPC 问题的关键。

采用具有 ECC 功能的新型 LPDDR5x 高带宽内存子系统

内存带宽是服务器性能的关键因素,标准双倍速率 (DDR) 内存会消耗整个电源功率的很大一部分。NVIDIA Grace CPU 是率先通过纠错码 (ECC) 等机制,利用具有服务器级可靠性的 LPDDR5x 内存来满足数据中心需求的服务器 CPU,其内存带宽为当今常规服务器内存的 2 倍,能效更是高达 10 倍。NVIDIA Grace LPDDR5x 解决方案与大型高性能末级缓存相结合,为大型模型提供了必要的带宽,同时降低了系统功耗,使下一代工作负载的性能最大化。

新一代 Arm v9 核心

随着 GPU 并行计算能力的不断提高,仍然可以通过在 CPU 上运行的序列任务来控制工作负载。快速高效的 CPU 是系统设计的关键组件,可以更大限度地加速工作负载。NVIDIA Grace CPU 集成新一代 Arm v9 核心,以节能高效的设计提供高性能,让科学家和研究人员能够更轻松地完成他们的毕生事业。

观看 NVIDIA 创始人兼首席执行官黄仁勋先生在 GTC 大会上发表的重要主题演讲,他在大会中展示了 NVIDIA Grace CPU 超级芯片,敬请阅读新闻稿以了解更多信息。