为半定制 AI 基础设施应用经过业界验证的 AI 纵向扩展性能与机架级体系架构。
NVLink Fusion 是一个机架级 AI 基础设施平台,助力超大规模数据中心和自定义 ASIC 设计用户将自定义的 CPU 或 XPU 与业界领先的 NVLink 纵向扩展互连技术及 OCP MGX 机架级服务器架构进行集成。借助 NVIDIA 经过实践检验的 AI 技术栈以及经过行业验证的机架级设计和生态系统,可加快上市速度、降低开发成本和部署风险,并以更高的投资回报率实现更优异的性能。
NVLink Fusion 模块化技术组合包括 NVIDIA GPU、NVIDIA Vera™ CPU、NVLink 纵向扩展网络、光电一体封装 (CPO) 交换机、NVIDIA ConnectX® SuperNIC、BlueField® DPU 和 Mission Control 软件。这个丰富全面的生态系统包括 ASIC 设计者、CPU 和 IP 提供商、OEM/ODM 以及组件供应商,涵盖快速部署定制 AI 芯片所需的一切。
优势
要释放 AI 工厂的全部潜力,所有加速器之间必须实现快速无缝通信。NVIDIA NVLink 6 能够连接 72 个 XPU,实现每个 XPU 3.6 TB/s 的 all-to-all 带宽,显著提升 AI 性能与投资回报率。
成熟的 NVLink Fusion 供应商生态系统提供基于 OCP MGX 架构实现完整机架级部署所需的所有组件,从机架、机箱、电源到冷却系统,消除新机架设计相关的开发成本和部署风险。
借助 NVIDIA 经过实战检验的技术栈以及由 ASIC 设计者、CPU 和 IP 提供商以及 OEM/ODM 组成的生态系统,超大规模数据中心企业可以加快产品上市,更快实现盈利。
由于超大规模企业已部署了完整的 NVIDIA 机架解决方案,NVLink Fusion 技术可在标准化通用机架设计的同时支持异构芯片产品,从而加速 AI 工厂部署并简化管理。
平台
NVIDIA NVLink 6 和 NVLink Switch 芯片在 72 个加速器的 NVLink 域 (NVL72) 中实现 260 TB/s 的带宽,并支持 NVIDIA Scalable Hierarchical Aggregation and Reduction Protocol (SHARP)™ FP8 技术实现 4 倍带宽效率。
NVIDIA NVLink-C2C 将行业领先的 NVLink 技术扩展到芯片之间的直连。助力 NVIDIA 合作伙伴通过 chiplets 创造新型集成产品,实现 NVIDIA GPU 或 CPU 与客户定制芯片的高带宽一致性连接。
采用企业
了解 NVIDIA NVLink Fusion 如何满足复杂 AI 模型日益增长的需求。