NVIDIA 机密计算

在各个阶段保护数据和 AI 模型的安全

在数据收集、存储和使用阶段保护数据的安全

使用中的数据、AI 模型和应用很容易遭到外部攻击和内部威胁。借助 [NVIDIA 机密计算 (CCX)],您可以在各个阶段(收集、存储和使用阶段)保护数据的安全。NVIDIA Hopper 架构中这一突破性的安全保护功能可以减轻这些威胁,同时可让用户大幅提升 NVIDIA H100 Tensor Core GPU 的速度,从而更快地处理 AI 工作负载。

NVIDIA [加速机密计算] 的优势

基于硬件的安全性和隔离

在本地、云端或边缘实现虚拟机 (VM) 的完全隔离。CPU 和 H100 GPU 之间的数据传输以 PCIe 线速进行加密和解密。使用内置硬件防火墙创建物理隔离的受信任执行环境 (TEE),保护基于 H100 GPU 的整个工作负载。

防止未经授权的访问

保护所使用的数据和 AI 应用程序的机密性和完整性。未经授权的实体(包括虚拟机监视器、主机操作系统、云提供程序以及能够物理访问基础架构的任何人)在执行期间无法查看或修改 AI 应用和数据,从而保护敏感的客户数据和知识产权。

设备认证的可验证性

打开 [NVIDIA CCX],确保只有经授权的最终用户才能将数据和代码放入 H100 的 TEE 内执行。此设备认证可验证用户是否正在使用真实的 NVIDIA H100 GPU、固件是否未被篡改,以及 GPU 固件是否已按预期更新。

适当规模的 GPU 安全性

保护在单个 H100 GPU 或节点内的多个 H100 GPU 上运行的整个 AI 工作负载。借助 CCX,您还可以使用物理方式隔离并保护在单个 MIG 实例上运行的 AI 工作负载,从而在单个 H100 GPU 上让多个租户实现机密计算,并优化基础架构的利用率。

无需更改应用代码

在大多数情况下,您无需对 GPU 加速工作负载进行代码更改,即可充分利用 [NVIDIA CCX] 的所有优势。使用 NVIDIA GPU 优化软件、框架和行业特定的 SDK,在维护安全性、隐私和监管合规性的同时,在 H100 GPU 上加速端到端 AI 工作负载。

为 AI 安全解锁新的可能性

hopper-h100-confidential-computing-2c50-d

保护 AI 知识产权

除数据之外,[NVIDIA CCX] 还可以保留部署在 H100 GPU 上的 AI 模型和算法的机密性和完整性。独立软件供应商 (ISV) 现可在共享或远程基础架构(包括第三方或托管数据中心、边缘基础架构和公有云)上大规模分发和部署其专有 AI 模型。这样,零售和制造等行业的 ISV 能够在保护知识产权 (IP) 免受未经授权的访问或修改(包括对部署基础架构进行物理访问的人的此类行为)的同时,让更多受众获享 AI 解决方案。

AI 训练和推理的安全性

训练 AI 模型使之达到收敛状态是一个复杂且不断迭代的计算密集型过程,需要处理大量数据。完成训练后,这些 AI 模型将集成到企业应用中,用以推理或预测所收到的新数据。越来越多的行业(如金融、医疗健康和公共部门)在 AI 模型训练和推理中使用的数据十分敏感或监管严格,例如个人身份信息。借助 [NVIDIA CCX],企业可以在 AI 训练和推理期间(无论是本地、云端还是边缘)确保数据的机密性。

hopper-arch-confidential-computing-2c50-d
hopper-mig-2c50-d

安全的多方协作

为欺诈检测、医学成像和药物开发等用例构建和改进 AI 模型需要使用仔细标记的多样化数据集来训练神经网络。这要求多方在不影响数据源的机密性和完整性的情况下进行协作。[NVIDIA CCX] 可解锁安全的多方计算,让组织能够共同协作来训练或评估 AI 模型,并确保数据和 AI 模型都受到保护,免遭未经授权的访问、外部攻击以及每个参与站点的内部威胁。

初步规格,可能会有所变更

典型内容

深入了解 NVIDIA Hopper 架构