在各个阶段保护数据和 AI 模型的安全
使用中的数据、AI 模型和应用很容易遭到外部攻击和内部威胁。借助 [NVIDIA 机密计算 (CCX)],您可以在各个阶段(收集、存储和使用阶段)保护数据的安全。NVIDIA Hopper™ 架构中这一突破性的安全保护功能可以减轻这些威胁,同时可让用户大幅提升 NVIDIA H100 Tensor Core GPU 的速度,从而更快地处理 AI 工作负载。
在本地、云端或边缘实现虚拟机 (VM) 的完全隔离。CPU 和 H100 GPU 之间的数据传输以 PCIe 线速进行加密和解密。使用内置硬件防火墙创建物理隔离的受信任执行环境 (TEE),保护基于 H100 GPU 的整个工作负载。
保护所使用的数据和 AI 应用程序的机密性和完整性。未经授权的实体(包括虚拟机监视器、主机操作系统、云提供程序以及能够物理访问基础架构的任何人)在执行期间无法查看或修改 AI 应用和数据,从而保护敏感的客户数据和知识产权。
打开 [NVIDIA CCX],确保只有经授权的最终用户才能将数据和代码放入 H100 的 TEE 内执行。此设备认证可验证用户是否正在使用真实的 NVIDIA H100 GPU、固件是否未被篡改,以及 GPU 固件是否已按预期更新。
保护在单个 H100 GPU 或节点内的多个 H100 GPU 上运行的整个 AI 工作负载。借助 CCX,您还可以使用物理方式隔离并保护在单个 MIG 实例上运行的 AI 工作负载,从而在单个 H100 GPU 上让多个租户实现机密计算,并优化基础架构的利用率。
在大多数情况下,您无需对 GPU 加速工作负载进行代码更改,即可充分利用 [NVIDIA CCX] 的所有优势。使用 NVIDIA GPU 优化软件、框架和行业特定的 SDK,在维护安全性、隐私和监管合规性的同时,在 H100 GPU 上加速端到端 AI 工作负载。
除数据之外,[NVIDIA CCX] 还可以保留部署在 H100 GPU 上的 AI 模型和算法的机密性和完整性。独立软件供应商 (ISV) 现可在共享或远程基础架构(包括第三方或托管数据中心、边缘基础架构和公有云)上大规模分发和部署其专有 AI 模型。这样,零售和制造等行业的 ISV 能够在保护知识产权 (IP) 免受未经授权的访问或修改(包括对部署基础架构进行物理访问的人的此类行为)的同时,让更多受众获享 AI 解决方案。
训练 AI 模型使之达到收敛状态是一个复杂且不断迭代的计算密集型过程,需要处理大量数据。完成训练后,这些 AI 模型将集成到企业应用中,用以推理或预测所收到的新数据。越来越多的行业(如金融、医疗健康和公共部门)在 AI 模型训练和推理中使用的数据十分敏感或监管严格,例如个人身份信息。借助 [NVIDIA CCX],企业可以在 AI 训练和推理期间(无论是本地、云端还是边缘)确保数据的机密性。
为欺诈检测、医学成像和药物开发等用例构建和改进 AI 模型需要使用仔细标记的多样化数据集来训练神经网络。这要求多方在不影响数据源的机密性和完整性的情况下进行协作。[NVIDIA CCX] 可解锁安全的多方计算,让组织能够共同协作来训练或评估 AI 模型,并确保数据和 AI 模型都受到保护,免遭未经授权的访问、外部攻击以及每个参与站点的内部威胁。
初步规格,可能会有所变更
博客:
开放机密计算会议 (OC3) 上的 NVIDIA 会议: