GPU 加速 Google Cloud

加速计算和可视化的快速、功能强大的云

NVIDIA 和 Google Cloud 强强联手,让企业组织无需大量支出或执行复杂的基础架构管理,即可更快获得结果,解决数据难题。使用 NVIDIA GPU 加速深度学习、分析、科学仿真及其他高性能计算 (HPC) 工作负载,同时结合使用 NVIDIA® RTX 虚拟工作站和 Google Cloud,随时随地加速渲染、仿真和图形密集型工作负载。

NVIDIA AI Enterprise 现已登陆
Google Cloud Marketplace

NVIDIA AI Enterprise 是一款端到端的安全云原生 AI 软件套件,可以助力企业组织在提高运营效率的同时解决新难题。该套件可以加速数据科学工作流,简化预测性 AI 模型的开发、部署和管理,从而实现基本流程的自动化,并快速从数据中获得见解。内含丰富的全栈软件库,其中包括 AI 解决方案工作流、框架、预训练模型和基础架构优化。全球企业级支持和定期安全审查助力确保业务的连续性,还能确保 AI 项目取得成功并保持正常运行。

Google Cloud 上的 NVIDIA AI Enterprise 市场产品包括 VMI,该产品可提供经过优化的标准运行时,能实现访问 NVIDIA AI Enterprise 软件的轻松访问,并确保云端与本地 AI 架构之间的开发兼容性。 一次开发,随处运行。

Google Cloud 上的 GPU

采用 NVIDIA GPU 的 Google Cloud Anthos

以裸机形式或通过 VMware vSphere 提供

Google Cloud Anthos 是由 Kubernetes 提供支持的应用现代化改造平台。Anthos 面向希望寻求混合架构和需要处理大量本地需求的客户,旨在实现云端服务的轻松入门,同时兼顾本地解决方案的安全性。Anthos 以混合平台的形式提供,可在云端、本地和边缘环境中处理 NVIDIA GPU 工作负载。

Anthos 现可用于裸机和 vSphere 虚拟化部署。支持 NVIDIA DGX 以及配备 NVIDIA T4、V100 或 A100 Tensor Core GPU 的服务器系统。您可以根据您的应用需求和服务器基础架构选择最佳配置,从而实现理想部署。

 查看基于 NVIDIA GPU 的 Google Cloud Anthos 用户指南

采用 NVIDIA GPU 的 Google Cloud Anthos
基于 NVIDIA DGX A100 的 Google Cloud Anthos

采用 NVIDIA DGX A100 的 Google Cloud Anthos

NVIDIA DGX A100 是世界精尖的 AI 系统,专为解决企业的独特需求而构建。现在,企业组织可以构建混合 AI 云,以便从现有 DGX 本地 AI 架构以及 Google Cloud 内部署的 NVIDIA GPU 中轻松获取计算能力。凭借云端 AI 计算的简易性和灵活性,基于 NVIDIA DGX A100 的 Google Cloud Anthos 可帮助企业组织完善其专用 DGX 系统基础架构与生俱来的卓越性能。

阅读博文:How to Avoid Speed Bumps and Stay in the AI Fast Lane with Hybrid Cloud Infrastructure(如何借助混合云基础架构规避前进障碍,并在 AI 领域始终保持快速发展)(2020 年 11 月 30 日)

NVIDIA A100 Tensor Core GPU

NVIDIA® A100 可针对 AI、数据分析和高性能计算 (HPC),在各种规模上实现出色的加速,应对非常棘手的计算挑战。作为 NVIDIA 数据中心平台的引擎,A100 可以高效地扩展到数千个 GPU,也可以利用 NVIDIA 多实例 GPU (MIG) 技术划分为七个 GPU 实例,以加速各种规模的工作负载。第三代 Tensor Core 可实现各种精度的加速,从而支持各种工作负载,缩短分析时间和上市时间。

Altair ultraFluidX 上的 A100 性能(PDF 版,503KB)

收听 Kubernetes Podcast from Google,了解加速器和 GPU 的相关资讯(31 分钟)

NVIDIA A100 Tensor Core GPU
NVIDIA A100

为 AI、数据分析和 HPC 实现非凡的大规模加速

NVIDIA T4

适用于所有工作负载(包括云游戏)的通用加速器

NVIDIA V100

率先用于加速 HPC 和 AI 的 Tensor Core GPU

NVIDIA V100

NVIDIA GPU Cloud

NGC 的 GPU 加速容器

通过 NGC,您可轻松访问预集成和由 GPU 优化的容器,将其用于深度学习软件、高性能计算应用和高性能计算可视化工具,充分利用 Google Cloud 上的 NVIDIA A100、V100、P100 和 T4 GPU。NGC 还提供预训练模型和脚本,用于为分类、检测、文本转语音等常见用例构建优化的模型。现在,您只需几分钟即可部署生产质量级、GPU 加速的软件。

NVIDIA TensorRT

NVIDIA TensorRT

NVIDIA TensorRT 是一款高性能深度学习推理优化器和运行时环境,可为推理应用实现低延迟和高吞吐量。优化神经网络模型、对较低精度进行高准确度的校准,并为 Google Cloud 部署模型。并且由于其与 TensorFlow 紧密集成,您可以借助 TensorRT 强大的优化功能获得 TensorFlow 的灵活性。

Google Kubernetes Engine

NVIDIA GPU 和 Google Kubernetes Engine

Google Kubernetes Engine 中的 NVIDIA GPU 通过扩展至数百个 GPU 加速的实例,大幅加快计算密集型应用(例如机器学习、图像处理和金融建模)的处理速度。通过将 GPU 加速的应用打包到容器中,您可以在需要时随时享用 Google Kubernetes Engine 和 NVIDIA A100、V100、T4、P100 或 P4 GPU 的超强处理能力,而无需管理硬件,甚至都不需要管理虚拟机 (VM)。

NVIDIA GRID

GPU 加速的虚拟化图形

用于 GPU 加速图形的 NVIDIA RTX 虚拟工作站通过从云端访问要求苛刻的专业设计和工程应用,使创意和技术专业人员能够随时随地更大限度地提高工作效率。设计师和工程师现在可以直接前往 Google Cloud 或 Google Cloud 市场,使用 NVIDIA T4、V100、P100 和 P4 GPU 灵活运行虚拟工作站,其中包括对 Windows Server 2016Windows Server 2019Ubuntu 18.04 的支持。

AI 是我们这个时代极其重要的技术发展,具有造福社会的巨大潜力。随着全球领先的云服务提供商纷纷借助 NVIDIA GPU 和软件在全球部署卓越的 AI 平台,我们将见证机器、自动驾驶交通运输、精密制造等领域的重大突破。

NVIDIA 创始人兼首席执行官黄仁勋

AI 是我们这个时代极其重要的技术发展,具有造福社会的巨大潜力。随着全球领先的云服务提供商纷纷借助 NVIDIA GPU 和软件在全球部署卓越的 AI 平台,我们将见证机器、自动驾驶交通运输、精密制造等领域的重大突破。

NVIDIA 创始人兼首席执行官黄仁勋

NVIDIA 是 Google Cloud 的战略合作伙伴,我们很高兴他们能代表客户进行创新。

Google Cloud 首席软件工程师 Tim Hockin

NVIDIA 是 Google Cloud 的战略合作伙伴,我们很高兴他们能代表客户进行创新。

Google Cloud 首席软件工程师 Tim Hockin

具有 Kubernetes 的 [GPU] 可以为企业级机器学习提供功能强大、高成本效益和灵活的环境。Ocado 选择 Kubernetes 的原因在于其可扩展性、可移植性、强大的生态系统和大型的社区支持等。其操作也非常简单,并且能够连接 GPU,相对于传统的 CPU 而言是一次巨大的飞跃。

Ocado 软件研究工程师 Martin Nikolov

具有 Kubernetes 的 [GPU] 可以为企业级机器学习提供功能强大、高成本效益和灵活的环境。Ocado 选择 Kubernetes 的原因在于其可扩展性、可移植性、强大的生态系统和大型的社区支持等。其操作也非常简单,并且能够连接 GPU,相对于传统的 CPU 而言是一次巨大的飞跃。

Ocado 软件研究工程师 Martin Nikolov

了解 Google Cloud 和 NVIDIA 的强大功能。