GPU 加速的 Google Cloud Platform

加速计算和可视化的快速、功能强大的云

NVIDIA 和 Google Cloud 强强联手,让企业无需大量支出或执行复杂的基础架构管理,即可更快获得结果,解决数据难题。使用 NVIDIA GPU 加速深度学习、数据分析、科学仿真及其他高性能计算 (HPC) 工作负载,同时结合使用 NVIDIA® Quadro® 虚拟工作站和 Google Cloud 随时随地加速渲染、仿真和图形密集型工作负载。

GOOGLE CLOUD 上的 GPU

基于 NVIDIA GPU 的 Google Cloud Anthos

以裸机形式或通过 VMware vSphere 提供

Google Cloud Anthos 是由 Kubernetes 提供支持的应用现代化改造平台。Anthos 面向希望寻求混合架构和需要处理大量本地要求的客户,旨在实现云端服务的轻松入门,同时兼顾本地解决方案的安全性。Anthos 以混合平台的形式提供,可在云端、本地和边缘环境中处理 NVIDIA GPU 工作负载。

Anthos 现可用于裸机和 vSphere 虚拟化部署。支持 NVIDIA DGX™,以及配备 NVIDIA T4、V100 或 A100 Tensor Core GPU 的服务器系统。您可以根据您的应用需求和服务器基础架构选择最佳配置,从而实现理想部署。

 查看基于 NVIDIA GPU 的 Google Cloud Anthos 用户指南

基于 NVIDIA GPU 的 Google Cloud Anthos
基于 NVIDIA DGX A100 的 Google Cloud Anthos

基于 NVIDIA DGX A100 的 Google Cloud Anthos

NVIDIA DGX A100 是世界精尖的 AI 系统,专为解决企业的独特需求而构建。现在,企业可以构建混合 AI 云,以便从现有 DGX 本地基础架构以及 Google Cloud 中部署的 NVIDIA GPU 中轻松获取计算能力。凭借云端 AI 计算的简易性和灵活性,基于 NVIDIA DGX A100 的 Google Cloud Anthos 可帮助企业完善其专用 DGX 系统基础架构与生俱来的卓越性能。

 阅读博文:How to Avoid Speed Bumps and Stay in the AI Fast Lane with Hybrid Cloud Infrastructure (November 30.2020)(如何借助混合云基础架构规避前进障碍,并始终在 AI 领域保持快速发展,2020 年 11 月 30 日)

NVIDIA A100 Tensor Core GPU

NVIDIA® A100 可针对 AI、数据分析和高性能计算 (HPC),大大加速各种规模的工作负载,从而攻克十分棘手的计算挑战。作为 NVIDIA 数据中心平台的引擎,A100 既可高效扩展至数千个 GPU,也可透过 NVIDIA 多实例 GPU (MIG) 技术划分为七个 GPU 实例,从而加速各种规模的工作负载。第三代 Tensor Core 可为各类工作负载实现全精度加速,进而缩短获取洞见和上市的时间。

 Altair ultraFluidX 上的 A100 性能 (PDF 版,503 KB)

 通过 Kubernetes Podcast from Google 收听加速器和 GPU 的相关资讯 (31 分钟)

NVIDIA A100 Tensor Core GPU
NVIDIA A100

为 AI、数据分析和 HPC 实现大规模加速

NVIDIA T4

适用于所有工作负载(包括云端游戏)的通用加速器

NVIDIA V100

世界首个用于加速 HPC 和 AI 的 Tensor Core GPU

NVIDIA V100

NVIDIA GPU Cloud

NVIDIA GPU Cloud 中 GPU 加速的容器

通过 NVIDIA GPU Cloud (NGC),您可轻松访问预集成和由 GPU 优化的容器,将其用于深度学习软件、高性能计算应用和高性能计算可视化工具,充分利用 Google Cloud Platform 上的 NVIDIA Tesla V100 和 P100 GPU。现在,您只需几分钟即可部署生产质量级、GPU 加速的软件。

NVIDIA TensorRT

NVIDIA TensorRT

NVIDIA TensorRT 是一款高性能深度学习推理优化器和运行时环境,可为推理应用提供低延迟和高吞吐量的推理。优化神经网络模型、对较低精度进行高准确度的校准,并为 Google Cloud Platform 部署模型。并且由于其与 TensorFlow 紧密集成,您可以借助 TensorRT 强大的优化功能获得 TensorFlow 的灵活性。

Google Kubernetes Engine

NVIDIA GPU 和 Google Kubernetes Engine

Google Kubernetes Engine 中的 NVIDIA GPU 通过扩展至数百个 GPU 加速的实例中,可以大幅度加快计算密集型应用(例如机器学习、图像处理和财务建模)的处理速度。通过将 GPU 加速的应用打包到容器中,您可以在需要时随时享用 Google Kubernetes Engine 和 NVIDIA Tesla V100、P100 或 K80 GPU 的超强处理能力,而无需管理硬件,甚至都不需要管理虚拟机 (VM)。

NVIDIA GRID

GPU 加速的虚拟化图形

用于 GPU 加速图形的 NVIDIA GRID 通过从云端访问要求极为苛刻的专业设计和工程应用,使创意和技术专业人员在任何地方都能更大限度地提高工作效率。Google Cloud Platform 可以让设计师和工程师灵活运行 Tesla P100 和 P4 GPU 上的虚拟桌面。

AI 是我们这个时代极其重要的技术发展,具有造福社会的巨大潜力。随着领先的云服务提供商纷纷借助 Volta GPU 和 NVIDIA 软件在全球部署卓越的 AI 平台,我们将见证机器、自动驾驶交通运输、精密制造等领域的重大突破。

– 黄仁勋,创始人兼首席执行官,NVIDIA

AI 是我们这个时代极其重要的技术发展,具有造福社会的巨大潜力。随着领先的云服务提供商纷纷借助 Volta GPU 和 NVIDIA 软件在全球部署卓越的 AI 平台,我们将见证机器、自动驾驶交通运输、精密制造等领域的重大突破。

– 黄仁勋,创始人兼首席执行官,NVIDIA

NVIDIA 是 Google Cloud 的战略合作伙伴,我们很高兴他们代表客户进行创新。

– Tim Hockin,Google Cloud 首席软件工程师

NVIDIA 是 Google Cloud 的战略合作伙伴,我们很高兴他们代表客户进行创新。

– Tim Hockin,Google Cloud 首席软件工程师

具有 Kubernetes 的 [GPU] 可以为企业级机器学习提供功能强大、高成本效益和灵活的环境。Ocado 选择 Kubernetes 的原因在于其可扩展性、可移植性、强大的生态系统和大型的社区支持等。其操作也非常简单,并且能够连接 GPU,相对于传统的 CPU 而言是一次巨大的飞跃。

– Martin Nikolov,软件研究工程师,Ocado

具有 Kubernetes 的 [GPU] 可以为企业级机器学习提供功能强大、高成本效益和灵活的环境。Ocado 选择 Kubernetes 的原因在于其可扩展性、可移植性、强大的生态系统和大型的社区支持等。其操作也非常简单,并且能够连接 GPU,相对于传统的 CPU 而言是一次巨大的飞跃。

– Martin Nikolov,软件研究工程师,Ocado

了解 Google Cloud Platform 和 NVIDIA 的强大功能。