Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
NVIDIA 率先采用加速计算,以帮助全球的开发者、设计师和创作者突破创新界限,并推动全球各大行业转型。NVIDIA 加速计算与 Google Cloud 的灵活性、全球覆盖范围和规模相结合,无论计算密集型工作负载(如生成式 AI、数据分析、高性能计算 (HPC)、图形和游戏)需要在何处运行,都可以加快其解决方案的部署并降低基础设施总拥有成本。
NVIDIA 与 Google Cloud 在生成式 AI Stack 的每一层都建立了合作关系,为客户提供新一代基础设施、企业级软件和推理微服务,并优化了基础模型,以更快地从原型设计向生产部署推进。
NVIDIA 与 Google Cloud 联手提供尖端的数据分析解决方案,使企业能够从海量数据集中获得有价值的洞察,并通过数据驱动的决策和创新解锁新的可能性。
Google Cloud 上的 NVIDIA 加速计算平台可帮助开发者、科学家、工程师和研究人员处理生命科学、气候建模、制造、能源、量子模拟和金融服务等领域的复杂工作负载。
了解领先的计算机视觉初创公司 Let’s Enhance 如何在 Google Kubernetes Engine (GKE) 上使用 NVIDIA AI 平台将其 AI 驱动的照片编辑服务部署到生产环境,从而将吞吐量提高 80%,将成本降低 34%。
了解面向企业的全栈生成式 AI 平台 Writer 如何利用 GKE 上的 NVIDIA H100 和 L4 Tensor Core GPU 以及 NVIDIA NeMo™ 框架和 TensorRT™-LLM 训练和部署超过 17 个大型语言模型 (LLM) 并将其扩展至 700 亿个参数。
通过利用 GKE 上的 NVIDIA NIM™ 推理微服务以及 NVIDIA GPU 的强大性能,LiveX AI 将平均令牌速度提升了 6.1 倍。这一增强功能可让 LiveX AI 实时为客户提供个性化体验,包括无缝的客户支持、即时产品推荐和更低的退货率。
在 Google Compute Engine (GCE) 上从广泛的最新 NVIDIA GPU 产品组合中进行选择,以加速各种计算密集型工作负载,包括分布式 LLM 训练、实时 AI 推理、大数据框架上的数据密集型分析、HPC 中的科学仿真和建模、以及逼真 3D 图形和沉浸式虚拟环境渲染。
Google Cloud A3 VM 由 8 个 NVIDIA H100 Tensor Core GPU 提供动力,是训练 LLM 以及生成式 AI 工作负载并为其提供服务的理想选择。A3 Mega VM 提供的 GPU 间网络带宽是 A3 VM 的两倍,是分布式 AI 训练和推理工作负载的理想选择。
Google Cloud G2 VM 提供一个、两个、四个或八个 NVIDIA L4 Tensor Core GPU 的选项,是加速生成式 AI 推理、AI 视频处理、HPC、图形渲染和可视化等各种工作负载的理想选择。
Google Cloud 将成为首批提供两种 NVIDIA Blackwell 平台配置(NVIDIA GB200 NVL72 和 HGX™ B200)的云服务提供商之一,可为万亿参数级模型提供实时 LLM 推理和大规模训练性能,开创计算新纪元。NVIDIA GB200 将率先在 Google Cloud 上的 NVIDIA DGX™ Cloud 上提供。
NVIDIA 直接在 Google Cloud Marketplace 上提供全面的性能优化软件堆栈,以充分发挥尖端 NVIDIA 加速基础设施的潜力,并降低在 Google Cloud 上构建加速解决方案的复杂性。这样可以通过提高性能、简化部署和开发来降低总拥有成本。
WPP
NVIDIA DGX Cloud是为开发者提供最新 NVIDIA 架构专属可扩展访问权限的 AI 平台,该平台的每一层均与 Google Cloud 共同设计。DGX Cloud 经过优化,可为如今的 AI 工作负载提供超凡性能,您可以与 NVIDIA AI 专家直接沟通,更大限度地提高资源效率和利用率。DGX Cloud 目前已在 Google Cloud 上提供,NVIDIA Grace™ Blackwell 也即将推出。
Foretellix
NVIDIA AI Enterprise 是可简化生成式 AI、计算机视觉、语音 AI 等生产级 AI 解决方案开发和部署的云原生平台。易于使用的微服务可提供优化的模型性能,以及企业级安全性、支持和稳定性,确保通过 AI 开展业务的企业能够从原型设计阶段平稳过渡到生产阶段。
作为 NVIDIA AI Enterprise 的组成部分,NVIDIA NIM 是一组易于使用的推理微服务,用于加速部署需要自然语言理解和生成的 AI 应用程序。通过为开发者提供行业标准 API 的访问权限,NIM 有助于创建功能强大的协作助手、聊天机器人和 AI 助手,同时使 IT 和 DevOps 团队能够轻松地在自己的托管环境中自助托管 AI 模型。NVIDIA NIM 可以部署在 GCE、GKE 或 Google Cloud Run 上。
NVIDIA 和 Google Cloud 密切合作,将全栈 NVIDIA AI 平台的强大功能引入广泛的原生 Google Cloud 服务,让开发者能够灵活选择所需的抽象级别。通过这些集成,Google Cloud 客户可以将企业级 NVIDIA AI 软件的强大功能与 NVIDIA GPU 的计算能力结合起来,以在熟悉的 Google Cloud 服务中更大限度地提高应用程序性能。
将 NVIDIA AI 平台的强大功能与 GKE 的灵活性和可扩展性相结合,以高效管理和扩展生成式 AI 训练和推理以及其他计算密集型工作负载。GKE 的按需调配、自动扩展、NVIDIA 多实例 GPU (MIG) 支持以及 GPU 分时功能可确保资源得到充分利用。在为要求苛刻的 AI 工作负载提供必要的计算能力的同时,更大限度地降低了运营成本。
将 NVIDIA 加速计算的强大功能与 Google Cloud 的 Vertex AI 相结合。Vertex AI 是一个用于在生产环境中构建、部署和扩展 AI 模型的全托管式统一 MLOps 平台。在 Vertex AI 训练、预测、工作流和 Notebook 中利用最新的 NVIDIA GPU 和 NVIDIA AI 软件(如 Triton™ 推理服务器)来加速生成式 AI 开发和部署,无需进行复杂的基础设施管理。
利用 NVIDIA RAPIDS™ Accelerator for Spark 在 Google Cloud 的全托管式数据处理服务 Dataproc 上加速 Apache Spark and Dask 工作负载,无需修改代码。这样可加快数据处理、提取、转换和加载 (ETL) 操作以及机器学习管道的速度,同时大幅降低基础设施成本。借助 RAPIDS Accelerator for Spark,用户还可在 Dataproc Serverless 中加速批处理工作负载,无需预配集群。
在用于执行各种数据处理模式(包括流处理和批量分析)的托管服务 Google Cloud Dataflow 上,使用 NVIDIA AI 加速机器学习推理。用户可利用 NVIDIA TensorRT 与 Apache Beam SDK 的集成优化 AI 模型的推理性能,并利用 Dataflow 支持的 NVIDIA GPU 加快数据处理工作流中复杂推理场景的速度。
在用于在 Google Cloud 基础设施上部署容器的全托管式无服务器计算平台 Google Cloud Run 上,利用 NVIDIA NIM 加速生成式 AI 部署流程。Cloud Run 支持 NVIDIA GPU,用户可利用 NIM 优化性能,并在将基础设施管理抽象化的无服务器环境中加速将 AI 模型部署到生产环境。
使用动态工作负载调度程序轻松访问 Google Cloud 上的 NVIDIA GPU 容量,用于 AI 训练、微调和实验等短期工作负载。通过灵活的调度和原子级调配,用户可以在 GKE、Vertex AI 和 Batch 等服务中访问所需的计算资源,同时提高资源利用率并优化运行 AI 工作负载产生的成本。
NVIDIA 与 Google 合作推出 Gemma,这是一个经过优化的全新开放模型系列,采用与 Gemini 模型相同的研究成果和技术而构建。利用 TensorRT-LLM 优化的版本仅允许用户通过搭载 NVIDIA RTX™ GPU 的台式电脑使用 LLM 进行开发。
Google Colab 现已集成 RAPIDS cuDF。开发者可快速将 Google Colab GPU 实例中的 pandas 代码加速 50 倍,随着数据的增加,可在不影响性能的情况下继续使用 pandas。
NVIDIA 初创加速计划通过提供开发者资源和培训、云积分、NVIDIA 软件和硬件专享价格以及与风投机构接洽的机会,帮助初创企业加速创新。
NVIDIA 隐私政策