加速云端创新

诊断癌症。预测飓风。实现业务运营自动化。当您使用加速计算来挖掘海量数据中的见解时,这些突破都将成为可能。自 2010 年以来,Amazon Web Services (AWS) 一直与 NVIDIA 合作,提供功能强大且先进的 GPU 加速云服务,帮助客户构建更智能的未来。

在 GTC 2026 大会上,双方宣布将开展多项新合作,从基于 AWS 的 NVIDIA 驱动数据处理,到 NVIDIA Nemotron™ 系列模型继续提供全栈创新。单击此处阅读公告。

利用 AWS 和 NVIDIA 赋能新能力

医疗健康

在 AWS HealthOmics 上利用 NVIDIA BioNeMo™ 和 NIM™ 微服务加速药物发现和基因组分析。研究人员可以利用优化的 AI 模型进行蛋白质结构预测和生成化学研究,从而缩短洞察时间,并实现经济高效、可扩展的生物学工作流。

金融服务

在 AWS 上利用 NVIDIA 用于金融欺诈检测的 AI Blueprint 增强欺诈检测和身份验证,帮助金融机构识别交易数据中的细微模式和异常。

汽车和制造

在 AWS 上使用 NVIDIA Omniverse™ 仿真物理精准的工业数字孪生、流程和操作。包括 Amazon Robotics 在内的汽车制造商和物流公司会在虚拟环境中模拟生产线和自主移动机器人,以便在物理部署之前优化工作流。

公共事业部门

助力各机构利用具有全栈加速计算的大规模 AI 和 HPC,以支持生成式 AI、大规模数据分析、物理仿真和物理 AI 等任务。AWS European Sovereign Cloud 由 NVIDIA Blackwell 平台、NVIDIA Run:ai 和 NVIDIA AI Enterprise 提供支持,旨在使欧洲组织能够安全地部署 AI 应用。

电信

利用 AWS 和 NVIDIA 的合作项目 Telco AI Fellowship 优化网络运营和客户体验。利用代理式 AI 提高语音、视频和数据领域的运营效率并开辟新的收入来源。

媒体和娱乐

使用 AWS 上采用 NVIDIA RTX™ 的基于云的虚拟工作站,简化内容创作。AI 加速的制作流程能够更快地交付更高质量的内容,数据分析提供更深入的洞察,分发和变现得到优化,软件定义的基础设施正在增强直播娱乐体验。

能源

加速地下勘探和生产、优化现场设备和作业、提高电网可靠性和弹性,并促进可再生能源发电。

探索成功案例

Perplexity:利用 AI 每月服务超过 8 亿次用户查询

Perplexity 在 AWS 上使用 NVIDIA A100 Tensor Core GPU 和 NVIDIA TensorRT™-LLM 构建了 pplx-api,与其他平台相比,延迟降低了多达 3.1 倍,首个 Token 延迟降低了多达 4.3 倍。这家初创公司将推理成本削减了四分之三 (每年节省 600,000 美元),同时扩展到数百个 GPU,其中 NVIDIA H100 GPU 比 A100 的延迟低 50%,吞吐量高 200%。

Noetik:利用机器学习赋能精准癌症疗法

Noetik 是 NVIDIA 初创加速计划的成员,在 AWS SageMaker HyperPod 上使用 NVIDIA Hopper™ Tensor Core GPU 训练用于精准癌症免疫疗法的多模态基础模型。这使得处理 1 PB 人类肿瘤数据 (分析超过 2 亿个细胞) 成为可能,从而加速治疗发现并解锁针对个体患者定制的治疗方案。

Fireworks.ai:面向开发者的生成式 AI 推理

Fireworks.ai 使用由 NVIDIA H100 Tensor Core GPU 提供支持的 Amazon EC2 P5 实例构建了速度极快且经过成本优化的生成式 AI 推理解决方案。该平台的每实例吞吐量比开源解决方案高 4 倍,延迟降低多达 50%,并且某些客户的总体成本降低了 4 倍。开发者可以运行、微调和定制包括 Llama 2、Stable Diffusion XL 和 StarCoder 在内的基础模型,同时满足 HIPAA 和 SOC2 Type II 合规标准。

A-Alpha Bio:AI 加速药物发现

A-Alpha Bio 通过在 AWS 上部署 NVIDIA BioNeMo™ 加速了药物发现,使推理速度提升 12 倍,并能够处理 1.08 亿次蛋白质结合预测,比最初计划多出 10 倍。利用由 NVIDIA H100 Tensor Core GPU 提供支持的 Amazon EC2 P5 实例,这家生物技术初创公司将实验周期缩短了 1–2 次迭代,在降低成本的同时还发现了优秀的治疗用单克隆抗体候选物。

Synthesia:AI 增强的视频制作

Synthesia 通过部署 NVIDIA GPU 提供支持的 Amazon EC2 实例,改变了 AI 视频制作,将机器学习模型训练吞吐量提升了 30 倍。利用配备 NVIDIA H100 Tensor Core GPU 的 Amazon EC2 P5 实例和配备 NVIDIA A100 GPU 的 P4 实例,这家 AI 初创公司将语音模型的训练时间从数天缩短至数小时,同时支持 456% 的用户增长。

Innophore:提升药物发现的速度、准确性和规模

Innophore 利用 NVIDIA BioNeMo 加速药物发现,通过其 Catalophore 技术分析蛋白质结构。该平台在两周内完成了整个人类有机体蛋白质结构图谱的绘制,而这项任务在以前需要一年以上的时间。这将预测排名靠前候选药物的脱靶药物效应的准确率提高了 30%。

AWS 上的 NVIDIA 加速基础设施 — 从云到边缘

Amazon Elastic Cloud Compute (EC2)

按需访问 Amazon EC2 上广泛的 NVIDIA GPU 加速实例,以满足 AI、机器学习、数据分析、图形、云游戏、虚拟桌面和 HPC 应用的各种计算需求。从单 GPU 实例到 EC2 UltraClusters 中的数千个 GPU,AWS 客户可以配置规模合适的 GPU 来加快问题解决速度并降低运行云工作负载的总成本。

配备 NVIDIA GB300 NVL72 的 Amazon EC2 P6e

Amazon EC2 P6e UltraServers 由 NVIDIA GB300 NVL72 系统提供支持,提供突破性的 AI 性能。P6e-GB300 为前沿模型提供 1.5 倍的 GPU 显存和算力,使其成为训练推理模型 (包括专家混合 (MoE) 架构) 以及企业智能助手和代理式 AI 应用推理的理想选择。

配备 NVIDIA B300 的 Amazon EC2 P6

Amazon EC2 P6 实例由 NVIDIA Blackwell 平台提供支持,可在 AI 训练和推理方面实现高达 2 倍的性能提升。P6-B300 提供的 GPU 显存和算力是 P6-B200 的 1.5 倍,是大规模分布式训练的理想之选。非常适合中大规模的 MoE 模型和代理式 AI 应用。

配备 NVIDIA RTX PRO 6000 Blackwell 服务器版的 Amazon EC2 G7e

配备 NVIDIA RTX PRO 6000 Blackwell 服务器版 GPU 的 Amazon EC2 G7e 实例可用于推进 AI 推理、科学计算和空间计算工作负载。G7e 实例的推理性能比 G6e 提升高达 2.3 倍,显存带宽提升 1.85 倍。G7e 实例基于 AWS Nitro System 构建,旨在优化计算和内存资源管理,可保护敏感的 AI 工作负载和数据。

AWS 与 NVLink Fusion 集成

AWS 将支持 NVIDIA NVLink™ Fusion (一个用于定制 AI 基础设施的平台),使其能够部署定制设计的芯片,包括用于推理和代理式 AI 模型训练的 Trainium4 芯片、适用于各种工作负载的 Graviton CPU,以及 Nitro System 虚拟化基础设施。

AWS 和 NVIDIA 物理 AI

AWS 和 NVIDIA 正在深化合作,以加速物理 AI 的发展,使机器人和自动驾驶汽车等自主机器能够在现实物理世界中感知、理解、推理和执行复杂动作。通过将 AWS 的可扩展云基础设施与 NVIDIA 的全栈解决方案相结合,开发者可以更高效地训练、仿真和部署物理 AI。

在 NVIDIA Cosmos 基础世界模型上训练

NVIDIA Cosmos™ 世界基础模型 (WFM) 可作为 Amazon EKS 和 AWS Batch 上的 NVIDIA NIM 微服务提供,帮助开发者构建能够理解复杂物理交互的物理 AI 应用。这些模型可模拟现实世界的物理和场景,使机器人能够对其环境进行推理。它们对于在 AWS 基础设施上训练人形机器人的通用基础模型 (例如 NVIDIA GR00T) 至关重要。

使用 NVIDIA Isaac Lab 和 Isaac Sim 进行仿真

开放的 NVIDIA Isaac™ Lab 和 Isaac Sim™ 框架现已在 Amazon EC2 G6e 实例上提供,为团队提供了一种在云端运行机器人学习和仿真的可扩展方式。开发者可以先在 Isaac Lab 中训练策略,并在 Isaac Sim 中使用物理精准的虚拟环境和合成数据生成验证行为,然后再部署到真实机器人上。该工作流可以与 AWS 连接,以加速大规模感知模型训练和强化学习。

在 NVIDIA Jetson Thor 上部署

NVIDIA Jetson Thor™ 系列模块为物理 AI 和机器人开发提供了终极平台,提供高达 2070 FP4 TFLOPS 的 AI 算力和 128 GB 内存。由 NVIDIA Blackwell 驱动的机器人超级计算机支持人形机器人、空间智能、多传感器处理和代理式 AI 等关键工作负载。

利用 NVIDIA 优化软件简化开发并最大限度地提高性能

AWS 上的 NVIDIA 优化软件

使用 AWS 上 NVIDIA GPU 加速实例的计算能力,以更少的计算资源大规模开发和部署应用,加快问题解决速度并降低 TCO。为了最大限度地提高性能和开发者生产力,NVIDIA 为数据科学、数据分析、AI 和机器学习训练、AI 和机器学习推理、HPC 以及图形等广泛的工作负载提供了各种 GPU 优化软件。

Amazon Bedrock 上的 NVIDIA Nemotron Nano 3

Amazon Bedrock 现在支持 NVIDIA Nemotron™ 3 Nano 30B A3B 模型,这是 NVIDIA 在高效语言建模领域的最新突破,提供卓越的推理性能、原生工具调用支持以及 256k Token 上下文窗口的扩展上下文处理。该模型采用高效的混合 MoE 架构,确保代理和编码工作负载的吞吐量高于前代模型,同时保持大型模型的推理深度。

AWS Marketplace 上的 NVIDIA AI Enterprise

NVIDIA AI Enterprise 是一个安全的端到端云原生 AI 软件套件。它可以加速数据科学工作流,简化预测性 AI 模型的开发、部署和管理,从而实现基本流程的自动化,并快速从数据中获得洞察。NVIDIA AI Enterprise 包含一个广泛的全栈软件库,包括 NVIDIA AI 工作流、框架、预训练模型和基础设施优化。全球企业支持和定期安全审查确保业务连续性并使 AI 项目保持正轨。

AWS Marketplace 上的 NVIDIA Run:ai

NVIDIA Run:ai 通过在 Kubernetes 原生环境中为 GPU 基础设施提供控制面板,简化了组织的 AI 基础设施管理。该平台通过引入虚拟 GPU 池并启用动态的、基于策略的调度,解决了 GPU 利用率、工作负载优先级和 GPU 消耗可见性等问题。NVIDIA Run:ai 与 Amazon EC2、EKS、SageMaker HyperPod、IAM 和 CloudWatch 等各种 AWS 服务集成,可优化性能、简化操作,并为 AI/机器学习工作负载提供统一的基础。

NVIDIA 加速的 AWS 服务

NVIDIA 和 AWS 在集成方面密切合作,将 NVIDIA 加速计算的强大能力引入广泛的 AWS 服务。无论在 AWS 上自行配置和管理 NVIDIA GPU 加速实例,还是在 Amazon SageMaker 或 Amazon Elastic Kubernetes Service (EKS) 等托管服务中利用它们,都可以灵活地选择所需的最佳抽象级别。

Amazon EMR

利用 Amazon EMR 中的 NVIDIA RAPIDS™ Accelerator for Apache Spark 加速 Apache Spark 3.x 数据科学工作量,无需在 NVIDIA GPU 加速的 AWS 实例上更改任何代码。这种集成使数据科学家能够大规模运行提取、转换和加载 (ETL)、数据处理和机器学习工作流,并通过在更短的时间内使用更少基于云的实例完成更多工作来降低云成本。

Amazon SageMaker AI

NVIDIA AI 软件和 GPU 加速实例可以加速 Amazon Sagemaker 内 AI 和机器学习工作流的每个步骤,包括数据准备、模型训练和推理服务。为了更快地将 AI 模型部署到生产环境并降低推理成本,Amazon SageMaker 集成了 NVIDIA Triton Inference Server™,从而实现多框架支持、动态批处理和并发模型执行等功能,最大限度地提高了 AWS 上的 CPU 和 GPU 实例的性能。

Amazon Bedrock 与 Mantle

Amazon Bedrock 使企业和初创公司能够以生产规模构建代理式 AI 应用。该平台包括 Amazon Bedrock 模型目录中直接提供的 NVIDIA Nemotron 模型、Amazon Bedrock Marketplace 和 SageMaker Jumpstart 上的 NVIDIA NIM 微服务、与 Amazon Bedrock AgentCore 集成的 NVIDIA NeMo Agent Toolkit,适用于智能体驱动的可组合服务以及 GPU 加速的无服务器向量推理。

开发者资源和快速入门指南

NVIDIA 开发者计划

获取专为满足您需求而打造的在线空间,其中包括先进的软件工具、技术文档、学习资源以及同行和领域专家的帮助,以加速您在 AI 领域的工作。

NVIDIA 深度学习培训中心 (DLI)

通过实战课程和专家指导的培训,培养和掌握在 AI、加速计算、数据科学、图形、仿真等领域拓展知识所需的技能。

面向初创公司的 NVIDIA 初创加速计划

加入这项旨在帮助 AI 初创公司更快发展的免费计划,获得先进技术和与投资者联系的机会,并获取 NVIDIA 的最新开发者工具和技术资源。

获得 AWS 和 NVIDIA 的强大功能

Amazon EC2 实例

NVIDIA AI Enterprise

AWS 上的 NVIDIA Nemotron 模型