NVIDIA DGX™ Cloud on CSP(云服务提供商)是一个全栈全包式 AI 平台,与领先的云服务提供商共同设计,用于构建和微调模型。它包括加速基础设施、GPU 编排软件、云原生软件工具以及 AI 专家支持。DGX Cloud 在每一层级都进行了优化,为 NVIDIA 提供了加速 AI 项目所需的灵活性和专业知识。
NVIDIA DGX Cloud Create 针对加速基础架构每一层的训练进行了优化,使企业能够基于主流云服务运用高性能的 NVIDIA AI 架构与软件,同时享受灵活的租期选项及 NVIDIA AI 专家支持,实现投资回报最大化。
CSP 上的 NVIDIA DGX Cloud 包括 NVIDIA Run:ai 使用权限,该平台提供简单的用户界面,使管理员能够清晰地了解 AI 工作负载,同时轻松设置策略驱动的控制,从而最大限度地提高资源利用效率。借助直观的工具,管理员可以定义使用策略,执行配额,并确保在团队和项目之间公平分配 GPU。这种方法可优化基础设施利用率,减少浪费并快速实现价值,帮助企业充分利用 AI 投资,同时保持无缝运营控制,并通过简单易用的用户界面来调度、监控和分配计算资源。
通过您的首选云服务访问完全托管的 AI 训练平台。以灵活的周期长度和可扩展资源训练 AI 模型,并随时随地部署模型。
在部署首日即可将经优化的全栈 AI 训练平台投入生产,缩短任务关键型 AI 的训练周期。
更快开始训练 AI,无需担心在由 NVIDIA 在每一层级优化的全栈平台上管理 AI 基础设施。
依托高性能计算、NVIDIA AI Enterprise 软件套件、NVIDIA Run:ai 以及与 AI 创新领域专家直接沟通的渠道,以更快的速度构建 AI 应用。
Amgen 正使用 NVIDIA® BioNeMo™ 和 DGX Cloud 来开发 AI 模型,以针对候选药物提出建议并进行评估,从而加速生物制剂研发。借助 DGX Cloud,Amgen 在不到一个月的时间内就完成了从构建到部署首个预训练蛋白质大语言模型 (LLM) 的整个流程。
Cerence 正借助 NVIDIA DGX Cloud 在 Microsoft Azure 上训练他们的汽车专用大语言模型。该模型将为 Cerence 在 NVIDIA DRIVE® 上运行的新一代车载计算平台奠定基础。
在德勤的 Atlas AI 解决方案中,在 Oracle Cloud Infrastructure (OCI) 上运行、搭载 NVIDIA BioNeMo 的 DGX Cloud 加速了药物研发。他们将应用 LLM 驱动式知识图谱、科学工作流和自定义模型,同时训练化学语言模型和蛋白质语言模型,然后利用 NVIDIA NIM™ 推理微服务进行无缝部署。
ServiceNow 将利用生成式 AI,包括由其在 DGX Cloud 和 NVIDIA AI Enterprise 软件上训练的定制 LLM 驱动的智能虚拟助手和客户服务智能体。