加速内容生成

构建用于识别、总结、翻译、预测和生成文本和视觉内容的解决方案。

工作负载

推荐系统/个性化
视频流/会议

行业

媒体和娱乐
零售/消费品
汽车/交通运输

业务目标

投资回报

产品

NVIDIA AI Enterprise
NVIDIA NeMo
NVIDIA Omniverse
NVIDIA RTX 工作站

概览

借助生成式 AI 和数字孪生实现内容创作自动化

生成式 AI数字孪生能够利用各种多模态输入来快速创建和测试新内容。生成式 AI 模型的输入和输出可包括文本、图像、视频、音频、动画、3D 模型和其他类型的数据。除了生成式 AI,数字孪生还提供了一种虚拟的画面。通过这种画面,大家可以实时对创意概念、素材和环境进行建模、测试和演进。

借助生成式 AI,初创公司和企业组织可以立即从其专有数据集中提取知识。例如,您可以构建自定义应用程序,以加速为内部创意团队或最终客户的内容生成。其中包括汇总源材质,以用于创作新的视觉效果或生成适合您的企业叙事的品牌视频。

数字孪生是创意资产、环境或流程的虚拟版本,可为仿真、测试和优化提供一个动态环境,从而补充生成式 AI 的内容创作。通过在数字空间中反映真实或概念性的物体,数字孪生可方便团队可视化、迭代和优化内容,最后再进行确定。

简化创意工作流是一个关键优势。生成式 AI 还可提供丰富的信息,来掌握数据集和操作中存在的底层模式。企业可以通过增强训练数据来降低模型偏置,并模拟复杂场景。在当今快节奏、不断发展的市场环境中,这种竞争优势为优化内容工作流、决策制定和提高团队效率提供了新的机遇。

面向精确视觉生成式 AI 的 3D 调节技术

利用实时渲染和生成式 AI 输出,在不影响主打产品资产的情况下,即可增强和调整高质量构图。

快速链接

高效自定义生成式 AI 基础模型

大语言模型 (LLM) 提供支持的生成式 AI 工具在转变业务方面展现出巨大潜力。为了发挥最大商业价值,企业需要对模型进行定制,以提取洞察并生成符合其业务需求的内容。定制 LLM 成本高昂且耗时,并且需要深厚的专业知识和全栈技术投资。

为了更快、更加经济高效地定制化生成式 AI,企业正开始使用预训练基础模型。这些模型并非要从零开始,而是为企业的构建提供了基础,使其能够加速开发和微调周期,同时降低生产环境中的生成式 AI 应用的运行和维护成本。

技术运用

开发基于文本的内容创作工作流

初创公司和企业希望构建自定义生成式 AI 模型来生成与上下文相关的内容,可以使用 NVIDIA AI Foundry 服务。

开始前,您需要采取以下四个步骤:

  1. 从先进的代理式 AI 模型入手:领先的推理模型 (包括 Llama Nemotron、DeepSeek R1、Gemma 和 Mistral) 都经过优化,可为智能体任务提供最高的准确性。

  2. 定制基础模型:通过 NVIDIA NeMo™,一个用于构建、定制和部署生成式 AI 模型的端到端微服务和 SDK 平台,使用专有数据进行调优和测试。

  3. 在您自己的 AI 工厂中更快地构建模型:在 NVIDIA DGX™ Cloud 上简化 AI 开发。NVIDIA DGX™ Cloud 是一个面向企业开发者提供的无服务器 AI 训练即服务平台,拥有多节点训练能力和近乎无限的 GPU 资源规模。 

  4. 部署和扩展:通过 NVIDIA AI Enterprise 部署,可随时随地(云、数据中心、工作站或边缘)运行。NVIDIA AI Enterprise 提供易于使用的微服务,具有企业级安全性、支持和稳定性,可确保从原型到生产的平稳过渡。

NVIDIA 的 AI 工厂将数据中心重新塑造为专为大规模制造智能而设计的专用系统。它将数据提取、训练、微调和推理整合到一个平台中,从而加速 AI 部署。借助 NVIDIA Blackwell 体系架构、网络建设和编排软件,AI 工厂强调以标记为基础的高效输出,为生成式和推理式 AI 提供未来发展助力。

开发视觉品牌内容生成工作流

独立软件供应商 (ISV) 和制作服务机构的开发者处于构建新一代内容创作解决方案的前沿,由可控制的生成式 AI 提供支持,并基于 OpenUSD 构建。这种组合可以在制作数字内容时实现前所未有的灵活性和控制力。

为了实现这一目标,开发者正在根据其性能与成本的基准和体系架构对多模态内容生成任务的适用性,仔细选择先进的生成式 AI 基础模型 (包括 Google、Mixtral、Meta、Stability AI、NVIDIA 等提供的模型)。我们使用 NVIDIA NeMo 中的专有数据集对模型进行微调和评估,NVIDIA NeMo 支持基于监督式强化技术,以便适应、调整和大规模评估模型。

训练和实验在 NVIDIA DGX Cloud 上执行,从而在高性能 GPU 集群上实现弹性、多节点的分布式训练,而无需基础设施花销。这样可实现快速迭代周期、高吞吐量实验,以及与现有 MLOps 工作流的集成。

部署通过 NVIDIA AI Enterprise 进行容器化和管理,提供生产级推理微服务、可观测性工具和强化安全性。该堆栈支持混合和多云拓扑,在保持模型完整性和运维弹性的同时,在云、本地、工作站或边缘设备环境下实现流畅的推理部署。

常见问题解答

数字孪生是物理精准的对象、流程或环境的实时虚拟副本,基于 OpenUSD 构建,并由 AI 通过 NVIDIA Omniverse 提供动力支持。

如需开始学习,请探索 NVIDIA 深度学习培训中心的《使用 Omniverse 和 OpenUSD 构建第一个数字孪生应用》课程,并访问详细的产品配置器文档

您还可以通过“如何为工业数字孪生构建 OpenUSD 应用课程详细了解如何为各行各业创建扩展 Omniverse Kit 应用构建数字孪生应用。

NVIDIA Omniverse 使用 OpenUSD 与资产管理系统集成,并维护品牌资产的可信单一来源。这有助于确保所有生成的视觉效果 (无论是 2D、3D 还是视频) 都符合品牌指南、产品规格和视觉标准。 AI 模型基于品牌批准的数据进行训练,而 USD Search 和 USD Code NIM 微服务等 AI 工具可以帮助团队仅访问和整理已批准的资产。使用 3D Conditioning for Precise Visual Generative AI Blueprint 开始您的操作。

NVIDIA Omniverse 由生成式 AI 和 OpenUSD 提供支持,可助力开发者构建用于创作可扩展的个性化内容的工具。主要功能包括:

  • 模块化资产管理:开发者可以创建系统,在这些系统中,数字资产(如商品或环境)可以轻松交换或为不同的受众定制。
  • 生成式 AI 集成:该平台支持 AI 驱动的资产和场景生成,可根据活动需求快速修改内容。
  • 实时定制:开发者可以轻松地借助 Omniverse 进行交互式场景编辑和自动化,从而更轻松地针对特定受众群体定制视觉效果。
  • 可扩展性:该平台支持大量高效制作独特内容变体,使品牌能够触及不同的细分市场。

 

在 LLM 领域,您需要选择使用微调、参数高效微调 (PEFT)、提示工程和检索增强生成 (RAG),这取决于您应用的特定需求和限制。

  • 微调是通过使用领域专属数据集更新预训练 LLM 的大部分或所有参数,从而针对特定领域定制其预训练的 LLM。这种方法需要大量资源,但对于专业用例而言,模型精度很高。
  • PEFT 通过更少的参数更新来修改预训练 LLM,专注于模型的某个子集。它在模型精度和资源使用之间实现平衡,在可管理数据和计算需求的情况下,实现了比提示工程更多的改进。
  • 提示工程在不改变模型参数的情况下,操纵 LLM 的输入以引导其输出。它是一种资源消耗最小的方法,适合数据和计算资源有限的应用。
  • RAG 使用来自外部数据库的信息来增强 LLM 提示词,实际上是一种复杂的提示词工程。RAG 可从最相关来源访问最新的实时信息。

 

有几个用于将 LLM 连接到数据源的框架,例如 LangChain 和 LlamaIndex。这些框架提供评估库、文档加载器和查询方法等各种特性。新的解决方案也一直在不断涌现。我们建议您阅读各种框架,并选择对您的应用最有意义的软件和软件组件。

是的 RAG 可提供最新的相关信息,包括检索到的数据参考。

NVIDIA AI 工作流示例可加速企业解决方案的构建和部署。借助我们的 GitHub 示例,写入 RAG 应用,使用最新的 GPU 优化 LLM 和 NVIDIA NeMo 微服务。

数字孪生是物理精准的对象、流程或环境的实时虚拟副本,基于 OpenUSD 构建,并由 AI 通过 NVIDIA Omniverse 提供动力支持。

如需开始学习,请探索 NVIDIA 深度学习培训中心的《使用通用场景描述和 Omniverse 构建 3D 产品配置器》课程,并访问详细的产品配置器文档

您还可以在《如何为工业数字孪生构建 OpenUSD 应用》课程中详细了解如何为各行各业创建 OpenUSD 应用。

您可通过 NVIDIA 的文档OpenUSD 学习路径获取有关 Omniverse 和数字孪生开发的其他资源。

构建内容生成工作流

新闻

相关用例