生成式 AI

NVIDIA NeMo

构建、定制和部署大语言模型。

NVIDIA NeMo 是什么?

NVIDIA NeMo™ 是一款端到端云原生框架,可以让用户不受位置限制,灵活地构建、定制和部署生成式 AI 模型。它包含训练和推理框架、护栏工具包、数据管护工具和预训练模型,为企业快速采用生成式 AI 提供了一种既简单、又经济的方法。

构建和部署生成式 AI 模型

深入了解 NVIDIA NeMo 的优势

端到端

全面的解决方案,可以满足整个 LLM 工作流的需求,其中涵盖数据处理、生成式 AI 模型训练和推理等方面的需求。

企业级

安全可靠、经过优化的全栈解决方案,是 NVIDIA AI Enterprise 的一部分,能够凭借出色的支持服务、安全性和 API 稳定性助力企业提速增效。

更高的投资回报率

借助 NeMo,企业组织可以快速训练、定制和规模化部署 LLM,从而缩短推出解决方案的时间,并提高投资回报率。

灵活

功能丰富的端到端框架,无论是管护数据、训练包含数万亿个参数的大型模型,还是部署模型以执行推理,都能做到。

开源

通过 GitHub 和 NVIDIA NGC 软件目录以开源形式提供,便于开发者和研究人员更轻松地构建新 LLM。

加速训练和推理

支持多节点与多 GPU 训练和推理,能够尽可能提高吞吐量并缩短 LLM 训练时间。

适用于构建企业就绪型大语言模型的全面解决方案

随着生成式 AI 模型及相关开发活动快速发展和普及,AI 堆栈及其依赖项的复杂性也在与日俱增。针对运用 AI 开展业务的企业,NVIDIA AI Enterprise 提供了一个安全的生产级端到端软件平台,其中包括 NeMo、生成式 AI 参考应用,以及有助于简化采用过程的企业支持服务。

先进的训练方法

NeMo 提供了 LLM 分布式训练工具,可以有效提升训练的规模、速度和效率。

先进的 LLM 定制工具

通过 NeMo 检索器整合特定领域的实时数据。这有助于针对您的企业面临的独特挑战来定制回复内容,并引入专业技能来满足特定的客户需求和企业需求。 

您还可以使用 NeMo Guardrails 来界定操作边界,确保模型仅针对预期领域的问题做出回复,避免不当输出。

借助 NVIDIA Triton 优化 AI 推理

NVIDIA Triton 推理服务器可用于部署具有强大优化功能的生成式 AI 模型。通过使用 Triton 管理服务,可在 Kubernetes 中借助能够高效利用资源的模型编排功能,自动部署多个 Triton 推理服务器实例。

易于使用的生成式 AI 方法和工具

NeMo 包含贯穿整个工作流的预包装脚本、参考示例和文档,让新手也能快速使用生成式 AI。 

此外,我们提供的自动配置器工具还简化了 Foundation 模型的构建。该工具可自动搜索最佳超参数配置,因此能够根据任何指定的多 GPU 配置、训练或部署限制条件来优化训练和推理。

出色的预训练 Foundation 模型

使用 NeMo 和 NVIDIA AI Foundation 模型构建自定义企业模型。NVIDIA AI Foundation 模型是由社区和 NVIDIA 构建的预训练模型,可助力开发者更快地打造自定义模型。这些经过 NVIDIA 优化的模型融合了最新的训练和推理技术,能够实现卓越性能。

经过优化的检索增强型生成技术

构建强大的生成式 AI 应用,从企业数据来源获取信息和见解。NeMo 检索器提供可直接在商业领域使用的 NVIDIA AI Foundation 模型和微服务,助力客户构建加速的企业 AI 应用。

NeMo Retriver workflow that includes RAG NeMo Retriver workflow that includes RAG NeMo Retriver workflow that includes RAG NeMo Retriver workflow that includes RAG

开始使用 NVIDIA NeMo

下载 NVIDIA NeMo 框架

立即获取训练和推理工具,帮助企业轻松快速且经济高效地开发生成式 AI 模型。

采用检索增强型生成技术的 AI 聊天机器人

借助此工作流,企业可以更快速地构建和部署能够根据实时信息生成准确回复的解决方案。

快速体验生成式 AI 模型

利用 API 或浏览器,通过简单易用的界面试用 NVIDIA AI Foundation 模型。

申请参加 NeMo 框架多模态模型抢先体验活动

参加该活动,即可构建、定制和部署包含数万亿个参数的多模态生成式 AI 模型。我们可能需要 2 周以上的时间来审核您的申请。

报名参加 NVIDIA AI Workbench 抢先体验活动

借助这款易于使用的统一工具套件,开发者可以在 PC 或工作站上快速创建、测试和定制预训练的生成式 AI 模型和 LLM,并可以将它们扩展到任何数据中心、公有云或 NVIDIA DGX 云

申请参加 NVIDIA NeMo 服务抢先体验活动

申请参加 NVIDIA NeMo 服务抢先体验活动,针对企业 AI 应用训练高度个性化的 LLM 并进行规模化部署。

Customers Using NeMo to Build Custom LLMs

Accelerate Industry Applications With LLMs

AI Sweden facilitated regional language model applications by providing easy access to a powerful 100 billion parameter model. They digitized historical records to develop language models for commercial use.

Image Courtesy of Korea Telecom

Creating New Customer Experiences With LLMs

South Korea’s leading mobile operator builds billion-parameter LLMs trained with the NVIDIA DGX SuperPOD platform and NeMo framework to power smart speakers and customer call centers.

Building Generative AI Across Enterprise IT

ServiceNow develops custom LLMs on their ServiceNow platform to enable intelligent workflow automation and boost productivity across enterprise IT processes.

Custom Content Generation for Enterprises

Writer uses generative AI to build custom content for enterprise use cases across marketing, training, support, and more.

Harnessing Enterprise Data for Generative AI

Snowflake lets businesses create customized generative AI applications using proprietary data within the Snowflake Data Cloud.

各行各业率先采用 NeMo 的用户

查看 NeMo 资源

NeMo 简介和最新更新

NVIDIA 最近宣布全面推出 NeMo。敬请阅读博客,了解最新变化,然后开始构建、定制和规模化部署 LLM。

借助 NeMo 文档轻松上手

获取开始使用 NVIDIA NeMo 所需的各种资源,其中包括教程、Jupyter Notebook 和文档。

探索关于 LLM 的技术博客

敬请阅读这些关于 LLM 的技术演练内容,了解如何构建、定制和规模化部署生成式 AI 模型。

下载面向企业的 LLM 电子书

了解 LLM 方面的所有必备知识,其中包括运作方式、带来的可能性,以及真实案例研究。

立即开始使用 NVIDIA NeMo

AI Sweden

加速 LLM 在行业中的应用

AI Sweden 可轻松访问包含 1000 亿个参数的强大模型,从而促进了区域语言模型的应用。他们还将历史记录数字化,用于开发商用语言模型。

Amdocs

NVIDIA 和 Amdocs 为全球电信行业带来自定义生成式 AI

Amdocs 计划使用 Microsoft Azure 上的 NVIDIA AI 代工服务为全球价值 1.7 万亿美元的电信行业构建自定义 LLM。

Dropbox

Dropbox 和 NVIDIA 将为数以百万计的客户带来个性化的生成式 AI

Dropbox 计划利用 NVIDIA 的 AI 代工服务来构建自定义模型,并通过 Dropbox Dash 通用搜索工具和 Dropbox AI 来改进 AI 赋能的知识工作。

KT

利用 LLM 打造全新客户体验

韩国领先的移动运营商构建了包含数十亿个参数的 LLM,这些模型使用 NVIDIA DGX SuperPOD 平台和 NeMo 框架进行了训练,旨在为智能音箱和客户呼叫中心提供支持。

Palo Alto Networks

Bringing Generative AI to Cybersecurity

Palo Alto Networks builds security copilot that helps customers get the most out of its platform by optimizing security, configuration, and operations.

ServiceNow

面向企业 IT 构建生成式 AI

ServiceNow 在其 ServiceNow 平台上开发自定义 LLM,用于支持智能工作流程自动化,并促进企业 IT 流程全面实现生产力提升。

Writer

初创公司借助 NVIDIA NeMo 撰写生成式 AI 成功案例

Writer 正在利用 NVIDIA NeMo 构建 LLM,以便帮助数以百计的公司为营销、培训、支持等领域的企业用例创建自定义内容。

AWS

NVIDIA 为部分大型 Amazon Titan Foundation 模型的训练提供助力

Amazon 利用 NVIDIA NeMo 框架、GPU 和 AWS EFA 来训练其新一代 LLM,为部分大型 Amazon Titan Foundation 模型客户提供更快、更易于使用的生成式 AI 解决方案。

Azure

在 Azure 机器学习中充分利用 NVIDIA AI Enterprise 的强大力量

若要使用专为企业环境量身定制的一整套相辅相成的工具、库、框架和支持服务,请前往 Microsoft Azure。

Dell

Dell 和 NVIDIA 合作,发布经过验证的生成式 AI 设计

Dell Technologies 和 NVIDIA 宣布了一项计划,这项计划旨在帮助企业轻松、快速、安全地在本地构建和使用生成式 AI 模型。

Deloitte

在企业软件平台中充分发挥生成式 AI 的价值

Deloitte 将利用 NVIDIA AI 技术和专业知识为企业软件平台构建高性能的生成式 AI 解决方案,助力企业解锁巨大的商业价值。

Domino Data Lab

Domino 提供由 NVIDIA 助力的生产就绪型生成式 AI

借助 NVIDIA NeMo,数据科学家可以在 Domino 的平台中根据专有数据和 IP 对 LLM 进行微调,使其适应特定领域的用例,而无需从零开始训练新模型。

Google Cloud

AI 巨头携手施展生成式 AI 魔法

在 Next 会议上,Google Cloud 宣布推出由 NVIDIA H100 Tensor Core GPU 提供支持的 A3 实例。两家公司的工程团队通力合作,将 NVIDIA NeMo 引入到 A3 实例中,使训练和推理速度进一步提升。

联想

基于 LLM 的全新生成式 AI 参考架构

该解决方案能够助力全球合作伙伴和客户以超高的安全性和效率在行业领域开发、训练和规模化部署 AI,从而能够加快创新速度。

Quantiphi

助力企业快步踏上 AI 驱动的发展之路

Quantiphi 立足于负责任 AI 原则,潜心使用 NVIDIA NeMo 框架训练和微调 Foundation 模型,并利用 NVIDIA AI Enterprise 软件平台优化规模化部署。

VMware

VMware 和 NVIDIA 助力企业解锁生成式 AI 的强大能力

VMware Private AI Foundation 与 NVIDIA 通力合作,助力企业定制模型并运行生成式 AI 应用,其中包括智能聊天机器人、助理、搜索和摘要生成应用。

Weight & Biases

调试、优化和监控 LLM 工作流

对于负责处理生成式 AI 用例或使用 LLM 的团队,Weights & Biases 不仅能跟踪并可视化所有提示工程实验(以便协助用户调试和优化 LLM 工作流),还能提供 LLM 监控和观察功能。