构建、自定义和部署大型语言模型。
NVIDIA NeMoTM 是一款端到端云原生框架,可以让用户不受位置限制,灵活地构建、定制和部署生成式 AI 模型。它包含训练和推理框架、护栏工具包、数据管护工具和预训练模型,为企业采用生成式 AI 提供了一种既简单、又经济的方法。
提供涵盖整个 LLM 工作流程的全面解决方案,可以满足从数据处理到训练,直至生成式 AI 模型推理在内的所有需求。
作为 NVIDIA AI Enterprise 的一部分,安全可靠、经过优化的全堆栈解决方案凭借出色的支持能力、安全性和 API 稳定性助力企业提速增效。
借助 NeMo,企业组织可以快速大规模训练、定制和部署 LLM,减少提供解决方案的耗时,并提高投资回报率。
端到端框架功能丰富,无论是管护数据、训练包含数万亿参数的大型模型,还是部署模型以执行推理,都能做到。
可通过 GitHub 和 NVIDIA NGC 软件目录以开源形式提供,便于开发者和研究人员更轻松地构建新 LLM。
支持多节点和多 GPU 训练及推理,有助于提高吞吐量并缩短 LLM 训练时间。
随着生成式 AI 模型及相关开发活动不断快速发展和普及,AI 堆栈及其依赖项的复杂性也与日俱增。对于运用 AI 开展业务的企业,NVIDIA AI Enterprise 可以提供安全的生产级端到端软件平台(其中包括 NeMo)以及生成式 AI 参考应用和企业支持,来帮助其简化采用过程
NeMo 提供了 LLM 分布式训练工具,有助于扩大训练规模,并提高训练的速度和效率。
NeMo 支持通过 Inform 整合特定领域的实时数据。这有助于针对企业面临的独特挑战获得量身定制的回复,同时能够按需嵌入专业技能来满足客户和企业的特定需求。
NeMo Guardrails 可帮助定义操作边界,确保模型仅针对预期领域的问题做出回复,并避免不当输出。
NeMo 还支持基于人类反馈的强化学习(RLHF)技术,可以使企业模型根据人类意图不断调整,从而随着时间的推移变得越来越智能。
NVIDIA Triton 推理服务器™ 专用于面向推理部署生成式 AI 模型。借助其强大的优化性能,无论您使用何种配置(单 GPU、多 GPU 或多节点),都能在准确性、延迟和吞吐量方面全方位提高推理性能。
您可以引入自己的数据集,并将数据标记为易于理解的格式。NeMo 包含全面的预处理功能,用于对语言数据集进行数据筛选、重复、混合和格式设置,帮助开发者和工程师节省数月的开发和计算时间。
NeMo 包含贯穿整个工作流程所有环节的预包装脚本、参考示例和文档,让新手也能快速使用生成式 AI。
此外,我们提供的自动配置器工具也简化了基础模型的构建工作。该工具可自动搜索最佳超参数配置,因此能够针对任何给定的多 GPU 配置、训练或部署限制条件优化训练和推理。
借助 NeMo,开发者可以自由使用 NVIDIA 的预训练模型或热门的开源模型,并通过自定义这些模型来满足个性化要求。这不仅降低了对数据和基础架构的要求,也加快了提供解决方案的速度。
NeMo 提供的预训练模型可从 NGC 和 Hugging Face 获取。这些模型经过测试和优化,可发挥出色的性能。
NeMo 框架非常灵活。从云端到数据中心,甚至是搭载 NVIDIA RTX™ GPU 的 PC 和工作站上,它可以在任何位置运行。对于有意构建自定义 LLM 即服务的企业组织,我们提供了由 NVIDIA DGX™ Cloud 提供支持的 NVIDIA AI Foundations。这是一套模型制作服务,旨在推进企业级生成式 AI 的发展,并在文本(NVIDIA NeMo)、视觉内容(NVIDIA Picasso)和生物学(NVIDIA BioNeMo™)等领域实现按用例定制。
借助这款开源软件,开发者可以为 AI 聊天机器人添加防护机制,确保基于大型语言模型构建的应用符合预期的安全和安保要求。
NeMo Data Curator 是一款可扩展的数据管护工具,可帮助开发者管 LLM 预训练所需的包含数万亿个令牌的多语言数据集,从而满足对大型数据集日益增长的需求。
ChatUSD 是基于 NVIDIA NeMo 框架开发的大型语言模型 (LLM) 智能体,用于从文本生成 Python-USD 代码脚本并回答与 USD 知识相关的问题。
立即获取训练和推理工具,帮助企业轻松快速且经济高效地开发生成式 AI 模型。
NVIDIA NeMo Cloud Foundry 是 NVIDIA AI Foundation 的一部分,它可以针对企业 AI 应用训练高度个性化的 LLM 并进行大规模部署。立即申请,即可抢先体验 NVIDIA NeMo Cloud Foundry!
提交申请,体验用数十亿个参数构建、定制和部署多模态生成式 AI 模型的爽快感。我们可能需要 2 周以上的时间来审核您的申请。
AI Sweden 可轻松访问包含 1000 亿个参数的强大模型,从而促进了区域语言模型的应用。他们还将历史记录数字化,用于开发商业化的语言模型。
Image Courtesy of Korea Telecom
韩国领先的移动运营商构建了包含数百亿个参数的 LLM,并利用 NVIDIA DGX SuperPOD 平台和 NeMo 框架对其进行了训练,以便为智能扬声器和客户呼叫中心提供支持。
ServiceNow 在其 ServiceNow 平台上开发了自定义 LLM,用于支持智能工作流程自动化,并促进企业 IT 流程全面实现生产力提升。
Writer 使用生成式 AI 针对市场营销、培训、支持等领域的各种企业用例构建自定义内容。
Snowflake 帮助企业使用 Snowflake Data Cloud 中的专有数据创建定制的生成式 AI 应用。
日前,NVIDIA 宣布正式推出 NeMo。阅读博客,了解它带来了哪些创新以及如何利用它大规模构建、自定义和部署 LLM。
获取所有 NVIDIA NeMo 入门资源,包括教程、Jupyter Notebook 和文档。
阅读这些关于 NeMo 的技术演练,了解如何大规模构建、定制和部署生成式 AI 模型。
了解与 LLM 相关的所有必备知识,包括工作方式、带来的可能性,以及真实案例研究。