寻找合适的工具,将大型语言模型从开发阶段推向生产阶段
面向希望获取 NeMo 开源代码进行开发的个人。
面向希望获得免费 NeMo 容器的个人。
面向希望购买 NeMo 进行生产开发和部署的企业。
NVIDIA NeMo™ 是一款端到端云原生框架,可以让用户不受位置限制,灵活地构建、定制和部署生成式 AI 模型。它包含训练和推理框架、护栏工具包、数据管护工具和预训练模型,为企业采用生成式 AI 提供了一种既简单、又经济的方法。开发者可以通过多种方式获取 NeMo,包括:GitHub 上的开源代码、NVIDIA NGC 目录中的封装容器,或者 NVIDIA AI Enterprise 订阅。
NeMo 作为 NVIDIA AI Enterprise 的一部分提供。有关更详细的定价和许可信息,请查看此处。
客户可以通过 NVIDIA AI Enterprise 订阅同时获得 NeMo 和 NVIDIA 商业标准版支持。商业标准版支持可提供服务级别协议 (SLA)、与 NVIDIA 专家交流的机会,以及涵盖本地和云部署的长期支持。
NVIDIA AI Enterprise 中提供了商业标准版支持。有关其他可用的支持和服务(例如关键业务支持、技术客户经理、培训和专业服务等),请参阅《NVIDIA 企业支持和服务指南》。
NeMo 是一项打包的服务,可从 NGC 目录免费获取,旨在帮助开发者轻松快速地开始构建或自定义 LLM。对 AI 研究人员和开发者而言,NGC 目录为他们迅速上手使用 NeMo 训练和推理容器提供了一个简单的途径。开发者还可以从 GitHub 获取 NeMo 开源代码。
另一方面,对构建商用 LLM 的开发者而言,NVIDIA AI Enterprise 为他们提供了一个安全的生产级端到端软件平台,其中囊括了 NeMo 框架、生成式 AI 参考应用,以及有助于简化采用过程的企业级支持。该平台具有以下优势:
作为 NeMo 框架的一部分,NeMo Data Curator 是一款可扩展的数据管护工具,可帮助开发者整理 LLM 预训练所需的包含数万亿个令牌的多语言数据集。它由一组 Python 模组组成,这些模组利用消息传递接口 (MPI)、Dask 和 Redis 集群将各种数据管护任务(例如数据下载、文本提取、清理、过滤、精确/模糊重复数据删除等)扩展到数千个计算核心。
NeMo Guardrails 是一款开源工具包,可用于轻松开发安全可靠的 LLM 对话系统。借助该工具,开发者可以按需调整由 LLM 提供支持的应用,以确保其安全可靠、不超出公司的专业领域,并恪守品牌价值观。Guardrails 并非 NeMo 框架专用,它在设计上能够与所有 LLM(包括 OpenAI ChatGPT)配合使用。
NeMo Guardrails 为开发者提供了三种可选边界:
检索增强生成是一种关于大型语言模型 (LLM) 的技术,该技术可以将 LLM 连接至企业的知识库,从而按照最新信息生成回复。NeMo 可以搭配使用各种第三方和社区工具(包括 Milvus、Llama Index 和 LangChain),从向量数据库中提取相关信息片段提供给 LLM,帮助以自然语言生成回复。
NVIDIA 提供的 AI 工作流是云原生的封装参考示例,旨在展示如何利用 NVIDIA AI 框架构建 AI 解决方案。通过结合使用预训练模型、训练和推理工作流、Jupyter Notebook 以及 Helm 图表,AI 工作流可加快交付 AI 解决方案的过程。
借助以下端到端工作流,您可以快速构建生成式 AI 解决方案:
及时了解 NVIDIA 生成式 AI 的最新动态。
将 NVIDIA 的开发者更新、公告等信息直接发送到您的收件箱。
请向我发送 NVIDIA 发布的关于企业业务解决方案以及开发者技术和工具的新动态、公告及其他信息。
NVIDIA 隐私政策