Visit your regional NVIDIA website for local content, pricing, and where to buy partners specific to your country.
生成式 AI
构建、定制和部署生成式 AI。
视频 | 解决方案简介 | 面向开发者
NVIDIA NeMo™ 是一个端到端平台,用于随时随地开发自定义生成式 AI,包括大语言模型 (LLM)、多模态、视觉和语音 AI。通过精确的数据整合、前沿的定制、检索增强生成(RAG)和加速性能,提供适用于企业的模型。NeMo 是 NVIDIA AI Foundry 的一部分,这是一个用于使用企业数据和特定领域知识构建定制生成式 AI 模型的平台和服务。
利用生成式 AI 快速实现企业转型。这一系列在线研讨会为加速开发和部署提供了路线图,提供了充分利用这项突破性技术所需的知识。
在所有主要云平台、数据中心和边缘端上,随时随地训练和部署生成式 AI。
借助安全、优化的全栈解决方案,将产品部署到生产环境中,该解决方案提供 NVIDIA AI Enterprise 中支持、安全和 API 稳定性的功能。
大规模快速训练、自定义和部署大语言模型 (LLM)、视觉、多模态和语音 AI,减少提供解决方案所需的时间,并提高投资回报率。
支持多节点、多 GPU 训练和推理,能够更大限度地提高吞吐量并缩短 LLM 训练时间。
体验为 LLM 管道提供的完整解决方案的优势——从数据处理和训练到生成式 AI 模型的推理。
通过 NVIDIA NeMo 微服务加速自定义生成式 AI 的采用。我们先进的自定义生成式 AI 平台现已作为一组微服务提供,可为各行各业的企业带来一系列优势。
NeMo Curator
NVIDIA NeMo Curator 是一款 GPU 加速的数据管护工具,可为 LLM 预训练提供大规模高质量数据集。
NeMo Customizer
NVIDIA NeMo Customizer 是一种高性能、可扩展的微服务,可简化大语言模型(LLM)的微调和对齐,以满足特定领域的使用场景,使各行业更容易采用生成式 AI。
NeMo Evaluator
NVIDIA NeMo Evaluator 可在任何平台上根据学术和定制基准自动评估定制生成式 AI 模型。
NeMo Retriever
NVIDIA NeMo Retriever 是一系列生成式 AI 微服务,可帮助企业将自定义模型无缝连接到各种业务数据,并提供高度准确的响应。
请查看博客,详细了解 NeMo Retriever 嵌入和重新排序 NIM。
NeMo Guardrails
NVIDIA NeMo Guardrails 可编排对话管理,确保使用 LLM 的智能应用的准确性、适当性和安全性。它能为监管生成式 AI 系统的企业组织提供保障。
NVIDIA NIM
NVIDIA NIM 是 NVIDIA AI Enterprise 的一部分,是一组易于使用的微服务,旨在云端、数据中心和工作站安全、可靠地部署高性能 AI 模型推理。
借助可在任意位置运行的生产就绪型 API 来体验 AI,设计 AI 原型并部署 AI。
查看 NVIDIA 近期发布的新闻,了解 NeMo 和生成式 AI 如何影响不同行业及合作伙伴协作等。
各类企业正纷纷转向生成式 AI,以革新他们的创新方式、优化运营并建立竞争优势。NeMo 是一款端到端云原生框架,可用于管护数据、训练和定制基础模型以及大规模运行推理。它支持文本到文本、文本到图像、文本到 3D 模型以及图像到图像生成。
借助加速计算平台——包括全栈优化、创新的芯片架构、加速库和应用开发框架——以及实战技术培训,解锁生成式 AI 的力量。
我们全面的 LLM 学习资源涵盖从基础主题到高级主题在内的主题课程,以及由 NVIDIA 专家设计和讲授的实战培训,可以让您充分受益。您可以选择灵活的自主培训课程,也可以参加讲师指导的培训班。通过测验后,还可获得能力证书。
获得 NVIDIA 认证,展示您在生成式 AI 方面的技能,促进您的职业发展。我们新推出的专业认证计划提供两种开发者考试,重点考察开发者对大语言模型 (LLM) 和多模态工作流技能的掌握程度。
无论您是数据科学家,想要构建自定义模型,还是首席数据官,正在为您的组织探索大语言模型的潜力,请继续阅读,以获取有价值的见解和指导。
了解进行 LLM 推理时会面临哪些非常紧迫的挑战。了解 Transformer 架构和一般注意机制的基础知识,并获得实用的解决方案。
了解 NVIDIA NeMo 如何通过 NVIDIA AI Enterprise 帮助企业组织简化自定义 LLM 的开发和部署,最终促进 AI 功能在业务运营中无缝集成。
探索适用于大语言模型的最新工具、优化和最佳实践。
借助有远见的 CEO、数据科学家等人的见解和最佳实践,挖掘检索增强型生成技术(RAG)的潜力。
了解 LLM 推理如何为 AI 赋能的应用和服务带来突破性性能。
Dropbox 计划利用 NVIDIA 的人工智能铸造厂构建自定义模型,并通过 Dropbox Dash 通用搜索工具和 Dropbox AI 来改进由人工智能驱动的知识工作。
Writer 正在利用 NVIDIA NeMo 构建 LLM,以便帮助数以百计的公司为营销、培训、支持等领域的企业用例创建自定义内容。
Amdocs 计划使用 Microsoft Azure 上的 NVIDIA AI Foundry 为全球价值 1.7 万亿美元的电信行业构建自定义 LLM。
及时了解最新突破和进展,并在新技术推出时率先收到通知。
加入 NVIDIA 开发者计划,即可获取生成式 AI 工具、人工智能模型、培训、文档、专家论坛等资源。
加入 NVIDIA 初创加速计划,即可享受优惠价格,并获取生成式 AI 资源以及在各个阶段接触风险投资者的机会。
立即获取训练和推理工具,轻松快速且经济高效地开发生成式 AI 模型。
使用 NeMo Retriever NIM 微服务从海量企业数据中获得高度准确的洞察。
与 NVIDIA 产品专家联系,了解如何凭借 NVIDIA AI Enterprise 的安全性、API 稳定性和支持服务,在各种保障下从试点转向生产。
获取基础模型、企业软件、加速计算和 AI 专业知识,为您的企业应用构建、微调和部署自定义模型。
AI Sweden 可轻松访问包含 1000 亿个参数的强大模型,从而促进了区域语言模型的应用。他们还将历史记录数字化,用于开发商用语言模型。
Amazon 利用 NVIDIA TensorRT-LLM 和 GPU 将新型 AI 功能的推理速度提高至原来的两倍,帮助卖家更快地优化产品列表。
Amazon 利用 NVIDIA NeMo 框架、GPU 和 AWS Elastic Fabric Adapter (EFA) 来训练其新一代 LLM,为部分大型 Amazon Titan Foundation 模型的客户提供更快、更易于使用的生成式 AI 解决方案。
在 Microsoft Azure 上获取专为企业环境量身定制的一整套相辅相成的工具、库、框架和支持服务。
Bria 是一家位于特拉维夫的初创公司,正通过其生成式 AI 服务帮助那些正在寻求以负责任的方式将视觉生成式 AI 技术整合到其企业产品中的公司,该服务在强调模型透明度的同时,也重视公平归属和版权保护。
借助 NVIDIA NIM 和优化模型,使用 Cohesity Data Protect 的客户可以为数据备份和存档添加生成式 AI 智能。这让 Cohesity 和 NVIDIA 能够为所有使用 Cohesity Data Protect 的客户带来生成式 AI 的强大力量。借助 NIM 和 NVIDIA 优化模型的强大力量,使用 Cohesity Data Protect 的客户可从其数据备份和存档中获得数据驱动的见解,从而实现更高水平的效率、创新和增长。
CrowdStrike 和 NVIDIA 正在利用加速计算和生成式 AI 为客户提供一系列 AI 驱动的创新解决方案,这些解决方案专为高效应对安全威胁而量身打造。
Dell Technologies 和 NVIDIA 宣布了一项计划,这项计划旨在帮助企业轻松、快速、安全地在本地构建和使用生成式 AI 模型。
Deloitte 将利用 NVIDIA AI 技术和专业知识为企业软件平台构建高性能的生成式 AI 解决方案,助力企业解锁巨大的商业价值。
借助 NVIDIA NeMo,数据科学家可以在 Domino 的平台中根据专有数据和 IP 对 LLM 进行微调,使其适应特定领域的用例,而无需从零开始训练新模型。
Dropbox 计划利用 NVIDIA 的 AI Foundry 来构建自定义模型,并通过 Dropbox Dash 通用搜索工具和 Dropbox AI 来改进 AI 赋能的知识工作。
在 Google Cloud Next 大会上,Google Cloud 宣布推出搭载 NVIDIA H100 Tensor Core GPU 的 A3 实例。两家公司的工程团队通力合作,将 NVIDIA NeMo 引入到 A3 实例中,使训练和推理速度进一步提升。
Hugging Face 作为领先的 AI 开发者开放平台,正与 NVIDIA 合作,以集成 NeMo Curator 并加速其数据过滤和去重库 DataTrove。Hugging Face 产品总监 Jeff Boudier 表示:“NeMo Curator 的 GPU 加速功能让我们感到非常激动,我们迫不及待地想利用它们为 DataTrove 提供支持!”
韩国领先的移动运营商构建了包含数十亿个参数的 LLM,这些模型使用 NVIDIA DGX SuperPOD™ 平台和 NeMo 框架进行训练,旨在为智能音箱和客户呼叫中心提供支持。
联想的解决方案通过授权全球合作伙伴和客户在行业垂直领域以最高安全性和效率大规模开发、训练和部署人工智能,从而加速创新。
Quantiphi 专注于使用 NVIDIA NeMo 框架训练和微调基础模型,并使用 NVIDIA AI Enterprise 软件平台优化大规模部署,同时遵循负责任的人工智能原则。
利用 NVIDIA AI Foundry 构建并与 NVIDIA NeMo Retriever 微服务配合使用的自定义模型将为 SAP 的产品系列添加业务环境,包括 Joule AI Copilot 以及分析、交通运输和招聘平台。
ServiceNow 在其 ServiceNow 平台上开发了自定义 LLM,用于支持智能工作流自动化,并促进企业 IT 流程全面实现生产力提升。
VMware Private AI Foundation 与 NVIDIA 将通力合作,帮助企业构建自定义模型并运行生成式 AI 应用(包括智能聊天机器人、助理、搜索和摘要生成应用)。
Weights & Biases 可帮助从事生成式 AI 用例或大语言模型(LLM)的团队跟踪和可视化所有提示工程实验(这有助于用户调试和优化 LLM 管道),并为 LLM 提供监控和可观察性能力。
NVIDIA 隐私政策