NVIDIA NGC

GPU 优化的 AI 企业服务、软件和支持

NGC 是什么?

NVIDIA NGC™ 是面向端到端 AI 和数字孪生工作流程的企业服务、软件、管理工具和支持门户。通过该门户,您可以使用完全受管理的服务将您的解决方案更快推向市场,也可以在您首选的云、本地和边缘系统上利用性能经过优化的软件构建和部署解决方案。

企业云服务

NGC 提供一系列云服务,包括用于生成式 AI、药物研发和语音 AI 解决方案的 NVIDIA NeMoBioNemo 和 Riva Studio,以及用于安全共享专有 AI 软件的 NGC 专用注册表

直接在浏览器中试用先进的生成式 AI 模型

NVIDIA AI Foundation 模型提供易于使用的界面,可让您直接在浏览器中快速体验生成式 AI 模型,而无需进行任何设置。了解模型后,您可以使用 NVIDIA AI Enterprise 创建自定义模型,并将其运用于实际生产。

NGC 目录:适用于 AI、机器学习和 HPC 的 GPU 优化的软件中心

NGC 目录能够通过企业级容器、预训练的 AI 模型以及可在本地、云端或边缘部署的行业特定 SDK,加速端到端工作流。

深受各种规模的组织的信赖

获得优化的性能

我们每月都会不断优化和发布 AI 框架和 SDK 容器,以帮助缩短推出解决方案的时间。

利用预训练模型加速 AI 构建

先进的预训练模型可帮助您更快地针对计算机视觉、语音 AI 等任务构建自定义模型。

使用 Jupyter Notebook 化繁为简

数百个 Jupyter Notebook 不仅能帮助您更快地理解、自定义、测试和构建模型,还能让您充分利用众多最佳实践的经验。

使用安全软件保障安全构建

我们每月会对容器进行安全扫描并提供详细报告,以确保容器符合您公司的安全策略。

即时体验模型

直接从您的浏览器中试用模型,使用 API 将其集成到您的应用程序中,或者无需任何设置即可在 Windows 计算机上下载和运行模型。

适用于所有用例的平台

从高性能计算到对话式 AI、医疗影像、推荐系统等,NGC 集合可在一个地方为不同用例和行业提供即用型容器、预训练模型、SDK 和 Helm 图表,从而加快应用开发和部署流程。

语言建模

语言建模是一项自然语言处理 (NLP) 任务,可确定句子中的词汇在假设顺序下出现的概率。

推荐系统

推荐系统是一种信息过滤系统,旨在预测用户对物品的“评分”或“偏好”。

图像分割

图像分割属于图像处理领域,可将图像划分为体现独特对象或子部分的多个小组或区域。

翻译

机器翻译是将文本从一种语言翻译成另一种语言的任务。

物体检测

物体检测不仅包括检测图像和视频中物体是否存在及其位置,还可根据其是否为日常物体进行分类。

ASR

自动语音识别 (ASR) 系统包括向交互式虚拟助手发出语音命令、将音频转换为在线视频中的字幕等。

文本转语音

语音合成或文本转语音是人为地根据原始转录内容生成人类语音的任务。当移动设备将网页上的文本转换为语音时,会使用文本转语音模型。

HPC

高性能计算 (HPC) 是推动计算科学发展的关键工具之一,该科学计算领域已扩展到了各个方向。

企业就绪

NVIDIA AI Enterprise 是一款端到端的安全云原生 AI 软件套件,可助力企业组织在提高运营效率的同时解决新挑战。

可信 AI

充分受益于可靠的软件容器和 AI 模型:软件容器每月接受一次扫描,确保减少安全问题;AI 模型可提供有关偏见、可解释性、安全性和隐私性的详细信息,确保满足合规要求。

AI 工作流

借助包含 AI 框架、预训练模型、Helm 图表、Jupyter Notebook 等工具的综合解决方案,加快生产速度。

企业级支持

利用全球企业支持构建 AI 解决方案并管理 AI 应用的生命周期,确保您的业务关键型项目顺利开展。

随地运行,安枕无忧

运行在物理服务器、Kubernetes 或虚拟化环境中的 NGC 目录的软件,可在本地、云端和边缘部署,从而更大限度地利用 GPU,同时尽可能提高应用的便携性和可扩展性。用户可以使用 NVIDIA Base Command™ 管理端到端 AI 开发生命周期。

本地

NGC 目录软件可在各种 NVIDIA GPU 加速平台上运行,包括 NVIDIA-Certified Systems™NVIDIA DGX™ 系统、NVIDIA TITAN 和 NVIDIA RTX™ 助力的工作站、以及使用 NVIDIA AI Enterprise的虚拟化环境。

在云端

NGC 目录中的软件可部署在 GPU 助力的实例上。该软件可直接部署在虚机 (VM) 或主要云服务提供商 (CSP) 提供的 Kubernetes 服务上。借助 NVIDIA AI 软件,企业可以轻松地在云端进行开发和部署解决方案。

边缘

随着计算从数据中心扩展到边缘,NGC 目录中的软件可以部署在基于 Kubernetes 的边缘系统上,以实现低延迟、高吞吐量的推理。借助 NVIDIA AI Enterprise,在分布式边缘基础架构上安全地部署、管理和扩展 NGC 中的 AI 应用。

强大的 AI 生产力

NVIDIA AI Enterprise 是一款安全的端到端云原生 AI 软件套件,可以助力组织在提高运营效率的同时解决新难题。

借助您所需的所有软件更快构建 AI 解决方案

借助集合,您可以轻松发现兼容的框架容器、模型、Jupyter Notebook 和其他资源,从而更快地入门 AI。各集合还提供详尽的文档,以支持部署适合特定用例的内容。

NGC 目录可为各种应用(包括 NLP、ASR、智能视频分析和物体检测)提供可直接投入使用的集合。

使用容器更快地部署和运行工作内容

NGC 目录为适用于热门 AI 和数据科学软件的容器进行托管,这些软件已由 NVIDIA 进行微调、测试和优化。此外,还可托管适用于 HPC 应用和数据分析的经过全面测试的容器,允许用户使用经过测试的框架构建完全控制的解决方案。

使用预训练模型加速您的 AI 项目

NGC 目录为各种常见的 AI 任务托管预训练的 GPU 优化模型,开发者可以按原样使用或轻松重新训练这些模型,从而节省将解决方案推向市场的宝贵时间。每个模型都随附一个模型简历,其中概述了架构、训练详情、使用的数据集和限制。借助 AI Playground,开发者可以直接在浏览器中体验模型,并使用 API 将模型集成到应用程序中,或在配备 RTX GPU 的 Windows 机器上下载和运行模型。

利用 Jupyter Notebook,立即启动您的 AI 项目

NGC 目录托管教程 Jupyter Notebook 的各种用例,包括计算机视觉自然语言处理推荐系统,能让开发者在构建 AI 模型方面抢占先机。您还可借此灵活修改 Notebook 并制定自定义解决方案。

只需单击一下,即可在托管式 Jupyter Notebook 服务上部署 NGC 目录中的容器、模型和 SDK。

使用 Helm 图表实现自动化部署

Helm 图表在 Kubernetes 集群上实现软件部署自动化。NGC 目录提供支持 Kubernetes 的 Helm 图表,可让用户在轻松部署 NVIDIA 和第三方软件时,保持一致性和安全性。

NVIDIA GPU Operator 是一个由 NVIDIA 驱动、容器运行时、设备插件和管理软件组成的套件,可供 IT 团队安装在 Kubernetes 集群上,支持用户更快地访问其工作负载。

通过可随时部署的 AI 工作流更快地提供解决方案

NGC 目录包含 NVIDIA TAO 工具套件、NVIDIA Triton™ 推理服务器和 NVIDIA TensorRT™,可让深度学习应用开发者和数据科学家重新训练深度学习模型,并轻松优化和部署这些模型进行推理。

客户案例

DeepZen

DeepZen是一家专注于研究逼真语音且让语音具备情感的 AI 公司。了解他们如何利用 NGC 目录自动处理录音和配音等流程。

Neurala

了解 AI 初创公司 Neurala 如何将其 Brain Builder 平台的深度学习训练和推理速度提升 8 倍。

克莱姆森大学

了解克莱姆森大学的 HPC 管理员如何支持 GPU 优化的容器,帮助科学家加速研究。

亚利桑那大学

了解亚利桑那大学如何使用 NGC 目录中的容器直接在无人机上创建 3D 激光点云来加速科学研究。

通过 NGC 目录加速您的工作流

生态系统合作伙伴

NVIDIA 合作伙伴提供一系列数据科学、AI 训练和推理、高性能计算 (HPC) 和可视化解决方案。

了解如何在 NGC 目录上发布 GPU 优化的软件。

资源中心

新闻

阅读 NGC 目录最近的更新和公告。

网络会议

观看这些视频教程,了解如何使用 NGC 目录。

GTC 会议

点播观看所有热门 NGC 会议。

开发者博客

查看这些分步说明,了解如何使用 NGC 目录。

常见问题解答

NGC 目录为 AI、机器学习和 HPC 提供完整的 GPU 优化的容器集合,这些容器经过测试,可随时在本地、云端或边缘依托受支持的 NVIDIA GPU 运行。此外,NGC 目录还提供预训练模型、模型脚本和行业解决方案,可轻松集成到现有工作流中。

编译和部署深度学习框架既耗时又容易出错。优化 AI 软件需要专业知识。构建模型需要专业知识、时间和计算资源。NGC 目录可提供 GPU 优化软件和工具,帮助解决这些挑战。借助这些软件和工具,数据科学家、开发者、IT 和用户可以专注于构建自己的解决方案。

每个容器都有一组预先集成的 GPU 加速软件。该堆栈包括选定的应用或框架、NVIDIA CUDA® 工具套件、加速库和其他必要的驱动,所有这一切均经过测试和调整,无需进一步执行任何设置即可立即协同运行。

NGC 目录提供 TensorFlow、PyTorch、MxNet、NVIDIA TensorRT、RAPIDS™ 等众多热门 AI 软件。浏览 NGC 目录,查看完整列表。

NGC 目录容器可以在 PC、工作站、HPC 集群、NVIDIA DGX 系统、受支持的云提供程序上的 NVIDIA GPU 以及 NVIDIA 认证系统上运行。这些容器在 Docker 和 Singularity 运行时运行。有关详情,请查看 NGC 文档

NVIDIA 在每个受支持的云服务提供商的 marketplace 中提供虚机镜像文件。要运行 NGC 容器,只需选择相应的实例类型、运行 NGC 镜像,并将 NGC 目录中的容器拉入其中即可。具体步骤因云提供商而异,但您可以在 NGC 文档中找到分步说明。

NVIDIA 工程师每月都会更新 TensorFlow、PyTorch 和 MXNet 等热门的深度学习软件,旨在优化完整的软件堆栈,并充分利用 NVIDIA GPU 的性能。

您可以免费下载 NGC 目录中的容器(根据使用条款而定)。然而,如果在云端运行,每个云服务提供商有自己的 GPU 计算实例定价。

不是,NGC 目录是提供 GPU 优化软件、企业服务和软件的门户。

NGC 专用注册表的开发宗旨是给用户提供安全空间,以便在其企业内存储和共享自定义容器、模型、模型脚本和 Helm 图表。借助专用注册表,企业可以保护自己的 IP,同时加强协作能力。

用户可以访问 NVIDIA 开发者论坛,该论坛由来自 NVIDIA 客户、合作伙伴和员工生态系统的大量 AI 和 GPU 专家提供支持。

此外,NVIDIA NGC 支持服务通过我们的 OEM 合作伙伴为 NVIDIA 认证系统提供 L1 级到 L3 级支持。

由 NVIDIA EGX™ 和 HGX™ 平台组成的 NVIDIA 认证系统,使企业能够放心地选择经过性能优化的硬件和软件解决方案,以较小配置或大规模地通过更好的方式安全地运行其 AI 工作负载。查看 NVIDIA 认证系统的完整列表。

通过 NGC 目录加速您的工作流