GPU 优化的 AI 企业服务、软件和支持
NVIDIA NGC™ 是面向端到端 AI 和数字孪生工作流程的企业服务、软件、管理工具和支持门户。通过该门户,您可以使用完全受管理的服务将您的解决方案更快推向市场,也可以在您首选的云、本地和边缘系统上利用性能经过优化的软件构建和部署解决方案。
NGC 提供一系列云服务,包括用于生成式 AI、药物研发和语音 AI 解决方案的 NVIDIA NeMo、BioNemo 和 Riva Studio,以及用于安全共享专有 AI 软件的 NGC 专用注册表。
NVIDIA AI Foundation 模型提供易于使用的界面,可让您直接在浏览器中快速体验生成式 AI 模型,而无需进行任何设置。了解模型后,您可以使用 NVIDIA AI Enterprise 创建自定义模型,并将其运用于实际生产。
NGC 目录能够通过企业级容器、预训练的 AI 模型以及可在本地、云端或边缘部署的行业特定 SDK,加速端到端工作流。
我们每月都会不断优化和发布 AI 框架和 SDK 容器,以帮助缩短推出解决方案的时间。
先进的预训练模型可帮助您更快地针对计算机视觉、语音 AI 等任务构建自定义模型。
数百个 Jupyter Notebook 不仅能帮助您更快地理解、自定义、测试和构建模型,还能让您充分利用众多最佳实践的经验。
我们每月会对容器进行安全扫描并提供详细报告,以确保容器符合您公司的安全策略。
直接从您的浏览器中试用模型,使用 API 将其集成到您的应用程序中,或者无需任何设置即可在 Windows 计算机上下载和运行模型。
从高性能计算到对话式 AI、医疗影像、推荐系统等,NGC 集合可在一个地方为不同用例和行业提供即用型容器、预训练模型、SDK 和 Helm 图表,从而加快应用开发和部署流程。
NVIDIA AI Enterprise 是一款端到端的安全云原生 AI 软件套件,可助力企业组织在提高运营效率的同时解决新挑战。
充分受益于可靠的软件容器和 AI 模型:软件容器每月接受一次扫描,确保减少安全问题;AI 模型可提供有关偏见、可解释性、安全性和隐私性的详细信息,确保满足合规要求。
借助包含 AI 框架、预训练模型、Helm 图表、Jupyter Notebook 等工具的综合解决方案,加快生产速度。
利用全球企业支持构建 AI 解决方案并管理 AI 应用的生命周期,确保您的业务关键型项目顺利开展。
运行在物理服务器、Kubernetes 或虚拟化环境中的 NGC 目录的软件,可在本地、云端和边缘部署,从而更大限度地利用 GPU,同时尽可能提高应用的便携性和可扩展性。用户可以使用 NVIDIA Base Command™ 管理端到端 AI 开发生命周期。
NVIDIA AI Enterprise 是一款安全的端到端云原生 AI 软件套件,可以助力组织在提高运营效率的同时解决新难题。
借助集合,您可以轻松发现兼容的框架容器、模型、Jupyter Notebook 和其他资源,从而更快地入门 AI。各集合还提供详尽的文档,以支持部署适合特定用例的内容。
NGC 目录可为各种应用(包括 NLP、ASR、智能视频分析和物体检测)提供可直接投入使用的集合。
NGC 目录为适用于热门 AI 和数据科学软件的容器进行托管,这些软件已由 NVIDIA 进行微调、测试和优化。此外,还可托管适用于 HPC 应用和数据分析的经过全面测试的容器,允许用户使用经过测试的框架构建完全控制的解决方案。
NGC 目录为各种常见的 AI 任务托管预训练的 GPU 优化模型,开发者可以按原样使用或轻松重新训练这些模型,从而节省将解决方案推向市场的宝贵时间。每个模型都随附一个模型简历,其中概述了架构、训练详情、使用的数据集和限制。借助 AI Playground,开发者可以直接在浏览器中体验模型,并使用 API 将模型集成到应用程序中,或在配备 RTX GPU 的 Windows 机器上下载和运行模型。
NGC 目录托管教程 Jupyter Notebook 的各种用例,包括计算机视觉、自然语言处理和推荐系统,能让开发者在构建 AI 模型方面抢占先机。您还可借此灵活修改 Notebook 并制定自定义解决方案。
只需单击一下,即可在托管式 Jupyter Notebook 服务上部署 NGC 目录中的容器、模型和 SDK。
Helm 图表在 Kubernetes 集群上实现软件部署自动化。NGC 目录提供支持 Kubernetes 的 Helm 图表,可让用户在轻松部署 NVIDIA 和第三方软件时,保持一致性和安全性。
NVIDIA GPU Operator 是一个由 NVIDIA 驱动、容器运行时、设备插件和管理软件组成的套件,可供 IT 团队安装在 Kubernetes 集群上,支持用户更快地访问其工作负载。
NGC 目录包含 NVIDIA TAO 工具套件、NVIDIA Triton™ 推理服务器和 NVIDIA TensorRT™,可让深度学习应用开发者和数据科学家重新训练深度学习模型,并轻松优化和部署这些模型进行推理。
通过 NGC 目录加速您的工作流
NVIDIA 合作伙伴提供一系列数据科学、AI 训练和推理、高性能计算 (HPC) 和可视化解决方案。
了解如何在 NGC 目录上发布 GPU 优化的软件。
NGC 目录为 AI、机器学习和 HPC 提供完整的 GPU 优化的容器集合,这些容器经过测试,可随时在本地、云端或边缘依托受支持的 NVIDIA GPU 运行。此外,NGC 目录还提供预训练模型、模型脚本和行业解决方案,可轻松集成到现有工作流中。
编译和部署深度学习框架既耗时又容易出错。优化 AI 软件需要专业知识。构建模型需要专业知识、时间和计算资源。NGC 目录可提供 GPU 优化软件和工具,帮助解决这些挑战。借助这些软件和工具,数据科学家、开发者、IT 和用户可以专注于构建自己的解决方案。
每个容器都有一组预先集成的 GPU 加速软件。该堆栈包括选定的应用或框架、NVIDIA CUDA® 工具套件、加速库和其他必要的驱动,所有这一切均经过测试和调整,无需进一步执行任何设置即可立即协同运行。
NGC 目录提供 TensorFlow、PyTorch、MxNet、NVIDIA TensorRT、RAPIDS™ 等众多热门 AI 软件。浏览 NGC 目录,查看完整列表。
NGC 目录容器可以在 PC、工作站、HPC 集群、NVIDIA DGX 系统、受支持的云提供程序上的 NVIDIA GPU 以及 NVIDIA 认证系统上运行。这些容器在 Docker 和 Singularity 运行时运行。有关详情,请查看 NGC 文档。
NVIDIA 在每个受支持的云服务提供商的 marketplace 中提供虚机镜像文件。要运行 NGC 容器,只需选择相应的实例类型、运行 NGC 镜像,并将 NGC 目录中的容器拉入其中即可。具体步骤因云提供商而异,但您可以在 NGC 文档中找到分步说明。
NVIDIA 工程师每月都会更新 TensorFlow、PyTorch 和 MXNet 等热门的深度学习软件,旨在优化完整的软件堆栈,并充分利用 NVIDIA GPU 的性能。
您可以免费下载 NGC 目录中的容器(根据使用条款而定)。然而,如果在云端运行,每个云服务提供商有自己的 GPU 计算实例定价。
不是,NGC 目录是提供 GPU 优化软件、企业服务和软件的门户。
NGC 专用注册表的开发宗旨是给用户提供安全空间,以便在其企业内存储和共享自定义容器、模型、模型脚本和 Helm 图表。借助专用注册表,企业可以保护自己的 IP,同时加强协作能力。
用户可以访问 NVIDIA 开发者论坛,该论坛由来自 NVIDIA 客户、合作伙伴和员工生态系统的大量 AI 和 GPU 专家提供支持。
此外,NVIDIA NGC 支持服务通过我们的 OEM 合作伙伴为 NVIDIA 认证系统提供 L1 级到 L3 级支持。
由 NVIDIA EGX™ 和 HGX™ 平台组成的 NVIDIA 认证系统,使企业能够放心地选择经过性能优化的硬件和软件解决方案,以较小配置或大规模地通过更好的方式安全地运行其 AI 工作负载。查看 NVIDIA 认证系统的完整列表。
通过 NGC 目录加速您的工作流