多模态对话式 AI

加速从自动语音识别到自然语言理解和文字转语音输出的整个流程。

AI 驱动的语音、视觉和语言服务开创了进行个性化自然对话的革命性途径,但这些服务必须满足严格的准确性和延迟要求,以便实现实时互动。借助 NVIDIA 的对话式 AI 平台,开发者可以快速构建和部署先进的 AI 服务,助力在单个统一架构中驱动多个应用程序,客户只需进行少量的前期投资即可获得极其准确的低延迟系统。

 
先进的模型

先进的模型

可以利用 NGC™ 提供的对话式 AI 模型,这些模型已在 NVIDIA DGX™ 系统上训练了超过 100,000 小时。

自定义多模态技能

自定义多模态技能

轻松将语音、语言和视觉融入到单一流程,以建立类似人类的互动技能。

快速部署

快速部署

使用单个命令在云端、数据中心和边缘部署经过优化的模型。

端到端加速

端到端加速

在流程范围进行加速,并以远低于 300 毫秒 (ms) 上限的延迟执行模型推理。

真正的端到端加速

全面加速的流程

耗时远低于一秒的完整流程推理

以远低于 300 ms 上限的延迟执行完整的对话式 AI 作业(包括用于转录音频的自动语音识别 [ASR]、自然语言理解 [NLU] 和文本转语音 [TTS]),从而实现实时互动,同时腾出空间,在不影响用户体验的情况下提升流程复杂度。

NVIDIA A100 Tensor Core GPU 在 MLPerf Training v0.7 基准测试中的性能再创新高,在 WikiText 上训练 BERT 的用时为每个加速器 6.53 小时,而且大规模训练的用时为 0.83 分钟。

NVIDIA 对话式 AI
应用程序 解决方案

使用专门构建的系统进行训练和部署

大规模进行训练

NVIDIA DGX™ A100 包含 8 个 NVIDIA A100 Tensor Core GPU,是非常先进的数据中心加速器。Tensor Float 32 (TF32) 精度提供的 AI 性能比前几代高 20 倍,而且无需更改代码;另外,它通过在常见 NLP 模型中利用结构化稀疏使性能再提高 2 倍。借助第三代 NVIDIA® NVLink®、第二代 NVIDIA NVSwitch™ 和 NVIDIA Mellanox® InfiniBand,可在所有 GPU 之间实现超高带宽和低延迟的连接。这允许多个 DGX A100 系统大规模地训练包含数十亿个参数的巨大模型,从而提供优异的准确性。而利用 NVIDIA NeMo™ 这个开源工具包,开发者只需编写几行代码便可构建、训练和微调 DGX 加速的对话式 AI 模型。

NVIDIA DGX A100 - Universal System for AI Infrastructure
在边缘部署

在边缘部署

借助 NVIDIA EGX™ A100,可以通过在边缘处理大量语音和语言数据来驱动实时对话式 AI,同时避免网络延迟。开发者可以使用 NVIDIA TensorRT™ 优化模型的推理性能,并交付低延迟和高吞吐量的对话式 AI 应用程序。借助 NVIDIA Triton™ Inference Server,可以在生产环境中部署这些模型。TensorRT 和 Triton Inference Server 与 NVIDIA Jarvis(用于对话式 AI 的应用程序框架)配合使用,可在 EGX 上构建和部署端到端的 GPU 加速多模态作业。Jarvis 在幕后应用 TensorRT、配置 Triton Inference Server 和通过标准 API 公开服务,从而通过 Kubernetes 集群上的 Helm 图表运行一个命令进行部署。

AI 驱动的多模态技能

多发言者文字转录

经典的语音转文本算法已经演进,现在可以将会议、讲座和社交对话转录为文本,同时识别发言者和标记他们的发言内容。使用 NVIDIA Jarvis,您可以将多传感器音频和视觉数据融合到单个信息流中,以用于高级转录组件(例如实时分辨多个语音所需的可视分类组件)。

 
 

虚拟助理

虚拟助理可以通过类似人类的方式与客户互动,从而为联络中心、智能扬声器和车内智能助手的互动提供支持。AI 驱动的服务(例如语音识别、语言理解、语音合成和变声)无法单独支持此类系统,原因是它们缺少对话跟踪等关键组件。Jarvis 通过提供易于使用且可以为应用程序扩展的组件补充了这些主要服务。

加速企业和 开发者库

  • 生态系统合作伙伴
  • 开发者库

GPU 加速的一流语音、视觉和语言工作流程,可满足企业级需求。

InstaDeep
Intelligent Voice
Kensho
MeetKai
MTS
NetApp
QuantiPhi
Siminsights
Voca.ai

备受欢迎的对话式 AI 库,可构建 GPU 加速的先进深度学习模型

DeepPavlov
ESPNet
Hugging Face
Ludwig
PerceptiLabs
SpaCy
RASA

行业用例

基于聊天的应用程序改善了患者体验

基于聊天的应用程序改善了患者体验

借助自然语言处理,Cureai 的平台可让患者将自身状况告知医生,查看自己的病历,帮助服务提供商从医疗对话中提取数据,以更好地告知治疗情况。

Square 利用 GPU 推动对话式 AI

Square 利用 GPU 推动对话式 AI

了解对话式 AI 引擎 Square Assistant,它可帮助小型企业更高效地与其客户进行沟通。

利用对话式 AI 变革金融服务

利用对话式 AI 变革金融服务

了解企业如何走上成功实施之路,以及如何通过 ROI 推动业务发展。

立即开始加速实现对话式 AI

使用 NVIDIA NeMo 框架训练 AI 模型

在 NVIDIA DGX A100 系统上进行训练

使用 NVIDIA Jarvis 框架简化部署

使用 NVIDIA EGX A100 系统在边缘进行部署