在过去的十年中,自然语言处理 (NLP) 的应用呈爆炸式增长。随着人工智能助手的大量出现,以及企业将更多的人机交互体验融入到业务中,理解如何使用 NLP 技术来操作、分析和生成基于文本的数据是至关重要的。现代技术可以像人类一样,捕捉语言的细微差别、使用情境和复杂程度。如果设计正确得当,开发人员可以使用这些技术来构建强大的 NLP 应用,在聊天机器人、AI 语音代理等众多程序中实现自然顺畅的人机交互。
深度学习模型在 NLP 中得到了广泛的应用,因为它们能够对众多语境和语言进行准确的概括。基于Transformer的模型,比如BERT (Bidirectional Encoder Representations from Transformers),在问答系统的SQuAD指标、实体识别、意图识别、情感分析等方面实现了与人类基准相媲美的准确率,推动了NLP产生革命性的进展。
在此课程中,您将学习如何使用基于 Transformer 的自然语言处理模型完成文本分类任务(如文档归类)和命名实体识别 (NER) 任务,以及如何分析各种模型特性、限制和特点,从而基于衡量标准、应用领域和可用资源来为特定用例选定最适合的模型。
学习目标
完成本课程后,您将能够了解:
- 了解 NLP 文本嵌入任务的快速演进,如 Word2Vec、基于递归神经网络 (RNN) 的嵌入和 Transformer 。
- 在不使用 RNN 的情况下,如何利用 Transformer 架构特点(尤其是自注意力机制)创建语言模型。
- 使用自监督机制优化 BERT、Megatron 和其他变体中的 Transformer 架构,以取得更好的 NLP 结果。
- 利用经过预训练的现代 NLP 模型来完成多个任务,如文本分类、NER 和问答系统。
- 管理推理挑战,以及为实时应用部署经过优化的模型。
下载课程大纲 (PDF 71.9 KB)