讲师指导的培训班
数据并行 —— 用多 GPU 训练神经网络

现代“深度学习”正面临的数据集规模和模型复杂程度不断增加的挑战。因此,要想卓有成效且高效地训练模型,需要有强大的计算能力。学习在深度学习模型训练期间在多个 GPU 之间分配数据,使得更多基于深度学习应用开发成为可能。

此外,有效使用配备多个 GPU 的系统可缩短训练时间,从而加快应用开发速度并进一步缩短迭代周期。能够使用多个 GPU 执行训练的团队将具有更大的优势,可以在更短的时间内构建基于更多数据进行训练的模型,大幅提高工程师的工作效率。

此课程将为您讲解如何应用各种技术在多 GPU 上进行数据并行的深度学习训练,以缩短数据密集型应用所需的训练时间。通过使用深度学习工具、框架和工作流来运作神经网络训练,您将学习如何通过将数据分配到多个 GPU 来缩短模型训练时间,同时保持单个 GPU 上的训练准确性。

 

学习目标

 

完成本课程后,您将能够:
  • 了解如何运用多个 GPU 进行数据并行深度学习训练
  • 在训练时实现更大吞吐量,以充分利用多个 GPU
  • 使用 Pytorch 分布式数据并行将训练分发到多个 GPU
  • 了解并运用关于多 GPU 训练性能和准确性的算法的注意事项

下载课程大纲 (PDF 294 KB)

课程大纲

议题 说明
课程介绍
(15 分钟)
  • 讲师介绍
  • 登录 DLI 学习平台
随机梯度下降和批量大小的影响
(120 分钟)
学习在多个 GPU 上进行训练时,随机梯度下降的重要性
  • 了解单一线程顺序数据处理的问题,以及通过并行处理加速应用的原理
  • 理解损失函数、梯度下降和随机梯度下降 (SGD)
  • 了解批量大小对准确性和训练时间的影响,并着眼于其对多 GPU 系统的运用
休息(60 分钟)
使用 PyTorch 分布式数据并行 (DDP) 在多个 GPU 上进行训练
(120 分钟)
学习使用 PyTorch 分布式数据并行将单个 GPU 上的训练转换到多个 GPU
  • 学习 DDP 如何协调在多个 GPU 之间的训练
  • 重构单 GPU 训练的程序,以便使用 DDP 在多个 GPU 上运行
休息(15 分钟)
在扩展到多个 GPU 时保持模型准确性
(90 分钟)
理解并应用关键算法考虑因素,以在多个 GPU 上训练时保持准确性
  • 了解在多个 GPU 上并行训练时,哪些情况可能会导致准确性降低
  • 学习将训练扩展到多个 GPU 时保持准确性的技巧
评估测试
(30 分钟)
运用课上所学,完成本课程的测验题目,以获得培训证书
总结
(15 分钟)
  • 回顾今日所学
  • 填写反馈表
下一步 学习更多 DLI 相关课程:
 

培训详情

课程时长:8 小时,课后 6 个月内可以继续访问课件(实验资源用量有限额)

课程模式:讲师实时授课,每位学员可使用云端完全配置的 GPU 加速工作站实验练习

价格:

  • AI 培训班:每人 3500 元(提供发票)
  • 企业专属培训:联系我们,微信添加 NVIDIALearn

预备知识:

技术:PyTorch、PyTorch 分布式数据并行、NCCL

课程测评问题类型:基于技能的编码测试,评估学员在多个 GPU 上训练深度学习模型的能力

培训证书: 成功完成本课程和测试后,学员将获得 NVIDIA DLI 培训证书,证明在相关领域的能力,为职业发展提供证明

学习此课程的硬件要求:您需要一台笔记本电脑或台式机,且能够运行最新版 Chrome 或 Firefox 浏览器。我们为您提供在云端完全配置的 GPU 加速工作站的专用访问权限

课程语言:中文

即将举行的公开培训

模型并行 —— 构建和部署大型神经网络
2022 年 11 月 17 日(星期四)凌晨 1:00 至上午 9:00(北京时间)

加速计算基础知识 – CUDA C/C++
2023 年 1 月 12 日(星期四)凌晨 1:00 至上午 9:00(北京时间)

用于工业检测的计算机视觉
2023 年 1 月 19 日(星期四)凌晨 1:00 至上午 9:00(北京时间)

学习更多 DLI 课程

模型并行 —— 构建和部署大型神经网络

构建基于 Transformer 的自然语言处理应用

构建智能推荐系统

如果您的企业希望获取或提升在 AI、加速数据科学或加速计算方面的核心技能,NVIDIA DLI 有讲师指导的培训将是您的信心之选。

如果您的企业希望获取或提升在 AI、加速数据科学或加速计算方面的核心技能,NVIDIA DLI 有讲师指导的培训将是您的信心之选。

遇到问题?