Table of Contents
课程介绍
"进击算法工程师深度学习课程"旨在培养学员在深度学习领域的专业技能和实战经验。课程涵盖深度学习基础理论、神经网络架构、模型优化方法等内容,通过项目实践和算法实现,帮助学员掌握深度学习算法原理和应用,提升在算法工程师领域的竞争力和实践能力。无论您是初学者还是有一定算法经验者,本课程都能帮助您深入学习深度学习技术,实现在算法工程师领域的进击。
课程目录
001.1-1 课程内容和理念
002.1-2 初识深度学习
003.1-3 课程使用的技术栈
004.2-1 线性代数
005.2-2 微积分
006.2-3 概率
007.3-1 CUDA+Anaconda深度学习环境搭建
008.3-2 conda实用命令
009.3-3 Jupyter Notebook快速上手
010.3-4 深度学习库PyTorch安装
011.4-1 神经网络原理
012.4-2 多层感知机
013.4-3 前向传播和反向传播
014.4-4 多层感知机代码实现
015.4-5 回归问题
016.4-6 线性回归代码实现
017.4-7 分类问题
018.4-8 多分类问题代码实现
019.5-1 训练的常见问题
020.5-2 过拟合欠拟合应对策略
021.5-3 过拟合和欠拟合示例
022.5-4 正则化
023.5-5 Dropout
024.5-6 Dropout代码实现
025.5-7 梯度消失和梯度爆炸
026.5-8 模型文件的读写
027.6-1 最优化与深度学习
028.6-2 损失函数
029.6-3 损失函数性质
030.6-4 梯度下降
031.6-5 随机梯度下降法
032.6-6 小批量梯度下降法
033.6-7 动量法
034.6-8 AdaGrad算法
035.6-9 RMSProp_Adadelta算法
036.6-10 Adam算法
037.6-11 梯度下降代码实现
038.6-12 学习率调节器
039.7-1 全连接层问题
040.7-2 图像卷积
041.7-3 卷积层
042.7-4 卷积层常见操作
043.7-5 池化层Pooling
044.7-6 卷积神经网络代码实现(LeNet)
045.8-1 AlexNet
046.8-2 VGGNet
047.8-3 批量规范化
048.8-4 GoogLeNet
049.8-5 ResNet
050.8-6 DenseNet
051.9-1 序列建模
052.9-2 文本数据预处理
053.9-3 循环神经网络
054.9-4 随时间反向传播算法
055.9-5 循环神经网络代码实现
056.9-6 RNN的长期依赖问题
057.10-1 深度循环神经网络
058.10-2 双向循环神经网络
059.10-3 门控循环单元
060.10-4 长短期记忆网络
061.10-5 复杂循环神经网络代码实现
062.10-6 编码器-解码器网络
063.10-7 序列到序列模型代码实现
064.10-8 束搜索算法
065.10-9 机器翻译简单代码实现
066.11-1 什么是注意力机制
067.11-2 注意力的计算
068.11-3 键值对注意力和多头注意力
069.11-4 自注意力机制
070.11-5 注意力池化及代码实现
071.11-6 Transformer模型
072.11-7 Transformer代码实现
073.12-1BERT模型
074.12-2 GPT系列模型
075.12-3 T5模型
076.12-4 ViT模型
077.12-5 Swin Transformer模型
078.12-6 GPT模型代码实现
079.13-1 蒙特卡洛方法
080.13-2 变分推断
081.13-3 变分自编码器
082.13-4 生成对抗网络
083.13-5 Diffusion扩散模型
084.13-6 图像生成
085.14-1 自定义数据加载
086.14-2 图像数据增强
087.14-3 迁移学习
088.14-4 经典视觉数据集
089.14-5 项目实战:猫狗大战
090.15-1 词嵌入和word2vec
091.15-2 词义搜索和句意表示
092.15-3 预训练模型
093.15-4 Hugging Face库介绍
094.15-5 经典NLP数据集
095.15-6 项目实战:电影评论情感分析
096.16-1 InstructGPT模型
097.16-2 CLIP模型
098.16-3 DALL-E模型
099.16-4 深度学习最新发展趋势分析
100.16-5 下一步学习的建议001.1-1 课程内容和理念
002.1-2 初识深度学习
003.1-3 课程使用的技术栈
004.2-1 线性代数
005.2-2 微积分
006.2-3 概率
007.3-1 CUDA+Anaconda深度学习环境搭建
008.3-2 conda实用命令
009.3-3 Jupyter Notebook快速上手
010.3-4 深度学习库PyTorch安装
011.4-1 神经网络原理
012.4-2 多层感知机
013.4-3 前向传播和反向传播
014.4-4 多层感知机代码实现
015.4-5 回归问题
016.4-6 线性回归代码实现
017.4-7 分类问题
018.4-8 多分类问题代码实现
019.5-1 训练的常见问题
020.5-2 过拟合欠拟合应对策略
021.5-3 过拟合和欠拟合示例
022.5-4 正则化
023.5-5 Dropout
024.5-6 Dropout代码实现
025.5-7 梯度消失和梯度爆炸
026.5-8 模型文件的读写
027.6-1 最优化与深度学习
028.6-2 损失函数
029.6-3 损失函数性质
030.6-4 梯度下降
031.6-5 随机梯度下降法
032.6-6 小批量梯度下降法
033.6-7 动量法
034.6-8 AdaGrad算法
035.6-9 RMSProp_Adadelta算法
036.6-10 Adam算法
037.6-11 梯度下降代码实现
038.6-12 学习率调节器
039.7-1 全连接层问题
040.7-2 图像卷积
041.7-3 卷积层
042.7-4 卷积层常见操作
043.7-5 池化层Pooling
044.7-6 卷积神经网络代码实现(LeNet)
045.8-1 AlexNet
046.8-2 VGGNet
047.8-3 批量规范化
048.8-4 GoogLeNet
049.8-5 ResNet
050.8-6 DenseNet
051.9-1 序列建模
052.9-2 文本数据预处理
053.9-3 循环神经网络
054.9-4 随时间反向传播算法
055.9-5 循环神经网络代码实现
056.9-6 RNN的长期依赖问题
057.10-1 深度循环神经网络
058.10-2 双向循环神经网络
059.10-3 门控循环单元
060.10-4 长短期记忆网络
061.10-5 复杂循环神经网络代码实现
062.10-6 编码器-解码器网络
063.10-7 序列到序列模型代码实现
064.10-8 束搜索算法
065.10-9 机器翻译简单代码实现
066.11-1 什么是注意力机制
067.11-2 注意力的计算
068.11-3 键值对注意力和多头注意力
069.11-4 自注意力机制
070.11-5 注意力池化及代码实现
071.11-6 Transformer模型
072.11-7 Transformer代码实现
073.12-1BERT模型
074.12-2 GPT系列模型
075.12-3 T5模型
076.12-4 ViT模型
077.12-5 Swin Transformer模型
078.12-6 GPT模型代码实现
079.13-1 蒙特卡洛方法
080.13-2 变分推断
081.13-3 变分自编码器
082.13-4 生成对抗网络
083.13-5 Diffusion扩散模型
084.13-6 图像生成
085.14-1 自定义数据加载
086.14-2 图像数据增强
087.14-3 迁移学习
088.14-4 经典视觉数据集
089.14-5 项目实战:猫狗大战
090.15-1 词嵌入和word2vec
091.15-2 词义搜索和句意表示
092.15-3 预训练模型
093.15-4 Hugging Face库介绍
094.15-5 经典NLP数据集
095.15-6 项目实战:电影评论情感分析
096.16-1 InstructGPT模型
097.16-2 CLIP模型
098.16-3 DALL-E模型
099.16-4 深度学习最新发展趋势分析
100.16-5 下一步学习的建议
评论(0)