Table of Contents

课程介绍

"进击算法工程师深度学习课程"旨在培养学员在深度学习领域的专业技能和实战经验。课程涵盖深度学习基础理论、神经网络架构、模型优化方法等内容,通过项目实践和算法实现,帮助学员掌握深度学习算法原理和应用,提升在算法工程师领域的竞争力和实践能力。无论您是初学者还是有一定算法经验者,本课程都能帮助您深入学习深度学习技术,实现在算法工程师领域的进击。

课程目录

001.1-1 课程内容和理念

002.1-2 初识深度学习

003.1-3 课程使用的技术栈

004.2-1 线性代数

005.2-2 微积分

006.2-3 概率

007.3-1 CUDA+Anaconda深度学习环境搭建

008.3-2 conda实用命令

009.3-3 Jupyter Notebook快速上手

010.3-4 深度学习库PyTorch安装

011.4-1 神经网络原理

012.4-2 多层感知机

013.4-3 前向传播和反向传播

014.4-4 多层感知机代码实现

015.4-5 回归问题

016.4-6 线性回归代码实现

017.4-7 分类问题

018.4-8 多分类问题代码实现

019.5-1 训练的常见问题

020.5-2 过拟合欠拟合应对策略

021.5-3 过拟合和欠拟合示例

022.5-4 正则化

023.5-5 Dropout

024.5-6 Dropout代码实现

025.5-7 梯度消失和梯度爆炸

026.5-8 模型文件的读写

027.6-1 最优化与深度学习

028.6-2 损失函数

029.6-3 损失函数性质

030.6-4 梯度下降

031.6-5 随机梯度下降法

032.6-6 小批量梯度下降法

033.6-7 动量法

034.6-8 AdaGrad算法

035.6-9 RMSProp_Adadelta算法

036.6-10 Adam算法

037.6-11 梯度下降代码实现

038.6-12 学习率调节器

039.7-1 全连接层问题

040.7-2 图像卷积

041.7-3 卷积层

042.7-4 卷积层常见操作

043.7-5 池化层Pooling

044.7-6 卷积神经网络代码实现(LeNet)

045.8-1 AlexNet

046.8-2 VGGNet

047.8-3 批量规范化

048.8-4 GoogLeNet

049.8-5 ResNet

050.8-6 DenseNet

051.9-1 序列建模

052.9-2 文本数据预处理

053.9-3 循环神经网络

054.9-4 随时间反向传播算法

055.9-5 循环神经网络代码实现

056.9-6 RNN的长期依赖问题

057.10-1 深度循环神经网络

058.10-2 双向循环神经网络

059.10-3 门控循环单元

060.10-4 长短期记忆网络

061.10-5 复杂循环神经网络代码实现

062.10-6 编码器-解码器网络

063.10-7 序列到序列模型代码实现

064.10-8 束搜索算法

065.10-9 机器翻译简单代码实现

066.11-1 什么是注意力机制

067.11-2 注意力的计算

068.11-3 键值对注意力和多头注意力

069.11-4 自注意力机制

070.11-5 注意力池化及代码实现

071.11-6 Transformer模型

072.11-7 Transformer代码实现

073.12-1BERT模型

074.12-2 GPT系列模型

075.12-3 T5模型

076.12-4 ViT模型

077.12-5 Swin Transformer模型

078.12-6 GPT模型代码实现

079.13-1 蒙特卡洛方法

080.13-2 变分推断

081.13-3 变分自编码器

082.13-4 生成对抗网络

083.13-5 Diffusion扩散模型

084.13-6 图像生成

085.14-1 自定义数据加载

086.14-2 图像数据增强

087.14-3 迁移学习

088.14-4 经典视觉数据集

089.14-5 项目实战:猫狗大战

090.15-1 词嵌入和word2vec

091.15-2 词义搜索和句意表示

092.15-3 预训练模型

093.15-4 Hugging Face库介绍

094.15-5 经典NLP数据集

095.15-6 项目实战:电影评论情感分析

096.16-1 InstructGPT模型

097.16-2 CLIP模型

098.16-3 DALL-E模型

099.16-4 深度学习最新发展趋势分析

100.16-5 下一步学习的建议001.1-1 课程内容和理念

002.1-2 初识深度学习

003.1-3 课程使用的技术栈

004.2-1 线性代数

005.2-2 微积分

006.2-3 概率

007.3-1 CUDA+Anaconda深度学习环境搭建

008.3-2 conda实用命令

009.3-3 Jupyter Notebook快速上手

010.3-4 深度学习库PyTorch安装

011.4-1 神经网络原理

012.4-2 多层感知机

013.4-3 前向传播和反向传播

014.4-4 多层感知机代码实现

015.4-5 回归问题

016.4-6 线性回归代码实现

017.4-7 分类问题

018.4-8 多分类问题代码实现

019.5-1 训练的常见问题

020.5-2 过拟合欠拟合应对策略

021.5-3 过拟合和欠拟合示例

022.5-4 正则化

023.5-5 Dropout

024.5-6 Dropout代码实现

025.5-7 梯度消失和梯度爆炸

026.5-8 模型文件的读写

027.6-1 最优化与深度学习

028.6-2 损失函数

029.6-3 损失函数性质

030.6-4 梯度下降

031.6-5 随机梯度下降法

032.6-6 小批量梯度下降法

033.6-7 动量法

034.6-8 AdaGrad算法

035.6-9 RMSProp_Adadelta算法

036.6-10 Adam算法

037.6-11 梯度下降代码实现

038.6-12 学习率调节器

039.7-1 全连接层问题

040.7-2 图像卷积

041.7-3 卷积层

042.7-4 卷积层常见操作

043.7-5 池化层Pooling

044.7-6 卷积神经网络代码实现(LeNet)

045.8-1 AlexNet

046.8-2 VGGNet

047.8-3 批量规范化

048.8-4 GoogLeNet

049.8-5 ResNet

050.8-6 DenseNet

051.9-1 序列建模

052.9-2 文本数据预处理

053.9-3 循环神经网络

054.9-4 随时间反向传播算法

055.9-5 循环神经网络代码实现

056.9-6 RNN的长期依赖问题

057.10-1 深度循环神经网络

058.10-2 双向循环神经网络

059.10-3 门控循环单元

060.10-4 长短期记忆网络

061.10-5 复杂循环神经网络代码实现

062.10-6 编码器-解码器网络

063.10-7 序列到序列模型代码实现

064.10-8 束搜索算法

065.10-9 机器翻译简单代码实现

066.11-1 什么是注意力机制

067.11-2 注意力的计算

068.11-3 键值对注意力和多头注意力

069.11-4 自注意力机制

070.11-5 注意力池化及代码实现

071.11-6 Transformer模型

072.11-7 Transformer代码实现

073.12-1BERT模型

074.12-2 GPT系列模型

075.12-3 T5模型

076.12-4 ViT模型

077.12-5 Swin Transformer模型

078.12-6 GPT模型代码实现

079.13-1 蒙特卡洛方法

080.13-2 变分推断

081.13-3 变分自编码器

082.13-4 生成对抗网络

083.13-5 Diffusion扩散模型

084.13-6 图像生成

085.14-1 自定义数据加载

086.14-2 图像数据增强

087.14-3 迁移学习

088.14-4 经典视觉数据集

089.14-5 项目实战:猫狗大战

090.15-1 词嵌入和word2vec

091.15-2 词义搜索和句意表示

092.15-3 预训练模型

093.15-4 Hugging Face库介绍

094.15-5 经典NLP数据集

095.15-6 项目实战:电影评论情感分析

096.16-1 InstructGPT模型

097.16-2 CLIP模型

098.16-3 DALL-E模型

099.16-4 深度学习最新发展趋势分析

100.16-5 下一步学习的建议

声明
1.本网站名称: 盲盒博客
2.本站永久网址:https://exakit.com
3.本网站的文章部分内容可能来源于网络,仅供大家学习与参考,如有侵权,请联系站长support@exakit.com
4.本站一切资源不代表本站立场,并不代表本站赞同其观点和对其真实性负责
5.本站一律禁止以任何方式发布或转载任何违法的相关信息,访客发现请向站长举报
6.本站资源大多存储在云盘,如发现链接失效,请联系我们我们会第一时间更新