深度学习实战

深度学习实战

『课程目录』:  f( s9 H0 t* I3 ^ 1、课程:多层感知机DNN.1、浅层网络的问题 1、课程:多层感知机DNN.2、涌现现象与深度网络为何高效' `# o1 |& i7 \( e 1、课程:多层感知机DNN.3、计算图 1、课程:多层感知机DNN.4、导数的反向传播 2、课程:梯...
资源下载
此资源仅限VIP下载,请先后下载
本资源为虚拟可复制性产品,购买后不允许退款,谢谢您的支持!如遇链接失效,请添加客服QQ:3197428804 索取新的链接
广告位招租

『课程目录』:  f( s9 H0 t* I3 ^
1、课程:多层感知机DNN.1、浅层网络的问题
1、课程:多层感知机DNN.2、涌现现象与深度网络为何高效
' `# o1 |& i7 \( e
1、课程:多层感知机DNN.3、计算图
1、课程:多层感知机DNN.4、导数的反向传播
2、课程:梯度下降法.1、梯度下降的直观例子(一)
2、课程:梯度下降法.2、梯度下降的直观例子(二)
2、课程:梯度下降法.3、梯度下降的代码实现
2、课程:梯度下降法.4、梯度实现的数学证明
2、课程:梯度下降法.5、从优化的层次到机器学习
2、课程:梯度下降法.6、梯度下降的变体—动量梯度下降法及代码实现
# k0 H' y$ ]; y( f5 E6 t. w% H
3、课程:BP算法.1、反向传播算法的数学推导
3、课程:BP算法.2、反向传播算法的代码实现
3、课程:BP算法.3、链式法则
3、课程:BP算法.4、反向传播算法在神经网络中的应用代码展示(一)
6 F3 B) S& j6 ?6 r
3、课程:BP算法.5、反向传播算法在神经网络中的应用代码展示(二)
; ?, R# o8 d5 _7 i% V
4、课程:卷积神经网络.1、卷积神经网络的历史
4、课程:卷积神经网络.2、图像识别中的滤镜与卷积
4、课程:卷积神经网络.3、卷积操作的代码展示
4、课程:卷积神经网络.4、图像识别的传统方法及其问题(一)
. K5 g7 t. R' ~( r
4、课程:卷积神经网络.5、图像识别的传统方法及其问题(二)
3 Y; |3 n# i; p% E
4、课程:卷积神经网络.6、卷积是如何提取特征的、卷积网络的生物学机理
4、课程:卷积神经网络.7、引入激活函数以提取非线性特征
4、课程:卷积神经网络.8、池化操作与层层抽象
4、课程:卷积神经网络.9、卷积神经网络的训练方法
5、课程:PyTorch(上).1、PyTorch中的基本概念—变量
2 x3 j! x! p" V! {( H1 [
5、课程:PyTorch(上).2、PyTorch中的反向求导
6 r' x$ V. \: l& y( a4 |. R: _& B7 z
5、课程:PyTorch(上).3、网络视角下的线性模型、PyTorch对神经网络的支持包
. p/ T. H0 `. _, [
5、课程:PyTorch(上).4、PyTorch中的优化器和损失函数
" D9 P9 A; _, h: Z# f
5、课程:PyTorch(上).5、逻辑回归的问题介绍
5、课程:PyTorch(上).6、用类的方法实现逻辑斯蒂回归
5、课程:PyTorch(上).7、多层网络的模型构建流程、神经网络的参数初始化
5、课程:PyTorch(上).8、Drop out在神经网络中的应用和实现
6、课程:PyTorch(下).10、构建卷积网络的代码讲解
6、课程:PyTorch(下).11、卷积网络中的全连接层
6、课程:PyTorch(下).12、神经网络的训练与测试及训练的效果展示
6、课程:PyTorch(下).1、梯度下降法在PyTorch中的实现
6、课程:PyTorch(下).2、动量化梯度下降的原理和实现
6、课程:PyTorch(下).3、两个参数问题下的优化面临的问题
6、课程:PyTorch(下).4、自适应的梯度下降及流平均改进法
6、课程:PyTorch(下).5、Adam算法
  L7 O0 B3 U; F5 c6 }' `( U! h
6、课程:PyTorch(下).6、PyTorch中的优化器选择
6、课程:PyTorch(下).7、PyTorch里的图像预处理与可视化
  Y) T: S" i" b2 h
6、课程:PyTorch(下).8、CNN要调节的主要参数(一)
6、课程:PyTorch(下).9、CNN要调节的主要参数(二)
7、课程:CNN进化.1、AlexNet的技术细节
7、课程:CNN进化.2、VGG19
, o1 K, N% g- Z7 `9 \
7、课程:CNN进化.3、深度网络中的梯度消失问题
* @4 e" |" k8 j, o9 f
7、课程:CNN进化.4、残差网络的定义
, E+ `# c; V8 C0 F4 u9 M) a
7、课程:CNN进化.5、残差网络的数学原理
. _+ {& A* e) ^! V# u/ q1 A
8、课程:BatchNormalization.1、批量正则化怎么做
! U  K. r  N: s6 J
8、课程:BatchNormalization.2、为什么批量标准化比标准化好
; S5 _1 b1 y) X" A7 a/ }% M
8、课程:BatchNormalization.3、阈值变换如何应对过拟合
8、课程:BatchNormalization.4、批量标准化的操作是怎么进行的
/ s* `& E5 e* d& H
9、课程:Resnet残差网络.1、如何提取中间变量
9、课程:Resnet残差网络.2、在pytorch中引入批量正则化
/ y1 @) q9 A& {+ C
9、课程:Resnet残差网络.3、批标准化的效果展示
9、课程:Resnet残差网络.4、1-1卷积的含义和效果(一)
9 u3 E1 @3 F- q! ~! Z9 W# n
9、课程:Resnet残差网络.5、1-1卷积的含义和效果(二)
9、课程:Resnet残差网络.6、构建残差网络的每个子模块
9、课程:Resnet残差网络.7、在网络中引入残差层
9、课程:Resnet残差网络.8、残差网络的维度变换
; V) s1 S' W- e
9、课程:Resnet残差网络.9、如何实例化深度残差网络
& f6 M2 x2 M% t4 q* g; D
10、课程:图像识别综述.1、图像标记
10、课程:图像识别综述.2、目标检测
6 K0 z* _. Q  n9 U7 U+ v: x
10、课程:图像识别综述.3、图像切割
10、课程:图像识别综述.4、图像变换
' j8 Y/ S) X# O. q2 |3 X" v
10、课程:图像识别综述.5、图像降噪和恢复
7 t- d% ~6 |" q3 x+ J9 J3 f9 g, X
10、课程:图像识别综述.6、图像聚类与生成
+ i- M+ r( _: u3 h
11、课程:迁移学习.10、神经风格迁移(二)
9 w5 E8 W' R; Q
11、课程:迁移学习.11、神经风格迁移(三)
' v# r$ x1 d7 ^) B3 r
11、课程:迁移学习.12、神经风格迁移(四)
11、课程:迁移学习.1、迁移学习的用途
11、课程:迁移学习.2、迁移学习的种类
' K7 P8 @& o* {( R3 \" r
11、课程:迁移学习.3、猫狗大战实例之数据读取和预处理
11、课程:迁移学习.4、对比展示迁移学习的效果
11、课程:迁移学习.5、如何导入之前的模型
11、课程:迁移学习.6、连接特征网络和分类网络
11、课程:迁移学习.7、如何逐层训练
8 O5 Z2 \, N# I) D. Z
11、课程:迁移学习.8、使用detach分开训练网络
11、课程:迁移学习.9、神经风格迁移(一)
% A( C& B+ z4 i4 X' @$ M1 F) j
12、课程:对抗网络.1、生成式模型
$ Y) c( Q( l* k* U: A0 b
12、课程:对抗网络.2、自编码器
12、课程:对抗网络.3、对抗学习引入
$ s# K& O* ?, ^$ T7 s
12、课程:对抗网络.4、对抗学习的损失函数
12、课程:对抗网络.5、卷机对抗网络
+ O# G3 I8 u0 z2 M6 V+ X  d
12、课程:对抗网络.6、对抗训练的难点及应用(一)
: a& t: o! P/ O% F, w; q  ?
12、课程:对抗网络.7、对抗训练的难点及应用(二)
13、课程:时间序列分析.10、使用LSTM进行时间序列预测
, F$ E( l2 D% k, G+ `2 R
13、课程:时间序列分析.1、时间序列是什么
13、课程:时间序列分析.2、时间序列的预处理
. |0 a$ a1 t. q
13、课程:时间序列分析.3、时间序列的预测方法
9 Q; ^/ H& }' G% H5 S8 a" i8 p# B
13、课程:时间序列分析.4、一阶平滑法
– C# z/ J2 F/ W8 e- Q
13、课程:时间序列分析.5、二次指数平滑法
' I6 `- x: ~( r' A4 c
13、课程:时间序列分析.6、Python代码展示
' m; f5 ]% x( F& [$ F
13、课程:时间序列分析.7、数据导入和平稳性检测
13、课程:时间序列分析.8、平稳性处理于模型构建
13、课程:时间序列分析.9、模型的其他构建法
14、课程:RNN.10、RNN损失函数
14、课程:RNN.11、RNN中的求导推理
8 P4 n3 P2 D: I
14、课程:RNN.12、RNN的求导公式推导
& a) m5 s) C3 v' x( z1 }
14、课程:RNN.13、随时间产生的梯度消失问题
– M* `& D' a/ a) U
14、课程:RNN.14、梯度消失的反面—梯度爆炸
8 Q3 a& G7 ~- R0 c% A/ e
14、课程:RNN.1、时间序列数据的特点和历史(一)
7 t8 H% {( L' X2 I6 R: B
14、课程:RNN.2、时间序列数据的特点和历史(二)
; _* p9 P4 m6 D
14、课程:RNN.3、RNN的网络结构(一)
14、课程:RNN.4、RNN的网络结构(二)
14、课程:RNN.5、RNN中的时间不变性
+ d  A4 {6 q4 P
14、课程:RNN.6、RNN的代码实现
# u# P% t7 A( I2 v2 f& g
14、课程:RNN.7、RNN下的语言模型(一)
14、课程:RNN.8、RNN下的语言模型(二)
14、课程:RNN.9、RNN的前向传播
, I5 o5 H6 K, ~* y" Y% [
15、课程:RNN实战.1、自然语言的编码
15、课程:RNN实战.2、RNN代码展示—前向传递
15、课程:RNN实战.3、RNN代码展示—反向传播
9 f& D5 l  G# L
15、课程:RNN实战.4、RNN中的梯度更新
9 M- x! @# J. V' p4 m% N
15、课程:RNN实战.5、模型的训练
( }9 N2 f$ z9 x1 j6 w4 D! p# o
15、课程:RNN实战.6、PyTorch下的RNN之前向传播
3 W, S* a9 P8 O( T
15、课程:RNN实战.7、模型的构建代码
$ y* N" E6 R5 L6 p9 t5 [
15、课程:RNN实战.8、模型的训练代码
15、课程:RNN实战.9、将模型改为生成模型
( {6 G( ^% Y, e; h0 a# j) X
16、课程:RNN时间序列预测.1、数据准备和导入
" V4 r- e& Y6 a! D
16、课程:RNN时间序列预测.2、使用线性模型进行预测
16、课程:RNN时间序列预测.3、使用神经网络进行预测
& ~( ]& f9 K4 S
16、课程:RNN时间序列预测.4、预测结果展示与分析
16、课程:RNN时间序列预测.5、从前馈网络到RNN
$ [; S0 _9 b9 H
16、课程:RNN时间序列预测.6、应对梯度爆炸
16、课程:RNN时间序列预测.7、加速模型的训练方法(一)
16、课程:RNN时间序列预测.8、加速模型的训练方法(二)
) c3 O! }9 Z- j9 m7 r0 \5 f3 j
17、课程:RNN深度理解.10、GRU的优势
8 s; z7 q+ H* e- L( f+ g! `
17、课程:RNN深度理解.11、Attention机制
17、课程:RNN深度理解.1、RNN和动力学系统
17、课程:RNN深度理解.2、高维动力系统
' ?/ l' h) N8 y$ t
17、课程:RNN深度理解.3、RNN的图灵完备性
) R; o6 a# J$ ^6 E( {0 X4 i
17、课程:RNN深度理解.4、RNN与脑科学的联系
* X9 x5 s+ Y% a+ S2 f2 ^6 H5 \
17、课程:RNN深度理解.5、如何解决梯度消失的问题
17、课程:RNN深度理解.6、LSTM的原理
17、课程:RNN深度理解.7、LSTM的优势
17、课程:RNN深度理解.8、LSTM的方程
0 A7 N2 T' c" x1 R5 i/ D0 \- a1 `. {
17、课程:RNN深度理解.9、GRU原理
18、课程:课程总结.1、机器学习的问题
18、课程:课程总结.2、机器学习的核心概念
2 m+ E) S, g% Y4 z& z5 [, B3 e
18、课程:课程总结.3、机器学习常见模型
18、课程:课程总结.4、CNN常见技巧
4 V  V* h  `$ @) q3 ~& Z+ d
18、课程:课程总结.5、RNN和迁移学习

资源下载此资源仅限VIP下载,请先
本资源为虚拟可复制性产品,购买后不允许退款,谢谢您的支持!如遇链接失效,请添加客服QQ:3197428804 索取新的链接
资源下载
下载价格:VIP专享
此资源仅对VIP开放下载
本资源为虚拟可复制性产品,购买后不允许退款,谢谢您的支持!如遇链接失效,请添加客服QQ:3197428804 索取新的链接

原文链接:深度学习实战,转载请注明出处。

0
广告位招租

评论0

请先

广告位招租
加入草根网站资源平台,立即享受特价VIP价格,原价298元,先只需88元,后续不定期涨价中~
没有账号? 注册  忘记密码?
'); })();