李宏毅深度学习课程(全2课2017年版)笔记汇总

『课程目录』:   
1.专栏视频介绍
2.1.01AI, ML, DL之间的关系
3.1.02 什么是hand-crafted AI
+ G( G: w% p; r! N3 E
4.1.03 什么是真正意义上的机器学习(机器智能)
5.1.04 机器获取智能的三个步骤
6.1.05 什么是regression
7.1.06 什么是classification model
8.1.07 非线性模型中的深度学习解决分类问题
% f, {. h0 R9 v
9.1.08 什么是supervised, semi-supervised, t
: r! v0 [8 T9 p1 f/ [8 E# P
10.1.09 什么是structured learning
) v* p6 E: \7 u, e& T. x3 k" }. |2 Z! n
11.1.10 什么是reinforcement learning
" j$ m: A  \  V6 p+ a8 x5 e5 g
12.1.11 人类新职业:AI训练师
  A/ w0 E6 m! w% b
13.1.12 如何理解深度学习中的scenario, task, method
14.2.01 回顾regression定义和例子
15.2.02 建模的第一步:选择模型框架(线性模型,regression)
16.2.03 建模step2.01收集和查看训练数据
$ B8 ~, y. b% {$ @5 Q  m
17.2.04 建模step2.2如何判断众多模型的好坏loss functio
9 y: D, N  |# H
18.2.05 建模step3.1 如何筛选最优的模型(参数)
4 c# U  d! I5 `; p9 T! W# A
19.2.06 建模step3.2 gradient descent 是如何高效
20.2.07 建模step3.3 gradient descent推演最优模型
+ K9 F, u1 F$ |, C
21.2.08 建模step3.4 gradient descent在现实世界中
7 F" T/ t  Z8 P/ ^- u5 q
22.2.09 如何验证训练好的模型的好坏
23.2.10 是不是能画出直线就是线性函数,各种复杂的曲线就是非线性函数
24.2.11 如何进一步寻找更强大表现更好的模型
8 p2 y, U9 F4 Y/ \7 z
25.2.12 如何理解overfitting
26.2.13 更多数据能缓解overfitting问题
27.2.14 如何理解2个input的四个线性函数是如何合并到一个线性函数中的
28.2.15 如果希望模型更强大表现更好(更多参数,更多input,数据量没有
29.2.16 直观理解regularization
! e9 |9 u0 J1 ?2 [, l) e- ^
30.3.1 如何直观理解bias and variance01
31.3.2 如何直观理解bias and variance02
32.3.3 如何解决模型的bias过大的问题
3 a% V( L5 \9 m# \( z, f& U2 Q: e
33.3.4 如何解决variance过高的问题
& I9 p) K" E4 D+ @0 l* L
34.3.5 validation set and cross-validati
" ^2 e4 q9 {4 ^: ]
35.4.01 什么是gradient
  a0 e+ C8 h6 M& p. I4 i7 W
36.4.02 如何在图上理解gradient与参数的更新
/ @& c: H5 _; N0 j# V  n1 h% i
37.4.03 从gradient descent中窥见人工智能
38.4.04 人类手动设计的learning-rate不够智慧
39.4.05 如何让learning rate(自动)逐步缩小步伐幅度
40.4.06 如何让learning-rate针对每个参数和不同时点来量身定制
41.4.07 什么时候会用到stochastic gradient desce
2 f! L: ^- T, {" {# x7 K
42.4.08 什么是feature scaling
43.5.01 什么是classification定义和例子
– [2 G& x' m' V( i
44.5.02 为什么用regression做分类问题存在本质缺陷
45.5.03 为什么用regression做分类问题存在本质缺陷
46.5.04 如何用概率来解决分类问题
47.5.05 如何解决generative model的overfitting
  X, V1 k, S. i& b/ k+ U
48.5.06 什么是naive bayes classifer
49.5.07 sigmoid函数的由来
; U7 s9 O1 F; j0 l
50.5.08 神经网络中的linear combination的由来
51.6.01 logistic regression 是怎么来的
& @/ h" s/ D" R; G/ K" g
52.6.02 binary cross entropy loss是怎么来的
53.6.03 为什么分类问题的损失函数不能用MSE
– r/ T4 K" _# I# e5 M& L: ]( p
54.6.04 generative model vs discriminati
3 y2 N  c3 m; ~0 k8 X+ i. V
55.6.05 如何构建多元分类(softmax的由来)
– G+ D% f& v! W0 F. B
56.6.06 什么是logistic regression的局限和featur
57.6.07 从features transformation(logisti
$ L, r5 U8 ?' D) h- B* m( S
58.7.01 什么是neuralnet和内在运算
59.7.02 为什么深度学习计算高效
% I* l3 b: ^1 M! S$ s
60.7.03 feature transformation与neuralnet
! N" t8 ^! ]5 V& b" z
61.7.04 neuralnet的解题流程
  c, u# ^1 M4 A% j5 a8 X7 w- B
62.8 如何理解backpropagation
# \0 l* n" H- T* [7 f2 i
63.9.01 为什么要用mini-batch来训练
; @. ?+ a% J5 Z7 F/ ^" h
64.9.02 为什么要做training data shuffling
/ y  l( n" o# ]( c) z
65.10.01 最常见的3中模型表现差的特征和原因
66.10.02 ReLU如何解决vanishing gradient的问题
( j1 ]: Q0 Q3 s4 i7 ~
67.10.03 如何理解maxout激活函数的意义和计算逻辑
7 b# x7 X% o+ z! }" a, _
68.10.04 如何直观理解adagrad, RMSProp, Momentu
69.10.05直观理解early stopping
70.10.06 直观理解regularizationL2
2 r. v1 j. J6 s1 w0 _- ?" \
71.10.07 直观理解regularization L1
72.10.08直观理解dropout
73.10.09 直观理解ensemble vs dropout
2 F- n1 |) M$ k( ^$ X9 w
74.11.01 为什么fully connected NN 不适合做图片任务
! T1 G2 `8 x" I6 S7 I2 n' e2 P
75.11.02 图像识别任务对CNN模型的要求
76.11.03 如何理解CNN结构设计(以及stride padding)
77.11.04 为什么input layer 切分成blocks 而不是vec
2 w' E) F# }  t0 x- q2 {5 z2 {
78.11.05 如何理解pooling layer和最后的fully conn
79.11.06 如何直观理解CNN每层中的weights feature ma
80.12.01 为什么深层模型表现更好且更好应对数据缺陷
/ F6 r0 d+ f8 i8 ]) _
81.12.02 如何直观理解feature map
/ W2 x6 H  N8 C- }- ^
82.12.03 深模型的优势举例
83.13.01 什么是semi supervised learning 和ge
84.13.02 什么是low density assumption
3 o# U1 e, f, b" M) q2 n, O. g
85.13.03 什么是smoothness assumption
86.14 unsupervised learning PCA Matrix F
; s2 e" g+ s, _) g6 q* P
87.直觉版:如何理解supervised learning PCA clust
88.如何理解reinforcement learning-policy bas
) I$ @& w7 g5 N" e  u
89.直觉版:如何用一张图理解reinforcement learning
90.图解 autoencoder
91.直觉版 GAN
; z: V/ {8 u4 K0 w
92.图解深度学习:什么是word vector embedding 及其由来
' I" x: y: P0 ^" a/ z5 L
93.图解深度学习:训练word embedding的两种方法

抱歉,此资源仅限VIP下载,请先
本资源为虚拟可复制性产品,购买后不允许退款,谢谢您的支持!如遇链接失效,请添加客服QQ:3197428804 索取新的链接
此资源仅对VIP开放下载
下载说明:本资源为虚拟可复制性产品,购买后不允许退款,谢谢您的支持!如遇链接失效,请添加客服QQ:3197428804 索取新的链接
0

评论0

请先

没有账号? 忘记密码?