0
点赞
收藏
分享

微信扫一扫

(2020李宏毅)机器学习- Gradient Descent


(2020李宏毅)机器学习- Gradient Descent_缩放

文章目录

  • ​​Review: Gradient Descent​​
  • ​​Tuning your learning rates​​
  • ​​Adagrad​​
  • ​​Stochastic Gradient Descent(随机梯度下降)​​
  • ​​Feature Scaling(特征缩放)​​
  • ​​特征缩放作用:​​
  • ​​怎样进行特征缩放​​
  • ​​Gradient Descent Theory​​

Review: Gradient Descent

(2020李宏毅)机器学习- Gradient Descent_缩放_02

Randomly start at (2020李宏毅)机器学习- Gradient Descent_微积分_03

(2020李宏毅)机器学习- Gradient Descent_微积分_04

(2020李宏毅)机器学习- Gradient Descent_微积分_05

Tuning your learning rates

Adagrad

Adagrad
(2020李宏毅)机器学习- Gradient Descent_机器学习_06
(2020李宏毅)机器学习- Gradient Descent_机器学习_07

Stochastic Gradient Descent(随机梯度下降)

(2020李宏毅)机器学习- Gradient Descent_深度学习_12

(2020李宏毅)机器学习- Gradient Descent_微积分_13

(2020李宏毅)机器学习- Gradient Descent_机器学习_14

Feature Scaling(特征缩放)

特征缩放作用:

面对特征数量较多的时候,保证这些特征具有相近的尺度(无量纲化),可以使梯度下降法更快的收敛。这两张图代表数据是否均一化的最优解寻解过程(左边是未归一化的),

从这两张图可以看出,数据归一化后,最优解的寻优过程明显会变得平缓,更容易正确的收敛到最优解

(2020李宏毅)机器学习- Gradient Descent_机器学习_15

怎样进行特征缩放

(2020李宏毅)机器学习- Gradient Descent_深度学习_16

对红色框里面的(2020李宏毅)机器学习- Gradient Descent_深度学习_17进行特征缩放,就要先求出绿框里面元素的平均值(2020李宏毅)机器学习- Gradient Descent_随机梯度下降_18,再求出绿框里面元素的标准差(2020李宏毅)机器学习- Gradient Descent_缩放_19,最后代入(2020李宏毅)机器学习- Gradient Descent_微积分_20

Gradient Descent Theory

求解(2020李宏毅)机器学习- Gradient Descent_机器学习_21
梯度下降的理论推导过程:

数学基础:
Taylor Series

  • Taylor series: Let(2020李宏毅)机器学习- Gradient Descent_机器学习_22be any function infinitely differentiable around(2020李宏毅)机器学习- Gradient Descent_随机梯度下降_23
    (2020李宏毅)机器学习- Gradient Descent_机器学习_24
    When(2020李宏毅)机器学习- Gradient Descent_机器学习_25is close to(2020李宏毅)机器学习- Gradient Descent_机器学习_26
    Multivariable Taylor Series
    (2020李宏毅)机器学习- Gradient Descent_深度学习_27
    When(2020李宏毅)机器学习- Gradient Descent_机器学习_25and(2020李宏毅)机器学习- Gradient Descent_微积分_29is close to(2020李宏毅)机器学习- Gradient Descent_机器学习_30and(2020李宏毅)机器学习- Gradient Descent_深度学习_31
    (2020李宏毅)机器学习- Gradient Descent_微积分_32


举报

相关推荐

0 条评论