0
点赞
收藏
分享

微信扫一扫

李宏毅《深度学习》学习笔记(一)

陬者 2022-04-13 阅读 89
深度学习

李宏毅老师《深度学习》课程开始前两节课就是介绍机器学习的一些基本概念

文章目录

Marchine learning

Machine learningLookingforFunctionMachine\ learning \approx Looking for Function
机器学习相当于是寻找输入输出对应的函数(model)

Training steps

step1: the function with unknown parameters

step2: define Loss from training data
Loss: how good a set of values is.
损失函数的定义:L=1NnenL=\frac{1}{N}\sum_{n}e_n
e=yy^e=|y-\hat{y}| MAEMAE即mean absolute error
e=(yy^)2e=(y-\hat{y})^2 MSEMSE即mean square error

yyy^\hat{y}都是概率分布时,可能会选择交叉熵Cross entropyCross\ entropy作为损失函数

step3: optimization
w,b=argminw,bLw^*,b^*=arg \min_{w,b} L
优化方法有gradient descent

Structured Learning

Structured Learningcreate sth with structure(image,documment)Structured\ Learning \approx create\ sth\ with\ structure(image, documment)

overfitting

在这里插入图片描述
当训练集上的loss小,测试集上的loss大时,才是过拟合
在这里插入图片描述
解决overfitting的方法:

  1. more training data(data augmentation)
    根据自己对于问题的理解,创造更多的数据
  2. constrained model
    根据问题给模型更多的限制
    比如less parameters、less features、early stopping、regularization、dropout
    在这里插入图片描述
    在选择模型的时候应该综合训练集和测试集的误差来进行选择。
    在这里插入图片描述
    李宏毅老师的台湾腔真的好听啦~~
举报

相关推荐

0 条评论