0
点赞
收藏
分享

微信扫一扫

吴恩达《机器学习》课程总结(7)_非线性假设

Q1非线性假设

(1)无论线性回归还是逻辑回归当特征量太多时,计算的负荷会非常大。如50x50像素有2500特征,如果两两组合将会有25002/2个(接近300万个特征)。普通的线性回归和逻辑回归模型不能有效处理这么多特征,这时候需要用神经网络了。

Q2神经元和大脑

大脑的某一块可以经过学习,学会其他功能,比如某一块感受触觉,但是接受视觉训练之后,能够感受视觉。

Q3模型表示1

(1)神经元有树突和轴突,许多树突接受电信号,一个轴突发送电信号。

(2)根据神经元模型,创建逻辑回归模型:

吴恩达《机器学习》课程总结(7)_非线性假设_模型表示

(3)多神经元、多层时,分别称为输入层,掩藏层,输出层:

吴恩达《机器学习》课程总结(7)_非线性假设_模型表示_02

吴恩达《机器学习》课程总结(7)_非线性假设_神经网络_03

Q4模型表示2

(1)向量表示比循环编码更高效:

吴恩达《机器学习》课程总结(7)_非线性假设_线性回归_04

吴恩达《机器学习》课程总结(7)_非线性假设_模型表示_05

以上只是针对一个训练实例,如果是整个训练集进行计算的话,需要将X进行转置,使得同一个实例在一列。

(2)神经网络比线性回归和逻辑回归更强大,在于前者将特征不断进行高级化。

Q5特征和直观理解1

(1)从本质上讲,神经网络能够通过学习得出其自身的一系列特征。

(2)逻辑与运算

吴恩达《机器学习》课程总结(7)_非线性假设_线性回归_06

 

其中θ为[-30,20,20]T.

(3)逻辑或运算

吴恩达《机器学习》课程总结(7)_非线性假设_模型表示_07

 

其中θ为[-10,20,20]T

(4)非运算

吴恩达《机器学习》课程总结(7)_非线性假设_模型表示_08

关键是激活函数g(h(x))的使用。

Q6样本和直观理解II

通过上一节的简单运算构造出复杂运算(同为1或者同为0时取1)

吴恩达《机器学习》课程总结(7)_非线性假设_模型表示_09

吴恩达《机器学习》课程总结(7)_非线性假设_模型表示_10

按照这种方法我们可以逐步构造出越来越复杂的函数,也能得到更加厉害的特征值。这就是神经网络厉害之处。

Q7多类分类

如要在一个图片中识别路人,汽车,摩托车,卡车四类,这是神经网络可以设置四个输出,每一个用1或0代表是否有某一类即可。

吴恩达《机器学习》课程总结(7)_非线性假设_线性回归_11

neutral network ---神经网络学习
forward propagation ---向前传播
nonlinear hypotheses ---非线性假设函数
input layer ---输入层
output layer ---输出层
hidden layer ---隐藏层

  

作者:你的雷哥

本文版权归作者所有,欢迎转载,但未经作者同意必须在文章页面给出原文连接,否则保留追究法律责任的权利。

举报

相关推荐

0 条评论