目录
系列文章目录
第一章:会思考的机器你造嘛——AI技术
第二章:深度学习敲门砖——神经网络
第三章:掌握神经网络的法宝(一)
前言
通过上一章的介绍,相信大家对于神经网络的框架模式有了一定的了解,而这一章我准备来给大家介绍一下掌握神经网络所需的数学基础。神经网络用到的算法就是向量乘法,并且广泛采用符号函数及其各种逼近。并行、容错、可以硬件实现以及自我学习特性,是神经网络的几个基本优点,也是神经网络计算方法与传统方法的区别所在。
一、误差反向传播法所需的链式法则
1.1神经网络和复合函数
已知函数y = f(u), 当u = g(x)时,y作为x的函数库也表示为形如y = f(g(x))的嵌套结构(u和x都表示多变量)。这时,嵌套结构的函数f(g(x))称为f(u)和g(x)的复合函数。
就如我们上一章所讲到的神经单元的激活函数:y = a(w1x1+w2x2+···+wnxn+b),其中w1,w2···,wn作为各输入的权重,b为神经单元的偏置,n为输入的个数。这个输出函数是如下x1,x2,···,xn的一次函数f 和激活函数a 的复合函数:
1.2 单变量函数的链式法则
1)已知单变量函数y = f(u),当u表示单变量函数u = g(x),复合函数f(g(x))的导函数可以如下简单地求出来:
2)单变量函数的近似法则:
1.3 多变量函数的链式法则
1)变量z为u,v的函数,如果u,v分别为x,y的函数,则z为x,y的函数,此时下式(多变量的链式法则)成立:
2)多变量函数的近似法则
1.4 近似法则的总结和扩展
近似法则的向量表示:
二、梯度下降法的含义与公式
2.1 梯度下降法的思路
梯度下降法不直接求解上式的方程,而是通过慢慢地移动图像上的点进行摸索,从而找出函数的最小值:
下面给大家一个例子让大家好理解一下:
2.2 近似公式和内积的关系
套用多变量函数的公式:
可以递推为以下模式:
2.3 向量内积的回顾
2.4 二变量函数的梯度下降法的基本式
2.5 将梯度下降法推广到三个变量之上的情况
2.6 η的含义以及梯度下降法的要点
1)η称为学习率,学习率η地选择:
- η 过小,计算较慢,需要迭代多次;
- η 过大,导致震荡,可能无法收敛甚至发散;
2)梯度下降法的要点:
- 不同的起始点,可能导致最后得到的局部最小值点不同。
- 每次迭代的时候,我们需要同时更新,直至所要的式子收敛,这就是梯度下降法的核心:
三、最优化问题和回归分析
3.1 最优化问题
在为了分析数据而建立数学模型时,通常模型是由参数确定的。在数学世界中,最优化问题就是如何确定这些参数的。
而且从数学上来说,确定神经网络的参数是一个最优化问题,具体就是对神经网络的参数(即权重和偏置)进行拟合,使得神经网络的输出与实际数据相吻合。
3.2 回归分析
由多个变量组成的数据中,着眼于其中一个特定的变量,用其余的变量来届时这个特定的变量,这样的方法称为回归分析。
3.3 代价函数
- 在最优化方面,误差总和可以称为“误差函数”、“损失函数”、“代价函数”等;
- 除了平方误差的总和
之外,代价函数还存在其他多种形式;
- 利用平方误差的总和进行最优化的方法称为最小二乘法。
3.4 模型参数的个数
-
回归方程是根据大量的条件所得到的折中结果;
-
要确定模型,就必须准备好规模大于参数个数的数据;
总结
以上就是今天要讲的内容,本文介绍了神经网络所需的数学基础,误差反向传播法所需的链式法则、梯度下降法的含义与公式以及最优化问题和回归分析的相关知识。
欢迎大家留言一起讨论问题~~~