0
点赞
收藏
分享

微信扫一扫

深度学习从入门到不想放弃-4

最近再玩Super Mario Bros Wonder,真的好玩,我给9分,强烈推荐

      今天继续,其实断更以后我都忘记我上次讲到哪了,现回去查的前一篇文章再讲什么...

       今天的内容是导数,大家都学过,我就简单给过一过了,不细讲了

       先说微积分的由来:

       

深度学习从入门到不想放弃-4_后缀

      上面这个图,是阿基米德,在求这个不规则图形的面积时候产生的想法,他就用一堆三角形来估算和拆解这个不规则的图形,这个就是穷竭法。但是拆成这么多不一样的三角形也是麻烦,所以后人发明了别的方法

       积分:

       比如下图,不管你是什么图形,比如这个向上的曲线就是y=x^2的一部分,我可以把它和x轴围成的线用若干个矩形表示,矩形越小,然后把许多个矩形加起来,就越和真实的面积拟合

深度学习从入门到不想放弃-4_定积分_02

 y2=(2/n)^2...

      我们可以推导出所有的矩形面积之和就是(公众号不能写公式是真的不方便):

   

深度学习从入门到不想放弃-4_深度学习_03

      由于n已经被无穷化了,所以可以认为S的面积近似等于1/3, 通过这种方式,我们把一个无法直接求出的面积用近似方法给求出来了。

      上面的东西就是积分(微积分其实先有的积分),可以写成下面这样,如果一条曲线在y=f(x)的x轴上有a,b两个点的映射;并且围绕着a,b两点垂直于x轴,与y相交的面积为S,那么就可以记为以下的公式(dx为x的单位):

深度学习从入门到不想放弃-4_定积分_04

      但是每次都要把x拆解成无穷个小,然后再去求f(x),再相加属实有点麻烦,所以后来有了微分

      讲微分,先讲导数:

       

深度学习从入门到不想放弃-4_深度学习_05

     如上图所示,这次的函数曲线,我们依然设置它为y=f(x)

  1. 如f(x)在X0旁边也能有定义(有值),且自变量X如果从X0取到△x的同时,△y也能等于f(X0+△x)-f(X0)
  2. 如果△y/△x, 当△x—>0 的时候有极限存在,那么就可以说y=f(x)在X0处是可导的,可以这么写


深度学习从入门到不想放弃-4_深度学习_06

也可以这么写

深度学习从入门到不想放弃-4_定积分_07

那么导数能为我们做什么:

深度学习从入门到不想放弃-4_定积分_08

       如上图,有了导数,我们就可以求出某些转折点的极值(深度学习里就是求这些,虽然是偏导然后拿来计算梯度的),而导数大于0对应着上升,小于0对应着下降(方向)

      讲完了导数,那么微分是什么?(其实我们也不关心微分是什么)

      微分就是在导数的基础上加个后缀,即如何定义极限

深度学习从入门到不想放弃-4_定积分_09

       刚才我说有了微分,就不用一直加了,说这话的原因就是微分和积分是互逆的

牛顿莱布尼茨公式

      如果F(x)是连续函数f(x)在区间[a, b]上的一个原函数,则

深度学习从入门到不想放弃-4_后缀_10

      也叫微积分基本定理。由此便打通了原函数与定积分之间的联系,它表明:一个连续函数在区间[a, b]上的定积分等于它的任一个原函数在区间[a, b]上的增量。

偏导数:

      因为我们做深度学习不太可能就一个自变量,所以要求偏导数,偏导数就是多个自变量,比如 Z=f(x,y), 而自变量y固定 这时它就是x的一元函数,这函数对x的导数,就称为二元函数Z对x的偏导数。(实际上我们在深度学习时候求偏导数也就这么简单)

深度学习从入门到不想放弃-4_深度学习_11

       相反的如果你固定了x,那就是对y求偏导数了,以上讲的都是一阶偏导数,实际的计算中,一阶二阶都有,这里就不展开了,就知道概念就行。     

常见的求导方法:

深度学习从入门到不想放弃-4_深度学习_12

求导链式法则:

比如要求下面式子的导数,看起来非常的复杂

深度学习从入门到不想放弃-4_定积分_13

那我们就要拆解一下

深度学习从入门到不想放弃-4_深度学习_14

然后再把所有的式子乘起来,就这么简单

深度学习从入门到不想放弃-4_定积分_15

 多元函数求导:


深度学习从入门到不想放弃-4_深度学习_16


,比如讲到各种距离啥的,讲到什么的时候再以番外篇(或者正篇)的形式追加吧!


深度学习从入门到不想放弃-4_定积分_17


举报

相关推荐

0 条评论