0
点赞
收藏
分享

微信扫一扫

机器学习优化算法:牛顿法以及海森矩阵

小暴龙要抱抱 2022-02-19 阅读 62

参考:海森矩阵和牛顿法

          人工智能-损失函数-优化算法:牛顿法的背后原理【二阶泰勒展开】

          牛顿法与Hessian矩阵

给出一个总结:

1. 求解方程的根

我们先从一个最简单的情况来分析。

当方程没有求根公式,或者求根公式很复杂而导致求解困难时,怎么办呢?此时牛顿法就起作用了。

这里假设我们要求f(x) = 0的根。步骤如下:

  • 首先,选择一个接近函数f(x) = 0的 x_{0},计算相应的f(x_{0}) 和切线斜率f'(x_{0})
  • 然后计算穿过点(x_{0},f(x_{0}))并且斜率为f'(x_{0})的直线和x 轴的交点的坐标,也就是求如下方程的解(公式1):

  • 我们将新求得的点的x 坐标命名为x_{1}。可以看到,x_{1}会比x_{0}更接近方程f(x) = 0的解。因此我们现在可以利用x_{1}开始下一轮迭代。我们对公式1进行变换,得到公式2:

                                                         

通过公式2不断地迭代,就可以越来越接近  f(x) = 0的根。整个的过程可以由下图表示:

在上面,我们利用求解直线方程的方式,给出了公式1最为直接的推导方法。这里我们给出从泰勒展开推导的过程:

因此可以看到,迭代公式就是是泰勒一阶展开

由于泰勒等式只是近似相等,所以每次求得的近似解并不能使完全成立f(x) = 0,但是可以认为相比与上一次迭代的结果更加接近。

2. 二阶优化方法——牛顿法

牛顿法求解二阶优化问题已经不是求解f(x) = 0的问题,而是求解f'(x) = 0的问题,可以参考二阶泰勒展开公式:

此时把想象成然后套用进公式2可得:

对于高维函数,牛顿法通用公式可以写成:

3. 牛顿法 与 Hessian矩阵的关系

 

 

举报

相关推荐

0 条评论