0
点赞
收藏
分享

微信扫一扫

神经网络简介---慕课笔记


神经网络的起源:

      起源于20实际中叶,实际上是一种仿生学产品,即 使我们制造的产品具有我们要仿的生物的某种属性。

神经网络的兴起:

       1.环境的创新;

       2.软硬件的创新;

       3.人的性价比较低;

神经网络的主要功能:

        分类识别

              图像  ---> 无人驾驶;

              语音  ---> 语音助手

              文本  ---> 新闻推送

神经网络的网络结构:

       相较于普通的函数,它具有结构性的顺序。 即结点跟层的概念。  更深的网络比 更宽的网络 在学习的花费上要低很多。 

        每个神经元先对输入进行线性组合,之后运用  激励函数,将线性的输入转换为非线性的结果。

神经元的逻辑回归

       每个神经元具有独立判断问题的能力,其实质是一个逻辑回归的模型。 

       线性化过程时,会有一组线性参数。 线性化过程之后,通过激励函数,得出一个预测后的期望值。  在损失函数确定的情况下,通过该逻辑回归模型,逆向调节 线性参数值达到一个学习的过程。 

激励函数

       其作用是: 提供规模化的非线性划能力。 

       常见的激励函数:

                    Sigmoid:     

神经网络简介---慕课笔记_神经网络

  其优点是 可导,数学性质好。 缺点是数据较大时,学习周期长。                    tanh: 

神经网络简介---慕课笔记_损失函数_02

    , 其是 Sigmoid的中心对称版。 

                    ReLU:  f(x) = max(0,x)

损失函数

         在学习的过程中,我们需要判断学习产生的函数值 与我们监督信息给出的函数值 之间的差异性,便是损失函数功能。 

         损失函数公式:  单词训练损失;   多次训练损失。  公式略。      不用欧几里得距离的原因是: 不能保证是凸平面。 

梯度下降

          通过一种渐进性的方式,来调整整个函数的形态。 

          即通过取到损失函数的局部极小值,来起到一个调教线性参数的过程。 

 网络梯度下降:

       也称为反向传播,即通过运算结果来逆向调节每一层的参数,从而是整个网络的函数链条达到最优值。

       通过逆向求导,调校参数;

举报

相关推荐

0 条评论