卷积神经网络(Keras)修改学习率:
利用tensorflow的Keras模块我们可以建立我们自己定义的卷积神经网络模型,但是一般不会触碰到学习率这个问题,一般默认的学习率都是0.001
激活层
dropout大致步骤,使用方法:
dropout 是神经网络用来防止过拟合的一种方法,很简单,但是很实用。
基本思想是以一定概率放弃被激活的神经元,使得模型更健壮,相当于放弃一些特征,这使得模型不过分依赖于某些特征,即使这些特征是真实的,当然也可能是假的。
深度学习(3)损失函数-交叉熵(CrossEntropy)
简单的交叉熵损失函数,你真的懂了吗?
因为我的项目是二分类问题,由于交叉熵损失函数的log特性,损失函数越大,惩罚越严重
relu函数的k值为1,所以不会出现梯度爆炸或者梯度消失
深度神经网络的梯度不稳定问题--梯度消失与梯度爆炸
反向传播——通俗易懂
关于ssm
分类层(回归函数)
用的是softmax,
卷积神经网络的分类层-softmax和sigmoid