0
点赞
收藏
分享

微信扫一扫

机器学习中使用交叉熵为损失函数的原因

 

总结: 机器学习中有很多损失函数可以用,如欧氏距离,sigmoid函数,softmax函数等,

            然而使用交叉熵的原因在于防止梯度消失以及测出实际效果较好的原因吧(个人理解)。

            其详细理解,可以参考粘贴的内容:

 

机器学习中使用交叉熵为损失函数的原因_3d

 

 

 

 

 

 

 

 

机器学习中使用交叉熵为损失函数的原因_机器学习_02

 

 

机器学习中使用交叉熵为损失函数的原因_机器学习_03

 

 

 

 

 

本文参考:https://mp.weixin.qq.com/s?__biz=MzU4NTY1NDM3MA==&mid=2247483805&idx=1&sn=2e5f19e084fa71e7f32ae9c1717f948d&chksm=fd860890caf18186adc55c64f3df93f1276f878c3c158c0fdddf219ff73ef662a4cc39d226ef&token=255604471&lang=zh_CN#rd

 



举报

相关推荐

0 条评论