0
点赞
收藏
分享

微信扫一扫

【微信小程序开发】环境介绍和基本使用

ZGtheGreat 2024-01-20 阅读 10

batch vs mini-batch gradient descent

batch:段,块

与传统的batch梯度下降不同,mini-batch gradient descent将数据分成多个子集,分别进行处理,在数据量非常巨大的情况下,这样处理可以及时进行梯度下降,大大加快训练速度

mini-batch gradient descent的原理

两种方法的梯度下降图如下图所示

mini-batch size

举报

相关推荐

0 条评论