0
点赞
收藏
分享

微信扫一扫

Pytorch如果batch size大于dataset size会发生什么

绣文字 2022-04-02 阅读 50
pytorch

结论

先给结论:**和batch size无关了。**DataLoader每次会把full size给出来,同时每个step就等于一个epoch

相关

ptrblck在以下这个回答中指出:DataLoader的时候设置batchsize之后他就会划分data,然后有个函数__len()__提前计算好了有多少个batch,如果1001个样本,batchsize是10,那__len__()就会返回101,同时最后一个batch将只有1个样本。

如果希望每次DataLoader都严格给出batchsize大小的batch,就设置drop_last=True

举报

相关推荐

0 条评论