0
点赞
收藏
分享

微信扫一扫

不会的查一查

冶炼厂小练 2022-04-24 阅读 88
深度学习

1.torch.optim.Adam(parameters, lr)什么含义

已知parameters代表每个神经网络的参数矩阵,lr代表学习率

2.pytorch 常用的 loss function

nn.L1Loss

nn.MSELoss()

nn.BCELoss()

nn.CrossEntropyLoss

该函数用于多分类,不需要加softmax层

BCELoss是二分类使用的交叉熵,用之前需要在该层前面加上Sigmoid函数。

pytorch 常用的 loss functionicon-default.png?t=M3K6https://blog.csdn.net/f156207495/article/details/88658009?msclkid=06e05464c27911ec9b8a17769c0b7d6a

举报

相关推荐

0 条评论