1.torch.optim.Adam(parameters, lr)什么含义
已知parameters代表每个神经网络的参数矩阵,lr代表学习率
2.pytorch 常用的 loss function
nn.L1Loss
nn.MSELoss()
nn.BCELoss()
nn.CrossEntropyLoss
该函数用于多分类,不需要加softmax层
BCELoss是二分类使用的交叉熵,用之前需要在该层前面加上Sigmoid函数。
pytorch 常用的 loss functionhttps://blog.csdn.net/f156207495/article/details/88658009?msclkid=06e05464c27911ec9b8a17769c0b7d6a