0
点赞
收藏
分享

微信扫一扫

最新在线IDE流行度最新排名(每月更新)

罗蓁蓁 2023-09-21 阅读 35
  • on_train_batch_start
  • optimaze_step
    • training_step
    • on_before_zero_grad
    • scaler.scale(loss) 将loss放大
    • on_before_backward
    • model.backward 梯度反传
    • on_after_backward
    • scaler.unscale_(optimizer) 将grad还原
    • on_before_optimizer_step
    • _clip_gradients梯度裁剪
    • scaler.step(optimizer) 如果发现nan梯度,则optimizer跳过
    • scaler.update() 更新缩放器
  • on_train_batch_end
举报

相关推荐

0 条评论