-
累积梯度
默认情况是每个batch 之后都更新一次梯度,当然也可以N个batch后再更新,这样就有了大batch size 更新的效果了,例如当你内存很小,训练的batch size 设置的很小,这时候就可以采用累积梯度:
1 | # 默认情况下不开启 |
ModelCheckpoint
1 | from pytorch_lightning import Trainer, ModelCheckpoint |
恢复训练
1 | from pytorch_lightning import Trainer |
版本
lighting | torch | |
---|---|---|
2.2 | [1.13, 2.2] | |
2.1 | [1.12, 2.1] | |
2.0 | [1.11, 2.0] | |
1.4.2 | [1.6, 1.9] |
REF
pytorch lightning–ModelCheckpoint_pytorch_lightning.callbacks.modelcheckpoint-CSDN博客
Pytorch-Lightning中的训练器–Trainer_pytorch_lightning.trainer-CSDN博客