pytorch各种学习率衰减器

各种学习率衰减器

各类衰减器文档:【here】

指数衰减

torch.optim.lr_scheduler.ExponentialLR(optimizer, gamma=0.98)

在这里插入图片描述
一般将last_epoch 设置成-1,verbose设置成FALSE
学习率调整公式:在这里插入图片描述
在这里插入图片描述

固定步长衰减

torch.optim.lr_scheduler.StepLR(optimizer, step_size=step_size, gamma=0.1)
参数:
optimizer (Optimizer):的优化器;
step_size(int):更新epoch;
gamma(float):更新lr的乘法因子;
last_epoch (int):默认-1
在这里插入图片描述

多步长衰减

torch.optim.lr_scheduler.MultiStepLR(optimizer,milestones=[2050], gamma=0.8)

在这里插入图片描述
在这里插入图片描述

余弦退火衰减

torch.optim.lr_scheduler.CosineAnnealingLR(optimizer, T_max=60, eta_min=0)

在这里插入图片描述
T_max为余弦函数的一个半周期
在这里插入图片描述

函数衰减

lambda1 = lambda i: 0.1 * i
torch.optim.lr_scheduler.LambdaLR(optimizer, lr_lambda, last_epoch=-1, verbose=False)
#lr = lr *lamda

在这里插入图片描述

自适应调整衰减

torch.optim.lr_scheduler.ReduceLROnPlateau(optimizer, mode='min', factor=0.1, patience=10, verbose=False, threshold=0.0001, threshold_mode='rel', cooldown=0, min_lr=0, eps=1e-08)

在这里插入图片描述

warm up

先将学习率从很小的值逐渐上升,再用现有的学习率衰减器

预热余弦退火

torch.optim.lr_scheduler.CosineAnnealingWarmRestarts(optimizer, T_0=20, T_mult=2, eta_min=0.01)

在这里插入图片描述
T_0和T_mult的不同设置的比较
在这里插入图片描述