PyTorch面试精华


1 PyTorch全局设置

    1.1  全局设置当前设备

    1.2  全局设置浮点精度

    1.3  设置控制台输出格式

2 向量与梯度之核心

    2.1  Tensor的组成与存储

    2.2  Tensor的grad属性

    2.3  Tensor内存布局的调整

    2.4  Tensor的叠加

    2.5  禁用梯度计算

    2.6  向量的保存和加载

    2.7  梯度消失与梯度爆炸

3 神经网络基础

    3.1  线性网络的参数以及初始化

    3.2  PyTorch计算图

    3.3  查看网络权重参数

    3.4  保存模型

    3.5  Adam相关面试题

    3.6  ReLu与非线性的理解

    3.7  Train模式和Eval模式

    3.8  线性网络

    3.9  双线性网络

    3.10  惰性线性层

    3.11  参数向量

    3.12  叶子节点

    3.13  自动求导与链式求导

    3.14  Dropout机制

    3.15  detach原理

    3.16  半精度训练

    3.17  Xavier初始化

    3.18  通道的深刻理解

    3.19  1x1卷积的作用

    3.20  注意力机制

    3.21  requires_grad属性

    3.22  向量的device

    3.23  tensor与numpy互换

    3.24  DataParallel用法详解

    3.25  to(device)和.cuda()的区别

    3.26  Dataset数据处理

    3.27  StepLR学习率调度器

    3.28  词嵌入的理解

    3.29  特征提取和可视化

    3.30  TensorDataset的使用

StepLR 学习率调度器

创建时间:2024-09-17 | 更新时间:2024-09-17 | 阅读次数:1016 次

在深度学习的训练过程中,经常需要调整模型的学习率以及其他超参数。PyTorch 提供了调度器(scheduler)来自动调整学习率,这对于优化模型的训练过程非常重要。PyTorch 提供了多种学习率调度器,常用的有 StepLR、MultiStepLR、ExponentialLR、CosineAnnealingLR 等。

StepLR 调度器

StepLR 调度器将学习率按照指定的步骤进行调整。具体来说,每过一定的步骤,学习率会乘以一个特定的因子。下面是一个使用 StepLR 的示例代码。在这个示例中,我们定义了一个线性模型和一个 SGD 优化器,初始学习率为 0.1。然后我们创建了一个 StepLR 调度器,并将其与优化器关联起来。这个调度器将会在每 10 个步骤后将学习率乘以 0.1。

import torch.nn as nn
import torch.optim as optim
from torch.optim import lr_scheduler

model = nn.Linear(10, 1)
optimizer = optim.SGD(model.parameters(), lr=0.1)
scheduler = lr_scheduler.StepLR(optimizer, step_size=10, gamma=0.1)

for epoch in range(1, 31):
    # train
    optimizer.zero_grad()
    optimizer.step()
    print("第%d个epoch的学习率:%f" % (epoch, optimizer.param_groups[0]["lr"]))
    scheduler.step()

输出结果为:

第1个epoch的学习率:0.100000
第2个epoch的学习率:0.100000
第3个epoch的学习率:0.100000
第4个epoch的学习率:0.100000
第5个epoch的学习率:0.100000
第6个epoch的学习率:0.100000
第7个epoch的学习率:0.100000
第8个epoch的学习率:0.100000
第9个epoch的学习率:0.100000
第10个epoch的学习率:0.100000
第11个epoch的学习率:0.010000
第12个epoch的学习率:0.010000
第13个epoch的学习率:0.010000
第14个epoch的学习率:0.010000
第15个epoch的学习率:0.010000
第16个epoch的学习率:0.010000
第17个epoch的学习率:0.010000
第18个epoch的学习率:0.010000
第19个epoch的学习率:0.010000
第20个epoch的学习率:0.010000
第21个epoch的学习率:0.001000
第22个epoch的学习率:0.001000
第23个epoch的学习率:0.001000
第24个epoch的学习率:0.001000
第25个epoch的学习率:0.001000
第26个epoch的学习率:0.001000
第27个epoch的学习率:0.001000
第28个epoch的学习率:0.001000
第29个epoch的学习率:0.001000
第30个epoch的学习率:0.001000

由此可以看出这个StepLR调度器将会在每 10 个步骤后将学习率乘以 0.1。

补充:MultiStepLR 调度器

MultiStepLR 调度器与 StepLR 调度器的原理类似,不同之处在于它可以在任意指定的步骤上调整学习率。下面是一个使用 MultiStepLR 的示例代码:

scheduler = lr_scheduler.MultiStepLR(optimizer, milestones=[5, 25], gamma=0.1)

在这个示例中,我们将学习率调整的步骤分别设置为 5 和 25,并将学习率调整因子设置为 0.1。这意味着在模型训练的第 5 步和 25 步时,学习率会乘以 0.1。运行结果如下所示:

第1个epoch的学习率:0.100000
第2个epoch的学习率:0.100000
第3个epoch的学习率:0.100000
第4个epoch的学习率:0.100000
第5个epoch的学习率:0.100000
第6个epoch的学习率:0.010000
第7个epoch的学习率:0.010000
第8个epoch的学习率:0.010000
第9个epoch的学习率:0.010000
第10个epoch的学习率:0.010000
第11个epoch的学习率:0.010000
第12个epoch的学习率:0.010000
第13个epoch的学习率:0.010000
第14个epoch的学习率:0.010000
第15个epoch的学习率:0.010000
第16个epoch的学习率:0.010000
第17个epoch的学习率:0.010000
第18个epoch的学习率:0.010000
第19个epoch的学习率:0.010000
第20个epoch的学习率:0.010000
第21个epoch的学习率:0.010000
第22个epoch的学习率:0.010000
第23个epoch的学习率:0.010000
第24个epoch的学习率:0.010000
第25个epoch的学习率:0.010000
第26个epoch的学习率:0.001000
第27个epoch的学习率:0.001000
第28个epoch的学习率:0.001000
第29个epoch的学习率:0.001000
第30个epoch的学习率:0.001000
本教程共40节,当前为第37节!