PyTorch面试精华


1 PyTorch全局设置

    1.1  全局设置当前设备

    1.2  全局设置浮点精度

    1.3  设置控制台输出格式

2 向量与梯度之核心

    2.1  Tensor的组成与存储

    2.2  Tensor的grad属性

    2.3  Tensor内存布局的调整

    2.4  Tensor的叠加

    2.5  禁用梯度计算

    2.6  向量的保存和加载

    2.7  梯度消失与梯度爆炸

3 神经网络基础

    3.1  线性网络的参数以及初始化

    3.2  PyTorch计算图

    3.3  查看网络权重参数

    3.4  保存模型

    3.5  Adam相关面试题

    3.6  ReLu与非线性的理解

    3.7  Train模式和Eval模式

    3.8  线性网络

    3.9  双线性网络

    3.10  惰性线性层

    3.11  参数向量

    3.12  叶子节点

    3.13  自动求导与链式求导

    3.14  Dropout机制

    3.15  detach原理

    3.16  半精度训练

    3.17  Xavier初始化

    3.18  通道的深刻理解

    3.19  1x1卷积的作用

    3.20  注意力机制

    3.21  requires_grad属性

    3.22  向量的device

    3.23  tensor与numpy互换

    3.24  DataParallel用法详解

    3.25  to(device)和.cuda()的区别

    3.26  Dataset数据处理

    3.27  StepLR学习率调度器

    3.28  词嵌入的理解

    3.29  特征提取和可视化

    3.30  TensorDataset的使用

惰性线性层

创建时间:2024-09-06 | 更新时间:2024-09-06 | 阅读次数:1031 次

1、LazyLinear 简介

PyTorch提供一个惰性的线性层,这个模块的作用就是可以帮助我们实现惰性初始化参数,另外,还不必在定义线性层的时候同时指定输入维度和输出维度,只需要指定输出维度即可,对于输入维度采用自动推断的方式。总之,LazyLinear 类的功能和作用有下面三点:

(1)自动推断输入维度的大小。这个类允许用户在初始化时不指定输入特征的大小(in_features),该值会在模块第一次前向传播时自动推断。

(2)延迟初始化。权重和偏置参数在第一次前向传播时才被初始化,之前它们是未初始化的。

(3)惰性的线性层可以转换为常规线性层。一旦完成第一次前向传播,LazyLinear 模块就会变成常规的 torch.nn.Linear 模块。

2、LazyLinear 参数介绍

torch.nn.LazyLinear(out_features, bias=True, device=None, dtype=None)

参数说明: - out_features(int): 每个输出样本的大小。 - bias(UninitializedParameter): 如果设置为 False则不会学习附加偏置。默认值:True。

3、LazyLinear 应用举例

import torch
import torch.nn as nn

# 创建 LazyLinear 实例。注意,这里没有指定 in_features
lazy_linear = nn.LazyLinear(out_features=30)

# 输入数据
input = torch.randn(10, 20) 

# 前向传播
output = lazy_linear(input)

# 输出形状
print(output.size())  

输出结果为:

torch.Size([10, 30]) 

代码说明:在这个例子中,初始时并不需要指定输入特征的大小,它会在第一次调用 forward 方法时自动确定。

5、小结

torch.nn.LazyLinear 类是一种方便的工具,特别适合于在模型设计阶段不确定输入大小的场景。它简化了模型初始化过程,允许更灵活的设计,并在确定实际输入大小后自动完成参数初始化。

本教程共40节,当前为第20节!