PyTorch面试精华


1 PyTorch全局设置

    1.1  全局设置当前设备

    1.2  全局设置浮点精度

    1.3  设置控制台输出格式

2 向量与梯度之核心

    2.1  Tensor的组成与存储

    2.2  Tensor的grad属性

    2.3  Tensor内存布局的调整

    2.4  Tensor的叠加

    2.5  禁用梯度计算

    2.6  向量的保存和加载

    2.7  梯度消失与梯度爆炸

3 神经网络基础

    3.1  线性网络的参数以及初始化

    3.2  PyTorch计算图

    3.3  查看网络权重参数

    3.4  保存模型

    3.5  Adam相关面试题

    3.6  ReLu与非线性的理解

    3.7  Train模式和Eval模式

    3.8  线性网络

    3.9  双线性网络

    3.10  惰性线性层

    3.11  参数向量

    3.12  叶子节点

    3.13  自动求导与链式求导

    3.14  Dropout机制

    3.15  detach原理

    3.16  半精度训练

    3.17  Xavier初始化

    3.18  通道的深刻理解

    3.19  1x1卷积的作用

    3.20  注意力机制

    3.21  requires_grad属性

    3.22  向量的device

    3.23  tensor与numpy互换

    3.24  DataParallel用法详解

    3.25  to(device)和.cuda()的区别

    3.26  Dataset数据处理

    3.27  StepLR学习率调度器

    3.28  词嵌入的理解

    3.29  特征提取和可视化

    3.30  TensorDataset的使用

线性网络的参数以及初始化

创建时间:2023-02-22 | 更新时间:2024-09-03 | 阅读次数:1062 次

线性网络的参数以及初始化

有一线性网络:torch.nn.Linear(in_features, out_features, bias=True),有下面两个问题:

1.1、权重矩阵的形状是什么?

线性变换可以简单地表示为 y = Ax + b,其中 A 是权重矩阵,x 是输入向量,b 是偏置向量,y 是输出向量。对于矩阵左乘,Ax 将in_features维输入x映射为out_features维输出,所以A的形状是 out_features * in_features

1.2、权重矩阵的初始化方式是什么?

权重矩阵的初始化如下所示:

1.3、如何自定义权重矩阵?

import torch.nn.init as init

class CustomLinear(nn.Linear):
    def __init__(self, in_features, out_features, bias=True):
        super(CustomLinear, self).__init__(in_features, out_features, bias)
        # 使用自定义的权重初始化方法
        init.kaiming_uniform_(self.weight, a=math.sqrt(5))
        if self.bias is not None:
            fan_in, _ = init._calculate_fan_in_and_fan_out(self.weight)
            bound = 1 / math.sqrt(fan_in)
            init.uniform_(self.bias, -bound, bound)

# 使用自定义的线性层
custom_linear = CustomLinear(in_features=10, out_features=2)

1.4、在自定义权重矩阵中,普通的张量是否可以直接赋值给模块的weight参数?

PyTorch的模型参数期望的是一个torch.nn.Parameter对象或者None,而不是一个普通的张量。当我们尝试将一个普通张量直接赋值给模型参数的权重时,就会触发这个TypeError。

解决方法有两个:

(1)使用torch.nn.Parameter包装普通张量(推荐使用)

(2)将普通张量赋值给weight.data

本教程共40节,当前为第11节!