PyTorch面试精华


1 PyTorch全局设置

    1.1  全局设置当前设备

    1.2  全局设置浮点精度

    1.3  设置控制台输出格式

2 向量与梯度之核心

    2.1  Tensor的组成与存储

    2.2  Tensor的grad属性

    2.3  Tensor内存布局的调整

    2.4  Tensor的叠加

    2.5  禁用梯度计算

    2.6  向量的保存和加载

    2.7  梯度消失与梯度爆炸

3 神经网络基础

    3.1  线性网络的参数以及初始化

    3.2  PyTorch计算图

    3.3  查看网络权重参数

    3.4  保存模型

    3.5  Adam相关面试题

    3.6  ReLu与非线性的理解

    3.7  Train模式和Eval模式

    3.8  线性网络

    3.9  双线性网络

    3.10  惰性线性层

    3.11  参数向量

    3.12  叶子节点

    3.13  自动求导与链式求导

    3.14  Dropout机制

    3.15  detach原理

    3.16  半精度训练

    3.17  Xavier初始化

    3.18  通道的深刻理解

    3.19  1x1卷积的作用

    3.20  注意力机制

    3.21  requires_grad属性

    3.22  向量的device

    3.23  tensor与numpy互换

    3.24  DataParallel用法详解

    3.25  to(device)和.cuda()的区别

    3.26  Dataset数据处理

    3.27  StepLR学习率调度器

    3.28  词嵌入的理解

    3.29  特征提取和可视化

    3.30  TensorDataset的使用

双线性层

创建时间:2024-09-06 | 更新时间:2024-09-06 | 阅读次数:1030 次

双线性层

$X_1$

17.1、什么是双线性层

双线性层是神经网络中一种特殊的全连接层。在传统的全连接层中,我们将输入向量与权重矩阵相乘,然后通过激活函数产生输出。而双线性层则采用两个输入向量的点积作为输出,而不是简单的乘法。具体地,给定输入张量 $X1∈RN×D1X1∈RN×D1$ 和X2∈RN×D2X2∈RN×D2,双线性层的输出Y∈RN×MY∈RN×M可以表示为: Y=X1TWX2Y=X1TWX2 其中W∈RD1×M×D2W∈RD1×M×D2是学习参数,它将输入张量的维度映射到输出张量的维度。值得注意的是,双线性层并没有引入额外的非线性变换,它仅通过点积来表征输入之间的相互关系。

17.2、双线性层的应用

双线性层在计算机视觉任务中具有广泛的应用。其中一个主要的应用是图像分类。在传统的卷积神经网络中,常用的方式是在全连接层之前添加一个双线性层,用于捕捉图像的高级语义信息,从而提升模型的性能。双线性层可以帮助网络获取图像中不同区域之间的空间关系,尤其适用于处理物体的姿态、形状以及其它复杂结构等。 另外,双线性层还可以用于目标检测任务中的区域提议网络(Region Proposal Network, RPN)。RPN用于生成候选区域,然后再进行目标分类和位置回归等操作。由于双线性层可以很好地捕捉图像中不同区域之间的相互关系,因此可以通过将RPN的候选区域与整张图像进行双线性计算,来获取更准确的区域候选框。

本教程共40节,当前为第19节!