PyTorch面试精华


1 PyTorch全局设置

    1.1  全局设置当前设备

    1.2  全局设置浮点精度

    1.3  设置控制台输出格式

2 向量与梯度之核心

    2.1  Tensor的组成与存储

    2.2  Tensor的grad属性

    2.3  Tensor内存布局的调整

    2.4  Tensor的叠加

    2.5  禁用梯度计算

    2.6  向量的保存和加载

    2.7  梯度消失与梯度爆炸

3 神经网络基础

    3.1  线性网络的参数以及初始化

    3.2  PyTorch计算图

    3.3  查看网络权重参数

    3.4  保存模型

    3.5  Adam相关面试题

    3.6  ReLu与非线性的理解

    3.7  Train模式和Eval模式

    3.8  线性网络

    3.9  双线性网络

    3.10  惰性线性层

    3.11  参数向量

    3.12  叶子节点

    3.13  自动求导与链式求导

    3.14  Dropout机制

    3.15  detach原理

    3.16  半精度训练

    3.17  Xavier初始化

    3.18  通道的深刻理解

    3.19  1x1卷积的作用

    3.20  注意力机制

    3.21  requires_grad属性

    3.22  向量的device

    3.23  tensor与numpy互换

    3.24  DataParallel用法详解

    3.25  to(device)和.cuda()的区别

    3.26  Dataset数据处理

    3.27  StepLR学习率调度器

    3.28  词嵌入的理解

    3.29  特征提取和可视化

    3.30  TensorDataset的使用

Tensor的叠加:torch.stack()函数的使用

创建时间:2024-09-03 | 更新时间:2024-09-05 | 阅读次数:1145 次

torch.stack()函数的参数形式为:torch.stack(inputs,dim=0,out=None),其作用是将若干个形状相同的张量在dim维度上连接,生成一个扩维的张量。比如,我们原本有若干个2维张量,连接之后可以得到一个3维的张量。

4.1、参数说明

  • inputs: 待连接的张量序列。

注:python的序列数据只有list和tuple。

  • dim: 新的维度,必须在0到len(outputs.shape)之间,即:0<=dim<len(outputs.shape)

注:len(outputs.shape)是生成数据的维度大小,也就是outputs的维度值,它比inputs的维度要多出一个。

4.2、应用介绍

此处主要以二维向量的stack为主,因为二维向量经过stack之后变成三维向量,大家容易理解:

  • dim=0时,将tensor进行叠加从而形成三维向量,这种情况比较容易理解。

  • dim=1时,将每个tensor的第i行抽出连接组成一个新的2维tensor,然后进行叠加从而形成三维向量。

  • dim=2时,将每个tensor的第i列抽出连接组成一个新的2维tensor,然后进行叠加从而形成三维向量。

本教程共40节,当前为第7节!