torch.nn#
创建日期:2016年12月23日 | 最后更新日期:2024年11月06日
这些是图表的基本构建块
torch.nn
容器#
模块的全局钩子
注册所有模块通用的前向预钩子。 |
|
为所有模块注册一个全局前向钩子。 |
|
注册所有模块通用的后向钩子。 |
|
注册所有模块通用的完全后向预钩子。 |
|
注册所有模块通用的后向钩子。 |
|
注册所有模块通用的缓冲区注册钩子。 |
|
注册所有模块通用的模块注册钩子。 |
|
注册所有模块通用的参数注册钩子。 |
卷积层#
对由多个输入平面组成的输入信号应用 1D 卷积。 |
|
对由多个输入平面组成的输入信号应用 2D 卷积。 |
|
对由多个输入平面组成的输入信号应用 3D 卷积。 |
|
对由多个输入平面组成的输入图像应用 1D 转置卷积运算符。 |
|
对由多个输入平面组成的输入图像应用 2D 转置卷积运算符。 |
|
对由多个输入平面组成的输入图像应用 3D 转置卷积运算符。 |
|
一个 |
|
一个 |
|
一个 |
|
一个 |
|
一个 |
|
一个 |
|
从批量输入张量中提取滑动局部块。 |
|
将滑动局部块的数组组合成一个大型包含张量。 |
池化层#
对由多个输入平面组成的输入信号应用 1D 最大池化。 |
|
在由多个输入平面组成的输入信号上应用 2D 最大池化。 |
|
对由多个输入平面组成的输入信号应用 3D 最大池化。 |
|
计算 |
|
计算 |
|
计算 |
|
对由多个输入平面组成的输入信号应用 1D 平均池化。 |
|
对由多个输入平面组成的输入信号应用 2D 平均池化。 |
|
对由多个输入平面组成的输入信号应用 3D 平均池化。 |
|
对由多个输入平面组成的输入信号应用 2D 分数最大池化。 |
|
对由多个输入平面组成的输入信号应用 3D 分数最大池化。 |
|
对由多个输入平面组成的输入信号应用 1D 功率平均池化。 |
|
对由多个输入平面组成的输入信号应用 2D 功率平均池化。 |
|
对由多个输入平面组成的输入信号应用 3D 功率平均池化。 |
|
对由多个输入平面组成的输入信号应用 1D 自适应最大池化。 |
|
对由多个输入平面组成的输入信号应用 2D 自适应最大池化。 |
|
对由多个输入平面组成的输入信号应用 3D 自适应最大池化。 |
|
对由多个输入平面组成的输入信号应用 1D 自适应平均池化。 |
|
对由多个输入平面组成的输入信号应用 2D 自适应平均池化。 |
|
对由多个输入平面组成的输入信号应用 3D 自适应平均池化。 |
填充层#
使用输入边界的反射来填充输入张量。 |
|
使用输入边界的反射来填充输入张量。 |
|
使用输入边界的反射来填充输入张量。 |
|
使用输入边界的复制来填充输入张量。 |
|
使用输入边界的复制来填充输入张量。 |
|
使用输入边界的复制来填充输入张量。 |
|
用零填充输入张量边界。 |
|
用零填充输入张量边界。 |
|
用零填充输入张量边界。 |
|
用常数值填充输入张量边界。 |
|
用常数值填充输入张量边界。 |
|
用常数值填充输入张量边界。 |
|
使用输入边界的循环填充来填充输入张量。 |
|
使用输入边界的循环填充来填充输入张量。 |
|
使用输入边界的循环填充来填充输入张量。 |
非线性激活(加权和,非线性)#
逐元素应用指数线性单元 (ELU) 函数。 |
|
逐元素应用硬收缩 (Hardshrink) 函数。 |
|
逐元素应用 Hardsigmoid 函数。 |
|
逐元素应用 HardTanh 函数。 |
|
逐元素应用 Hardswish 函数。 |
|
逐元素应用 LeakyReLU 函数。 |
|
逐元素应用 Logsigmoid 函数。 |
|
允许模型共同关注来自不同表示子空间的信息。 |
|
逐元素应用 PReLU 函数。 |
|
逐元素应用线性整流单元函数。 |
|
逐元素应用 ReLU6 函数。 |
|
逐元素应用随机 Leaky Rectified Linear Unit 函数。 |
|
逐元素应用 SELU 函数。 |
|
逐元素应用 CELU 函数。 |
|
应用高斯误差线性单元函数。 |
|
逐元素应用 Sigmoid 函数。 |
|
逐元素应用 Sigmoid 线性单元 (SiLU) 函数。 |
|
逐元素应用 Mish 函数。 |
|
逐元素应用 Softplus 函数。 |
|
逐元素应用软收缩函数。 |
|
逐元素应用 Softsign 函数。 |
|
逐元素应用双曲正切 (Tanh) 函数。 |
|
逐元素应用 Tanhshrink 函数。 |
|
阈值化输入张量的每个元素。 |
|
应用门控线性单元函数。 |
非线性激活(其他)#
将 Softmin 函数应用于 n 维输入张量。 |
|
将 Softmax 函数应用于 n 维输入张量。 |
|
在每个空间位置对特征应用 SoftMax。 |
|
将 函数应用于 n 维输入张量。 |
|
高效的 softmax 近似。 |
归一化层#
对 2D 或 3D 输入应用批量归一化。 |
|
对 4D 输入应用批量归一化。 |
|
对 5D 输入应用批量归一化。 |
|
一个具有惰性初始化的 |
|
一个具有惰性初始化的 |
|
一个具有惰性初始化的 |
|
对输入的小批量应用组归一化。 |
|
对 N 维输入应用批量归一化。 |
|
应用实例归一化。 |
|
应用实例归一化。 |
|
应用实例归一化。 |
|
一个具有 |
|
一个具有 |
|
一个具有 |
|
对输入的小批量应用层归一化。 |
|
对输入信号应用局部响应归一化。 |
|
对输入的小批量应用均方根层归一化。 |
循环层#
RNN 模块(RNN、LSTM、GRU)的基类。 |
|
将具有 或 非线性的多层 Elman RNN 应用于输入序列。 |
|
将多层长短期记忆 (LSTM) RNN 应用于输入序列。 |
|
将多层门控循环单元 (GRU) RNN 应用于输入序列。 |
|
一个具有 tanh 或 ReLU 非线性的 Elman RNN 单元。 |
|
一个长短期记忆 (LSTM) 单元。 |
|
一个门控循环单元 (GRU) 单元。 |
Transformer 层#
一个基本的 Transformer 层。 |
|
TransformerEncoder 是 N 个编码器层的堆栈。 |
|
TransformerDecoder 是 N 个解码器层的堆栈。 |
|
TransformerEncoderLayer 由自注意力机制和前馈网络组成。 |
|
TransformerDecoderLayer 由自注意力机制、多头注意力机制和前馈网络组成。 |
线性层#
一个不区分参数的占位符恒等运算符。 |
|
对输入数据应用仿射线性变换:。 |
|
对输入数据应用双线性变换:。 |
|
一个 |
Dropout 层#
在训练期间,以概率 |
|
随机将整个通道置零。 |
|
随机将整个通道置零。 |
|
随机将整个通道置零。 |
|
对输入应用 Alpha Dropout。 |
|
随机遮蔽整个通道。 |
损失函数#
创建一个衡量输入 与目标 之间每个元素的平均绝对误差 (MAE) 的准则。 |
|
创建一个衡量输入 与目标 之间每个元素的均方误差(L2 范数的平方)的准则。 |
|
此准则计算输入 logits 和目标之间的交叉熵损失。 |
|
连接主义时间分类损失。 |
|
负对数似然损失。 |
|
具有泊松分布目标的负对数似然损失。 |
|
高斯负对数似然损失。 |
|
Kullback-Leibler 散度损失。 |
|
创建一个衡量目标与输入概率之间二元交叉熵的准则 |
|
此损失将 Sigmoid 层和 BCELoss 组合在一个类中。 |
|
创建一个衡量给定输入 、(两个 1D 小批量或 0D 张量)和标签 1D 小批量或 0D 张量 (包含 1 或 -1)的损失的准则。 |
|
衡量给定输入张量 和标签张量 (包含 1 或 -1)的损失。 |
|
创建一个衡量输入 (一个 2D 小批量 张量)和输出 (一个目标类索引的 2D 张量)之间多类多分类铰链损失(基于边距的损失)的准则。 |
|
创建一个准则,如果绝对逐元素误差低于 delta,则使用平方项,否则使用 delta 缩放的 L1 项。 |
|
创建一个准则,如果绝对逐元素误差低于 beta,则使用平方项,否则使用 L1 项。 |
|
创建一个衡量输入张量 和目标张量 (包含 1 或 -1)之间两类分类逻辑损失的准则。 |
|
创建一个衡量输入 和大小为 的目标 之间基于最大熵的多标签一对一损失的准则。 |
|
创建一个衡量给定输入张量 、 和一个标签 张量 (值为 1 或 -1)的损失的准则。 |
|
创建一个衡量输入 (一个 2D 小批量 张量)和输出 (一个 1D 目标类索引张量,)之间多类分类铰链损失(基于边距的损失)的准则。 |
|
创建一个衡量给定输入张量 、、 和一个大于 的边距值的三元组损失的准则。 |
|
创建一个衡量给定输入张量 、 和 (分别代表锚点、正例和负例)以及一个非负、实值函数(“距离函数”),用于计算锚点与正例之间(“正距离”)和锚点与负例之间(“负距离”)关系的准则。 |
视觉层#
根据上采样因子重新排列张量中的元素。 |
|
反转 PixelShuffle 操作。 |
|
上采样给定多通道 1D(时间)、2D(空间)或 3D(体积)数据。 |
|
对由多个输入通道组成的输入信号应用 2D 最近邻上采样。 |
|
对由多个输入通道组成的输入信号应用 2D 双线性上采样。 |
数据并行层(多 GPU,分布式)#
在模块级别实现数据并行。 |
|
在模块级别实现基于 |
实用工具#
来自 torch.nn.utils
模块
用于裁剪参数梯度的实用函数。
对可迭代参数的梯度范数进行裁剪。 |
|
对可迭代参数的梯度范数进行裁剪。 |
|
在指定值处裁剪可迭代参数的梯度。 |
|
计算可迭代张量的范数。 |
|
根据预先计算的总范数和所需的最大范数缩放可迭代参数的梯度。 |
用于将模块参数扁平化和解扁平化为单个向量的实用函数。
将可迭代参数扁平化为单个向量。 |
|
将向量的切片复制到可迭代参数中。 |
用于将模块与 BatchNorm 模块融合的实用函数。
将卷积模块和 BatchNorm 模块融合为一个新的卷积模块。 |
|
将卷积模块参数和 BatchNorm 模块参数融合为新的卷积模块参数。 |
|
将线性模块和 BatchNorm 模块融合为一个新的线性模块。 |
|
将线性模块参数和 BatchNorm 模块参数融合为新的线性模块参数。 |
用于转换模块参数内存格式的实用函数。
将 |
|
将 |
用于对模块参数应用和移除权重归一化的实用函数。
对给定模块中的参数应用权重归一化。 |
|
从模块中移除权重归一化重参数化。 |
|
对给定模块中的参数应用谱归一化。 |
|
从模块中移除谱归一化重参数化。 |
用于初始化模块参数的实用函数。
给定一个模块类对象和 args/kwargs,实例化模块而不初始化参数/缓冲区。 |
用于修剪模块参数的实用类和函数。
用于创建新修剪技术的抽象基类。 |
|
一个容器,用于保存一系列修剪方法,以便进行迭代修剪。 |
|
不修剪任何单元,但生成带有全 1 掩码的修剪参数化的实用修剪方法。 |
|
随机修剪张量中(当前未修剪的)单元。 |
|
通过将 L1 范数最低的单元置零来修剪张量中(当前未修剪的)单元。 |
|
随机修剪张量中整个(当前未修剪的)通道。 |
|
根据其 L |
|
应用修剪重参数化而不修剪任何单元。 |
|
通过移除随机(当前未修剪的)单元来修剪张量。 |
|
通过移除 L1 范数最低的单元来修剪张量。 |
|
沿指定维度移除随机通道来修剪张量。 |
|
沿指定维度移除 L |
|
通过应用指定的 |
|
通过应用 |
|
从模块中移除修剪重参数化,并从 forward 钩子中移除修剪方法。 |
|
通过查找修剪前钩子检查模块是否已修剪。 |
使用 torch.nn.utils.parameterize.register_parametrization()
中新的参数化功能实现的参数化。
对矩阵或一批矩阵应用正交或酉参数化。 |
|
对给定模块中的参数应用权重归一化。 |
|
对给定模块中的参数应用谱归一化。 |
用于对现有模块上的张量进行参数化的实用函数。请注意,这些函数可用于给定一个特定函数(将输入空间映射到参数化空间)对给定的参数或缓冲区进行参数化。它们不是将对象转换为参数的参数化。有关如何实现自己的参数化的更多信息,请参阅 参数化教程。
在模块中的张量上注册参数化。 |
|
移除模块中张量上的参数化。 |
|
上下文管理器,用于启用使用 |
|
确定模块是否具有参数化。 |
一个顺序容器,用于保存和管理参数化 |
用于以无状态方式调用给定模块的实用函数。
通过用提供的参数和缓冲区替换模块参数和缓冲区,对模块执行函数式调用。 |
其他模块中的实用函数
保存打包序列的数据和 |
|
打包包含变长填充序列的张量。 |
|
填充打包的变长序列批次。 |
|
用 |
|
打包变长张量列表。 |
|
将 PackedSequence 解包为变长张量列表。 |
|
将填充张量解填充为变长张量列表。 |
将连续范围的维度扁平化为一个张量。 |
|
解扁平化张量维度,将其扩展为所需形状。 |
量化函数#
量化是指以低于浮点精度的比特宽度执行计算和存储张量的技术。PyTorch 支持逐张量和逐通道非对称线性量化。要了解有关如何在 PyTorch 中使用量化函数的更多信息,请参阅 量化 文档。