torch.nn 中的别名#
创建于: 2025年7月25日 | 最后更新于: 2025年7月25日
以下是在嵌套命名空间中 torch.nn
的对应项的别名。
torch.nn.modules#
以下是在 torch.nn.modules
命名空间中 torch.nn
的对应项的别名。
容器 (别名)#
一个顺序容器。 |
|
以列表形式保存子模块。 |
|
以字典形式保存子模块。 |
|
将参数保存在一个列表中。 |
|
以字典形式保存参数。 |
卷积层 (别名)#
对由多个输入平面组成的输入信号进行1D卷积操作。 |
|
在由多个输入平面组成的输入信号上应用二维卷积。 |
|
对由多个输入平面组成的输入信号应用 3D 卷积。 |
|
对由多个输入平面组成的输入图像应用 1D 转置卷积运算符。 |
|
对由多个输入平面组成的输入图像应用 2D 转置卷积运算符。 |
|
对由多个输入平面组成的输入图像应用 3D 转置卷积算子。 |
|
一个带有 |
|
一个带有 |
|
一个带有 |
|
一个带有 |
|
一个带有 |
|
一个带有 |
|
从批处理的输入 Tensor 中提取滑动局部块。 |
|
将一组滑动局部块组合成一个大的包含 Tensor。 |
池化层 (别名)#
对由多个输入平面组成的输入信号应用 1D 最大池化。 |
|
在由多个输入平面组成的输入信号上应用 2D 最大池化。 |
|
对由多个输入平面组成的输入信号应用 3D 最大池化。 |
|
计算 |
|
计算 |
|
计算 |
|
对由多个输入平面组成的输入信号进行1D平均池化操作。 |
|
对由多个输入平面组成的输入信号应用 2D 平均池化。 |
|
对由多个输入层组成的输入信号应用 3D 平均池化。 |
|
对由多个输入平面组成的输入信号应用 2D 分数最大池化。 |
|
对由多个输入平面组成的输入信号应用 3D 分数最大池化。 |
|
对由多个输入平面组成的输入信号应用一维 p-范数平均池化。 |
|
对由多个输入平面组成的输入信号应用 2D 幂平均池化。 |
|
对由多个输入平面组成的输入信号应用 3D 幂平均池化。 |
|
对由多个输入平面组成的输入信号应用 1D 自适应最大池化。 |
|
对由多个输入平面组成的输入信号应用 2D 自适应最大池化。 |
|
对由多个输入平面组成的输入信号应用 3D 自适应最大池化。 |
|
对由多个输入平面组成的输入信号应用 1D 自适应平均池化。 |
|
对由多个输入平面组成的输入信号应用二维自适应平均池化。 |
|
对由多个输入平面组成的输入信号应用 3D 自适应平均池化。 |
Padding 层 (别名)#
使用输入边界的反射来填充输入张量。 |
|
使用输入边界的反射来填充输入张量。 |
|
使用输入边界的反射来填充输入张量。 |
|
使用输入边界的复制来填充输入张量。 |
|
使用输入边界的复制来填充输入张量。 |
|
使用输入边界的复制来填充输入张量。 |
|
用零填充输入张量边界。 |
|
用零填充输入张量边界。 |
|
用零填充输入张量边界。 |
|
用常数值填充输入张量边界。 |
|
用常数值填充输入张量边界。 |
|
用常数值填充输入张量边界。 |
|
使用输入边界的循环填充来填充输入张量。 |
|
使用输入边界的循环填充来填充输入张量。 |
|
使用输入边界的循环填充来填充输入张量。 |
非线性激活函数 (加权和、非线性) (别名)#
逐元素应用指数线性单元 (ELU) 函数。 |
|
逐元素应用 Hard Shrinkage (Hardshrink) 函数。 |
|
逐元素应用 Hardsigmoid 函数。 |
|
逐元素应用 HardTanh 函数。 |
|
逐元素应用 Hardswish 函数。 |
|
逐元素应用 LeakyReLU 函数。 |
|
逐元素应用 Logsigmoid 函数。 |
|
允许模型联合关注来自不同表示子空间的信息。 |
|
应用逐元素的 PReLU 函数。 |
|
逐元素应用线性整流单元函数。 |
|
逐元素应用 ReLU6 函数。 |
|
逐元素应用随机的 Leaky Rectified Linear Unit 函数。 |
|
逐元素应用 SELU 函数。 |
|
逐元素应用 CELU 函数。 |
|
应用高斯误差线性单元函数。 |
|
逐元素应用 Sigmoid 函数。 |
|
逐元素应用 Sigmoid 线性单元 (SiLU) 函数。 |
|
逐元素应用 Mish 函数。 |
|
逐元素应用 Softplus 函数。 |
|
逐元素应用 soft shrinkage 函数。 |
|
逐元素应用 Softsign 函数。 |
|
逐元素应用双曲正切 (Tanh) 函数。 |
|
逐元素应用 Tanhshrink 函数。 |
|
对输入 Tensor 的每个元素进行阈值处理。 |
|
应用门控线性单元函数。 |
非线性激活函数 (其他) (别名)#
对 n 维输入 Tensor 应用 Softmin 函数。 |
|
将 Softmax 函数应用于 n 维输入张量。 |
|
对每个空间位置应用特征上的 SoftMax。 |
|
对 n 维输入 Tensor 应用 函数。 |
|
高效的 softmax 近似。 |
归一化层 (别名)#
对 2D 或 3D 输入应用批归一化。 |
|
对 4D 输入应用 Batch Normalization。 |
|
对 5D 输入应用批归一化。 |
|
一个带有懒初始化的 |
|
一个带有懒初始化的 |
|
一个带有懒初始化的 |
|
对输入的小批量应用组归一化。 |
|
对 N 维输入应用批归一化。 |
|
应用实例归一化。 |
|
应用实例归一化。 |
|
应用实例归一化。 |
|
一个带有 |
|
一个带有 |
|
一个带有 |
|
对输入 mini-batch 应用层归一化。 |
|
对输入信号应用局部响应归一化。 |
|
对输入的小批量应用均方根层归一化。 |
循环层 (别名)#
RNN 模块(RNN、LSTM、GRU)的基类。 |
|
对输入序列应用多层 Elman RNN,使用 或 非线性。 |
|
对输入序列应用多层长短期记忆 (LSTM) RNN。 |
|
对输入序列应用多层门控循环单元 (GRU) RNN。 |
|
一个具有 tanh 或 ReLU 非线性的 Elman RNN 单元。 |
|
一个长短期记忆 (LSTM) 单元。 |
|
一个门控循环单元 (GRU) 单元。 |
Transformer 层 (别名)#
一个基本的 Transformer 层。 |
|
TransformerEncoder 是 N 个编码器层的堆栈。 |
|
TransformerDecoder 是 N 个解码器层的堆栈。 |
|
TransformerEncoderLayer 由自注意力机制和前馈网络组成。 |
|
TransformerDecoderLayer 由自注意力、多头注意力和前馈网络组成。 |
线性层 (别名)#
一个占位符身份算子,对参数不敏感。 |
|
对输入数据应用仿射线性变换:. |
|
对输入数据应用双线性变换:. |
|
一个 |
Dropout 层 (别名)#
在训练期间,以概率 |
|
随机将整个通道置零。 |
|
随机将整个通道置零。 |
|
随机将整个通道置零。 |
|
对输入应用 Alpha Dropout。 |
|
随机屏蔽整个通道。 |
稀疏层 (别名)#
一个简单的查找表,存储固定词汇表和大小的嵌入。 |
|
计算嵌入“包”的和或平均值,无需实例化中间嵌入。 |
距离函数 (别名)#
沿 dim 计算 和 之间的余弦相似度。 |
|
计算输入向量之间的成对距离,或输入矩阵列之间的成对距离。 |
损失函数 (别名)#
创建一个标准,用于衡量输入 和目标 之间每个元素的平均绝对误差 (MAE)。 |
|
创建一个标准,用于衡量输入 和目标 之间每个元素的平均平方误差(平方 L2 范数)。 |
|
此准则计算输入 logits 和 target 之间的交叉熵损失。 |
|
连接主义时间分类损失。 |
|
负对数似然损失。 |
|
目标为泊松分布时的负对数似然损失。 |
|
高斯负对数似然损失。 |
|
Kullback-Leibler 散度损失。 |
|
创建一个准则,用于衡量目标值与输入概率之间的二元交叉熵。 |
|
此损失将 Sigmoid 层和 BCELoss 结合在一个类中。 |
|
创建了一个标准,用于衡量输入 、(两个一维 mini-batch 或 0D Tensor)和一个标签一维 mini-batch 或 0D Tensor (包含 1 或 -1)之间的损失。 |
|
衡量输入张量 和标签张量 (包含 1 或 -1)之间的损失。 |
|
创建一个标准,用于优化输入 (一个二维 mini-batch Tensor)和输出 (目标类别索引的二维 Tensor)之间的多类多分类合页损失(基于边距的损失)。 |
|
创建一个标准,当元素级绝对误差小于 delta 时使用平方项,否则使用 delta 缩放的 L1 项。 |
|
创建一个标准,当元素级绝对误差小于 beta 时使用平方项,否则使用 L1 项。 |
|
创建一个标准,用于优化输入 Tensor 和目标 Tensor (包含 1 或 -1)之间的二分类逻辑损失。 |
|
创建一个标准,用于优化输入 和大小为 的目标 之间的基于最大熵的多标签 one-versus-all 损失。 |
|
创建一个标准,用于衡量输入张量 、 和值为 1 或 -1 的标签 Tensor 之间的损失。 |
|
创建一个标准,用于优化输入 (一个二维 mini-batch Tensor)和输出 (目标类别索引的一维张量,)之间的多类合页损失(基于边距的损失)。 |
|
创建一个标准,用于衡量输入张量 、、 和一个大于 的边距之间的三元组损失。 |
|
创建一个标准,用于衡量输入张量 (锚点)、(正例)和 (负例)以及用于计算锚点与正例之间关系(“正距离”)和锚点与负例之间关系(“负距离”)的非负实值函数(“距离函数”)之间的三元组损失。 |
视觉层 (别名)#
根据上采样因子重新排列张量中的元素。 |
|
PixelShuffle 操作的逆操作。 |
|
对给定的多通道一维(时间)、二维(空间)或三维(体积)数据进行上采样。 |
|
对由多个输入通道组成的输入信号应用 2D 最近邻上采样。 |
|
对由多个输入通道组成的输入信号应用 2D 双线性上采样。 |
Shuffle 层 (别名)#
分割并重新排列张量中的通道。 |
torch.nn.utils#
以下是在嵌套命名空间中 torch.nn.utils
的对应项的别名。
用于裁剪参数梯度的实用函数。
对可迭代参数的梯度范数进行裁剪。 |
|
对可迭代参数的梯度范数进行裁剪。 |
|
将参数可迭代对象中的梯度裁剪到指定值。 |
用于将 Module 参数展平成单个向量以及从单个向量展开 Module 参数的实用函数。
将参数可迭代对象展平成单个向量。 |
|
将一个向量的切片复制到参数的可迭代对象中。 |
用于融合 Module 和 BatchNorm Module 的实用函数。
将卷积模块和 BatchNorm 模块融合为一个新的卷积模块。 |
|
将卷积模块参数和 BatchNorm 模块参数融合到新的卷积模块参数中。 |
|
将线性模块和 BatchNorm 模块融合为一个新的线性模块。 |
|
将线性模块参数和 BatchNorm 模块参数融合为新的线性模块参数。 |
用于转换 Module 参数内存格式的实用函数。
将 |
|
将 |
用于对 Module 参数应用和移除权重归一化的实用函数。
对给定模块中的参数应用权重归一化。 |
|
从模块中移除权重归一化重参数化。 |
|
对给定模块中的参数应用谱归一化。 |
|
从模块中移除谱归一化重参数化。 |
用于初始化 Module 参数的实用函数。
给定一个模块类对象和参数/关键字参数,在不初始化参数/缓冲区的情况下实例化模块。 |