LogSoftmax# class torch.nn.LogSoftmax(dim=None)[source]# Applies the log(Softmax)\log(\text{Softmax})log(Softmax) 函数到 n 维输入张量。 LogSoftmax 公式可以简化为 LogSoftmax(xi)=log(exp(xi)∑jexp(xj))\text{LogSoftmax}(x_{i}) = \log\left(\frac{\exp(x_i) }{ \sum_j \exp(x_j)} \right) LogSoftmax(xi)=log(∑jexp(xj)exp(xi)) 形状 输入: (∗)(*)(∗),其中 * 表示任意数量的附加维度 输出: (∗)(*)(∗),形状与输入相同 参数 dim (int) – 计算 LogSoftmax 的维度。 返回 与输入具有相同维度和形状的张量,值为 [-inf, 0) 范围。 返回类型 无 示例 >>> m = nn.LogSoftmax(dim=1) >>> input = torch.randn(2, 3) >>> output = m(input)
LogSoftmax# class torch.nn.LogSoftmax(dim=None)[source]# Applies the log(Softmax)\log(\text{Softmax})log(Softmax) 函数到 n 维输入张量。 LogSoftmax 公式可以简化为 LogSoftmax(xi)=log(exp(xi)∑jexp(xj))\text{LogSoftmax}(x_{i}) = \log\left(\frac{\exp(x_i) }{ \sum_j \exp(x_j)} \right) LogSoftmax(xi)=log(∑jexp(xj)exp(xi)) 形状 输入: (∗)(*)(∗),其中 * 表示任意数量的附加维度 输出: (∗)(*)(∗),形状与输入相同 参数 dim (int) – 计算 LogSoftmax 的维度。 返回 与输入具有相同维度和形状的张量,值为 [-inf, 0) 范围。 返回类型 无 示例 >>> m = nn.LogSoftmax(dim=1) >>> input = torch.randn(2, 3) >>> output = m(input)