PReLU#
- class torch.nn.modules.activation.PReLU(num_parameters=1, init=0.25, device=None, dtype=None)[源代码]#
应用逐元素的 PReLU 函数。
或
其中 是一个可学习的参数。当不带参数调用时,nn.PReLU() 使用一个参数 作用于所有输入通道。如果使用 nn.PReLU(nChannels) 调用,则每个输入通道都有一个独立的 。
注意
为了获得良好的性能,在学习 时,不应使用权重衰减。
注意
通道维度是输入的第二个维度。当输入维度小于 2 时,则没有通道维度,通道数为 1。
- 形状
输入:,其中 * 表示任何数量的附加维度。
输出: ,形状与输入相同。
- 变量
weight (Tensor) – 形状为 (
num_parameters
) 的可学习权重。
示例
>>> m = nn.PReLU() >>> input = torch.randn(2) >>> output = m(input)