评价此页

Bilinear#

class torch.nn.Bilinear(in1_features, in2_features, out_features, bias=True, device=None, dtype=None)[源代码]#

对输入数据应用双线性变换: y=x1TAx2+by = x_1^T A x_2 + b.

参数
  • in1_features (int) – 每个第一个输入的样本大小,必须大于 0

  • in2_features (int) – 每个第二个输入的样本大小,必须大于 0

  • out_features (int) – 每个输出的样本大小,必须大于 0

  • bias (bool) – 如果设置为 False,则该层将不学习加性偏置。默认值:True

形状
  • 输入1: (,Hin1)(*, H_\text{in1}) 其中 Hin1=in1_featuresH_\text{in1}=\text{in1\_features}* 表示零个或多个附加维度。输入的所有维度(除了最后一个)都必须相同。

  • 输入2: (,Hin2)(*, H_\text{in2}) 其中 Hin2=in2_featuresH_\text{in2}=\text{in2\_features}

  • 输出: (,Hout)(*, H_\text{out}) 其中 Hout=out_featuresH_\text{out}=\text{out\_features} 和除最后一个维度外的所有维度形状与输入相同。

变量
  • weight (torch.Tensor) – 模块的可学习权重,形状为 (out_features,in1_features,in2_features)(\text{out\_features}, \text{in1\_features}, \text{in2\_features})。值从 U(k,k)\mathcal{U}(-\sqrt{k}, \sqrt{k}), 其中 k=1in1_featuresk = \frac{1}{\text{in1\_features}}

  • bias – 模块的可学习偏置,形状为 (out_features)(\text{out\_features})。如果 biasTrue,则值从 U(k,k)\mathcal{U}(-\sqrt{k}, \sqrt{k}), 其中 k=1in1_featuresk = \frac{1}{\text{in1\_features}}

示例

>>> m = nn.Bilinear(20, 30, 40)
>>> input1 = torch.randn(128, 20)
>>> input2 = torch.randn(128, 30)
>>> output = m(input1, input2)
>>> print(output.size())
torch.Size([128, 40])
extra_repr()[源代码]#

返回模块的额外表示。

返回类型

str

forward(input1, input2)[源代码]#

执行前向传播。

返回类型

张量

reset_parameters()[源代码]#

根据 __init__ 中使用的初始化重置参数。