评价此页

torch.addmm#

torch.addmm(input, mat1, mat2, out_dtype=None, *, beta=1, alpha=1, out=None) Tensor#

执行 mat1mat2 的矩阵乘法。矩阵 input 被加到最终结果中。

如果 mat1 是一个 (n×m)(n \times m) 张量,mat2 是一个 (m×p)(m \times p) 张量,那么 input 必须与 (n×p)(n \times p) 张量 可广播,并且 out 将是一个 (n×p)(n \times p) 张量。

alphabeta 分别是 mat1mat2 之间的矩阵向量积,以及被加矩阵 input 的缩放因子。

out=β input+α (mat1i@mat2i)\text{out} = \beta\ \text{input} + \alpha\ (\text{mat1}_i \mathbin{@} \text{mat2}_i)

如果 beta 为 0,则 input 的内容将被忽略,并且其中的 naninf 不会被传播。

对于 FloatTensorDoubleTensor 类型的输入,参数 betaalpha 必须是实数,否则它们应该是整数。

此操作支持带有 稀疏布局 的参数。如果 input 是稀疏的,则结果将具有相同的布局;如果提供了 out,则它必须与 input 具有相同的布局。

警告

稀疏支持是测试版功能,某些布局/数据类型/设备组合可能不支持,或可能不支持自动求导。如果您发现缺少功能,请提交功能请求。

此操作符支持TensorFloat32

在某些 ROCm 设备上,当使用 float16 输入时,此模块将对反向传播使用不同精度

参数
  • input (Tensor) – 要添加的矩阵

  • mat1 (Tensor) – 要进行矩阵乘法的第一个矩阵

  • mat2 (Tensor) – 要进行矩阵乘法的第二个矩阵

  • out_dtype (dtype, optional) – 输出张量的 dtype,仅在 CUDA 上受支持,并且当输入 dtype 为 torch.float16/torch.bfloat16 时支持 torch.float32

关键字参数
  • beta (Number, optional) – input 的乘数(β\beta

  • alpha (Number, optional) – mat1@mat2mat1 @ mat2 的乘数(α\alpha

  • out (Tensor, optional) – 输出张量。

示例

>>> M = torch.randn(2, 3)
>>> mat1 = torch.randn(2, 3)
>>> mat2 = torch.randn(3, 3)
>>> torch.addmm(M, mat1, mat2)
tensor([[-4.8716,  1.4671, -1.3746],
        [ 0.7573, -3.9555, -2.8681]])