评价此页

torch.nn.functional.embedding#

torch.nn.functional.embedding(input, weight, padding_idx=None, max_norm=None, norm_type=2.0, scale_grad_by_freq=False, sparse=False)[source]#

生成一个简单的查找表,用于从固定字典和大小中查找嵌入。

该模块通常用于使用索引检索词嵌入。该模块的输入是索引列表和嵌入矩阵,输出是对应的词嵌入。

有关更多详细信息,请参见 torch.nn.Embedding

注意

请注意,此函数相对于 weight 中由 padding_idx 指定的行的解析梯度,预计将与数值梯度有所不同。

注意

请注意,与此函数不同的是,:class:`torch.nn.Embedding` 在构造时会将 weight 中由 padding_idx 指定的行初始化为全零。

参数
  • input (LongTensor) – 包含嵌入矩阵索引的张量

  • weight (Tensor) – 嵌入矩阵,其行数等于最大可能索引加 1,列数等于嵌入大小

  • padding_idx (int, optional) – 如果指定,则 padding_idx 处的条目不对梯度做出贡献;因此,padding_idx 处的嵌入向量在训练期间不会被更新,即它仍然是一个固定的“填充”项。

  • max_norm (float, optional) – 如果给定,则范数大于 max_norm 的每个嵌入向量将被重新归一化为范数 max_norm。注意:这将就地修改 weight

  • norm_type (float, optional) – max_norm 选项中用于计算 p-范数的 p 值。默认为 2

  • scale_grad_by_freq (bool, optional) – 如果给定,这将通过词在小批量中的频率的倒数来缩放梯度。默认为 False

  • sparse (bool, optional) – 如果为 True,则关于 weight 的梯度将是一个稀疏张量。有关稀疏梯度的更多详细信息,请参阅 torch.nn.Embedding 下的“Notes”。

返回类型

张量

形状
  • 输入:任意形状的 LongTensor,包含要提取的索引

  • 权重:形状为 (V, embedding_dim) 的浮点类型嵌入矩阵,其中 V = 最大索引 + 1,embedding_dim = 嵌入大小

  • 输出:(*, embedding_dim),其中 * 是输入形状

示例

>>> # a batch of 2 samples of 4 indices each
>>> input = torch.tensor([[1, 2, 4, 5], [4, 3, 2, 9]])
>>> # an embedding matrix containing 10 tensors of size 3
>>> embedding_matrix = torch.rand(10, 3)
>>> F.embedding(input, embedding_matrix)
tensor([[[ 0.8490,  0.9625,  0.6753],
         [ 0.9666,  0.7761,  0.6108],
         [ 0.6246,  0.9751,  0.3618],
         [ 0.4161,  0.2419,  0.7383]],

        [[ 0.6246,  0.9751,  0.3618],
         [ 0.0237,  0.7794,  0.0528],
         [ 0.9666,  0.7761,  0.6108],
         [ 0.3385,  0.8612,  0.1867]]])

>>> # example with padding_idx
>>> weights = torch.rand(10, 3)
>>> weights[0, :].zero_()
>>> embedding_matrix = weights
>>> input = torch.tensor([[0, 2, 0, 5]])
>>> F.embedding(input, embedding_matrix, padding_idx=0)
tensor([[[ 0.0000,  0.0000,  0.0000],
         [ 0.5609,  0.5384,  0.8720],
         [ 0.0000,  0.0000,  0.0000],
         [ 0.6262,  0.2438,  0.7471]]])