评价此页

torch.nn.functional.binary_cross_entropy_with_logits#

torch.nn.functional.binary_cross_entropy_with_logits(input, target, weight=None, size_average=None, reduce=None, reduction='mean', pos_weight=None)[source]#

使用 logits 计算二元交叉熵,目标值和输入值之间。

详情请参阅 BCEWithLogitsLoss

参数
  • input (Tensor) – 任意形状的张量,包含未归一化的分数(通常称为 logits)。

  • target (Tensor) – 与 input 具有相同形状的张量,值在 0 和 1 之间。

  • weight (Tensor, optional) – 如果提供,则手动进行重缩放,它会被重复以匹配 input 张量的形状。

  • size_average (bool, optional) – 已弃用(请参阅 reduction)。

  • reduce (bool, optional) – 已弃用(请参阅 reduction)。

  • reduction (str, optional) – 指定要应用于输出的约简:'none' | 'mean' | 'sum''none':不执行约简,'mean':输出的总和除以输出中的元素数量,'sum':将输出求和。注意:size_averagereduce 正在被弃用,在此期间,指定这两个参数中的任何一个都将覆盖 reduction。默认值:'mean'

  • pos_weight (Tensor, 可选) – positive examples 的权重,将与 target 进行广播。必须是一个在类别维度上大小与类别数量相等的张量。请密切注意 PyTorch 的广播语义,以实现所需的操作。对于大小为 [B, C, H, W] (其中 B 是 batch size) 的 target,大小为 [B, C, H, W] 的 pos_weight 将为 batch 的每个元素应用不同的 pos_weight,或者 [C, H, W] 将为 batch 中的所有元素应用相同的 pos_weight。要为 2D 多类别 target [C, H, W] 应用沿所有空间维度的相同 positive weight,请使用:[C, 1, 1]。默认值:None

返回类型

张量

示例

>>> input = torch.randn(3, requires_grad=True)
>>> target = torch.empty(3).random_(2)
>>> loss = F.binary_cross_entropy_with_logits(input, target)
>>> loss.backward()