torch.nn.functional.binary_cross_entropy_with_logits#
- torch.nn.functional.binary_cross_entropy_with_logits(input, target, weight=None, size_average=None, reduce=None, reduction='mean', pos_weight=None)[source]#
使用 logits 计算二元交叉熵,目标值和输入值之间。
详情请参阅
BCEWithLogitsLoss
。- 参数
input (Tensor) – 任意形状的张量,包含未归一化的分数(通常称为 logits)。
target (Tensor) – 与 input 具有相同形状的张量,值在 0 和 1 之间。
weight (Tensor, optional) – 如果提供,则手动进行重缩放,它会被重复以匹配 input 张量的形状。
size_average (bool, optional) – 已弃用(请参阅
reduction
)。reduce (bool, optional) – 已弃用(请参阅
reduction
)。reduction (str, optional) – 指定要应用于输出的约简:
'none'
|'mean'
|'sum'
。'none'
:不执行约简,'mean'
:输出的总和除以输出中的元素数量,'sum'
:将输出求和。注意:size_average
和reduce
正在被弃用,在此期间,指定这两个参数中的任何一个都将覆盖reduction
。默认值:'mean'
pos_weight (Tensor, 可选) – positive examples 的权重,将与 target 进行广播。必须是一个在类别维度上大小与类别数量相等的张量。请密切注意 PyTorch 的广播语义,以实现所需的操作。对于大小为 [B, C, H, W] (其中 B 是 batch size) 的 target,大小为 [B, C, H, W] 的 pos_weight 将为 batch 的每个元素应用不同的 pos_weight,或者 [C, H, W] 将为 batch 中的所有元素应用相同的 pos_weight。要为 2D 多类别 target [C, H, W] 应用沿所有空间维度的相同 positive weight,请使用:[C, 1, 1]。默认值:
None
- 返回类型
示例
>>> input = torch.randn(3, requires_grad=True) >>> target = torch.empty(3).random_(2) >>> loss = F.binary_cross_entropy_with_logits(input, target) >>> loss.backward()