MultiLabelSoftMarginLoss#
- class torch.nn.MultiLabelSoftMarginLoss(weight=None, size_average=None, reduce=None, reduction='mean')[源]#
创建了一个准则,用于优化基于最大熵的多标签“一对多”损失,介于输入 和目标 之间,大小为 。对于小批量中的每个样本
其中 , 。
- 参数:
weight (Tensor, optional) – 手动为每个类别指定的重缩放权重。如果指定,它必须是一个大小为 C 的张量。否则,假定其所有元素为 1。
size_average (bool, optional) – 已弃用 (参见
reduction)。默认情况下,损失值在批次中的每个损失元素上取平均值。请注意,对于某些损失,每个样本有多个元素。如果字段size_average设置为False,则损失值在每个小批次中而是求和。当reduce为False时忽略。默认值:Truereduce (bool, optional) – 已弃用 (参见
reduction)。默认情况下,损失值在每个小批次中根据size_average对观测值进行平均或求和。当reduce为False时,返回每个批次元素的损失值,并忽略size_average。默认值:Truereduction (str, optional) – 指定要应用于输出的缩减方式:
'none'|'mean'|'sum'。'none': 不应用任何缩减,'mean': 输出的总和将除以输出中的元素数量,'sum': 输出将被求和。注意:size_average和reduce正在被弃用,在此期间,指定这两个参数中的任何一个都将覆盖reduction。默认值:'mean'
- 形状
输入: 其中 N 是批量大小,C 是类别数量。
目标: ,标签目标必须与输入具有相同的形状。
输出:标量。如果
reduction是'none',则为 。
示例
>>> loss = nn.MultiLabelSoftMarginLoss() >>> input = torch.randn(3, 5, requires_grad=True) >>> target = torch.empty(3, 5).random_(2) >>> output = loss(input, target) >>> output.backward()