torch.masked#
创建于: Aug 15, 2022 | 最后更新于: Jun 17, 2025
简介#
动机#
警告
PyTorch 中带掩码张量的 API 处于原型阶段,未来可能会更改。
MaskedTensor 作为 torch.Tensor 的扩展,为用户提供了使用任何带掩码语义(例如可变长度张量、nan* 运算符等)的能力,
使用任何带掩码语义(例如可变长度张量、nan* 运算符等)
区分 0 和 NaN 梯度
各种稀疏应用(参见下面的教程)
“指定”和“未指定”在 PyTorch 中有着悠久的历史,但没有正式的语义,更不用说一致性了;事实上,MaskedTensor 的诞生源于 vanilla torch.Tensor 类无法妥善解决的一系列问题。因此,MaskedTensor 的首要目标是成为 PyTorch 中所述“指定”和“未指定”值的权威来源,使其成为一等公民而不是事后考虑。反过来,这应该进一步释放稀疏性的潜力,实现更安全、更一致的运算符,并为用户和开发人员提供更顺畅、更直观的体验。
什么是 MaskedTensor?#
MaskedTensor 是一个张量子类,由 1) 输入(数据)和 2) 掩码组成。掩码告诉我们应包含或忽略输入中的哪些条目。
举例来说,假设我们想屏蔽所有等于 0 的值(用灰色表示)并取最大值
顶部是 vanilla 张量示例,底部是 MaskedTensor,其中所有 0 都被屏蔽。这清楚地表明结果取决于我们是否具有掩码,但这种灵活的结构允许用户在计算过程中系统地忽略他们想要的任何元素。
我们已经编写了一些现有的教程来帮助用户入门,例如
支持的运算符#
一元运算符#
一元运算符是只包含一个输入的运算符。将它们应用于 MaskedTensors 相对简单:如果数据在给定索引处被屏蔽,我们会应用该运算符,否则我们将继续屏蔽数据。
可用的一元运算符是
计算 |
|
是 |
|
返回一个新张量,其中包含 |
|
是 |
|
返回一个新张量,其中包含 |
|
是 |
|
计算给定 |
|
返回一个新张量,其中包含 |
|
是 |
|
返回一个新张量,其中包含 |
|
是 |
|
返回一个新张量,其中包含 |
|
是 |
|
返回一个新张量,其中包含 |
|
是 |
|
计算给定输入张量的按位非。 |
|
返回一个新张量,其中包含 |
|
是 |
|
计算给定 |
|
返回一个新张量,其中包含 |
|
返回一个新张量,其中包含 |
|
返回一个新张量,其中 |
|
是 |
|
是 |
|
是 |
|
是 |
|
返回一个新张量,其元素是输入张量 |
|
是 |
|
是 |
|
是 |
|
返回一个新张量,其中包含 |
|
计算 |
|
计算 |
|
返回一个新张量,其中包含 |
|
返回一个新张量,其中包含 |
|
返回一个新张量,其中包含(1 + |
|
返回一个新张量,其中包含 |
|
是 |
|
是 |
|
返回一个新张量,其中包含布尔元素,表示 |
|
分别用 |
|
返回一个新张量,其中包含 |
|
是 |
|
返回 |
|
计算 |
|
返回一个新张量,其中 |
|
返回一个新张量,其中包含 |
|
将 |
|
返回一个新张量,其中包含 |
|
是 |
|
返回一个新张量,其中包含 |
|
此函数是 torch.sign() 对复数张量的扩展。 |
|
测试 |
|
返回一个新张量,其中包含 |
|
是 |
|
返回一个新张量,其中包含 |
|
返回一个新张量,其中包含 |
|
返回一个新张量,其中包含 |
|
返回一个新张量,其中包含 |
|
返回一个新张量,其元素是 |
|
返回一个新张量,其中包含 |
可用的就地一元运算符是以上所有运算符,但不包括
二元运算符#
正如您在教程中可能看到的那样,MaskedTensor 也实现了二元运算,但前提是两个 MaskedTensor 中的掩码必须匹配,否则将引发错误。如错误所示,如果您需要对特定运算符的支持,或者对它们的行为方式有建议的语义,请在 GitHub 上提出问题。目前,我们决定采用最保守的实现,以确保用户确切地知道正在发生什么,并在带掩码语义的决策上是有意为之的。
可用的二元运算符是
将 |
|
在考虑象限的情况下,对 进行的逐元素反正切,并考虑象限。 |
|
是 |
|
计算 |
|
计算 |
|
计算 |
|
计算 |
|
计算 |
|
将输入 |
|
是 |
|
逐元素应用 C++ 的 std::fmod。 |
|
输入指数和的对数。 |
|
以2为底的输入指数和的对数。 |
|
将 |
|
是 |
|
返回 |
|
逐元素计算 Python 的模数运算。 |
|
从 |
|
是 |
|
是 |
|
计算逐元素相等 |
|
逐元素计算 。 |
|
逐元素计算 。 |
|
逐元素计算 。 |
|
是 |
|
是 |
|
逐元素计算 。 |
|
是 |
|
逐元素计算 。 |
|
是 |
|
计算 |
|
计算 |
|
计算 |
|
计算 |
|
是 |
可用的就地二元运算符是以上所有运算符,但不包括
归约#
可用的归约操作如下(支持自动微分)。有关更多信息,概述教程介绍了一些归约示例,而高级语义教程对我们如何确定某些归约语义进行了更深入的讨论。
视图和选择函数#
我们还包含了一些视图和选择函数;直观地说,这些运算符将应用于数据和掩码,然后将结果包装在 MaskedTensor 中。快速示例,请考虑 select()
>>> data = torch.arange(12, dtype=torch.float).reshape(3, 4)
>>> data
tensor([[ 0., 1., 2., 3.],
[ 4., 5., 6., 7.],
[ 8., 9., 10., 11.]])
>>> mask = torch.tensor([[True, False, False, True], [False, True, False, False], [True, True, True, True]])
>>> mt = masked_tensor(data, mask)
>>> data.select(0, 1)
tensor([4., 5., 6., 7.])
>>> mask.select(0, 1)
tensor([False, True, False, False])
>>> mt.select(0, 1)
MaskedTensor(
[ --, 5.0000, --, --]
)
当前支持以下操作
返回每个输入张量的一维视图,其中零维度。 |
|
根据 广播语义 广播给定的张量。 |
|
将 |
|
沿给定维度连接 |
|
尝试将张量分割成指定数量的块。 |
|
通过水平堆叠 |
|
根据 |
|
通过将 |
|
根据 |
|
按水平(列方向)顺序堆叠张量。 |
|
计算 |
|
创建由 attr:tensors 中一维输入指定的坐标网格。 |
|
返回 |
|
从批量输入张量中提取滑动局部块。 |
|
返回一个连续的展平张量。 |
|
在选定维度上的给定索引处切片 |
|
将张量分割成块。 |
|
沿新维度连接一系列张量。 |
|
期望 |
|
返回 |
|
根据 |
|
按垂直(行方向)顺序堆叠张量。 |
|
返回 |
|
将此张量扩展到与 |
|
返回一个与 |
|
将此张量以与 |
|
返回原始张量的视图,其中包含 |
|
返回一个新张量,其数据与 |