评价此页

张量视图#

创建日期:2020年2月28日 | 最后更新日期:2025年2月26日

PyTorch 允许张量作为现有张量的 视图。视图张量与其基础张量共享相同的底层数据。支持 视图 避免了显式数据复制,从而使我们能够快速且内存高效地进行重塑、切片和元素级操作。

例如,要获取现有张量 t 的视图,您可以调用 t.view(...)

>>> t = torch.rand(4, 4)
>>> b = t.view(2, 8)
>>> t.storage().data_ptr() == b.storage().data_ptr()  # `t` and `b` share the same underlying data.
True
# Modifying view tensor changes base tensor as well.
>>> b[0][0] = 3.14
>>> t[0][0]
tensor(3.14)

由于视图与基础张量共享底层数据,因此如果您编辑视图中的数据,它也会反映在基础张量中。

通常 PyTorch 操作返回一个新张量作为输出,例如 add()。但在视图操作的情况下,输出是输入张量的视图,以避免不必要的数据复制。创建视图时不会发生数据移动,视图张量只是改变了它解释相同数据的方式。对连续张量进行视图操作可能会产生不连续张量。用户应格外注意,因为连续性可能会对性能产生隐式影响。transpose() 是一个常见的例子。

>>> base = torch.tensor([[0, 1],[2, 3]])
>>> base.is_contiguous()
True
>>> t = base.transpose(0, 1)  # `t` is a view of `base`. No data movement happened here.
# View tensors might be non-contiguous.
>>> t.is_contiguous()
False
# To get a contiguous tensor, call `.contiguous()` to enforce
# copying data when `t` is not contiguous.
>>> c = t.contiguous()

作为参考,以下是 PyTorch 中视图操作的完整列表:

注意

通过索引访问张量内容时,PyTorch 遵循 Numpy 的行为,即基本索引返回视图,而高级索引返回副本。通过基本或高级索引进行的赋值都是就地操作。有关更多示例,请参阅 Numpy 索引文档

还有一些具有特殊行为的操作值得一提:

  • reshape()reshape_as()flatten() 可能会返回视图或新张量,用户代码不应依赖于它是否是视图。

  • contiguous() 如果输入张量已经连续,则返回其本身,否则通过复制数据返回一个新的连续张量。

有关 PyTorch 内部实现的更详细介绍,请参阅 ezyang 关于 PyTorch 内部的博客文章