torch.empty_like#
- torch.empty_like(input, *, dtype=None, layout=None, device=None, requires_grad=False, memory_format=torch.preserve_format) Tensor #
返回一个大小与 `input` 相同的未初始化张量。`torch.empty_like(input)` 等价于 `torch.empty(input.size(), dtype=input.dtype, layout=input.layout, device=input.device)`。
注意
如果
torch.use_deterministic_algorithms()
和torch.utils.deterministic.fill_uninitialized_memory
都设置为True
,则输出张量会被初始化,以防止使用数据作为操作输入的任何可能的非确定性行为。浮点数和复数张量将填充 NaN,整数张量将填充最大值。当使用 `torch.preserve_format` 时:如果输入张量是稠密的(即非重叠跨步),则会保留其内存格式(包括跨步)。否则(例如,非稠密视图,如步进切片),输出将被转换为稠密格式。
- 参数
input (Tensor) –
input
的大小将决定输出张量的大小。- 关键字参数
dtype (
torch.dtype
, optional) – 返回的 Tensor 的所需数据类型。默认值:如果None
,则默认为input
的 dtype。layout (
torch.layout
, optional) – 返回的张量的所需布局。默认值:如果None
,则默认为input
的布局。device (
torch.device
, optional) – 返回的张量的所需设备。默认值:如果None
,则默认为input
的设备。requires_grad (bool, optional) – 如果 autograd 应记录在返回的张量上的操作。默认值:
False
。memory_format (
torch.memory_format
, optional) – 返回的 Tensor 的所需内存格式。默认值:torch.preserve_format
。
示例
>>> a=torch.empty((2,3), dtype=torch.int32, device = 'cuda') >>> torch.empty_like(a) tensor([[0, 0, 0], [0, 0, 0]], device='cuda:0', dtype=torch.int32)