评价此页

torch#

创建日期:2016 年 12 月 23 日 | 最后更新日期:2025 年 7 月 22 日

torch 包包含多维张量的数据结构,并定义了这些张量上的数学运算。此外,它还提供了许多用于高效序列化张量和任意类型的实用工具,以及其他有用的工具。

它有一个 CUDA 对应项,可让您在计算能力 >= 3.0 的 NVIDIA GPU 上运行张量计算。

张量#

is_tensor

如果 obj 是 PyTorch 张量,则返回 True。

is_storage

如果 obj 是 PyTorch 存储对象,则返回 True。

is_complex

如果 input 的数据类型是复数数据类型,即 torch.complex64torch.complex128 之一,则返回 True。

is_conj

如果 input 是共轭张量,即其共轭位设置为 True,则返回 True。

is_floating_point

如果 input 的数据类型是浮点数据类型,即 torch.float64torch.float32torch.float16torch.bfloat16 之一,则返回 True。

is_nonzero

如果 input 是一个单元素张量,并且在类型转换后不等于零,则返回 True。

set_default_dtype

将默认浮点 dtype 设置为 d

get_default_dtype

获取当前的默认浮点 torch.dtype

set_default_device

将默认 torch.Tensor 设置为分配在 device 上。

get_default_device

获取默认 torch.Tensor 分配的 device

set_default_tensor_type

numel

input 张量的总元素数。

set_printoptions

设置打印选项。

set_flush_denormal

禁用 CPU 上的 denormal 浮点数。

创建操作#

注意

随机采样创建操作列在 随机采样 下,包括: torch.rand() torch.rand_like() torch.randn() torch.randn_like() torch.randint() torch.randint_like() torch.randperm() 您也可以使用 torch.empty()原地随机采样 方法来创建从更广泛的分布中采样的 torch.Tensor

tensor

通过复制 data 来构造一个没有自动求导历史(也称为“叶子张量”,参见 自动求导机制)的张量。

sparse_coo_tensor

使用指定的 indices 处的值构造一个 COO(坐标)格式的 稀疏张量

sparse_csr_tensor

使用指定的 crow_indicescol_indices 处的值构造一个 CSR(压缩稀疏行)格式的 稀疏张量

sparse_csc_tensor

使用指定的 ccol_indicesrow_indices 处的值构造一个 CSC(压缩稀疏列)格式的 稀疏张量

sparse_bsr_tensor

使用指定的 2 维块(在 crow_indicescol_indices 处)构造一个 BSR(块压缩稀疏行)格式的 稀疏张量

sparse_bsc_tensor

使用指定的 2 维块(在 ccol_indicesrow_indices 处)构造一个 BSC(块压缩稀疏列)格式的 稀疏张量

asarray

obj 转换为张量。

as_tensor

data 转换为张量,尽可能共享数据并保留自动求导历史。

as_strided

使用指定的 sizestridestorage_offset 创建现有 torch.Tensor input 的视图。

from_file

创建一个以内存映射文件为后备的 CPU 张量。

from_numpy

numpy.ndarray 创建一个 Tensor

from_dlpack

将外部库中的张量转换为 torch.Tensor

frombuffer

从实现了 Python 缓冲区协议的对象创建一维 Tensor

zeros

返回一个填充了标量值 0 的张量,其形状由可变参数 size 定义。

zeros_like

返回一个填充了标量值 0 的张量,其大小与 input 相同。

ones

返回一个填充了标量值 1 的张量,其形状由可变参数 size 定义。

ones_like

返回一个填充了标量值 1 的张量,其大小与 input 相同。

arange

返回一个大小为 endstartstep\left\lceil \frac{\text{end} - \text{start}}{\text{step}} \right\rceil 的一维张量,其值在 [start, end) 区间内,步长为 step,从 start 开始。

range

返回一个大小为 endstartstep+1\left\lfloor \frac{\text{end} - \text{start}}{\text{step}} \right\rfloor + 1 的一维张量,其值从 startend,步长为 step

linspace

创建一个大小为 steps 的一维张量,其值在 startend 之间均匀分布,包含端点。

logspace

创建一个大小为 steps 的一维张量,其值在 basestart{{\text{{base}}}}^{{\text{{start}}}}baseend{{\text{{base}}}}^{{\text{{end}}}} 之间均匀分布,包含端点,并且以 base 为底对数标度。

eye

返回一个二维张量,对角线上为 1,其余为 0。

empty

返回一个包含未初始化数据的张量。

empty_like

返回一个大小与 input 相同但未初始化的张量。

empty_strided

创建一个具有指定 sizestride 并且包含未定义数据的张量。

full

创建一个大小为 size 且填充了 fill_value 的张量。

full_like

返回一个大小与 input 相同且填充了 fill_value 的张量。

quantize_per_tensor

将浮点张量转换为具有给定缩放和零点的量化张量。

quantize_per_channel

将浮点张量转换为具有给定缩放和零点的逐通道量化张量。

dequantize

通过对量化张量进行反量化,返回一个fp32张量。

complex

构造一个复数张量,其虚部等于 real,实部等于 imag

polar

构造一个复数张量,其元素对应于极坐标的笛卡尔坐标,其中绝对值为 abs,角度为 angle

heaviside

计算 input 中每个元素的 Heaviside 阶跃函数。

索引、切片、连接、变异操作#

adjoint

返回共轭且最后两个维度转置的张量视图。

argwhere

返回一个包含 input 中所有非零元素索引的张量。

cat

沿着给定维度连接 tensors 中的张量序列。

concat

torch.cat() 的别名。

concatenate

torch.cat() 的别名。

conj

返回一个具有翻转共轭位的 input 视图。

chunk

尝试将张量分割成指定数量的块。

dsplit

根据 indices_or_sections,将三维或更高维的张量 input 按深度方向分割成多个张量。

column_stack

通过水平堆叠tensors中的张量来创建新张量。

dstack

按顺序按深度方向(沿第三个轴)堆叠张量。

gather

沿由 dim 指定的轴收集值。

hsplit

根据 indices_or_sections,将一维或更高维的张量 input 水平分割成多个张量。

hstack

按水平(列方向)顺序堆叠张量。

index_add

参见 index_add_() 的函数描述。

index_copy

参见 index_add_() 的函数描述。

index_reduce

参见 index_reduce_() 的函数描述。

index_select

返回一个新的张量,该张量使用 index(一个 LongTensor)在 dim 维度上对 input 张量进行索引。

masked_select

返回一个新的 1D 张量,该张量根据布尔掩码 mask(一个 BoolTensor)对 input 张量进行索引。

movedim

inputsource 位置的维度移动到 destination 位置。

moveaxis

torch.movedim() 的别名。

narrow

返回一个更窄的 input 张量的视图。

narrow_copy

Tensor.narrow() 相同,但此函数返回副本而不是共享存储。

nonzero

permute

返回 input 张量在维度上排列的视图。

reshape

返回一个与 input 具有相同数据和元素数量,但形状不同的张量。

row_stack

torch.vstack() 的别名。

select

沿所选维度在给定索引处切片 input 张量。

scatter

torch.Tensor.scatter_() 的非原地版本。

diagonal_scatter

src 张量的值嵌入到 input 中,沿 input 的对角线元素,相对于 dim1dim2

select_scatter

src 张量的值嵌入到给定索引处的 input 中。

slice_scatter

src 张量的值嵌入到给定维度处的 input 中。

scatter_add

torch.Tensor.scatter_add_() 的非原地版本。

scatter_reduce

torch.Tensor.scatter_reduce_() 的非原地版本。

segment_reduce

沿指定轴对输入张量执行分段归约操作。

split

将张量分割成块。

squeeze

返回一个张量,其中 input 中尺寸为 1 的指定维度已被移除。

stack

沿新维度连接一系列张量。

swapaxes

torch.transpose() 的别名。

swapdims

torch.transpose() 的别名。

t

期望input为小于等于2维的张量,并转置维度0和1。

take

返回一个包含 input 中给定索引处元素的新张量。

take_along_dim

在给定 dim 维度上,从 input 中选择 indices 中的一维索引处的值。

tensor_split

沿维度 dim,根据 indices_or_sections 指定的索引或段数,将张量分割成多个子张量,所有子张量都是 input 的视图。

tile

通过重复 input 的元素来构造张量。

转置

返回 input 张量的转置视图。

unbind

移除张量维度。

unravel_index

将平坦索引张量转换为坐标张量元组,这些元组可以索引到任意指定形状的张量。

unsqueeze

返回一个新的张量,在指定位置插入一个大小为一的维度。

vsplit

根据 indices_or_sections,将二维或更高维的张量 input 垂直分割成多个张量。

vstack

按垂直(行方向)顺序堆叠张量。

其中

根据 condition,从 inputother 中选择元素并返回一个张量。

加速器#

在 PyTorch 仓库中,我们将“加速器”定义为与 CPU 一起用于加速计算的 torch.device。这些设备使用异步执行方案,通过 torch.Streamtorch.Event 作为同步的主要方式。我们还假设每个主机上一次只能有一个此类加速器。这使我们可以将当前加速器用作相关概念(例如,固定内存、流设备类型、FSDP 等)的默认设备。

目前,加速器设备包括(排名不分先后):“CUDA”“MTIA”“XPU”“MPS”、“HPU”和 PrivateUse1(许多不是 PyTorch 仓库本身提供的设备)。

PyTorch 生态系统中的许多工具都使用 fork 来创建子进程(例如,数据加载或内部并行化),因此,尽可能延迟任何会阻止进一步 fork 的操作非常重要。这在这里尤其重要,因为大多数加速器的初始化都会产生此类影响。实际上,您应该记住,默认情况下,检查 torch.accelerator.current_accelerator() 是编译时检查,因此始终是 fork 安全的。相反,将 check_available=True 标志传递给此函数或调用 torch.accelerator.is_available() 通常会阻止后续的 fork。

一些后端提供了一个实验性的选择加入选项,以使运行时可用性检查成为 fork 安全的。例如,在使用 CUDA 设备时,可以使用 PYTORCH_NVML_BASED_CUDA_CHECK=1

一个按先进先出 (FIFO) 顺序异步执行相应任务的有序队列。

事件

查询和记录流状态以识别或控制流之间的依赖关系并测量时间。

生成器#

生成器

创建并返回一个生成器对象,该对象管理生成伪随机数的算法的状态。

随机采样#

seed

将生成随机数的种子设置为所有设备上的非确定性随机数。

manual_seed

设置所有设备上生成随机数的种子。

initial_seed

返回生成随机数的初始种子,作为Python long类型。

get_rng_state

将随机数生成器状态作为torch.ByteTensor返回。

set_rng_state

设置随机数生成器状态。

torch.default_generator 返回 默认 CPU torch.Generator#

bernoulli

从伯努利分布中抽取二元随机数(0 或 1)。

multinomial

返回一个张量,其中每行包含从 input 张量对应行中的多项式(更严格的定义是多元,更多细节请参见 torch.distributions.multinomial.Multinomial)概率分布中抽取的 num_samples 个索引。

normal

返回一个张量,其中包含从具有给定均值和标准差的独立正态分布中抽取的随机数。

poisson

返回一个与 input 大小相同的张量,其中每个元素都从具有对应元素作为率参数的泊松分布中抽取,即:

rand

返回一个张量,其中填充了从区间 [0,1)[0, 1) 上的均匀分布中抽取的随机数。

rand_like

返回一个大小与 input 相同,并填充了从区间 [0,1)[0, 1) 上的均匀分布中抽取的随机数的张量。

randint

返回一个张量,其中填充了在 low(包含)和 high(不包含)之间均匀生成的随机整数。

randint_like

返回一个形状与张量 input 相同,并填充了在 low(包含)和 high(不包含)之间均匀生成的随机整数的张量。

randn

返回一个张量,其中填充了从均值为 0、方差为 1 的正态分布(也称为标准正态分布)中抽取的随机数。

randn_like

返回一个大小与 input 相同,并填充了从均值为 0、方差为 1 的正态分布中抽取的随机数的张量。

randperm

返回从 0n - 1 的整数的随机排列。

原地随机采样#

张量上还定义了几种原地随机采样函数。点击查看它们的文档:

拟随机采样#

quasirandom.SobolEngine

torch.quasirandom.SobolEngine 是一个生成(打乱的)Sobol 序列的引擎。

序列化#

保存

将对象保存到磁盘文件。

加载

从文件加载使用 torch.save() 保存的对象。

并行性#

get_num_threads

返回用于并行化 CPU 操作的线程数。

set_num_threads

设置 CPU 上内部并行化使用的线程数。

get_num_interop_threads

返回 CPU 上交互并行化使用的线程数(例如。

set_num_interop_threads

设置交互并行化使用的线程数(例如。

局部禁用梯度计算#

上下文管理器 torch.no_grad()torch.enable_grad()torch.set_grad_enabled() 有助于在局部禁用和启用梯度计算。有关其用法的更多详细信息,请参见 局部禁用梯度计算。这些上下文管理器是线程局部的,因此如果使用 threading 模块等将工作发送到另一个线程,它们将不起作用。

示例

>>> x = torch.zeros(1, requires_grad=True)
>>> with torch.no_grad():
...     y = x * 2
>>> y.requires_grad
False

>>> is_train = False
>>> with torch.set_grad_enabled(is_train):
...     y = x * 2
>>> y.requires_grad
False

>>> torch.set_grad_enabled(True)  # this can also be used as a function
>>> y = x * 2
>>> y.requires_grad
True

>>> torch.set_grad_enabled(False)
>>> y = x * 2
>>> y.requires_grad
False

no_grad

禁用梯度计算的上下文管理器。

enable_grad

启用梯度计算的上下文管理器。

autograd.grad_mode.set_grad_enabled

启用或禁用梯度计算的上下文管理器。

is_grad_enabled

如果当前启用了 grad 模式,则返回 True。

autograd.grad_mode.inference_mode

启用或禁用推理模式的上下文管理器。

is_inference_mode_enabled

如果当前启用了推理模式,则返回 True。

数学运算#

常量#

inf

正无穷大浮点数。 math.inf 的别名。

nan

“非数字”浮点值。该值不是合法的数字。 math.nan 的别名。

逐点操作#

abs

计算 input 中每个元素的绝对值。

absolute

torch.abs() 的别名。

acos

计算input中每个元素的反正弦。

arccos

torch.acos() 的别名。

acosh

返回一个新张量,其中包含input元素的双曲反余弦。

arccosh

torch.acosh() 的别名。

add

other(缩放 alpha)加到 input

addcdiv

执行 tensor1 除以 tensor2 的逐元素除法,将结果乘以标量 value,然后将其加到 input

addcmul

执行 tensor1tensor2 的逐元素乘法,将结果乘以标量 value,然后将其加到 input

angle

计算给定input张量的每个元素的角度(以弧度表示)。

asin

返回一个新张量,其中包含input元素的反正弦。

arcsin

torch.asin() 的别名。

asinh

返回一个新张量,其中包含input元素的双曲反正弦。

arcsinh

torch.asinh() 的别名。

atan

返回一个新张量,其中包含input元素的反正切。

arctan

torch.atan() 的别名。

atanh

返回一个新张量,其中包含input元素的双曲反正切。

arctanh

torch.atanh() 的别名。

atan2

考虑象限的 inputi/otheri\text{input}_{i} / \text{other}_{i} 的逐元素反正切。

arctan2

torch.atan2() 的别名。

bitwise_not

计算给定输入张量的按位非。

bitwise_and

计算 inputother 的按位 AND。

bitwise_or

计算 inputother 的按位 OR。

bitwise_xor

计算 inputother 的按位 XOR。

bitwise_left_shift

计算 input 左移 other 位。

bitwise_right_shift

计算 input 右移 other 位。

ceil

返回一个新张量,其中包含input元素的向上取整值,即大于或等于每个元素的最小整数。

clamp

input 中的所有元素限制在 [ min, max ] 范围内。

clip

torch.clamp() 的别名。

conj_physical

计算给定 input 张量的逐元素共轭。

copysign

创建一个新的浮点张量,其幅度来自 input,符号来自 other,逐元素进行。

cos

返回一个新张量,其中包含input元素的余弦。

cosh

返回一个新张量,其中包含input元素的双曲余弦。

deg2rad

返回一个新张量,其中input的每个元素都从角度(度)转换为弧度。

div

将输入input的每个元素除以other的相应元素。

divide

torch.div() 的别名。

digamma

torch.special.digamma() 的别名。

erf

torch.special.erf() 的别名。

erfc

torch.special.erfc() 的别名。

erfinv

torch.special.erfinv() 的别名。

exp

返回一个新张量,其元素是输入张量input的指数。

exp2

torch.special.exp2() 的别名。

expm1

torch.special.expm1() 的别名。

fake_quantize_per_channel_affine

返回一个新的张量,其中 input 中的数据通过 scalezero_pointquant_minquant_max 进行逐通道伪量化,量化轴为 axis

fake_quantize_per_tensor_affine

返回一个新的张量,其中 input 中的数据通过 scalezero_pointquant_minquant_max 进行逐张量伪量化。

fix

torch.trunc() 的别名。

float_power

以双精度计算 inputexponent 次幂,逐元素进行。

floor

返回一个新张量,其中包含 input 元素的向下取整值,即小于或等于每个元素的最大整数。

floor_divide

fmod

应用 C++ 的 std::fmod 入门。

frac

计算input中每个元素的小数部分。

frexp

input 分解为尾数和指数张量,使得 input=mantissa×2exponent\text{input} = \text{mantissa} \times 2^{\text{exponent}}

gradient

使用 二阶精确中心差分法 以及边界处的至少一阶或二阶估计,估计函数 g:RnRg : \mathbb{R}^n \rightarrow \mathbb{R} 的梯度。

imag

返回包含 self 张量虚部的新张量。

ldexp

input 乘以 2 ** other

lerp

对两个张量 start(由 input 提供)和 end 进行线性插值,基于标量或张量 weight,并返回结果 out 张量。

lgamma

计算 input 上伽马函数绝对值的自然对数。

log

返回一个新张量,其中包含 input 元素对应的自然对数。

log10

返回一个新张量,其中包含input元素的以10为底的对数。

log1p

返回一个新张量,其中包含(1 + input)的自然对数。

log2

返回一个新张量,其中包含input元素的以2为底的对数。

logaddexp

输入指数和的对数。

logaddexp2

以2为底的输入指数和的对数。

logical_and

计算给定输入张量的逐元素逻辑 AND。

logical_not

计算给定输入张量的逐元素逻辑 NOT。

logical_or

计算给定输入张量的逐元素逻辑 OR。

logical_xor

计算给定输入张量的逐元素逻辑 XOR。

logit

torch.special.logit() 的别名。

hypot

给定直角三角形的两条直角边,返回其斜边。

i0

torch.special.i0() 的别名。

igamma

torch.special.gammainc() 的别名。

igammac

torch.special.gammaincc() 的别名。

mul

input乘以other

multiply

torch.mul() 的别名。

mvlgamma

torch.special.multigammaln() 的别名。

nan_to_num

input 中的 NaN、正无穷大和负无穷大值替换为由 nanposinfneginf 指定的值。

neg

返回一个新张量,其中包含input元素的负值。

negative

torch.neg() 的别名。

nextafter

返回 input 之后,趋向于 other 的下一个浮点值,逐元素进行。

polygamma

torch.special.polygamma() 的别名。

positive

返回 input

pow

计算 input 中每个元素以 exponent 为指数的幂,并返回结果张量。

quantized_batch_norm

对 4D(NCHW)量化张量应用批量归一化。

quantized_max_pool1d

对由多个输入平面组成的输入量化张量应用 1D 最大池化。

quantized_max_pool2d

对由多个输入平面组成的输入量化张量应用 2D 最大池化。

rad2deg

返回一个新张量,其中input的每个元素都从角度(弧度)转换为度。

real

返回包含 self 张量实数值的新张量。

reciprocal

返回一个新张量,其中包含input元素的倒数。

remainder

计算 Python 的模运算入门。

round

input的元素四舍五入到最近的整数。

rsqrt

返回一个新张量,其中包含input每个元素的平方根的倒数。

sigmoid

torch.special.expit() 的别名。

sign

返回一个新张量,其中包含input元素的符号。

sgn

此函数是 torch.sign() 对复数张量的扩展。

signbit

测试input的每个元素的符号位是否已设置。

sin

返回一个新张量,其中包含input元素的正弦。

sinc

torch.special.sinc() 的别名。

sinh

返回一个新张量,其中包含input元素的双曲正弦。

softmax

torch.nn.functional.softmax() 的别名。

sqrt

返回一个新张量,其中包含 input 元素的平方根。

square

返回一个新张量,其中包含input元素的平方。

sub

input 中减去 other(缩放 alpha)。

subtract

torch.sub() 的别名。

tan

返回一个新张量,其中包含input元素的正切。

tanh

返回一个新张量,其元素是 input 的双曲正切值。

true_divide

torch.div()rounding_mode=None 的别名。

trunc

返回一个新张量,其中包含input元素的截断整数值。

xlogy

torch.special.xlogy() 的别名。

归约操作#

argmax

返回 input 张量中所有元素最大值的索引。

argmin

返回扁平张量或沿某一维度的最小值的索引

amax

在给定维度 dim 下,返回 input 张量每个切片的最大值。

amin

在给定维度 dim 下,返回 input 张量每个切片的最小值。

aminmax

计算 input 张量的最小值和最大值。

all

测试 input 中的所有元素是否都评估为 True

any

测试 input 中的任何元素是否求值为 True

max

返回 input 张量中所有元素的最大值。

min

返回 input 张量中所有元素的最小值。

dist

返回 (input - other) 的 p-范数。

logsumexp

返回给定维度 diminput 张量每一行指数之和的对数。

mean

nanmean

计算指定维度上所有 非 NaN 元素的平均值。

median

返回 input 中值的中间值。

nanmedian

返回 input 中值的中间值,忽略 NaN 值。

mode

返回一个命名元组 (values, indices),其中 values 是给定维度 diminput 张量每一行的众数,即该行中出现频率最高的那个值,而 indices 是找到的每个众数的位置索引。

norm

返回给定张量的矩阵范数或向量范数。

nansum

返回所有元素的和,将非数字 (NaN) 视为零。

prod

返回input张量中所有元素的乘积。

quantile

计算 input 张量沿维度 dim 的每一行的 q 分位数。

nanquantile

这是 torch.quantile() 的一个变体,它“忽略” NaN 值,计算的 q 分位数就好像 input 中的 NaN 值不存在一样。

std

计算指定维度 dim 上的标准差。

std_mean

计算指定维度 dim 上的标准差和平均值。

sum

返回 input 张量中所有元素的和。

unique

返回输入张量的唯一元素。

unique_consecutive

从每个连续的等效元素组中删除除第一个元素之外的所有元素。

var

计算指定维度 dim 上的方差。

var_mean

计算指定维度 dim 上的方差和平均值。

count_nonzero

计算给定维度 diminput 张量中非零值的数量。

hash_tensor

返回 input 张量中所有元素的哈希值。

比较运算符#

allclose

此函数检查 inputother 是否满足条件

argsort

根据值按升序返回沿给定维度排序张量的索引。

eq

计算逐元素相等

equal

如果两个张量具有相同的大小和元素,则为True,否则为False

ge

逐元素计算 inputother\text{input} \geq \text{other}

greater_equal

torch.ge() 的别名。

gt

逐元素计算 input>other\text{input} > \text{other}

greater

torch.gt() 的别名。

isclose

返回一个新的布尔元素张量,表示 input 的每个元素是否与 other 的对应元素“接近”。

isfinite

返回一个新的布尔元素张量,表示每个元素是否是 有限的

isin

测试 elements 的每个元素是否在 test_elements 中。

isinf

测试 input 的每个元素是否为无穷大(正无穷大或负无穷大)。

isposinf

测试 input 的每个元素是否为正无穷大。

isneginf

测试 input 的每个元素是否为负无穷大。

isnan

返回一个新的布尔元素张量,表示 input 的每个元素是否为 NaN。

isreal

返回一个新的布尔元素张量,表示 input 的每个元素是否为实数值。

kthvalue

返回一个命名元组 (values, indices),其中 values 是给定维度 diminput 张量每一行的第 k 小的元素。

le

逐元素计算 inputother\text{input} \leq \text{other}

less_equal

torch.le() 的别名。

lt

逐元素计算 input<other\text{input} < \text{other}

less

torch.lt() 的别名。

maximum

计算 inputother 的逐元素最大值。

minimum

计算 inputother 的逐元素最小值。

fmax

计算 inputother 的逐元素最大值。

fmin

计算 inputother 的逐元素最小值。

ne

逐元素计算 inputother\text{input} \neq \text{other}

not_equal

torch.ne() 的别名。

sort

沿给定维度按值升序对 input 张量的元素进行排序。

topk

返回给定 input 张量沿给定维度的前 k 大的元素。

msort

沿第一维度对 input 张量的元素按值升序进行排序。

频谱运算#

stft

短时傅里叶变换 (STFT)。

istft

逆短时傅里叶变换。

bartlett_window

Bartlett 窗函数。

blackman_window

Blackman 窗函数。

hamming_window

Hamming 窗函数。

hann_window

Hann 窗函数。

kaiser_window

计算具有窗口长度 window_length 和形状参数 beta 的 Kaiser 窗。

其他运算#

atleast_1d

返回每个输入张量的一维视图,其中零维度。

atleast_2d

返回每个输入张量的二维视图,其中零维度。

atleast_3d

返回每个输入张量的三维视图,其中零维度。

bincount

计算非负整数数组中每个值的频率。

block_diag

从提供的张量创建块对角矩阵。

broadcast_tensors

根据 广播语义 广播给定的张量。

broadcast_to

input 广播到 shape 的形状。

broadcast_shapes

torch.broadcast_tensors() 类似,但用于形状。

bucketize

返回 input 中的每个值所属的桶的索引,其中桶的边界由 boundaries 设置。

cartesian_prod

对给定的张量序列进行笛卡尔积。

cdist

计算两个行向量集合之间每对向量的 p-范数距离(批处理)。

clone

返回 input 的副本。

combinations

计算给定张量长度为 rr 的组合。

corrcoef

估计变量的皮尔逊积矩相关系数矩阵,变量由 input 矩阵给出,其中行代表变量,列代表观测值。

cov

估计变量的协方差矩阵,变量由 input 矩阵给出,其中行代表变量,列代表观测值。

cross

返回 inputother 在维度 dim 上的向量的叉积。

cummax

返回一个命名元组 (values, indices),其中 valuesinput 在维度 dim 上的元素的累积最大值。

cummin

返回一个命名元组 (values, indices),其中 valuesinput 在维度 dim 上的元素的累积最小值。

cumprod

返回 input 在维度 dim 上的元素的累积乘积。

cumsum

返回 input 在维度 dim 上的元素的累积和。

diag

  • 如果 input 是一个向量(1D 张量),则返回一个 2D 方阵。

diag_embed

创建一个张量,其指定的 2D 平面的对角线(由 dim1dim2 指定)由 input 填充。

diagflat

  • 如果 input 是一个向量(1D 张量),则返回一个 2D 方阵。

diagonal

返回 input 的部分视图,其对角线元素(相对于 dim1dim2)作为最后一个维度追加到形状中。

diff

计算沿给定维度的 n 阶前向差分。

einsum

使用基于爱因斯坦求和约定的符号,对输入 operands 的元素在指定维度上的乘积进行求和。

flatten

通过将 input 重塑为一维张量来将其展平。

flip

沿给定轴 dims 反转 n 维张量的顺序。

fliplr

左右翻转张量,返回一个新张量。

flipud

上下翻转张量,返回一个新张量。

kron

计算 inputother 的克罗内克积,表示为 \otimes

rot90

将 n 维张量在由 dims 轴指定的平面内旋转 90 度。

gcd

计算 inputother 的逐元素最大公约数 (GCD)。

histc

计算张量的直方图。

histogram

计算张量中值的直方图。

histogramdd

计算张量中值的多维直方图。

meshgrid

创建由 attr:tensors 中一维输入指定的坐标网格。

lcm

计算 inputother 的逐元素最小公倍数 (LCM)。

logcumsumexp

返回 input 在维度 dim 上指数化元素的累积和的对数。

ravel

返回一个连续的展平张量。

renorm

返回一个张量,其中 input 沿维度 dim 的每个子张量都被归一化,使得子张量的 p-范数小于 maxnorm 的值。

repeat_interleave

重复张量的元素。

roll

沿给定维度(们)滚动 input 张量。

searchsorted

sorted_sequence 的最内层维度查找索引,如果将 values 中对应的元素插入到索引之前,当排序时,sorted_sequence 中对应最内层维度的顺序将得以保留。

tensordot

返回 ab 在多个维度上的收缩。

trace

返回输入 2D 矩阵对角线元素的和。

tril

返回矩阵(2D 张量)或矩阵批次的下三角部分 input,结果张量 out 的其他元素设置为 0。

tril_indices

返回 row 行 x col 列矩阵的下三角部分的索引,在一个 2xN 张量中,第一行包含所有索引的行坐标,第二行包含列坐标。

triu

返回矩阵(2D 张量)或矩阵批次的上三角部分 input,结果张量 out 的其他元素设置为 0。

triu_indices

返回 row x col 矩阵的 upper triangular 部分的索引,在一个 2xN 张量中,第一行包含所有索引的行坐标,第二行包含列坐标。

unflatten

将输入张量的某个维度扩展到多个维度。

vander

生成 Vandermonde 矩阵。

view_as_real

返回 input 作为实数张量的视图。

view_as_complex

返回 input 作为复数张量的视图。

resolve_conj

如果 input 的共轭位设置为 True,则返回一个具有具体共轭的新张量;否则返回 input

resolve_neg

如果 input 的负位设置为 True,则返回一个具有具体否定值的新张量;否则返回 input

BLAS 和 LAPACK 运算#

addbmm

执行存储在 batch1batch2 中的矩阵的批处理矩阵-矩阵乘积,并进行减少的加法步骤(所有矩阵乘法沿第一个维度累加)。

addmm

执行 mat1mat2 矩阵的乘法。

addmv

执行 mat 矩阵和 vec 向量的矩阵-向量乘积。

addr

计算向量 vec1vec2 的外积,并将其加到矩阵 input 上。

baddbmm

执行 batch1batch2 中矩阵的批处理矩阵-矩阵乘积。

bmm

执行存储在 inputmat2 中的矩阵的批处理矩阵-矩阵乘积。

chain_matmul

返回 NN 个 2D 张量的矩阵乘积。

cholesky

计算对称正定矩阵 AA 或对称正定矩阵批次的乔里斯基分解。

cholesky_inverse

在已知其乔里斯基分解的情况下,计算复数厄米或实数对称正定矩阵的逆。

cholesky_solve

在已知其乔里斯基分解的情况下,计算具有复数厄米或实数对称正定左侧的线性方程组的解。

dot

计算两个一维张量的点积。

geqrf

这是一个直接调用 LAPACK geqrf 的低级函数。

ger

torch.outer() 的别名。

inner

计算一维张量的点积。

inverse

torch.linalg.inv() 的别名。

det

torch.linalg.det() 的别名。

logdet

计算方阵或方阵批次的对数行列式。

slogdet

torch.linalg.slogdet() 的别名。

lu

计算矩阵或矩阵批次 A 的 LU 分解。

lu_solve

使用 lu_factor() 返回的具有部分主元的 LU 分解,求解线性系统 Ax=bAx = b 的解。

lu_unpack

lu_factor() 返回的 LU 分解解包为 P, L, U 矩阵。

matmul

两个张量的矩阵乘积。

matrix_power

torch.linalg.matrix_power() 的别名。

matrix_exp

torch.linalg.matrix_exp() 的别名。

mm

执行 inputmat2 矩阵的矩阵乘法。

mv

执行 input 矩阵和 vec 向量的矩阵-向量乘积。

orgqr

torch.linalg.householder_product() 的别名。

ormqr

计算豪斯霍尔德矩阵乘积与一般矩阵的矩阵-矩阵乘积。

outer

inputvec2 的外积。

pinverse

torch.linalg.pinv() 的别名。

qr

计算矩阵或矩阵批次 input 的 QR 分解,并返回一个命名元组 (Q, R),其中 input=QR\text{input} = Q R,其中 QQ 是正交矩阵或正交矩阵批次,而 RR 是上三角矩阵或上三角矩阵批次。

svd

计算矩阵或矩阵批次 input 的奇异值分解。

svd_lowrank

返回矩阵、矩阵批次或稀疏矩阵 AA 的奇异值分解 (U, S, V),使得 AUdiag(S)VHA \approx U \operatorname{diag}(S) V^{\text{H}}.

pca_lowrank

对低秩矩阵、此类矩阵的批次或稀疏矩阵执行线性主成分分析 (PCA)。

lobpcg

使用无矩阵 LOBPCG 方法查找对称正定广义特征值问题的前 k 个最大(或最小)特征值及其对应的特征向量。

trapz

torch.trapezoid() 的别名。

trapezoid

沿 dim 计算 梯形法则

cumulative_trapezoid

沿 dim 累积计算 梯形法则

triangular_solve

求解具有方阵上下三角可逆矩阵 AA 和多个右侧项 bb 的方程组。

vdot

计算两个一维向量沿一个维度的点积。

Foreach 运算#

警告

此 API 处于 beta 阶段,未来可能有所更改。不支持前向模式 AD。

_foreach_abs

torch.abs() 应用于输入列表中的每个张量。

_foreach_abs_

torch.abs() 应用于输入列表中的每个张量。

_foreach_acos

torch.acos() 应用于输入列表中的每个张量。

_foreach_acos_

torch.acos() 应用于输入列表中的每个张量。

_foreach_asin

torch.asin() 应用于输入列表中的每个张量。

_foreach_asin_

torch.asin() 应用于输入列表中的每个张量。

_foreach_atan

torch.atan() 应用于输入列表中的每个张量。

_foreach_atan_

torch.atan() 应用于输入列表中的每个张量。

_foreach_ceil

torch.ceil() 应用于输入列表中的每个张量。

_foreach_ceil_

torch.ceil() 应用于输入列表中的每个张量。

_foreach_cos

torch.cos() 应用于输入列表中的每个张量。

_foreach_cos_

torch.cos() 应用于输入列表中的每个张量。

_foreach_cosh

torch.cosh() 应用于输入列表中的每个张量。

_foreach_cosh_

torch.cosh() 应用于输入列表中的每个张量。

_foreach_erf

torch.erf() 应用于输入列表中的每个张量。

_foreach_erf_

torch.erf() 应用于输入列表中的每个张量。

_foreach_erfc

torch.erfc() 应用于输入列表中的每个张量。

_foreach_erfc_

torch.erfc() 应用于输入列表中的每个张量。

_foreach_exp

torch.exp() 应用于输入列表中的每个张量。

_foreach_exp_

torch.exp() 应用于输入列表中的每个张量。

_foreach_expm1

torch.expm1() 应用于输入列表中的每个张量。

_foreach_expm1_

torch.expm1() 应用于输入列表中的每个张量。

_foreach_floor

torch.floor() 应用于输入列表中的每个张量。

_foreach_floor_

torch.floor() 应用于输入列表中的每个张量。

_foreach_log

torch.log() 应用于输入列表中的每个张量。

_foreach_log_

torch.log() 应用于输入列表中的每个张量。

_foreach_log10

torch.log10() 应用于输入列表中的每个张量。

_foreach_log10_

torch.log10() 应用于输入列表中的每个张量。

_foreach_log1p

torch.log1p() 应用于输入列表中的每个张量。

_foreach_log1p_

torch.log1p() 应用于输入列表中的每个张量。

_foreach_log2

torch.log2() 应用于输入列表中的每个张量。

_foreach_log2_

torch.log2() 应用于输入列表中的每个张量。

_foreach_neg

torch.neg() 应用于输入列表中的每个张量。

_foreach_neg_

torch.neg() 应用于输入列表中的每个张量。

_foreach_tan

torch.tan() 应用于输入列表中的每个张量。

_foreach_tan_

torch.tan() 应用于输入列表中的每个张量。

_foreach_sin

torch.sin() 应用于输入列表中的每个张量。

_foreach_sin_

torch.sin() 应用于输入列表中的每个张量。

_foreach_sinh

torch.sinh() 应用于输入列表中的每个张量。

_foreach_sinh_

torch.sinh() 应用于输入列表中的每个张量。

_foreach_round

torch.round() 应用于输入列表中的每个张量。

_foreach_round_

torch.round() 应用于输入列表中的每个张量。

_foreach_sqrt

torch.sqrt() 应用于输入列表中的每个张量。

_foreach_sqrt_

torch.sqrt() 应用于输入列表中的每个张量。

_foreach_lgamma

torch.lgamma() 应用于输入列表中的每个张量。

_foreach_lgamma_

torch.lgamma() 应用于输入列表中的每个张量。

_foreach_frac

torch.frac() 应用于输入列表中的每个张量。

_foreach_frac_

torch.frac() 应用于输入列表中的每个张量。

_foreach_reciprocal

torch.reciprocal() 应用于输入列表中的每个张量。

_foreach_reciprocal_

torch.reciprocal() 应用于输入列表中的每个张量。

_foreach_sigmoid

torch.sigmoid() 应用于输入列表中的每个张量。

_foreach_sigmoid_

torch.sigmoid() 应用于输入列表中的每个张量。

_foreach_trunc

torch.trunc() 应用于输入列表中的每个张量。

_foreach_trunc_

torch.trunc() 应用于输入列表中的每个张量。

_foreach_zero_

torch.zero() 应用于输入列表中的每个张量。

工具#

compiled_with_cxx11_abi

返回 PyTorch 是否使用 _GLIBCXX_USE_CXX11_ABI=1 构建。

result_type

返回在对提供的输入张量执行算术运算时将产生的结果 torch.dtype

can_cast

根据 PyTorch 类型提升 文档 中描述的类型提升规则,确定是否允许类型转换。

promote_types

返回大小和标量类型最小的 torch.dtype,它不小于或低于 type1type2

use_deterministic_algorithms

设置 PyTorch 运算是否必须使用“确定性”算法。

are_deterministic_algorithms_enabled

如果全局确定性标志已打开,则返回 True。

is_deterministic_algorithms_warn_only_enabled

如果全局确定性标志设置为仅警告,则返回 True。

set_deterministic_debug_mode

设置确定性运算的调试模式。

get_deterministic_debug_mode

返回确定性运算调试模式的当前值。

set_float32_matmul_precision

设置 float32 矩阵乘法的内部精度。

get_float32_matmul_precision

返回 float32 矩阵乘法精度的当前值。

set_warn_always

当此标志为 False(默认)时,某些 PyTorch 警告可能仅在每个进程中显示一次。

get_device_module

返回与给定设备关联的模块(例如,torch.device('cuda')、"mtia:0"、"xpu" 等)。

is_warn_always_enabled

如果全局 warn_always 标志已打开,则返回 True。

vmap

vmap 是向量化映射;vmap(func) 返回一个新的函数,该函数将 func 映射到输入的某个维度上。

_assert

Python assert 的一个包装器,它是符号可跟踪的。

符号数#

class torch.SymInt(node)[source]#

像 int(包括魔法方法)一样,但将所有操作重定向到包装节点。这尤其用于在符号形状工作流中符号记录操作。

as_integer_ratio()[source]#

将此整数表示为精确的整数比

返回类型

tuple[‘SymInt’, int]

class torch.SymFloat(node)[source]#

像 float(包括魔法方法)一样,但将所有操作重定向到包装节点。这尤其用于在符号形状工作流中符号记录操作。

as_integer_ratio()[source]#

将此浮点数表示为精确的整数比

返回类型

tuple[int, int]

conjugate()[source]#

返回浮点数的复共轭。

返回类型

SymFloat

hex()[source]#

返回浮点数的十六进制表示。

返回类型

str

is_integer()[source]#

如果浮点数为整数,则返回 True。

class torch.SymBool(node)[source]#

像 bool(包括魔法方法)一样,但将所有操作重定向到包装节点。这尤其用于在符号形状工作流中符号记录操作。

与常规 bool 不同,常规布尔运算符将强制执行额外守卫,而不是符号求值。请改用按位运算符进行处理。

sym_float

SymInt 感知的用于 float 转换的实用函数。

sym_fresh_size

sym_int

SymInt 感知的用于 int 转换的实用函数。

sym_max

SymInt 感知的 max 实用函数,避免了对 a < b 进行分支。

sym_min

SymInt 感知的 min() 实用函数。

sym_not

SymInt 感知的逻辑非实用函数。

sym_ite

SymInt 感知的 the ternary operator(t if b else f)的实用函数。

sym_sum

N 元加法,与迭代二元加法相比,计算长列表更快。

导出路径#

警告

此功能是原型,未来可能包含不兼容的更改。

export generated/exportdb/index

控制流#

警告

此功能是原型,未来可能包含不兼容的更改。

cond

有条件地应用 true_fnfalse_fn

优化#

compile

使用 TorchDynamo 和指定的后端优化给定的模型/函数。

torch.compile 文档

算子标签#

class torch.Tag#

成员

core

cudagraph_unsafe

data_dependent_output

dynamic_output_shape

flexible_layout

generated

inplace_view

maybe_aliasing_or_mutating

needs_contiguous_strides

needs_exact_strides

needs_fixed_stride_order

nondeterministic_bitwise

nondeterministic_seeded

pointwise

pt2_compliant_tag

view_copy

property name#