评价此页

torch#

创建日期: 2016 年 12 月 23 日 | 最后更新日期: 2025 年 10 月 17 日

torch 包包含用于多维张量的数据结构,并定义了这些张量的数学运算。此外,它还提供了许多用于高效序列化张量和任意类型的实用程序,以及其他有用的工具。

它有一个 CUDA 对应物,使您能够在具有计算能力 >= 3.0 的 NVIDIA GPU 上运行张量计算。

张量#

is_tensor

如果 obj 是 PyTorch 张量,则返回 True。

is_storage

如果 obj 是 PyTorch 存储对象,则返回 True。

is_complex

如果 input 的数据类型是复数数据类型(即 torch.complex64torch.complex128 之一),则返回 True。

is_conj

如果 input 是一个共轭张量(即其共轭位设置为 True),则返回 True。

is_floating_point

如果 input 的数据类型是浮点数据类型(即 torch.float64torch.float32torch.float16torch.bfloat16 之一),则返回 True。

is_nonzero

如果 input 是一个在类型转换后不等于零的单元素张量,则返回 True。

set_default_dtype

将默认浮点 dtype 设置为 d

get_default_dtype

获取当前的默认浮点 torch.dtype

set_default_device

将默认的 torch.Tensor 设置为分配在 device 上。

get_default_device

获取默认的 torch.Tensor 分配在 device

set_default_tensor_type

numel

返回 input 张量中的元素总数。

set_printoptions

设置打印选项。

set_flush_denormal

禁用 CPU 上的非正规化浮点数。

创建操作#

注意

随机采样创建操作列在 随机采样 下,包括: torch.rand() torch.rand_like() torch.randn() torch.randn_like() torch.randint() torch.randint_like() torch.randperm() 您也可以使用 torch.empty() 配合 原地随机采样 方法来创建具有从更广泛分布中采样的值的 torch.Tensor

tensor

通过复制 data 来构造一个没有 autograd 历史记录的张量(也称为“叶张量”,参见 自动微分机制)。

sparse_coo_tensor

使用指定的 indices 处的数值来构造一个 COO (坐标) 格式的稀疏张量

sparse_csr_tensor

使用指定的 crow_indicescol_indices 处的数值来构造一个 CSR (压缩稀疏行) 格式的稀疏张量

sparse_csc_tensor

使用指定的 ccol_indicesrow_indices 处的数值来构造一个 CSC (压缩稀疏列) 格式的稀疏张量

sparse_bsr_tensor

使用指定的 crow_indicescol_indices 处的 2 维块来构造一个 BSR (块压缩稀疏行) 格式的稀疏张量

sparse_bsc_tensor

使用指定的 ccol_indicesrow_indices 处的 2 维块来构造一个 BSC (块压缩稀疏列) 格式的稀疏张量

asarray

obj 转换为张量。

as_tensor

data 转换为张量,并在可能的情况下共享数据并保留 autograd 历史记录。

as_strided

使用指定的 sizestridestorage_offset 创建现有 torch.Tensor input 的视图。

from_file

创建一个 CPU 张量,其存储由内存映射文件支持。

from_numpy

numpy.ndarray 创建一个 Tensor

from_dlpack

将外部库中的张量转换为 torch.Tensor

frombuffer

从实现了 Python 缓冲区协议的对象创建一维 Tensor

zeros

返回一个填充了标量值 0 的张量,其形状由可变参数 size 定义。

zeros_like

返回一个填充了标量值 0 的张量,其大小与 input 相同。

ones

返回一个填充了标量值 1 的张量,其形状由可变参数 size 定义。

ones_like

返回一个填充了标量值 1 的张量,其大小与 input 相同。

arange

返回一个 1-D 张量,其大小为 endstartstep\left\lceil \frac{\text{end} - \text{start}}{\text{step}} \right\rceil 从区间 [start, end) 中取值,步长为 step,从 start 开始。

range

返回一个 1-D 张量,其大小为 endstartstep+1\left\lfloor \frac{\text{end} - \text{start}}{\text{step}} \right\rfloor + 1,其值从 startend,步长为 step

linspace

创建一个一维张量,大小为 steps,其值在 startend 之间均匀分布(包含端点)。

logspace

创建一个一维张量,大小为 steps,其值在 basestart{{\text{{base}}}}^{{\text{{start}}}}baseend{{\text{{base}}}}^{{\text{{end}}}} 之间均匀分布(包含端点),使用以 base 为底的对数尺度。

eye

返回一个 2-D 张量,对角线元素为 1,其他元素为 0。

empty

返回一个填充了未初始化数据的张量。

empty_like

返回一个未初始化张量,其大小与 input 相同。

empty_strided

创建一个具有指定的 sizestride 且填充了未定义数据的张量。

full

创建一个大小为 size 且填充了 fill_value 的张量。

full_like

返回一个大小与 input 相同且填充了 fill_value 的张量。

quantize_per_tensor

将浮点张量转换为具有给定缩放和零点的量化张量。

quantize_per_channel

将浮点张量转换为具有给定缩放和零点的逐通道量化张量。

dequantize

通过对量化张量进行反量化,返回一个fp32张量。

complex

构造一个复数张量,其实部等于 real,虚部等于 imag

polar

构造一个复数张量,其元素是对应于极坐标的笛卡尔坐标,极径为 abs,角度为 angle

heaviside

计算 input 中每个元素的赫维赛德阶跃函数。

索引、切片、连接、变异操作#

adjoint

返回一个视图,该视图将张量进行共轭处理,并转置最后两个维度。

argwhere

返回一个包含 input 中所有非零元素索引的张量。

cat

沿着给定的维度将序列 tensors 中的张量连接起来。

concat

torch.cat() 的别名。

concatenate

torch.cat() 的别名。

conj

返回 input 的视图,并翻转其共轭位。

chunk

尝试将张量分割成指定数量的块。

dsplit

根据 indices_or_sections 沿深度方向将 input(一个具有三个或更多维度的张量)分割成多个张量。

column_stack

通过水平堆叠tensors中的张量来创建新张量。

dstack

按深度方向(沿第三个轴)堆叠序列中的张量。

gather

沿由 dim 指定的轴收集值。

hsplit

根据 indices_or_sections 沿水平方向将 input(一个具有一个或多个维度的张量)分割成多个张量。

hstack

按水平(列方向)顺序堆叠张量。

index_add

有关函数描述,请参见 index_add_()

index_copy

有关函数描述,请参见 index_add_()

index_reduce

有关函数描述,请参见 index_reduce_()

index_select

使用 index 中的条目,沿着维度 diminput 张量进行索引,并返回一个新张量。

masked_select

返回一个一维新张量,它根据布尔掩码 mask(一个 BoolTensor)对 input 张量进行索引。

movedim

inputsource 中的维度移动到 destination 中的对应位置。

moveaxis

torch.movedim() 的别名。

narrow

返回 input 张量的一个更窄(部分)的新视图。

narrow_copy

Tensor.narrow() 相同,但此函数返回一个副本而不是共享存储。

nonzero

permute

返回原始张量 input 的一个视图,并置换了其维度。

reshape

返回一个与 input 具有相同数据和元素数量,但形状由指定的新张量。

row_stack

torch.vstack() 的别名。

select

沿着选定的维度,在给定索引处切片 input 张量。

scatter

torch.Tensor.scatter_() 的非原地版本

diagonal_scatter

src 张量的值嵌入到 input 的对角元素中,相对于 dim1dim2

select_scatter

src 张量的值嵌入到 input 的给定索引处。

slice_scatter

src 张量的值嵌入到 input 的给定维度上。

scatter_add

torch.Tensor.scatter_add_() 的非原地版本

scatter_reduce

torch.Tensor.scatter_reduce_() 的非原地版本

segment_reduce

沿着指定轴对输入张量执行分段归约操作。

split

将张量分割成块。

squeeze

返回一个张量,移除了 input 中所有指定维度中大小为 1 的维度。

stack

沿新维度连接一系列张量。

swapaxes

torch.transpose() 的别名。

swapdims

torch.transpose() 的别名。

t

期望input为小于等于2维的张量,并转置维度0和1。

take

使用给定索引从 input 中选择元素,并返回一个新张量。

take_along_dim

沿着给定的 dim 维度,从 input 中选择 indices 指定的一维索引处的数值。

tensor_split

根据 indices_or_sections 在维度 dim 上将张量分割成多个子张量,所有子张量都是 input 的视图。

tile

通过重复 input 的元素来构造张量。

转置

返回 input 的一个转置版本。

unbind

移除一个张量维度。

unravel_index

将平坦索引张量转换为坐标张量元组,这些元组可以索引到任意指定形状的张量。

unsqueeze

返回一个新张量,在指定位置插入一个大小为一的维度。

vsplit

根据 indices_or_sections 沿垂直方向将 input(一个具有两个或更多维度的张量)分割成多个张量。

vstack

按垂直(行方向)顺序堆叠张量。

其中

根据 condition,从 inputother 中选择元素并返回一个张量。

加速器#

在 PyTorch 仓库中,我们将“加速器”定义为与 CPU 一起用于加速计算的 torch.device。这些设备使用异步执行方案,主要通过 torch.Streamtorch.Event 来执行同步。我们还假设在给定的主机上一次只能有一个这样的加速器可用。这允许我们将当前加速器用作固定内存、Stream device_type、FSDP 等相关概念的默认设备。

截至今天,加速器设备包括(不分先后顺序):“CUDA”“MTIA”“XPU”“MPS”、“HPU”和 PrivateUse1(PyTorch 仓库本身中没有的许多设备)。

PyTorch 生态系统中的许多工具使用 fork 来创建子进程(例如数据加载或内部操作并行性),因此尽可能推迟任何会阻止进一步 fork 的操作非常重要。这对这里尤其重要,因为大多数加速器的初始化都有这种效果。在实践中,您应该记住,默认情况下检查 torch.accelerator.current_accelerator() 是一个编译时检查,因此总是安全的。相反,向此函数传递 check_available=True 标志或调用 torch.accelerator.is_available() 通常会阻止后续的 fork。

一些后端提供了实验性的选择加入选项,以使运行时可用性检查是 fork 安全的。例如,在使用 CUDA 设备时,可以使用 PYTORCH_NVML_BASED_CUDA_CHECK=1

一个按顺序执行相应任务的队列,按先进先出 (FIFO) 顺序异步执行。

事件

查询和记录流状态以识别或控制流之间的依赖关系并测量时间。

生成器#

生成器

创建并返回一个生成器对象,用于管理生成伪随机数的算法状态。

随机采样#

seed

设置随机数种子,在所有设备上生成非确定性随机数。

manual_seed

设置随机数种子,在所有设备上生成随机数。

initial_seed

返回生成随机数的初始种子,作为Python long类型。

get_rng_state

将随机数生成器状态作为torch.ByteTensor返回。

set_rng_state

设置随机数生成器状态。

torch.default_generator 返回 默认 CPU torch.Generator#

bernoulli

从伯努利分布中抽取二元随机数(0 或 1)。

multinomial

返回一个张量,其中每行包含从多项分布中采样的 num_samples 个索引(更严格的定义是多元分布,有关详细信息请参阅 torch.distributions.multinomial.Multinomial),这些索引位于张量 input 的相应行中。

normal

返回一个张量,其中包含从独立正态分布中抽取的随机数,其均值和标准差是给定的。

poisson

返回一个与 input 具有相同大小的张量,其中每个元素都从以 input 中的相应元素为参数的泊松分布中采样,即:

rand

返回一个在区间 [0,1)[0, 1) 上服从均匀分布的随机数张量。

rand_like

返回一个与 input 具有相同大小的张量,其中包含在区间 [0,1)[0, 1) 上服从均匀分布的随机数。

randint

返回一个张量,其中填充了在 low(包含)和 high(不包含)之间均匀生成的随机整数。

randint_like

返回一个与张量 input 具有相同形状的张量,其中填充了在 low(包含)和 high(不包含)之间均匀生成的随机整数。

randn

返回一个填充了从均值为 0、方差为 1 的正态分布(也称为标准正态分布)中抽取的随机数的张量。

randn_like

返回一个与 input 具有相同大小的张量,其中填充了从均值为 0、方差为 1 的正态分布中抽取的随机数。

randperm

返回从 0n - 1 的整数的随机排列。

原地随机采样#

张量上还定义了几个原地随机采样函数。点击查看它们的文档。

拟随机采样#

quasirandom.SobolEngine

torch.quasirandom.SobolEngine 是一个用于生成(打乱的)Sobol序列的引擎。

序列化#

保存

将对象保存到磁盘文件。

加载

从文件加载使用 torch.save() 保存的对象。

并行性#

get_num_threads

返回用于并行化 CPU 操作的线程数。

set_num_threads

设置 CPU 上用于 intraop 并行化的线程数。

get_num_interop_threads

返回 CPU 上用于 inter-op 并行化的线程数(例如,在 JIT 解释器中)。

set_num_interop_threads

设置 CPU 上用于 interop 并行化(例如,在 JIT 解释器中)的线程数。

局部禁用梯度计算#

上下文管理器 torch.no_grad()torch.enable_grad()torch.set_grad_enabled() 有助于局部禁用和启用梯度计算。有关其用法的更多详细信息,请参阅 局部禁用梯度计算。这些上下文管理器是线程本地的,因此如果您使用 threading 模块等将工作发送到另一个线程,它们将不起作用。

示例

>>> x = torch.zeros(1, requires_grad=True)
>>> with torch.no_grad():
...     y = x * 2
>>> y.requires_grad
False

>>> is_train = False
>>> with torch.set_grad_enabled(is_train):
...     y = x * 2
>>> y.requires_grad
False

>>> torch.set_grad_enabled(True)  # this can also be used as a function
>>> y = x * 2
>>> y.requires_grad
True

>>> torch.set_grad_enabled(False)
>>> y = x * 2
>>> y.requires_grad
False

no_grad

禁用梯度计算的上下文管理器。

enable_grad

启用梯度计算的上下文管理器。

autograd.grad_mode.set_grad_enabled

用于开启或关闭梯度计算的上下文管理器。

is_grad_enabled

如果当前启用了 grad 模式,则返回 True。

autograd.grad_mode.inference_mode

启用或禁用推理模式的上下文管理器。

is_inference_mode_enabled

如果当前启用了推理模式,则返回 True。

数学运算#

常量#

inf

浮点正无穷大。是 math.inf 的别名。

nan

浮点“非数字”值。该值不是合法的数字。是 math.nan 的别名。

逐元素运算#

abs

计算 input 中每个元素的绝对值。

absolute

torch.abs() 的别名。

acos

返回一个新张量,其中包含 input 中每个元素的反余弦值(以弧度为单位)。

arccos

torch.acos() 的别名。

acosh

返回一个新张量,其中包含input元素的双曲反余弦。

arccosh

torch.acosh() 的别名。

add

other(缩放 alpha)加到 input

addcdiv

tensor1 逐元素除以 tensor2,将结果乘以标量 value,然后将其加到 input 上。

addcmul

tensor1 逐元素乘以 tensor2,将结果乘以标量 value,然后将其加到 input 上。

angle

计算给定input张量的每个元素的角度(以弧度表示)。

asin

返回一个新张量,其中包含 input 张量中元素的反正弦值(以弧度为单位)。

arcsin

torch.asin() 的别名。

asinh

返回一个新张量,其中包含input元素的双曲反正弦。

arcsinh

torch.asinh() 的别名。

atan

返回一个新张量,其中包含 input 张量中元素的反正切值(以弧度为单位)。

arctan

torch.atan() 的别名。

atanh

返回一个新张量,其中包含input元素的双曲反正切。

arctanh

torch.atanh() 的别名。

atan2

inputi/otheri\text{input}_{i} / \text{other}_{i} 的逐元素反正切,并考虑象限。

arctan2

torch.atan2() 的别名。

bitwise_not

计算给定输入张量的按位 NOT。

bitwise_and

计算 inputother 的按位 AND。

bitwise_or

计算 inputother 的按位 OR。

bitwise_xor

计算 inputother 的按位 XOR。

bitwise_left_shift

inputother 位进行算术左移。

bitwise_right_shift

inputother 位进行算术右移。

ceil

返回一个新张量,其中包含input元素的向上取整值,即大于或等于每个元素的最小整数。

clamp

input 中的所有元素裁剪到区间 [ min, max ] 内。

clip

torch.clamp() 的别名。

conj_physical

计算给定 input 张量的逐元素共轭。

copysign

创建一个新的浮点张量,其幅度来自 input,符号来自 other,逐元素进行。

cos

返回一个新张量,其中包含 input 中元素(以弧度为单位)的余弦值。

cosh

返回一个新张量,其中包含input元素的双曲余弦。

deg2rad

返回一个新张量,其中input的每个元素都从角度(度)转换为弧度。

div

将输入input的每个元素除以other的相应元素。

divide

torch.div() 的别名。

digamma

torch.special.digamma() 的别名。

erf

torch.special.erf() 的别名。

erfc

torch.special.erfc() 的别名。

erfinv

torch.special.erfinv() 的别名。

exp

返回一个新张量,其元素是输入张量input的指数。

exp2

torch.special.exp2() 的别名。

expm1

torch.special.expm1() 的别名。

fake_quantize_per_channel_affine

返回一个新的张量,其中 input 的数据通过 scalezero_pointquant_minquant_max 进行通道感知的假量化,跨越由 axis 指定的通道。

fake_quantize_per_tensor_affine

返回一个新的张量,其中 input 的数据通过 scalezero_pointquant_minquant_max 进行假量化。

fix

torch.trunc() 的别名。

float_power

input 以双精度逐元素提高到 exponent 的幂。

floor

返回一个新张量,其中包含 input 元素的向下取整值,即小于或等于每个元素的最大整数。

floor_divide

fmod

逐元素应用 C++ 的 std::fmod

frac

计算input中每个元素的小数部分。

frexp

input 分解为尾数和指数张量,使得 input=mantissa×2exponent\text{input} = \text{mantissa} \times 2^{\text{exponent}}

gradient

使用 二阶精确中心差分法 以及边界处的一阶或二阶估计,估计函数 g:RnRg : \mathbb{R}^n \rightarrow \mathbb{R} 的梯度。

imag

返回一个包含 self 张量的虚部的新张量。

ldexp

input 乘以 2 的 other 次方。

lerp

对两个张量 start(由 input 指定)和 end 进行线性插值,插值权重由标量或张量 weight 给出,并返回结果张量 out

lgamma

计算 input 上伽马函数绝对值的自然对数。

log

返回一个新张量,其中包含 input 元素对应的自然对数。

log10

返回一个新张量,其中包含input元素的以10为底的对数。

log1p

返回一个新张量,其中包含(1 + input)的自然对数。

log2

返回一个新张量,其中包含input元素的以2为底的对数。

logaddexp

输入指数和的对数。

logaddexp2

以2为底的输入指数和的对数。

logical_and

计算给定输入张量的逐元素逻辑 AND。

logical_not

计算给定输入张量的逐元素逻辑 NOT。

logical_or

计算给定输入张量的逐元素逻辑 OR。

logical_xor

计算给定输入张量的逐元素逻辑 XOR。

logit

torch.special.logit() 的别名。

hypot

给定一个直角三角形的两条直角边,返回其斜边。

i0

torch.special.i0() 的别名。

igamma

torch.special.gammainc() 的别名。

igammac

torch.special.gammaincc() 的别名。

mul

input乘以other

multiply

torch.mul() 的别名。

mvlgamma

torch.special.multigammaln() 的别名。

nan_to_num

input 中的 NaN、正无穷和负无穷值分别替换为 nanposinfneginf 指定的值。

neg

返回一个新张量,其中包含input元素的负值。

negative

torch.neg() 的别名。

nextafter

返回 input 之后,趋向于 other 的下一个浮点值,逐元素进行。

polygamma

torch.special.polygamma() 的别名。

positive

返回 input

pow

计算 input 中每个元素以 exponent 为指数的幂,并返回结果张量。

quantized_batch_norm

对 4D(NCHW)量化张量应用批量归一化。

quantized_max_pool1d

对由多个输入平面组成的输入量化张量应用 1D 最大池化。

quantized_max_pool2d

对由多个输入平面组成的输入量化张量应用 2D 最大池化。

rad2deg

返回一个新张量,其中input的每个元素都从角度(弧度)转换为度。

real

返回一个包含 self 张量实部的新张量。

reciprocal

返回一个新张量,其中包含input元素的倒数。

remainder

逐元素计算 Python 的模运算

round

input的元素四舍五入到最近的整数。

rsqrt

返回一个新张量,其中包含input每个元素的平方根的倒数。

sigmoid

torch.special.expit() 的别名。

sign

返回一个新张量,其中包含input元素的符号。

sgn

此函数是 torch.sign() 对复数张量的扩展。

signbit

测试input的每个元素的符号位是否已设置。

sin

返回一个新张量,其中包含 input 张量中元素(以弧度为单位)的正弦值。

sinc

torch.special.sinc() 的别名。

sinh

返回一个新张量,其中包含input元素的双曲正弦。

softmax

torch.nn.functional.softmax() 的别名。

sqrt

返回一个新张量,其中包含 input 元素的平方根。

square

返回一个新张量,其中包含input元素的平方。

sub

input 中减去 other(缩放 alpha)。

subtract

torch.sub() 的别名。

tan

返回一个新张量,其中包含 input 张量中元素(以弧度为单位)的正切值。

tanh

返回一个新张量,其元素是 input 的双曲正切值。

true_divide

torch.div() 别名,其中 rounding_mode=None

trunc

返回一个新张量,其中包含input元素的截断整数值。

xlogy

torch.special.xlogy() 的别名。

归约运算#

argmax

返回 input 张量中所有元素最大值的索引。

argmin

返回扁平张量或沿某一维度的最小值的索引

amax

在给定维度 dim 下,返回 input 张量每个切片的最大值。

amin

在给定维度 dim 下,返回 input 张量每个切片的最小值。

aminmax

计算 input 张量的最小值和最大值。

all

测试 input 中的所有元素是否都评估为 True

any

测试 input 中的任何元素是否为 True

max

返回 input 张量中所有元素的最大值。

min

返回 input 张量中所有元素的最小值。

dist

返回 (input - other) 的 p-范数。

logsumexp

返回 input 张量在指定维度 dim 上的指数和的对数。

mean

nanmean

计算指定维度上所有 非 NaN 元素的平均值。

median

返回 input 中值的中位数。

nanmedian

返回 input 中值的(忽略 NaN)中位数。

mode

返回一个命名元组 (values, indices),其中 valuesinput 张量在给定维度 dim 的每行的众数,即出现次数最多的值,而 indices 是找到的每个众数的位置索引。

norm

返回给定张量的矩阵范数或向量范数。

nansum

返回所有元素的总和,将 Not a Numbers (NaN) 视为零。

prod

返回input张量中所有元素的乘积。

quantile

计算 input 张量在维度 dim 上的每行的 q 分位数。

nanquantile

这是 torch.quantile() 的一个变体,它“忽略” NaN 值,计算分位数 q,就好像 input 中的 NaN 值不存在一样。

std

计算指定维度 dim 的标准差。

std_mean

计算指定维度 dim 的标准差和平均值。

sum

返回 input 张量中所有元素的和。

unique

返回输入张量的唯一元素。

unique_consecutive

从每个连续的等效元素组中删除除第一个元素之外的所有元素。

var

计算指定维度 dim 的方差。

var_mean

计算指定维度 dim 的方差和平均值。

count_nonzero

计算张量 input 在给定维度 dim 上的非零元素的数量。

hash_tensor

返回 input 张量中所有元素的哈希值。

比较运算#

allclose

此函数检查 inputother 是否满足条件

argsort

按值升序返回沿给定维度对张量进行排序的索引。

eq

计算逐元素相等

equal

如果两个张量具有相同的大小和元素,则为True,否则为False

ge

逐元素计算 inputother\text{input} \geq \text{other}

greater_equal

torch.ge() 的别名。

gt

逐元素计算 input>other\text{input} > \text{other}

greater

torch.gt() 的别名。

isclose

返回一个具有布尔元素的新张量,表示 input 的每个元素是否“接近” other 的对应元素。

isfinite

返回一个具有布尔元素的新张量,表示每个元素是否为有限

isin

测试 elements 的每个元素是否在 test_elements 中。

isinf

测试 input 的每个元素是否为无穷大(正无穷或负无穷)。

isposinf

测试 input 的每个元素是否为正无穷。

isneginf

测试 input 的每个元素是否为负无穷。

isnan

返回一个具有布尔元素的新张量,表示 input 的每个元素是否为 NaN。

isreal

返回一个具有布尔元素的新张量,表示 input 的每个元素是否为实数。

kthvalue

返回一个命名元组 (values, indices),其中 valuesinput 张量在给定维度 dim 的每一行的第 k 小的元素。

le

逐元素计算 inputother\text{input} \leq \text{other}

less_equal

torch.le() 的别名。

lt

逐元素计算 input<other\text{input} < \text{other}

less

torch.lt() 的别名。

maximum

计算 inputother 的逐元素最大值。

minimum

计算 inputother 的逐元素最小值。

fmax

计算 inputother 的逐元素最大值。

fmin

计算 inputother 的逐元素最小值。

ne

逐元素计算 inputother\text{input} \neq \text{other}

not_equal

torch.ne() 的别名。

sort

沿给定维度按值升序对 input 张量的元素进行排序。

topk

返回 input 张量沿给定维度最大的 k 个元素。

msort

沿 input 张量的第一个维度按值升序对元素进行排序。

Spectral Ops#

stft

短时傅里叶变换 (STFT)。

istft

逆短时傅里叶变换。

bartlett_window

Bartlett 窗函数。

blackman_window

Blackman 窗函数。

hamming_window

Hamming 窗函数。

hann_window

Hann 窗函数。

kaiser_window

使用窗长 window_length 和形状参数 beta 计算 Kaiser 窗。

Other Operations#

atleast_1d

返回每个输入张量的一维视图,其中零维度。

atleast_2d

返回每个输入张量的 2 维视图,其中零维。

atleast_3d

返回每个输入张量的 3 维视图,其中零维。

bincount

统计非负整数数组中每个值的频率。

block_diag

从提供的张量创建块对角矩阵。

broadcast_tensors

根据 广播语义 广播给定的张量。

broadcast_to

input 广播到 shape 的形状。

broadcast_shapes

broadcast_tensors() 类似,但用于形状。

bucketize

返回 input 中每个值所属的桶的索引,桶的边界由 boundaries 设置。

cartesian_prod

计算给定张量序列的笛卡尔积。

cdist

计算两个行向量集合之间每对向量的 p-范数距离(批处理)。

clone

返回 input 的副本。

combinations

计算给定张量长度为 rr 的组合。

corrcoef

估计给定 input 矩阵的变量的皮尔逊积矩相关系数矩阵,其中行是变量,列是观测值。

cov

估计给定 input 矩阵的变量的协方差矩阵,其中行是变量,列是观测值。

cross

返回 inputother 在维度 dim 上的向量的叉积。

cummax

返回一个命名元组 (values, indices),其中 valuesinput 在维度 dim 上的累积最大值。

cummin

返回一个命名元组 (values, indices),其中 valuesinput 在维度 dim 上的累积最小值。

cumprod

返回 input 在维度 dim 上的累积乘积。

cumsum

返回 input 在维度 dim 上的累积和。

diag

  • 如果 input 是一个向量(1D 张量),则返回一个 2D 方阵。

diag_embed

创建一个张量,其二维平面(由 dim1dim2 指定)的对角线由 input 填充。

diagflat

  • 如果 input 是一个向量(1D 张量),则返回一个 2D 方阵。

diagonal

返回 input 的一个部分视图,其对角线元素相对于 dim1dim2 被追加到形状的末尾作为维度。

diff

沿给定维度计算 input 的 n 阶前向差分。

einsum

使用基于爱因斯坦求和约定的符号,对输入 operands 的元素在指定维度上的乘积进行求和。

flatten

通过将 input 重塑为一维张量来展平它。

flip

沿给定轴 dims 反转 n 维张量的顺序。

fliplr

左右翻转张量,返回一个新张量。

flipud

上下翻转张量,返回一个新张量。

kron

计算 inputother 的克罗内克积,表示为 \otimes

rot90

在由 dims 轴指定的平面中将 n 维张量旋转 90 度。

gcd

计算 inputother 的逐元素最大公约数(GCD)。

histc

计算张量的直方图。

histogram

计算张量中值的直方图。

histogramdd

计算张量中值的多维直方图。

meshgrid

创建由 attr:tensors 中一维输入指定的坐标网格。

lcm

计算 inputother 的逐元素最小公倍数(LCM)。

logcumsumexp

返回 input 在维度 dim 上的指数累加和的对数。

ravel

返回一个连续的扁平化张量。

renorm

返回一个张量,其中 input 沿维度 dim 的每个子张量都被归一化,使得子张量的 p 范数小于 maxnorm 的值。

repeat_interleave

重复张量的元素。

roll

沿给定维度(或维度)滚动 input 张量。

searchsorted

sorted_sequence 的*最内层*维度中查找索引,使得如果将 values 中的相应值插入到索引之前,在排序后,sorted_sequence 中相应*最内层*维度的顺序将得到保留。

tensordot

返回 ab 在多个维度上的收缩。

trace

返回输入 2D 矩阵对角线元素的和。

tril

返回矩阵(2D 张量)或矩阵批次的下三角部分 input,结果张量 out 的其他元素设置为 0。

tril_indices

返回 row x col 矩阵的下三角部分的索引,以一个 2xN 张量的形式给出,其中第一行包含所有索引的行坐标,第二行包含列坐标。

triu

返回矩阵(2D 张量)或矩阵批次的上三角部分 input,结果张量 out 的其他元素设置为 0。

triu_indices

返回 row x col 矩阵的 upper triangular 部分的索引,以一个 2xN 张量的形式给出,其中第一行包含所有索引的行坐标,第二行包含列坐标。

unflatten

将输入张量的某个维度扩展到多个维度。

vander

生成 Vandermonde 矩阵。

view_as_real

返回 input 作为实数张量的视图。

view_as_complex

返回 input 作为复数张量的视图。

resolve_conj

如果 input 的共轭位设置为 True,则返回一个具有物化共轭的新张量,否则返回 input

resolve_neg

如果 input 的负位设置为 True,则返回一个具有物化否定的新张量,否则返回 input

BLAS and LAPACK Operations#

addbmm

对存储在 batch1batch2 中的矩阵执行批处理矩阵-矩阵乘积,并进行缩减的加法步骤(所有矩阵乘法沿第一个维度累积)。

addmm

对矩阵 mat1mat2 执行矩阵乘法。

addmv

对矩阵 mat 和向量 vec 执行矩阵-向量乘积。

addr

对向量 vec1vec2 执行外积,并将其加到矩阵 input 上。

baddbmm

batch1batch2 中的矩阵执行批处理矩阵-矩阵乘积。

bmm

对存储在 inputmat2 中的矩阵执行批处理矩阵-矩阵乘积。

chain_matmul

返回 NN 个 2D 张量的矩阵乘积。

cholesky

计算对称正定矩阵 AA 或对称正定矩阵批次的乔里斯基分解。

cholesky_inverse

在给定乔里斯基分解的情况下,计算复厄米特或实对称正定矩阵的逆。

cholesky_solve

在给定乔里斯基分解的情况下,计算具有复厄米特或实对称正定左侧(lhs)的线性方程组的解。

dot

计算两个 1D 张量的点积。

geqrf

这是直接调用 LAPACK 的 geqrf 的低级函数。

ger

torch.outer() 的别名。

inner

计算 1D 张量的点积。

inverse

torch.linalg.inv() 的别名。

det

torch.linalg.det() 的别名。

logdet

计算方阵或矩阵批次的行列式对数。

slogdet

torch.linalg.slogdet() 的别名。

lu

计算矩阵或矩阵批次 A 的 LU 分解。

lu_solve

使用 lu_factor() 的部分主元 LU 分解,求解线性方程组 Ax=bAx = b 的解。

lu_unpack

lu_factor() 返回的 LU 分解解包成 P, L, U 矩阵。

matmul

两个张量的矩阵乘积。

matrix_power

torch.linalg.matrix_power() 的别名。

matrix_exp

torch.linalg.matrix_exp() 的别名。

mm

对矩阵 inputmat2 进行矩阵乘法。

mv

对矩阵 input 和向量 vec 执行矩阵-向量乘积。

orgqr

torch.linalg.householder_product() 的别名。

ormqr

计算 Householder 矩阵乘积与一般矩阵的矩阵-矩阵乘积。

outer

inputvec2 的外积。

pinverse

torch.linalg.pinv() 的别名。

qr

计算矩阵或矩阵批次 input 的 QR 分解,并返回一个命名元组 (Q, R),其中 input=QR\text{input} = Q R,其中 QQ 是正交矩阵或正交矩阵批次,RR 是上三角矩阵或上三角矩阵批次。

svd

计算矩阵或矩阵批次 input 的奇异值分解。

svd_lowrank

返回矩阵、矩阵批次或稀疏矩阵 AA 的奇异值分解 (U, S, V),使得 AUdiag(S)VHA \approx U \operatorname{diag}(S) V^{\text{H}}

pca_lowrank

对低秩矩阵、此类矩阵的批次或稀疏矩阵执行线性主成分分析 (PCA)。

lobpcg

使用无矩阵 LOBPCG 方法查找对称正定广义特征值问题的 k 个最大(或最小)特征值和对应的特征向量。

trapz

torch.trapezoid() 的别名。

trapezoid

沿 dim 计算 梯形法则

cumulative_trapezoid

沿 dim 累积计算 梯形法则

triangular_solve

求解具有方阵上(或下)可逆三角矩阵 AA 和多个右侧项 bb 的方程组。

vdot

沿维度计算两个 1D 向量的点积。

Foreach Operations#

警告

此 API 处于 Beta 阶段,可能会在未来发生更改。不支持前向模式 AD。

_foreach_abs

torch.abs() 应用于输入列表中的每个张量。

_foreach_abs_

torch.abs() 应用于输入列表中的每个张量。

_foreach_acos

torch.acos() 应用于输入列表中的每个张量。

_foreach_acos_

torch.acos() 应用于输入列表中的每个张量。

_foreach_asin

torch.asin() 应用于输入列表中的每个张量。

_foreach_asin_

torch.asin() 应用于输入列表中的每个张量。

_foreach_atan

torch.atan() 应用于输入列表中的每个张量。

_foreach_atan_

torch.atan() 应用于输入列表中的每个张量。

_foreach_ceil

torch.ceil() 应用于输入列表中的每个张量。

_foreach_ceil_

torch.ceil() 应用于输入列表中的每个张量。

_foreach_cos

torch.cos() 应用于输入列表中的每个张量。

_foreach_cos_

torch.cos() 应用于输入列表中的每个张量。

_foreach_cosh

torch.cosh() 应用于输入列表中的每个张量。

_foreach_cosh_

torch.cosh() 应用于输入列表中的每个张量。

_foreach_erf

torch.erf() 应用于输入列表中的每个张量。

_foreach_erf_

torch.erf() 应用于输入列表中的每个张量。

_foreach_erfc

torch.erfc() 应用于输入列表中的每个张量。

_foreach_erfc_

torch.erfc() 应用于输入列表中的每个张量。

_foreach_exp

torch.exp() 应用于输入列表中的每个张量。

_foreach_exp_

torch.exp() 应用于输入列表中的每个张量。

_foreach_expm1

torch.expm1() 应用于输入列表中的每个张量。

_foreach_expm1_

torch.expm1() 应用于输入列表中的每个张量。

_foreach_floor

torch.floor() 应用于输入列表中的每个张量。

_foreach_floor_

torch.floor() 应用于输入列表中的每个张量。

_foreach_log

torch.log() 应用于输入列表中的每个张量。

_foreach_log_

torch.log() 应用于输入列表中的每个张量。

_foreach_log10

torch.log10() 应用于输入列表中的每个张量。

_foreach_log10_

torch.log10() 应用于输入列表中的每个张量。

_foreach_log1p

torch.log1p() 应用于输入列表中的每个张量。

_foreach_log1p_

torch.log1p() 应用于输入列表中的每个张量。

_foreach_log2

torch.log2() 应用于输入列表中的每个张量。

_foreach_log2_

torch.log2() 应用于输入列表中的每个张量。

_foreach_neg

torch.neg() 应用于输入列表中的每个张量。

_foreach_neg_

torch.neg() 应用于输入列表中的每个张量。

_foreach_tan

torch.tan() 应用于输入列表中的每个张量。

_foreach_tan_

torch.tan() 应用于输入列表中的每个张量。

_foreach_sin

torch.sin() 应用于输入列表中的每个张量。

_foreach_sin_

torch.sin() 应用于输入列表中的每个张量。

_foreach_sinh

torch.sinh() 应用于输入列表中的每个张量。

_foreach_sinh_

torch.sinh() 应用于输入列表中的每个张量。

_foreach_round

torch.round() 应用于输入列表中的每个张量。

_foreach_round_

torch.round() 应用于输入列表中的每个张量。

_foreach_sqrt

torch.sqrt() 应用于输入列表中的每个张量。

_foreach_sqrt_

torch.sqrt() 应用于输入列表中的每个张量。

_foreach_lgamma

torch.lgamma() 应用于输入列表中的每个张量。

_foreach_lgamma_

torch.lgamma() 应用于输入列表中的每个张量。

_foreach_frac

torch.frac() 应用于输入列表中的每个 Tensor。

_foreach_frac_

torch.frac() 应用于输入列表中的每个 Tensor。

_foreach_reciprocal

torch.reciprocal() 应用于输入列表中的每个 Tensor。

_foreach_reciprocal_

torch.reciprocal() 应用于输入列表中的每个 Tensor。

_foreach_sigmoid

torch.sigmoid() 应用于输入列表中的每个 Tensor。

_foreach_sigmoid_

torch.sigmoid() 应用于输入列表中的每个 Tensor。

_foreach_trunc

torch.trunc() 应用于输入列表中的每个 Tensor。

_foreach_trunc_

torch.trunc() 应用于输入列表中的每个 Tensor。

_foreach_zero_

torch.zero() 应用于输入列表中的每个 Tensor。

实用程序#

compiled_with_cxx11_abi

返回 PyTorch 是否使用了 _GLIBCXX_USE_CXX11_ABI=1 构建。

result_type

返回对提供的输入张量执行算术运算后会得到的 torch.dtype

can_cast

根据类型提升 文档 中描述的 PyTorch 转换规则,确定是否允许类型转换。

promote_types

返回大小和标量类型都不小于或低于 type1type2torch.dtype

use_deterministic_algorithms

设置 PyTorch 操作是否必须使用“确定性”算法。

are_deterministic_algorithms_enabled

如果全局确定性标志已开启,则返回 True。

is_deterministic_algorithms_warn_only_enabled

如果全局确定性标志设置为仅警告,则返回 True。

set_deterministic_debug_mode

设置确定性操作的调试模式。

get_deterministic_debug_mode

返回确定性操作的当前调试模式值。

set_float32_matmul_precision

设置 float32 矩阵乘法的内部精度。

get_float32_matmul_precision

返回 float32 矩阵乘法精度的当前值。

set_warn_always

当此标志为 False(默认)时,某些 PyTorch 警告可能每个进程仅出现一次。

get_device_module

返回与给定设备关联的模块(例如,torch.device('cuda'),“mtia:0”,“xpu”,...)。

is_warn_always_enabled

如果全局 warn_always 标志已开启,则返回 True。

vmap

vmap 是向量化映射;vmap(func) 返回一个新的函数,该函数将 func 映射到输入的某个维度上。

_assert

Python assert 的包装器,它是符号可追溯的。

符号数字#

class torch.SymInt(node)[source]#

类似于 int(包括魔术方法),但会将所有操作重定向到被包装的节点。这尤其用于在符号形状工作流中符号记录操作。

as_integer_ratio()[source]#

将此整数表示为精确的整数比

返回类型:

tuple[SymInt, int]

class torch.SymFloat(node)[source]#

类似于 float(包括魔术方法),但会将所有操作重定向到被包装的节点。这尤其用于在符号形状工作流中符号记录操作。

as_integer_ratio()[source]#

将此浮点数表示为精确的整数比

返回类型:

tuple[int, int]

conjugate()[source]#

返回浮点数的复共轭。

返回类型:

SymFloat

hex()[source]#

返回浮点数的十六进制表示。

返回类型:

str

is_integer()[source]#

如果浮点数是整数,则返回 True。

class torch.SymBool(node)[source]#

类似于 bool(包括魔术方法),但会将所有操作重定向到被包装的节点。这尤其用于在符号形状工作流中符号记录操作。

与常规布尔值不同,常规布尔运算符将强制额外保护而不是符号求值。请改用按位运算符来处理此问题。

sym_float

SymInt 感知的浮点类型转换实用程序。

sym_fresh_size

sym_int

SymInt 感知的整数类型转换实用程序。

sym_max

SymInt 感知的 max 实用程序,可避免对 a < b 进行分支。

sym_min

SymInt 感知的 min() 实用程序。

sym_not

SymInt 感知的逻辑非实用程序。

sym_ite

SymInt 感知的 Ternary Operator 实用程序(t if b else f)。

sym_sum

N 元加法,对于长列表比迭代二元加法计算更快。

导出路径#

警告

此功能是原型,未来可能存在破坏兼容性的更改。

export generated/exportdb/index

控制流#

警告

此功能是原型,未来可能存在破坏兼容性的更改。

cond

有条件地应用 true_fnfalse_fn

优化#

compile

使用 TorchDynamo 和指定的后端优化给定的模型/函数。

torch.compile 文档

操作符标签#

class torch.Tag#

成员

core

cudagraph_unsafe

data_dependent_output

dynamic_output_shape

flexible_layout

generated

inplace_view

maybe_aliasing_or_mutating

needs_contiguous_strides

needs_exact_strides

needs_fixed_stride_order

nondeterministic_bitwise

nondeterministic_seeded

pointwise

pt2_compliant_tag

reduction

view_copy

property name#