计算时间#
00:29.573 124个文件的总执行时间 来自所有图库
示例 |
时间 |
内存 (MB) |
|---|---|---|
使用foreach_map和torch.compile进行显式水平融合 ( |
00:16.082 |
0.0 |
每个样本的梯度 ( |
00:07.904 |
0.0 |
sphx_glr_beginner_basics_transforms_tutorial.py ( |
00:04.404 |
0.0 |
序列模型和长短期记忆网络 ( |
00:00.847 |
0.0 |
前向模式自动微分 (Beta) ( |
00:00.122 |
0.0 |
模板教程 ( |
00:00.006 |
0.0 |
聊天机器人教程 ( |
00:00.003 |
0.0 |
知识蒸馏教程 ( |
00:00.003 |
0.0 |
DCGAN教程 ( |
00:00.003 |
0.0 |
PyTorch入门 ( |
00:00.003 |
0.0 |
(Beta) 使用缩放点积注意力 (SDPA) 实现高性能 Transformer ( |
00:00.003 |
0.0 |
使用PyTorch进行深度学习 ( |
00:00.003 |
0.0 |
torch.export教程 ( |
00:00.003 |
0.0 |
torch.compile入门 ( |
00:00.003 |
0.0 |
通过替换nn.Transformer与Nested Tensors和torch.compile加速PyTorch Transformer ( |
00:00.003 |
0.0 |
sphx_glr_beginner_introyt_introyt1_tutorial.py ( |
00:00.003 |
0.0 |
Jacobians、Hessians、hvp、vhp等:组合函数变换 ( |
00:00.003 |
0.0 |
对抗性示例生成 ( |
00:00.003 |
0.0 |
sphx_glr_beginner_introyt_trainingyt.py ( |
00:00.003 |
0.0 |
训练一个分类器 ( |
00:00.003 |
0.0 |
Inductor CPU后端调试和分析 ( |
00:00.003 |
0.0 |
PyTorch中non_blocking和pin_memory()的良好使用指南 ( |
00:00.003 |
0.0 |
计算机视觉迁移学习教程 ( |
00:00.003 |
0.0 |
sphx_glr_beginner_introyt_tensorboardyt_tutorial.py ( |
00:00.003 |
0.0 |
从零开始的NLP:使用字符级RNN生成名称 ( |
00:00.003 |
0.0 |
(prototype) 使用TorchAO进行GPU量化 ( |
00:00.003 |
0.0 |
autograd保存张量的hooks ( |
00:00.003 |
0.0 |
使用PyTorch进行神经风格迁移 ( |
00:00.003 |
0.0 |
TorchVision目标检测微调教程 ( |
00:00.002 |
0.0 |
PyTorch中的Channels Last内存格式 ( |
00:00.002 |
0.0 |
torch.compile端到端教程 ( |
00:00.002 |
0.0 |
使用TorchRL进行强化学习 (PPO) 教程 ( |
00:00.002 |
0.0 |
训练一个玩马里奥的强化学习智能体 ( |
00:00.002 |
0.0 |
TorchRL目标:编写DDPG损失函数 ( |
00:00.002 |
0.0 |
MaskedTensor概览 ( |
00:00.002 |
0.0 |
空间变换网络教程 ( |
00:00.002 |
0.0 |
使用MaskedTensor高效编写Adagrad的“稀疏”语义 ( |
00:00.002 |
0.0 |
编写自定义数据集、DataLoaders和Transforms ( |
00:00.002 |
0.0 |
sphx_glr_beginner_onnx_onnx_registry_tutorial.py ( |
00:00.002 |
0.0 |
torch.vmap ( |
00:00.002 |
0.0 |
sphx_glr_beginner_basics_quickstart_tutorial.py ( |
00:00.002 |
0.0 |
使用torch.compiler.set_stance控制动态编译 ( |
00:00.002 |
0.0 |
理解requires_grad、retain_grad、Leaf和Non-leaf Tensors ( |
00:00.002 |
0.0 |
如何通过融合优化器步长到反向传播中节省内存 ( |
00:00.002 |
0.0 |
强化学习 (DQN) 教程 ( |
00:00.002 |
0.0 |
参数化教程 ( |
00:00.002 |
0.0 |
张量 ( |
00:00.002 |
0.0 |
进阶:做出动态决策和Bi-LSTM CRF ( |
00:00.002 |
0.0 |
torch.autograd 简介 ( |
00:00.002 |
0.0 |
(beta) 运行编译后的优化器和LR调度器 ( |
00:00.002 |
0.0 |
神经切线核 ( |
00:00.002 |
0.0 |
模型集成 ( |
00:00.002 |
0.0 |
sphx_glr_beginner_introyt_tensors_deeper_tutorial.py ( |
00:00.002 |
0.0 |
torch.nn 到底是什么? ( |
00:00.002 |
0.0 |
从零开始的NLP:使用字符级RNN对名称进行分类 ( |
00:00.002 |
0.0 |
sphx_glr_beginner_basics_tensorqs_tutorial.py ( |
00:00.002 |
0.0 |
Nested Tensors入门 ( |
00:00.002 |
0.0 |
自定义Python操作符 ( |
00:00.002 |
0.0 |
词嵌入:编码词汇语义 ( |
00:00.002 |
0.0 |
sphx_glr_beginner_onnx_export_simple_model_to_onnx_tutorial.py ( |
00:00.002 |
0.0 |
从检查点加载nn.Module的技巧 ( |
00:00.002 |
0.0 |
从零开始的NLP:使用序列到序列网络和注意力进行翻译 ( |
00:00.002 |
0.0 |
使用Ray Tune进行超参数调优 ( |
00:00.002 |
0.0 |
(beta) 使用TORCH_LOGS Python API与torch.compile ( |
00:00.002 |
0.0 |
MaskedTensor稀疏性 ( |
00:00.002 |
0.0 |
剪枝教程 ( |
00:00.002 |
0.0 |
Pendulum:使用TorchRL编写环境和Transforms ( |
00:00.002 |
0.0 |
可视化梯度 ( |
00:00.002 |
0.0 |
sphx_glr_beginner_basics_data_tutorial.py ( |
00:00.002 |
0.0 |
可选:数据并行 ( |
00:00.002 |
0.0 |
使用自定义函数融合卷积和批量归一化 ( |
00:00.002 |
0.0 |
sphx_glr_beginner_basics_optimization_tutorial.py ( |
00:00.002 |
0.0 |
MaskedTensor高级语义 ( |
00:00.002 |
0.0 |
使用NumPy和SciPy创建扩展 ( |
00:00.002 |
0.0 |
(beta) 利用Torch Function模式与torch.compile ( |
00:00.002 |
0.0 |
使用Ax进行多目标NAS ( |
00:00.002 |
0.0 |
sphx_glr_beginner_introyt_autogradyt_tutorial.py ( |
00:00.002 |
0.0 |
在PyTorch中推理形状 ( |
00:00.002 |
0.0 |
使用区域编译减少torch.compile的冷启动编译时间 ( |
00:00.002 |
0.0 |
nn.Module中用于load_state_dict和张量子类的扩展点 ( |
00:00.002 |
0.0 |
PyTorch: nn ( |
00:00.002 |
0.0 |
torch.export AOTInductor教程(Python运行时 Beta) ( |
00:00.002 |
0.0 |
sphx_glr_beginner_basics_autogradqs_tutorial.py ( |
00:00.002 |
0.0 |
使用区域编译减少AoT冷启动编译时间 ( |
00:00.002 |
0.0 |
sphx_glr_beginner_basics_saveloadrun_tutorial.py ( |
00:00.002 |
0.0 |
将用户定义的Triton内核与torch.compile一起使用 ( |
00:00.002 |
0.0 |
sphx_glr_beginner_basics_buildmodel_tutorial.py ( |
00:00.002 |
0.0 |
(beta) 使用FX构建简单的CPU性能分析器 ( |
00:00.002 |
0.0 |
热身:numpy ( |
00:00.002 |
0.0 |
神经网络 ( |
00:00.002 |
0.0 |
sphx_glr_beginner_onnx_export_control_flow_model_to_onnx_tutorial.py ( |
00:00.002 |
0.0 |
PyTorch: 张量 ( |
00:00.002 |
0.0 |
sphx_glr_beginner_introyt_modelsyt_tutorial.py ( |
00:00.002 |
0.0 |
更改默认设备 ( |
00:00.002 |
0.0 |
(beta) 使用半结构化(2:4)稀疏性加速BERT ( |
00:00.000 |
0.0 |
使用基于PyTorch的USB进行半监督学习 ( |
00:00.000 |
0.0 |
sphx_glr_beginner_basics_intro.py ( |
00:00.000 |
0.0 |
PyTorch: 张量和autograd ( |
00:00.000 |
0.0 |
PyTorch: 定义新的autograd函数 ( |
00:00.000 |
0.0 |
PyTorch: 控制流 + 权重共享 ( |
00:00.000 |
0.0 |
PyTorch: 自定义nn模块 ( |
00:00.000 |
0.0 |
PyTorch: optim ( |
00:00.000 |
0.0 |
sphx_glr_beginner_introyt_captumyt.py ( |
00:00.000 |
0.0 |
sphx_glr_beginner_introyt_introyt_index.py ( |
00:00.000 |
0.0 |
sphx_glr_beginner_onnx_intro_onnx.py ( |
00:00.000 |
0.0 |
分析你的PyTorch模块 ( |
00:00.000 |
0.0 |
保存和加载模型 ( |
00:00.000 |
0.0 |
循环DQN:训练循环策略 ( |
00:00.000 |
0.0 |
sphx_glr_intermediate_mnist_train_nas.py ( |
00:00.000 |
0.0 |
使用TensorBoard的PyTorch分析器 ( |
00:00.000 |
0.0 |
使用torch.compile构建卷积/批量归一化融合器 ( |
00:00.000 |
0.0 |
TorchRec入门 ( |
00:00.000 |
0.0 |
使用Captum进行模型可解释性 ( |
00:00.000 |
0.0 |
自动混合精度 ( |
00:00.000 |
0.0 |
SyntaxError ( |
00:00.000 |
0.0 |
在PyTorch中定义神经网络 ( |
00:00.000 |
0.0 |
PyTorch分析器 ( |
00:00.000 |
0.0 |
如何在PyTorch中使用TensorBoard ( |
00:00.000 |
0.0 |
Timer快速入门 ( |
00:00.000 |
0.0 |
性能调优指南 ( |
00:00.000 |
0.0 |
在PyTorch中使用来自不同模型的参数来预启动模型 ( |
00:00.000 |
0.0 |
PyTorch中的state_dict是什么? ( |
00:00.000 |
0.0 |
在PyTorch中将梯度清零 ( |
00:00.000 |
0.0 |
(prototype) 使用GPUDirect Storage加速torch.save和torch.load ( |
00:00.000 |
0.0 |