计算时间#
00:00.000 34个文件总执行时间 来自 intermediate
示例 |
时间 |
内存 (MB) |
|---|---|---|
autograd保存张量钩子 ( |
00:00.000 |
0.0 |
使用Ax进行多目标NAS ( |
00:00.000 |
0.0 |
从零开始NLP:使用字符级RNN分类名称 ( |
00:00.000 |
0.0 |
从零开始NLP:使用字符级RNN生成名称 ( |
00:00.000 |
0.0 |
使用自定义函数融合卷积和批量归一化 ( |
00:00.000 |
0.0 |
循环DQN:训练循环策略 ( |
00:00.000 |
0.0 |
模型集成 ( |
00:00.000 |
0.0 |
前向模式自动微分(Beta版) ( |
00:00.000 |
0.0 |
(Beta版)使用FX构建简单的CPU性能分析器 ( |
00:00.000 |
0.0 |
Inductor CPU后端调试和性能分析 ( |
00:00.000 |
0.0 |
雅可比矩阵、海森矩阵、hvp、vhp等:组合函数变换 ( |
00:00.000 |
0.0 |
训练一个玩马里奥的RL智能体 ( |
00:00.000 |
0.0 |
PyTorch中的Channels Last内存格式 ( |
00:00.000 |
0.0 |
sphx_glr_intermediate_mnist_train_nas.py ( |
00:00.000 |
0.0 |
神经切线核 ( |
00:00.000 |
0.0 |
如何通过将优化器步进融合到反向传播中来节省内存 ( |
00:00.000 |
0.0 |
参数化教程 ( |
00:00.000 |
0.0 |
每样本梯度 ( |
00:00.000 |
0.0 |
PyTorch中非阻塞(non_blocking)和pin_memory()的正确使用指南 ( |
00:00.000 |
0.0 |
剪枝教程 ( |
00:00.000 |
0.0 |
使用TorchRL进行强化学习(PPO)教程 ( |
00:00.000 |
0.0 |
强化学习(DQN)教程 ( |
00:00.000 |
0.0 |
(Beta版)使用缩放点积注意力(SDPA)实现高性能Transformer ( |
00:00.000 |
0.0 |
从零开始NLP:使用序列到序列网络和注意力进行翻译 ( |
00:00.000 |
0.0 |
空间变换器网络教程 ( |
00:00.000 |
0.0 |
使用TensorBoard的PyTorch分析器 ( |
00:00.000 |
0.0 |
使用torch.compile构建卷积/批量归一化融合器 ( |
00:00.000 |
0.0 |
torch.compile端到端教程 ( |
00:00.000 |
0.0 |
torch.compile入门 ( |
00:00.000 |
0.0 |
torch.export教程 ( |
00:00.000 |
0.0 |
TorchRec入门 ( |
00:00.000 |
0.0 |
TorchVision目标检测微调教程 ( |
00:00.000 |
0.0 |
通过替换nn.Transformer为Nested Tensors和torch.compile()加速PyTorch Transformer ( |
00:00.000 |
0.0 |
可视化梯度 ( |
00:00.000 |
0.0 |