计算时间#
00:00.000 intermediate 目录中 32 个文件的总执行时间
示例 |
时间 |
内存 (MB) |
---|---|---|
自动求导保存张量的钩子 ( |
00:00.000 |
0.0 |
使用 Ax 进行多目标 NAS ( |
00:00.000 |
0.0 |
从零开始的 NLP:使用字符级 RNN 对名称进行分类 ( |
00:00.000 |
0.0 |
从零开始的 NLP:使用字符级 RNN 生成名称 ( |
00:00.000 |
0.0 |
使用自定义函数融合卷积和批量归一化 ( |
00:00.000 |
0.0 |
循环 DQN:训练循环策略 ( |
00:00.000 |
0.0 |
模型集成 ( |
00:00.000 |
0.0 |
前向模式自动微分 (Beta) ( |
00:00.000 |
0.0 |
(Beta) 使用 FX 构建简单的 CPU 性能分析器 ( |
00:00.000 |
0.0 |
Inductor CPU 后端调试和性能分析 ( |
00:00.000 |
0.0 |
雅可比、海森、hvp、vhp 等:组合函数变换 ( |
00:00.000 |
0.0 |
训练一个玩马里奥的 RL 智能体 ( |
00:00.000 |
0.0 |
PyTorch 中的通道优先内存格式 ( |
00:00.000 |
0.0 |
sphx_glr_intermediate_mnist_train_nas.py ( |
00:00.000 |
0.0 |
神经切线核 ( |
00:00.000 |
0.0 |
如何通过将优化器步骤融合到反向传播中来节省内存 ( |
00:00.000 |
0.0 |
参数化教程 ( |
00:00.000 |
0.0 |
逐样本梯度 ( |
00:00.000 |
0.0 |
PyTorch 中 non_blocking 和 pin_memory() 的良好使用指南 ( |
00:00.000 |
0.0 |
剪枝教程 ( |
00:00.000 |
0.0 |
使用 TorchRL 进行强化学习 (PPO) 教程 ( |
00:00.000 |
0.0 |
强化学习 (DQN) 教程 ( |
00:00.000 |
0.0 |
(Beta) 使用缩放点积注意力 (SDPA) 实现高性能 Transformer ( |
00:00.000 |
0.0 |
从零开始的 NLP:使用序列到序列网络和注意力进行翻译 ( |
00:00.000 |
0.0 |
空间变换网络教程 ( |
00:00.000 |
0.0 |
带 TensorBoard 的 PyTorch 分析器 ( |
00:00.000 |
0.0 |
使用 torch.compile 构建卷积/批量归一化融合器 ( |
00:00.000 |
0.0 |
torch.compile 简介 ( |
00:00.000 |
0.0 |
torch.export 教程 ( |
00:00.000 |
0.0 |
TorchRec 简介 ( |
00:00.000 |
0.0 |
TorchVision 目标检测微调教程 ( |
00:00.000 |
0.0 |
通过将 nn.Transformer 替换为嵌套张量和 torch.compile() 来加速 PyTorch Transformer ( |
00:00.000 |
0.0 |