评价此页
torch.compile">

torch.compile 中的编译时缓存#

创建日期:2024 年 6 月 20 日 | 最后更新:2025 年 6 月 24 日 | 最后验证:2024 年 11 月 05 日

作者: Oguz Ulgen

简介#

PyTorch 编译器提供了多种缓存机制,以减少编译延迟。本教程将详细介绍这些机制,以帮助用户为其用例选择最佳选项。

请查看 编译时缓存配置,了解如何配置这些缓存。

另请查看我们在 PT CacheBench Benchmarks 中的缓存基准测试。

先决条件#

在开始此秘籍之前,请确保您已具备以下条件

缓存机制#

torch.compile 提供以下缓存机制:

  • 端到端缓存(也称为 Mega-Cache

  • TorchDynamoTorchInductorTriton 的模块化缓存

需要注意的是,缓存会验证缓存伪影是否与相同的 PyTorch 和 Triton 版本以及相同的 GPU(当设备设置为 cuda 时)一起使用。

torch.compile 端到端缓存(Mega-Cache#

端到端缓存(以下简称 Mega-Cache)是为寻求可移植缓存解决方案的用户提供的理想解决方案,该解决方案可以存储在数据库中,并可能稍后从另一台机器上获取。

Mega-Cache 提供两个编译器 API:

  • torch.compiler.save_cache_artifacts()

  • torch.compiler.load_cache_artifacts()

预期用途是:在编译和执行模型后,用户调用 torch.compiler.save_cache_artifacts(),它将以可移植的形式返回编译器伪影。稍后,可能在不同的机器上,用户可以通过这些伪影调用 torch.compiler.load_cache_artifacts() 来预填充 torch.compile 缓存,以快速启动其缓存。

请考虑以下示例。首先,编译并保存缓存伪影。

@torch.compile
def fn(x, y):
    return x.sin() @ y

a = torch.rand(100, 100, dtype=dtype, device=device)
b = torch.rand(100, 100, dtype=dtype, device=device)

result = fn(a, b)

artifacts = torch.compiler.save_cache_artifacts()

assert artifacts is not None
artifact_bytes, cache_info = artifacts

# Now, potentially store artifact_bytes in a database
# You can use cache_info for logging

稍后,您可以通过以下方式快速启动缓存:

# Potentially download/fetch the artifacts from the database
torch.compiler.load_cache_artifacts(artifact_bytes)

此操作将填充下一节中将讨论的所有模块化缓存,包括 PGOAOTAutogradInductorTritonAutotuning

TorchDynamoTorchInductorTriton 的模块化缓存#

前面提到的 Mega-Cache 由可以无需用户干预即可使用的各个组件组成。默认情况下,PyTorch 编译器附带 TorchDynamoTorchInductorTriton 的本地磁盘缓存。这些缓存包括:

  • FXGraphCache:编译中使用的基于图的 IR 组件的缓存。

  • TritonCache:Triton 编译结果的缓存,包括由 Triton 生成的 cubin 文件和其他缓存伪影。

  • InductorCacheFXGraphCacheTriton 缓存的集合。

  • AOTAutogradCache:联合图伪影的缓存。

  • PGO-cache:用于减少重新编译次数的动态形状决策缓存。

  • AutotuningCache:
    • Inductor 生成 Triton 内核并对其进行基准测试以选择最快的内核。

    • torch.compile 内置的 AutotuningCache 会缓存这些结果。

所有这些缓存伪影都写入 TORCHINDUCTOR_CACHE_DIR,默认情况下该目录看起来像 /tmp/torchinductor_myusername

远程缓存#

我们还为希望利用基于 Redis 的缓存的用户提供远程缓存选项。请查看 编译时缓存配置,了解如何启用基于 Redis 的缓存。

结论#

在本教程中,我们了解到 PyTorch Inductor 的缓存机制通过利用本地和远程缓存显著减少了编译延迟,这些缓存无缝地在后台运行,无需用户干预。