torch._logging.set_logs#
- torch._logging.set_logs(*, all=None, dynamo=None, aot=None, autograd=None, dynamic=None, inductor=None, distributed=None, c10d=None, ddp=None, fsdp=None, dtensor=None, onnx=None, bytecode=False, aot_graphs=False, aot_joint_graph=False, ddp_graphs=False, graph=False, graph_code=False, graph_code_verbose=False, graph_breaks=False, graph_sizes=False, guards=False, recompiles=False, recompiles_verbose=False, trace_source=False, trace_call=False, trace_bytecode=False, output_code=False, kernel_code=False, schedule=False, perf_hints=False, pre_grad_graphs=False, post_grad_graphs=False, ir_pre_fusion=False, ir_post_fusion=False, onnx_diagnostics=False, fusion=False, overlap=False, export=None, modules=None, cudagraphs=False, sym_node=False, compiled_autograd=False, compiled_autograd_verbose=False, cudagraph_static_inputs=False, benchmarking=False, autotuning=False, graph_region_expansion=False, inductor_metrics=False, hierarchical_compile=False, compute_dependencies=False)[source]#
设置各个组件的日志级别并切换各个日志产物的类型。
警告
此功能是一个原型,未来版本可能存在不兼容的更改。
注意
TORCH_LOGS
环境变量具有最高优先级,因此如果设置了它,此函数将不起作用。组件是 PyTorch 中一组相关的功能。给定组件发出的所有日志消息都有自己的日志级别。如果特定消息的日志级别优先级大于或等于其组件的日志级别设置,则会发出该消息。否则,它将被抑制。这允许您例如静默大量与您无关的日志消息,并提高与您相关的组件日志的详细程度。按优先级从高到低排序的预期日志级别值是:
logging.CRITICAL
logging.ERROR
logging.WARNING
logging.INFO
logging.DEBUG
logging.NOTSET
有关日志级别的更多信息,请参阅 Python
logging
模块的文档: https://docs.pythonlang.cn/3/library/logging.html#logging-levels产物是一种特定类型的日志消息。每个产物都分配给一个父组件。一个组件可以发出许多不同类型的产物。通常,如果下面的参数列表中其对应的设置被打开,或者如果其父组件的日志级别设置低于或等于产物的日志级别,则会发出该产物。
- 关键字参数
all (
Optional[int]
) – 所有组件的默认日志级别。默认值:logging.WARN
dynamo (
Optional[int]
) – TorchDynamo 组件的日志级别。默认值:logging.WARN
aot (
Optional[int]
) – AOTAutograd 组件的日志级别。默认值:logging.WARN
autograd (
Optional[int]
) – autograd 的日志级别。默认值:logging.WARN
inductor (
Optional[int]
) – TorchInductor 组件的日志级别。默认值:logging.WARN
dynamic (
Optional[int]
) – 动态形状的日志级别。默认值:logging.WARN
distributed (
Optional[int]
) – 是否记录 PyTorch Distributed 组件中的 c10d 通信操作和其他调试信息。默认值:logging.WARN
c10d (
Optional[int]
) – 是否记录 PyTorch Distributed 组件中与 c10d 通信操作相关的调试信息。默认值:logging.WARN
ddp (
Optional[int]
) – 是否记录 PyTorch Distributed 组件中与DistributedDataParallel``(DDP)
相关的调试信息。默认值:logging.WARN
fsdp (
Optional[int]
) – 是否记录 PyTorch Distributed 组件中与FullyShardedDataParallel``(FSDP)
相关的调试信息。默认值:logging.WARN
dtensor (
Optional[int]
) – 是否记录 PyTorch Distributed 组件中与DTensor``(DTensor)
相关的调试信息。默认值:logging.WARN
onnx (
Optional[int]
) – ONNX 导出器组件的日志级别。默认值:logging.WARN
bytecode (
bool
) – 是否从 TorchDynamo 发出原始和生成的字节码。默认值:False
aot_graphs (
bool
) – 是否发出 AOTAutograd 生成的图。默认值:False
aot_joint_graph (
bool
) – 是否发出 AOTAutograd 生成的前向-后向联合图。默认值:False
ddp_graphs (
bool
) – 是否发出 DDPOptimizer 生成的图。默认值:False
graph (
bool
) – 是否以表格格式发出 TorchDynamo 捕获的图。默认值:False
graph_code (
bool
) – 是否发出 TorchDynamo 捕获的图的 Python 源代码。默认值:False
graph_code_verbose (
bool
) – 是否为图代码发出详细/中间 FX 通路日志。默认值:False
graph_breaks (
bool
) – 是否发出 TorchDynamo 遇到的图中断。默认值:False
graph_sizes (
bool
) – 是否发出 TorchDynamo 捕获的图的张量大小。默认值:False
guards (
bool
) – 是否发出 TorchDynamo 为每个编译函数生成的 guard。默认值:False
recompiles (
bool
) – 每次 TorchDynamo 重新编译函数时,是否发出 guard 失败的原因和消息。默认值:False
recompiles_verbose (
bool
) – 重新编译函数时,是否发出所有 guard 失败的原因,即使是实际未运行的。默认值:False
trace_source (
bool
) – 当 TorchDynamo 开始跟踪新行时是否发出。默认值:False
trace_call (
bool
) – 当 TorchDynamo 创建对应于函数调用的 FX 节点时,是否发出详细的行位置。仅限 Python 3.11+。默认值:False
trace_bytecode (
bool
) – 在 TorchDynamo 跟踪字节码时,是否发出字节码指令和跟踪的堆栈状态。默认值:False
output_code (
bool
) – 是否为每个图发出 TorchInductor 的输出代码。默认值:False
kernel_code (
bool
) – 是否为每个内核发出 TorchInductor 的输出代码。默认值:False
schedule (
bool
) – 是否发出 TorchInductor 的调度。默认值:False
perf_hints (
bool
) – 是否发出 TorchInductor 的性能提示。默认值:False
pre_grad_graphs (
bool
) – 是否在 Inductor grad 通路之前发出图。默认值:False
post_grad_graphs (
bool
) – 是否在 post grad 通路之后发出生成的图。默认值:False
ir_pre_fusion (
bool
) – 是否在 Inductor fusion 通路之前发出图。默认值:False
ir_post_fusion (
bool
) – 是否在 Inductor fusion 通路之后发出图。默认值:False
onnx_diagnostics (
bool
) – 是否在日志中发出 ONNX 导出器诊断信息。默认值:False
fusion (
bool
) – 是否发出详细的 Inductor fusion 决策。默认值:False
overlap (
bool
) – 是否发出详细的 Inductor 计算/通信重叠决策。默认值:False
sym_node (
bool
) – 是否发出各种 SymNode 操作的调试信息。默认值:False
export (
Optional[int]
) – export 的日志级别。默认值:logging.WARN
benchmarking (
bool
) – 是否发出详细的 Inductor 基准测试信息。默认值:False
modules (dict) – 此参数提供了一种替代方法来指定上述日志组件和产物设置,格式为作为单个参数给出的关键字参数字典。有两种情况可能有用:(1) 如果已注册新的日志组件或产物,但尚未为此函数添加关键字参数,以及 (2) 如果需要设置未注册模块的日志级别。这可以通过提供完全限定的模块名称作为键,并以日志级别作为值来完成。默认值:
None
cudagraph_static_inputs (
bool
) – 是否发出 cudagraph 静态输入检测的调试信息。默认值:False
autotuning (
bool
) – autotuning 选择日志,例如内核源代码、性能和调优参数。默认值:False
graph_region_expansion (
bool
) – 是否发出重复图区域跟踪器的扩展算法的详细步骤。默认值:False
inductor_metrics (
bool
) – 是否估计图中节点的运行时间并将其记录到 metrics 表中。默认值:False
hierarchical_compile (
bool
) – 是否发出分层编译的调试信息。默认值:False
示例
>>> import logging # The following changes the "dynamo" component to emit DEBUG-level # logs, and to emit "graph_code" artifacts. >>> torch._logging.set_logs(dynamo=logging.DEBUG, graph_code=True) # The following enables the logs for a different module >>> torch._logging.set_logs(modules={"unregistered.module.name": logging.DEBUG})