评价此页

torch.jit.optimize_for_inference#

torch.jit.optimize_for_inference(mod, other_methods=None)[source]#

执行一系列优化过程,以优化模型用于推理。

如果模型尚未冻结,optimize_for_inference 将自动调用 torch.jit.freeze

除了通用的、无论在哪种环境下都能加速模型的优化之外,为推理做准备还将烘焙特定于构建的设置,例如 CUDNN 或 MKLDNN 的存在,并且将来可能会进行在一台机器上加速但在另一台机器上减速的转换。因此,在调用 optimize_for_inference 后不实现序列化,也不保证序列化。

这仍处于原型阶段,并有可能减慢您的模型。到目前为止,主要的用例是 CPU 上的视觉模型,以及在较小程度上是 GPU 上的视觉模型。

示例(优化具有 Conv->Batchnorm 的模块)

import torch

in_channels, out_channels = 3, 32
conv = torch.nn.Conv2d(
    in_channels, out_channels, kernel_size=3, stride=2, bias=True
)
bn = torch.nn.BatchNorm2d(out_channels, eps=0.001)
mod = torch.nn.Sequential(conv, bn)
frozen_mod = torch.jit.optimize_for_inference(torch.jit.script(mod.eval()))
assert "batch_norm" not in str(frozen_mod.graph)
# if built with MKLDNN, convolution will be run with MKLDNN weights
assert "MKLDNN" in frozen_mod.graph
返回类型

ScriptModule