使用 Torch-TensorRT 编译导出的程序¶
Pytorch 2.1 引入了 torch.export API,该 API 可以将 Pytorch 程序的图导出为 ExportedProgram 对象。Torch-TensorRT dynamo 前端会编译这些 ExportedProgram 对象并使用 TensorRT 对它们进行优化。下面是 dynamo 前端的一个简单用法
import torch
import torch_tensorrt
model = MyModel().eval().cuda()
inputs = [torch.randn((1, 3, 224, 224), dtype=torch.float32).cuda()]
exp_program = torch.export.export(model, tuple(inputs))
trt_gm = torch_tensorrt.dynamo.compile(exp_program, inputs) # Output is a torch.fx.GraphModule
trt_gm(*inputs)
注意
torch_tensorrt.dynamo.compile 是用户与 Torch-TensorRT dynamo 前端交互的主要 API。模型的输入类型应为 ExportedProgram (最好是 torch.export.export 或 torch_tensorrt.dynamo.trace (下文讨论) 的输出),输出类型为 torch.fx.GraphModule 对象。
可自定义设置¶
用户有很多选项来定制使用 TensorRT 进行优化的设置。以下是一些常用的选项
inputs- 对于静态形状,这可以是一个 torch 张量或 torch_tensorrt.Input 对象的列表。对于动态形状,这应该是一个torch_tensorrt.Input对象的列表。enabled_precisions- TensorRT 构建器在优化过程中可以使用的一组精度。truncate_long_and_double- 将 long 和 double 值分别截断为 int 和 float。torch_executed_ops- 强制由 Torch 执行的操作。min_block_size- 作为 TensorRT 段执行所需的连续操作符的最小数量。
完整的选项列表可以在 这里 找到
注意
我们目前在 Dynamo 中不支持 INT 精度。目前我们的 Torchscript IR 中存在对此的支持。我们计划在下一个版本中为 dynamo 实现类似的支持。
幕后¶
在幕后,torch_tensorrt.dynamo.compile 对图执行以下操作。
降低 - 应用降低传递以添加/删除操作符以实现最佳转换。
分区 - 根据
min_block_size和torch_executed_ops字段,将图划分为 Pytorch 和 TensorRT 段。转换 - 在此阶段,Pytorch 操作将转换为 TensorRT 操作。
优化 - 转换后,我们构建 TensorRT 引擎并将其嵌入到 pytorch 图中。
跟踪¶
torch_tensorrt.dynamo.trace 可用于跟踪 Pytorch 图并生成 ExportedProgram。这会内部执行一些操作符的分解以供下游优化。然后可以将生成的 ExportedProgram 与 torch_tensorrt.dynamo.compile API 一起使用。如果您的模型中有动态输入形状,您可以使用此 torch_tensorrt.dynamo.trace 来导出具有动态形状的模型。或者,您也可以直接使用 torch.export 带约束。
import torch
import torch_tensorrt
inputs = [torch_tensorrt.Input(min_shape=(1, 3, 224, 224),
opt_shape=(4, 3, 224, 224),
max_shape=(8, 3, 224, 224),
dtype=torch.float32)]
model = MyModel().eval()
exp_program = torch_tensorrt.dynamo.trace(model, inputs)