快捷方式

torch.export 流程演示、常见挑战及解决方案

作者: Ankith Gunapal, Jordi Ramon, Marcos Carranza

torch.export 教程简介 中,我们学习了如何使用 torch.export。本教程在前一个教程的基础上进行扩展,探讨了使用代码导出流行模型的过程,并解决了在使用 torch.export 时可能出现的常见挑战。

在本教程中,您将学习如何为以下用例导出模型

选择这四个模型中的每一个都是为了演示 torch.export 的独特功能,以及实施中面临的一些实际考虑和问题。

先决条件

  • PyTorch 2.4 或更高版本

  • torch.export 和 PyTorch Eager 推理的基本理解。

torch.export 的关键要求:无图中断

torch.compile 通过使用 JIT 将 PyTorch 代码编译为优化的内核来加速 PyTorch 代码。它使用 TorchDynamo 优化给定的模型,并创建一个优化的图,然后使用 API 中指定的后端将其降低到硬件。当 TorchDynamo 遇到不支持的 Python 功能时,它会中断计算图,让默认的 Python 解释器处理不支持的代码,然后恢复捕获图。计算图中的这种中断称为 图中断

torch.exporttorch.compile 之间的主要区别之一是 torch.export 不支持图中断,这意味着您要导出的整个模型或模型的一部分需要是单个图。这是因为处理图中断涉及到使用默认的 Python 评估来解释不支持的操作,这与 torch.export 的设计目的不兼容。您可以在此 链接 中阅读有关各种 PyTorch 框架之间差异的详细信息

您可以使用以下命令来识别程序中的图中断

TORCH_LOGS="graph_breaks" python <file_name>.py

您需要修改您的程序以消除图中断。解决后,您就可以导出模型了。PyTorch 为流行的 HuggingFace 和 TIMM 模型运行 torch.compile夜间基准测试。这些模型中的大多数都没有图中断。

此食谱中的模型没有图中断,但在 torch.export 中失败。

视频分类

MViT 是一类基于 多尺度视觉 Transformer 的模型。此模型已使用 Kinetics-400 数据集 进行了视频分类训练。具有相关数据集的此模型可用于游戏环境中的动作识别。

下面的代码通过使用 batch_size=2 进行跟踪来导出 MViT,然后检查 ExportedProgram 是否可以使用 batch_size=4 运行。

import numpy as np
import torch
from torchvision.models.video import MViT_V1_B_Weights, mvit_v1_b
import traceback as tb

model = mvit_v1_b(weights=MViT_V1_B_Weights.DEFAULT)

# Create a batch of 2 videos, each with 16 frames of shape 224x224x3.
input_frames = torch.randn(2,16, 224, 224, 3)
# Transpose to get [1, 3, num_clips, height, width].
input_frames = np.transpose(input_frames, (0, 4, 1, 2, 3))

# Export the model.
exported_program = torch.export.export(
    model,
    (input_frames,),
)

# Create a batch of 4 videos, each with 16 frames of shape 224x224x3.
input_frames = torch.randn(4,16, 224, 224, 3)
input_frames = np.transpose(input_frames, (0, 4, 1, 2, 3))
try:
    exported_program.module()(input_frames)
except Exception:
    tb.print_exc()

错误:静态批大小

    raise RuntimeError(
RuntimeError: Expected input at *args[0].shape[0] to be equal to 2, but got 4

默认情况下,导出流程将跟踪程序,假设所有输入形状都是静态的,因此如果您使用与跟踪时不同的输入形状运行程序,则会遇到错误。

解决方案

为了解决此错误,我们将输入的第一个维度(batch_size)指定为动态的,指定 batch_size 的预期范围。在下面显示的更正示例中,我们指定预期的 batch_size 可以从 1 到 16。需要注意的一个细节是 min=2 不是错误,并在 0/1 特殊化问题 中进行了解释。有关 torch.export 的动态形状的详细描述,请参阅导出教程。下面显示的代码演示了如何导出具有动态批大小的 mViT

import numpy as np
import torch
from torchvision.models.video import MViT_V1_B_Weights, mvit_v1_b
import traceback as tb


model = mvit_v1_b(weights=MViT_V1_B_Weights.DEFAULT)

# Create a batch of 2 videos, each with 16 frames of shape 224x224x3.
input_frames = torch.randn(2,16, 224, 224, 3)

# Transpose to get [1, 3, num_clips, height, width].
input_frames = np.transpose(input_frames, (0, 4, 1, 2, 3))

# Export the model.
batch_dim = torch.export.Dim("batch", min=2, max=16)
exported_program = torch.export.export(
    model,
    (input_frames,),
    # Specify the first dimension of the input x as dynamic
    dynamic_shapes={"x": {0: batch_dim}},
)

# Create a batch of 4 videos, each with 16 frames of shape 224x224x3.
input_frames = torch.randn(4,16, 224, 224, 3)
input_frames = np.transpose(input_frames, (0, 4, 1, 2, 3))
try:
    exported_program.module()(input_frames)
except Exception:
    tb.print_exc()

自动语音识别

自动语音识别 (ASR) 是使用机器学习将口语转录为文本。 Whisper 是 OpenAI 基于 Transformer 的编码器-解码器模型,该模型在 68 万小时的标记数据上进行了 ASR 和语音翻译训练。下面的代码尝试导出用于 ASR 的 whisper-tiny 模型。

import torch
from transformers import WhisperProcessor, WhisperForConditionalGeneration
from datasets import load_dataset

# load model
model = WhisperForConditionalGeneration.from_pretrained("openai/whisper-tiny")

# dummy inputs for exporting the model
input_features = torch.randn(1,80, 3000)
attention_mask = torch.ones(1, 3000)
decoder_input_ids = torch.tensor([[1, 1, 1 , 1]]) * model.config.decoder_start_token_id

model.eval()

exported_program: torch.export.ExportedProgram= torch.export.export(model, args=(input_features, attention_mask, decoder_input_ids,))

错误:使用 TorchDynamo 进行严格跟踪

torch._dynamo.exc.InternalTorchDynamoError: AttributeError: 'DynamicCache' object has no attribute 'key_cache'

默认情况下,torch.export 使用 TorchDynamo(一种字节码分析引擎)跟踪您的代码,该引擎符号化地分析您的代码并构建图。此分析提供了更强的安全性保证,但并非所有 Python 代码都受支持。当我们使用默认的严格模式导出 whisper-tiny 模型时,由于不支持的功能,通常会在 Dynamo 中返回错误。要了解为什么这会在 Dynamo 中出错,您可以参考此 GitHub 问题

解决方案

为了解决上述错误,torch.export 支持 non_strict 模式,其中程序使用 Python 解释器进行跟踪,其工作方式类似于 PyTorch eager 执行。唯一的区别是所有 Tensor 对象都将被 ProxyTensors 替换,这将记录它们的所有操作到图中。通过使用 strict=False,我们能够导出程序。

import torch
from transformers import WhisperProcessor, WhisperForConditionalGeneration
from datasets import load_dataset

# load model
model = WhisperForConditionalGeneration.from_pretrained("openai/whisper-tiny")

# dummy inputs for exporting the model
input_features = torch.randn(1,80, 3000)
attention_mask = torch.ones(1, 3000)
decoder_input_ids = torch.tensor([[1, 1, 1 , 1]]) * model.config.decoder_start_token_id

model.eval()

exported_program: torch.export.ExportedProgram= torch.export.export(model, args=(input_features, attention_mask, decoder_input_ids,), strict=False)

图像字幕

图像字幕 是用文字定义图像内容的任务。在游戏环境中,图像字幕可用于通过动态生成场景中各种游戏对象的文本描述来增强游戏体验,从而为游戏玩家提供更多详细信息。 BLIP 是 SalesForce Research 发布 的流行的图像字幕模型。下面的代码尝试导出 batch_size=1 的 BLIP。

import torch
from models.blip import blip_decoder

device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
image_size = 384
image = torch.randn(1, 3,384,384).to(device)
caption_input = ""

model_url = 'https://storage.googleapis.com/sfr-vision-language-research/BLIP/models/model_base_capfilt_large.pth'
model = blip_decoder(pretrained=model_url, image_size=image_size, vit='base')
model.eval()
model = model.to(device)

exported_program: torch.export.ExportedProgram= torch.export.export(model, args=(image,caption_input,), strict=False)

错误:无法使用冻结存储区更改张量

导出模型时,可能会因为模型实现可能包含 torch.export 尚不支持的某些 Python 操作而失败。其中一些故障可能有解决方法。BLIP 是一个示例,其中原始模型会出错,但可以通过对代码进行少量更改来解决。 torch.exportExportDB 中列出了支持和不支持操作的常见情况,并展示了如何修改代码以使其与导出兼容。

File "/BLIP/models/blip.py", line 112, in forward
    text.input_ids[:,0] = self.tokenizer.bos_token_id
  File "/anaconda3/envs/export/lib/python3.10/site-packages/torch/_subclasses/functional_tensor.py", line 545, in __torch_dispatch__
    outs_unwrapped = func._op_dk(
RuntimeError: cannot mutate tensors with frozen storage

解决方案

克隆导出失败的 张量

text.input_ids = text.input_ids.clone() # clone the tensor
text.input_ids[:,0] = self.tokenizer.bos_token_id

注意

此约束已在 PyTorch 2.7 nightly 版本中放宽。这应该可以在 PyTorch 2.7 中开箱即用

可提示图像分割

图像分割 是一种计算机视觉技术,它根据像素的特征将数字图像划分为不同的像素组或段。 Segment Anything Model (SAM)) 引入了可提示图像分割,它可以根据指示所需对象的提示来预测对象掩码。 SAM 2 是第一个用于分割图像和视频中对象的统一模型。 SAM2ImagePredictor 类为提示模型提供了简单的接口。该模型可以将点和框提示以及来自先前预测迭代的掩码作为输入。由于 SAM2 为对象跟踪提供了强大的零样本性能,因此它可以用于跟踪场景中的游戏对象。

SAM2ImagePredictor 的 predict 方法中的张量运算发生在 _predict 方法中。因此,我们尝试像这样导出。

ep = torch.export.export(
    self._predict,
    args=(unnorm_coords, labels, unnorm_box, mask_input, multimask_output),
    kwargs={"return_logits": return_logits},
    strict=False,
)

错误:模型不是 torch.nn.Module 类型

torch.export 期望模块的类型为 torch.nn.Module。但是,我们尝试导出的模块是一个类方法。因此它会出错。

Traceback (most recent call last):
  File "/sam2/image_predict.py", line 20, in <module>
    masks, scores, _ = predictor.predict(
  File "/sam2/sam2/sam2_image_predictor.py", line 312, in predict
    ep = torch.export.export(
  File "python3.10/site-packages/torch/export/__init__.py", line 359, in export
    raise ValueError(
ValueError: Expected `mod` to be an instance of `torch.nn.Module`, got <class 'method'>.

解决方案

我们编写一个辅助类,该类继承自 torch.nn.Module 并在该类的 forward 方法中调用 _predict method。完整的代码可以在 此处 找到。

class ExportHelper(torch.nn.Module):
    def __init__(self):
        super().__init__()

    def forward(_, *args, **kwargs):
        return self._predict(*args, **kwargs)

 model_to_export = ExportHelper()
 ep = torch.export.export(
      model_to_export,
      args=(unnorm_coords, labels, unnorm_box, mask_input,  multimask_output),
      kwargs={"return_logits": return_logits},
      strict=False,
      )

结论

在本教程中,我们学习了如何使用 torch.export 通过正确的配置和简单的代码修改来解决挑战,从而为流行的用例导出模型。一旦您能够导出模型,您就可以在服务器的情况下使用 AOTInductor,在边缘设备的情况下使用 ExecuTorchExportedProgram 降低到您的硬件。要了解更多关于 AOTInductor (AOTI) 的信息,请参阅 AOTI 教程。要了解更多关于 ExecuTorch 的信息,请参阅 ExecuTorch 教程

文档

访问 PyTorch 的综合开发者文档

查看文档

教程

获取面向初学者和高级开发者的深度教程

查看教程

资源

查找开发资源并获得问题解答

查看资源