• 文档 >
  • 使用 ARM Ethos-U 后端构建和运行 ExecuTorch
快捷方式

使用 ARM Ethos-U 后端构建和运行 ExecuTorch

我们建议您在此之前完成的教程
您将在本教程中学到什么

在本教程中,您将学习如何导出用于 ExecuTorch Arm Ethos-u 后端委托的简单 PyTorch 模型,并在 Corstone FVP 模拟器上运行它。

警告

此 ExecuTorch 后端委托正在积极开发中。您可能会遇到一些粗糙的地方和功能,这些功能可能已被记录或计划但尚未实现。

提示

如果您已经熟悉此委托,您可能希望直接跳转到示例源目录 - https://github.com/pytorch/executorch/tree/main/examples/arm

先决条件

让我们确保您在开始之前拥有所需的一切。

硬件

要成功完成本教程,您将需要一台基于 Linux 的主机,其处理器架构为 Arm aarch64 或 x86_64。

目标设备将是带有 Arm Cortex-M CPU 和 Ethos-U NPU(ML 处理器)的嵌入式平台。本教程将向您展示如何在两者上运行 PyTorch 模型。

我们将使用 固定虚拟平台 (FVP),模拟 Corstone-300(cs300) 和 Corstone-320(cs320) 系统。由于我们将使用 FVP(可以将其视为虚拟硬件),因此本教程不需要任何真实的嵌入式硬件。

软件

首先,您需要安装 ExecuTorch。如果您尚未设置可用的 ExecuTorch 开发环境,请按照推荐的教程进行操作。

为了生成可以在嵌入式平台(真实或虚拟)上运行的软件,我们将需要用于交叉编译的工具链和一个 Arm Ethos-U 软件开发工具包,包括用于 Ethos-U NPU 的 Vela 编译器。

在以下章节中,我们将逐步介绍下载上面列出的每个依赖项的步骤。

设置开发者环境

在本节中,我们将进行一次性设置,例如下载和安装必要的软件,以获取在本教程中运行 ExecuTorch 程序所需的平台支持文件。

为此,我们将使用 examples/arm/setup.sh 脚本以自动方式拉取每个项目。建议在 conda 环境中运行该脚本。成功执行后,您可以直接转到下一步

如前所述,我们目前仅支持基于 Linux 的平台,其处理器架构为 x86_64 或 aarch64。让我们确保我们确实在受支持的平台上。

uname -s
# Linux

uname -m
# x86_64 or aarch64

接下来,我们将逐步介绍 setup.sh 脚本执行的步骤,以更好地理解开发设置。

下载并设置 Corstone-300 和 Corstone-320 FVP

固定虚拟平台 (FVP) 是流行的系统配置的预配置、功能准确的模拟。在本教程中,我们对 Corstone-300 和 Corstone-320 系统感兴趣。我们可以从 Arm 网站下载它。

注意

通过下载和运行 FVP 软件,您将同意 FVP 最终用户许可协议 (EULA)

要下载,我们可以从此处下载 Corstone-300 Ecosystem FVPCorstone-320 Ecosystem FVP。或者 setup.sh 脚本会在 setup_fvp 函数下为您执行此操作。

下载并安装 Arm GNU AArch32 Bare-Metal Toolchain

与 FVP 类似,我们还需要一个工具链来交叉编译 ExecuTorch 运行时、executor-runner 裸机应用程序以及 Corstone-300/Corstone-320 平台上可用的 Cortex-M55/M85 CPU 的其余裸机堆栈。

这些工具链可从此处获得。在本教程中,我们将使用目标为 arm-none-eabi 的 GCC 12.3。与 FVP 一样,setup.sh 脚本将为您下载工具链。请参阅 setup_toolchain 函数。

设置 Arm Ethos-U 软件开发

此 git 仓库是所有 Arm Ethos-U 软件的根目录。它可以帮助我们下载所需的仓库并将它们放置在树状结构中。有关更多详细信息,请参阅设置脚本的 setup_ethos_u 函数。

完成此操作后,您应该拥有一个可用的 FVP 模拟器、一个可用于交叉编译的功能性工具链以及为裸机开发准备就绪的 Ethos-U 软件开发设置。

安装 Vela 编译器

完成后,脚本将通过为您安装 Vela 编译器来完成设置,详细信息请参见 setup_vela 函数。

安装 TOSA 参考模型

这是设置过程的最后一步,使用 setup_tosa_reference_model 函数,setup.sh 脚本将为您安装 TOSA 参考模型。

在设置结束时,如果一切顺利,您的顶级开发目录可能看起来像这样,

.
├── arm-gnu-toolchain-12.3.rel1-x86_64-arm-none-eabi # for x86-64 hosts
├── ethos-u
│   ├── core_platform
│   ├── core_software
│   ├── fetch_externals.py
│   └── [...]
├── ethos-u-vela
├── FVP-corstone300
│   ├── FVP_Corstone_SSE-300.sh
│   └── [...]
├── FVP-corstone320
│   ├── FVP_Corstone_SSE-320.sh
│   └── [...]
├── FVP_cs300.tgz
├── FVP_cs320.tgz
├── gcc.tar.xz
└── reference_model

将 PyTorch 模型转换为 .pte 文件

.pte 是 ExecuTorch 预先 (AoT) 管道生成的二进制文件,它接收 PyTorch 模型 (torch.nn.Module),导出它,运行各种 pass,最后将其序列化为 .pte 文件格式。此二进制文件通常由 ExecuTorch 运行时使用。此文档更深入地介绍了 ExecuTorch 软件堆栈,包括 AoT 和运行时。

在本节中,我们将主要关注 AoT 流程,最终目标是生成 .pte 文件。有一组导出配置可用于在运行时定位不同的后端。对于每个配置,AoT 流程将生成唯一的 .pte 文件。我们将探索几个不同的配置,生成不同的 .pte 文件,特别是对我们的 Corstone-300 系统和可用的处理单元感兴趣的文件。

在我们开始之前,让我们首先讨论我们将使用的 PyTorch 模块。

PyTorch 示例模块

我们将使用几个简单的 PyTorch 模块来探索端到端流程。这些模块将在整个教程中以各种不同的方式使用,并按其 <class_name> 引用。

SoftmaxModule

这是一个非常简单的 PyTorch 模块,只有一个 Softmax 运算符。

import torch

class SoftmaxModule(torch.nn.Module):
    def __init__(self):
        super().__init__()
        self.softmax = torch.nn.Softmax()

    def forward(self, x):
        z = self.softmax(x)
        return z

使用 Python 环境(在同一开发 Linux 机器上)运行它,我们得到预期的输出。

>>> m = SoftmaxModule()
>>> m(torch.ones(2,2))
tensor([[0.5000, 0.5000],
        [0.5000, 0.5000]])

AddModule

让我们编写另一个简单的 PyTorch 模块,只有一个 Add 运算符。

class AddModule(torch.nn.Module):
    def __init__(self):
        super().__init__()

    def forward(self, x):
        return x + x

使用 Python 环境(在同一开发 Linux 机器上)运行它,正如预期的那样,1 + 1 确实产生 2。

>>> m = AddModule()
>>> m(torch.ones(5, dtype=torch.int32)) # integer types for non-quantized Ethos-U delegation
tensor([2, 2, 2, 2, 2], dtype=torch.int32)

请记住这些模块的输入和输出。当我们降低并通过与在此 Linux 机器上运行不同的方式运行它时,我们将使用相同的输入,并期望输出与此处显示的输出匹配。

提示

我们需要注意在 Ethos-U55 上运行网络的数据类型,因为它是一个仅支持整数的处理器。对于此示例,我们显式使用整数类型,对于此类流程的典型用途,网络以浮点数构建和训练,然后从浮点数量化为整数以实现高效推理。

MobileNetV2 模块

MobileNetV2 是边缘和移动设备上常用的生产网络。它也作为 torchvision 中的默认模型提供,因此我们可以使用下面的示例代码加载它。

from torchvision.models import mobilenet_v2  # @manual
from torchvision.models.mobilenetv2 import MobileNet_V2_Weights

mv2 = mobilenet_v2(weights=MobileNet_V2_Weights.DEFAULT)

有关更多详细信息,您可以参考此处的代码片段。

非委托工作流程

在 ExecuTorch AoT 管道中,选项之一是选择后端。ExecuTorch 提供了各种不同的后端。选择后端是可选的,通常是为了针对给定模型计算需求的特定加速模式或硬件而完成的。在没有任何后端的情况下,ExecuTorch 运行时将回退到使用默认提供的、高度可移植的运算符集。

预计在具有专用加速(如 Ethos-U55)的平台上,非委托流程主要用于两种情况

  1. 当网络设计得非常小,最适合在 Cortex-M 上单独运行时。

  2. 当网络混合了可以定位 NPU 的操作和不能定位 NPU 的操作时,例如 Ethos-U55 支持整数运算,因此浮点 Softmax 将回退到在 CPU 上执行。

在此流程中,在没有任何后端委托的情况下,为了说明 ExecuTorch 运行时的可移植性以及运算符库的可移植性,我们将在 .pte 生成期间跳过指定后端。

以下脚本将用作帮助程序实用程序,以帮助我们生成 .pte 文件。它位于 examples/arm 目录中。

python3 -m examples.arm.aot_arm_compiler --model_name="softmax"
# This should produce ./softmax.pte

委托工作流程

与 Arm 合作,我们为 ExecuTorch 引入了一个新的 Arm 后端委托。此后端正在积极开发中,并且在撰写本文时功能有限。

通过在 ExecuTorch AoT 导出管道中包含以下步骤来生成 .pte 文件,我们可以启用此后端委托。

from executorch.backends.arm.arm_backend import generate_ethosu_compile_spec

graph_module_edge.exported_program = to_backend(
    model.exported_program,
    ArmPartitioner(generate_ethosu_compile_spec("ethos-u55-128")))

与非委托流程类似,相同的脚本将用作帮助程序实用程序,以帮助我们生成 .pte 文件。请注意 --delegate 选项以启用 to_backend 调用。

python3 -m examples.arm.aot_arm_compiler --model_name="add" --delegate
# should produce ./add_arm_delegate.pte

委托量化工作流程

在为委托量化网络(如 MobileNetV2)生成 .pte 文件之前,我们需要构建 quantized_ops_aot_lib

SITE_PACKAGES="$(python3 -c 'from distutils.sysconfig import get_python_lib; print(get_python_lib())')"
CMAKE_PREFIX_PATH="${SITE_PACKAGES}/torch"

cd <executorch_root_dir>
mkdir -p cmake-out-aot-lib
cmake -DCMAKE_BUILD_TYPE=Release \
    -DEXECUTORCH_BUILD_XNNPACK=OFF \
    -DEXECUTORCH_BUILD_KERNELS_QUANTIZED=ON \
    -DEXECUTORCH_BUILD_KERNELS_QUANTIZED_AOT=ON \
    -DCMAKE_PREFIX_PATH="$CMAKE_PREFIX_PATH" \
    -DPYTHON_EXECUTABLE=python3 \
-Bcmake-out-aot-lib \
    "${et_root_dir}"

cmake --build cmake-out-aot-lib --parallel -- quantized_ops_aot_lib

quantized_ops_aot_lib 构建之后,我们可以运行以下脚本来生成 .pte 文件

python3 -m examples.arm.aot_arm_compiler --model_name="mv2" --delegate --quantize --so_library="$(find cmake-out-aot-lib -name libquantized_ops_aot_lib.so)"
# should produce ./mv2_arm_delegate.pte.pte

最后,我们应该有三个不同的 .pte 文件。

  • 第一个包含 SoftmaxModule,没有任何后端委托。

  • 第二个包含 AddModule,启用了 Arm Ethos-U 后端委托。

  • 第三个包含 量化的 MV2Model,也启用了 Arm Ethos-U 后端委托。

现在,让我们尝试在裸机环境中的 Corstone-300 和 Corstone-320 平台上运行这些 .pte 文件。

获取裸机可执行文件

在本节中,我们将介绍构建运行时应用程序所需的步骤。然后,它将在目标设备上运行。在 executorch 仓库中,我们有一个功能脚本可以执行完全相同的步骤。它位于 executorch/examples/arm/run.sh。我们将使用它来构建必要的部件,最后在 FVP 上运行先前生成的 PTE 文件。

在开始之前,请确保您已完成 ExecuTorch cmake 构建设置,以及前面描述的设置开发环境的说明。

下面的框图从高层次上演示了如何生成各种构建工件并将它们链接在一起以生成最终的裸机可执行文件。

提示

run.sh 脚本中的 generate_pte_file 函数根据通过 --model_name 输入参数提供的模型生成 .pte 文件

生成 ExecuTorch 库

ExecuTorch 的 CMake 构建系统生成一组构建部件,这些部件对于我们包含和运行 ExecuTorch 运行时以及我们从 Ethos-U SDK 为 Corstone FVP 提供的裸机环境至关重要。

文档详细概述了每个单独的构建部件。为了运行任何变体的 .pte 文件,我们将需要一组核心库。以下是列表,

  • libexecutorch.a

  • libportable_kernels.a

  • libportable_ops_lib.a

要使用 Arm 后端委托调用指令运行 .pte 文件,我们将需要 Arm 后端委托运行时库,即,

  • libexecutorch_delegate_ethos_u.a

这些库在 run.sh 脚本的 build_executorchbuild_quantization_aot_lib 函数中生成。

在此函数中,EXECUTORCH_SELECT_OPS_LIST 将决定构建中包含的便携式运算符的数量,并在运行时可用。它必须与 .pte 文件的要求匹配,否则您将在运行时收到 Missing Operator 错误。

例如,在上面的命令行中,要运行 SoftmaxModule,我们仅包含 softmax CPU 运算符。同样,要以非委托方式运行 AddModule,您将需要 add op,依此类推。您可能已经意识到,对于将由 Arm 后端委托执行的委托运算符,我们不需要在此列表中包含这些运算符。这仅适用于非委托运算符。

提示

run.sh 脚本接受 --portable_kernels 选项,该选项提供了一种提供要包含的便携式内核的逗号分隔列表的方法。

构建 executor_runner 裸机应用程序

SDK 目录与前面准备的目录相同。并且,我们将传递上面生成的 .pte 文件(任何一个)。

请注意,如果要更改模型或 .pte 文件,则必须生成新的 executor-runner 二进制文件。此约束来自我们为 Corstone-300/Corstone-320 平台提供的受限裸机运行时环境。

这由 run.sh 中的 build_executorch_runner 函数执行。

提示

run.sh 脚本接受 --target 选项,该选项提供了一种提供特定目标(Corstone-300(ethos-u55-128) 或 Corstone-320(ethos-u85-128))的方法

在 Corstone FVP 平台上运行

一旦准备好 elf,无论使用哪个 .pte 文件变体生成裸机 elf。以下命令用于在 Corstone-320 FVP 上运行 MV2Model

ethos_u_build_dir=examples/arm/executor_runner/

elf=$(find ${ethos_u_build_dir} -name "arm_executor_runner")

FVP_Corstone_SSE-320_Ethos-U85                          \
    -C mps4_board.subsystem.ethosu.num_macs=${num_macs} \
    -C mps4_board.visualisation.disable-visualisation=1 \
    -C vis_hdlcd.disable_visualisation=1                \
    -C mps4_board.telnetterminal0.start_telnet=0        \
    -C mps4_board.uart0.out_file='-'                    \
    -C mps4_board.uart0.shutdown_on_eot=1               \
    -a "${elf}"                                         \
    --timelimit 120 || true # seconds- after which sim will kill itself

如果成功,模拟器应在 shell 上生成如下内容,

I [executorch:arm_executor_runner.cpp:364] Model in 0x70000000 $
I [executorch:arm_executor_runner.cpp:366] Model PTE file loaded. Size: 4425968 bytes.
I [executorch:arm_executor_runner.cpp:376] Model buffer loaded, has 1 methods
I [executorch:arm_executor_runner.cpp:384] Running method forward
I [executorch:arm_executor_runner.cpp:395] Setup Method allocator pool. Size: 62914560 bytes.
I [executorch:arm_executor_runner.cpp:412] Setting up planned buffer 0, size 752640.
I [executorch:ArmBackendEthosU.cpp:79] ArmBackend::init 0x70000070
I [executorch:arm_executor_runner.cpp:445] Method loaded.
I [executorch:arm_executor_runner.cpp:447] Preparing inputs...
I [executorch:arm_executor_runner.cpp:461] Input prepared.
I [executorch:arm_executor_runner.cpp:463] Starting the model execution...
I [executorch:ArmBackendEthosU.cpp:118] ArmBackend::execute 0x70000070
I [executorch:ArmBackendEthosU.cpp:298] Tensor input/output 0 will be permuted
I [executorch:arm_perf_monitor.cpp:120] NPU Inferences : 1
I [executorch:arm_perf_monitor.cpp:121] Profiler report, CPU cycles per operator:
I [executorch:arm_perf_monitor.cpp:125] ethos-u : cycle_cnt : 1498202 cycles
I [executorch:arm_perf_monitor.cpp:132] Operator(s) total: 1498202 CPU cycles
I [executorch:arm_perf_monitor.cpp:138] Inference runtime: 6925114 CPU cycles total
I [executorch:arm_perf_monitor.cpp:140] NOTE: CPU cycle values and ratio calculations require FPGA and identical CPU/NPU frequency
I [executorch:arm_perf_monitor.cpp:149] Inference CPU ratio: 99.99 %
I [executorch:arm_perf_monitor.cpp:153] Inference NPU ratio: 0.01 %
I [executorch:arm_perf_monitor.cpp:162] cpu_wait_for_npu_cntr : 729 CPU cycles
I [executorch:arm_perf_monitor.cpp:167] Ethos-U PMU report:
I [executorch:arm_perf_monitor.cpp:168] ethosu_pmu_cycle_cntr : 5920305
I [executorch:arm_perf_monitor.cpp:171] ethosu_pmu_cntr0 : 359921
I [executorch:arm_perf_monitor.cpp:171] ethosu_pmu_cntr1 : 0
I [executorch:arm_perf_monitor.cpp:171] ethosu_pmu_cntr2 : 0
I [executorch:arm_perf_monitor.cpp:171] ethosu_pmu_cntr3 : 503
I [executorch:arm_perf_monitor.cpp:178] Ethos-U PMU Events:[ETHOSU_PMU_EXT0_RD_DATA_BEAT_RECEIVED, ETHOSU_PMU_EXT1_RD_DATA_BEAT_RECEIVED, ETHOSU_PMU_EXT0_WR_DATA_BEAT_WRITTEN, ETHOSU_PMU_NPU_IDLE]
I [executorch:arm_executor_runner.cpp:470] model_pte_loaded_size:     4425968 bytes.
I [executorch:arm_executor_runner.cpp:484] method_allocator_used:     1355722 / 62914560  free: 61558838 ( used: 2 % ) 
I [executorch:arm_executor_runner.cpp:491] method_allocator_planned:  752640 bytes
I [executorch:arm_executor_runner.cpp:493] method_allocator_loaded:   966 bytes
I [executorch:arm_executor_runner.cpp:494] method_allocator_input:    602116 bytes
I [executorch:arm_executor_runner.cpp:495] method_allocator_executor: 0 bytes
I [executorch:arm_executor_runner.cpp:498] temp_allocator_used:       0 / 1048576 free: 1048576 ( used: 0 % ) 
I executorch:arm_executor_runner.cpp:152] Model executed successfully.
I executorch:arm_executor_runner.cpp:156] 1 outputs:
Output[0][0]: -0.749744
Output[0][1]: -0.019224
Output[0][2]: 0.134570
...(Skipped)
Output[0][996]: -0.230691
Output[0][997]: -0.634399
Output[0][998]: -0.115345
Output[0][999]: 1.576386
I executorch:arm_executor_runner.cpp:177] Program complete, exiting.
I executorch:arm_executor_runner.cpp:179]

注意

run.sh 脚本提供了各种选项来选择特定的 FVP 目标,使用所需的模型,选择便携式内核,并且可以使用 --help 参数进行探索

要点

通过本教程,我们学习了如何使用 ExecuTorch 软件从 PyTorch 导出标准模型,并在紧凑且功能齐全的 ExecuTorch 运行时上运行它,从而为将模型从 PyTorch 卸载到基于 Arm 的平台提供了平滑的路径。

回顾一下,主要有两种流程

  • 直接流程,它使用内置于 ExecuTorch 的库将工作卸载到 Cortex-M 上。

  • 委托流程,它将图形划分为 Cortex-M 的部分和可以在 Ethos-U 硬件上卸载和加速的部分。

这两种流程都在不断发展,从而实现更多用例和更好的性能。

常见问题解答

如果您在按照本教程操作时遇到任何错误或问题,请在此处在 Github 上提交错误/问题。

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题解答

查看资源