使用 PyTorch C++ 前端¶
PyTorch C++ 前端是 PyTorch 机器学习框架的纯 C++ 接口。虽然 PyTorch 的主要接口自然地是 Python,但这个 Python API 建立在一个庞大的 C++ 代码库之上,提供了基本的数据结构和功能,例如张量和自动微分。C++ 前端公开了一个纯 C++11 API,它扩展了这个底层的 C++ 代码库,并提供了机器学习训练和推理所需的工具。这包括一个内置的常见神经网络建模组件集合;一个 API,用于使用自定义模块扩展此集合;一个流行优化算法库,例如随机梯度下降;一个带有 API 的并行数据加载器,用于定义和加载数据集;序列化例程等等。
本教程将引导您完成使用 C++ 前端训练模型的端到端示例。具体来说,我们将训练一个 DCGAN - 一种生成模型 - 来生成 MNIST 数字的图像。从概念上来说,这是一个简单的示例,但足以让您快速了解 PyTorch C++ 前端,并激发您训练更复杂模型的兴趣。我们将从一些激励性的话语开始,说明为什么要使用 C++ 前端,然后直接深入到定义和训练我们的模型。
提示
观看 CppCon 2018 的这个闪电演讲,以快速(且幽默)地介绍 C++ 前端。
提示
本笔记 对 C++ 前端的组件和设计理念进行了全面概述。
提示
PyTorch C++ 生态系统的文档可在 https://pytorch.ac.cn/cppdocs 获取。您可以在其中找到高级描述以及 API 级别的文档。
动机¶
在我们开始 GAN 和 MNIST 数字的激动人心的旅程之前,让我们后退一步,讨论一下为什么要在开始时使用 C++ 前端而不是 Python 前端。我们(PyTorch 团队)创建 C++ 前端是为了在 Python 无法使用或根本不是正确工具的环境中进行研究。此类环境的示例包括
低延迟系统:您可能希望在纯 C++ 游戏引擎中进行强化学习研究,该引擎具有高帧率和低延迟要求。使用纯 C++ 库比 Python 库更适合这种环境。由于 Python 解释器的速度缓慢,Python 可能根本无法处理。
高度多线程环境:由于全局解释器锁 (GIL),Python 每次只能运行一个系统线程。多处理是一种替代方案,但可扩展性不如多线程,并且存在重大缺点。C++ 没有这样的限制,线程易于使用和创建。需要大量并行化的模型(例如 深度神经进化 中使用的模型)可以从中受益。
现有的 C++ 代码库:您可能拥有一个现有的 C++ 应用程序,它执行从在后端服务器中提供网页到在照片编辑软件中渲染 3D 图形等各种任务,并且希望将机器学习方法集成到您的系统中。C++ 前端允许您继续使用 C++,避免在 Python 和 C++ 之间来回绑定带来的麻烦,同时保留传统 PyTorch(Python)体验的大部分灵活性和直观性。
C++ 前端并非旨在与 Python 前端竞争。它是为了补充 Python 前端。我们知道研究人员和工程师都喜欢 PyTorch 的简单性、灵活性和直观的 API。我们的目标是确保您可以在所有可能的环境中利用这些核心设计原则,包括上面描述的环境。如果上述场景之一很好地描述了您的用例,或者您只是感兴趣或好奇,请继续阅读,我们将在下文中详细探讨 C++ 前端。
提示
C++ 前端试图提供一个尽可能接近 Python 前端的 API。如果您熟悉 Python 前端并且曾经问自己“如何在 C++ 前端完成 X?”,请按照在 Python 中的方式编写代码,并且通常情况下,C++ 中将与 Python 中一样提供相同的函数和方法(只需记住用双冒号替换点)。
编写基本应用程序¶
让我们从编写一个最小的 C++ 应用程序开始,以验证我们是否对我们的设置和构建环境保持一致。首先,您需要获取 LibTorch 分发的副本 - 我们的预构建 zip 存档,其中包含使用 C++ 前端所需的所有相关头文件、库和 CMake 构建文件。LibTorch 分发可在 PyTorch 网站 上下载,适用于 Linux、MacOS 和 Windows。本教程的其余部分将假设一个基本的 Ubuntu Linux 环境,但是您也可以在 MacOS 或 Windows 上学习。
提示
有关 安装 PyTorch 的 C++ 分发版 的说明,请参阅以下步骤的更详细说明。
提示
在 Windows 上,调试版和发行版构建不兼容 ABI。如果您打算在调试模式下构建项目,请尝试 LibTorch 的调试版。此外,请确保在下面的 cmake --build .
行中指定正确的配置。
第一步是从 PyTorch 网站检索到的链接,在本地下载 LibTorch 分发版。对于一个普通的 Ubuntu Linux 环境,这意味着运行
# If you need e.g. CUDA 9.0 support, please replace "cpu" with "cu90" in the URL below.
wget https://download.pytorch.org/libtorch/nightly/cpu/libtorch-shared-with-deps-latest.zip
unzip libtorch-shared-with-deps-latest.zip
接下来,让我们编写一个名为 dcgan.cpp
的小型 C++ 文件,它包含 torch/torch.h
,并且目前只打印一个三乘三的单位矩阵
#include <torch/torch.h>
#include <iostream>
int main() {
torch::Tensor tensor = torch::eye(3);
std::cout << tensor << std::endl;
}
为了构建这个小型应用程序以及我们稍后将要编写的完整训练脚本,我们将使用这个 CMakeLists.txt
文件
cmake_minimum_required(VERSION 3.0 FATAL_ERROR)
project(dcgan)
find_package(Torch REQUIRED)
add_executable(dcgan dcgan.cpp)
target_link_libraries(dcgan "${TORCH_LIBRARIES}")
set_property(TARGET dcgan PROPERTY CXX_STANDARD 14)
注意
虽然 CMake 是 LibTorch 推荐的构建系统,但它不是硬性要求。您也可以使用 Visual Studio 项目文件、QMake、纯 Makefiles 或任何您觉得舒适的构建环境。但是,我们不提供对此的开箱即用支持。
请注意上面 CMake 文件中的第 4 行:find_package(Torch REQUIRED)
。这指示 CMake 查找 LibTorch 库的构建配置。为了使 CMake 知道从 哪里 查找这些文件,我们必须在调用 cmake
时设置 CMAKE_PREFIX_PATH
。在我们执行此操作之前,让我们就 dcgan
应用程序的以下目录结构达成一致
dcgan/
CMakeLists.txt
dcgan.cpp
此外,我将把解压缩后的 LibTorch 分发的路径称为 /path/to/libtorch
。请注意,这**必须是绝对路径**。特别是,将 CMAKE_PREFIX_PATH
设置为类似 ../../libtorch
的内容会导致意外方式的错误。相反,请编写 $PWD/../../libtorch
以获取相应的绝对路径。现在,我们可以构建我们的应用程序了
root@fa350df05ecf:/home# mkdir build
root@fa350df05ecf:/home# cd build
root@fa350df05ecf:/home/build# cmake -DCMAKE_PREFIX_PATH=/path/to/libtorch ..
-- The C compiler identification is GNU 5.4.0
-- The CXX compiler identification is GNU 5.4.0
-- Check for working C compiler: /usr/bin/cc
-- Check for working C compiler: /usr/bin/cc -- works
-- Detecting C compiler ABI info
-- Detecting C compiler ABI info - done
-- Detecting C compile features
-- Detecting C compile features - done
-- Check for working CXX compiler: /usr/bin/c++
-- Check for working CXX compiler: /usr/bin/c++ -- works
-- Detecting CXX compiler ABI info
-- Detecting CXX compiler ABI info - done
-- Detecting CXX compile features
-- Detecting CXX compile features - done
-- Looking for pthread.h
-- Looking for pthread.h - found
-- Looking for pthread_create
-- Looking for pthread_create - not found
-- Looking for pthread_create in pthreads
-- Looking for pthread_create in pthreads - not found
-- Looking for pthread_create in pthread
-- Looking for pthread_create in pthread - found
-- Found Threads: TRUE
-- Found torch: /path/to/libtorch/lib/libtorch.so
-- Configuring done
-- Generating done
-- Build files have been written to: /home/build
root@fa350df05ecf:/home/build# cmake --build . --config Release
Scanning dependencies of target dcgan
[ 50%] Building CXX object CMakeFiles/dcgan.dir/dcgan.cpp.o
[100%] Linking CXX executable dcgan
[100%] Built target dcgan
在上面,我们首先在 dcgan
目录中创建了一个名为 build
的文件夹,进入该文件夹,运行 cmake
命令来生成必要的构建(Make)文件,最后通过运行 cmake --build . --config Release
成功编译了项目。我们现在已经准备好执行最小的二进制文件并完成本节关于基本项目配置的内容
root@fa350df05ecf:/home/build# ./dcgan
1 0 0
0 1 0
0 0 1
[ Variable[CPUFloatType]{3,3} ]
看起来像一个单位矩阵!
定义神经网络模型¶
现在我们已经配置了基本环境,我们可以深入研究本教程中更有趣的部分。首先,我们将讨论如何在 C++ 前端中定义和交互使用模块。我们将从基本的小规模示例模块开始,然后使用 C++ 前端提供的广泛的内置模块库实现一个完整的 GAN。
模块 API 基础¶
与 Python 接口一致,基于 C++ 前端的神经网络由称为 模块 的可重用构建块组成。有一个基模块类,所有其他模块都派生自该类。在 Python 中,此类是 torch.nn.Module
,在 C++ 中是 torch::nn::Module
。除了实现模块封装的算法的 forward()
方法之外,模块通常还包含三种子对象:参数、缓冲区和子模块。
参数和缓冲区以张量的形式存储状态。参数记录梯度,而缓冲区不记录梯度。参数通常是神经网络的可训练权重。缓冲区的示例包括用于批量归一化的均值和方差。为了重用特定的逻辑和状态块,PyTorch API 允许模块嵌套。嵌套的模块被称为 子模块。
参数、缓冲区和子模块必须显式注册。注册后,可以使用 parameters()
或 buffers()
等方法检索整个(嵌套)模块层次结构中所有参数的容器。类似地,像 to(...)
这样的方法(例如,to(torch::kCUDA)
将所有参数和缓冲区从 CPU 内存移动到 CUDA 内存)作用于整个模块层次结构。
定义模块并注册参数¶
为了将这些文字转化为代码,让我们考虑在 Python 接口中编写的这个简单模块
import torch
class Net(torch.nn.Module):
def __init__(self, N, M):
super(Net, self).__init__()
self.W = torch.nn.Parameter(torch.randn(N, M))
self.b = torch.nn.Parameter(torch.randn(M))
def forward(self, input):
return torch.addmm(self.b, input, self.W)
在 C++ 中,它看起来像这样
#include <torch/torch.h>
struct Net : torch::nn::Module {
Net(int64_t N, int64_t M) {
W = register_parameter("W", torch::randn({N, M}));
b = register_parameter("b", torch::randn(M));
}
torch::Tensor forward(torch::Tensor input) {
return torch::addmm(b, input, W);
}
torch::Tensor W, b;
};
就像在 Python 中一样,我们定义了一个名为 Net
的类(为了简单起见,这里使用 struct
而不是 class
)并从模块基类派生。在构造函数中,我们使用 torch::randn
创建张量,就像我们在 Python 中使用 torch.randn
一样。一个有趣的区别是我们注册参数的方式。在 Python 中,我们用 torch.nn.Parameter
类包装张量,而在 C++ 中,我们必须将张量通过 register_parameter
方法传递。这样做的原因是 Python API 可以检测到一个属性是 torch.nn.Parameter
类型,并自动注册此类张量。在 C++ 中,反射非常有限,因此提供了一种更传统(更不神奇)的方法。
注册子模块并遍历模块层次结构¶
与注册参数的方式相同,我们也可以注册子模块。在 Python 中,子模块在被分配为模块的属性时会自动检测和注册
class Net(torch.nn.Module):
def __init__(self, N, M):
super(Net, self).__init__()
# Registered as a submodule behind the scenes
self.linear = torch.nn.Linear(N, M)
self.another_bias = torch.nn.Parameter(torch.rand(M))
def forward(self, input):
return self.linear(input) + self.another_bias
例如,这允许我们使用 parameters()
方法递归地访问模块层次结构中的所有参数
>>> net = Net(4, 5)
>>> print(list(net.parameters()))
[Parameter containing:
tensor([0.0808, 0.8613, 0.2017, 0.5206, 0.5353], requires_grad=True), Parameter containing:
tensor([[-0.3740, -0.0976, -0.4786, -0.4928],
[-0.1434, 0.4713, 0.1735, -0.3293],
[-0.3467, -0.3858, 0.1980, 0.1986],
[-0.1975, 0.4278, -0.1831, -0.2709],
[ 0.3730, 0.4307, 0.3236, -0.0629]], requires_grad=True), Parameter containing:
tensor([ 0.2038, 0.4638, -0.2023, 0.1230, -0.0516], requires_grad=True)]
为了在 C++ 中注册子模块,请使用恰如其分的 register_module()
方法来注册像 torch::nn::Linear
这样的模块
struct Net : torch::nn::Module {
Net(int64_t N, int64_t M)
: linear(register_module("linear", torch::nn::Linear(N, M))) {
another_bias = register_parameter("b", torch::randn(M));
}
torch::Tensor forward(torch::Tensor input) {
return linear(input) + another_bias;
}
torch::nn::Linear linear;
torch::Tensor another_bias;
};
提示
您可以在 torch::nn
命名空间的文档中找到 torch::nn::Linear
、torch::nn::Dropout
或 torch::nn::Conv2d
等所有可用内置模块的完整列表 这里。
上面代码中一个细微之处是为什么子模块是在构造函数的初始化列表中创建的,而参数是在构造函数体内部创建的。这样做是有原因的,我们将在下面关于 C++ 前端 *所有权模型* 的部分中讨论它。然而,最终结果是,我们可以像在 Python 中一样递归地访问模块树的参数。调用 parameters()
返回一个 std::vector<torch::Tensor>
,我们可以对其进行迭代。
int main() {
Net net(4, 5);
for (const auto& p : net.parameters()) {
std::cout << p << std::endl;
}
}
这将打印出
root@fa350df05ecf:/home/build# ./dcgan
0.0345
1.4456
-0.6313
-0.3585
-0.4008
[ Variable[CPUFloatType]{5} ]
-0.1647 0.2891 0.0527 -0.0354
0.3084 0.2025 0.0343 0.1824
-0.4630 -0.2862 0.2500 -0.0420
0.3679 -0.1482 -0.0460 0.1967
0.2132 -0.1992 0.4257 0.0739
[ Variable[CPUFloatType]{5,4} ]
0.01 *
3.6861
-10.1166
-45.0333
7.9983
-20.0705
[ Variable[CPUFloatType]{5} ]
它有三个参数,就像在 Python 中一样。要查看这些参数的名称,C++ API 提供了一个 named_parameters()
方法,它返回一个 OrderedDict
,就像在 Python 中一样。
Net net(4, 5);
for (const auto& pair : net.named_parameters()) {
std::cout << pair.key() << ": " << pair.value() << std::endl;
}
我们可以再次执行它以查看输出。
root@fa350df05ecf:/home/build# make && ./dcgan 11:13:48
Scanning dependencies of target dcgan
[ 50%] Building CXX object CMakeFiles/dcgan.dir/dcgan.cpp.o
[100%] Linking CXX executable dcgan
[100%] Built target dcgan
b: -0.1863
-0.8611
-0.1228
1.3269
0.9858
[ Variable[CPUFloatType]{5} ]
linear.weight: 0.0339 0.2484 0.2035 -0.2103
-0.0715 -0.2975 -0.4350 -0.1878
-0.3616 0.1050 -0.4982 0.0335
-0.1605 0.4963 0.4099 -0.2883
0.1818 -0.3447 -0.1501 -0.0215
[ Variable[CPUFloatType]{5,4} ]
linear.bias: -0.0250
0.0408
0.3756
-0.2149
-0.3636
[ Variable[CPUFloatType]{5} ]
注意
文档 for torch::nn::Module
包含对模块层次结构进行操作的所有方法的完整列表。
以正向模式运行网络¶
要在 C++ 中执行网络,我们只需调用我们自己定义的 forward()
方法。
int main() {
Net net(4, 5);
std::cout << net.forward(torch::ones({2, 4})) << std::endl;
}
这将打印出类似的内容
root@fa350df05ecf:/home/build# ./dcgan
0.8559 1.1572 2.1069 -0.1247 0.8060
0.8559 1.1572 2.1069 -0.1247 0.8060
[ Variable[CPUFloatType]{2,5} ]
模块所有权¶
到目前为止,我们知道如何在 C++ 中定义模块、注册参数、注册子模块、通过 parameters()
等方法遍历模块层次结构,以及最后运行模块的 forward()
方法。虽然 C++ API 中还有许多方法、类和主题需要学习,但我建议您参考 文档 获取完整菜单。我们还将讨论一些更多概念,因为我们将立即实现 DCGAN 模型和端到端训练管道。在我们这样做之前,让我简要介绍一下 C++ 前端为 torch::nn::Module
的子类提供的 *所有权模型*。
对于本讨论,所有权模型指的是模块存储和传递的方式 - 这决定了谁或什么 *拥有* 特定的模块实例。在 Python 中,对象总是动态分配的(在堆上)并且具有引用语义。这很容易使用且易于理解。实际上,在 Python 中,您可以在很大程度上忘记对象的位置以及它们的引用方式,而专注于完成工作。
C++ 是一种更低级的语言,在这一领域提供了更多选择。这增加了复杂性,并极大地影响了 C++ 前端的设计和人体工程学。特别是对于 C++ 前端的模块,我们可以选择使用 *值语义* 或 *引用语义*。第一种情况是最简单的,也是到目前为止在示例中展示的:模块对象分配在堆栈上,当传递给函数时,可以复制、移动(使用 std::move
)或通过引用或指针获取。
struct Net : torch::nn::Module { };
void a(Net net) { }
void b(Net& net) { }
void c(Net* net) { }
int main() {
Net net;
a(net);
a(std::move(net));
b(net);
c(&net);
}
对于第二种情况 - 引用语义 - 我们可以使用 std::shared_ptr
。引用语义的优势在于,像在 Python 中一样,它减少了思考模块如何传递给函数以及参数如何声明的认知负担(假设您在所有地方都使用 shared_ptr
)。
struct Net : torch::nn::Module {};
void a(std::shared_ptr<Net> net) { }
int main() {
auto net = std::make_shared<Net>();
a(net);
}
根据我们的经验,来自动态语言的研究人员非常喜欢引用语义而不是值语义,即使后者更“原生”于 C++。同样重要的是要注意,torch::nn::Module
的设计,为了保持与 Python API 的人体工程学特性一致,依赖于共享所有权。例如,让我们看看我们之前(此处缩短)的 Net
定义。
struct Net : torch::nn::Module {
Net(int64_t N, int64_t M)
: linear(register_module("linear", torch::nn::Linear(N, M)))
{ }
torch::nn::Linear linear;
};
为了使用 linear
子模块,我们希望将其直接存储在我们的类中。但是,我们也希望模块基类了解并访问此子模块。为此,它必须存储对该子模块的引用。此时,我们已经遇到了对共享所有权的需求。 torch::nn::Module
类和具体的 Net
类都需要对子模块的引用。为此,基类将模块存储为 shared_ptr
,因此具体类也必须这样做。
但是等等!我在上面的代码中没有看到任何关于 shared_ptr
的提及!为什么呢?因为 std::shared_ptr<MyModule>
键入起来太麻烦了。为了让研究人员保持高效,我们想出了一个复杂的方案来隐藏对 shared_ptr
的提及 - 这通常是为值语义保留的优势 - 同时保留引用语义。为了理解它的工作原理,我们可以看看核心库中 torch::nn::Linear
模块的简化定义(完整定义在此)。
struct LinearImpl : torch::nn::Module {
LinearImpl(int64_t in, int64_t out);
Tensor forward(const Tensor& input);
Tensor weight, bias;
};
TORCH_MODULE(Linear);
简而言之:模块不叫 Linear
,而是叫 LinearImpl
。一个宏, TORCH_MODULE
然后定义了实际的 Linear
类。这个“生成的”类实际上是对 std::shared_ptr<LinearImpl>
的包装。它是一个包装器,而不是一个简单的 typedef,这样一来,除其他事项外,构造函数仍然按预期工作,也就是说,您仍然可以写 torch::nn::Linear(3, 4)
而不是 std::make_shared<LinearImpl>(3, 4)
。我们将宏创建的类称为模块 *持有者*。与(共享)指针一样,您可以使用箭头运算符(如 model->forward(...)
)访问底层对象。最终结果是一个所有权模型,它与 Python API 非常相似。引用语义成为默认值,但没有 std::shared_ptr
或 std::make_shared
的额外键入。对于我们的 Net
,使用模块持有者 API 看起来像这样。
struct NetImpl : torch::nn::Module {};
TORCH_MODULE(Net);
void a(Net net) { }
int main() {
Net net;
a(net);
}
这里有一个微妙的问题值得一提。一个默认构造的 std::shared_ptr
是“空的”,即包含一个空指针。默认构造的 Linear
或 Net
是什么?这是一个棘手的选择。我们可以说它应该是一个空的(空)std::shared_ptr<LinearImpl>
。但是,请记住,Linear(3, 4)
等同于 std::make_shared<LinearImpl>(3, 4)
。这意味着如果我们决定 Linear linear;
应该是一个空指针,那么将无法构造一个不带任何构造函数参数或将所有参数都设置为默认值的模块。为此,在当前 API 中,默认构造的模块持有者(如 Linear()
)会调用底层模块的默认构造函数(LinearImpl()
)。如果底层模块没有默认构造函数,您会收到编译器错误。要构造空持有者,您可以将 nullptr
传递给持有者的构造函数。
实际上,这意味着您可以像前面展示的那样使用子模块,其中模块在 *初始化列表* 中注册和构造。
struct Net : torch::nn::Module {
Net(int64_t N, int64_t M)
: linear(register_module("linear", torch::nn::Linear(N, M)))
{ }
torch::nn::Linear linear;
};
或者,您可以在构造函数中首先使用空指针构造持有者,然后将其赋值(对 Pythonista 来说更熟悉)。
struct Net : torch::nn::Module {
Net(int64_t N, int64_t M) {
linear = register_module("linear", torch::nn::Linear(N, M));
}
torch::nn::Linear linear{nullptr}; // construct an empty holder
};
总之:您应该使用哪种所有权模型 - 哪种语义?C++ 前端的 API 最好支持模块持有者提供的所有权模型。这种机制的唯一缺点是在模块声明下方多了一行样板代码。也就是说,最简单的模型仍然是介绍中展示的值语义模型。对于小型、简单的脚本,您也可以用它来应付。但您迟早会发现,由于技术原因,它并不总是受支持的。例如,序列化 API(torch::save
和 torch::load
)只支持模块持有者(或普通的 shared_ptr
)。因此,模块持有者 API 是使用 C++ 前端定义模块的推荐方式,我们将在本教程中继续使用此 API。
定义 DCGAN 模块¶
我们现在有了必要的背景和介绍,可以为我们想要在这篇文章中解决的机器学习任务定义模块。回顾一下:我们的任务是从 MNIST 数据集 生成数字图像。我们想使用 生成对抗网络 (GAN) 来解决此任务。特别是,我们将使用 DCGAN 架构 - 它是最早也是最简单的架构之一,但对于这项任务完全足够了。
提示
您可以在 此仓库 中找到本教程中介绍的完整源代码。
GAN 是什么¶
GAN 由两个不同的神经网络模型组成:生成器和判别器。生成器接收来自噪声分布的样本,其目标是将每个噪声样本转换为与目标分布(在本例中为 MNIST 数据集)中的图像相似的图像。判别器反过来接收来自 MNIST 数据集的真实图像或来自生成器的虚假图像。它被要求输出一个概率,判断特定图像的真实程度(更接近 1
)或虚假程度(更接近 0
)。判别器关于生成器产生的图像的真实程度的反馈用于训练生成器。关于判别器对真实性的判断能力的反馈用于优化判别器。理论上,生成器和判别器之间的微妙平衡使它们同步改进,导致生成器产生与目标分布不可区分的图像,欺骗判别器(此时)出色的辨识能力,对真实和虚假图像都输出概率 0.5
。对我们来说,最终结果是一台接收噪声作为输入并生成逼真的数字图像作为输出的机器。
生成器模块¶
我们首先定义生成器模块,它包含一系列转置二维卷积、批量归一化和 ReLU 激活单元。我们以函数方式显式地在自定义模块的 forward()
方法中传递模块之间的输入。
struct DCGANGeneratorImpl : nn::Module {
DCGANGeneratorImpl(int kNoiseSize)
: conv1(nn::ConvTranspose2dOptions(kNoiseSize, 256, 4)
.bias(false)),
batch_norm1(256),
conv2(nn::ConvTranspose2dOptions(256, 128, 3)
.stride(2)
.padding(1)
.bias(false)),
batch_norm2(128),
conv3(nn::ConvTranspose2dOptions(128, 64, 4)
.stride(2)
.padding(1)
.bias(false)),
batch_norm3(64),
conv4(nn::ConvTranspose2dOptions(64, 1, 4)
.stride(2)
.padding(1)
.bias(false))
{
// register_module() is needed if we want to use the parameters() method later on
register_module("conv1", conv1);
register_module("conv2", conv2);
register_module("conv3", conv3);
register_module("conv4", conv4);
register_module("batch_norm1", batch_norm1);
register_module("batch_norm2", batch_norm2);
register_module("batch_norm3", batch_norm3);
}
torch::Tensor forward(torch::Tensor x) {
x = torch::relu(batch_norm1(conv1(x)));
x = torch::relu(batch_norm2(conv2(x)));
x = torch::relu(batch_norm3(conv3(x)));
x = torch::tanh(conv4(x));
return x;
}
nn::ConvTranspose2d conv1, conv2, conv3, conv4;
nn::BatchNorm2d batch_norm1, batch_norm2, batch_norm3;
};
TORCH_MODULE(DCGANGenerator);
DCGANGenerator generator(kNoiseSize);
现在我们可以调用 forward()
在 DCGANGenerator
上将噪声样本映射到图像。
所选择的特定模块,例如 nn::ConvTranspose2d
和 nn::BatchNorm2d
,遵循前面概述的结构。常数 kNoiseSize
决定输入噪声向量的尺寸,并设置为 100
。当然,超参数是通过研究生下降找到的。
注意
在发现超参数的过程中,没有研究生受到伤害。他们定期食用 Soylent。
注意
简要说明一下在 C++ 前端将选项传递给内置模块(如 Conv2d
)的方式:每个模块都有一些必需的选项,例如 BatchNorm2d
的特征数量。如果您只需要配置必需的选项,可以直接将它们传递给模块的构造函数,例如 BatchNorm2d(128)
或 Dropout(0.5)
或 Conv2d(8, 4, 2)
(用于输入通道数、输出通道数和内核尺寸)。但是,如果您需要修改其他选项(通常是默认的),例如 Conv2d
的 bias
,则需要构造并传递一个选项对象。C++ 前端的每个模块都具有一个关联的选项结构,称为 ModuleOptions
,其中 Module
是模块的名称,例如 LinearOptions
用于 Linear
。这就是我们对上面的 Conv2d
模块所做的操作。
判别器模块¶
判别器类似地也是一系列卷积、批量归一化和激活。但是,卷积现在是普通的卷积,而不是转置的卷积,我们使用带有 0.2 alpha 值的 Leaky ReLU,而不是普通的 ReLU。此外,最终的激活变成了 Sigmoid,它将值压缩到 0 到 1 之间的范围内。然后,我们可以将这些压缩值解释为判别器分配给图像的概率,表示这些图像为真实图像。
为了构建判别器,我们将尝试一些不同的方法:一个 Sequential 模块。与 Python 中一样,PyTorch 在这里提供两个 API 用于模型定义:一个函数式 API,其中输入通过连续的函数传递(例如生成器模块示例),另一个是面向对象 API,我们在其中构建一个 Sequential 模块,其中包含整个模型作为子模块。使用 Sequential,判别器将如下所示
nn::Sequential discriminator(
// Layer 1
nn::Conv2d(
nn::Conv2dOptions(1, 64, 4).stride(2).padding(1).bias(false)),
nn::LeakyReLU(nn::LeakyReLUOptions().negative_slope(0.2)),
// Layer 2
nn::Conv2d(
nn::Conv2dOptions(64, 128, 4).stride(2).padding(1).bias(false)),
nn::BatchNorm2d(128),
nn::LeakyReLU(nn::LeakyReLUOptions().negative_slope(0.2)),
// Layer 3
nn::Conv2d(
nn::Conv2dOptions(128, 256, 4).stride(2).padding(1).bias(false)),
nn::BatchNorm2d(256),
nn::LeakyReLU(nn::LeakyReLUOptions().negative_slope(0.2)),
// Layer 4
nn::Conv2d(
nn::Conv2dOptions(256, 1, 3).stride(1).padding(0).bias(false)),
nn::Sigmoid());
提示
一个 Sequential
模块只是执行函数组合。第一个子模块的输出成为第二个子模块的输入,第三个子模块的输出成为第四个子模块的输入,依此类推。
加载数据¶
现在我们已经定义了生成器和判别器模型,我们需要一些数据来训练这些模型。C++ 前端与 Python 前端一样,都包含一个强大的并行数据加载器。这个数据加载器可以从数据集(您可以自己定义)读取数据批次,并提供许多配置旋钮。
注意
虽然 Python 数据加载器使用多进程,但 C++ 数据加载器是真正的多线程的,不会启动任何新进程。
数据加载器是 C++ 前端 data
api 的一部分,包含在 torch::data::
命名空间中。这个 API 包含几个不同的组件
数据加载器类,
用于定义数据集的 API,
用于定义变换的 API,可以应用于数据集,
用于定义采样器的 API,它产生数据集被索引的索引,
现有数据集、变换和采样器的库。
对于本教程,我们可以使用 C++ 前端附带的 MNIST
数据集。让我们为此实例化一个 torch::data::datasets::MNIST
,并应用两个变换:首先,我们将图像归一化,使其在 -1
到 +1
的范围内(从原始范围 0
到 1
)。其次,我们应用 Stack
整理,它接收一批张量并将它们沿着第一维堆叠成一个张量。
auto dataset = torch::data::datasets::MNIST("./mnist")
.map(torch::data::transforms::Normalize<>(0.5, 0.5))
.map(torch::data::transforms::Stack<>());
请注意,MNIST 数据集应位于您从其执行训练二进制文件的目录相对于 ./mnist
的目录中。您可以使用 此脚本 下载 MNIST 数据集。
接下来,我们创建一个数据加载器并将此数据集传递给它。要创建一个新的数据加载器,我们使用 torch::data::make_data_loader
,它返回一个 std::unique_ptr
,其类型是正确的(取决于数据集的类型、采样器的类型以及一些其他实现细节)。
auto data_loader = torch::data::make_data_loader(std::move(dataset));
数据加载器确实带有很多选项。您可以检查完整的集合 此处。例如,为了加快数据加载速度,我们可以增加工作进程的数量。默认数量为零,这意味着将使用主线程。如果我们将 workers
设置为 2
,将生成两个线程,它们会同时加载数据。我们还应该将批次大小从默认的 1
增加到更合理的值,例如 64
(kBatchSize
的值)。因此,让我们创建一个 DataLoaderOptions
对象并设置适当的属性。
auto data_loader = torch::data::make_data_loader(
std::move(dataset),
torch::data::DataLoaderOptions().batch_size(kBatchSize).workers(2));
现在我们可以编写一个循环来加载数据批次,我们现在只将其打印到控制台。
for (torch::data::Example<>& batch : *data_loader) {
std::cout << "Batch size: " << batch.data.size(0) << " | Labels: ";
for (int64_t i = 0; i < batch.data.size(0); ++i) {
std::cout << batch.target[i].item<int64_t>() << " ";
}
std::cout << std::endl;
}
在这种情况下,数据加载器返回的类型是 torch::data::Example
。此类型是一个简单的结构,具有用于数据的 data
字段和用于标签的 target
字段。因为我们之前应用了 Stack
整理,所以数据加载器只返回一个这样的示例。如果我们没有应用整理,数据加载器将生成 std::vector<torch::data::Example<>>
,批次中的每个示例对应一个元素。
如果您重新构建并运行此代码,您应该会看到类似以下内容
root@fa350df05ecf:/home/build# make
Scanning dependencies of target dcgan
[ 50%] Building CXX object CMakeFiles/dcgan.dir/dcgan.cpp.o
[100%] Linking CXX executable dcgan
[100%] Built target dcgan
root@fa350df05ecf:/home/build# make
[100%] Built target dcgan
root@fa350df05ecf:/home/build# ./dcgan
Batch size: 64 | Labels: 5 2 6 7 2 1 6 7 0 1 6 2 3 6 9 1 8 4 0 6 5 3 3 0 4 6 6 6 4 0 8 6 0 6 9 2 4 0 2 8 6 3 3 2 9 2 0 1 4 2 3 4 8 2 9 9 3 5 8 0 0 7 9 9
Batch size: 64 | Labels: 2 2 4 7 1 2 8 8 6 9 0 2 2 9 3 6 1 3 8 0 4 4 8 8 8 9 2 6 4 7 1 5 0 9 7 5 4 3 5 4 1 2 8 0 7 1 9 6 1 6 5 3 4 4 1 2 3 2 3 5 0 1 6 2
Batch size: 64 | Labels: 4 5 4 2 1 4 8 3 8 3 6 1 5 4 3 6 2 2 5 1 3 1 5 0 8 2 1 5 3 2 4 4 5 9 7 2 8 9 2 0 6 7 4 3 8 3 5 8 8 3 0 5 8 0 8 7 8 5 5 6 1 7 8 0
Batch size: 64 | Labels: 3 3 7 1 4 1 6 1 0 3 6 4 0 2 5 4 0 4 2 8 1 9 6 5 1 6 3 2 8 9 2 3 8 7 4 5 9 6 0 8 3 0 0 6 4 8 2 5 4 1 8 3 7 8 0 0 8 9 6 7 2 1 4 7
Batch size: 64 | Labels: 3 0 5 5 9 8 3 9 8 9 5 9 5 0 4 1 2 7 7 2 0 0 5 4 8 7 7 6 1 0 7 9 3 0 6 3 2 6 2 7 6 3 3 4 0 5 8 8 9 1 9 2 1 9 4 4 9 2 4 6 2 9 4 0
Batch size: 64 | Labels: 9 6 7 5 3 5 9 0 8 6 6 7 8 2 1 9 8 8 1 1 8 2 0 7 1 4 1 6 7 5 1 7 7 4 0 3 2 9 0 6 6 3 4 4 8 1 2 8 6 9 2 0 3 1 2 8 5 6 4 8 5 8 6 2
Batch size: 64 | Labels: 9 3 0 3 6 5 1 8 6 0 1 9 9 1 6 1 7 7 4 4 4 7 8 8 6 7 8 2 6 0 4 6 8 2 5 3 9 8 4 0 9 9 3 7 0 5 8 2 4 5 6 2 8 2 5 3 7 1 9 1 8 2 2 7
Batch size: 64 | Labels: 9 1 9 2 7 2 6 0 8 6 8 7 7 4 8 6 1 1 6 8 5 7 9 1 3 2 0 5 1 7 3 1 6 1 0 8 6 0 8 1 0 5 4 9 3 8 5 8 4 8 0 1 2 6 2 4 2 7 7 3 7 4 5 3
Batch size: 64 | Labels: 8 8 3 1 8 6 4 2 9 5 8 0 2 8 6 6 7 0 9 8 3 8 7 1 6 6 2 7 7 4 5 5 2 1 7 9 5 4 9 1 0 3 1 9 3 9 8 8 5 3 7 5 3 6 8 9 4 2 0 1 2 5 4 7
Batch size: 64 | Labels: 9 2 7 0 8 4 4 2 7 5 0 0 6 2 0 5 9 5 9 8 8 9 3 5 7 5 4 7 3 0 5 7 6 5 7 1 6 2 8 7 6 3 2 6 5 6 1 2 7 7 0 0 5 9 0 0 9 1 7 8 3 2 9 4
Batch size: 64 | Labels: 7 6 5 7 7 5 2 2 4 9 9 4 8 7 4 8 9 4 5 7 1 2 6 9 8 5 1 2 3 6 7 8 1 1 3 9 8 7 9 5 0 8 5 1 8 7 2 6 5 1 2 0 9 7 4 0 9 0 4 6 0 0 8 6
...
这意味着我们能够成功地从 MNIST 数据集加载数据。
编写训练循环¶
现在,让我们完成示例的算法部分并实现生成器和判别器之间的微妙舞蹈。首先,我们将创建两个优化器,一个用于生成器,另一个用于判别器。我们使用的优化器实现了 Adam 算法。
torch::optim::Adam generator_optimizer(
generator->parameters(), torch::optim::AdamOptions(2e-4).betas(std::make_tuple(0.5, 0.5)));
torch::optim::Adam discriminator_optimizer(
discriminator->parameters(), torch::optim::AdamOptions(5e-4).betas(std::make_tuple(0.5, 0.5)));
注意
截至撰写本文时,C++ 前端提供了实现 Adagrad、Adam、LBFGS、RMSprop 和 SGD 的优化器。文档 中提供了最新的列表。
接下来,我们需要更新我们的训练循环。我们将添加一个外部循环,以便每个 epoch 耗尽数据加载器,然后编写 GAN 训练代码。
for (int64_t epoch = 1; epoch <= kNumberOfEpochs; ++epoch) {
int64_t batch_index = 0;
for (torch::data::Example<>& batch : *data_loader) {
// Train discriminator with real images.
discriminator->zero_grad();
torch::Tensor real_images = batch.data;
torch::Tensor real_labels = torch::empty(batch.data.size(0)).uniform_(0.8, 1.0);
torch::Tensor real_output = discriminator->forward(real_images);
torch::Tensor d_loss_real = torch::binary_cross_entropy(real_output, real_labels);
d_loss_real.backward();
// Train discriminator with fake images.
torch::Tensor noise = torch::randn({batch.data.size(0), kNoiseSize, 1, 1});
torch::Tensor fake_images = generator->forward(noise);
torch::Tensor fake_labels = torch::zeros(batch.data.size(0));
torch::Tensor fake_output = discriminator->forward(fake_images.detach());
torch::Tensor d_loss_fake = torch::binary_cross_entropy(fake_output, fake_labels);
d_loss_fake.backward();
torch::Tensor d_loss = d_loss_real + d_loss_fake;
discriminator_optimizer.step();
// Train generator.
generator->zero_grad();
fake_labels.fill_(1);
fake_output = discriminator->forward(fake_images);
torch::Tensor g_loss = torch::binary_cross_entropy(fake_output, fake_labels);
g_loss.backward();
generator_optimizer.step();
std::printf(
"\r[%2ld/%2ld][%3ld/%3ld] D_loss: %.4f | G_loss: %.4f",
epoch,
kNumberOfEpochs,
++batch_index,
batches_per_epoch,
d_loss.item<float>(),
g_loss.item<float>());
}
}
在上面,我们首先在真实图像上评估判别器,它应该为其分配一个较高的概率。为此,我们使用 torch::empty(batch.data.size(0)).uniform_(0.8, 1.0)
作为目标概率。
注意
我们选择在 0.8 到 1.0 之间均匀分布的随机值,而不是在所有地方都使用 1.0,以使判别器训练更加稳健。这种技巧称为标签平滑。
在评估判别器之前,我们将它参数的梯度归零。计算损失后,我们通过调用 d_loss.backward()
来反向传播它,以计算新的梯度。我们对虚假图像重复此操作。我们不是使用数据集中的图像,而是让生成器通过馈送一批随机噪声来创建虚假图像。然后,我们将这些虚假图像转发到判别器。这次,我们希望判别器输出较低的概率,理想情况下都是零。一旦我们计算了真实图像批次和虚假图像批次的判别器损失,我们就可以让判别器的优化器前进一步,以更新它的参数。
为了训练生成器,我们再次首先将它的梯度归零,然后在虚假图像上重新评估判别器。但是,这次我们希望判别器分配非常接近于 1 的概率,这将表明生成器可以生成能够欺骗判别器认为它们实际上是真实的(来自数据集)的图像。为此,我们用全 1 填充 fake_labels
张量。最后,我们让生成器的优化器前进一步以更新它的参数。
现在我们应该准备好将模型在 CPU 上进行训练。我们还没有任何代码来捕获状态或采样输出,但我们将在稍后添加这些代码。现在,让我们只观察一下我们的模型正在做某些事情——我们将在稍后根据生成的图像验证这是否是有意义的。重新构建并运行应该打印类似以下内容
root@3c0711f20896:/home/build# make && ./dcgan
Scanning dependencies of target dcgan
[ 50%] Building CXX object CMakeFiles/dcgan.dir/dcgan.cpp.o
[100%] Linking CXX executable dcgan
[100%] Built target dcga
[ 1/10][100/938] D_loss: 0.6876 | G_loss: 4.1304
[ 1/10][200/938] D_loss: 0.3776 | G_loss: 4.3101
[ 1/10][300/938] D_loss: 0.3652 | G_loss: 4.6626
[ 1/10][400/938] D_loss: 0.8057 | G_loss: 2.2795
[ 1/10][500/938] D_loss: 0.3531 | G_loss: 4.4452
[ 1/10][600/938] D_loss: 0.3501 | G_loss: 5.0811
[ 1/10][700/938] D_loss: 0.3581 | G_loss: 4.5623
[ 1/10][800/938] D_loss: 0.6423 | G_loss: 1.7385
[ 1/10][900/938] D_loss: 0.3592 | G_loss: 4.7333
[ 2/10][100/938] D_loss: 0.4660 | G_loss: 2.5242
[ 2/10][200/938] D_loss: 0.6364 | G_loss: 2.0886
[ 2/10][300/938] D_loss: 0.3717 | G_loss: 3.8103
[ 2/10][400/938] D_loss: 1.0201 | G_loss: 1.3544
[ 2/10][500/938] D_loss: 0.4522 | G_loss: 2.6545
...
迁移到 GPU¶
虽然我们目前的脚本可以在 CPU 上正常运行,但我们都知道卷积在 GPU 上快得多。让我们快速讨论一下如何将我们的训练转移到 GPU 上。为此,我们需要做两件事:将 GPU 设备规范传递给我们自己分配的张量,并通过 to()
方法显式地将任何其他张量复制到 GPU 上,所有张量和模块在 C++ 前端都有。实现这两者的最简单方法是在我们训练脚本的顶层创建一个 torch::Device
实例,然后将该设备传递给张量工厂函数,如 torch::zeros
,以及 to()
方法。我们可以先用 CPU 设备来做这件事
// Place this somewhere at the top of your training script.
torch::Device device(torch::kCPU);
新的张量分配,如
torch::Tensor fake_labels = torch::zeros(batch.data.size(0));
应该更新为以 device
作为最后一个参数
torch::Tensor fake_labels = torch::zeros(batch.data.size(0), device);
对于那些创建不在我们掌控中的张量,比如来自 MNIST 数据集的那些张量,我们必须插入显式的 to()
调用。这意味着
torch::Tensor real_images = batch.data;
变成了
torch::Tensor real_images = batch.data.to(device);
我们的模型参数也应该移动到正确的设备上
generator->to(device);
discriminator->to(device);
注意
如果一个张量已经存在于提供给 to()
的设备上,那么这个调用就是一个空操作。不会进行额外的复制。
此时,我们只是让之前驻留在 CPU 上的代码更显式。但是,现在也很容易将设备更改为 CUDA 设备
torch::Device device(torch::kCUDA)
现在所有张量都将驻留在 GPU 上,调用所有操作的快速 CUDA 内核,而无需我们更改任何下游代码。如果我们要指定一个特定的设备索引,可以将其作为第二个参数传递给 Device
构造函数。如果我们想要不同的张量驻留在不同的设备上,我们可以传递单独的设备实例(例如,一个在 CUDA 设备 0 上,另一个在 CUDA 设备 1 上)。我们甚至可以动态地进行这种配置,这通常有助于使我们的训练脚本更具可移植性
torch::Device device = torch::kCPU;
if (torch::cuda::is_available()) {
std::cout << "CUDA is available! Training on GPU." << std::endl;
device = torch::kCUDA;
}
甚至
torch::Device device(torch::cuda::is_available() ? torch::kCUDA : torch::kCPU);
检查点和恢复训练状态¶
我们应该对训练脚本进行的最后一个增强是定期保存我们模型参数的状态、我们优化器的状态以及一些生成的图像样本。如果我们的计算机在训练过程的中间崩溃,前两个将允许我们恢复训练状态。对于长时间的训练会话,这绝对是必不可少的。幸运的是,C++ 前端提供了一个 API 来序列化和反序列化模型和优化器状态,以及单个张量。
这个 API 的核心是 torch::save(thing,filename)
和 torch::load(thing,filename)
,其中 thing
可以是一个 torch::nn::Module
子类或一个优化器实例,比如我们训练脚本中使用的 Adam
对象。让我们更新我们的训练循环,以便在某个间隔内检查模型和优化器状态
if (batch_index % kCheckpointEvery == 0) {
// Checkpoint the model and optimizer state.
torch::save(generator, "generator-checkpoint.pt");
torch::save(generator_optimizer, "generator-optimizer-checkpoint.pt");
torch::save(discriminator, "discriminator-checkpoint.pt");
torch::save(discriminator_optimizer, "discriminator-optimizer-checkpoint.pt");
// Sample the generator and save the images.
torch::Tensor samples = generator->forward(torch::randn({8, kNoiseSize, 1, 1}, device));
torch::save((samples + 1.0) / 2.0, torch::str("dcgan-sample-", checkpoint_counter, ".pt"));
std::cout << "\n-> checkpoint " << ++checkpoint_counter << '\n';
}
其中 kCheckpointEvery
是一个整数,设置为类似 100
的东西,以便每 100
批次检查一次,checkpoint_counter
是一个计数器,每次我们进行检查时都会增加。
要恢复训练状态,你可以在创建所有模型和优化器之后、但在训练循环之前添加类似下面的行
torch::optim::Adam generator_optimizer(
generator->parameters(), torch::optim::AdamOptions(2e-4).beta1(0.5));
torch::optim::Adam discriminator_optimizer(
discriminator->parameters(), torch::optim::AdamOptions(2e-4).beta1(0.5));
if (kRestoreFromCheckpoint) {
torch::load(generator, "generator-checkpoint.pt");
torch::load(generator_optimizer, "generator-optimizer-checkpoint.pt");
torch::load(discriminator, "discriminator-checkpoint.pt");
torch::load(
discriminator_optimizer, "discriminator-optimizer-checkpoint.pt");
}
int64_t checkpoint_counter = 0;
for (int64_t epoch = 1; epoch <= kNumberOfEpochs; ++epoch) {
int64_t batch_index = 0;
for (torch::data::Example<>& batch : *data_loader) {
检查生成的图像¶
我们的训练脚本现在已经完成了。我们已经准备好训练我们的 GAN,无论是在 CPU 还是 GPU 上。为了检查训练过程的中间输出,我们添加了代码来定期将图像样本保存到 "dcgan-sample-xxx.pt"
文件,我们可以编写一个微小的 Python 脚本加载张量并用 matplotlib 显示它们
import argparse
import matplotlib.pyplot as plt
import torch
parser = argparse.ArgumentParser()
parser.add_argument("-i", "--sample-file", required=True)
parser.add_argument("-o", "--out-file", default="out.png")
parser.add_argument("-d", "--dimension", type=int, default=3)
options = parser.parse_args()
module = torch.jit.load(options.sample_file)
images = list(module.parameters())[0]
for index in range(options.dimension * options.dimension):
image = images[index].detach().cpu().reshape(28, 28).mul(255).to(torch.uint8)
array = image.numpy()
axis = plt.subplot(options.dimension, options.dimension, 1 + index)
plt.imshow(array, cmap="gray")
axis.get_xaxis().set_visible(False)
axis.get_yaxis().set_visible(False)
plt.savefig(options.out_file)
print("Saved ", options.out_file)
现在让我们训练我们的模型大约 30 个 epoch
root@3c0711f20896:/home/build# make && ./dcgan 10:17:57
Scanning dependencies of target dcgan
[ 50%] Building CXX object CMakeFiles/dcgan.dir/dcgan.cpp.o
[100%] Linking CXX executable dcgan
[100%] Built target dcgan
CUDA is available! Training on GPU.
[ 1/30][200/938] D_loss: 0.4953 | G_loss: 4.0195
-> checkpoint 1
[ 1/30][400/938] D_loss: 0.3610 | G_loss: 4.8148
-> checkpoint 2
[ 1/30][600/938] D_loss: 0.4072 | G_loss: 4.36760
-> checkpoint 3
[ 1/30][800/938] D_loss: 0.4444 | G_loss: 4.0250
-> checkpoint 4
[ 2/30][200/938] D_loss: 0.3761 | G_loss: 3.8790
-> checkpoint 5
[ 2/30][400/938] D_loss: 0.3977 | G_loss: 3.3315
...
-> checkpoint 120
[30/30][938/938] D_loss: 0.3610 | G_loss: 3.8084
并在一个绘图中显示图像
root@3c0711f20896:/home/build# python display.py -i dcgan-sample-100.pt
Saved out.png
它应该看起来像这样
数字!万岁!现在球在你手里:你能改进模型,让数字看起来更棒吗?