PyTorch C++ API¶
这些页面提供了 PyTorch C++ API 公共部分的文档。此 API 大致可以分为五个部分
ATen: 构建一切的基础张量和数学运算库。
Autograd: 使用自动微分增强 ATen。
C++ 前端: 用于训练和评估机器学习模型的高级构造。
TorchScript: TorchScript JIT 编译器和解释器的接口。
C++ 扩展: 一种使用自定义 C++ 和 CUDA 例程扩展 Python API 的方法。
结合起来,这些构建块形成了一个可用于研究和生产的 C++ 库,用于张量计算和动态神经网络,重点强调 GPU 加速以及快速 CPU 性能。目前 Facebook 正在研究和生产中使用它;我们期待欢迎更多 PyTorch C++ API 用户。
警告
目前,C++ API 应被视为“beta”稳定性;我们可能会对后端进行重大破坏性更改,以改进 API,或为 PyTorch 提供 Python 接口,这是我们最稳定且支持最好的接口。
ATen¶
ATen 从根本上来说是一个张量库,PyTorch 中几乎所有其他 Python 和 C++ 接口都构建在其之上。它提供了一个核心 Tensor
类,该类上定义了数百个操作。这些操作中的大多数都同时具有 CPU 和 GPU 实现,Tensor
类将根据其类型动态调度到这些实现。使用 ATen 的一个小例子可能如下所示
#include <ATen/ATen.h>
at::Tensor a = at::ones({2, 2}, at::kInt);
at::Tensor b = at::randn({2, 2});
auto c = a + b.to(at::kInt);
这个 Tensor
类和 ATen 中的所有其他符号都位于 at::
命名空间中,文档记录在此处:here。
Autograd¶
我们称之为autograd的是 PyTorch C++ API 的一部分,它使用有关自动微分的功能来增强 ATen Tensor
类。autograd 系统记录张量上的操作以形成autograd 图。在此图中的叶变量上调用 backwards()
会执行通过跨越 autograd 图的函数和张量网络的反向模式微分,最终产生梯度。以下示例提供了此接口的初步了解
#include <torch/csrc/autograd/variable.h>
#include <torch/csrc/autograd/function.h>
torch::Tensor a = torch::ones({2, 2}, torch::requires_grad());
torch::Tensor b = torch::randn({2, 2});
auto c = a + b;
c.backward(); // a.grad() will now hold the gradient of c w.r.t. a.
默认情况下,ATen 中的 at::Tensor
类是不可微分的。要添加 autograd API 提供的张量的可微分性,您必须使用 torch:: 命名空间中的张量工厂函数,而不是 at:: 命名空间。例如,使用 at::ones 创建的张量将不可微分,而使用 torch::ones 创建的张量将是可微分的。
C++ 前端¶
PyTorch C++ 前端为神经网络和通用 ML(机器学习)研究和生产用例提供了高级纯 C++ 建模接口,在设计和提供的功能方面很大程度上遵循 Python API。C++ 前端包括以下内容
用于通过分层模块系统(如
torch.nn.Module
)定义机器学习模型的接口;用于最常见建模目的的预先存在的模块的“标准库”(例如,卷积、RNN、批归一化等);
优化 API,包括流行优化器(如 SGD、Adam、RMSprop 等)的实现;
表示数据集和数据管道的方法,包括在多个 CPU 核心上并行加载数据的功能;
用于存储和加载训练会话检查点的序列化格式(如
torch.utils.data.DataLoader
);自动将模型并行化到多个 GPU 上(如
torch.nn.parallel.DataParallel
);使用 pybind11 轻松将 C++ 模型绑定到 Python 的支持代码;
TorchScript JIT 编译器的入口点;
有助于与 ATen 和 Autograd API 交互的有用实用程序。
有关 C++ 前端的更详细描述,请参阅本文档。与 C++ 前端相关的 torch:: 命名空间的相关部分包括 torch::nn、torch::optim、torch::data、torch::serialize、torch::jit 和 torch::python。C++ 前端的示例可以在此存储库中找到,该存储库正在持续积极地扩展。
注意
除非您有特殊原因将自己完全限制在 ATen 或 Autograd API 中,否则 C++ 前端是 PyTorch C++ 生态系统的推荐入口点。虽然在我们收集用户反馈(来自您!)时它仍处于 beta 阶段,但它提供的功能和稳定性保证都比 ATen 和 Autograd API 更好。
TorchScript¶
TorchScript 是 PyTorch 模型的表示形式,可以被 TorchScript 编译器理解、编译和序列化。从根本上说,TorchScript 本身就是一种编程语言。它是使用 PyTorch API 的 Python 子集。TorchScript 的 C++ 接口包含三个主要功能
一种加载和执行在 Python 中定义的序列化 TorchScript 模型机制;
一个 API,用于定义扩展 TorchScript 标准操作库的自定义运算符;
从 C++ 对 TorchScript 程序进行即时编译。
如果您希望尽可能多地在 Python 中定义模型,但随后将其导出到 C++ 以用于生产环境和无 Python 推理,则第一种机制可能对您非常重要。您可以通过点击此链接了解更多信息。第二个 API 关注您希望使用自定义运算符扩展 TorchScript 的情况,这些运算符同样可以在推理期间从 C++ 中序列化和调用。最后,torch::jit::compile 函数可用于直接从 C++ 访问 TorchScript 编译器。