快捷方式

CUDAGraph

class torch.cuda.CUDAGraph[source][source]

CUDA 图的包装器。

警告

此 API 处于 beta 阶段,未来版本可能会更改。

capture_begin(pool=None, capture_error_mode='global')[source][source]

开始在当前流上捕获 CUDA 工作。

通常,您不应自己调用 capture_begin。使用 graphmake_graphed_callables(),它们在内部调用 capture_begin

参数
  • pool (可选) – 由 graph_pool_handle()other_Graph_instance.pool() 返回的令牌,提示此图可能与指示的池共享内存。请参阅 图内存管理

  • capture_error_mode (str, 可选) – 指定图捕获流的 cudaStreamCaptureMode。可以是 “global”、“thread_local” 或 “relaxed”。在 CUDA 图捕获期间,某些操作(例如 cudaMalloc)可能不安全。“global” 将在其他线程中的操作中报错,“thread_local” 将仅在当前线程中的操作中报错,“relaxed” 将不会在这些操作中报错。除非您熟悉 cudaStreamCaptureMode,否则请勿更改此设置

capture_end()[source][source]

结束当前流上的 CUDA 图捕获。

capture_end 之后,可以在此实例上调用 replay

通常,您不应自己调用 capture_end。使用 graphmake_graphed_callables(),它们在内部调用 capture_end

debug_dump(debug_path)[source][source]
参数

debug_path (必需) – 将图转储到的路径。

如果通过 CUDAGraph.enable_debug_mode() 启用了调试,则调用调试函数以转储图。

enable_debug_mode()[source][source]

启用 CUDAGraph.debug_dump 的调试模式。

pool()[source][source]

返回表示此图内存池 ID 的不透明令牌。

此 ID 可以选择性地传递给另一个图的 capture_begin,这提示另一个图可能共享相同的内存池。

replay()[source][source]

重放此图捕获的 CUDA 工作。

reset()[source][source]

删除此实例当前持有的图。

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题解答

查看资源