torch.cuda¶
此软件包增加了对 CUDA 张量类型的支持。
它实现了与 CPU 张量相同的功能,但它们利用 GPU 进行计算。
它被延迟初始化,因此你始终可以导入它,并使用 is_available() 来确定你的系统是否支持 CUDA。
CUDA 语义 有关使用 CUDA 的更多详细信息。
| 选择给定流的上下文管理器。 | |
| 检查两个设备之间是否可以进行对等访问。 | |
| 返回指向当前 cuBLAS 句柄的 cublasHandle_t 指针 | |
| 返回当前所选设备的索引。 | |
| 返回给定设备当前所选的  | |
| 返回给定设备的默认  | |
| 更改所选设备的上下文管理器。 | |
| 返回可用 GPU 的数量。 | |
| 将当前设备更改为给定对象设备的上下文管理器。 | |
| 返回此库编译的 CUDA 架构列表。 | |
| 获取设备的 cuda 功能。 | |
| 获取设备的名称。 | |
| 获取设备的属性。 | |
| 返回此库编译时使用的 NVCC gencode 标志。 | |
| 返回 cuda 同步操作的调试模式的当前值。 | |
| 初始化 PyTorch 的 CUDA 状态。 | |
| 在 CUDA IPC 释放 GPU 内存后强制收集该内存。 | |
| 返回一个布尔值,指示 CUDA 当前是否可用。 | |
| 返回 PyTorch 的 CUDA 状态是否已初始化。 | |
| 返回过去采样周期中全局(设备)内存被读取或写入的百分比,如 nvidia-smi 所示。 | |
| 设置当前设备。 | |
| 设置当前流。这是一个用于设置流的包装器 API。 | |
| 设置 cuda 同步操作的调试模式。 | |
| 包装围绕选择给定流的上下文管理器 StreamContext。 | |
| 等待 CUDA 设备上所有流中的所有内核完成。 | |
| 返回过去采样周期中一个或多个内核在 GPU 上执行的百分比,如 nvidia-smi 所示。 | |
| 返回 GPU 传感器温度的平均值,单位为摄氏度 (Centigrades)。 | |
| 返回 GPU 传感器平均功耗,单位为 mW(毫瓦) | |
| 返回过去采样周期中 GPU SM 的时钟速度,单位为赫兹 (Hertz),如 nvidia-smi 所示。 | |
| 当 CUDA 内存不足时引发的异常 | 
随机数生成器¶
| 将指定 GPU 的随机数生成器状态作为 ByteTensor 返回。 | |
| 返回一个 ByteTensor 列表,表示所有设备的随机数状态。 | |
| 设置指定 GPU 的随机数生成器状态。 | |
| 设置所有设备的随机数生成器状态。 | |
| 设置当前 GPU 生成随机数的种子。 | |
| 设置所有 GPU 生成随机数的种子。 | |
| 设置当前 GPU 生成随机数的种子为随机数。 | |
| 设置所有 GPU 生成随机数的种子为随机数。 | |
| 返回当前 GPU 的当前随机种子。 | 
通信集合¶
| 将张量广播到指定的 GPU 设备。 | |
| 将一系列张量广播到指定的 GPU。 | |
| 对来自多个 GPU 的张量求和。 | |
| 将张量分散到多个 GPU。 | |
| 从多个 GPU 设备收集张量。 | 
流和事件¶
| CUDA 流的包装器。 | |
| 外部分配的 CUDA 流的包装器。 | |
| CUDA 事件的包装器。 | 
图(测试版)¶
| 如果在当前 CUDA 流上进行 CUDA 图捕获,则返回 True,否则返回 False。 | |
| 返回表示图内存池 ID 的不透明令牌。 | |
| CUDA 图的包装器。 | |
| 上下文管理器,将 CUDA 工作捕获到  | |
| 接受可调用对象(函数或  | 
内存管理¶
| 释放缓存分配器当前持有的所有未占用缓存内存,以便在其他 GPU 应用程序中使用这些内存,并在 nvidia-smi 中可见。 | |
| 返回给定设备正在运行的进程和它们的 GPU 内存使用情况的可读打印输出。 | |
| 使用 cudaMemGetInfo 返回给定设备的全局空闲和总 GPU 内存。 | |
| 返回给定设备的 CUDA 内存分配器统计信息的字典。 | |
| 返回给定设备当前内存分配器统计信息的易读打印输出。 | |
| 返回跨所有设备的 CUDA 内存分配器状态的快照。 | |
| 返回给定设备中张量当前占用的 GPU 内存(以字节为单位)。 | |
| 返回给定设备中张量占用的最大 GPU 内存(以字节为单位)。 | |
| 重置跟踪给定设备中张量占用的最大 GPU 内存的起始点。 | |
| 返回给定设备中缓存分配器管理的当前 GPU 内存(以字节为单位)。 | |
| 返回给定设备中缓存分配器管理的最大 GPU 内存(以字节为单位)。 | |
| 设置进程的内存部分。 | |
| 已弃用;请参阅  | |
| 已弃用;请参阅  | |
| 重置跟踪给定设备中缓存分配器管理的最大 GPU 内存的起始点。 | |
| 重置 CUDA 内存分配器跟踪的“峰值”统计信息。 | |
| 使用 CUDA 内存分配器执行内存分配。 | |
| 删除使用 CUDA 内存分配器分配的内存。 | |
| 返回一个字符串,描述由  | |
| 从 so 文件加载的 CUDA 内存分配器。 | |
| 将当前使用的内存分配器更改为提供的分配器。 | 
NVIDIA 工具扩展 (NVTX)¶
| 描述在某个时间点发生的瞬时事件。 | |
| 将一个范围推入嵌套范围跨度的堆栈。 | |
| 从嵌套范围跨度的堆栈中弹出范围。 | 
Jiterator(测试版)¶
| 为元素级操作创建 jiterator 生成的 cuda 内核。 | |
| 为支持返回一个或多个输出的元素级操作创建 jiterator 生成的 cuda 内核。 |