快捷方式

torch.cuda.caching_allocator_alloc

torch.cuda.caching_allocator_alloc(size, device=None, stream=None)[source][source]

使用 CUDA 内存分配器执行内存分配。

为给定设备和流分配内存,此函数旨在用于与其他框架的互操作性。分配的内存通过 caching_allocator_delete() 释放。

参数
  • size (int) – 要分配的字节数。

  • device (torch.deviceint, 可选) – 选择的设备。如果为 None,则使用默认 CUDA 设备。

  • stream (torch.cuda.Streamint, 可选) – 选择的流。如果为 None,则使用所选设备的默认流。

注意

有关 GPU 内存管理的更多详细信息,请参阅 内存管理

文档

访问 PyTorch 的综合开发者文档

查看文档

教程

获取面向初学者和高级开发者的深度教程

查看教程

资源

查找开发资源并获得问题解答

查看资源