快捷方式

torch.cuda.caching_allocator_alloc

torch.cuda.caching_allocator_alloc(size, device=None, stream=None)[源代码]

使用 CUDA 内存分配器执行内存分配。

为给定设备和流分配内存,此函数旨在用于与其他框架的互操作性。分配的内存通过 caching_allocator_delete() 释放。

参数
  • size (int) – 要分配的字节数。

  • device (torch.deviceint可选) – 选择的设备。如果为 None,则使用默认的 CUDA 设备。

  • stream (torch.cuda.Streamint可选) – 选择的流。如果为 None,则使用所选设备的默认流。

注意

有关 GPU 内存管理的更多详细信息,请参阅 内存管理

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取针对初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并获得问题的解答

查看资源