快捷方式

torch.cuda.comm.broadcast_coalesced

torch.cuda.comm.broadcast_coalesced(tensors, devices, buffer_size=10485760)[源][源]

将一系列张量广播到指定的 GPU。

小张量首先被合并到一个缓冲区中,以减少同步次数。

参数
  • tensors (sequence) – 要广播的张量。必须在同一个设备上,可以是 CPU 或 GPU。

  • devices (Iterable[torch.device, str or int]) – GPU 设备的可迭代对象,用于广播。

  • buffer_size (int) – 用于合并的缓冲区的最大大小

返回

一个元组,包含 tensor 的副本,放置在 devices 上。


© 版权所有 PyTorch 贡献者。

使用 Sphinx 构建,主题由 Read the Docs 提供。

文档

查阅 PyTorch 全面的开发者文档

查看文档

教程

获取适合初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题解答

查看资源