torch.__future__¶
- torch.__future__.set_overwrite_module_params_on_conversion(value)[source][source]¶
设置在转换
nn.Module
时,是否将新张量分配给参数,而不是就地更改现有参数。启用后,以下方法会将新参数分配给模块
module.{device}()
(例如nn.Module.cuda()
) 用于在设备之间移动模块module.{dtype}()
(例如nn.Module.float()
) 用于将模块转换为不同的 dtypenn.Module.to()
nn.Module.to_empty()
- 参数
value (bool) – 是否分配新张量。
- torch.__future__.get_overwrite_module_params_on_conversion()[source][source]¶
返回在转换
torch.nn.Module
时,是否将新张量分配给参数,而不是就地更改现有参数。默认为False
。有关更多信息,请参阅
set_overwrite_module_params_on_conversion()
。- 返回类型
- torch.__future__.set_swap_module_params_on_conversion(value)[source][source]¶
设置在转换
nn.Module
时,以及在将状态字典加载到nn.Module
中时,是否使用swap_tensors()
而不是设置.data
来就地更改现有参数,以及代替param.copy_(state_dict[key])
。启用后,以下方法将就地交换现有参数
module.{device}()
(例如nn.Module.cuda()
) 用于在设备之间移动模块module.{dtype}()
(例如nn.Module.float()
) 用于将模块转换为不同的 dtypenn.Module.to()
nn.Module.to_empty()
nn.Module.load_state_dict()
当设置此项时,
load_state_dict()
的语义如下对于每个参数/缓冲区,其对应的
state_dict['key']
通过module_load()
转换(即res = param.module_load(state_dict['key'])
)如果需要,
res
将被包装在Parameter
中模块中的参数/缓冲区将通过
swap_tensors()
与res
交换
- 参数
value (bool) – 是否使用
swap_tensors()
。
- torch.__future__.get_swap_module_params_on_conversion()[source][source]¶
返回在转换
nn.Module
时,是否使用swap_tensors()
而不是设置 .data 来就地更改现有参数。默认为False
。有关更多信息,请参阅
set_swap_module_params_on_conversion()
。- 返回类型