torch.__future__¶
- torch.__future__.set_overwrite_module_params_on_conversion(value)[source]¶
- 设置在转换 - nn.Module时,是否将新张量分配给参数,而不是就地更改现有参数。- 启用后,以下方法将为模块分配新参数 - module.{device}()(例如- nn.Module.cuda())用于在设备之间移动模块
- module.{dtype}()(例如- nn.Module.float())用于将模块转换为不同的数据类型
- nn.Module.to()
- nn.Module.to_empty()
 - 参数
- value (bool) – 是否分配新张量。 
 
- torch.__future__.get_overwrite_module_params_on_conversion()[source]¶
- 返回在转换 - torch.nn.Module时,是否将新张量分配给参数,而不是就地更改现有参数。默认值为- False。- 有关更多信息,请参阅 - set_overwrite_module_params_on_conversion()。- 返回值类型
 
- torch.__future__.set_swap_module_params_on_conversion(value)[source]¶
- 设置是否使用 - swap_tensors()而不是设置- .data来在转换- nn.Module时就地更改现有参数,以及在将状态字典加载到- nn.Module时使用- swap_tensors()而不是- param.copy_(state_dict[key])。- 启用后,以下方法将就地交换现有参数 - module.{device}()(例如- nn.Module.cuda())用于在设备之间移动模块
- module.{dtype}()(例如- nn.Module.float())用于将模块转换为不同的数据类型
- nn.Module.to()
- nn.Module.to_empty()
- nn.Module.load_state_dict()
 - 当设置此选项时, - load_state_dict()的语义如下- 对于每个参数/缓冲区,其对应的 - state_dict['key']将通过- module_load()进行转换(即- res = param.module_load(state_dict['key']))
- 如果需要, - res将被包装在- Parameter中
- 模块中的参数/缓冲区将通过 - swap_tensors()与- res进行交换
 - 参数
- value (bool) – 是否使用 - swap_tensors()。
 
- torch.__future__.get_swap_module_params_on_conversion()[source]¶
- 返回是否使用 - swap_tensors()而不是在将- nn.Module转换为- nn.Module时设置 .data 来就地更改现有参数。默认值为- False。- 有关更多信息,请参阅 - set_swap_module_params_on_conversion()。- 返回值类型