torch.__future__¶
- torch.__future__.set_overwrite_module_params_on_conversion(value)[source]¶
设置在将
nn.Module转换为其他类型时,是否将新的张量分配给参数,而不是就地更改现有参数。启用后,以下方法将为模块分配新的参数
module.{device}()(例如nn.Module.cuda())用于将模块在设备之间移动module.{dtype}()(例如nn.Module.float())用于将模块转换为不同的数据类型nn.Module.to()nn.Module.to_empty()
- 参数
value (bool) – 是否分配新的张量。
- torch.__future__.get_overwrite_module_params_on_conversion()[source]¶
返回在将
torch.nn.Module转换为其他类型时,是否将新的张量分配给参数,而不是就地更改现有参数。默认值为False。有关详细信息,请参阅
set_overwrite_module_params_on_conversion()。- 返回类型
- torch.__future__.set_swap_module_params_on_conversion(value)[source]¶
设置在将
nn.Module转换为其他类型时,是否使用swap_tensors()而不是设置.data来就地更改现有参数,以及在将状态字典加载到nn.Module时,是否使用swap_tensors()而不是使用param.copy_(state_dict[key])。启用后,以下方法将就地交换现有参数
module.{device}()(例如nn.Module.cuda())用于将模块在设备之间移动module.{dtype}()(例如nn.Module.float())用于将模块转换为不同的数据类型nn.Module.to()nn.Module.to_empty()nn.Module.load_state_dict()
当设置此选项时,
load_state_dict()的语义如下对于每个参数/缓冲区,其相应的
state_dict['key']将通过module_load()(即res = param.module_load(state_dict['key']))进行转换如果需要,
res将被包装在Parameter中模块中的参数/缓冲区将通过
swap_tensors()与res进行交换
- 参数
value (bool) – 是否使用
swap_tensors()。
- torch.__future__.get_swap_module_params_on_conversion()[source]¶
返回在将
nn.Module转换为其他类型时,是否使用swap_tensors()而不是设置 .data 来就地更改现有参数。默认值为False。有关详细信息,请参阅
set_swap_module_params_on_conversion()。- 返回类型