LazyModuleMixin¶
- class torch.nn.modules.lazy.LazyModuleMixin(*args, **kwargs)[源代码][源代码]¶
用于延迟初始化参数的模块的 mixin 类,也称为“延迟模块”。
延迟初始化参数的模块,即“延迟模块”,会从其 forward 方法的第一个输入中推断其参数的形状。在第一次 forward 之前,它们包含
torch.nn.UninitializedParameter
,不应访问或使用;之后,它们包含常规的torch.nn.Parameter
。延迟模块很方便,因为它们不需要计算某些模块参数,例如典型的torch.nn.Linear
的in_features
参数。构造之后,包含延迟模块的网络应首先转换为所需的 dtype 并放置在预期的设备上。这是因为延迟模块仅执行形状推断,因此常规的 dtype 和设备放置行为仍然适用。然后,延迟模块应执行“空运行”(dry run)来初始化模块中的所有组件。这些“空运行”会将具有正确大小、dtype 和设备的输入通过网络发送到每个延迟模块。之后,网络就可以正常使用了。
>>> class LazyMLP(torch.nn.Module): ... def __init__(self) -> None: ... super().__init__() ... self.fc1 = torch.nn.LazyLinear(10) ... self.relu1 = torch.nn.ReLU() ... self.fc2 = torch.nn.LazyLinear(1) ... self.relu2 = torch.nn.ReLU() ... ... def forward(self, input): ... x = self.relu1(self.fc1(input)) ... y = self.relu2(self.fc2(x)) ... return y >>> # constructs a network with lazy modules >>> lazy_mlp = LazyMLP() >>> # transforms the network's device and dtype >>> # NOTE: these transforms can and should be applied after construction and before any 'dry runs' >>> lazy_mlp = lazy_mlp.cuda().double() >>> lazy_mlp LazyMLP( (fc1): LazyLinear(in_features=0, out_features=10, bias=True) (relu1): ReLU() (fc2): LazyLinear(in_features=0, out_features=1, bias=True) (relu2): ReLU() ) >>> # performs a dry run to initialize the network's lazy modules >>> lazy_mlp(torch.ones(10,10).cuda()) >>> # after initialization, LazyLinear modules become regular Linear modules >>> lazy_mlp LazyMLP( (fc1): Linear(in_features=10, out_features=10, bias=True) (relu1): ReLU() (fc2): Linear(in_features=10, out_features=1, bias=True) (relu2): ReLU() ) >>> # attaches an optimizer, since parameters can now be used as usual >>> optim = torch.optim.SGD(mlp.parameters(), lr=0.01)
使用延迟模块时的最后一个注意事项是,网络的参数初始化顺序可能会发生变化,因为延迟模块总是在其他模块之后初始化。例如,如果上面定义的 LazyMLP 类首先包含
torch.nn.LazyLinear
模块,然后包含一个常规的torch.nn.Linear
模块,那么第二个模块会在构造时初始化,而第一个模块会在第一次空运行时初始化。这可能导致使用延迟模块的网络的参数初始化方式与不使用延迟模块的网络不同,因为参数初始化的顺序不同,这通常取决于一个有状态的随机数生成器。有关更多详细信息,请参阅可复现性。延迟模块可以像其他模块一样使用 state dict 进行序列化。例如
>>> lazy_mlp = LazyMLP() >>> # The state dict shows the uninitialized parameters >>> lazy_mlp.state_dict() OrderedDict([('fc1.weight', Uninitialized parameter), ('fc1.bias', tensor([-1.8832e+25, 4.5636e-41, -1.8832e+25, 4.5636e-41, -6.1598e-30, 4.5637e-41, -1.8788e+22, 4.5636e-41, -2.0042e-31, 4.5637e-41])), ('fc2.weight', Uninitialized parameter), ('fc2.bias', tensor([0.0019]))])
延迟模块可以加载常规的
torch.nn.Parameter
(即,您可以序列化/反序列化已初始化的 LazyModules,并且它们将保持初始化状态)>>> full_mlp = LazyMLP() >>> # Dry run to initialize another module >>> full_mlp.forward(torch.ones(10, 1)) >>> # Load an initialized state into a lazy module >>> lazy_mlp.load_state_dict(full_mlp.state_dict()) >>> # The state dict now holds valid values >>> lazy_mlp.state_dict() OrderedDict([('fc1.weight', tensor([[-0.3837], [ 0.0907], [ 0.6708], [-0.5223], [-0.9028], [ 0.2851], [-0.4537], [ 0.6813], [ 0.5766], [-0.8678]])), ('fc1.bias', tensor([-1.8832e+25, 4.5636e-41, -1.8832e+25, 4.5636e-41, -6.1598e-30, 4.5637e-41, -1.8788e+22, 4.5636e-41, -2.0042e-31, 4.5637e-41])), ('fc2.weight', tensor([[ 0.1320, 0.2938, 0.0679, 0.2793, 0.1088, -0.1795, -0.2301, 0.2807, 0.2479, 0.1091]])), ('fc2.bias', tensor([0.0019]))])
然而,请注意,如果加载状态时参数已初始化,则在执行“空运行”时不会替换加载的参数。这可以防止在不同上下文中使用已初始化的模块。