注意
点击 此处 下载完整示例代码
学习基础知识 || 快速入门 || 张量 || 数据集与 DataLoaders || Transforms || 构建模型 || Autograd || 优化 || 保存与加载模型
保存和加载模型¶
创建日期: 2021 年 2 月 9 日 | 最后更新: 2024 年 10 月 15 日 | 最后验证: 2024 年 11 月 5 日
在本节中,我们将探讨如何通过保存、加载和运行模型预测来持久化模型状态。
import torch
import torchvision.models as models
保存和加载模型权重¶
PyTorch 模型将其学习到的参数存储在一个内部状态字典中,称为 state_dict
。这些参数可以通过 torch.save
方法进行持久化。
model = models.vgg16(weights='IMAGENET1K_V1')
torch.save(model.state_dict(), 'model_weights.pth')
Downloading: "https://download.pytorch.org/models/vgg16-397923af.pth" to /var/lib/ci-user/.cache/torch/hub/checkpoints/vgg16-397923af.pth
0%| | 0.00/528M [00:00<?, ?B/s]
6%|5 | 30.5M/528M [00:00<00:01, 318MB/s]
13%|#2 | 66.5M/528M [00:00<00:01, 353MB/s]
19%|#8 | 100M/528M [00:00<00:01, 317MB/s]
25%|##4 | 131M/528M [00:00<00:01, 268MB/s]
30%|##9 | 158M/528M [00:00<00:01, 265MB/s]
35%|###5 | 187M/528M [00:00<00:01, 278MB/s]
41%|####1 | 219M/528M [00:00<00:01, 294MB/s]
49%|####8 | 257M/528M [00:00<00:00, 327MB/s]
55%|#####4 | 289M/528M [00:01<00:00, 305MB/s]
62%|######1 | 325M/528M [00:01<00:00, 324MB/s]
67%|######7 | 356M/528M [00:01<00:00, 300MB/s]
73%|#######3 | 386M/528M [00:01<00:00, 271MB/s]
79%|#######8 | 415M/528M [00:01<00:00, 280MB/s]
84%|########3 | 442M/528M [00:01<00:00, 254MB/s]
89%|########8 | 468M/528M [00:01<00:00, 258MB/s]
95%|#########4| 499M/528M [00:01<00:00, 274MB/s]
100%|##########| 528M/528M [00:01<00:00, 288MB/s]
要加载模型权重,首先需要创建相同模型的实例,然后使用 load_state_dict()
方法加载参数。
在下面的代码中,我们将 weights_only
设置为 True
,以限制反序列化过程中执行的函数,仅保留加载权重所需的函数。加载权重时,使用 weights_only=True
被认为是最佳实践。
model = models.vgg16() # we do not specify ``weights``, i.e. create untrained model
model.load_state_dict(torch.load('model_weights.pth', weights_only=True))
model.eval()
VGG(
(features): Sequential(
(0): Conv2d(3, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(1): ReLU(inplace=True)
(2): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(3): ReLU(inplace=True)
(4): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
(5): Conv2d(64, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(6): ReLU(inplace=True)
(7): Conv2d(128, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(8): ReLU(inplace=True)
(9): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
(10): Conv2d(128, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(11): ReLU(inplace=True)
(12): Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(13): ReLU(inplace=True)
(14): Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(15): ReLU(inplace=True)
(16): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
(17): Conv2d(256, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(18): ReLU(inplace=True)
(19): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(20): ReLU(inplace=True)
(21): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(22): ReLU(inplace=True)
(23): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
(24): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(25): ReLU(inplace=True)
(26): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(27): ReLU(inplace=True)
(28): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(29): ReLU(inplace=True)
(30): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
)
(avgpool): AdaptiveAvgPool2d(output_size=(7, 7))
(classifier): Sequential(
(0): Linear(in_features=25088, out_features=4096, bias=True)
(1): ReLU(inplace=True)
(2): Dropout(p=0.5, inplace=False)
(3): Linear(in_features=4096, out_features=4096, bias=True)
(4): ReLU(inplace=True)
(5): Dropout(p=0.5, inplace=False)
(6): Linear(in_features=4096, out_features=1000, bias=True)
)
)
注意
在进行推理之前,请务必调用 model.eval()
方法,将 dropout 和批量归一化层设置为评估模式。若未能这样做,推理结果将不稳定。
保存和加载带模型结构的模型¶
加载模型权重时,我们需要先实例化模型类,因为类定义了网络的结构。我们可能希望将这个类的结构与模型一起保存,在这种情况下,我们可以将 model
(而不是 model.state_dict()
)传递给保存函数。
torch.save(model, 'model.pth')
然后,我们可以按如下所示加载模型。
如 Saving and loading torch.nn.Modules 中所述,保存 state_dict
被认为是最佳实践。然而,下面我们使用 weights_only=False
是因为这涉及加载整个模型,这是 torch.save
的一个遗留用例。
model = torch.load('model.pth', weights_only=False),
注意
这种方法在序列化模型时使用了 Python pickle 模块,因此在加载模型时需要实际的类定义可用。