torch.load¶
- torch.load(f, map_location=None, pickle_module=pickle, *, weights_only=True, mmap=None, **pickle_load_args)[source][source]¶
从文件中加载使用
torch.save()
保存的对象。torch.load()
使用 Python 的反序列化功能,但会特殊处理存储 (storages),即张量 (tensors) 的底层数据。它们首先在 CPU 上反序列化,然后移动到保存它们的设备。如果此操作失败(例如,因为运行时系统没有某些设备),则会引发异常。但是,可以使用map_location
参数将存储动态地重新映射到备用设备集。如果
map_location
是可调用对象,则将为每个序列化的存储调用一次,并带有两个参数:storage 和 location。 storage 参数将是存储的初始反序列化结果,驻留在 CPU 上。每个序列化的存储都有一个与之关联的位置标签,用于标识保存它的设备,此标签是传递给map_location
的第二个参数。内置的位置标签为 CPU 张量的'cpu'
和 CUDA 张量的'cuda:device_id'
(例如'cuda:2'
)。map_location
应返回None
或一个 storage。如果map_location
返回一个 storage,它将用作最终的反序列化对象,并已移动到正确的设备。否则,torch.load()
将回退到默认行为,就像未指定map_location
一样。如果
map_location
是torch.device
对象或包含设备标签的字符串,则表示应加载所有张量的位置。否则,如果
map_location
是字典,则它将用于重新映射文件中出现的位置标签(键),以指定存储 (storages) 的放置位置(值)。用户扩展可以使用
torch.serialization.register_package()
注册自己的位置标签以及标记和反序列化方法。- 参数
f (Union[str, PathLike, BinaryIO, IO[bytes]]) – 类文件对象(必须实现
read()
、readline()
、tell()
和seek()
),或包含文件名的字符串或 os.PathLike 对象map_location (Optional[Union[Callable[[Storage, str], Storage], device, str, Dict[str, str]]]) – 函数、
torch.device
、字符串或字典,用于指定如何重新映射存储位置pickle_module (Optional[Any]) – 用于反序列化元数据和对象的模块(必须与用于序列化文件的
pickle_module
匹配)weights_only (Optional[bool]) – 指示反序列化器是否应仅限于加载张量、原始类型、字典以及通过
torch.serialization.add_safe_globals()
添加的任何类型。 有关更多详细信息,请参阅 torch.load with weights_only=True。mmap (Optional[bool]) – 指示是否应映射文件而不是将所有存储加载到内存中。通常,文件中的张量存储将首先从磁盘移动到 CPU 内存,然后移动到保存时标记的位置,或由
map_location
指定的位置。如果最终位置是 CPU,则第二步是空操作。当设置mmap
标志时,不是在第一步中将张量存储从磁盘复制到 CPU 内存,而是映射f
。pickle_load_args (Any) – (仅限 Python 3)传递给
pickle_module.load()
和pickle_module.Unpickler()
的可选关键字参数,例如,errors=...
。
- 返回类型
警告
torch.load()
除非 weights_only 参数设置为 True,否则会隐式使用pickle
模块,已知该模块是不安全的。可以构造恶意 pickle 数据,这些数据将在反序列化期间执行任意代码。永远不要以不安全模式加载可能来自不受信任来源或可能被篡改的数据。只加载您信任的数据。注意
当您在包含 GPU 张量的文件上调用
torch.load()
时,这些张量默认将加载到 GPU。您可以调用torch.load(.., map_location='cpu')
,然后调用load_state_dict()
以避免在加载模型检查点时 GPU RAM 激增。注意
默认情况下,我们将字节字符串解码为
utf-8
。这是为了避免在 Python 3 中加载由 Python 2 保存的文件时出现常见的错误案例UnicodeDecodeError: 'ascii' codec can't decode byte 0x...
。如果此默认设置不正确,您可以使用额外的encoding
关键字参数来指定应如何加载这些对象,例如,encoding='latin1'
使用latin1
编码将它们解码为字符串,而encoding='bytes'
将它们保留为字节数组,稍后可以使用byte_array.decode(...)
对其进行解码。示例
>>> torch.load("tensors.pt", weights_only=True) # Load all tensors onto the CPU >>> torch.load("tensors.pt", map_location=torch.device("cpu"), weights_only=True) # Load all tensors onto the CPU, using a function >>> torch.load( ... "tensors.pt", map_location=lambda storage, loc: storage, weights_only=True ... ) # Load all tensors onto GPU 1 >>> torch.load( ... "tensors.pt", ... map_location=lambda storage, loc: storage.cuda(1), ... weights_only=True, ... ) # type: ignore[attr-defined] # Map tensors from GPU 1 to GPU 0 >>> torch.load("tensors.pt", map_location={"cuda:1": "cuda:0"}, weights_only=True) # Load tensor from io.BytesIO object # Loading from a buffer setting weights_only=False, warning this can be unsafe >>> with open("tensor.pt", "rb") as f: ... buffer = io.BytesIO(f.read()) >>> torch.load(buffer, weights_only=False) # Load a module with 'ascii' encoding for unpickling # Loading from a module setting weights_only=False, warning this can be unsafe >>> torch.load("module.pt", encoding="ascii", weights_only=False)