注意
点击此处下载完整示例代码
学习基础知识 || 快速入门 || 张量 || 数据集与数据加载器 || 变换 || 构建模型 || Autograd || 优化 || 保存与加载模型
变换¶
创建日期:2021 年 2 月 9 日 | 最后更新:2021 年 8 月 11 日 | 最后验证:未验证
数据并不总是以机器学习算法训练所需的最终处理形式出现。我们使用 变换(transforms) 对数据进行一些处理,使其适合训练。
所有 TorchVision 数据集都有两个参数 -transform
用于修改特征,target_transform
用于修改标签 - 它们接受包含变换逻辑的可调用对象。 torchvision.transforms 模块提供了几个常用的现成变换。
FashionMNIST 特征采用 PIL Image 格式,标签是整数。为了训练,我们需要将特征转换为归一化张量,将标签转换为独热编码张量。为了实现这些变换,我们使用 ToTensor
和 Lambda
。
import torch
from torchvision import datasets
from torchvision.transforms import ToTensor, Lambda
ds = datasets.FashionMNIST(
root="data",
train=True,
download=True,
transform=ToTensor(),
target_transform=Lambda(lambda y: torch.zeros(10, dtype=torch.float).scatter_(0, torch.tensor(y), value=1))
)
0%| | 0.00/26.4M [00:00<?, ?B/s]
0%| | 65.5k/26.4M [00:00<01:12, 364kB/s]
1%| | 229k/26.4M [00:00<00:38, 685kB/s]
4%|3 | 950k/26.4M [00:00<00:11, 2.20MB/s]
15%|#4 | 3.83M/26.4M [00:00<00:02, 7.64MB/s]
38%|###7 | 10.0M/26.4M [00:00<00:00, 17.3MB/s]
61%|######1 | 16.1M/26.4M [00:01<00:00, 22.9MB/s]
83%|########2 | 21.9M/26.4M [00:01<00:00, 30.3MB/s]
96%|#########5| 25.4M/26.4M [00:01<00:00, 26.8MB/s]
100%|##########| 26.4M/26.4M [00:01<00:00, 19.5MB/s]
0%| | 0.00/29.5k [00:00<?, ?B/s]
100%|##########| 29.5k/29.5k [00:00<00:00, 326kB/s]
0%| | 0.00/4.42M [00:00<?, ?B/s]
1%|1 | 65.5k/4.42M [00:00<00:11, 363kB/s]
5%|5 | 229k/4.42M [00:00<00:06, 684kB/s]
19%|#9 | 852k/4.42M [00:00<00:01, 2.37MB/s]
44%|####3 | 1.93M/4.42M [00:00<00:00, 4.17MB/s]
100%|##########| 4.42M/4.42M [00:00<00:00, 6.11MB/s]
0%| | 0.00/5.15k [00:00<?, ?B/s]
100%|##########| 5.15k/5.15k [00:00<00:00, 65.0MB/s]
Lambda 变换¶
Lambda 变换应用任何用户定义的 lambda 函数。在这里,我们定义了一个函数将整数转换为独热编码张量。它首先创建一个大小为 10 的零张量(数据集中标签的数量),然后调用 scatter_ 函数,根据标签 y
给定的索引位置赋值 value=1
。
target_transform = Lambda(lambda y: torch.zeros(
10, dtype=torch.float).scatter_(dim=0, index=torch.tensor(y), value=1))