注意
转到末尾 下载完整的示例代码。
了解基础知识 || 快速入门 || 张量 || 数据集 & 数据加载器 || Transforms || 构建模型 || Autograd || 优化 || 保存 & 加载模型
转换#
创建时间:2021 年 2 月 9 日 | 最后更新:2021 年 8 月 11 日 | 最后验证:未经验证
数据并不总是以机器学习算法训练所需的最终处理形式提供。我们使用 transforms 来对数据进行一些操作,使其适合训练。
所有 TorchVision 数据集都有两个参数 - transform 用于修改特征,target_transform 用于修改标签 - 它们接受包含转换逻辑的可调用对象。 torchvision.transforms 模块提供了许多常用的 transforms。
FashionMNIST 的特征是 PIL Image 格式,标签是整数。为了训练,我们需要将特征转换为归一化的张量,并将标签转换为独热编码的张量。为了实现这些转换,我们使用 ToTensor 和 Lambda。
import torch
from torchvision import datasets
from torchvision.transforms import ToTensor, Lambda
ds = datasets.FashionMNIST(
root="data",
train=True,
download=True,
transform=ToTensor(),
target_transform=Lambda(lambda y: torch.zeros(10, dtype=torch.float).scatter_(0, torch.tensor(y), value=1))
)
0%| | 0.00/26.4M [00:00<?, ?B/s]
0%| | 65.5k/26.4M [00:00<01:12, 361kB/s]
1%| | 229k/26.4M [00:00<00:38, 678kB/s]
3%|▎ | 918k/26.4M [00:00<00:12, 2.09MB/s]
14%|█▍ | 3.67M/26.4M [00:00<00:03, 7.22MB/s]
36%|███▋ | 9.63M/26.4M [00:00<00:01, 16.4MB/s]
60%|█████▉ | 15.7M/26.4M [00:01<00:00, 22.2MB/s]
82%|████████▏ | 21.6M/26.4M [00:01<00:00, 25.4MB/s]
100%|██████████| 26.4M/26.4M [00:01<00:00, 19.2MB/s]
0%| | 0.00/29.5k [00:00<?, ?B/s]
100%|██████████| 29.5k/29.5k [00:00<00:00, 323kB/s]
0%| | 0.00/4.42M [00:00<?, ?B/s]
1%|▏ | 65.5k/4.42M [00:00<00:12, 359kB/s]
5%|▌ | 229k/4.42M [00:00<00:06, 675kB/s]
20%|██ | 885k/4.42M [00:00<00:01, 2.01MB/s]
81%|████████ | 3.57M/4.42M [00:00<00:00, 7.02MB/s]
100%|██████████| 4.42M/4.42M [00:00<00:00, 6.03MB/s]
0%| | 0.00/5.15k [00:00<?, ?B/s]
100%|██████████| 5.15k/5.15k [00:00<00:00, 54.0MB/s]
ToTensor()#
ToTensor 将 PIL 图像或 NumPy ndarray 转换为 FloatTensor。并将图像的像素强度值缩放到 [0., 1.] 范围。
Lambda Transforms#
Lambda transforms 应用任何用户定义的 lambda 函数。在这里,我们定义了一个函数来将整数转换为独热编码的张量。它首先创建一个大小为 10(我们数据集中标签的数量)的零张量,并调用 scatter_,该函数在由标签 y 给出的索引处分配 value=1。
target_transform = Lambda(lambda y: torch.zeros(
10, dtype=torch.float).scatter_(dim=0, index=torch.tensor(y), value=1))
进一步阅读#
脚本总运行时间: (0 分 4.404 秒)