注意
前往页面底部 下载完整的示例代码。
学习基础知识 || 快速入门 || 张量 || 数据集 & 数据加载器 || Transforms || 构建模型 || Autograd || 优化 || 保存 & 加载模型
转换#
创建日期:2021年2月9日 | 最后更新:2021年8月11日 | 最后验证:未验证
数据并不总是以机器学习算法训练所需的最终处理形式提供。我们使用 **transforms** 来对数据执行一些操作,使其适合训练。
所有 TorchVision 数据集都有两个参数 - transform
用于修改特征,target_transform
用于修改标签 - 它们接受包含转换逻辑的可调用对象。 torchvision.transforms 模块开箱即用地提供了几个常用的 transforms。
FashionMNIST 的特征是 PIL Image 格式,标签是整数。为了训练,我们需要将特征处理为归一化的张量,将标签处理为独热编码的张量。为了实现这些转换,我们使用 ToTensor
和 Lambda
。
import torch
from torchvision import datasets
from torchvision.transforms import ToTensor, Lambda
ds = datasets.FashionMNIST(
root="data",
train=True,
download=True,
transform=ToTensor(),
target_transform=Lambda(lambda y: torch.zeros(10, dtype=torch.float).scatter_(0, torch.tensor(y), value=1))
)
0%| | 0.00/26.4M [00:00<?, ?B/s]
0%| | 65.5k/26.4M [00:00<01:12, 364kB/s]
1%| | 229k/26.4M [00:00<00:38, 683kB/s]
3%|▎ | 885k/26.4M [00:00<00:12, 2.03MB/s]
14%|█▎ | 3.57M/26.4M [00:00<00:03, 7.09MB/s]
36%|███▌ | 9.57M/26.4M [00:00<00:01, 16.5MB/s]
59%|█████▉ | 15.7M/26.4M [00:01<00:00, 22.4MB/s]
82%|████████▏ | 21.6M/26.4M [00:01<00:00, 25.7MB/s]
100%|██████████| 26.4M/26.4M [00:01<00:00, 19.4MB/s]
0%| | 0.00/29.5k [00:00<?, ?B/s]
100%|██████████| 29.5k/29.5k [00:00<00:00, 328kB/s]
0%| | 0.00/4.42M [00:00<?, ?B/s]
1%|▏ | 65.5k/4.42M [00:00<00:12, 361kB/s]
5%|▌ | 229k/4.42M [00:00<00:06, 680kB/s]
21%|██ | 918k/4.42M [00:00<00:01, 2.10MB/s]
83%|████████▎ | 3.67M/4.42M [00:00<00:00, 7.26MB/s]
100%|██████████| 4.42M/4.42M [00:00<00:00, 6.07MB/s]
0%| | 0.00/5.15k [00:00<?, ?B/s]
100%|██████████| 5.15k/5.15k [00:00<00:00, 32.3MB/s]
ToTensor()#
ToTensor 将 PIL 图像或 NumPy ndarray
转换为 FloatTensor
,并将图像的像素强度值缩放到 [0., 1.] 范围内。
Lambda Transforms#
Lambda transforms 应用任何用户定义的 lambda 函数。在这里,我们定义一个函数将整数转换为独热编码的张量。它首先创建一个大小为 10(我们数据集中标签的数量)的零张量,并调用 scatter_,它会在由标签 y
提供的索引处分配 value=1
。
target_transform = Lambda(lambda y: torch.zeros(
10, dtype=torch.float).scatter_(dim=0, index=torch.tensor(y), value=1))
进一步阅读#
脚本总运行时间: (0 分钟 4.348 秒)