注意
转到末尾 下载完整的示例代码。
torch.nn 到底是什么?#
创建日期:2018 年 12 月 26 日 | 最后更新:2025 年 1 月 24 日 | 最后验证:2024 年 11 月 5 日
作者: Jeremy Howard, fast.ai。感谢 Rachel Thomas 和 Francisco Ingham。
我们建议将此教程作为 notebook 运行,而不是脚本。要下载 notebook (.ipynb) 文件,请单击页面顶部的链接。
PyTorch 提供了设计优雅的模块和类 torch.nn 、 torch.optim 、 Dataset 和 DataLoader 来帮助您创建和训练神经网络。为了充分利用它们的功能并为您的特定问题进行定制,您需要真正理解它们的工作原理。为了培养这种理解,我们将首先在 MNIST 数据集上训练一个基础神经网络,而不使用这些模型中的任何功能;一开始我们将只使用最基本的 PyTorch 张量功能。然后,我们将一次逐步添加 torch.nn 、 torch.optim 、 Dataset 或 DataLoader 的一项功能,精确地展示每个部分的作用,以及它如何使代码更简洁或更灵活。
本教程假定您已安装 PyTorch,并且熟悉张量操作的基础知识。 (如果您熟悉 Numpy 数组操作,您会发现这里使用的 PyTorch 张量操作几乎相同)。
MNIST 数据设置#
我们将使用经典的 MNIST 数据集,该数据集包含手写数字(0 到 9)的黑白图像。
我们将使用 pathlib 处理路径(Python 3 标准库的一部分),并使用 requests 下载数据集。我们只会在使用时导入模块,以便您确切地看到在每个点上使用了什么。
from pathlib import Path
import requests
DATA_PATH = Path("data")
PATH = DATA_PATH / "mnist"
PATH.mkdir(parents=True, exist_ok=True)
URL = "https://github.com/pytorch/tutorials/raw/main/_static/"
FILENAME = "mnist.pkl.gz"
if not (PATH / FILENAME).exists():
content = requests.get(URL + FILENAME).content
(PATH / FILENAME).open("wb").write(content)
此数据集是 numpy 数组格式,并已使用 pickle(一种 Python 特定的数据序列化格式)存储。
每张图像的大小为 28 x 28,并存储为长度为 784 (=28x28) 的展平行。让我们看一个;我们首先需要将其重塑为 2D。
from matplotlib import pyplot
import numpy as np
pyplot.imshow(x_train[0].reshape((28, 28)), cmap="gray")
# ``pyplot.show()`` only if not on Colab
try:
import google.colab
except ImportError:
pyplot.show()
print(x_train.shape)

(50000, 784)
PyTorch 使用 torch.tensor,而不是 numpy 数组,因此我们需要转换我们的数据。
import torch
x_train, y_train, x_valid, y_valid = map(
torch.tensor, (x_train, y_train, x_valid, y_valid)
)
n, c = x_train.shape
print(x_train, y_train)
print(x_train.shape)
print(y_train.min(), y_train.max())
tensor([[0., 0., 0., ..., 0., 0., 0.],
[0., 0., 0., ..., 0., 0., 0.],
[0., 0., 0., ..., 0., 0., 0.],
...,
[0., 0., 0., ..., 0., 0., 0.],
[0., 0., 0., ..., 0., 0., 0.],
[0., 0., 0., ..., 0., 0., 0.]]) tensor([5, 0, 4, ..., 8, 4, 8])
torch.Size([50000, 784])
tensor(0) tensor(9)
从头开始构建神经网络(不使用 torch.nn)#
让我们首先仅使用 PyTorch 张量操作创建一个模型。我们假设您已经熟悉神经网络的基础知识。(如果您不熟悉,可以在 course.fast.ai 上学习)。
PyTorch 提供了创建随机填充或零填充张量的方法,我们将使用它们来为简单的线性模型创建权重和偏差。这些只是常规张量,但有一个非常特殊的补充:我们告诉 PyTorch 它们需要梯度。这使得 PyTorch 记录对张量进行的所有操作,以便在反向传播期间自动计算梯度!
对于权重,我们在初始化之后设置 requires_grad,因为我们不希望该步骤包含在梯度计算中。(请注意,PyTorch 中末尾带有 _ 的操作表示该操作是就地执行的。)
注意
我们在这里使用 Xavier 初始化(通过乘以 1/sqrt(n))来初始化权重。
import math
weights = torch.randn(784, 10) / math.sqrt(784)
weights.requires_grad_()
bias = torch.zeros(10, requires_grad=True)
由于 PyTorch 能够自动计算梯度,我们可以使用任何标准的 Python 函数(或可调用对象)作为模型!所以,让我们写一个简单的矩阵乘法和广播加法来创建一个简单的线性模型。我们还需要一个激活函数,所以我们将编写 log_softmax 并使用它。请记住:尽管 PyTorch 提供了许多预先编写好的损失函数、激活函数等,但您可以使用纯 Python 轻松编写自己的。PyTorch 甚至会自动为您的函数创建快速加速器或矢量化 CPU 代码。
在上面,@ 代表矩阵乘法运算。我们将把我们的函数应用于一个数据批次(在本例中是 64 张图像)。这是一次前向传播。请注意,在这一点上,我们的预测不会比随机的更好,因为我们从随机权重开始。
bs = 64 # batch size
xb = x_train[0:bs] # a mini-batch from x
preds = model(xb) # predictions
preds[0], preds.shape
print(preds[0], preds.shape)
tensor([-1.8047, -2.2880, -2.9946, -2.7956, -2.5301, -2.2179, -2.2883, -2.5213,
-2.1877, -1.9631], grad_fn=<SelectBackward0>) torch.Size([64, 10])
正如您所见,preds 张量不仅包含张量值,还包含一个梯度函数。我们稍后将使用它来进行反向传播。
让我们实现负对数似然作为损失函数(同样,我们只能使用标准的 Python)
def nll(input, target):
return -input[range(target.shape[0]), target].mean()
loss_func = nll
让我们检查一下我们随机模型的损失,这样我们就可以在稍后的反向传播后看到我们是否有所改进。
tensor(2.3240, grad_fn=<NegBackward0>)
让我们还实现一个函数来计算我们模型的准确率。对于每个预测,如果具有最大值的索引与目标值匹配,则预测是正确的。
def accuracy(out, yb):
preds = torch.argmax(out, dim=1)
return (preds == yb).float().mean()
让我们检查一下我们随机模型的准确率,这样我们就可以看到随着损失的改善,我们的准确率是否也在提高。
tensor(0.1094)
我们现在可以运行训练循环。在每次迭代中,我们将
选择一个数据的小批量(大小为
bs)使用模型进行预测
计算损失
loss.backward()更新模型梯度,在本例中是weights和bias。
我们现在使用这些梯度更新权重和偏差。我们在 torch.no_grad() 上下文管理器中执行此操作,因为我们不希望将这些操作记录到我们的下一次梯度计算中。您可以在此处阅读有关 PyTorch Autograd 如何记录操作的更多信息。here。
然后,我们将梯度设置为零,以便为下一次循环做好准备。否则,我们的梯度将记录所有已发生操作的累积总数(即 loss.backward() 会将梯度添加到已存储的任何内容上,而不是替换它们)。
提示
您可以使用标准的 Python 调试器单步执行 PyTorch 代码,从而可以在每个步骤中检查各种变量值。取消注释下面的 set_trace() 来尝试一下。
from IPython.core.debugger import set_trace
lr = 0.5 # learning rate
epochs = 2 # how many epochs to train for
for epoch in range(epochs):
for i in range((n - 1) // bs + 1):
# set_trace()
start_i = i * bs
end_i = start_i + bs
xb = x_train[start_i:end_i]
yb = y_train[start_i:end_i]
pred = model(xb)
loss = loss_func(pred, yb)
loss.backward()
with torch.no_grad():
weights -= weights.grad * lr
bias -= bias.grad * lr
weights.grad.zero_()
bias.grad.zero_()
就是这样:我们已经从头开始创建并训练了一个最小的神经网络(在本例中是一个逻辑回归,因为我们没有隐藏层)!
让我们检查一下损失和准确率,并将它们与我们之前得到的结果进行比较。我们期望损失会下降,准确率会提高,事实也确实如此。
tensor(0.0836, grad_fn=<NegBackward0>) tensor(1.)
使用 torch.nn.functional#
我们现在将重构我们的代码,使其执行与之前相同的功能,只是我们将开始利用 PyTorch 的 nn 类来使其更简洁、更灵活。从这里开始,我们应该使我们的代码变得更短、更容易理解、更灵活(或多项)。
第一步也是最简单的一步是,通过将我们手动编写的激活函数和损失函数替换为 torch.nn.functional 中的函数(按照惯例,通常导入到命名空间 F 中),来缩短我们的代码。此模块包含 torch.nn 库中的所有函数(而库的其他部分包含类)。除了各种损失函数和激活函数外,您还会在此处找到一些用于创建神经网络的便捷函数,例如池化函数。(还有一些用于卷积、线性层等的函数,但正如我们将看到的,这些通常最好通过库的其他部分来处理)。
如果您使用的是负对数似然损失和 log softmax 激活,那么 Pytorch 提供了一个单独的函数 F.cross_entropy,它将两者结合起来。因此,我们甚至可以从模型中移除激活函数。
import torch.nn.functional as F
loss_func = F.cross_entropy
def model(xb):
return xb @ weights + bias
请注意,我们不再在 model 函数中调用 log_softmax。让我们确认一下我们的损失和准确率与之前相同
tensor(0.0836, grad_fn=<NllLossBackward0>) tensor(1.)
使用 nn.Module 进行重构#
接下来,我们将使用 nn.Module 和 nn.Parameter,以获得更清晰、更简洁的训练循环。我们子类化 nn.Module(它本身就是一个类,能够跟踪状态)。在这种情况下,我们希望创建一个类来保存我们的权重、偏差以及前向步骤的方法。nn.Module 具有许多属性和方法(例如 .parameters() 和 .zero_grad()),我们将使用这些。
注意
nn.Module(大写 M)是 PyTorch 特有的概念,也是我们将大量使用的类。nn.Module 不应与 Python 的(小写 m)模块概念混淆,后者是一个可以导入的 Python 代码文件。
from torch import nn
class Mnist_Logistic(nn.Module):
def __init__(self):
super().__init__()
self.weights = nn.Parameter(torch.randn(784, 10) / math.sqrt(784))
self.bias = nn.Parameter(torch.zeros(10))
def forward(self, xb):
return xb @ self.weights + self.bias
由于我们现在使用的是一个对象而不是一个函数,所以我们首先必须实例化我们的模型
model = Mnist_Logistic()
现在我们可以像以前一样计算损失。请注意,nn.Module 对象的使用方式就像函数一样(即它们是可调用的),但在后台 Pytorch 会自动调用我们的 forward 方法。
tensor(2.3371, grad_fn=<NllLossBackward0>)
以前,在训练循环中,我们需要按名称更新每个参数的值,并手动为每个参数单独清零梯度,像这样
with torch.no_grad():
weights -= weights.grad * lr
bias -= bias.grad * lr
weights.grad.zero_()
bias.grad.zero_()
现在,我们可以利用 model.parameters() 和 model.zero_grad()(它们都是 PyTorch 为 nn.Module 定义的)来使这些步骤更简洁,并且不易出错地忘记我们的一些参数,特别是如果我们有一个更复杂的模型。
with torch.no_grad():
for p in model.parameters(): p -= p.grad * lr
model.zero_grad()
我们将把我们的小训练循环包装在一个 fit 函数中,以便将来可以再次运行它。
def fit():
for epoch in range(epochs):
for i in range((n - 1) // bs + 1):
start_i = i * bs
end_i = start_i + bs
xb = x_train[start_i:end_i]
yb = y_train[start_i:end_i]
pred = model(xb)
loss = loss_func(pred, yb)
loss.backward()
with torch.no_grad():
for p in model.parameters():
p -= p.grad * lr
model.zero_grad()
fit()
让我们再次检查一下我们的损失是否已下降
tensor(0.0837, grad_fn=<NllLossBackward0>)
使用 nn.Linear 进行重构#
我们继续重构我们的代码。而不是手动定义和初始化 self.weights 和 self.bias,以及计算 xb @ self.weights + self.bias,我们将改用 Pytorch 类 nn.Linear 来表示线性层,它为我们完成了所有这些工作。Pytorch 具有许多类型的预定义层,可以极大地简化我们的代码,并且通常也能使其运行得更快。
我们以与以前相同的方式实例化我们的模型并计算损失
model = Mnist_Logistic()
print(loss_func(model(xb), yb))
tensor(2.3447, grad_fn=<NllLossBackward0>)
我们仍然能够使用我们之前相同的 fit 方法。
tensor(0.0817, grad_fn=<NllLossBackward0>)
使用 torch.optim 进行重构#
Pytorch 还有一个包含各种优化算法的包,torch.optim。我们可以使用优化器的 step 方法来执行前向步骤,而不是手动更新每个参数。
这将使我们能够替换之前手动编码的优化步骤
with torch.no_grad():
for p in model.parameters(): p -= p.grad * lr
model.zero_grad()
而是只使用
(optim.zero_grad() 将梯度重置为 0,并且我们需要在计算下一个最小批次的梯度之前调用它。)
from torch import optim
我们将定义一个小的函数来创建我们的模型和优化器,以便将来可以重用它。
def get_model():
model = Mnist_Logistic()
return model, optim.SGD(model.parameters(), lr=lr)
model, opt = get_model()
print(loss_func(model(xb), yb))
for epoch in range(epochs):
for i in range((n - 1) // bs + 1):
start_i = i * bs
end_i = start_i + bs
xb = x_train[start_i:end_i]
yb = y_train[start_i:end_i]
pred = model(xb)
loss = loss_func(pred, yb)
loss.backward()
opt.step()
opt.zero_grad()
print(loss_func(model(xb), yb))
tensor(2.2724, grad_fn=<NllLossBackward0>)
tensor(0.0809, grad_fn=<NllLossBackward0>)
使用 Dataset 进行重构#
PyTorch 有一个抽象的 Dataset 类。Dataset 可以是任何具有 __len__ 函数(由 Python 的标准 len 函数调用)和 __getitem__ 函数作为索引方式的对象。本教程详细介绍了创建一个自定义 FacialLandmarkDataset 类作为 Dataset 子类的精彩示例。
PyTorch 的 TensorDataset 是一个包装张量的 Dataset。通过定义长度和索引方式,这还为我们提供了一种沿张量的第一个维度进行迭代、索引和切片的方法。这将使我们在训练时更轻松地在同一行中访问自变量和因变量。
from torch.utils.data import TensorDataset
x_train 和 y_train 都可以组合到一个 TensorDataset 中,该数据集将更容易迭代和切片。
以前,我们必须单独遍历 x 和 y 值的最小批次
现在,我们可以同时完成这两个步骤
tensor(0.0814, grad_fn=<NllLossBackward0>)
使用 DataLoader 进行重构#
PyTorch 的 DataLoader 负责管理批次。您可以从任何 Dataset 创建 DataLoader。DataLoader 使迭代批次更加容易。您不再需要使用 train_ds[i*bs : i*bs+bs],而是 DataLoader 会自动为您提供每个最小批次。
from torch.utils.data import DataLoader
train_ds = TensorDataset(x_train, y_train)
train_dl = DataLoader(train_ds, batch_size=bs)
以前,我们的循环像这样迭代批次 (xb, yb)
现在,我们的循环更加简洁,因为 (xb, yb) 是从数据加载器自动加载的
tensor(0.0804, grad_fn=<NllLossBackward0>)
得益于 PyTorch 的 nn.Module 、 nn.Parameter 、 Dataset 和 DataLoader,我们的训练循环现在明显更小,更容易理解。现在,让我们尝试添加创建有效模型在实践中所需的 J 些基本功能。
添加验证#
在第一部分中,我们只是试图建立一个合理的训练循环来用于我们的训练数据。实际上,您总是应该有一个验证集,以识别您是否过拟合。
打乱训练数据对于防止批次之间的相关性和过拟合很重要。另一方面,无论我们是否打乱验证集,验证损失都将是相同的。由于打乱需要额外的时间,因此打乱验证数据没有意义。
我们将使用比训练集更大的验证集批量大小。这是因为验证集不需要反向传播,因此占用的内存更少(它不需要存储梯度)。我们利用这一点来使用更大的批量大小并更快地计算损失。
train_ds = TensorDataset(x_train, y_train)
train_dl = DataLoader(train_ds, batch_size=bs, shuffle=True)
valid_ds = TensorDataset(x_valid, y_valid)
valid_dl = DataLoader(valid_ds, batch_size=bs * 2)
我们将在每个 epoch 结束时计算并打印验证损失。
(请注意,我们总是在训练前调用 model.train(),在推理前调用 model.eval(),因为像 nn.BatchNorm2d 和 nn.Dropout 这样的层会使用它们来确保在这些不同阶段的行为适当。)
model, opt = get_model()
for epoch in range(epochs):
model.train()
for xb, yb in train_dl:
pred = model(xb)
loss = loss_func(pred, yb)
loss.backward()
opt.step()
opt.zero_grad()
model.eval()
with torch.no_grad():
valid_loss = sum(loss_func(model(xb), yb) for xb, yb in valid_dl)
print(epoch, valid_loss / len(valid_dl))
0 tensor(0.3900)
1 tensor(0.3259)
创建 fit() 和 get_data()#
我们现在将进行一些重构。由于我们两次执行相似的过程来计算训练集和验证集的损失,因此让我们将其分解为一个名为 loss_batch 的函数,该函数计算一个批次的损失。
我们为训练集传递一个优化器,并使用它执行反向传播。对于验证集,我们不传递优化器,因此该方法不执行反向传播。
fit 运行必要的操作来训练我们的模型并为每个 epoch 计算训练和验证损失。
import numpy as np
def fit(epochs, model, loss_func, opt, train_dl, valid_dl):
for epoch in range(epochs):
model.train()
for xb, yb in train_dl:
loss_batch(model, loss_func, xb, yb, opt)
model.eval()
with torch.no_grad():
losses, nums = zip(
*[loss_batch(model, loss_func, xb, yb) for xb, yb in valid_dl]
)
val_loss = np.sum(np.multiply(losses, nums)) / np.sum(nums)
print(epoch, val_loss)
get_data 返回训练集和验证集的数据加载器。
def get_data(train_ds, valid_ds, bs):
return (
DataLoader(train_ds, batch_size=bs, shuffle=True),
DataLoader(valid_ds, batch_size=bs * 2),
)
现在,我们可以用 3 行代码完成获取数据加载器和拟合模型的所有过程
0 0.3494310810804367
1 0.28792409490942955
您可以使用这 3 行基本代码来训练各种模型。让我们看看如何使用它们来训练卷积神经网络 (CNN)!
切换到 CNN#
我们现在将使用三个卷积层来构建我们的神经网络。由于前一部分中的任何函数都不假定模型的形式,因此我们可以使用它们来训练 CNN 而无需任何修改。
我们将使用 PyTorch 预定义的 Conv2d 类作为我们的卷积层。我们定义了一个包含 3 个卷积层的 CNN。每个卷积后都跟着一个 ReLU。最后,我们执行平均池化。(请注意,view 是 PyTorch 版的 Numpy reshape)
class Mnist_CNN(nn.Module):
def __init__(self):
super().__init__()
self.conv1 = nn.Conv2d(1, 16, kernel_size=3, stride=2, padding=1)
self.conv2 = nn.Conv2d(16, 16, kernel_size=3, stride=2, padding=1)
self.conv3 = nn.Conv2d(16, 10, kernel_size=3, stride=2, padding=1)
def forward(self, xb):
xb = xb.view(-1, 1, 28, 28)
xb = F.relu(self.conv1(xb))
xb = F.relu(self.conv2(xb))
xb = F.relu(self.conv3(xb))
xb = F.avg_pool2d(xb, 4)
return xb.view(-1, xb.size(1))
lr = 0.1
动量是随机梯度下降的一个变体,它还考虑了先前的更新,并且通常能带来更快的训练速度。
0 0.4556122406005859
1 0.2508379440307617
使用 nn.Sequential#
torch.nn 还有一个方便的类可供我们使用来简化代码:Sequential 。Sequential 对象按顺序运行其中包含的每个模块。这是编写神经网络的一种更简单的方法。
为了利用这一点,我们需要能够轻松地从给定函数定义一个自定义层。例如,PyTorch 没有 view 层,我们需要为我们的网络创建一个。 Lambda 将创建一个层,然后我们可以在使用 Sequential 定义网络时使用它。
class Lambda(nn.Module):
def __init__(self, func):
super().__init__()
self.func = func
def forward(self, x):
return self.func(x)
def preprocess(x):
return x.view(-1, 1, 28, 28)
使用 Sequential 创建的模型很简单
model = nn.Sequential(
Lambda(preprocess),
nn.Conv2d(1, 16, kernel_size=3, stride=2, padding=1),
nn.ReLU(),
nn.Conv2d(16, 16, kernel_size=3, stride=2, padding=1),
nn.ReLU(),
nn.Conv2d(16, 10, kernel_size=3, stride=2, padding=1),
nn.ReLU(),
nn.AvgPool2d(4),
Lambda(lambda x: x.view(x.size(0), -1)),
)
opt = optim.SGD(model.parameters(), lr=lr, momentum=0.9)
fit(epochs, model, loss_func, opt, train_dl, valid_dl)
0 0.3620248727560043
1 0.22110013802051545
包装 DataLoader#
- 我们的 CNN 非常简洁,但它只能处理 MNIST,因为
它假定输入是 28*28 的长向量
它假定最终的 CNN 网格大小为 4*4(因为这是我们使用的平均池化核大小)
让我们消除这两个假设,以便我们的模型可以处理任何 2D 单通道图像。首先,我们可以通过将数据预处理移到生成器中来移除初始 Lambda 层
def preprocess(x, y):
return x.view(-1, 1, 28, 28), y
class WrappedDataLoader:
def __init__(self, dl, func):
self.dl = dl
self.func = func
def __len__(self):
return len(self.dl)
def __iter__(self):
for b in self.dl:
yield (self.func(*b))
train_dl, valid_dl = get_data(train_ds, valid_ds, bs)
train_dl = WrappedDataLoader(train_dl, preprocess)
valid_dl = WrappedDataLoader(valid_dl, preprocess)
接下来,我们可以用 nn.AdaptiveAvgPool2d 替换 nn.AvgPool2d,它允许我们定义输出张量的大小,而不是输入张量的大小。因此,我们的模型将适用于任何大小的输入。
model = nn.Sequential(
nn.Conv2d(1, 16, kernel_size=3, stride=2, padding=1),
nn.ReLU(),
nn.Conv2d(16, 16, kernel_size=3, stride=2, padding=1),
nn.ReLU(),
nn.Conv2d(16, 10, kernel_size=3, stride=2, padding=1),
nn.ReLU(),
nn.AdaptiveAvgPool2d(1),
Lambda(lambda x: x.view(x.size(0), -1)),
)
opt = optim.SGD(model.parameters(), lr=lr, momentum=0.9)
让我们试一试
0 0.3840307270050049
1 0.2389558298230171
使用您的 加速器#
如果您有幸能够使用 CUDA 等加速器(您可以通过大多数云提供商以大约 $0.50/小时的价格租用一个),则可以使用它来加速您的代码。首先检查您的加速器在 Pytorch 中是否正常工作
# If the current accelerator is available, we will use it. Otherwise, we use the CPU.
device = torch.accelerator.current_accelerator().type if torch.accelerator.is_available() else "cpu"
print(f"Using {device} device")
Using cuda device
让我们更新 preprocess 以将批次移至加速器
最后,我们可以将我们的模型移至加速器。
model.to(device)
opt = optim.SGD(model.parameters(), lr=lr, momentum=0.9)
您应该会发现它现在运行得更快了
0 0.1930989332795143
1 0.19160217237174512
结束语#
现在我们有了一个通用的数据管道和训练循环,您可以使用它来训练各种 Pytorch 模型。为了了解训练模型现在可以多么简单,请查看 mnist_sample notebook。
当然,您会想要添加许多功能,例如数据增强、超参数调整、监控训练、迁移学习等。这些功能在 fastai 库中都可用,该库采用了本教程中所示的相同设计方法进行开发,为希望进一步改进模型的从业者提供了自然的下一步。
我们一开始就承诺,将通过示例解释 torch.nn 、 torch.optim 、 Dataset 和 DataLoader。所以,让我们总结一下我们所看到的
torch.nn:
Module:创建一个可调用的对象,其行为类似于函数,但也可以包含状态(例如神经网络层权重)。它知道它包含哪些Parameter(s),并且可以清零所有梯度,循环遍历它们进行权重更新等。
Parameter:一个张量的包装器,它告诉Module它具有在反向传播期间需要更新的权重。只有 requires_grad 属性设置为 True 的张量才会被更新。
functional:一个模块(通常按惯例导入到F命名空间),其中包含激活函数、损失函数等,以及卷积层和线性层等层的无状态版本。
torch.optim:包含优化器,例如SGD,它们在反向传播步骤期间更新Parameter的权重。
Dataset:一个抽象接口,包含具有__len__和__getitem__的对象,包括 PyTorch 提供的类,例如TensorDataset。
DataLoader:接收任何Dataset并创建一个返回数据批次的迭代器。
脚本总运行时间: (0 分钟 25.360 秒)