注意
跳至末尾以下载完整的示例代码。
从零开始学NLP:使用字符级RNN进行姓名分类#
创建于:2017年3月24日 | 最后更新:2025年3月14日 | 最后验证:2024年11月5日
作者: Sean Robertson
本教程是三部曲系列的一部分
我们将构建并训练一个基本的字符级循环神经网络(RNN)来对单词进行分类。本教程以及另外两个“从零开始”的自然语言处理(NLP)教程——从零开始学NLP:使用字符级RNN生成姓名和从零开始学NLP:使用序列到序列网络和注意力机制进行翻译——展示了如何预处理数据以进行NLP建模。特别是,这些教程展示了用于NLP建模的预处理在底层是如何工作的。
字符级RNN将单词作为一系列字符来读取——在每一步输出一个预测和“隐藏状态”,并将其前一个隐藏状态输入到下一步。我们把最终的预测作为输出,即单词属于哪个类别。
具体来说,我们将在来自18种不同语言源的数千个姓氏上进行训练,并根据拼写来预测一个姓氏来自哪种语言。
推荐准备#
在开始本教程之前,建议您已安装PyTorch,并对Python编程语言和张量(Tensors)有基本的了解。
https://pytorch.ac.cn/ 获取安装说明
60分钟闪电战:用PyTorch进行深度学习,快速入门PyTorch并学习张量的基础知识
通过实例学习PyTorch,进行广泛而深入的概览
为前Torch用户准备的PyTorch教程,如果您是前Lua Torch用户
了解RNN及其工作原理也会很有帮助
循环神经网络的惊人效果展示了许多现实生活中的例子
理解LSTM网络是关于LSTM的,但对于理解RNN也很有启发性
准备Torch#
设置Torch以默认使用正确的设备,根据您的硬件(CPU或CUDA)使用GPU加速。
import torch
# Check if CUDA is available
device = torch.device('cpu')
if torch.cuda.is_available():
device = torch.device('cuda')
torch.set_default_device(device)
print(f"Using device = {torch.get_default_device()}")
Using device = cuda:0
准备数据#
从此处下载数据并解压到当前目录。
在 data/names
目录中,有18个名为 [Language].txt
的文本文件。每个文件包含一堆姓名,每行一个姓名,大部分是罗马化的(但我们仍然需要从Unicode转换为ASCII)。
第一步是定义和清理我们的数据。首先,我们需要将Unicode转换为纯ASCII,以限制RNN的输入层。这通过将Unicode字符串转换为ASCII并只允许一小部分允许的字符来实现。
import string
import unicodedata
# We can use "_" to represent an out-of-vocabulary character, that is, any character we are not handling in our model
allowed_characters = string.ascii_letters + " .,;'" + "_"
n_letters = len(allowed_characters)
# Turn a Unicode string to plain ASCII, thanks to https://stackoverflow.com/a/518232/2809427
def unicodeToAscii(s):
return ''.join(
c for c in unicodedata.normalize('NFD', s)
if unicodedata.category(c) != 'Mn'
and c in allowed_characters
)
这是一个将Unicode字母姓名转换为纯ASCII的例子。这简化了输入层。
print (f"converting 'Ślusàrski' to {unicodeToAscii('Ślusàrski')}")
converting 'Ślusàrski' to Slusarski
将姓名转换为张量#
现在我们已经整理好了所有的姓名,我们需要将它们转换成张量才能加以利用。
为了表示单个字母,我们使用一个大小为 <1 x n_letters>
的“独热向量”(one-hot vector)。独热向量中充满了0,只有一个在当前字母索引位置的值为1,例如 "b" = <0 1 0 0 0 ...>
。
为了构成一个单词,我们将许多这样的向量组合成一个二维矩阵 <line_length x 1 x n_letters>
。
那个额外的1维度是因为PyTorch假设所有东西都是批处理的——我们在这里只是使用批大小为1。
# Find letter index from all_letters, e.g. "a" = 0
def letterToIndex(letter):
# return our out-of-vocabulary character if we encounter a letter unknown to our model
if letter not in allowed_characters:
return allowed_characters.find("_")
else:
return allowed_characters.find(letter)
# Turn a line into a <line_length x 1 x n_letters>,
# or an array of one-hot letter vectors
def lineToTensor(line):
tensor = torch.zeros(len(line), 1, n_letters)
for li, letter in enumerate(line):
tensor[li][0][letterToIndex(letter)] = 1
return tensor
以下是一些如何对单个和多个字符的字符串使用 lineToTensor()
的示例。
print (f"The letter 'a' becomes {lineToTensor('a')}") #notice that the first position in the tensor = 1
print (f"The name 'Ahn' becomes {lineToTensor('Ahn')}") #notice 'A' sets the 27th index to 1
The letter 'a' becomes tensor([[[1., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 0., 0., 0., 0., 0.]]], device='cuda:0')
The name 'Ahn' becomes tensor([[[0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 0., 0., 0., 0., 0., 0., 0., 1., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 0., 0., 0., 0., 0.]],
[[0., 0., 0., 0., 0., 0., 0., 1., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 0., 0., 0., 0., 0.]],
[[0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 1., 0., 0., 0.,
0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 0., 0., 0., 0., 0.]]], device='cuda:0')
恭喜,您已经为这个学习任务构建了基础的张量对象!对于其他使用文本的RNN任务,您可以使用类似的方法。
接下来,我们需要将所有示例组合成一个数据集,以便我们可以训练、测试和验证我们的模型。为此,我们将使用 Dataset 和 DataLoader 类来存放我们的数据集。每个Dataset需要实现三个函数:__init__
、__len__
和 __getitem__
。
from io import open
import glob
import os
import time
import torch
from torch.utils.data import Dataset
class NamesDataset(Dataset):
def __init__(self, data_dir):
self.data_dir = data_dir #for provenance of the dataset
self.load_time = time.localtime #for provenance of the dataset
labels_set = set() #set of all classes
self.data = []
self.data_tensors = []
self.labels = []
self.labels_tensors = []
#read all the ``.txt`` files in the specified directory
text_files = glob.glob(os.path.join(data_dir, '*.txt'))
for filename in text_files:
label = os.path.splitext(os.path.basename(filename))[0]
labels_set.add(label)
lines = open(filename, encoding='utf-8').read().strip().split('\n')
for name in lines:
self.data.append(name)
self.data_tensors.append(lineToTensor(name))
self.labels.append(label)
#Cache the tensor representation of the labels
self.labels_uniq = list(labels_set)
for idx in range(len(self.labels)):
temp_tensor = torch.tensor([self.labels_uniq.index(self.labels[idx])], dtype=torch.long)
self.labels_tensors.append(temp_tensor)
def __len__(self):
return len(self.data)
def __getitem__(self, idx):
data_item = self.data[idx]
data_label = self.labels[idx]
data_tensor = self.data_tensors[idx]
label_tensor = self.labels_tensors[idx]
return label_tensor, data_tensor, data_label, data_item
在这里,我们可以将示例数据加载到 NamesDataset
中。
alldata = NamesDataset("data/names")
print(f"loaded {len(alldata)} items of data")
print(f"example = {alldata[0]}")
loaded 20074 items of data
example = (tensor([5], device='cuda:0'), tensor([[[0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 1., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 0., 0., 0., 0., 0.]],
[[0., 0., 0., 0., 0., 0., 0., 1., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 0., 0., 0., 0., 0.]],
[[0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 1., 0., 0.,
0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 0., 0., 0., 0., 0.]],
[[0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 0., 1., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 0., 0., 0., 0., 0.]],
[[0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
1., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 0., 0., 0., 0., 0.]],
[[0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 0., 0., 0., 0., 0., 1., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0., 0.,
0., 0., 0., 0., 0., 0., 0.]]], device='cuda:0'), 'Arabic', 'Khoury')
- 使用数据集对象可以让我们轻松地将数据划分为训练集和测试集。这里我们创建了一个80/20的划分。
划分,但
torch.utils.data
有更多有用的工具。这里我们指定一个生成器,因为我们需要使用
与PyTorch上面默认的设备相同的设备。
train_set, test_set = torch.utils.data.random_split(alldata, [.85, .15], generator=torch.Generator(device=device).manual_seed(2024))
print(f"train examples = {len(train_set)}, validation examples = {len(test_set)}")
train examples = 17063, validation examples = 3011
现在我们有一个包含 20074 个示例的基础数据集,每个示例都是一个标签和姓名的配对。我们还将数据集分成了训练集和测试集,以便我们可以验证我们构建的模型。
创建网络#
在有autograd之前,在Torch中创建一个循环神经网络需要在一个层上跨多个时间步克隆参数。这些层持有隐藏状态和梯度,而现在这些都完全由计算图本身处理。这意味着你可以用一种非常“纯粹”的方式来实现一个RNN,就像普通的正向传播层一样。
这个CharRNN类实现了一个包含三个组件的RNN。首先,我们使用 nn.RNN的实现。接下来,我们定义一个将RNN隐藏层映射到我们输出的层。最后,我们应用一个 softmax
函数。使用 nn.RNN
会带来显著的性能提升,例如cuDNN加速的内核,相比于将每个层实现为 nn.Linear
。它也简化了 forward()
中的实现。
import torch.nn as nn
import torch.nn.functional as F
class CharRNN(nn.Module):
def __init__(self, input_size, hidden_size, output_size):
super(CharRNN, self).__init__()
self.rnn = nn.RNN(input_size, hidden_size)
self.h2o = nn.Linear(hidden_size, output_size)
self.softmax = nn.LogSoftmax(dim=1)
def forward(self, line_tensor):
rnn_out, hidden = self.rnn(line_tensor)
output = self.h2o(hidden[0])
output = self.softmax(output)
return output
然后我们可以创建一个具有58个输入节点、128个隐藏节点和18个输出的RNN。
n_hidden = 128
rnn = CharRNN(n_letters, n_hidden, len(alldata.labels_uniq))
print(rnn)
CharRNN(
(rnn): RNN(58, 128)
(h2o): Linear(in_features=128, out_features=18, bias=True)
(softmax): LogSoftmax(dim=1)
)
之后,我们可以将我们的张量传递给RNN以获得预测输出。随后,我们使用一个辅助函数 label_from_output
来为类别推导出一个文本标签。
def label_from_output(output, output_labels):
top_n, top_i = output.topk(1)
label_i = top_i[0].item()
return output_labels[label_i], label_i
input = lineToTensor('Albert')
output = rnn(input) #this is equivalent to ``output = rnn.forward(input)``
print(output)
print(label_from_output(output, alldata.labels_uniq))
tensor([[-2.9921, -2.8215, -2.7346, -2.9681, -2.9184, -2.8820, -2.9741, -2.8774,
-2.9471, -2.8194, -2.7918, -2.7879, -3.0083, -2.8819, -2.9236, -2.7478,
-2.9534, -3.0751]], device='cuda:0', grad_fn=<LogSoftmaxBackward0>)
('Polish', 2)
训练#
训练网络#
现在训练这个网络所需要做的就是给它看一堆例子,让它做猜测,然后告诉它是否错了。
我们通过定义一个 train()
函数来做到这一点,该函数使用小批量(minibatch)在给定的数据集上训练模型。RNN的训练方式与其他网络类似;因此,为了完整性,我们在此处包含了一个批处理训练方法。循环(for i in batch
)在调整权重之前计算批次中每个项目的损失。此操作重复进行,直到达到指定的轮次(epoch)数。
import random
import numpy as np
def train(rnn, training_data, n_epoch = 10, n_batch_size = 64, report_every = 50, learning_rate = 0.2, criterion = nn.NLLLoss()):
"""
Learn on a batch of training_data for a specified number of iterations and reporting thresholds
"""
# Keep track of losses for plotting
current_loss = 0
all_losses = []
rnn.train()
optimizer = torch.optim.SGD(rnn.parameters(), lr=learning_rate)
start = time.time()
print(f"training on data set with n = {len(training_data)}")
for iter in range(1, n_epoch + 1):
rnn.zero_grad() # clear the gradients
# create some minibatches
# we cannot use dataloaders because each of our names is a different length
batches = list(range(len(training_data)))
random.shuffle(batches)
batches = np.array_split(batches, len(batches) //n_batch_size )
for idx, batch in enumerate(batches):
batch_loss = 0
for i in batch: #for each example in this batch
(label_tensor, text_tensor, label, text) = training_data[i]
output = rnn.forward(text_tensor)
loss = criterion(output, label_tensor)
batch_loss += loss
# optimize parameters
batch_loss.backward()
nn.utils.clip_grad_norm_(rnn.parameters(), 3)
optimizer.step()
optimizer.zero_grad()
current_loss += batch_loss.item() / len(batch)
all_losses.append(current_loss / len(batches) )
if iter % report_every == 0:
print(f"{iter} ({iter / n_epoch:.0%}): \t average batch loss = {all_losses[-1]}")
current_loss = 0
return all_losses
我们现在可以用小批量训练一个数据集,指定训练的轮次数。为了加快构建速度,本例中的轮次数已减少。你可以用不同的参数获得更好的结果。
start = time.time()
all_losses = train(rnn, train_set, n_epoch=27, learning_rate=0.15, report_every=5)
end = time.time()
print(f"training took {end-start}s")
training on data set with n = 17063
5 (19%): average batch loss = 0.8939359624893283
10 (37%): average batch loss = 0.6974787115861116
15 (56%): average batch loss = 0.5833970920156372
20 (74%): average batch loss = 0.49924511306543723
25 (93%): average batch loss = 0.42919941670878076
training took 339.75201439857483s
绘制结果#
绘制来自 all_losses
的历史损失,可以显示网络的学习过程
import matplotlib.pyplot as plt
import matplotlib.ticker as ticker
plt.figure()
plt.plot(all_losses)
plt.show()

评估结果#
为了看网络在不同类别上的表现如何,我们将创建一个混淆矩阵,显示对于每种实际语言(行),网络猜测的是哪种语言(列)。为了计算混淆矩阵,我们会用 evaluate()
函数运行一堆样本,这个函数和 train()
函数一样,只是没有反向传播。
def evaluate(rnn, testing_data, classes):
confusion = torch.zeros(len(classes), len(classes))
rnn.eval() #set to eval mode
with torch.no_grad(): # do not record the gradients during eval phase
for i in range(len(testing_data)):
(label_tensor, text_tensor, label, text) = testing_data[i]
output = rnn(text_tensor)
guess, guess_i = label_from_output(output, classes)
label_i = classes.index(label)
confusion[label_i][guess_i] += 1
# Normalize by dividing every row by its sum
for i in range(len(classes)):
denom = confusion[i].sum()
if denom > 0:
confusion[i] = confusion[i] / denom
# Set up plot
fig = plt.figure()
ax = fig.add_subplot(111)
cax = ax.matshow(confusion.cpu().numpy()) #numpy uses cpu here so we need to use a cpu version
fig.colorbar(cax)
# Set up axes
ax.set_xticks(np.arange(len(classes)), labels=classes, rotation=90)
ax.set_yticks(np.arange(len(classes)), labels=classes)
# Force label at every tick
ax.xaxis.set_major_locator(ticker.MultipleLocator(1))
ax.yaxis.set_major_locator(ticker.MultipleLocator(1))
# sphinx_gallery_thumbnail_number = 2
plt.show()
evaluate(rnn, test_set, classes=alldata.labels_uniq)

你可以从主对角线外挑出一些亮点,这些亮点显示了网络猜错了哪些语言,例如,把韩语猜成中文,把意大利语猜成西班牙语。它似乎在希腊语上表现得很好,而在英语上表现得很差(也许是因为与其他语言有重叠)。
练习#
通过一个更大和/或更好形态的网络来获得更好的结果
调整超参数以提升性能,例如改变轮次数、批次大小和学习率
尝试
nn.LSTM
和nn.GRU
层修改层的大小,例如增加或减少隐藏节点的数量或添加额外的线性层
将多个这样的RNN组合成一个更高级别的网络
尝试使用不同的“行 -> 标签”数据集,例如
任意单词 -> 语言
名字 -> 性别
角色名 -> 作者
页面标题 -> 博客或子版块
脚本总运行时间: (5 分 46.018 秒)