评价此页

使用 PyTorch 编写分布式应用程序#

创建日期:2017年10月06日 | 最后更新:2025年02月20日 | 最后验证:2024年11月05日

作者: Séb Arnold

注意

编辑GitHub 上查看和编辑本教程。

先决条件

在这个简短的教程中,我们将介绍 PyTorch 的分布式包。我们将了解如何设置分布式环境、使用不同的通信策略,并深入了解包的一些内部原理。

设置#

PyTorch 中包含的分布式包(即 torch.distributed)使研究人员和实践者能够轻松地在不同进程和机器集群之间并行化他们的计算。为此,它利用消息传递语义,允许每个进程向其他任何进程传输数据。与多进程 (torch.multiprocessing) 包不同,进程可以使用不同的通信后端,并且不限于在同一台机器上执行。

为了开始,我们需要能够同时运行多个进程。如果您可以访问计算集群,您应该咨询您的本地系统管理员或使用您喜欢的协调工具(例如 pdshclustershellslurm)。在本教程中,我们将使用一台机器并使用以下模板生成多个进程。

"""run.py:"""
#!/usr/bin/env python
import os
import sys
import torch
import torch.distributed as dist
import torch.multiprocessing as mp

def run(rank, size):
    """ Distributed function to be implemented later. """
    pass

def init_process(rank, size, fn, backend='gloo'):
    """ Initialize the distributed environment. """
    os.environ['MASTER_ADDR'] = '127.0.0.1'
    os.environ['MASTER_PORT'] = '29500'
    dist.init_process_group(backend, rank=rank, world_size=size)
    fn(rank, size)


if __name__ == "__main__":
    world_size = 2
    processes = []
    if "google.colab" in sys.modules:
        print("Running in Google Colab")
        mp.get_context("spawn")
    else:
        mp.set_start_method("spawn")
    for rank in range(world_size):
        p = mp.Process(target=init_process, args=(rank, world_size, run))
        p.start()
        processes.append(p)

    for p in processes:
        p.join()

上述脚本生成两个进程,每个进程都将设置分布式环境,初始化进程组 (dist.init_process_group),最后执行给定的 run 函数。

我们来看看 init_process 函数。它确保每个进程都能够通过一个主节点进行协调,使用相同的 IP 地址和端口。请注意,我们使用了 gloo 后端,但也有其他后端可用。(参见 第 5.1 节)我们将在本教程的末尾介绍 dist.init_process_group 中发生的“魔法”,但它本质上允许进程通过共享它们的位置相互通信。

点对点通信#

Send and Recv

发送和接收#

数据从一个进程传输到另一个进程称为点对点通信。这通过 sendrecv 函数或它们的 即时 对应函数 isendirecv 来实现。

"""Blocking point-to-point communication."""

def run(rank, size):
    tensor = torch.zeros(1)
    if rank == 0:
        tensor += 1
        # Send the tensor to process 1
        dist.send(tensor=tensor, dst=1)
    else:
        # Receive tensor from process 0
        dist.recv(tensor=tensor, src=0)
    print('Rank ', rank, ' has data ', tensor[0])

在上面的示例中,两个进程都以一个零张量开始,然后进程 0 递增张量并将其发送给进程 1,这样它们最终都得到 1.0。请注意,进程 1 需要分配内存来存储它将接收的数据。

还要注意 send/recv阻塞的:两个进程都会阻塞直到通信完成。另一方面,即时函数是 非阻塞的;脚本继续执行,方法返回一个 Work 对象,我们可以选择对其调用 wait()

"""Non-blocking point-to-point communication."""

def run(rank, size):
    tensor = torch.zeros(1)
    req = None
    if rank == 0:
        tensor += 1
        # Send the tensor to process 1
        req = dist.isend(tensor=tensor, dst=1)
        print('Rank 0 started sending')
    else:
        # Receive tensor from process 0
        req = dist.irecv(tensor=tensor, src=0)
        print('Rank 1 started receiving')
    req.wait()
    print('Rank ', rank, ' has data ', tensor[0])

当使用即时操作时,我们必须小心如何使用发送和接收的张量。由于我们不知道数据何时会传输到另一个进程,我们不应该在 req.wait() 完成之前修改发送的张量或访问接收的张量。换句话说,

  • dist.isend() 之后写入 tensor 将导致未定义的行为。

  • dist.irecv() 之后读取 tensor 将导致未定义的行为,直到 req.wait() 执行完毕。

然而,在 req.wait() 执行完毕后,我们保证通信已经发生,并且存储在 tensor[0] 中的值是 1.0。

点对点通信在我们需要对进程通信进行更精细控制时非常有用。它们可以用于实现复杂的算法,例如 百度 DeepSpeechFacebook 大规模实验 中使用的算法。(参见 第 4.1 节

集合通信#

Scatter

散布 (Scatter)#

Gather

收集 (Gather)#

Reduce

归约 (Reduce)#

All-Reduce

全部归约 (All-Reduce)#

Broadcast

广播 (Broadcast)#

All-Gather

全部收集 (All-Gather)#

与点对点通信不同,集合操作允许在**组**中的所有进程之间进行通信。一个组是所有进程的一个子集。要创建一个组,我们可以将一个排名列表传递给 dist.new_group(group)。默认情况下,集合操作在所有进程上执行,也称为**世界**。例如,为了获取所有进程上所有张量的总和,我们可以使用 dist.all_reduce(tensor, op, group) 集合操作。

""" All-Reduce example."""
def run(rank, size):
    """ Simple collective communication. """
    group = dist.new_group([0, 1])
    tensor = torch.ones(1)
    dist.all_reduce(tensor, op=dist.ReduceOp.SUM, group=group)
    print('Rank ', rank, ' has data ', tensor[0])

由于我们想要组中所有张量的和,我们使用 dist.ReduceOp.SUM 作为归约运算符。一般来说,任何可交换的数学运算都可以用作运算符。PyTorch 默认提供了许多此类运算符,所有这些运算符都在元素级别上工作

  • dist.ReduceOp.SUM,

  • dist.ReduceOp.PRODUCT,

  • dist.ReduceOp.MAX,

  • dist.ReduceOp.MIN,

  • dist.ReduceOp.BAND,

  • dist.ReduceOp.BOR,

  • dist.ReduceOp.BXOR,

  • dist.ReduceOp.PREMUL_SUM.

支持的操作符的完整列表在这里:这里

除了 dist.all_reduce(tensor, op, group) 之外,PyTorch 中还实现了许多其他集合操作。以下是一些受支持的集合操作:

  • dist.broadcast(tensor, src, group):将 tensorsrc 复制到所有其他进程。

  • dist.reduce(tensor, dst, op, group):将 op 应用于每个 tensor 并将结果存储在 dst 中。

  • dist.all_reduce(tensor, op, group):与 reduce 相同,但结果存储在所有进程中。

  • dist.scatter(tensor, scatter_list, src, group):将第 \(i^{\text{th}}\) 个张量 scatter_list[i] 复制到第 \(i^{\text{th}}\) 个进程。

  • dist.gather(tensor, gather_list, dst, group):从 dst 中所有进程复制 tensor

  • dist.all_gather(tensor_list, tensor, group):将 tensor 从所有进程复制到所有进程上的 tensor_list 中。

  • dist.barrier(group):阻塞 group 中的所有进程,直到每个进程都进入此函数。

  • dist.all_to_all(output_tensor_list, input_tensor_list, group):将输入张量列表分散到组中的所有进程,并返回输出列表中收集的张量列表。

支持的集合操作的完整列表可以在 PyTorch 分布式最新文档中找到 (链接)

分布式训练#

注意: 您可以在此 GitHub 存储库中找到本节的示例脚本。

现在我们了解了分布式模块的工作原理,让我们用它来编写一些有用的东西。我们的目标是复制 DistributedDataParallel 的功能。当然,这将是一个教学示例,在实际情况下,您应该使用上面链接的官方、经过充分测试和优化过的版本。

很简单,我们想要实现随机梯度下降的分布式版本。我们的脚本将让所有进程计算模型在各自批次数据上的梯度,然后对它们的梯度进行平均。为了确保在改变进程数量时获得相似的收敛结果,我们首先需要对数据集进行分区。(您也可以使用 torch.utils.data.random_split,而不是下面的代码片段。)

""" Dataset partitioning helper """
class Partition(object):

    def __init__(self, data, index):
        self.data = data
        self.index = index

    def __len__(self):
        return len(self.index)

    def __getitem__(self, index):
        data_idx = self.index[index]
        return self.data[data_idx]


class DataPartitioner(object):

    def __init__(self, data, sizes=[0.7, 0.2, 0.1], seed=1234):
        self.data = data
        self.partitions = []
        rng = Random()  # from random import Random
        rng.seed(seed)
        data_len = len(data)
        indexes = [x for x in range(0, data_len)]
        rng.shuffle(indexes)

        for frac in sizes:
            part_len = int(frac * data_len)
            self.partitions.append(indexes[0:part_len])
            indexes = indexes[part_len:]

    def use(self, partition):
        return Partition(self.data, self.partitions[partition])

有了上面的代码片段,我们现在可以简单地使用以下几行代码来分区任何数据集

""" Partitioning MNIST """
def partition_dataset():
    dataset = datasets.MNIST('./data', train=True, download=True,
                             transform=transforms.Compose([
                                 transforms.ToTensor(),
                                 transforms.Normalize((0.1307,), (0.3081,))
                             ]))
    size = dist.get_world_size()
    bsz = 128 // size
    partition_sizes = [1.0 / size for _ in range(size)]
    partition = DataPartitioner(dataset, partition_sizes)
    partition = partition.use(dist.get_rank())
    train_set = torch.utils.data.DataLoader(partition,
                                         batch_size=bsz,
                                         shuffle=True)
    return train_set, bsz

假设我们有 2 个副本,那么每个进程将有一个 60000 / 2 = 30000 个样本的 train_set。我们还将批处理大小除以副本数,以保持**总体**批处理大小为 128。

我们现在可以编写通常的前向-反向-优化训练代码,并添加一个函数调用来平均模型的梯度。(以下内容主要受到官方 PyTorch MNIST 示例的启发。)

""" Distributed Synchronous SGD Example """
def run(rank, size):
    torch.manual_seed(1234)
    train_set, bsz = partition_dataset()
    model = Net()
    optimizer = optim.SGD(model.parameters(),
                          lr=0.01, momentum=0.5)

    num_batches = ceil(len(train_set.dataset) / float(bsz))
    for epoch in range(10):
        epoch_loss = 0.0
        for data, target in train_set:
            optimizer.zero_grad()
            output = model(data)
            loss = F.nll_loss(output, target)
            epoch_loss += loss.item()
            loss.backward()
            average_gradients(model)
            optimizer.step()
        print('Rank ', dist.get_rank(), ', epoch ',
              epoch, ': ', epoch_loss / num_batches)

仍然需要实现 average_gradients(model) 函数,该函数只是接收一个模型并在整个世界范围内平均其梯度。

""" Gradient averaging. """
def average_gradients(model):
    size = float(dist.get_world_size())
    for param in model.parameters():
        dist.all_reduce(param.grad.data, op=dist.ReduceOp.SUM)
        param.grad.data /= size

瞧! 我们成功实现了分布式同步 SGD,并可以在大型计算机集群上训练任何模型。

注意: 尽管最后一句话在技术上是正确的,但要实现生产级别的同步 SGD,还需要更多的技巧。再次强调,请使用经过测试和优化的版本。

我们自己的环形 All-reduce#

作为一项额外的挑战,想象一下我们想要实现 DeepSpeech 高效的环形 allreduce。使用点对点集合操作可以相当容易地实现这一点。

""" Implementation of a ring-reduce with addition. """
def allreduce(send, recv):
   rank = dist.get_rank()
   size = dist.get_world_size()
   send_buff = send.clone()
   recv_buff = send.clone()
   accum = send.clone()

   left = ((rank - 1) + size) % size
   right = (rank + 1) % size

   for i in range(size - 1):
       if i % 2 == 0:
           # Send send_buff
           send_req = dist.isend(send_buff, right)
           dist.recv(recv_buff, left)
           accum[:] += recv_buff[:]
       else:
           # Send recv_buff
           send_req = dist.isend(recv_buff, right)
           dist.recv(send_buff, left)
           accum[:] += send_buff[:]
       send_req.wait()
   recv[:] = accum[:]

在上面的脚本中,allreduce(send, recv) 函数的签名与 PyTorch 中的略有不同。它接收一个 recv 张量,并将所有 send 张量的和存储在其中。作为留给读者的一个练习,我们的版本与 DeepSpeech 中的版本之间仍然存在一个差异:他们的实现将梯度张量分成,以便最佳地利用通信带宽。(提示:torch.chunk

高级主题#

我们现在准备探索 torch.distributed 的一些更高级功能。由于内容很多,本节分为两个小节:

  1. 通信后端:在这里我们学习如何使用 MPI 和 Gloo 进行 GPU-GPU 通信。

  2. 初始化方法:在这里我们了解如何在 dist.init_process_group() 中最佳地设置初始协调阶段。

通信后端#

torch.distributed 最优雅的方面之一是它能够抽象和构建在不同后端之上。如前所述,PyTorch 中实现了多个后端。其中最受欢迎的是 Gloo、NCCL 和 MPI。它们各自具有不同的规格和权衡,具体取决于所需的用例。支持功能的比较表可以在此处找到。

Gloo 后端

到目前为止,我们已经大量使用了 Gloo 后端。它作为开发平台非常方便,因为它包含在预编译的 PyTorch 二进制文件中,并且可以在 Linux(自 0.2 版起)和 macOS(自 1.3 版起)上运行。它支持 CPU 上的所有点对点和集合操作,以及 GPU 上的所有集合操作。CUDA 张量的集合操作的实现不如 NCCL 后端提供的优化。

正如你肯定注意到的,如果把 model 放在 GPU 上,我们的分布式 SGD 示例就无法工作。为了使用多个 GPU,我们还需要进行以下修改:

  1. 使用 device = torch.device("cuda:{}".format(rank))

  2. model = Net() \(\rightarrow\) model = Net().to(device)

  3. 使用 data, target = data.to(device), target.to(device)

通过上述修改,我们的模型现在正在两个 GPU 上进行训练,您可以使用 watch nvidia-smi 监控它们的利用率。

MPI 后端

消息传递接口(MPI)是高性能计算领域的一个标准化工具。它允许进行点对点和集体通信,并且是 torch.distributed API 的主要灵感来源。MPI 有多种实现(例如 Open-MPIMVAPICH2Intel MPI),每种都针对不同的目的进行了优化。使用 MPI 后端的优势在于 MPI 在大型计算机集群上的广泛可用性——以及高度优化。一些最近的实现也能够利用 CUDA IPC 和 GPU Direct 技术,以避免通过 CPU 进行内存复制。

不幸的是,PyTorch 的二进制文件不能包含 MPI 实现,我们必须手动重新编译它。幸运的是,这个过程相当简单,因为在编译时,PyTorch 会**自行**寻找可用的 MPI 实现。以下步骤通过从源代码安装 PyTorch 来安装 MPI 后端。

  1. 创建并激活您的 Anaconda 环境,按照指南安装所有先决条件,但**不要**运行 python setup.py install

  2. 选择并安装您喜欢的 MPI 实现。请注意,启用 CUDA-aware MPI 可能需要一些额外的步骤。在我们的例子中,我们将坚持使用**不带** GPU 支持的 Open-MPI:conda install -c conda-forge openmpi

  3. 现在,进入您克隆的 PyTorch 仓库,执行 python setup.py install

为了测试我们新安装的后端,需要进行一些修改。

  1. if __name__ == '__main__': 下的内容替换为 init_process(0, 0, run, backend='mpi')

  2. 运行 mpirun -n 4 python myscript.py

这些更改的原因是 MPI 需要在生成进程之前创建自己的环境。MPI 还会生成自己的进程并执行初始化方法中描述的握手,这使得 init_process_groupranksize 参数变得多余。这实际上非常强大,因为您可以向 mpirun 传递额外的参数,以便为每个进程定制计算资源。(例如每个进程的核心数、手动将机器分配给特定等级,以及更多)这样,您应该会获得与其他通信后端相同的熟悉输出。

NCCL 后端

NCCL 后端为 CUDA 张量提供了集合操作的优化实现。如果您的集合操作只使用 CUDA 张量,请考虑使用此后端以获得最佳性能。NCCL 后端包含在预构建的具有 CUDA 支持的二进制文件中。

初始化方法#

为了结束本教程,让我们检查一下我们调用的初始函数:dist.init_process_group(backend, init_method)。具体来说,我们将讨论负责每个进程之间初步协调步骤的各种初始化方法。这些方法使您能够定义如何完成这种协调。

初始化方法的选择取决于您的硬件设置,并且一种方法可能比其他方法更合适。除了以下部分,请参阅官方文档以获取更多信息。

环境变量

在本教程中,我们一直使用环境变量初始化方法。通过在所有机器上设置以下四个环境变量,所有进程都将能够正确连接到主节点,获取其他进程的信息,并最终与它们进行握手。

  • MASTER_PORT:将在等级为 0 的进程所在的机器上使用的空闲端口。

  • MASTER_ADDR:将托管等级为 0 的进程的机器的 IP 地址。

  • WORLD_SIZE:进程总数,以便主节点知道要等待多少个工作节点。

  • RANK:每个进程的排名,以便它们知道自己是主节点还是工作节点。

共享文件系统

共享文件系统要求所有进程都能访问共享文件系统,并会通过共享文件协调它们。这意味着每个进程都会打开文件,写入其信息,并等待所有进程都这样做。之后,所有所需信息都将随时可供所有进程使用。为了避免竞争条件,文件系统必须支持通过 fcntl 进行锁定。

dist.init_process_group(
    init_method='file:///mnt/nfs/sharedfile',
    rank=args.rank,
    world_size=4)

TCP

通过 TCP 进行初始化可以通过提供等级为 0 的进程的 IP 地址和可达的端口号来实现。在这里,所有工作进程都能够连接到等级为 0 的进程并交换相互连接的信息。

dist.init_process_group(
    init_method='tcp://10.1.1.20:23456',
    rank=args.rank,
    world_size=4)

致谢

我要感谢 PyTorch 开发人员在他们的实现、文档和测试方面所做的出色工作。当代码不清楚时,我总能依靠 文档测试 来找到答案。特别是,我要感谢 Soumith Chintala、Adam Paszke 和 Natalia Gimelshein 提供了富有洞察力的评论并回答了早期草稿中的问题。