分布式检查点 - torch.distributed.checkpoint#
创建于:2022 年 11 月 16 日 | 最后更新于:2025 年 10 月 8 日
分布式检查点 (DCP) 支持从多个 rank 并行加载和保存模型。它处理加载时的重分片,这使得可以在一种集群拓扑中保存,并在另一种集群拓扑中加载。
DCP 在几个重要方面与 torch.save 和 torch.load 不同
每个检查点会生成多个文件,每个 rank 至少一个。
它是在原地操作的,这意味着模型应首先分配其数据,DCP 使用该存储。
加载和保存检查点的入口点如下:
其他资源:#
- class torch.distributed.checkpoint.state_dict_saver.AsyncCheckpointerType(value)[source]#
异步检查点类型的枚举。
- class torch.distributed.checkpoint.state_dict_saver.AsyncSaveResponse(staging_completion, upload_completion)[source]#
此类包含用于暂存和上传完成的 Future。它由 async_save() 返回。staging_completion 是一个指示本地 state_dict 副本何时完成的 Future。upload_completion 是一个指示检查点何时完成保存的 Future。
- torch.distributed.checkpoint.state_dict_saver.save(state_dict, *, checkpoint_id=None, storage_writer=None, planner=None, process_group=None, no_dist=False, use_collectives=True)[source]#
以 SPMD 风格保存分布式模型。
此函数与
torch.save()不同,因为它处理ShardedTensor和DTensor,每个 rank 只保存其本地分片。对于每个
Stateful对象(同时具有state_dict和load_state_dict),save 将在序列化之前调用state_dict。警告
跨 PyTorch 版本的保存 state_dict 不保证向后兼容。
警告
如果使用 process_group 参数,请确保只有其 rank 调用 save_state_dict,并且 state_dict 中的所有数据都属于它。
注意
保存 FSDP 的 ShardingStrategy.HYBRID_SHARD 检查点时,只有分片组之一应调用 save_state_dict,并且需要传入相应的进程组。
注意
- 如果没有可用的进程组,此函数假定意图是保存
本地进程中的 state_dict。
- 参数:
state_dict (Dict[str, Any]) – 要保存的 state_dict。
checkpoint_id (Union[str, os.PathLike, None]) – 此检查点实例的 ID。checkpoint_id 的含义取决于存储。它可以是文件夹或文件的路径。如果存储是键值存储,它也可以是键。(默认:
None)storage_writer (Optional[StorageWriter]) – 用于执行写入的 StorageWriter 实例。如果未指定此项,DCP 将根据 checkpoint_id 自动推断写入器。如果 checkpoint_id 也为 None,则会引发异常。(默认:
None)planner (Optional[SavePlanner]) – SavePlanner 实例。如果未指定此项,将使用默认规划器。(默认:
None)process_group (Optional[ProcessGroup]) – 用于跨 rank 同步的 ProcessGroup。(默认:
None)no_dist (bool) – 如果为
True,则此函数假定意图是在单个 rank/进程上加载检查点。(默认:False)use_collectives (bool) – 如果为
False,则此函数假定意图是在不使用跨 rank 同步的情况下保存检查点。(默认:True)此配置是实验性的,应谨慎使用。它将更改保存的检查点格式,并且可能不向后兼容。
- 返回:
已保存检查点的元数据对象。
- 返回类型:
元数据
示例
>>> my_model = MyModule()
>>> state_dict = {"model": my_model}
>>> fs_storage_writer = torch.distributed.checkpoint.FileSystemWriter( ... "/checkpoint/1" ... ) >>> torch.distributed.checkpoint.save( >>> state_dict=state_dict, >>> storage_writer=fs_storage_writer, >>> )
注意
save_state_dict 使用集合来协调跨 rank 的写入。对于基于 NCCL 的进程组,对象内部的张量表示必须在通信发生之前移至 GPU 设备。在这种情况下,使用的设备由
torch.cuda.current_device()提供,用户有责任通过torch.cuda.set_device()确保每个 rank 都有独立的 GPU。
- torch.distributed.checkpoint.state_dict_saver.async_save(state_dict, *, checkpoint_id=None, storage_writer=None, planner=None, process_group=None, async_checkpointer_type=AsyncCheckpointerType.THREAD, async_stager=None, no_dist=False, use_collectives=True)[source]#
save 的异步版本。此代码首先将 state_dict 暂存到暂存存储(默认为 CPU 内存),然后在单独的线程中调用 save。
警告
此功能是实验性的,可能会发生变化。必须在最后一个检查点保存后调用 CLOSE
- 参数:
state_dict (Dict[str, Any]) – 要保存的 state_dict。
checkpoint_id (Union[str, os.PathLike, None]) – 此检查点实例的 ID。checkpoint_id 的含义取决于存储。它可以是文件夹或文件的路径。如果存储是键值存储,它也可以是键。(默认:
None)storage_writer (Optional[StorageWriter]) – 用于执行“暂存”和“保存”的 StorageWriter 实例。如果未指定此项,DCP 将根据 checkpoint_id 自动推断写入器。如果 checkpoint_id 也为 None,则会引发异常。(默认:
None)planner (Optional[SavePlanner]) – SavePlanner 实例。如果未指定此项,将使用默认规划器。(默认:
None)process_group (Optional[ProcessGroup]) – 用于跨 rank 同步的 ProcessGroup。(默认:
None)async_checkpointer_type (AsyncCheckpointerType) – 在单独的线程或进程中执行检查点(默认:
AsyncCheckpointerType.THREAD)async_stager (AsyncStager) – 提供暂存实现。如果 storage_writer 实现 AsyncStager 并且提供了 async_stager,则将使用 async_stager 进行暂存。
no_dist (bool) – 如果为
True,则此函数假定意图是在单个 rank/进程上保存检查点。(默认:False)use_collectives (bool) – 如果为 False,则在没有 rank 协调的情况下保存检查点。(默认:
True)此配置是实验性的,应谨慎使用。它将更改保存的检查点格式,并且可能不向后兼容。
- 返回:
一个 Future,持有 save 返回的元数据对象。
- 返回类型:
示例
>>> my_model = MyModule()
>>> state_dict = {"model": my_model}
>>> fs_storage_writer = torch.distributed.checkpoint.FileSystemWriter( ... "/checkpoint/1" ... ) >>> checkpoint_future = torch.distributed.checkpoint.async_save( >>> state_dict=state_dict, >>> storage_writer=fs_storage_writer, >>> ) >>> >>> # ... do some work ... >>> >>> checkpoint_future.result()
- torch.distributed.checkpoint.state_dict_saver.save_state_dict(state_dict, storage_writer, process_group=None, coordinator_rank=0, no_dist=False, planner=None)[source]#
此方法已弃用。请切换到“save”。
- 返回类型:
元数据
- torch.distributed.checkpoint.state_dict_loader.load(state_dict, *, checkpoint_id=None, storage_reader=None, planner=None, process_group=None, no_dist=False)[source]#
以 SPMD 风格将检查点加载到分布式 state_dict 中。
每个 rank 在提供的
state_dict中必须具有相同的键。键不匹配可能导致挂起或错误。如果不确定,可以使用utils._assert_same_keysAPI 进行检查(但这可能会产生通信成本)。每个 rank 将尝试读取满足所请求 state_dict 所需的最少数据量。加载
ShardedTensor或DTensor实例时,每个 rank 只读取其本地分片的数据。对于每个
Stateful对象(同时具有state_dict和load_state_dict),load 将在尝试反序列化之前调用state_dict,然后在反序列化完成后调用load_state_dict。对于每个非Stateful对象,load 将反序列化对象,然后用反序列化对象替换state_dict中的原对象。警告
state_dict中的所有张量必须在调用此函数 *之前* 分配到其目标设备。所有非张量数据都使用 torch.load() 加载,并在 state_dict 上原地修改。
警告
用户必须在根模块上调用 load_state_dict,以确保加载后处理和非张量数据正确传播。
- 参数:
state_dict (Dict[str, Any]) – 用于加载检查点的 state_dict。
checkpoint_id (Union[str, os.PathLike, None]) – 此检查点实例的 ID。checkpoint_id 的含义取决于存储。它可以是文件夹或文件的路径。如果存储是键值存储,它也可以是键。(默认:
None)storage_reader (Optional[StorageReader]) – 用于执行读取的 StorageWriter 实例。如果未指定此项,DCP 将根据 checkpoint_id 自动推断读取器。如果 checkpoint_id 也为 None,则会引发异常。(默认:
None)planner (Optional[LoadPlanner]) – LoadPlanner 实例。如果未指定此项,将使用默认规划器。(默认:
None)process_group (Optional[ProcessGroup]) – 用于跨 rank 同步的 ProcessGroup。(默认:
None)no_dist (bool) – 如果为
True,则此函数假定意图是不使用跨 rank 同步加载检查点。(默认:False)
- 返回:
无。
- 返回类型:
无
- 示例
>>> my_model = MyModule() >>> optimizer = Adagrad(my_model.parameters()) >>> model_state_dict = my_model.state_dict() >>> fs_storage_reader = torch.distributed.checkpoint.FileSystemReader( ... "/checkpoint/1" ... )
>>> torch.distributed.checkpoint.load_state_dict( >>> state_dict=model_state_dict, >>> storage_reader=fs_storage_reader, >>> )
>>> # module.load_state_dict() function might have customized steps >>> # to flush the state_dict, must call it to >>> # ensure correct behavior. >>> my_model.load_state_dict(model_state_dict)
注意
load_state_dict 使用集合来协调跨 rank 的读取。对于基于 NCCL 的进程组,对象内部的张量表示必须在通信发生之前移至 GPU 设备。在这种情况下,使用的设备由
torch.cuda.current_device()提供,用户有责任通过torch.cuda.set_device()确保每个 rank 都有独立的 GPU。
- torch.distributed.checkpoint.state_dict_loader.load_state_dict(state_dict, storage_reader, process_group=None, coordinator_rank=0, no_dist=False, planner=None)[source]#
此方法已弃用。请切换到“load”。
以下模块对于异步检查点(torch.distributed.checkpoint.async_save)所使用的暂存机制的进一步自定义也很有用。
- class torch.distributed.checkpoint.staging.AsyncStager(*args, **kwargs)[source]#
此协议旨在为 dcp.async_save 提供自定义和可扩展性,允许用户自定义数据在执行通常的 DCP.save 路径之前是如何暂存的。预期的操作顺序(在 torch.distributed.state_dict_saver.async_save 中具体定义)如下:
- AsyncStager.stage_data(state_dict)
此调用为 AsyncStager 提供了“暂存” state_dict 的机会。在此上下文中的暂存的预期和目的是创建一个“对训练安全”的 state_dict 表示,这意味着在暂存完成后对模块数据的任何更新都不应反映在此方法返回的 state_dict 中。例如,在默认情况下,会创建整个 state_dict 的 CPU RAM 副本并在此返回,允许用户继续训练而不会冒着正在序列化数据的风险。
- dcp.save 将在暂存返回的 state_dict 上并行调用。此调用负责
序列化 state_dict 并将其写入存储。
- 如果 AsyncStager.should_synchronize_after_execute 为 True,此方法将在
序列化线程启动后、从 dcp.async_save 返回前立即调用。如果设置为 False,则假定用户已定义自定义同步点以进一步优化训练循环中的保存延迟(例如,通过将暂存与前向/后向传递重叠),用户有责任在适当的时间调用 AsyncStager.synchronize_staging。
- class torch.distributed.checkpoint.staging.DefaultStager(config=StagingOptions(use_pinned_memory=True, use_shared_memory=True, use_async_staging=True, use_non_blocking_copy=True))[source]#
DefaultStager 提供了一个功能齐全的暂存实现,它结合了多种优化技术来实现高效的检查点准备。
暂存过程如下:1. 提交 state dictionary 进行暂存(同步或异步)2. 将张量从 GPU 复制到优化的 CPU 存储3. 如果使用非阻塞复制,则同步 CUDA 操作4. 返回暂存的 state dictionary 或通过 Future 提供。
- 使用模式
# 同步暂存 stager = DefaultStager(StagingOptions(use_async_staging=False)) staged_dict = stager.stage(state_dict) stager.close()
# 异步暂存 stager = DefaultStager(StagingOptions(use_async_staging=True)) future = stager.stage(state_dict) # ... 做其他工作 ... staged_dict = future.result() stager.close()
# 上下文管理器模式(推荐) stager = DefaultStager(config) with stager: result = stager.stage(state_dict)
- 性能考虑
当模型计算可以与暂存操作重叠时,异步暂存可提供最佳性能。
固定内存可提高 CPU-GPU 传输速度,但会消耗更多内存。
共享内存允许与检查点进程进行高效的 IPC。
非阻塞复制可减少内存传输期间的 GPU 空闲时间。
- 线程安全
DefaultStager 不是线程安全的。每个线程都应使用自己的实例,或提供外部同步。
- close()[source]#
清理 DefaultStager 使用的所有资源。关闭用于异步暂存操作的 ThreadPoolExecutor,并清理底层的 StateDictStager 缓存存储。应在不再需要暂存器时调用,以防止资源泄露,尤其是在长期运行的应用程序中。调用 close() 后,不应再使用暂存器进行进一步的暂存操作。
- 示例用法
stager = DefaultStager(StagingOptions(use_async_staging=True)) future = stager.stage(state_dict) result = future.result() stager.close() # 清理所有资源
- class torch.distributed.checkpoint.staging.StagingOptions(use_pinned_memory=True, use_shared_memory=True, use_async_staging=True, use_non_blocking_copy=True)[source]#
检查点暂存行为的配置选项。
- 变量:
注意
如果 CUDA 不可用,依赖于 CUDA 的功能将引发异常。
- class torch.distributed.checkpoint.staging.BlockingAsyncStager(cache_staged_state_dict=False, type_check=False)[source]#
AsyncStager 的一个实现,它将 state_dict 暂存到 CPU RAM 并阻塞直到复制完成。此实现还提供了一个使用固定内存来优化暂存延迟的选项。
注意:在这种情况下,synchronize_staging 是一个空操作。
除了上述入口点之外,Stateful 对象(如下所述)在保存/加载过程中提供了额外的自定义功能。
- class torch.distributed.checkpoint.stateful.Stateful(*args, **kwargs)[source]#
可检查点和恢复的对象的 Stateful 协议。
这个例子展示了如何使用 Pytorch Distributed Checkpoint 来保存 FSDP 模型。
以下类型定义了在检查点期间使用的 IO 接口。
- class torch.distributed.checkpoint.StorageReader[source]#
供
load_state_dict从存储读取的接口。一个 StorageReader 实例在分布式检查点中同时充当协调器和跟随者。作为初始化的一部分,每个实例都被告知其角色。
子类应期望
load_state_dict进行以下调用序列。(所有 rank) 如果用户传递了有效的 checkpoint_id,则设置 checkpoint_id。
(所有 rank) read_metadata()
(所有 rank) set_up_storage_reader()
(所有 rank) prepare_local_plan()
(协调器) prepare_global_plan()
(所有 rank) read_data()
- abstract prepare_global_plan(plans)[source]#
执行存储加载的集中式规划。
此方法仅在协调器实例上调用。
虽然此方法可以生成完全不同的计划,但首选方法是将存储特定数据存储在 LoadPlan::storage_data 中。
- abstract prepare_local_plan(plan)[source]#
执行存储特定的本地规划。
虽然此方法可以生成完全不同的计划,但推荐的方法是将存储特定数据存储在 LoadPlan::storage_data 中。
- abstract read_data(plan, planner)[source]#
使用
planner读取plan中的所有项以解析数据。子类应调用
LoadPlanner::load_bytes将 BytesIO 对象反序列化到正确的位置。子类应调用
LoadPlanner::resolve_tensor来访问应加载数据的张量。由 StorageLayer 负责正确调度任何需要的跨设备复制。
- 参数:
plan (LoadPlan) – 要执行的本地计划
planner (LoadPlanner) – 用于解析项的 planner 对象。
- 返回:
一个 Future,一旦所有读取完成就会完成。
- 返回类型:
Future[None]
- abstract reset(checkpoint_id=None)[source]#
调用以指示将要发生一个全新的检查点读取。如果用户为此检查点读取设置了 checkpoint_id,则该 ID 可能存在。checkpoint_id 的含义取决于存储。它可以是文件夹/文件的路径,也可以是键值存储的键。
- 参数:
checkpoint_id (Union[str, os.PathLike, None]) – 此检查点实例的 ID。checkpoint_id 的含义取决于存储。它可以是文件夹或文件的路径。如果存储更像是键值存储,它也可以是一个键。(默认值:
None)
- class torch.distributed.checkpoint.StorageWriter[source]#
供
save_state_dict写入存储的接口。一个 StorageWriter 实例在分布式检查点中同时充当协调器和跟随者。作为初始化的一部分,每个实例都被告知其角色。
子类应期望以下调用序列。
(所有 rank) 如果用户传递了有效的 checkpoint_id,则设置 checkpoint_id。
(所有 rank) set_up_storage_writer()
(所有 rank) prepare_local_plan()
(协调器) prepare_global_plan()
(所有 rank) write_data()
(协调器) finish()
- abstract finish(metadata, results)[source]#
写入元数据并标记当前检查点为成功。
用于序列化 metadata 的实际格式/架构是实现细节。唯一的要求是它可以恢复到相同的对象图。
- abstract prepare_global_plan(plans)[source]#
执行存储的集中式规划。
此方法仅在协调器实例上调用。
虽然此方法可以生成完全不同的计划,但首选方法是将存储特定数据存储在 SavePlan::storage_data 中。
- abstract prepare_local_plan(plan)[source]#
执行存储特定的本地规划。
虽然此方法可以生成完全不同的计划,但推荐的方法是将存储特定数据存储在 SavePlan::storage_data 中。
- abstract reset(checkpoint_id=None)[source]#
调用以指示将要发生一个全新的检查点写入。如果用户为此检查点写入设置了 checkpoint_id,则该 ID 可能存在。checkpoint_id 的含义取决于存储。它可以是文件夹/文件的路径,也可以是键值存储的键。
- 参数:
checkpoint_id (Union[str, os.PathLike, None]) – 此检查点实例的 ID。checkpoint_id 的含义取决于存储。它可以是文件夹或文件的路径。如果存储是键值存储,它也可以是键。(默认:
None)
- abstract set_up_storage_writer(is_coordinator, *args, **kwargs)[source]#
初始化此实例。
- 参数:
is_coordinator (bool) – 此实例是否负责协调检查点。
- storage_meta()[source]#
返回特定于存储的元数据。这用于在检查点中存储额外的、有助于提供请求级别可观察性的信息。StorageMeta 在保存调用期间传递给
SavePlanner。默认返回 None。TODO:提供一个示例
- 返回类型:
StorageMeta | None
- abstract classmethod validate_checkpoint_id(checkpoint_id)[source]#
检查给定的 checkpoint_id 是否受存储支持。这使我们能够启用自动存储选择。
- 返回类型:
- abstract write_data(plan, planner)[source]#
使用
planner写入plan中的所有项以解析数据。子类应调用
SavePlanner::resolve_data来访问要写入的基础对象。子类应惰性调用 resolve_data,因为它可能会分配内存。对于张量,请做以下假设:
它们可能位于任何设备上,包括与
WriteItem::tensor_data上的设备不匹配的设备。它们可能是视图或不连续的。只需要保存投影。
- 参数:
plan (SavePlan) – 要执行的保存计划。
planner (SavePlanner) – 用于解析项到数据的 planner 对象。
- 返回:
一个 Future,它完成为一个 WriteResult 列表
- 返回类型:
以下类型定义了在检查点期间使用的 planner 接口。
- class torch.distributed.checkpoint.LoadPlanner[source]#
定义 load_state_dict 用于规划加载过程的协议的抽象类。
LoadPlanner 是有状态对象,可用于自定义整个加载过程。
Planner 作为 state_dict 的访问代理,因此对其进行的任何转换都对整个过程可见。
Planner 子类可以在 load_state_dict 期间预期以下调用序列。
- set_up_planner - 在所有 rank 上调用。
标志着加载检查点的开始。
- create_local_plan - 在所有 rank 上调用。
处理 state_dict 并生成将发送进行全局规划的 LoadPlan。
- create_global_plan - 仅在协调器 rank 上调用。
获取所有 rank 的 LoadPlan 并做出任何全局决策。
- load_bytes - 在每个 rank 上多次调用。
此方法对 state_dict 中的每个非张量值调用一次。
- resolve_tensor 和 commit_tensor - 在每个 rank 上多次调用。
它们成对调用,用于 state_dict 中的每个张量值。
建议用户扩展 DefaultLoadPlanner 而不是直接扩展此接口,因为大多数更改都可以通过更改单个方法来表达。
有两种常见的扩展模式:
重写 state_dict。这是扩展加载过程的最简单方法,因为它不需要理解 LoadPlan 工作方式的复杂性。我们需要保留对原始 state_dict 的引用,因为加载是就地进行的,所以我们需要能够就地执行它。
>>> class RenamePlanner(DefaultLoadPlanner): >>> def set_up_planner( >>> self, >>> state_dict: STATE_DICT_TYPE, >>> metadata: Metadata, >>> is_coordinator: bool, >>> ) -> None: >>> self.original_state_dict = state_dict >>> state_dict = {"foo_" + k: v for k, v in state_dict.items()} >>> >>> if self.flatten_sharded_tensors: >>> state_dict = _flatten_sharded_tensors(state_dict) >>> >>> if self.flatten_state_dict: >>> state_dict, self.mappings = flatten_state_dict(state_dict) >>> >>> self.state_dict = state_dict >>> self.metadata = metadata >>> self.is_coordinator = is_coordinator >>> >>> def load_bytes(self, read_item, value): >>> # Remove the "foo_" prefix >>> self.original_state_dict[read_item.dest_index.fqn[4:]] = torch.load(value, weights_only=False)
修改 resolve_tensor 和 commit_tensor 以处理加载时转换。
>>> class MetaModelMaterialize(DefaultSavePlanner): >>> def resolve_tensor(self, read_item): >>> tensor = super().resolve_tensor(read_item) >>> return torch.empty_like(tensor, device="cpu") >>> >>> def commit_tensor(self, read_item, tensor): >>> self.state_dict[read_item.dest_index.fqn] = tensor
- abstract commit_tensor(read_item, tensor)[source]#
在 StorageReader 完成将数据加载到
tensor中后调用一次。提供的张量是调用
resolve_tensor返回的张量。如果此 LoadPlanner 需要在将其复制回 state_dict 中的张量之前对其进行后处理,则此方法是必需的。张量的内容将遵循其设备同步模型。
- abstract create_local_plan()[source]#
根据 set_up_planner 提供的 state_dict 和元数据创建 LoadPlan。
. 注意:这在每个 rank 上都会调用。
- 返回类型:
- abstract load_bytes(read_item, value)[source]#
加载由
read_item``和 ``value描述的项。此方法预计会就地修改基础 state_dict。
value的内容由用于生成正在加载的检查点的 SavePlanner 定义。
- resolve_bytes(read_item)[source]#
返回供 StorageReader 用于加载 read_item 的 BytesIO。
BytesIO 应与基础 state_dict 上的 BytesIO 别名,因为 StorageReader 将替换其内容。
- 返回类型:
BytesIO
- class torch.distributed.checkpoint.LoadPlan(items: list[torch.distributed.checkpoint.planner.ReadItem], storage_data: Any = None, planner_data: Any = None)[source]#
- class torch.distributed.checkpoint.ReadItem(type: torch.distributed.checkpoint.planner.LoadItemType, dest_index: torch.distributed.checkpoint.metadata.MetadataIndex, dest_offsets: torch.Size, storage_index: torch.distributed.checkpoint.metadata.MetadataIndex, storage_offsets: torch.Size, lengths: torch.Size)[source]#
- class torch.distributed.checkpoint.SavePlanner[source]#
定义 save_state_dict 用于规划保存过程的协议的抽象类。
SavePlanners 是有状态的对象,可用于自定义整个保存过程。
SavePlanner 作为 state_dict 的访问代理,因此对其进行的任何转换都将对整个过程可见。
规划器子类在 save_state_dict 期间可以预期以下调用顺序
- set_up_planner - 在所有 rank 上调用。
发出检查点保存的开始信号。
- create_local_plan - 在所有 rank 上调用。
处理 state_dict 并生成将发送进行全局规划的 SavePlan。
- create_global_plan - 仅在协调器 rank 上调用。
获取所有 rank 的 SavePlan,并进行任何全局决策。
- finish_plan - 在所有 rank 上调用。
这使得每个 rank 都有机会适应全局规划决策。
- resolve_data - 在每个 rank 上多次调用
查找 state_dict 中的值以供存储层写入。
建议用户扩展 DefaultSavePlanner,而不是直接扩展此接口,因为大多数更改都可以通过更改单个方法来表达。
有 3 种常见的扩展模式
重写 state_dict。这是扩展保存过程最简单的方法,因为它不需要理解 SavePlan 工作方式的复杂性。
>>> class RenamePlanner(DefaultSavePlanner): >>> def set_up_planner( >>> self, >>> state_dict: STATE_DICT_TYPE, >>> storage_meta: Optional[StorageMeta], >>> is_coordinator: bool, >>> ) -> None: >>> # prefix all keys with `foo_`` >>> super().set_up_planner({"foo_" + k: v for k, v in state_dict.items()}, storage_meta, is_coordinator)
同时修改本地计划和查找。当需要精细控制数据如何持久化时,这很有用。
>>> class FP16Planner(DefaultSavePlanner): >>> def create_local_plan(self): >>> plan = super().create_local_plan() >>> for p in plan: >>> if p.tensor_data is not None: >>> p.tensor_data.properties.dtype = torch.float16 >>> return plan >>> >>> def resolve_data(self, write_item): >>> item = super().resolve_data(write_item) >>> return item if write_item.type == WriteItemType.BYTE_IO else item.to(torch.float16)
使用全局规划步骤来做出每个 rank 无法单独做出的中心化决策。
>>> from itertools import zip_longest >>> from dataclasses import replace >>> class DDPLoadBalancingPlanner(DefaultSavePlanner): >>> # This uses the default local plan behavior of having all non-sharded writes in rank 0 >>> # This sample doesn't handle ShardedTensors >>> def create_global_plan(self, all_plans): >>> iters = [iter(all_plans[0].items)] * len(all_plans) >>> items_per_rank = [ >>> [item for item in items if item is not None] >>> for items in zip(*zip_longest(*iters), strict=True) >>> ] >>> all_plans = [ >>> replace(plan, items=items) >>> for plan, items in zip(all_plans, items_per_rank, strict=True) >>> ] >>> return super().create_global_plan(all_plans)
最后,一些规划器需要将附加元数据保存在检查点中,这通过让每个 rank 在本地计划中贡献其数据项,并由全局规划器将它们聚合来实现。
>>> class SaveExtraDataPlanner(DefaultSavePlanner): >>> def create_local_plan(self) -> SavePlan: >>> plan = super().create_local_plan() >>> return replace(plan, planner_data="per-rank-data") >>> >>> def create_global_plan(self, all_plans: List[SavePlan]) -> Tuple[List[SavePlan], Metadata]: >>> global_plan, metadata = super().create_global_plan(all_plans) >>> merged_data = [p.planner_data for p in global_plan] >>> metadata = replace(metadata, planner_data=merged_data) >>> return global_plan, metadata
- abstract create_local_plan()[source]#
计算当前 rank 的保存计划。
这将被聚合并传递给 create_global_plan。可以通过 SavePlan::planner_data 传递特定于规划器的数据。
这在所有 rank 上调用。
- 返回类型:
- abstract finish_plan(new_plan)[source]#
合并由 create_local_plan 创建的计划和 create_global_plan 的结果。
这在所有 rank 上调用。
- 返回类型:
- abstract resolve_data(write_item)[source]#
转换并准备来自
state_dict的write_item以便存储,确保幂等性和线程安全。在
state_dict中查找与write_item关联的对象,并在存储层使用它之前应用任何转换(例如序列化)。在每个 rank 上多次调用,至少对最终 SavePlan 中的每个 WriteItem 调用一次。
此方法应是幂等且线程安全的。StorageWriter 实现可以根据需要频繁调用它。
任何分配内存的转换都应在调用此方法时惰性完成,以减少检查点所需的峰值内存。
返回张量时,它们可以位于任何设备或格式,也可以是视图。存储层负责确定如何保存它们。
- 返回类型:
Tensor | BytesIO
- class torch.distributed.checkpoint.SavePlan(items: list[torch.distributed.checkpoint.planner.WriteItem], storage_data: Any = None, planner_data: Any = None, usable: bool = True)[source]#
- class torch.distributed.checkpoint.planner.WriteItem(index, type, bytes_io_data=None, tensor_data=None)[source]#
保存需要写入存储的信息的数据类。
我们提供了一个基于文件系统的存储层
- class torch.distributed.checkpoint.FileSystemWriter(path, single_file_per_rank=True, sync_files=True, thread_count=1, per_thread_copy_ahead=10000000, cache_staged_state_dict=False, overwrite=True, _extensions=None, serialization_format=SerializationFormat.TORCH_SAVE)[source]#
使用文件 IO 的 StorageWriter 的基本实现。
此实现做出以下假设和简化
检查点路径是空目录或不存在的目录。
文件创建是原子的
检查点由每个写入请求的一个文件加上一个全局 .metadata 文件组成,如果启用了 rank 协调,该文件包含序列化的元数据。如果未启用 rank 协调,则会有一个 rank 本地的 _\__rank_.metadata 文件,其中包含序列化的元数据。
我们还提供其他存储层,包括与 HuggingFace safetensors 交互的存储层。
.. autoclass:: torch.distributed.checkpoint.HuggingFaceStorageReader :members
.. autoclass:: torch.distributed.checkpoint.HuggingFaceStorageWriter :members
.. autoclass:: torch.distributed.checkpoint.QuantizedHuggingFaceStorageReader :members
我们提供了 LoadPlanner 和 SavePlanner 的默认实现,它们可以处理 PyTorch 的所有分布式构造,如 FSDP、DDP、ShardedTensor 和 DistributedTensor。
- class torch.distributed.checkpoint.DefaultSavePlanner(flatten_state_dict=True, flatten_sharded_tensors=True, dedup_replicated_tensors=None, dedup_save_to_lowest_rank=False, enable_plan_caching=False)[source]#
- class torch.distributed.checkpoint.DefaultLoadPlanner(flatten_state_dict=True, flatten_sharded_tensors=True, allow_partial_load=False)[source]#
DefaultLoadPlanner,在 LoadPlanner 之上增加了多项功能。
特别是它增加了以下内容
flatten_state_dict:处理具有嵌套字典的 state_dict flatten_sharded_tensors:对于 2D 并行模式下的 FSDP allow_partial_load:如果为 False,则当 state_dict 中存在键但检查点中不存在时,会引发运行时错误。
由于遗留设计决策,FSDP 和 DDP 的 state 字典可能具有不同的键或完全限定名(例如,layer1.weight),即使原始的非并行化模型相同。此外,FSDP 提供各种类型的模型 state 字典,例如完整和分片的 state 字典。另外,优化器 state 字典使用参数 ID 而不是完全限定名来标识参数,这可能在使用并行化时(例如,管道并行化)引起问题。
为了解决这些挑战,我们提供了一系列 API,供用户轻松管理 state_dict。get_model_state_dict() 返回一个模型 state 字典,其键与未并行化模型 state 字典返回的键一致。类似地,get_optimizer_state_dict() 提供一个优化器 state 字典,其键在所有应用的并行化中都统一。为了实现这种一致性,get_optimizer_state_dict() 将参数 ID 转换为与未并行化模型 state 字典中找到的完全限定名相同的完全限定名。
请注意,这些 API 返回的结果可以直接与 torch.distributed.checkpoint.save() 和 torch.distributed.checkpoint.load() 方法一起使用,而无需任何额外的转换。
set_model_state_dict() 和 set_optimizer_state_dict() 用于加载由其各自 getter API 生成的模型和优化器 state_dict。
请注意,set_optimizer_state_dict() 只能在 backward() 之前或在优化器上调用 step() 之后调用。
请注意,此功能是实验性的,API 签名将来可能会更改。
- torch.distributed.checkpoint.state_dict.get_state_dict(model, optimizers, *, submodules=None, options=None)[source]#
返回模型 state_dict 和优化器 state_dict。
get_state_dict可以处理 PyTorch FSDP/fully_shard、DDP/replicate、tensor_parallel/parallelize_module 及其任何组合并行化的任何模块。get_state_dict的主要功能是:1.) 返回一个模型和优化器 state_dict,该 state_dict 可以使用不同数量的训练器和/或不同的并行化进行重新分片。 2.) 隐藏特定于并行化的 state_dict API。用户不必调用这些 API。 3.) 对结果 state_dict 进行健全性检查。结果 state 字典的键是规范的 FQN(完全限定名)。规范 FQN 指的是基于参数在 nn.Module 层次结构中的位置的 FQN。更具体地说,到参数的规范 FQN 是当模块未被任何并行化并行化时,通过
module.named_parameters()或module.named_buffers()返回的 FQN。由于优化器内部使用参数 ID 来表示参数,因此在调用此 API 时会从参数 ID 转换为规范 FQN。get_state_dict还可以处理未并行化的模块。在这种情况下,get_state_dict只执行一项功能 - 将优化器参数 ID 转换为规范 FQN。示例
>>> import torch >>> from torch.distributed.fsdp import FullyShardedDataParallel as FSDP >>> from torch.nn.parallel import DistributedDataParallel as DDP >>> from torch.distributed.checkpoint.state_dict import get_state_dict
>>> fsdp_model = FSDP(copy.deepcopy(model)) >>> fsdp_optim = torch.optim.Adam(model.parameters(), lr=1e-3) >>> ddp_model = DDP(copy.deepcopy(model)) >>> ddp_optim = torch.optim.Adam(model.parameters(), lr=1e-3)
>>> ddp_state_dict, ddp_optim_state_dict = get_state_dict(ddp_model, ddp_optim) >>> fsdp_state_dict, fsdp_optim_state_dict = get_state_dict( ... fsdp_model, fsdp_optim ... )
>>> # if we simply call ddp_model.state_dict() and fsdp_model.state_dict(), >>> # the asserts will fail. >>> assert ddp_state_dict == fsdp_state_dict >>> assert ddp_optim_state == fsdp_optim_state_dict
- 参数:
model (nn.Module) – 模型的 nn.Module。
optimizers (Union[None, Optimizer, Iterable[Optimizer]]) – 用于优化
model的优化器。submodules (deprecated) – Optional[set[nn.Module]]: 仅返回属于子模块的模型参数。
options (StateDictOptions) – 控制模型 state_dict 和优化器 state_dict 应如何返回的选项。有关详细信息,请参阅 StateDictOptions。
- 返回:
包含模型 state_dict 和优化器 state_dict 的
Tuple。- 返回类型:
- torch.distributed.checkpoint.state_dict.get_model_state_dict(model, *, submodules=None, options=None)[source]#
返回
model的模型 state_dict。有关详细用法,请参阅
get_state_dict。- 参数:
model (nn.Module) – 模型的 nn.Module。
submodules (deprecated) – Optional[set[nn.Module]]: 仅返回属于子模块的模型参数。
options (StateDictOptions) – 控制模型 state_dict 和优化器 state_dict 应如何返回的选项。有关详细信息,请参阅 StateDictOptions。
- 返回:
模型的 state_dict。
- 返回类型:
- torch.distributed.checkpoint.state_dict.get_optimizer_state_dict(model, optimizers, *, submodules=None, options=None)[source]#
返回优化器的组合 state_dict。
有关详细用法,请参阅
get_state_dict。- 参数:
model (nn.Module) – 模型的 nn.Module。
optimizers (Union[None, Optimizer, Iterable[Optimizer]]) – 用于优化
model的优化器。submodules (deprecated) – Optional[set[nn.Module]]: 仅返回属于子模块的模型参数。
options (StateDictOptions) – 控制模型 state_dict 和优化器 state_dict 应如何返回的选项。有关详细信息,请参阅 StateDictOptions。
- 返回:
优化器的 state_dict。
- 返回类型:
OptimizerStateType
- torch.distributed.checkpoint.state_dict.set_state_dict(model, optimizers, *, model_state_dict, optim_state_dict, options=None)[source]#
加载模型 state_dict 和优化器 state_dict。
get_state_dict的对应函数,用于将 state_dict 设置到模型和优化器。给定的model_state_dict和optim_state_dict不必由get_state_dict返回,但必须满足以下要求:1) 所有 FQN 都是get_state_dict中定义的规范 FQN,2) 如果张量被分片,则它必须是 ShardedTensor 或 DTensor,3) 优化器 state_dict 不能包含参数 ID;键应该是规范 FQN。- 警告:
set_state_dict只能在backward()之前或在优化器上调用step()之后调用 否则,优化器状态将无法正确初始化。
- 参数:
model (nn.Module) – 模型的 nn.Module。
optimizers (Union[Optimizer, Iterable[Optimizer]]) – 用于优化
model的优化器。model_state_dict (Dict[str, ValueType]) – (Union[Dict[nn.Module, Dict[str, ValueType]], Dict[str, ValueType]]): 要加载的模型 state_dict。如果
model_state_dict的键是 nn.Module,则键是model的子模块,值应该是子模块的 state_dict。加载 state_dict 时,子模块的前缀将被附加到 state_dict。optim_state_dict (OptimizerStateType) – OptimizerStateType:要加载的优化器 state_dict。
options (StateDictOptions) – 控制如何加载模型 state_dict 和优化器 state_dict 的选项。有关详细信息,请参阅 StateDictOptions。
- 返回:
missing_keys 是一个包含模型 state_dict 缺失键的字符串列表。
unexpected_keys 是一个包含模型 state_dict 意外键的字符串列表。
- 返回类型:
NamedTuple,包含missing_keys和unexpected_keys字段。
- 警告:
- torch.distributed.checkpoint.state_dict.set_model_state_dict(model, model_state_dict, *, options=None)[source]#
加载模型 state_dict。
与
get_model_state_dict对应的函数,用于将 state_dict 设置到模型。有关详细用法,请参阅set_state_dict。- 参数:
model (nn.Module) – 模型的 nn.Module。
model_state_dict (Dict[str, ValueType]) – (Dict[str, ValueType]): 要加载的模型 state_dict。如果
model_state_dict的键是 nn.Module,则键是model的子模块,值应该是子模块的 state_dict。加载 state_dict 时,子模块的前缀将被附加到 state_dict。options (StateDictOptions) – 控制如何加载模型 state_dict 和优化器 state_dict 的选项。有关详细信息,请参阅 StateDictOptions。
- 返回:
missing_keys 是包含缺失键的字符串列表
unexpected_keys 是包含意外键的字符串列表
- 返回类型:
NamedTuple,包含missing_keys和unexpected_keys字段。
- torch.distributed.checkpoint.state_dict.set_optimizer_state_dict(model, optimizers, optim_state_dict, *, options=None)[source]#
加载优化器 state_dict。
与
get_optimizer_state_dict对应的函数,用于将 state_dict 设置到优化器。有关详细用法,请参阅set_state_dict。- 警告:
set_optimizer_state_dict只能在backward()之前或 step()在优化器上调用之后调用。否则,优化器状态将无法正确初始化。
- 参数:
model (nn.Module) – 模型的 nn.Module。
optimizers (Union[Optimizer, Iterable[Optimizer]]) – 用于优化
model的优化器。optim_state_dict (OptimizerStateType) – OptimizerStateType:要加载的优化器 state_dict。
options (StateDictOptions) – 控制如何加载模型 state_dict 和优化器 state_dict 的选项。有关详细信息,请参阅 StateDictOptions。
- 返回:
无
- 返回类型:
无
- 警告:
- class torch.distributed.checkpoint.state_dict.StateDictOptions(full_state_dict=False, cpu_offload=False, ignore_frozen_params=False, keep_submodule_prefixes=True, strict=True, broadcast_from_rank0=False, flatten_optimizer_state_dict=False, dsd_fqn_modifiers='_fqn_modifiers')[source]#
此数据类指定 get_state_dict/set_state_dict 的工作方式。
full_state_dict:如果设置为 True,则会收集返回的状态字典中的所有张量。返回的状态字典中不会包含 ShardedTensor 和 DTensor。cpu_offload:将所有张量卸载到 CPU。为防止 CPU 内存不足,如果full_state_dict也为 true,则只有 rank0 会获取状态字典,而所有其他 rank 会获取一个空的状态字典。ignore_frozen_params:如果值为 True,则返回的状态字典将不包含任何冻结的参数 - 即requires_grad为 False。默认值为 False。keep_submodule_prefixes(已弃用):当submodules不为 None 时,此选项指示是否保留状态字典键中的子模块前缀。例如,如果子模块是module.pretrain,而参数的完整 FQN 是pretrain.layer1.weight。当此选项为 True 时,返回的状态字典中参数的键将是pretrain.layer1.weight。如果选项为 False,则键将是layer1.weight。请注意,如果keep_submodule_prefixes为 False,可能会出现冲突的 FQN,因此submodules中只能有一个子模块。strict:在set_state_dict调用 model.load_state_dict() 时的strict选项。broadcast_from_rank0:当此选项为 True 时,rank0 应接收一个完整的状态字典,并将逐一将状态字典/optim_state_dict 中的张量广播到其他 rank。其他 rank 将接收张量,并根据模型和优化器中的本地分片进行分片。使用此选项时,必须将
full_state_dict设置为 True。此选项当前仅支持 DTensor,不支持旧版 ShardedTensor。
对于习惯于使用和共享 torch.save 格式模型的用户,我们提供了以下方法,它们提供了用于在不同格式之间进行转换的离线实用工具。
- torch.distributed.checkpoint.format_utils.dcp_to_torch_save(dcp_checkpoint_dir, torch_save_path)[source]#
给定一个包含 DCP 检查点的目录,此函数将将其转换为 Torch 保存文件。
- 参数:
警告
为避免内存不足,建议仅在单个 rank 上运行此函数。
- torch.distributed.checkpoint.format_utils.torch_save_to_dcp(torch_save_path, dcp_checkpoint_dir)[source]#
给定 Torch 保存文件的位置,将其转换为 DCP 检查点。
- 参数:
警告
为避免内存不足,建议仅在单个 rank 上运行此函数。
以下类也可用于从 torch.save 格式在线加载和重新分片模型。
- class torch.distributed.checkpoint.format_utils.BroadcastingTorchSaveReader(checkpoint_id=None, coordinator_rank=0)[source]#
用于读取 Torch 保存文件的 StorageReader。此读取器将在协调器 rank 上读取整个检查点,然后将每个张量广播并分片到所有 rank。
. 注意: intended to be used with DynamicMetaLoadPlanner
警告
当前实现仅支持加载张量。
>>> sd = {"mode": model} >>> dcp.load( >>> sd, >>> storage_reader=BroadcastingTorchSaveReader(), >>> planner=DynamicMetaLoadPlanner(), >>> checkpoint_id="path_to_model.pt" >>> )
- class torch.distributed.checkpoint.format_utils.DynamicMetaLoadPlanner(flatten_state_dict=True, flatten_sharded_tensors=True, allow_partial_load=False)[source]#
DefaultLoadPlanner 的扩展,它根据传入的状态字典创建一个新的 Metadata 对象,从而无需从磁盘读取元数据。这在读取没有元数据文件的格式(如 Torch Save 文件)时非常有用。
. 注意: intended to be used with BroadcastingTorchSaveReader
警告
当前实现仅支持加载张量。
>>> sd = {"mode": model} >>> dcp.load( >>> sd, >>> storage_reader=BroadcastingTorchSaveReader(), >>> planner=DynamicMetaLoadPlanner(), >>> checkpoint_id="path_to_model.pt" >>> )
提供了以下实验性接口,以提高在生产环境中的可观察性。