评价此页

MemPool#

class torch.cuda.memory.MemPool(*args, **kwargs)[source]#

MemPool 代表缓存分配器中的内存池。目前,它只是 CUDACachingAllocator 中维护的池对象的 ID。

参数
  • allocator (torch._C._cuda_CUDAAllocator, optional) – 一个 torch._C._cuda_CUDAAllocator 对象,可用于定义内存如何在池中分配。如果 allocatorNone(默认值),内存分配将遵循 CUDACachingAllocator 的默认/当前配置。

  • use_on_oom (bool) – 一个布尔值,指示当池外的内存分配因内存不足(Out Of Memory)而失败时,是否可以将此池用作最后手段。默认值为 False。

property allocator: Optional[_cuda_CUDAAllocator]#

返回 MemPool 将分配路由到的分配器。

property id: tuple[int, int]#

返回此池的 ID,为一个包含两个整数的元组。

snapshot()[source]#

返回跨所有设备的 CUDA 内存分配器池状态的快照。

理解此函数的输出需要熟悉内存分配器的内部机制。

注意

有关 GPU 内存管理的更多详细信息,请参阅 内存管理

use_count()[source]#

返回此池的引用计数。

返回类型

int