torch.multiprocessing
torch.distributed
init_process_group()
n번째 시스템의 k번째 프로세스의 랭크
$\text{rank} = n * 4 + k$
이후 내장된 파이토치 통신 백엔드 프로그램 중 하나가 이러한 시스템 간 통신을 처리함
→ 여러 프로세스에 걸쳐 훈련 작업을 병렬 처리함
샘플러
torch.utils.data.distributed.DistributedSampler분산 훈련
nn.parallel.DistributedDataParallel