A.I.(인공지능) & M.L.(머신러닝)/A.I. Information
Topic. 출처 : 원문 1. DP (Data Parallel) 각 GPU 에 서로 다른 데이터 분산처리방식 import torch.nn as nn model = nn.DataParallel(model) model 을 pytorch의 nn 라이브러리의 DataParallel 클래스로 감싸준다. - GPU1, GPU2, GPU3, GPU4 에서 GPU1이 메인 GPU라면 GPU1에 과부하가 발생 2. DDP (Distributed Data Parallel) 멀티쓰레딩, sampler 활용한 데이터 분산처리방식 from torch.nn.parallel import DistributedDataParallel as DDP model = DDP(model, device_ids=[rank]) multithread..
2024. 4. 18. 10:39 / Tech엠지대표