You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
docker run --name {container_name} --shm-size={usable memory} -it --gpus all -v /{위 dataset dir의 path}:/root/datasets notadockerhub/boostcamp:latest
# example(dataset/ADEChallengeData2016)
docker run --name segformer_challenge --shm-size=8g -it --gpus all -v /root/dataset/:/root/datasets notadockerhub/boostcamp:latest
학습 시작
tiny_imagenet Pretraining
bash dist_train.sh {사용하는 gpu 개수} \
--data-path {tiny_imagenet path} \ # 이름에 tiny가 포함되어야함
--output_dir {save dir path} \
--batch-size {batch size per gpu } # default=128# example
bash dist_train.sh 4 \
--data-path /workspace/dataset/tiny_imagenet \
--output_dir result/mod_segformer/ \
--batch-size 64
ADE20K fine-tuning
# 현재 디렉토리: /root/Naver_BoostCamp_NOTA
python train.py \
--data_dir {ADE20K의 path} \
--device 0,1,2,3 \ # 환경에 맞게 수정
--save_path {save하고자 하는 dir의 path} \
--pretrain {pretrain 모델 dir 혹은 .pth의 path} # .pth(pretrain의 output), dir(huggingface의 모델허브에서 제공하는 형태)
--batch_size {batch size} # default=16