Skip to content

Latest commit

 

History

History
68 lines (55 loc) · 3.06 KB

README.md

File metadata and controls

68 lines (55 loc) · 3.06 KB

BrainAging

Reproducing Brain Aging paper using the PyTorch library.

Paper

Investigation of Genetic Variants and Causal Biomarkers Associated with Brain Aging Jangho Kim, Junhyeong Lee, Seunggeun Lee medRxiv 2022.03.04.22271813; doi: https://doi.org/10.1101/2022.03.04.22271813


2023년 7월 21일

실험 내용:

  • 교차 검증(CV) 없이 진행중
  • Batch size tuning
    • 다양한 배치 사이즈(8, 16, 32)로 실험 진행.
    • 배치 사이즈 8과 16에서는 큰 변화가 없었음.
    • 현재 배치 사이즈 32로 실험 중.
  • Learning Rate tuning
  • n_workers
    • Dataloader 과정에서 효율적인 병렬처리를 위해 설정할 수 있는 num_workers 조건 실험
    • 8로 진행하는 것이 제일 효율적일 것 같음
    • 실험 결과 (전체적으로 1시간까지 돌려봄)
      • > 64 : 한 시간 경과 후 training이 진행되지 않아 kill 한 후 아래 에러 확인
        • DataLoader worker (pid(s) 38532, 38911, 38974, 39606, 41309) exited unexpectedly
      • 32 : 10% 진행 기준 23분 소요 -> 1시간 기준 27% 진행
      • 16 : 10% 진행 기준 29분 소요 -> 1시간 기준 19% 진행
      • 8 : 10% 진행 기준 16분 소요 -> 1시간 기준 39% 진행
      • 4 : 10% 진행 기준 26분 소요 -> 1시간 기준 30% 진행
  • 추가 참고 사항
    • main_lr.py + CNN_Trainer_lr.py 파일로 실험을 진행 중.
    • 쉘 스크립트에서 --ensemble_num 옵션은 현재 모델 저장 폴더의 배치 사이즈를 구분하기 위해 사용 중.

2023년 7월 22일

실험 내용:

  • Learning Rate scheduling
    • 총 3가지 lr_scheduler 시도 중
      • step 단위 update: CustomCosineAnnealingWarmUpStart, CosineAnealing

        • CustomCosineAnnealingWarmUpStart
          • learning_rate 디렉토리에 위치
          • lr_simulator.py: Parameter setting에 따라 learning rate update 시각화 구현
          • image
      • epoch 단위: ReduceLROnPlateau

  • CNN_Trainer Update
    • Epoch 3~ ) Load 후 loss 그대로 이어서 training 가능하도록 각 loss(train_mse, train_mse, valid_mse, valid_mae) 저장 추가
    • Epoch 6~ ) CustomCosineAnnealingWarmUpStart 경우, Load 후 초기 lr 셋팅 값이 너무 낮게 시작되는 문제 해결하기 위해 load 함수 수정
  • main Update
    • lr scheduler 별 setting 재수정

2023년 7월 25일

실험 내용:

  • lr scheduler: CustomCosineAnnealingWarmUpStart으로 진행
  • save setting 변경 (best model --> epoch 단위 모든 model) 후 14 epoch 부터 재시작

2023년 7월 27일

실험 내용: