HomeAboutMeBlogGuest
© 2025 Sejin Cha. All rights reserved.
Built with Next.js, deployed on Vercel
장지원 페이지/
DGIST CV lab (My page)
DGIST CV lab (My page)
/
📔
Notes
/
Did: 코드 (loss 부분 찍어보기)

Did: 코드 (loss 부분 찍어보기)

날짜
Jan 27, 2025
상태
완료
선택
구현
  1. 데이터 셋 config(MinVIS config 파일)에서 train coco 쓰도록 수정하기 (본격 학습 시킬 때)
 
정리
이 loss 값들을 자세히 분석해드리겠습니다:
  1. 주요 loss 구성요소:
  • loss_ce: Cross Entropy Loss - 분류 정확도를 측정
  • loss_mask: Mask Loss - 마스크 예측의 정확도를 측정
  • loss_dice: Dice Loss - 마스크의 겹침(overlap) 정도를 측정
  1. Loss의 계층 구조:
  • 숫자가 없는 것 (loss_ce, loss_mask, loss_dice): 최종 layer의 loss
  • 숫자가 있는 것 (loss_ce_0, loss_mask_0, loss_dice_0 등): 중간 layer들의 loss
    • _0부터 _4까지: 5개의 중간 layer에서의 loss를 나타냄
    • 이는 deep supervision을 위한 것으로, 네트워크의 여러 층에서 loss를 계산
  1. 값 분석:
일반적으로:
  • 값이 낮을수록 좋음
  • 학습이 진행되면서 이 값들이 점차 감소해야 함
  • 최종 layer의 loss가 중간 layer들의 loss보다 낮은 것이 바람직함 (여기서도 그러한 경향을 보임)
 
nn.으로 정의한 module들은 알아서 얘가 param 인식을 할 수 있나보다. → mamba block의 param을 인식할 수 있는 지만 알면 될 듯
 
Copy 최종 layer: - loss_ce: 6.83 (분류 loss) - loss_mask: 3.91 (마스크 loss) - loss_dice: 5.49 (dice loss) 중간 layers: layer 0: ce=7.43, mask=4.48, dice=5.53 layer 1: ce=8.78, mask=4.68, dice=5.61 layer 2: ce=8.84, mask=4.64, dice=5.57 layer 3: ce=9.59, mask=5.05, dice=5.61 layer 4: ce=8.38, mask=4.29, dice=5.65