위 제목은 예시 입니다. 회의록 작성 시 “날짜 ‘회의록’ (회의 내용 요약)” 형식으로 제목을 수정해 주세요:)
[회의 주제]
- 전이 학습 대해서
데이터 셋을 넣고 학습을 조금 더하는 것
모델이 다른 형식으로 구분되는 모델 가져와서 마지막 열의 layer의 걔를 가져다 떼고
앞의 열을 고치지 않고 뒤만 예약할 수도 있고 전체를 다 학습하면서 학습할 수도 있음.
기본적으로는 가장 마지막
- 학습 - 이 모델 바탕 일반 스케치 대해서
70%은 학습 30%은 테스트
- 스케치 모델은 테스트만?
ㄴㄴ
어짜피 분류를 다시해야한느 것
걔를 가지고 들어와서 어쩄든 근본적으로 학습을 다시
굳이 이모셋으로 학습을 해야하나? - 우리가 테스트할 것에 맞추는것이 중요
분류는 인풋, 아웃풋만 정하면 됨.
분류는 하나를 맞추는데 멀티레이블의 경우 조금 다름
이미지 넷으로 학습된 좋은 네트워크 - 걔네들을 씀 보통. 얘네들을 이용해서 전이학습하는 것이 더 좋을 가능성이 있음.
파인튜닝은 오래 안걸림
학습이라는 것이 trade off이다. 데이터 많으면 학습이 잘된다.
파인 튜닝에 걸리는 시간은 데이터 양에 비례, 같은 모델이 있으면 데이터 셋 10개랑 100개는 10배차이가 난다. 어떤 모델이든 다 해보는 것이 좋다. 이를 비교하는 것이 좋다.
diffusion모델보면… stable diffusion - 얘로 학습을? 얘로 데이터 셋을?
설문조사 한 사람이 부여한 감정을 true label로 하는 것이 어떨까
안되는 문제는 아니지만 굳이 이모셋을 가지고 파인튜닝을 진행해햐하는 가?
차라리 최신 모델이 잘해주지 않을까???
안나왔을 때의 원인이 데이터 셋의 문제인가. 모델 자체의 문제인가는 모르는 일이다…
비교를 하는게 올바른 문제방향인것은 아닐까?
stl… image net real 이게 최신
efficient net - CNN베이스…
여기서 어떤 모델이든 트레이닝 가능
어떤게 잘할지도 몰라요
감정 추출에 특화되어 있는 애들이 있을 수 있음
- 학교 내 리소스
우리학교 슈퍼 컴퓨터 센터 쓸 수 있음… 거기에 gpu서버 물어보는 것… aws 클라우드 서비스사용하는 것도 한가지 방법…
- 전이학습에 관한 레퍼런스
구글에 전이학습 해서 보자.
논문을 보는 것보다 사람들이 적어놓은 것이 더 좋을 수도 있음…
이런거 보통 할 때는 그래도 노트북에 cuda지원하는 노트북 돌 수 있음. 메커니즘 공부는 각자 gpu사용하고 풀로 돌릴때는 서버를 빌려서 해보는 것 어떤가 싶음
우리 컴퓨터들도 게임용 gpu,,, 달아놔서 딥러닝함… 굳이 a100이런거 쓸 필요는 없어.