HomeAboutMeBlogGuest
© 2025 Sejin Cha. All rights reserved.
Built with Next.js, deployed on Vercel
장지원 페이지/
📕
2024 UGRP
/
📝
회의록
/
📝
2024/03/27 회의록 (논문 리뷰/데이터 수집)
📝

2024/03/27 회의록 (논문 리뷰/데이터 수집)

 
위 제목은 예시 입니다. 회의록 작성 시 “날짜 ‘회의록’ (회의 내용 요약)” 형식으로 제목을 수정해 주세요:)
 

[회의 주제]

Reference Review -아현

[To-do]

  • Emoset data가 어떻게 생겼는지 확인하기
  • 교수님 만나러 갈 때 할 질문목록 정리하기

[세부 내용 메모]

Reference Review

EMOTHAW: A novel database for emotional state recognition from handwriting
<데이터 베이스 구축에 관한 논문>
  • Abstract
    • Emotion에 관련된 handwrite data base 구축
  • Introduction
    • Hand writing을 통해서 negavie emotion detection
    • Data base 뿐만 아니라 classifier도 제안
  • HANDWRITING ANALYSIS FOR DIAGNOSIS PURPOSES
    • 질병 파악, 거짓말 탐지 등의 능력에 대한 탐구 가능
    • table 활용: 시간, 압력, 기울기 등의 특징 또한 얻을 수 있다.
  • Setup for Our Analysis
    • 가정: Hand write는 개인 감정 상태에 영향을 받는다.
    • 설정: 우울증, 불안, 스트레스 세 가지 감정에 초점
    • DASS: 분류 척도
    • Random foreset: 알고리즘
  • Data Collection
    • 와콤 테블릿 활용: 여러 요소 확인 가능 (ex. 속도, 궤적의 각도 등.. 측정 가능)
    • Task
        1. 사각형 따라 그리기
        1. 집 따라 그리기
        1. 대문자 이탈리어 4개
        … 등등의 7개 그림
    • 분석
  • Emotional State Recognition
    • 분석…
  • Experiment
    • 각 작업 마다의 얻을 수 있는 특징들.. (ex. stress는 air duration이 잘 나타낸다…)
    • SVM classifier가 잘 작동했다…
  • Conclusion
    • 우리도 과정 정보를 얻으면 좋겠다.
    • 연령 층을 정하면 좋을 것 같다.
 
  • 이미지 인식을 할 때 datafile의 형식 → RGB vector형식?
    • notion image
      notion image
  • 학습을 하기 위해 image → 감정label은 어떻게 얻는가?
    • attribute_label_idx[self.info[attribute]['label2idx'][label]] = 1 비슷하게 얻으면 될 듯..
 

  • 8개 감정과 관련된 그림
  • 감정 퍼센트, 8가지 범주 내에서
  • 그림을 그린 의도
그림&그림을 그릴 때의 감정 → 설문 응답하는 사람이 알 수 있을까?
HTP : 자기도 모르는 감정을 드러내기 위해 사용하는 건데,,
 
어떤 그림을 받아야하는가?!
어떤 사진을 보여주고(누군가가 죽는 장면) → Disgust > 판단하기 위한 그림과 관련된 test 같은게 있을까(test 그림을 받으면 그게 disgust를 나타내는 그림)
→ 저런 test가 있어야함…
 
둘 다 좋다 ㄷㄷ…. → 데이터 셋 구하기!! → 다른 학교 친구들에게 부탁하기..
  1. 혐오를 느끼고 → 그림을 그리고 → 그 그림이 혐오라고 판단할 수 있는 테스트 → 그 그림이 혐오이다. → 감정 별로 다 따로 받기
  1. 감정 테스트를 진행하고 난 후 그림 그리기(어떤 그림 그릴 건지)
 
전이학습의 원리: 서로 다른 데이터와 모델 간의 상호 작용이 된다. 사진에서 Emotion을 추출할 수 있다 → 그림에서도 추출할 수 있다.
 
시각적 자극에 대한 감정적 반응 → 표현,,,
 
 
어떤 데이터를 수집해야할까?
 
  • emotion 분류
notion image
  • classification 할 때 train은 실제 나무 같은 이미지를 이용
    • test할 땐 sketch data 이용
    •  
  • sota에 emoset data를 넣고 학습시키면 그게 전이학습이다.
  • train data를 안 쓴다면 test만 모은 sketch로,,
 
 
=======
  1. 태완님, 호진님이 말씀해 주신 것: train dataset은 필요가 없을까?
    1. sota 같은 곳에 올라온 emoset data를 넣고 학습시키면 그게 전이학습인가
  1. 객관적인 데이터 추출 방법
  1. 서버 같은 걸 빌릴 수도 있나?
    1. 예산으로 그래픽카드 사도 됨..ㄴㄴ
  1. 논문 발표 거리
=======
 

[다음 회의 주제 및 To-do]

  • Reference Review - 준수, 지원
  • test 찾아오기
 
마지막 레이어 떼고 다른 레이어 붙이고, 학습
freezing
 
 
emoset 쓸 필요가 없다. 스케치 넣어서 되는지 확인해 볼 필요가 없다. 비교 정도 해볼 수 있다 (우리가 만든게 이것보다 잘된다.). 많이 학습 시켜보자. ⇒ 이거에 대해 다루어보는 파트도 적어보는 것도 좋지 않을까
디퓨전 모델 써서 해보기 rough
 
슈퍼컴퓨터센서 빌리기
annotator는 굳이X
 
구글에 전이학습 블로그 검색해서 다 보기
 
쿠다가 뭔지 찾아보기