HomeAboutMeBlogGuest
© 2025 Sejin Cha. All rights reserved.
Built with Next.js, deployed on Vercel
장지원 페이지/
📕
2024 UGRP
/
Member Page
Member Page
/
[Vacation] A Comprehensive Survey on Transfer Learning

[Vacation] A Comprehensive Survey on Transfer Learning

Task 1
Task 2

Why ‘’Sufficient Data’’ are required?

  • “이상적인” 머신 러닝은 라벨링된 학습 인스턴스들이 많은 것을 기초로 한다.
    • (당연히 Same Distribution as Test Data여야 학습이 잘 이루어짐)
    • 충분한 데이터 수집은 실제로 매우 어렵고, 비현실적이다.
    • Semi-supervised learning으로 라벨링된 데이터 필요량을 줄일 순 있으나, 성능을 개선하기 위해 다량의 라벨링되지 않은 데이터들을 필요로 하기 때문에 이도 최고의 방법이라고 할 순 없음
 

Transfer Learning

  • Domain간의 지식을 “transfer” 하는 데에 중점을 두는 방식으로, 언급한 “데이터 공급 문제” 를 해결을 목표로 한다.

Generalized Theory of the ‘’Transfer’’

notion image
  • 2개의 학습 사이에는 서로 Connection이 있어야 된다는 것이 선제 조건임
    • 바이올린을 연주할 줄 아는 사람은 피아노를 다른 사람보다 더 빠르게 배울 수 있음
    • 악기 연주를 하는데 있어 공통된 논리를 공유하기 때문임
  • 이와 같이 인간의 Domain을 공유하는 정보 학습에 영감을 받아, Transfer Learning은 우리가 원하는 도메인 영역에 Source Domain의 정보를 이용해 성능 개선 및 “라벨링 데이터를 최소화” 한다.
 
++ Negative Transfer : 결과가 부정적으로 나올 경우
  • Transfer Learning은 항상 긍정적인 결과만 줄 수는 없음
  • 서로 관련 있어 보였던 2개의 Domain이 실제로 서로의 상관 관계가 크게 없다라든지, 학습자의 학습 성능에 따라 결정된다.
 

Types of the Transfer Learning

  • 두 도메인 영역의 “불일치” 에 따라, Transfer Learning은 2개의 영역으로 나누어진다.
    • Homogeneous Transfer Learning

    • Domain이 동일한 Feature Space에 있을 경우
      • 어떤 연구들은 Sample Selection Bias or Covariate Shift로 Domain을 Adapt시킴
      • 허나 이러한 케이스들은 그렇게 많은 편이 아님
    • 예시로, 감정 분류 문제에 있어 단일 단어도 다른 Domain에서는 다른 의미 경향성을 가짐
    • Context Feature Bias → Conditional Distribution can solve this.
    • Heterogeneous Transfer Learning

    • Domain이 서로 다른 Feature Space에 있을 경우
      • Feature Space Adaptation을 이용함 → Homogeneous보다 더 복잡하게 만드는 요인
 

Transfer Learning versus ALL!

Semi-Supervised Learning

  • 라벨링된 인스턴스들을 이용한 Supervised Learning과 라벨링되지 않은 인스턴스들을 이용한 Unsupervised Learning을 섞은 방식으로, 일반적으로 다량의 비라벨링된 인스턴스들과 소수의 라벨링 인스턴스들을 이용한다.
  • 이로써 비싼 라벨링 비용을 줄여주며, 같은 Distribution에서 사용된다.
↔ Transfer Learning
  • Source와 Target Domain의 Data Distribution이 대개 서로 다르다.
  • 허나 Semi-Supervised Learning의 기법들을 대부분 흡수하여 사용한다!
    • i.e (smoothness, cluster, manifold assumptions)
 
 

Multi-view Learning

  • Multi-view Learning은 Multi-view data를 이용한 머신 러닝에 집중한다.
    • Intuitive example about the multiple view (video data)
      • “비디오” 는 단순히 단일 데이터 형태가 아니라, 관점에 따라 image signal, audio signal로 분류할 수 있다.
      • Describing an object from multiple view → ABUNDANT Information
      •  

Multi-task Learning

  • Multi-task Learning은 비슷한 Task들을 그룹화하여 학습하는 방식으로, Task간의 Interconnection을 통한 장점들을 가져와 학습 효과를 높인다.
 
 
 

Transfer Learning

 
notion image
 
  • : Domain의 개수를 각각 의미하며, 이면 Single-source Transfer Learning이고, 그 외의 경우는 모두 Multi-source Transfer Learning이다.
    • 는 Task의 Domain 개수로 일반적으로 하나만 다룬다.