HomeAboutMeBlogGuest
© 2025 Sejin Cha. All rights reserved.
Built with Next.js, deployed on Vercel
장지원 페이지/
📕
2024 UGRP
/
Member Page
Member Page
/
[2024 July 14] LoRA

[2024 July 14] LoRA

태그
Low-Rank Adaptation of Large Language Models

주요 목적

  • 모델의 파라미터 수를 줄이기
  • 학습 및 추론 비용 절감
 

HOW?

Low-Rank Adaption

: 고차원 행렬을 저차원 근사로 대체하여 효율성을 높이는 방법
notion image
이때 d >>> r
 

기존 Fine Tuning 방식

  • 모든 parameter를 재학습
    • load가 너무 큼,, 계산 자원, 메모리 등…
  • 대부분의 layer를 freeze 후 마지막 몇 개 layer만 학습
    • 고정된 레이어는 학습되지 않기 때문에 새로운 작업에 최적화하는 데 한계가 있을 수도,,
 

LoRA의 방식

notion image
  • Pretrained Weights: 기존 모델에 맞추어 학습되어있던 parameter들
  • A, B: 새로운 모델에 맞추어 학습시키려는 parameter 집합
 
  • Pretrained Weights는 건들지 않고, A, B만 update 시킴
⇒ 원래 성능 유지한 채로 A, B 결과를 추가해 더 높은 성능 기대!
 

다음 시간,,

  • LoRA 방식을 이용해 실제로 fine tuning 시키는 예제를 찾고, 작동시켜보기