Related to: Fundamentals

개요

기계학습에서 Knowledge distillation은 큰 모델에서 작은 모델(일반적으로)로 지식을 이전하는 프로세스입니다. 모델 압축과 unlabeled dataset에 대한 pseudo-label(가짜 라벨) 생성에 활용됩니다.

핵심 개념

Untitled 6.png

Untitled 1 4.png

  • 기계학습에서 Knowledge distillation은 큰 모델에서 작은 모델(일반적으로) 지식을 이전하는 프로세스
  • 모델압축, unlabeled dataset에 대한 pseudo-label(가짜 라벨) 생성에 사용
  • Student Model이 Teacher Model의 결과를 흉내내게(mimic) 함

핵심 아이디어

  • Teacher Model: 크고 성능이 좋은 사전 학습된 모델
  • Student Model: 경량화된 작은 모델
  • Teacher의 soft label(logit 분포)을 활용하여 Student를 학습

관련 개념

참조

https://en.wikipedia.org/wiki/Knowledge_distillation

Week 4