Related to: Deep Learning

Knowledge distillation

Untitled 6.png

Untitled 1 4.png

  • 기계학습에서 Knowlkege distillation은 큰 모델에서 작은 모델(일반적으로) 지식을 이전하는 프로세스
  • 모델압축, unlabeled dataset에 대한 pseudo-label(가짜 라벨) 생성에 사용
  • Student Model이 Teacher Model의 결과를 흉내내게(mimic) 함

참조

https://en.wikipedia.org/wiki/Knowledge_distillation

Week 4