티스토리 뷰
KL-Divergence (KLD)는 쉽게 말해, 정답(ground-truth) 분포와 예측(prediction) 분포가 얼마나 유사한지/다른지를 측정하는 방법이다.
KLD의 값이 낮을수록 두 분포가 유사함을 의미한다.
P(x)를 실제 분포, Q(x)를 예측 분포라고 할 때, KLD loss는 다음 수식으로 나타낼 수 있다.
KLD=∑xP(x)logP(x)Q(x)=∑xP(x)logP(x)−∑xP(x)logQ(x)
추가적으로, 우항에서 ∑xP(x)logP(x)는 −Entropy 이고, −∑xP(x)logQ(x)는 CrossEntropy이기 때문에, 다음의 사실을 알 수 있다.
KLD=−Entropy+CrossEntropy
반응형
'AI' 카테고리의 다른 글
Rotary Positional Embedding (RoPE)에 대해 알아보자 (0) | 2025.04.12 |
---|---|
[논문 리뷰] P-Tuning v2: Prompt Tuning Can Be Comparable to Fine-tuning Universally Across Scales and Tasks (0) | 2023.08.01 |
[Pytorch] nn.BCELoss(), nn.CrossEntropyLoss() (0) | 2023.04.12 |
모델의 특정 layer를 freeze시키기 (0) | 2023.02.02 |
GPU id 지정하여 학습하기 (0) | 2022.06.06 |