티스토리 뷰

AI

KL-Divergence Loss

체봄 2023. 12. 23. 19:13

KL-Divergence (KLD)는 쉽게 말해, 정답(ground-truth) 분포와 예측(prediction) 분포가 얼마나 유사한지/다른지를 측정하는 방법이다.

KLD의 값이 낮을수록 두 분포가 유사함을 의미한다.

P(x)를 실제 분포, Q(x)를 예측 분포라고 할 때, KLD loss는 다음 수식으로 나타낼 수 있다.

KLD=xP(x)logP(x)Q(x)=xP(x)logP(x)xP(x)logQ(x)




추가적으로, 우항에서 xP(x)logP(x)Entropy 이고, xP(x)logQ(x)CrossEntropy이기 때문에, 다음의 사실을 알 수 있다.
KLD=Entropy+CrossEntropy



반응형

댓글