[ML/DL] Entropy, CrossEntropy, KL divergence 개념 정리

KL divergence 

예측 분포의 엔트로피와 실제 분포에 대한 엔트로피간의 차이 측정 measure


Entropy

불확실성을 수식으로 나타냄 (엔트로피가 높다는 것은 불확실한 정보가 많다는 것) (주사위의 엔트로피가 동전의 엔트로피보다 높음.)


CE Loss

내가 예측한 분포와 실제 분포로 구성된 함수로 내가 예측한 분포에 대한 엔트로피

 

 

Reference

https://velog.io/@rcchun/%EB%A8%B8%EC%8B%A0%EB%9F%AC%EB%8B%9D-%ED%81%AC%EB%A1%9C%EC%8A%A4-%EC%97%94%ED%8A%B8%EB%A1%9C%ED%94%BCcross-entropy

 

[머신러닝] 크로스 엔트로피(cross entropy)

엔트로피는 불확실성의 척도로 정보이론에서의 엔트로피는 불확실성을 나타내며 엔트로피가 높다는 것은 정보가 많고 확률링 낮다는 것을 의미합니다이런 설명과 수식으로는 처음에는 와닿지

velog.io

 

'AI&ML > Lab' 카테고리의 다른 글

[Train] ControlNet 학습시키기  (3) 2024.07.15
[ML/DL] 소프트맥스 회귀/다항 로지스틱 회귀  (0) 2023.12.26
[NLP] 라마(LLaMA) 정리  (0) 2023.09.05
Colab 단축키 정리  (0) 2023.08.31
[ML/DL] CNN 알고리즘  (0) 2023.08.31

댓글