_대문 | 방명록 | 최근글 | 홈피소개 | 주인놈
FrontPage › Entropy

정보 이론의 엔트로피..


x <- 1/8
ep <- -x * log(x, base=2) * 8
ep

예를 들어, 모두의 마블 팀전을 10판했다. 일반적으로 생각했을 때 승은 좋은 경험이고 패는 나쁜 경험일 것이다. 팀전의 경우 10판 했으면 5판 정도는 승리를 할 것으로 기대하지만 10판 모두 패배했다고 하면 나쁜 경험을 계속하게 될것이고 이런 스트레스를 견디지 못하는 고객들은 이탈할 것이다. 즉, 경험에 대한 기대하는 바가 있을 테고, 그 기대하는 바를 충족시켜주지 못한다면 조정이 필요한 부분이다.

물론 10판 했는데 10판 모두 승리한 것도 좋은 경험은 아니다. 이는 전혀 ‘놀라움’이 없다. ‘놀라움’의 측정은 Entropy가 적당하다. 승률의 경우 50%가 Entropy가 가장 높다. 즉, 이상적인 승률 분포는 평균 50%의 정규분포다.

buys <- c("no", "no", "yes", "yes", "yes", "no", "yes", "no", "yes", "yes", "yes", "yes", "yes", "no")
freqs <- table(buys)/length(buys)
ep <- -sum(freqs * log2(freqs))
ep

댓글 남기기..
이름: : 오른쪽의 새로고침을 클릭해 주세요. 새로고침
EditText : Print : Mobile : FindPage : DeletePage : LikePages : Powered by MoniWiki : Last modified 2018-04-13 23:12:52

좋은 책을 읽는 것은 과거의 가장 뛰어난 사람들과 대화를 나누는 것과 같다. (데카르트)