정보 이론의 엔트로피..

http://blog.acronym.co.kr/m/433

x <- 1/8
ep <- -x * log(x, base=2) * 8
ep

예를 들어, 모두의 마블 팀전을 10판했다. 일반적으로 생각했을 때 승은 좋은 경험이고 패는 나쁜 경험일 것이다. 팀전의 경우 10판 했으면 5판 정도는 승리를 할 것으로 기대하지만 10판 모두 패배했다고 하면 나쁜 경험을 계속하게 될것이고 이런 스트레스를 견디지 못하는 고객들은 이탈할 것이다. 즉, 경험에 대한 기대하는 바가 있을 테고, 그 기대하는 바를 충족시켜주지 못한다면 조정이 필요한 부분이다.

물론 10판 했는데 10판 모두 승리한 것도 좋은 경험은 아니다. 이는 전혀 ‘놀라움’이 없다. ‘놀라움’의 측정은 Entropy가 적당하다. 승률의 경우 50%가 Entropy가 가장 높다. 즉, 이상적인 승률 분포는 평균 50%의 정규분포다.

buys <- c("no", "no", "yes", "yes", "yes", "no", "yes", "no", "yes", "yes", "yes", "yes", "yes", "no")
freqs <- table(buys)/length(buys)
ep <- -sum(freqs * log2(freqs))
ep
Retrieved from http://databaser.net/moniwiki/wiki.php/Entropy
last modified 2018-04-13 23:12:52