z Wikipedie, slobodnej encyklopedie
Entropia
je v
teorii informacii
miera neur?itosti t. j. protiklad k pojmu
informacia
. Ur?uje mno?stvo nejasnosti a na druhej strane informacie obsiahnute v sprave.
Pojem zaviedol
Claude E. Shannon
v roku 1948 vo svojom diele
A Mathematical Theory of Communication
.