Entropia (teoria informacji)

Z Wikipedii, wolnej encyklopedii

Entropia ? ?rednia ilo?? informacji , przypadaj?ca na pojedyncz? wiadomo?? ze ?rodła informacji. Innymi słowy jest to ?rednia wa?ona ilo?ci informacji niesionej przez pojedyncz? wiadomo??, gdzie wagami s? prawdopodobie?stwa nadania poszczegolnych wiadomo?ci.

Wzor na entropi? zmiennej losowej o zbiorze warto?ci [1] :

gdzie to prawdopodobie?stwo zaj?cia zdarzenia a to podstawa logarytmu. W teorii informacji najcz??ciej stosuje si? logarytm o podstawie 2, wowczas jednostk? entropii jest bit . Dla jednostka ta nazywa si? nat (nit), natomiast dla ? dit lub hartley. W przypadku gdy dla pewnego warto?? składnika jest przyjmowana jako 0, co jest zgodne z granic?:

W latach 60. XX wieku w?gierski matematyk Alfred Renyi uogolnił poj?cie entropii do zbioru funkcji za pomoc? ktorych mo?na opisa? ilo?ciowo ro?norodno??, niepewno?? czy losowo?? systemu. Miara ta od jego nazwiska nazywana jest entropi? Renyi .

Entropi? mo?na interpretowa? jako niepewno?? wyst?pienia danego zdarzenia elementarnego w nast?pnej chwili. Je?eli jakie? zdarzenie w zbiorze zdarze? wyst?puje z prawdopodobie?stwem rownym 1, to entropia układu wynosi wowczas 0, gdy? z gory wiadomo, co si? stanie ? nie ma niepewno?ci.

Własno?ci entropii:

  • jest nieujemna;
  • jest maksymalna, gdy prawdopodobie?stwa zaj?? zdarze? s? takie same (maksymalna niepewno??) [1] ;
  • jest rowna 0, gdy prawdopodobie?stwa stanow systemu poza jednym wynosz? 0, a jednego stanu ? 1 (maksymalna pewno??) [1] ;
  • własno?? superpozycji ? gdy dwa systemy s? niezale?ne, to entropia sumy systemow rowna si? sumie entropii [2] ;
  • je?li ze ?rodła danych pobierane s? k-literowe ci?gi, wowczas entropia wynosi

Definicja informacyjna była pierwotnie prob? uj?cia tradycyjnego poj?cia entropii znanego z termodynamiki w kategoriach teorii informacji. Okazało si? jednak, ?e definicja ta jest przydatna w ramach samej teorii informacji.

Poj?cie entropii jest bardzo przydatne np. w dziedzinie kompresji danych . Entropi? zerowego rz?du mo?na obliczy? znaj?c histogram ci?gu symboli. Jest to iloczyn entropii i liczby znakow w ci?gu. Osi?gi kodowania Huffmana s? cz?sto zbli?one do tej granicy, jednak lepsz? efektywno?ci? charakteryzuje si? kodowanie arytmetyczne .

Przyj?cie modelu, w ktorym uwzgl?dnia si? kontekst znaku, pozwala zwykle na bardzo du?e obni?enie entropii.

Przykład [ edytuj | edytuj kod ]

W przypadku, gdy prawdopodobie?stwa poszczegolnych zdarze? w zbiorze s? rowne, powy?szy wzor mo?na stosowa? w postaci uproszczonej:

gdzie: oznacza wielko?? zbioru. Przykładowo dla zbioru 26 liter alfabetu entropia ka?dej z nich wynosi około 4,7, wi?c o?mioznakowy ci?g liter wykorzystywany np. jako hasło b?dzie miał entropi? 37,6.

Moneta, ktora wyrzuca z takim samym prawdopodobie?stwem orły i reszki, ma 1 bit entropii na rzut:

Jednak?e je?li moneta z jakie? przyczyny daje zafałszowany wynik (statystycznie cz??ciej daje albo orła albo reszk? z okre?lonym prawdopodobie?stwem) mamy do czynienia z sytuacj?, w ktorej jest mniejsza niepewno?? (mo?emy łatwiej przewidzie? wynik). Objawia si? to ni?sz? entropi?. Przykładowo, je?li zało?ymy, ?e z czterech rzutow wypadły 3 reszki to podstawiaj?c do wzoru otrzymamy entropi? rown? 0,81. Id?c do ekstremum , przy czterech rzutach i 4 reszkach lub 4 orłach entropia osi?ga minimum, czyli 0, poniewa? nie ma niepewno?ci (wiemy co wydarzy si? w nast?pnym rzucie). Przedstawiony przykład jest skrajnie uproszczony i proba czterech rzutow jest za mała, aby wyci?ga? jakie? statystyczne wnioski, ale dobrze obrazuje problem.

Ogolniej ka?de ?rodło daj?ce rownie prawdopodobnych wynikow ma bitow na symbol entropii:

Ponadto inn? miar? zwi?zan? z entropi? Shannona jest entropia metryczna , ktora uwzgl?dnia długo?? informacji (entropia dzielona jest przez długo?? wiadomo?ci) i pozwala zmierzy? losowo?? informacji.

Zobacz te? [ edytuj | edytuj kod ]

Przypisy [ edytuj | edytuj kod ]

  1. a b c Claude Elwood   Shannon , A Mathematical Theory of Communication , University of Illinois Press, 1949, s. 11 .
  2. Claude Elwood   Shannon , A Mathematical Theory of Communication , University of Illinois Press, 1949, s. 12 .

Linki zewn?trzne [ edytuj | edytuj kod ]