Web - Amazon

We provide Linux to the World


We support WINRAR [What is this] - [Download .exe file(s) for Windows]

CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
SITEMAP
Audiobooks by Valerio Di Stefano: Single Download - Complete Download [TAR] [WIM] [ZIP] [RAR] - Alphabetical Download  [TAR] [WIM] [ZIP] [RAR] - Download Instructions

Make a donation: IBAN: IT36M0708677020000000008016 - BIC/SWIFT:  ICRAITRRU60 - VALERIO DI STEFANO or
Privacy Policy Cookie Policy Terms and Conditions
Informacja wzajemna - Wikipedia, wolna encyklopedia

Informacja wzajemna

Z Wikipedii

W teorii informacji, informacja wzajemna pomiędzy dwiema zmiennymi losowymi jest miarą zależności pomiędzy tymi zmiennymi. Zwykle podaje się ją w bitach, co oznacza że wylicza się ją używając logarytmów o podstawie 2.

Intuicyjnie, informacja wzajemna mierzy ile informacji o X można poznać znając Y, czyli o ile poznanie jednej z tych zmiennych zmniejsza niepewność o drugiej. Jeśli zmienne X i Y są niezależne, to ich wzajemna informacja jest zerowa (znajomość jednej nie mówi niczego o drugiej). Jeśli X i Y są identyczne, to każda zawiera pełną wiedzę o drugiej. Wtedy informacja wzajemna jest równa entropii X (albo Y - skoro są identyczne to ich entropia jest taka sama).

Formalnie, informacja wzajemna między dwiema dyskretnymi zmiennymi losowymi X i Y może być zdefiniowana jako:

 I(X;Y) = \sum_{y \in Y} \sum_{x \in X} p(x,y) \log \frac{p(x,y)}{p(x)\,p(y)},

gdzie p(x,y) oznacza prawdopodobieństwa w rozkładzie produktowym X i Y, a p(x) i p(y) oznaczają prawdopodobieństwa w rozkładach zmiennych X i Y.

W przypadku ciągłych rozkładów sumowanie należy zastąpić przez całkowanie:

 I(X;Y) = \int\limits_Y \int\limits_X p(x,y) \log \frac{p(x,y)}{p(x)\,p(y)} \; dx \,dy, \!

gdzie p(x,y) oznacza funkcję gęstości prawdopodobieństwa dwóch zmiennych, a p(x) i p(y) są gęstościami prawdopodobieństwa X i Y.

Informacja wzajemna mierzy jest równa zero wtedy i tylko wtedy gdy zmienne X i Y są niezależne. Łatwo zauważyć implikacje w jedną stronę: jeśli są niezależne, to p(x,y) = p(x) × p(y), a więc:

 \log \frac{p(x,y)}{p(x)\,p(y)} = \log 1 = 0. \!


[edytuj] Powiązania z innymi funkcjami

Informację wzajemną można zdefiniować równoznacznie jako:

I(X;Y)  =  H(X) - H(X|Y) \,
 = H(Y) - H(Y|X) \,
 = H(X) + H(Y) - H(X,Y) \,

gdzie H(X) i H(Y) oznaczają entropie, H(X|Y) i H(Y|X) oznaczają entropie warunkowe, a H(X,Y) entropię produktową.

Warto zauważyć że H(X|X) = 0 \,, a więc H(X) = I(X;X) \,. Podobnie jeśli Y jest funkcją X, to znajomość X determinuje wartość Y, i wtedy I(X;Y) = H(Y) \,


[edytuj] Zastosowanie informacji wzajemnej

W wielu zastosowaniach ważne jest maksymalizowanie informacji wzajemnej, co często oznacza minimalizowanie entropii warunkowej. Przykładami mogą być:

  • Pojemność kanału komunikacyjnego, która jest maksymalnej możliwej do uzyskania wzajemnej informacji pomiędzy wejściem a wyjściem z kanału.
  • Uczeniu maszynowym przez zastosowanie ukrytych modeli Markowa (HMM).

Our "Network":

Project Gutenberg
https://gutenberg.classicistranieri.com

Encyclopaedia Britannica 1911
https://encyclopaediabritannica.classicistranieri.com

Librivox Audiobooks
https://librivox.classicistranieri.com

Linux Distributions
https://old.classicistranieri.com

Magnatune (MP3 Music)
https://magnatune.classicistranieri.com

Static Wikipedia (June 2008)
https://wikipedia.classicistranieri.com

Static Wikipedia (March 2008)
https://wikipedia2007.classicistranieri.com/mar2008/

Static Wikipedia (2007)
https://wikipedia2007.classicistranieri.com

Static Wikipedia (2006)
https://wikipedia2006.classicistranieri.com

Liber Liber
https://liberliber.classicistranieri.com

ZIM Files for Kiwix
https://zim.classicistranieri.com


Other Websites:

Bach - Goldberg Variations
https://www.goldbergvariations.org

Lazarillo de Tormes
https://www.lazarillodetormes.org

Madame Bovary
https://www.madamebovary.org

Il Fu Mattia Pascal
https://www.mattiapascal.it

The Voice in the Desert
https://www.thevoiceinthedesert.org

Confessione d'un amore fascista
https://www.amorefascista.it

Malinverno
https://www.malinverno.org

Debito formativo
https://www.debitoformativo.it

Adina Spire
https://www.adinaspire.com