entropia informationala

3
Entropie informațională În teoria informației , entropia Shannon sau entropia informațională măsoară incertitudinea asociată cu o variabilă aleatoare . Această măsură indică și cantitatea de informație conținută într-un mesaj, exprimată de obicei în biți sau în biți pe simbol. Când este exprimată în biți, ea reprezintă lungimea minimă pe care trebuie să o aibă un mesaj pentru a comunica informația. Ea mai reprezintă și o limită absolută a celei mai bune compresii fără pierderi aplicabilă unor date comunicate: tratând un mesaj ca pe o serie de simboluri, cea mai scurtă reprezentare posibilă a mesajului are lungimea egală cu entropia Shannon în biți pe simbol înmulțită cu numărul de simboluri din mesajul original. O aruncare a monezii are entropia de un bit. Dar, dacă moneda nu este echilibrată, atunci incertitudinea este mai mică (se știe că există o probabilitate mai mare ca ea să cadă cu o anume parte a ei în sus), și astfel entropia Shannon este mai mică. Un șir lung de caractere repetate au entropia 0, deoarece fiecare caracter este previzibil. Entropia unui text în limba engleză este de 1,0 până la 1,5 biți pe literă,[1] . Echivalent, entropia Shannon măsoară media de conținut informațional pe care receptorul o pierde atunci când nu cunoaște valoarea variabilei aleatoare. Conceptul a fost introdus de Claude Shannon în lucrarea sa din 1948 „O teorie matematică a comunicației”. Definiție Entropia H a unei variabile discrete X cu valorile {x 1 , ..., x n } și funcția de probabilitate p : (1 ) iar dacă X este continuă, având funcția de distribuție f(x):

Upload: ruxy90

Post on 15-Sep-2015

216 views

Category:

Documents


1 download

DESCRIPTION

proiect

TRANSCRIPT

Entropie informaional

n teoria informaiei, entropia Shannon sau entropia informaional msoar incertitudinea asociat cu o variabil aleatoare. Aceast msur indic i cantitatea de informaie coninut ntr-un mesaj, exprimat de obicei n bii sau n bii pe simbol. Cnd este exprimat n bii, ea reprezint lungimea minim pe care trebuie s o aib un mesaj pentru a comunica informaia.

Ea mai reprezint i o limit absolut a celei mai bune compresii fr pierderi aplicabil unor date comunicate: tratnd un mesaj ca pe o serie de simboluri, cea mai scurt reprezentare posibil a mesajului are lungimea egal cu entropia Shannon n bii pe simbol nmulit cu numrul de simboluri din mesajul original.

O aruncare a monezii are entropia de un bit. Dar, dac moneda nu este echilibrat, atunci incertitudinea este mai mic (se tie c exist o probabilitate mai mare ca ea s cad cu o anume parte a ei n sus), i astfel entropia Shannon este mai mic. Un ir lung de caractere repetate au entropia 0, deoarece fiecare caracter este previzibil. Entropia unui text n limba englez este de 1,0 pn la 1,5 bii pe liter,[1] . Echivalent, entropia Shannon msoar media de coninut informaional pe care receptorul o pierde atunci cnd nu cunoate valoarea variabilei aleatoare.

Conceptul a fost introdus de Claude Shannon n lucrarea sa din 1948 O teorie matematic a comunicaiei.

Definiie

Entropia H a unei variabile discrete X cu valorile {x1, ..., xn} i funcia de probabilitate p:

(1)

iar dac X este continu, avnd funcia de distribuie f(x):

unde b este o baz pentru logaritmi, real i supraunitar (de obicei 2, caz n care unitatea de msur a informaiei se numete bit, sau e, caz n care ea se numete nat).

Exemplu

Presupunem evenimentul aruncrii unui zar cu 6 fee. Valorile variabilei X sunt {1,2,3,4,5,6} iar probabilitile obinerii oricrei valori sunt egale. Entropia este: .

Pentru o populaie discret cu valorile {1,2,3,4,5,6} cu probabilitile respectiv {3%,16%,31%,31%,16%,3%} (aproximativ o distribuie binomial cu p=50%) entropia calculat este: . Incertitudinea s-a diminuat fa de exemplul precendent.

Proprieti

Aditivitate

Logaritmul este folosit n calculul entropiei pentru a pemite adunarea incertitudinii unor variabile independente.

De exemplu, considernd X i Y doua evenimente independente, distribuite uniform, cu respectiv posibile rezultate perechea (X,Y) va avea rezultate echiprobabile . Entropia perechii (X,Y) se calculeaz:

(2)

Astfel, entropia perechii este egal cu suma entropiei celor dou evenimente luate separat. Proprietatea aditivitii implic faptul c entropia se menine constant indiferent dac mulimea rezultatelor/procesul este privit ca ntreg sau ca sum a unor submulimi / procese.

Schimbarea de baz

Entropia poate fi calculat folosind diferite baze ale logaritmului. nmulirea logaritmilor are proprietatea: .

Entropia calculat in baza va fi egal cu inmulit cu entropia calculat cu logaritm in baza 2.

Continuitate

Entropia este o funcie continu. Unei modificari infinitezimale a probabilitilor corespunde o modificare asemntoare a entropiei.

Simetrie

Valoarea entropiei rmne neschimbat daca se schimb ordinea variabilelor xi.

etc.

Maximum

Entropia, incertitudinea atinge o valoare maxim dac evenimentele sunt echiprobabile.

Pentru evenimente independente i echiprobabile entropia crete cu numrul posibil de rezultate.