teoria informatiei

147
GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs TEORIA INFORMAŢIEI Note de curs I. Ipostazele contemporane de bază ale teoriei informaţiei ● teoria informaţiei în sens larg: ― definiţie: diferitele reprezentări sistematice ale eficienţei transferului de informaţie în comunicarea mesajelor; ― explicitarea definiţiei poate fi făcută prin utilizarea termenilor definitorii ─ pornind de la etimologia lor ─ cu înţelesul pe care îl au nu numai în limbajul specializat, ci şi în cel natural: 1) „reprezentări sistematice”: reprezentări ştiinţifice ─ întrucât ştiinţa poate fi interpretată drept „cunoaştere adunată în sistem, iar reprezentarea drept „înfăţişare, redare, reproducere a unui lucru” prin punerea lui într-o anumită formă sau prin exprimarea formei lui ca „relaţie între mai multe mărimi ce se regăsesc sub 2 ipostaze principale în cadrul teoriei contemporane a informaţiei: A) reprezentări matematice ale cantităţii de informaţie conţinută de un mesaj comunicat, făcând abstracţie de înţelesul acestuia, sistemul lor alcătuind teoria matematică a informaţiei B) reprezentări logico-filosofice ale semnificaţiilor vehiculate de mesajul comunicat, sistemul lor alcătuind teoria semantică a informaţiei 1

Upload: dani-el

Post on 19-Jan-2016

106 views

Category:

Documents


9 download

TRANSCRIPT

Page 1: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

TEORIA INFORMAŢIEINote de curs

I. Ipostazele contemporane de bază ale teoriei informaţiei

● teoria informaţiei în sens larg:

― definiţie: diferitele reprezentări sistematice ale eficienţei transferului de informaţie în comunicarea mesajelor;

― explicitarea definiţiei poate fi făcută prin utilizarea termenilor definitorii ─ pornind de la etimologia lor ─ cu înţelesul pe care îl au nu numai în limbajul specializat, ci şi în cel natural:

1) „reprezentări sistematice”: reprezentări ştiinţifice ─ întrucât ştiinţa poate fi interpretată drept „cunoaştere adunată în sistem, iar reprezentarea drept „înfăţişare, redare, reproducere a unui lucru” prin punerea lui într-o anumită formă sau prin exprimarea formei lui ca „relaţie între mai multe mărimi ce se regăsesc sub 2 ipostaze principale în cadrul teoriei contemporane a informaţiei:

A) reprezentări matematice ale cantităţii de informaţie conţinută de un mesaj comunicat, făcând abstracţie de înţelesul acestuia, sistemul lor alcătuind teoria matematică a informaţiei

B) reprezentări logico-filosofice ale semnificaţiilor vehiculate de mesajul comunicat, sistemul lor alcătuind teoria semantică a informaţiei

2) „eficienţă”: maximizarea efectului util prin minimizarea consumului de mijloace .

3) „transfer”: transmisia şi procesarea informaţiei, mai pe larg spus: captarea, codificarea, transmiterea, stocarea, măsurarea şi prelucrarea ei;

4) „informaţie”: ştire, veste ─ ca noutate transmisă despre ceva, de către cineva, cuiva ─ care, din punct de vedere material, se manifestă oarecum contradictoriu şi conduce spre înţelesurile sale ştiinţifice:

A) entitate lipsită de o formă proprie: in-formaţie, unde particula „in” desemnează chiar lipsa unei forme proprii, dar care se poate realiza ca eveniment (semnal) dintr-o mulţime de evenimente (semnale) posibile ─ înţelesul din teoria matematică a informaţiei;

1

Page 2: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

B) entitate transpusă într-o altă formă, în lipsa unei forme proprii: in- formaţie, unde accentul cade pe căutarea unei forme potrivite de, formă denumită în literatura de specialitate „purtător de informaţie” ─ înţelesul din teoria semantică a informaţiei;

5) „comunicare”: la fel, adică ştire, veste, însă ca relaţie, legătură, raport informaţional(ă) între cineva şi altcineva, motiv pentru care este adeseori identificată cu informaţia.

6) „comunicaţie”: legătură, contact, mijloc de comunicare între instanţe diferite, dar mai ales sistem tehnic folosit pentru realizarea comunicării (totalitatea mijloacelor tehnice de transmitere a informaţiilor sau de legătură şi contact între puncte diferite: poştă, telefon, radio, televiziune, cinema, publicaţii, internet etc.

7) „mesaj”: uzual tot ştire, , dar ca ceea ce se transmite în procesul comunicării de la un agent la altul, ştiinţific spus ca:

A) evenimente de comunicaţie măsurabile, în succesiunea lor discretă sau continuă, deci repartizate în timp: obiect de studiu al teoriei matemantice a informaţiei;

B) enunţuri proferate, într-o anumită „structură de semnificaţii compusă din semne şi coduri, deci relaţionate ca purtători de informaţii: obiect de studiu al teoriei semantice a informaţiei.

● teoria informaţiei în sens restrâns = teoria matematică a informaţiei:

― definiţie: „o reprezentare matematică a condiţiilor şi parametrilor ce afectează transmiterea şi procesarea informaţiei”.

― explicitarea definiţiei:

1) apariţia şi formularea acestei teorii ca teorie a comunicării / comunicaţiei se leagă mai ales de numele a 3 cercetători americani:

A) în primul rând de numele matematicianului şi inginerului specialist în electrotehnică Claude Elwood Shannon care, ca cercetător la celebrul Massachusetts Institute of Tehnology (MIT, unde ─ în perioada formării sale ─ l-a avut ca profesor pe Norbert Wiener), dar şi ca angajat din 1941 al Laboratoarelor Bell System (Compania Bell Telephone era o filială a întreprinderii de telecomunicaţii American Telegraph & Telephone, precurtat ATT), a publicat de-a lungul anului 1948 trei studii în Bell System Tehnical Journal pe care le-a reluat sub formă de carte în 1949 împreună cu o introducere a lui Warren Weaver (în The Mathematical Theory of Communication); dintre cele 3 studii, se detaşează ca importanţă pentru fundamentarea din punct de vedere matematic a teoriei informaţiei cel intitulat A Mathematical Theory of Communication, 1948,

B) în al doilea rând de numele şefului departamentului ştiinţelor naturale din cadrul Fundaţiei Rockekeller, coordonator al cercetării asupra marilor calculatoare în timpul celui de-al II-lea război mondial, Waren Weaver, autor al studiului Recent

2

Page 3: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

Contributions to The mathematical Theory of Communication, 1949, reluat ca Introducere la cartea alcătuită din cele 3 studii din 1948 ale lui C. E. Shannon; meritul principal al Introducerii ţine de reformularea problemei inginereşti a comunicaţiei ─ enunţată pentru prima dată de Shannon ─ ca problemă mai largă a comunicării pe trei nivele;

C) în al treilea rând de numele întemeietorului ciberneticii ca ştiinţă, Norbert Wiener, profesor de matematică la MIT, preocupat de problemele reţelelor electrice ale tehnicii de calcul în timpul celui de-al II-lea război mondial şi autor al lucrării Cybernetics or Control and Comunication in the Animal and the Machine, John Wiley & Sons, New York, 1948, unde întrevede că la baza dezvoltării societăţii viitoare va sta un alt gen de „materie primă”, care este informaţia (mai precis spus „cantitatea de informaţie” ca „măsură a gradului de organizare dintr-un sistem”) şi opusă entropiei („măsura gradului de dezorganizare a unui sistem”) [Wiener, N., 1966, pp.33-34]; lucrării lui Wiener din 1948, care valorizează teoria informaţiei ca parte a ciberneticii, îi lipsea tocmai aparatul matematic de tratare a informaţiei ce a fost oferit în acelaşi an de către Shannon;

2) scopul acestei teorii :

A) calcularea cantităţii de informaţie ce poate fi transmisă pe un canal de comunicaţie şi procesată într-un proces de comunicare:

a) măsurarea cantităţii de informaţie;

b) măsurarea capacităţii canalului de comunicaţie;

B) maximizarea eficienţei proceselor de transmitere şi procesare a informaţiei (găsirea unei codificări eficiente a mesajului):

a) determinarea vitezei de transmitere a informaţiei printr-un canal;

b) determinarea gradului de eliminabilitate a zgomotului de pe un canal;

C) aplicaţii la comunicarea discretă (prin limbaj scris) şi continuă (prin limbaj oral).

3) dezvoltări actuale ale acestei teorii:

A) teoria algoritmică sau computaţională a informaţiei

B) teoria informaţiei-Fisher

● teoria semantică a informaţiei:

― definiţie: reprezentările logico-filosofice ale condiţiilor şi parametrilor ce afectează comunicarea (semnificaţia mesajelor, transmiterea şi prelucrarea datelor comunicate);

― explicitarea definiţiei poate fi făcută prin trecerea în revistă a actualelor abordări din teoria semantică a informaţiei :

3

Page 4: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

1) abordări sau reprezentări reducţioniste: prototipul lor este aşa-numita „teorie unificată a informaţiei”, destul de generală încât să poată captura toate conceptele majore ale informaţiei, dar şi suficient de specifică încât să poată distinge nuanţele semantice ale definiţiilor acestor concepte:

A) ideea centrală a teoriei unificate a informaţiei e că orice tip de informaţie este reductibil, în ultimă instanţă, la un „concept-mamă”, sursa tuturor instanţierilor posibile, dar imposibil de prins într-o definiţie unificată a informaţiei: un astfel de concept are o mare flexibilitate şi putere explicativă, intervenind ca explicandum în multe dintre explicaţiile oferite de teoriile ştiinţifice şi depinzând de mănunchiul cerinţelor şi dezideratelor ce orientează o anume teorie;

B) punctele de plecare în elaborarea teoriei unificate a informaţiei sunt:

a) diferitele definiţii date informaţiei în strânsă legătură cu problema comunicării (definiţia sintactică formulată de Shannon, definţia semantică oferită de Carnap şi Bar-Hillel şi definiţia pragmatică − informaţia = „resursă pentru procesele de luare a deciziilor” − propusă de Weizsäcker): toate acestea conduc spre un nou concept al informaţiei care să integreze variatele aspecte ale proceselor informaţionale, să includă înţelesurile tradiţionale ale termenului „informaţie” şi să dezvolte vechea teorie a informaţiei într-una nouă, universală, care să ofere un model ierarhic al informaţiei;

b) diferitele dezvoltări ale teoriei informaţiei şi teoriile istorice şi sociologice ale societăţii informaţionale: toate aceste teorii pot fi reunite şi dezvoltate sub forma unei noi ştiinţe a informaţiei care să integreze 3 nivele de cercetare (nivelul teoriei despre societate şi ştiinţă, nivelul sociologiei şi nivelul metodologiei);

C) critica teoriei unificate a informaţiei se originează în luarea de poziţie a lui Shannon faţă de ea: cuvântului „informaţie” i-au fost date diferite semnificaţii în domeniul general al teoriei informaţiei, motiv pentru care e greu de crezut că un singur concept al informaţiei ar putea da seama în mod satisfăcător de multitudinea de posibile aplicaţii din acest domeniu general;

2) abordări sau reprezentări antireducţioniste, care aduce obiecţii pretenţiei reducţioniste de a identifica conceptul cantitativ al informaţiei elaborat de Shannon cu conceptul-mamă vizat de teoria unificată a informaţiei şi de a fonda teoria unificată a informaţiei pe teoria matematică a comunicaţiei:

A) ideea principală susţinută de antireducţionişti e cea a naturii diverse a conceptului de informaţie şi a fenomenelor corespunzoroare lui: diferitele specii de informaţie nu pot fi reduse la o singură tulpină;

B) punctul lor de plecare îl constituie detaşarea de reducţionismul tare: în vreme ce reducţionismul tare argumentează că toate conceptele informaţiei descind dintr-o aceeaşi familie, antireducţionismul susţine că diferitele concepte ale informaţiei, chiar dacă prezintă anumite „asemănări de familie”, au totuşi rădăcini diferite;

4

Page 5: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

C) critica antireducţionismului: strategiile sale sunt în esenţă negative, axate pe respingerea generalizărilor vagi şi a confuziilor din teoria unificată a informaţiei (prin analiza genealogică pe care o propune, ascunzând astfel divergenţele reale, acesata dă impresia superficială de rezolvare definitivă a dificultăţilor) şi conducând mai degrabă la impas decât la o soluţie;

3) abordări sau reprezentări nonreducţioniste, care încearcă să depăşească dihotomia

dintre reducţionism şi antireducţionism prin înlocuirea modelului ierarhic reducţionist cu o reţea de concepte conexe, influenţându-se dinamic şi mutual, fără a fi în mod necesar genetice sau genealogice:

A) ideea principală a nonreducţioniştilor (Baudrillard, Foucault, Lyotard, McLuhan,

Rorty, Derrida ş.a.) e cea a inexistenţei unui concept-cheie al informaţiei deoarece atunci când un concept important devine central, imediat unul periferic joacă un rol de contrabalansare: informaţia nu este în, din sau despre realitate, ea este un produs al cercului autoreferenţial al comunicării hermeneutice (interpretare, putere, naraţie, mesaj sau mediu, conversaţie, construcţie, marfă ş.a.m.d.);

B) punctul lor de plecare îl constituie „analiza hypertext-ului”, „centralizată” în moduri diferite sau „complet descentralizată” şi poate „multicentrată”:

a) abordările „centralizate” interpretează diferitele înţelesuri, utilizări, aplicaţii şi tipuri de informaţie ca un sistem gravitând în jurul unei noţiuni centrale având prioritate teoretică;

b) abordările „descentralizate” sau „multicentrate” consideră că noţiunea centrală lucrează ca un mecanism hermeneutic care influenţează, interrelaţionează şi favorizează accesul altor noţiuni în sistem;

C) rolul de noţiune centrală în abordările nonreducţioniste din filosofia informaţiei îl deţine informaţia semantică orientată epistemic sau, altfel spus, factuală;

II. Informaţia în „reprezentarea sistematică” a teoriei matematice a informaţiei

● reprezentarea neformală a informaţiei în teoria matematică a informaţiei:

― informaţia = o selecţie de semnale sau simboluri dintr-un set de posibile semnale sau simboluri transmise sub formă de mesaj de cineva către altcineva.) sau, altfel spus, evenimentele din care se constituie un mesaj (numite data = „date”), de regulă definită ca:

1) predictibilitate a semnalelor sau simbolurilor prin care se transmite un mesaj, sub aspectul formei lor fizice şi nu al semnificaţiei sau înţelesului lor;

5

Page 6: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

2) măsură sau mărime matematică ce exprimă incertitudinea înlăturată prin realizarea unui eveniment comunicaţional (semnal, simbol, mesaj etc.) dintr-un set de evenimente comunicaţionale posibile (semnale, simboluri, mesaj etc.);

― informaţia = cantitatea de date brute antrenate în rezolvarea unei probleme, mai precis spus „funcţia rezultatelor posibile la o problemă, egală cu deficitul de informaţie pe care îl înlătură” (cantitatea de informaţie = numărul de întrebări Da-Nu necesar determinării a ceea ce datele comunică), cum s-ar manifesta de pildă în următoarele 2 situaţii:

1) când cineva aruncă o monedă în sus şi îi cere altcuiva să ghicească care simbol gravat pe feţele monedei (cap, pajură) va fi vizibil la căderea ei pe un suport, ambii sunt într-o stare de deficit de informaţie (altfel spus, de „incertitudine”) pe care şi-o pot înlătura încercând să răspundă doar la întrebarea dacă rezultatul este cap (c) sau pajură (p), din cele două posibile răspunsuri (c şi p) fiind posibil numai unul (c sau p), acesta reprezintând unitatea de informaţie ce înlătură starea lor de incertitudine (numită în literatura de specialitate „bit”);

2) dacă se aruncă două monede, rezultatul poate fi cap-cap (c, c), cap-pajură (c, p), pajură-cap (p, c), pajură-pajură (p, p), fiind aşadar necesare două întrebări pentru înlăturarea incertitudinii, fiecare rezultat conţinând 2 unităţi de informaţie (2 biţi), şi aşa exemplele pot continua mai departe (cu 3, 4, ...n monede);

● reprezentarea formală a informaţiei în teoria matematică a informaţiei (uneori sub denumirea de „informaţie statistică”):

― reprezentarea formală a informaţiei din teoria matematică a informaţiei cu ajutorul calculul informaţional elaborat de:

1) exemplificări de situaţii informative în comunicare:

A) o sursă de informaţii cu un singur element (numită „mecanism, dispozitiv sau sistem de producere a informaţiilor unar”), care răspunde la orice întrebare de tipul DA-NU cu acelaşi mesaj (răspuns: ori DA, ori NU, nicidecum DA sau NU, DA şi NU), nu prin tăcere şi mesaj, întrucât tăcerea reprezintă şi ea un mesaj (răspuns), dar implicit: astfel înţeleasă, o sursă complet tăcută este o sursă ce implică o singură componentă informativă;

B) un mecanism, dispozitiv sau sistem binar, care poate produce două simboluri, ca de exemplu o monedă A cu cele două simboluri echiprobabile ale sale (cap, pajură):

a) înainte de a da cu banul, receptorul (de exemplu, un calculator) se află într-un stadiu deficitar de date, mai mare ca zero, receptorul „neştiind” ce simbol va fi produs de către dispozitiv (Shannon a utilizat termenul tehnic de „incertitudine” pentru a se referi la deficitul de date, într-un context non-matematic acest termen putând fi unul foarte ambiguu datorită puternicelor sale conotaţii epistemologice: de reamintit aici că receptorul poate fi şi o

6

Page 7: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

simplă maşinărie pentru care stările psihologice, mentale şi doxastice sunt, în mod evident, irelevante);

b) după ce s-a dat cu banul, sistemul produce o cantitate de informaţie care este o funcţie a posibilelor răspunsuri (produse) – în acest caz: 2 simboluri echiprobabile – şi egală cu deficitul de date pe care îl îndepărtează;

C) un mecanism, dispozitiv sau sistem mai complex, format din două monede A şi B, sistemul AB putând să producă 4 variante ordonate : <c, c>, <c, p>, <p, c>, <p, p>, ceea ce înseamnă că:

a) sistemul AB generează un deficit de date de 4 unităţi, fiecare pereche fiind un simbol în alfabetul sursă;

b) sistemul AB îndepărtează, prin ocurenţa fiecărui simbol (<_, _>), un deficit de date mai mare decât ocurenţa unui simbol în sistemul A, ceea ce înseamnă că fiecare simbol furnizează mai multe informaţii;

D) un mecanism, dispozitiv sau sistem mai complex, format din trei monede A, B şi C, sistemul ABC putând produce un deficit de date de 8 unităţi, mărind cantitatea de informaţie a fiecărui simbol din cadrul său, şi aşa mai departe;

E) generalizarea exemplificărilor anterioare, numărul posibilelor simboluri fiind N:

a) pentru N = 1: cantitatea de informaţie produsă de un mecanism, dispozitiv sau sistem format dintr-un singur element este 0;

b) pentru N = 2, întrucât mecanismul, dispozitivul sau sistemul produce un simbol din două simboluri echiprobabile, se furnizează o unitate de informaţie (să zicem: 1 bit);

c) pentru N = 4: avem suma dintre cantitatea de informaţie oferită de către un mecanism producând unul din două simboluri echiprobabile (moneda A, în exemplul de mai sus) şi cantitatea de informaţie furnizată de alt mecanism producând şi el unul din două simboluri echiprobabile (moneda B), cu valoarea de două unităţi de informaţie (2 biţi, de pildă), în vreme ce numărul total al simbolurilor echiprobabile este obţinut prin înmulţirea numărului simbolurilor monedei A cu cel ale simbolurilor monedei B, fiind 4;

d) pentru N > 4:

d1) măsura cantităţii de informaţie ar trebui să fie o funcţie a probabilităţii cu care simbolurile apar în urma aruncării monezilor sau a unui zar, iar această funcţie se numeşte în matematică „logaritm”, respectiv „logaritm în baza 2” în cazul folosirii bit-ului ca unitate de măsură (de aici înainte log însemnând log2, adică logaritmul în baza 2 dintr-un număr n = puterea la care 2 trebuie ridicat pentru a da numărul n; de exemplu, log2 8 = 3, deoarece 23=8): logaritmii au proprietatea de a transforma înmulţirea simbolurilor în adunarea unităţilor de informaţii, iar calculul informaţional

7

Page 8: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

cu ajutorul logaritmului în baza 2 oferă avantajul exprimării informaţiei în unităţi binare;

d2) formula de calcul a cantităţii de informaţie pentru un alfabet de N simboluri echiprobabile, este dată de ecuaţia informativităţii medii per simbol:

I = log2(N) (biţi de informaţie per simbol),

formulă ce poate fi particularizată în tabelul de mai jos pentru exemplele discutate anterior:

Mecanism Alfabet Biţi de informaţie per simbol

Un sistem unar 1 simbol log(1)= 0O monedă 2 simboluri echiprobabile log(2)= 1Două monede 4 simboluri echiprobabile log(4)= 2Un zar 6 simboluri echiprobabile log(6)= 2.58Trei monede 8 simboluri echiprobabile log(8)= 3

2) calcularea informaţiei relativ la un eveniment (sau un simbol): A) probabilitatea Pi a unui eveniment sau simbol informaţional i (purtător de

informaţie) poate fi „extrasă” din ecuaţia I = log2(N) – un caz special în care simbolurile sunt echiprobabile – folosindu-ne de câteva proprietăţi elementare ale funcţiei logaritmice:

I = log(N) = - log (N-1) = - log (1/N) = - log (Pi),

unde

Pi = 1/N

a) în cazul unei singure aruncări a unei monede, probabilitatea unui eveniment sau simbol informaţional i este suma dintre probabilitatea apariţiei „cap” şi probabilitatea apariţiei „pajură”: Pi = Pc + Pp = 0,5 + 0,5 = 1);

b) în cazul unui şir S de aruncări a unei singure monede, probabilitatea de ocurenţă a evenimentului sau simbolului al i-lea este exprimată de formula

,

unde simbolul sigma este o prescurtare care indică faptul că dacă adăugăm toate valorile probabilităţilor de la i = 1 la i = N suma lor este egală cu 1 şi că moneda pare să manifeste o anumită „subiectivitate” (probabilitatea apariţiei „cap” şi probabilitatea apariţiei „pajură” nu mai sunt egale, ci suferă de o

8

Page 9: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

anumită „incertitudine”, o ipostază a „incertitudinii” lui Shannon): spre deosebire de moneda normală, o monedă uşor subiectivă ar trebui să producă mai puţin de 1 bit de informaţie, dar mai mult de 0, ceea ce – generalizând – ne conduce la susţinerea că cu cât frecvenţa sau probabilitatea unui eveniment sau simbol în S este mai mare, cu atât moneda produce mai puţină informaţie, până în momentul când această monedă este atât de subiectivă, de părtinitoare, încât produce întotdeauna acelaşi eveniment sau simbol şi încetează să mai fie informativă;

c) înţelesul intuitiv al formulei probabilităţii de ocurenţă a evenimentului sau simbolului al i-lea dintr-un şir S: probabilitatea este asemenea unui tort servit la o sărbătoare, tăiat în felii din ce în ce mai subţiri în funcţie de numărul invitaţilor, dar a căror însumare la sfârşitul petrecerii nu conduce niciodată la mai mult de 1 tort (cel iniţial), ci – în cel mai rău caz – poate fi egală cu 0, însă niciodată nu poate deveni „negativă”;

B) calcularea informativităţii medii a lui S presupune să ştim să calculăm nu numai informativitatea simbolului al i-lea, în general, ci şi lungimea unui şir S:

a) informativitatea U a simbolului al i-lea poate fi exprimată prin analogie cu I

= - log (Pi) în ecuaţia :

Ui = - log (Pi),

ceea ce semnifică cu cât probabilitatea de ocurenţă a unui simbol este mai mică, cu atât este mai mare informativitatea ocurenţei sale;

b) lungimea unui şir S, în general: să presupunem că moneda subiectivă, aruncată de 10 ori, produce şirul: <c, c, p, c, c, p, p, c, c, p>, situaţie în care lungimea şirului S (în cazul nostru egală cu 10) este egală cu numărul de ocurenţe a simbolului de tip c („cap”) adunat cu numărul de ocurenţe al simbolului de tip p („pajură”); generalizând această situaţie pentru i tipuri de simboluri, obţinem formula:

S =

C) calcularea informativităţii medii a unui şir S de evenimente sau simboluri, Inf(s), se face după cum urmează: din ecuaţiile

Ui = - log (Pi)

şi

S =

9

Page 10: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

observăm că Inf(s) este suma informativităţilor fiecărui simbol împărţită la suma tuturor simbolurilor 

,

formulă ce poate fi simplificată în

,

unde S/S este frecvenţa sau probabilitatea cu care simbolul al i-lea apare în S, când S este finit, dar dacă lungimea lui S este nedeterminată (cât de mare se vrea), atunci frecvenţa simbolului al i-lea devine probabilitatea acestuia Pi, ceea ce – prin generalizare – conduce la formula

,

în care, dacă substituim Ui cu - log (Pi), obţinem formula lui Shannon pentru incertitudine (H), adică

Inf(s) = H = - (biţi per simbol),

unde H poate fi interpretată ca „deficit de date” (de fapt, formula originală a lui Shannon include o constantă pozitivă K care se referă la alegerea unei unităţi de măsură, biţi în cazul nostru, Shannon folosind litera H în cinstea lui R. V. L. Hartley, predecesor al său în descoperirea acestei formule);

― reprezentarea formală a informaţiei în teoria matematică a informaţiei cu ajutorul calculului economic (potrivit căruia informaţia este definită ca întâlnirea dintre o dată şi problemă pe piaţa elastică a cererii şi ofertei de date)

1) exemplificări de situaţii informative în comunicare:

A) problematizarea unei situaţii informative în termeni economici („cost”, „preţ” etc.): Să luăm în considerare N cutii numerotate de la 1 la N. Un individ A a ascuns la întâmplare un obiect într-una dintre aceste cutii. Un individ B trebuie să găsească numărul cutiei unde se găseşte obiectul ascuns. Pentru aceasta, el are dreptul de a pune întrebări individului A la care acesta din urmă trebuie să răspundă, fără a minţi, doar prin DA sau NU. Dar fiecare întrebare pusă reprezintă un „cost” de plată pentru individul B (să zicem 1 euro). Un individ C ştie în ce cutie este ascuns obiectul. El are posibilitatea de a vinde această informaţie individului B. B n-ar accepta acest târg decât în situaţia în care „preţul”

10

Page 11: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

cerut de C este inferior sau egal costului mediu pe care B ar fi dispus să-l plătească lui A pentru a găsi cutia punându-i întrebări.

B) soluţionare şi generalizare: Informaţia deţinută de C are deci un anumit preţ. Acest preţ reprezintă cantitatea de informaţie necesară cunoaşterii cutiei bune, iar această cantitate de informaţie este dată de numărul mediu de întrebări ce trebuie să fie puse pentru identificarea cutiei-ascunzătoare şi va fi notat cu „I”:

a) dacă N = 1, atunci I = 0, ceea ce înseamnă că nu există decât o singură cutie şi că nu e necesară nici o întrebare pentru a găsi obiectul ascuns;

b) dacă N = 2, atunci I = 1, ceea ce însemnă că trebuie întrebat dacă cutia bună este cutia nr. 1 (sau nr. 2, nu contează; dar numai o cutie din cele două poate face obiectul întrebării), situaţie în care răspunsul DA sau NU determină fără ambiguitate care este cutia căutată;

c) dacă N = 4, atunci I = 2: se întreabă dacă cutia poartă numărul 1 sau 2, răspunsul permiţând apoi eliminarea a două dintre cutii şi mai e suficientă o ultimă întrebare pentru a găsi care este cutia bună dintre cele două rămase în discuţie;

d) dacă N = 2k, atunci I = k: se scriu numerele cutiilor în baza 2, numerele având mai mult de k cifre binare, iar pentru fiecare rang al acestor cifre întrebăm dacă cutia căutată are cifra 0 sau cifra 1, după k întrebări ajungând să determinăm toate cifrele binare ale cutiei bune, adică

I = log2(N),

dar această înformaţie nu se produce decât în cazul unor N evenimente echiprobabile (ceea ce e echivalent cu a pune k întrebări, fiecare întrebare având ca scop de a diviza, succesiv, cu 2 numărul cutiilor luate în considerare – metoda dihotomiei);

2) calcularea informaţiei relativ la un eveniment (sau un simbol):

A) problematizare: Să presupunem, în continuarea exemplului anterior, că sunt colorate cutiile şi că există n cutii sunt roşii. Să presupunem, de asemenea, că C ştie că obiectul este ascuns într-o cutie de culoare roşie. Care este preţul acestei informaţii?

B) soluţionare:

a) fără informaţia că obiectul este ascuns într-o cutie de culoare roşie, preţul de plătit este log (N) şi reprezintă preţul pe care B este dispus să-l plătească lui A (punându-i întrebări);

b) pentru a se înzestra cu această informaţie de la C, preţul plătit de B nu este log(n), adică atât cât cere C pe informaţia sa: preţul înformaţiei (p) „cutia căutată e roşie” este

11

Page 12: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

p = log (N) – log (n) = log (N/n),

fiind singurul pe care B este dispus să-l plătească pentru această informaţie oferită de C (deorece este dispus să plătească doar informaţia care elimină din discuţie cutiile de altă culoare decât cele roşii unde este ascuns obiectul, găsirea cutiei-ascunzătoare urmând să o facă prin întrebări de tipul DA-NU privind cutiile roşii şi adresate lui A);

c) cantitatea de informaţie apare, astfel, definită ca o funcţie crescătoare de N/n

(unde N reprezintă numărul de evenimente posibile – în exemplu: numărul total de cutii, iar n cardinalul sub-ansamblului determinat cu ajutorul informaţiei – în exemplu: numărul cutiilor roşii) şi cum această funcţie crescătoare se află în raport invers proporţional cu probabilitatea găsirii cutiilor de culoare roşie în care ar putea fi ascuns obiectul (notată Pi) adică cu n/N, preţul sau costul informaţiei poate fi redat cu ajutorul funcţiei logaritmice ca

log N/n = log (n/N)-1,

ceea ce (cu ajutorul proprietăţilor logaritmului şi folosind Pi = n/N) se mai poate scrie

log (N/n) = log (1/ Pi),

însemnând că

I = - log (Pi);

d) măsurarea în biţi a cantităţii de informaţie de care B are nevoie pentru a găsi cutia-ascunzătoare se întâmplă atunci când n = 1 sau – altfel spus – când

Pi = 1/N,

adică atunci când dintre cutiile roşii reduse la două prin întrebări de tipul DA-NU este aleasă chiar cea în care a fost ascuns obiectul, de unde rezultă că

I = - log (1/N),

ce mai poate fi redat (pe baza proprietăţilor funcţiei logaritmice) cu formula

I = - log (N-1),

adică

I = log(N),

exact preţul pe care B era dispus de la început să-l plătească lui A (punându-i întrebări de tipul DA-NU): în cazul când Pi = 1/2 avem de-a face cu 1 alegere

12

Page 13: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

din 2 posibile (Pi = 0,5), unitatea de măsură a lui I fiind bit-ul, logon-ul (unitate de măsură introdusă de Shannon, de fapt sinonimă cu bit-ul), ori nat-ul (dacă utilizăm logaritmul natural în locul logaritmului în baza 2), ultimele două mai rar utilizate în terminologia actuală;

3) calcularea informaţiei unui şir sau ansamblu de evenimente (sau simboluri) prin raportarea la entropie (formula lui Shannon):

A) problematizare: Să presupunem de această dată că cutiile sunt de diverse culori, adică n1 cutii de culoare C1, n2 de culoarea C2, ..., nk cutii de culoarea Ck, iar n1 + n2 + ... + nk = N. Persoana C ştie de ce culoare este cutia căutată. Care este preţul acestei informaţii?

B) soluţionare:

a) informaţia „cutia este de culoarea C1” va fi de mărimea log (N/n1), iar această posibilitate are o probabilitate n1/N, iar informaţia „cutia este de culoarea C2” va fi de mărimea log (N/n2), iar această posibilitate are o probabilitate n2/N...ş.a.m.d.: preţul mediu al informaţiei este egal din punct de vedere matematic cu cantitatea de informaţie medie a unui ansamblu de evenimente, fiind dat de suma produselor dintre probabilitatea unei anumite culori şi mărimea informaţiei antrenată de acea probabilitate:

Preţul(s) = Inf(s) = n1/N log (N/n1) + n2/N log (N/n2) + ... + nk/N log (N/nk);

b) generalizând, dacă luăm în considerare k evenimente disjuncte, de probabilităţile P1, P2, ..., Pk, iar P1 + P2 + ... + Pk = 1 = Pi, atunci cantitatea de informaţie corespunzătoare acestei distribuţii de probabilitate este Pi log (1/P1

+ 1/P2 ... + 1/Pk): această cantitate se numeşte entropia distribuţiei de probabilitate şi permite măsurarea cantităţii de informaţie medie a unui ansamblu de evenimente (Inf), dar şi a incertitudinii lui informaţiomale (H):

Inf(s) = H = - ,

unde Pi reprezintă probabilitatea asociată evenimentului informaţional i, putând fi numită şi probabilitate informaţională.

● proprietăţile principale ale informaţiei astfel definite:

― proprietăţi evidenţiate de definirea informaţiei cu ajutorul calculului informaţional:

1) informaţia poate fi determinată sub raport cantitativ ca o scădere a deficitului de date: un mecanism, dispozitiv sau sistem produce aceeaşi cantitate de informaţie ca şi suma datelor pierdute prin funcţionarea sa, deficitul de date fiind o funcţie a informativităţii medii al unui (potenţial nelimitat) şir de simboluri produs de mecanism;

13

Page 14: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

2) informativitatea unei surse de informaţii (un mecanism, dispozitiv sau sistem) poate fi interpretată atât cantitativ, cât şi calitativ prin raportare la incertitudine ca un tip aparte de entropie (entropia = tendinţă legică şi spontană a sistemelor spre degradare calitativă sau spre reducerea complexităţii): drept entropie informaţională = potenţialitatea informativă a sursei respective;

3) informaţia poate fi interpreată cantitativ ca o entitate fizică, precum masa şi energia, dar diferită de ele calitativ: ca opusul entropiei fizice sau, altfel spus, ca negentropie informaţională;

― proprietăţi evidenţiate de definirea informaţiei cu ajutorul calculului economic:

1) informaţia este cuprinsă între 0 şi ∞, în vreme ce probabilitatea unui eveniment poate lua valori doar între 0 şi 1;

2) cantitatea de informaţie este invers proporţională cu probabilitatea unui eveniment (de exemplu, un eveniment cu probabilitate redusă conţine mai multă informaţie decât unul cu probabilitate mare: „Ninge în ianuarie” conţine mai puţină informaţie decât „Ninge în august” pentru un locuitor din emisfera nordică);

3) informaţia, ca şi probabilitatea unui eveniment, trebuie să fie aditivă, dar în vreme ce în cazul probabilităţii suma globală a probabilităţilor individuale este maxim 1, suma globală a informaţiilor nu se reduce la suma cantităţilor individuale de informaţie: această restricţie se datorează prezenţei logaritmului în formula de calcul a cantităţii de informaţie.

III. Informaţia în „reprezentarea sistematică” a teoriei semantice a informaţiei

● reprezentarea neformală a informaţiei în teoria semantică a informaţiei:

― informaţia = date bine formate şi purtătoare de sens sau semnificaţie privind lumea înconjurătoare, în baza cărora putem vorbi despre această lume şi o putem descrie sau modela, ele putând fi înţelese ca [Floridi, L. , 2005, pp. 1-3]:

1) răspunsuri preexistente, de care dispunem fără a avea întrebări de pus sau probleme de rezolvat (spre deosebire de înţelesul dat informaţiei în exemplul anterior cu moneda: număr de întrebări de tipul Da-Nu la care se poate da un răspuns): de pildă când, pentru a merge la serviciu, vrem să pornim motorul maşinii învârtind cheia în contact, dar la bord se aprinde o lumină roşie care indică faptul că bateria este descărcată, trebuie să urmăm instrucţiunile din manualul de utilizare, să dispunem de mijloace şi abilităţi tehnice pentru a remedia inconvenientul, adică trebuie să ne folosim de anumite date care să fie bine formulate şi să aibă un înţeles (să fie practic utilizabile), acestea reprezentând informaţia necesară rezolvării problemei apărute;

2) diferenţe relaţionale în baza cărora lumea devine inteligibilă şi manipulabilă, iar intervenţia asupra ei tehnic raţionalizabilă: 0 în loc de 1, o lumină roşie în locul unei limini de altă culoare, o baterie descărcată în loc de una încărcată etc.;

14

Page 15: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

― informaţia = noutatea adusă în plan semantic (planul raporturilor dintre mesaje şi obiecte) de fiecare enunţ din structura unui mesaj – fie luat enunţul separat, fie relaţionat cu alte enunţuri – şi definită, printre altele, ca:

1) măsură a conţinutului semantic, altfel spus a semnificaţiilor propoziţiilor care alcătuiesc enunţul respectiv: valorile (adevărul şi falsul) pe care le primesc aceste propoziţii atunci când descriu realitatea la care se referă (permiţând enunţului să o modeleze), motiv pentru care semnificaţiile propoziţiilor enunţului respectiv mai sunt cunoscute şi sub numele de „conţinut propoziţional”, uneori chiar de „conţinut informaţional”;

2) grad de confirmare a conţinutului semantic în funcţie de „adevărurile” sau „falsurile” vehiculate de enunţurile care alcătuiesc mesajul transmis:

A) dacă avem de a face cu un conţinut semantic adevărat, informaţia transmisă este justificată sau întemeiată şi vorbim de o informare temeinică sau veridică, numită uneori şi „informare publică”: informaţia adevărată = informaţia bazată pe fapte verificabile sau pe date ştiinţifice credibile (adică pe evidenţă);

B) dacă acest conţinut este fals, informaţia este neîntemeiată, actul informării putând fi:

a) de informare eronată/greşită sau falsă informare atunci când sursa informaţiei neîntemeiate nu este conştientă de natura acestei informaţii: informaţia falsă = informaţia care nu se bazează pe fapte verificabile sau pe date ştiinţifice credibile (adică pe evidenţă);

b) de dezinformare: atunci când sursa informaţiei neîntemeiate este conştientă de falsitatea informaţiei pe care o furnizează;

3) eliminare a incertitudinii: informaţia unei propoziţii p se află în raport invers proporţional cu probabilitatea ca p să fie adevărată şi este cantitatea de incertitudine de care utilizatorii propoziţiei respective sunt eliberaţi atunci când ajung să ştie că p este adevărată.

● reprezentarea formală a informaţiei în teoria semantică a informaţiei (sub denumirea generică de „informaţie semantică”):

― definiţia generală a informaţiei (ca „date + semnificaţie”) susţine că p este o instanţă a unei informaţii, înţeleasă ca şi conţinut propoziţional (informaţional sau semantic), dacă şi numai dacă [Floridi, L., 2004, p. 11]:

1) p constă dintr-una sau din mai multe (să zicem: n) date: d, pentru n ≥ 1;

2) datele din p sunt bine formate: bfd;

15

Page 16: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

3) datele bine formate sunt purtătoare de semnificaţie (încărcate de semnificaţie), adică pot fi adevărate (1) sau false (0), altfel spus „informaţionale”: bfd = i, unde i = 1 sau i = 0;

4) datele informaţionale sunt veridice, deci având capacitatea de a fi numai adevărate: i = 1;

― definiţiile particulare ale informaţiei (ca şi „conţinut semantic”):

1) dezvoltările teoretice ale noţiunii de „conţinut semantic” care au condus la aceste definiţii ale informaţiei:

A) „conţinutul empiric” sau „factual” al unui enunţ este propus de teoria falsificării dezvoltată de K. R. Popper (Logik der Forschung: zur Erkenntnistheorie der modernen Naturwissenschaft, 1934):

a) conţinutul unui enunţ exprimă cantitatea de informaţie empirică care exclude posibilitatea propoziţiilor care-l alcătuiesc de a fi adevărate şi care, de aceea, reprezintă clasa falsificatorilor lui potenţiali;

b) conţinutul unei teorii este clasa falsificatorilor ei potenţiali, teoria fiind falsificată dacă există cel puţin o clasă nevidă de enunţuri bazice (fiecare alcătuit dintr-o propoziţie elementară şi negaţia ei) care sunt interzise de ea (altfel spus: dacă clasa falsificatorilor teoriei nu este vidă);

c) conţinutul unui enunţ, ca şi al unei teorii, este un conţinut empiric întrucât se determină prin referire la fapte în baza a 2 regularităţi cu caracter de lege:

c1) „cantitatea de informaţie empirică, adică conţinutul empiric al unui enunţ, creşte cu gradul său de falsificabilitate: cu cât un enunţ interzice mai mult, cu atât el spune mai mult despre lumea experienţei”;

c2) „fiind o măsură a capacităţii unui enunţ de a exclude anumite posibilităţi, conţinutul empiric este inversul probabilităţii (conţinut = improbabilitate) şi, de aceea, cu cât este mai mare, cu atât exclude mai multe posibilităţi”

B) „conţinutul logic” al unui enunţ este propus de teoria verificării (apoi a confirmării) dezvoltată de R. Carnap (The Logical Syntax of Language, 1937) şi pozitivismul logic (în general):

a) conţinutul unui enunţ este dat fie de sensul propoziţiilor din care este format (de ceea ce ele ne spun), fie de semnificaţiile acestor propoziţii (valorile lor de „adevăr” sau „fals”);

b) conţinutul unei propoziţii din alcătuirea unui enunţ figurează în conţinutul unei alte propoziţii conţinute de enunţul respectiv dacă şi numai dacă prima propoziţie este o consecinţă a celei de a doua;

16

Page 17: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

c) conţinutul unui enunţ, ca şi cel al unei propoziţii, este un conţinut logic întrucât se determină nu prin referire la fapte, ci prin analiza sensului şi semnificaţiei propoziţiilor cu ajutorul a 2 postulate:

c1) „dacă o propoziţie e logic deductibilă din alta, atunci conţinutul ei este cuprins în întregime în conţinutul acesteia din urmă”;

c2) „dacă conţinutul unei propoziţii este cuprins în cel al unei alte propoziţii, atunci prima propoziţie nu asertează nimic care să nu fie asertat de cea de a doua”;

C) „conţinutul semantic” al unui enunţ reprezintă o dezvoltare a noţiunilor de „conţinut empiric” (K. R. Popper) şi „conţinut logic” (R. Carnap) realizată de către R. Carnap şi Y. Bar-Hillel [An Outline of a Theory of Semantic Information, 1952]:

a) conţinutul unui enunţ este dat de consistenţa (necontradicţia) descripţiilor de stare dintr-un limbaj:

a1) dacă enunţurile sunt înţelese ca descripţii de stare (conjuncţii ce conţin un membru din fiecare pereche bazică de enunţuri, adică un membru din fiecare pereche formată dintr-o propoziţie elementară şi negaţia ei), atunci ele pot fi interpretate ca fiind cele mai tari consistente din limbajul respectiv, altfel spus ca având conţinutul semantic maxim: orice enunţ consistent este echivalent cu disjuncţia descripţiilor de stare din domeniul său şi este implicat de către oricare asemenea descripţie de stare;

a2) dacă enunţurile sunt înţelese ca disjuncţii (ce conţin ca disjuncţi câte o

propoziţie din fiecare pereche bazică de enunţuri), atunci ele pot fi interpretate ca fiind din punct de vedere al consistenţei cele mai slabe din limbajul respectiv, deci ca având conţinutul semantic minim: fiecare propoziţie elementară care nu este logic adevărată în acel limbaj implică cel puţin un astfel de enunţ, orice astfel de enunţ fiind echivalent cu conjuncţia tuturor enunţurilor cele mai slabe implicate de propoziţiile logic neadevărate din cadrul său;

b) conţinutul unui enunţ se identifică cu elementele de conţinut pe care propoziţiile din alcătuirea lui le implică:

b1) identificarea conţinutului enunţului s cu elementele de conţinut pe care propoziţiile din alcătuirea lui le implică este echivalent cu a identifica acel conţinut cu mulţimea descripţiilor de stare (notată p) cu care s este incompatibil, adică cu domeniul lui non-p;

b2) identificarea conţinutului enunţului s cu enunţurile pe care p le implică (întrucât descripţiile de stare sunt intenţionate a fi descrieri complete ale stărilor posibile ale universului investigat cu ajutorul limbajului nostru) revine exact la acelaşi lucru ca şi identificarea conţinutului lui s cu stările de lucruri incompatibile cu p;

17

Page 18: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

2) formulele cu ajutorul cărora definiţiile particulare ale informaţiei semantice sunt, de obicei, redate:

A) formulele „informaţiei surpriză” sau „neaşteptate”:

Inf(s) = - log Pi,

adică măsura cantităţii de informaţie a enunţului s atunci când el conţine singură propoziţie i adevărată (deci purtătoare de informaţie), unde Pi = probabilitatea ca enunţul s să fie adevărat, adică purtător de informaţie (de unde notaţia i pentru propoziţia informativă din cadrul său)

şi

Inf(s) = H = - ,

adică măsura cantităţii de informaţie a enunţului s atunci când el conţine un şir N de propoziţii i adevărate (deci N purtători de informaţie);

B) formula „informaţiei substanţiale” (substantive information):

cont(s) = 1 - Pi,

unde cont(s) = conţinutul enunţului s pentru intervalul de la 0 la 1 al probabilităţii Pi, iar Pi = probabilitatea ca enunţul s să fie adevărat (informativ sau, altfel spus, informaţional), redată de formula

Pi = 1- cont(s),

ceea ce ne permite să exprimăm – cu ajutorul funcţiei logaritmice şi pentru cazul când s conţine o singură propoziţie adevărată – relaţia formală dintre Inf(s)

şi cont(s) prin intermediul formulei:

Inf(s) = - log Pi = log (1- cont(s))-1 = log 1/1- cont(s),

interpretată în literatura de specialitate astfel: „cont(s) măsoară numărul absolut de posibilităţi pe care o anumită informaţie ne permite să le neglijăm, pe când Inf(s) măsoară numărul relativ de astfel de posibilităţi cu privire la numărul total de posibilităţi neeliminate anterior” [Grecu, C., 1975, p. 136].

● proprietăţile principale ale informaţiei astfel definite:

― teoria matematică a informaţiei pune semnul identităţii între informaţie şi comunicaţie, definindu-le „codificare, transmisie, stocare şi prelucrare de date” [Floridi, L., 2007, secţiunile 1.5, 1.8 şi 2.2]::

18

Page 19: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

1) datele definitorii pentru informaţia transmisă sunt numite date-cheie (date de bază) şi înţelese ca:

A) suma sau cantitatea detaliilor (ocurenţelor sau evenimentelor) din care se constituie un semnal, un simbol sau un mesaj, ori cu care se încarcă un spaţiu de memorie necesar saturării (satisfacerii) cererii de informaţie a informatului (fiinţă umană, animal, dispozitiv tehnic etc.);

B) simboluri neinterpretate (fără semnificaţie sau conţinut semantic) codificate în şiruri de semnale bine formate din punct de veder sintactic (al regulilor de combinare sau însumare), altfel spus data = informaţie minus semnificaţie;

2) datele definitorii pentru comunicaţie pot fi numite date informaţionale şi înţelese cantitativ ca opusul entropiei (ca negentropie informaţională) sau, altfel spus, ca grad de informativitate a unui mecanism (Inf(s)), dispozitiv sau sistem echivalent cantitativ cu incertitudinea (H) pe care o înlătură:

A) Inf(s) = H = media sumei de date receptate per semnal, simbol sau mesaj transmis;

B) Inf(s) = H = media corespunzătoare însumării deficitului de date a informatului înainte de receptarea datelor transmise de informator;

C) Inf(s) = H = media corespunzătoare potenţialului informativ al unei surse de informaţie

― teoria semantică a informaţiei defineşte informaţia ca suma datelor şi semnificaţiilor transmise printr-un enunţ sau mesaj (informaţia = date + semnificaţii):

1) datele primare, numite şi „informaţii primare”

A) datele de bază stocate pe un suport informaţional (spaţiu de memorie sau bază de date): de exemplu, un simplu şir de numere;

B) datele utilizate de un sistem de management al informaţiei conceput în general pentru a aviza în primul rând utilizatorul: cum ar fi cel folosit de un autoturism pentru a indica prin pâlpâirea luminii roşii starea bateriei, dar şi necesitatea încărcării bateriei;

2) datele secundare, numite şi „informaţii secundare”: sunt opusul datelor primare, manifestându-se fie prin absenţă (de aceea, ar putea fii numite şi „anti–date”: în exemplul cu autoturismul, faptul că motorul nu mai face zgomotul obişnuit), fie prin „tăcere” (de pildă, tăcerea unei persoane într-un anumit moment, poate fi foarte relevantă: absenta informaţiei poate fii foarte informativă);

3) metadatele: sunt indicaţii despre natura altor date (de obicei primare) şi descriu proprietati ca locaţia, formatul, actualizarea, disponibilitatea, restricţiile de folosire ş.a.m.d. (metainformaţiile sunt informaţiile despre natura informaţiilor: „«Bateria e

19

Page 20: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

descarcata» e un enunţ (un mesaj) codificat în limba română” fiind un exemplu simplu de metainformaţie);

4) datele operaţionale:

A) date ce vizeză operaţiunile întregului sistem de date şi performanţa sistemului: de exemplu, să presupunem că pe bordul masinii apare o lumină galbenă care, atunci când pâlpâie, indică faptul că sistemul de verificare al maşinii nu funcţionează bine;

B) date despre dinamica unui sistem de informaţii: faptul că lumina este aprinsă poate indica faptul că indicatorul bateriei descărcate nu funcţionează corect, acest fap subminând ipoteza că bateria este descarcată

5) datele derivate: datele care pot fi extrase din anumite date atunci când cele din urmă sunt folosite ca surse indirecte în căutarea unor modele, indicii sau dovezi despre alte lucruri decât cele abordate în mod direct de înseşi datele în cauză: un exemplu familiar este cardul de credit întrucât din folosirea lui pentru plata unui bun compărat se pot deduce informaţii despre locul unde se află o persoană la un anumit moment;

IV. Complementaritatea abordărilor matematice şi semantice ale informaţiei

● nivelurile la care relaţia dintre teoria matematică a informaţiei şi teoria semantică a informaţiei poate fi evidenţiată [Pârvu, I. 1974, pp. 87-89 şi Pârvu, I. 1975, pp. 98-100]:

― nivelul informal, deosebirea ne-formală a celor 2 teorii fiind susţinută explicit de principalii lor întemeietori:

1) întemeietorii teoriei matematice a informaţiei au poziţii oarecum diferite întrucât, deşi pornesc de la „«ascetismul» semantic al teoriei informaţiei” (a face abstracţie de semnificaţia sau înţelesul unui mesaj), aproape fiecare dintre ei ─ „cu excepţia lui Cl. Shannon” ─ ajunge „să stabilească conexiuni semantice de care s-au separat la început” (evidenţierea încărcaturii cu semnificaţie sau cu înţelesuri din structura unui mesaj) [Pârvu, I. 1974, p. 87 şi Pârvu, I. 1975, p. 98]:

A) Claude E. Shannon [Shannon, Cl. E., 1948, p. 1]: „Deseori, mesajele au semnificaţie; ceea ce înseamnă că se referă la sau că sunt corelate conform unui sistem oarecare cu anumite entităţi fizice sau conceptuale. Aceste aspecte semantice ale comunicării sunt irelevante pentru problema inginerească” a comunicaţiei;

20

Page 21: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

B) Warren Weaver [Weaver, W., 1949, pp. 4-5]: „Cuvântul informaţie, în această teorie, este folosit într-un sens special care nu trebuie confundat cu folosirea lui obişnuită. În special, informaţia nu trebuie confundată cu semnificaţia. De fapt, două mesaje, dintre care unul pe deplin încărcat cu semnificaţie iar celălalt lipsit de orice înţeles, pot fi exact echivalente din această perspectivă asupra informaţiei”;

C) Norbert Wiener [Wiener, N., 1963, p. 17]: „În cazul tehnicii comunicaţiilor, importanţa fenomenului statistic este evidentă în mod nemijlocit. Transmiterea informaţiei este posibilă numai ca transmitere a unor alternative. Dacă este necesar să se transmită o singură posibilitate, atunci este mai bine şi mai uşor să se facă astfel încât să nu fie, în general, transmis nici un mesaj (...) Pentru a aborda tehnica comunicaţiilor sub acest aspect a trebuit să elaborăm teoria statistică a cantităţii de informaţie. În această teorie se ia ca unitate a cantităţii de informaţie cantitatea de informaţie transmisă ca unică alegere între alternative echiprobabile”;

2) întemeietorii şi promotorii teoriei semantice a informaţiei reduc sarcina principală a acestei teorii la „definirea riguroasă, într-un cadru conceptual determinat, a conţinutului semantic al unui enunţ şi a unor măsuri adecvate pentru acest conţinut” [Pârvu, I. 1974, p. 87-88, 102 şi Pârvu, I. 1975, p. 98-99, 111-112]:

A) Rudolf Carnap şi Yoshua Bar-Hillel [Carnap, R., and Bar-Hillel, Y., 1952, p. 223]: „Teoria noastră se situează explicit şi complet în cadrul semanticii”, unde importantă este „informaţia adusă de un enunţ, atât luat separat, cât şi în raport cu alte enunţuri, iar nu informaţia pe care un emiţător intenţionează să o comunice prin transmiterea unui anumit mesaj, nici informaţia pe care un receptor o obţine din acest mesaj”;

B) Jaakko Hintikka [Hintikka, J., “On Semantic Information”, in Hintikka, J., and Suppes, P. (eds.), Information and Inference, D. Reidel, Dordrecht-Holland, 1970, p. 24]: obiectivul central al teoriei semantice a informaţiei şi a probabilităţii îl constituie „dezvoltarea metodelor de discutare a probabilităţilor şi a conţinuturilor informaţionale ale generalizărilor (enunţuri închise)”, prin enunţuri închise Hintikka înţelegând „enunţuri generale, enunţuri fără termeni singulari liberi” [Hintikka, J., 1974, p. 187];

― nivelul formal, unde cele 2 teorii prezintă trăsături comune, dar şi diferenţe neexplicitate întotdeauna clar:

1) elemente comune:

A) ambele teorii pot fi privite ca definind în mod asemănător informaţia, deşi cu concepte diferite [Bar-Hillel, Y., 1970, pp. 510-511, 530]:

a) fie cu ajutorul conceptului de probabilitate ca frecvenţă relativă (în cazul teoriei matematice a informaţiei, care realizează o interpretare frecvenţială, statistică a probabilităţii): „frecvenţa relativă” desemnează estimaţia sau aşteptarea privind numărul ocurenţelor sau apariţiilor unui mesaj/enunţ s (şirul sau clasa de semnale sub care s se manifestă informaţional), ceea ce înseamnă de fapt estimaţia sau aşteptarea măsurată prin raportul dintre numărul

21

Page 22: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

semnalelor egal favorabile apariţiei mesajului/enunţului s şi numărul total de semnale egal posibile prin care s se transmite ca informaţie sau, altfel spus, se manifestă informaţional (motiv pentru care teoria matematică a informaţiei a mai fost numită şi „teoria transmiterii semnalelor”): cu cât un semnal este mai puţin predictibil, cu atât popartă mai multă semnificaţie;

b) fie cu ajutorul conceptului de probabilitate ca grad de confirmare (în cazul teoriei semantice a informaţiei, care realizează o interpretare inductivă, logică a probabilităţii): „probabilitatea” este înţeleasă mai rar ca frecvenţă relativă, de obicei ea fiind definită ca grad de confirmare al conţinutului unui mesaj/enunţ s, adică al clasei tuturor descrierilor sau descripţiilor de stare excluse de acest mesaj/enunţ (clasă numită „informaţie semantică” sau „conţinut semantic”, prin descripţie de stare înţelegându-se conjuncţia enunţurilor selectate câte unul din fiecare pereche de enunţuri elementare ─ o afirmaţie şi negaţia ei, alternativă numită „pereche de bază” sau „bazică” ─ pentru a transmite informaţie sau a se referi la un fapt sau eveniment atomar dintr-o stare reală);

B) ambele teorii „pot fi privite ca interpretări diferite ale aceluiaşi sistem formal, şi anume ale calculului informaţiei” [Bar-Hillel, Y., 1970, pp. 529, 533], indiferent de formulele utilizate [Hintikka, J., 1970, p. 4, Grecu, C., 1975, p. 132, Pârvu, I. 1974, p. 88 şi Pârvu, I. 1975, p. 99]:

a) cantitatea de informaţie a mesajului/enunţului s, notată aici cu inf(s), poate fi redată prin formula:

Inf(s) = log(1/p(s)) = – log p(s),

unde s este mesajul/enunţul transmis, p(s) este măsura frecvenţei relative sau a probabilităţii lui s de a se manifesta (realiza) ca semnal, iar logaritmul (log) este luat în baza 2 (motiv pentru care 2 nu se mai scrie, ci se subînţelege), informaţia măsurându-se astfel în cifre binare ─ „binary digit” ─ sau, mai pe scurt zis, în biţi, adică în:

a1) unităţi de informaţie ce se obţin, fiecare, în urma eliminării nedeterminării conţinute de un experiment care pune în evidenţă numai 2 posibilităţi egal probabile [Gâlea, D. şi Leon, F., Adresa de Internet: http://eureka.cs.tuiasi.ro/~fleon/curs_ia.htm, p. 15];

a2) unităţi de informaţie care, fiecare, îmbracă forma unei opoziţii binare fundamentale ce poate fi redată formal prin 0 : 1; de exemplu, „Dacă luăm un dicţionar de 250.000 de cuvinte, putem spune că fiecare cuvânt conţine 18 biţi de informaţie (informaţia, să nu uităm, se referă la predictibilitatea cuvântului în sine, şi nu la înţelesul cuvântului). Aceasta deoarece suntem nevoiţi să alegem între « Se află în prima jumătate? » (0) sau « Se află în a doua jumătate? ». Să răspundem de 18 ori la aceste întrebări ne ajută să identificăm orice cuvânt din dicţionar. Acest cuvânt poate apoi să fie exprimat binar ─ de exemplu, « 0110100 ... etc »” [O' Sullivan, T., Hartley, J., Saunders, D., Montgomery, M., Fiske, J., 2001, p. 341] ;

22

Page 23: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

b) cantitatea de informaţie a mesajului/enunţului s, notată tot cu inf(s), poate fi redată prin formula:

Inf(s) = H(p(s)) = - ,

unde i=1, iar H(p(s)) reprezintă măsura gradului de nederminare (incertitudine) a mesajului/enunţului s ─ numită de către Shannon „entropie”, această măsură este înţeleasă ca o funcţie de probabilităţi ale lui s, mai detaliat ca H(p1, p2, ..., pn);

2) diferenţe nu întotdeauna clar explicitate:

A) fiecare teorie interpretează altfel cantitatea de informaţie a mesajului/enunţului s:

a) potrivit adepţilor teoriei matematice a informaţiei, această cantitate poate fi doar egală cu H(p(s)), adică:

Inf(s) = H(p(s)),

caz în care –in p(s) log p(s) exprimă aşteptarea mesajului/enunţului s dintr-o

mulţime n de alternative reciproc exclusive cu probabilităţile p(s);

b) potrivit adepţilor teoriei semantice a informaţiei, această cantitate poate fi în general mai mare sau mai mică decât H(p(s)), dar şi egală uneori cu H(p(s)), adică:

Inf(s) H(p(s))sau

Inf(s) H(p(s)),

cazuri în care - exprimă media ponderată a conţinutului

mesajului/enunţului s, altfel spus media ponderată a conţinutului informaţional al mesajului/enunţului s;

B) fiecare teorie foloseşte un alt concept de probabiltate în definirea informaţiei:

a) teoria matematică a informaţiei utilizează conceptul de probabilitate statistică (leagându-l de noţiunea de incertitudine privitoare la un rezultat în cadrul unei serii mari de posibilităţi), fiind interesată în special de ceea ce se întâmplă într-o serie lungă în unele tipuri de situaţii de incertitudine care se pot repeta mereu: incertitudinea devine astfel o măsură a cantităţii de informaţie, referindu-se la raritatea producerii unor evenimente extralingvistice (semne, simboluri, semnale etc.) ce contează prin frecvenţa apariţiei lor într-un sistem de comunicare, iar nu prin semnificaţia lor;

b) teoria semantică a informaţiei utilizează conceptul de probabilitate logică (leagându-l şi pe acesta de noţiunea de incertitudine, dar privitoare la diferitele alternative pe care le putem distinge cu ajutorul mijloacelor de expresie de care dispunem), fiind interesată nu atât de interpretarea informaţiei semantice ca eliminare a incertitudinii, cât de interpretarea informaţiei semantice ca

23

Page 24: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

referindu-se la enunţurile unui limbaj şi la conţinutul semantic al acestora: ea s-ar afla în raport invers cu probabilitatea statistică, redând cantitatea de incertitudine de care suntem eliberaţi când ajungem să ştim că un enunţ s este adevărat.

● problematica în raport cu care se relaţionează teoria matematică a informaţiei şi teoria semantică a informaţiei:

― problema comunicării/comunicaţiei:

1) enunţarea acestei probleme în cadrul teoriei matematice a informaţiei are loc mai ales sub aspectul transmiterii/transportării sau receptării informaţiei dintr-un mesaj:

A) formularea lui Claude E. Shannon [Shannon, Cl. E., 1948, p. 1]: „Problema fundamentală a comunicaţiei este cum să reproduci într-un punct oarecare cât mai exact sau aproximativ un mesaj selectat într-un punct. (...) Aspectul semnificativ [al comunicaţiei] este că actualul mesaj e unul selectat dintr-o mulţime de mesaje posibile”;

B) reformularea lui Warren Weaver [Weaver, W., 1949, pp. 1-2]: „Cuvântul communication va fi folosit aici într-un sens foarte larg, spre a include toate procedurile prin care o minte poate afecta o alta. Acesta, desigur, cuprinde nu numai limbajul scris sau vorbit, ci şi muzica, pictura, teatrul, baletul, de fapt întregul comportament uman. În unele conexiuni poate fi dezirabil de a utiliza încă o definiţie largă a comunicării, anume una care să includă procedurile prin intermediul cărora un mecanism (să zicem un echipament automatizat în urmărirea unui avion şi în calcularea poziţiilor lui viitoare) afectează un alt mecanism (să zicem o rachetă ghidată în vânarea acestui avion)”; definind comunicarea în acest fel, Weaver identifică trei niveluri la care problema comunicării poate fi reformulată:

a) „nivelul A”, unde problema comunicării se formulează ca o „problemă tehnică”: „Cu ce exactitate pot fi transmise simbolurile comunicării?”;

b) „nivelul B”, unde problema comunicării se formulează ca o „problemă semantică”: „Cu ce precizie simbolurile transmise vehiculează semnificaţia dorită?”;

c) „nivelul C”: „Cu ce eficacitate semnificaţia receptată influenţează în sensul dorit conduita?”;

C) formularea lui Norbert Wiener [Wiener, N., 1971, Pagina de Internet: www.ciren.org/artifice/artifices_4/Actes/wiener.html]: „Pentru a înţelege că transportul de informaţie necesită mai mult decât un simplu transport fizic (...) să examinăm ambele tipuri de comunicare: transportul material şi transportul informaţiei însăşi. La ora actuală, se consideră că ea n-ar putea fi transmisă dintr-un loc într-altul decât în prima formă, iar nu sub formă de mesaje. Totuşi, chiar şi în prezent, comunicarea informaţiilor serveşte la transmiterea unei părţi din înţelesurile şi capacităţele noastre în orice colţ al lumii. Noi am sugerat deja (...) că

24

Page 25: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

această distincţie între transportul material şi transportul mesajelor nu este teoretic nici permanentă, nici de netrecut”;

2) enunţarea acestei probleme în cadrul teoriei semantice a informaţiei se face accentuând asupra conţinutului semantic al informaţiei vehiculate de enunţurile unui mesaj (asupra înţelesului sau semnificaţiei respectivelor enunţuri):

A) Rudolf Carnap şi Yoshua Bar-Hillel [Carnap, R., and Bar-Hillel, Y., 1952, p. 223] consideră că problema comunicării nu se poate reduce la transmiterea sau receptarea informaţiei dintr-un mesaj, dincolo de importanţa acestor utilizări („informaţia pe care un emiţător intenţionează să o comunice prin transmiterea unui anumit mesaj” şi „informaţia pe care un receptor o obţine din acest mesaj”): „O explicaţie a acestor utilizări e de o importanţă deosebită, dar convingerea noastră este că cea mai bună abordare a acestor explicaţii e analiza conceptului de informaţie semantică din moment ce, pe lângă faptul de a fi o aproximaţie prin abstracţie al conceptului viguros al informaţiei pragmatice, el poate foarte bune să dobândească valenţe independente”;

B) Jaakko Hintikka [Hintikka, J., 1974, p. 174-175] afirmă că problema comunicării poate fi redusă la „ceea ce un enunţ «spune» sau «asertează»”, adică la „informaţia pe care o transmite”, dar ca formă a „informaţiei semantice”: „conceptul de informaţie semantică pe care l-am definit aici poate fi numit informaţie de adâncime. Un concept diferit al informaţiei se obţine în acelaşi fel (...). Această nouă noţiune de informaţie poate fi numită informaţie de suprafaţă (...): informaţia de adâncime este informaţia totală pe care o putem extrage dintr-un enunţ cu ajutorul logicii. Informaţia de suprafaţă este informaţie pe care un enunţ ne-o dă înainte de a fi făcut asupra lui vreun lucru din multele pe care le putem face cu ajutorul logicii pentru a scoate înafară toată informaţia ce poate fi ascunsă în el. (...) Ceea ce un enunţ «spune» sau «asertează» trebuie să fie strâns conectat cu informaţia pe care o transmite. Această informaţie nu poate fi informaţia de adâncime, totuşi, deoarece un vorbitor în mod cert nu se poate spune că «asertează» ceva ce decurge la mare distanţă de enunţul pe care l-a pronunţat. Este mult mai natural să-l legăm de informaţia de suprafaţă a acestui enunţ. (...) Deci, ceea ce un om «spune» poate fi cu greu corelat cu informaţia de adâncime, pentru că despre un om se poate zice în mod normal că ştie cât de mare e informaţia pe care o dă altora explicit, deşi el nu ar pute fi întotdeauna capabil să anticipeze cantitatea de informaţie pe care altcineva ar putea fi capabil să o deducă logic din ceea ce spune el”;

― modelul comunicării/comunicaţiei:

1) modelul utilizat în teoria matematică a informaţiei a fost teoretizat din punct de vedere al elementelor sale componente şi reprezentat grafic de Shannon [Shannon, Cl. E., 1948, pp. 2-3] cu ajutorul unei „diagrame schematice a sistemului de comunicaţie în general”, apoi reluat şi problematizat pentru „nivelul A” al comunicării de către Weaver [Weaver, W., 1949, pp. 3-4, 9-13]:

A) reprezentarea standard a modelului, prin schema unui sistem de transmitere a informaţiei cu codificare după cum urmează:

25

Page 26: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

B) elementele componente ale modelului, care au primit următoarele interpretări:

a) sursa de informaţii, care produce mesajul sau secvenţa mesajelor de comunicat, fie în sensul larg de a selecta mesajul dorit (cuvinte scrise sau vorbite, picturi, melodii etc.) dintr-o mulţime de mesaje posibile (în cazul vorbirii orale această sursă de informţie este creierul uman), fie în sensul restrâns de mesaj alcătuit din:

a1) o secvenţă de litere, ca în sistemele de telegraf;

a2) o singură funcţie de timp, f(t), ca în radio sau telefonie;

a3) o singură funcţie de timp şi alte variabile, ca în televiziunea alb-negru, unde mesajul poate fi gândit ca o funcţie f(x,y,t) a două coordonate de spaţiu şi a uneia de timp;

a4) două sau mai multe funcţii de timp, precum f(t), g(t), h(t), caz în care poate avea loc o transmisie de sunet „tridimensională” sau o transmisie „multiplex”, adică transmiterea printr-un singur suport fizic („multiplex”, numit şi „cale de înaltă viteză”) a semnalelor provenind de pe mai multe canale individuale de transmisie;

a5) mai multe funcţii de mai multe variabile, de pildă ca în televiziunea color, unde mesajul constă în trei funcţii f(x,y,t), g(x,y,t), h(x,y,t) definite într-un „continuum tridimensional”;

a6) alte combinaţii care pot avea loc, cum ar fi de exemplu cea dintre o televiziune şi un canal audio asociat;

b) transmiţătorul, care acţionează asupra mesajului de aşa manieră încât să-l transforme într-un semnal convenabil pentru transmiterea pe orice canal:

b1) în telefonie, această operaţie constă doar în schimbarea intensităţii sunetului într-un curent electric adecvat;

b2) în telegrafie, această operaţie e una de codificare având drept rezultat o secvenţă de sunete, liniuţe şi spaţii corespunzătoare mesajului pe canal;

26

Page 27: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

b3) într-un sistem PCM multiplex (Modulaţia Puls-Cod, în engleză Pulse-Code Modulation, pe scurt PCM, a fost primul sistem de comunicaţie digital folosit pentru transmiterea analoagă a semnalelor temporal-continue), această operaţie îmbracă forma compresiei diferitelor date (funcţii de vorbire) ale mesajului, a cuantificării şi codificării acestora astfel încât, prin interelaţionarea lor, să se construiască semnalul dorit;

b4) într-un sistem de modulare a frecvenţei, în televiziune sau în alte sisteme de comunicaţie, această operaţie se aplică mesajului devenind de o complexitate deosebit de mare în obţinerea semnalului;

b5) în vorbirea orală, această operaţie se identifică cu mecanismul vocal de producere a varietăţii sunetelor ce alcătuiesc mesajul (sistemul vocal + nervii aferenţi);

c) canalul, care este doar mediul folosit în transmisia semnalului de la transmiţător la receptor şi care poate fi:

c1) o pereche de fire de sârmă;

c2) un cablu coaxial;

c3) o bandă de frecvenţă radio;

c4) o rază de lumină;

c5) aerul, în vorbirea orală;

d) receptorul, care de obicei efectuează operaţia inversă celei realizate de transmiţător (reconstruirea mesajului pornind de la semnalul primit), punând la îndemâna destinatarului mesajul reconstituit (în vorbirea orală, receptorul este sistemul auditiv + nervii aferenţi);

e) destinatarul (destinaţia), ca persoană (lucru) pentru care mesajul este intenţionat (în cazul vorbirii orale, creierul persoanei căreia i-a fost adresat mesajul iniţial);

f) zgomotul, ca totalitatea schimbărilor ce intervin în semnalul transmis neintenţionate de sursa de informaţie, dar receptate la destinaţie ca distorsionări ale mesajului:

f1) distorsiuni de sunet, în cazul telefoniei şi al radioului;

f2) distorsiuni ale formelor şi de lumină, în cadrul transmisiei televizate;

f3) erori de transmisie, în telegrafie ş.a.

27

Page 28: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

C) presupoziţiile principale ale modelului funcţionează ca principii ale lui, fiecare principiu justificând câte o calificare pe care a primit-o în literatura de specialitate, iar împreună cu celelalte justificând calificarea de „mecanicist” [Lohisse, J., 2002, pp. 27-28]:

a) „Primul principiu: modelul este liniar”, ceea ce înseamnă „a merge direct la ţintă”:

a1) toate elementele sale se înscriu în „liniaritatea mişcării (...) de la A la B”, mişcare ce are loc după un „sens unic” între cele două puncte (ce asigură „conservarea integrităţii mesajului”), deşi pot interveni factori exteriori („zgomote parazite”) care „să frâneze, să deturneze, să contrarieze mişcarea”;

a2) zgomotele parazite sunt doar „accidente” care nu împiedică mersul direct la ţintă, deşi „în orice comunicare există pierdere, din cauza structurii canalului, a lipsei de transparenţă a cunoştinţelor, a specificităţilor de limbă”;

b) „Al doilea principiu: modelul este secvenţial”, traducându-se „printr-o serie de operaţii succesiv analizabile”:

b1) succesiunea are loc după „o ordine obligatorie”, potrivit căreia „subiectul A îşi formulează mesajul, îl aşează pe canal”, iar „mesajul ajunge la subiectul B, asupra căruia efectul se face resimţit”,

b2) „unităţile” succesiunii (ca elemente structurale ale procesului de comunicare) sunt identificabile în paşii („momente” diferite ale acţiunii”) de transmitere a mesajului, astfel încât „mesajul precedă efectul, emiţătorul (transmiţătorul) iniţiază comunicarea, fraza are un început şi un sfârşit etc.”;

c) „Al treilea principiu: modelul este atomist”, adică presupune „exterioritatea şi separarea elementelor constitutive”:

c1) „unităţile” sau elementele constitutive ale modelului „nu se întrepătrund”: subiecţii comunicării diferă unul de celălalt, mesajul diferă de canal ş.a.m.d.;

c2) „unităţile” din structura mesajului sunt „discrete” (separate) sau „discontinui” (neîntrerupte): „există fraze, cuvinte, secvenţe, fotograme etc.”;

d) „Al patrulea principiu: modelul este referenţial”, redând printr-„o anumită formă”, cel mai adesea ca „semne”, obiectele şi ideile care fac obiectul transmisiei:

d1) semnele prin care reprezentăm obiectele şi ideile „pentru a putea fi transmise” sunt „simulacre sau copii, semne convenţionale”;

28

Page 29: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

d2) semnele prin care reprezentăm obiectele şi ideile „pentru a putea fi transmise” sunt posibil de studiat „în plan teoretic şi abstract (...) independent de protagoniştii actului de comunicare”;

2) modelele utilizate în teoria semantică a informaţiei au fost adaptate după cel standard al teoriei matematice a informaţiei, accentuându-se asupra conţinutului semantic al mesajului transmis şi fiind descris de în termenii următori:

A) modelul propus de Bar-Hillel [Bar-Hillel, Y., 1970, pp. 515-517, 535-536] pune accent nu atât pe elementele lui structurale, cât pe „operaţiile” care-l fac funcţional:

a) din punct de vedere „structural”, modelul integral al unui proces complet de comunicare/comunicaţie poate fi reprezentat cu ajutorul următoarei formule:

F*C*S*RSCF (m),

unde m este mesajul sau enunţul transmis, privit din punct de vedere al conţinutului său (nu al formei), iar F*, C*, S*, R, S, C, F suntoperaţiile implicate în transmisia lui m;

b) din punct de vedere „operaţional”: „Un proces complet de comunicaţie poate fi descris în forma următoare.

Fie F operaţia de punere a limbii obişnuite în formă funcţională;Fie C operaţia de codificare printr-o secvenţă de simboluri;Fie S operaţia de transformare a unei secvenţe de simboluri într-o secvenţă

de semnale;Fie R operaţia de distorsiune a unei secvenţe de semnale în cursul

transmisiunii;Fie S* operaţia de transformare a unei secvenţe de semnale într-o secvenţă

de simboluri;Fie C* operaţia de decodificare a unei secvenţe de simboluri în limbaj

funcţional;Fie F* operaţia de punere a limbajului funcţional în formă obişnuită.”;

c) funcţionalitatea modelului poate fi evidenţiată în cel puţin doi paşi:c1) pornind de la modalităţile în care a fost şi trebuie să fie cercetat de

susţinătorii lui (în special, de inginerii de comunicaţii):

c1') din perspectiva teoriei matematice a informaţiei: „Unii ingineri de comunicaţii preferă să se mărginească la cercetarea operaţiilor S, R şi S* menţionate aici, adică la ceea ce am propus să se numească teoria transmiterii semnalelor” (în loc de teoria matematică a informaţiei);

c1'') din perspectiva teoriei codurilor: „Alţii, dându-şi seama de faptul că eficienţa globală a comunicaţiei depinde şi de codificare, ar vrea să includă aici C şi C* şi ar ajunge astfel şi la cercetarea a ceea ce am putea numi teoria codării (şi decodării)”;

29

Page 30: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

c1''') din perspectiva ingineriei lingvistice (actualmente numită şi „lingvistică computaţională”): „Alţii ar putea insista, de asemenea, asupra faptului că procesul de funcţionalizare a limbajului obişnuit este şi el relevant, şi astfel ar mai îngloba în domeniul preocupărilor lor F şi F*, ei meritându-şi denumirea de ingineri de limbaj sau tehnicieni de limbaj, iar domeniul lor meritându-şi, poate, denumirea de inginerie lingvistică”;

c1iv) din perspectiva semioticii: „Fără îndoială, inginerii limbajului vor înţelege rapid că trebuie să cunoască ceva despre mesajele m înseşi, ca să le poată transforma eficient în F (m) şi vor ajunge astfel la studierea lingvisticii teoretice, a logicii şi semanticii ca subdomenii ale teoriei generale a semnelor, adică ale semioticii, sau, cel puţin, vor ajunge să coopereze cu savanţii specializaţi în aceste domenii”;

c1v) din perspectiva diferitelor domenii practice de activitate: „În sfârşit, pentru asigurarea unui sistem eficient de comunicaţii între piloţi şi operatorii de la turnul de control, să spunem, cel puţin unii proiectanţi ai sistemului vor trebui să fie familiarizaţi cu aviaţia, după cum pentru creşterea eficienţei vânzărilor în magazinele universale trebuie să recurgem la disciplina care studiază conducerea şi administrarea afacerilor etc.”

c2) ajungând la concluzia: „Comunicaţia pleacă de la evenimente care, în general, sunt de natură extralingvistică şi decurge prin verbalizare, reverbalizare, codificare, expediere, distorsiune, recepţionare, decodificare, reformulare, înţelegere şi acţionare pe această bază. Putem trata procesul în întreaga sa generalitate, după cum putem, de asemenea, să ne dedicăm unuia sau mai multor procese parţiale implicate aici”;

B) modelul standard reformulat de Luciano Floridi [Floridi, L., 2007, sundiviziunea 2.1, fig. 3] păstrează accentul pe elementele structurale, dar pleacă de la ecuaţia informaţia = date + semnificaţii:

a) reprezentarea schematică a modelului:

30

Page 31: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

b) înţelegerea sa intuitivă poate fi făcută reluând exemplul cu autoturismul: „Luni dimineaţa. Încerci să porneşti maşina dar nimic nu se întâmplă: motorul nu scoate nici macar un sunet. Liniştea motorului te îngrijorează. Îţi dai seama ca pâlpâie beculeţul care te anunţă că bateria ta e aproape moartă. După câteva încercări, te laşi bătut şi suni la Service. Spui că soţia ta a uitat să stingă luminile cu o seară înainte – e o minciună, tu ai uitat să le stingi, dar ţi-e prea ruşine să recunoşti - şi acum bateria e moartă. Mecanicul îţi explică modul de folosire a manualului de utilizare. Îţi explică ce metode să foloseşti pentru a porni motorul din nou. Din fericire, vecinul tău are toate sculele de care ai tu nevoie pentru remedierea situaţiei. Citeşti manualul, te uiţi la ilustraţii, urmăreşti instrucţiunile, rezolvi problema şi într-un sfârşit ai ajuns la lucru.”

b1) sotia este informer-ul (sursa de informaţie);

b2) mecanicul este informatul (informee = destinaţia informaţiei);

b3) „bateria e descărcată” este mesajul (semantic) sau informant-ul;

b4) procedura de codificare şi decodificare printr-un limbaj natural e, să zicem, limba engleză;

b5) sistemul telefonic este canalul de comunicare;

b6) zgomotul posibil funcţionează ca o informaţie perturbătoare;

b7) informatorul şi informatul împărtăşesc aceleaşi cunoştinţe despre simbolurile utilizabile (cunoscute ca alfabet, după cum am convenit cel englez);

C) presupoziţiile principale ale modelelor nou propuse rămân neschimbate, în ultimă instanţă aceste modele fiind tot de factură „mecanicistă”, dar la ele se adaugă şi altele (mai ales de factură semiotică şi cibernetică) care vor permite apariţia în timp a modelelor „organiciste”, modele care nu vor mai înţelege comunicarea doar ca

31

Page 32: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

transmitere liniară de mesaje, ci ca „relaţie interactivă şi totalitate dinamică” bazată pe următoarele principii [Lohisse, J., 2002, pp. 101-102]:

c1) „Primul principiu: modelul este circular şi complex”:

▪ circularitarea înlătură ideea de transmitere circulară a mesajului comunicat, întrucât comunicarea este concepută fără „început” şi „sfârşit”, ca un „contact” continuu, sistemic între elementele sale componente: „ne situăm în comunicare cam ca peştele care se află în apă”;

▪ complexitatea comunicării este una sistemică, potrivit lui Edgar Morin „sistemul creează complexitatea, menţine complexitatea, dezvoltă complexitatea”: termenul „complex” nu este sinonim cu termenul „complicat”, iar „noţiunea de complexitate se bazează pe ideea imprevizibilităţii: din interiorul sistemului poate să apară un sens neprăvăzut, fapt care îndepărtează postulatul determinismului”, odată cu ideile simpliăţii şi liniarităţii;

c2) „Al doilea principiu: modelul este interactiv”:

▪ interactivitatea este varianta feedback-ului cibernetic (bucla retroactivă care, potrivit lui Wiener, asigură controlul sistemului oferind informaţii despre rezultatele acţiunii lui): „reprezintă acţiunea reciprocă prin care se transformă comportamentul sau natura componentelor”;

▪ interactivitatea înlătură „viziunea analitică, legătura de la cauză la efect nu mai este unică şi obligatorie”, potrivit lui Gregory Bateson schimbându-se prin comunicare nu doar raporturile cu ceilalţi, ci şi raporturile cu noi înşine: „analiza nu mai trebuie să descrie ceea ce se spune sau se face, ci să vadă actul de comunicare în desfăşurarea lui”;

c3) „Al treilea principiu: modelul ia în calcul totalitatea, inclusiv contextul”:

▪ totalitatea face din sistem „un tot ireductibil la suma componentelor lui”: ea „implică ideea de organizare, de strângere a relaţiilor pentru obţinerea unor calităţi pe care componentele nu le au”;

▪ contextul reprezintă mediul în care are loc procesul comunicării: „comunicarea înseamnă inserarea unui subiect complex într-un mediu la fel de complex”, astfel încât „subiectul face parte din mediu, iar mediul, din subiect”;

c4) „Al patrulea principiu: modelul este relaţional”:

▪ relaţia semnelor în comunicare este una de exprimare din interior, nu de reprezentare exterioară a persoanelor, lucrurilor şi obiectelor;

▪ relaţia semnelor cu persoanele, lucrurile şi obiectele ce intervin în comunicare este de reciprocitate, toate „exprimă şi sunt exprimate”.

32

Page 33: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

V. Principalele opţiuni teoretice împărtăşite de cele două ipostaze ale teoriei informaţiei

● problema avută în vedere de aceste opţiuni [Irimie, I., 1983, pp. 2-6]:

― întrebarea prin care se formulează: „Ce este informaţia?”

― răspunsurile date la această întrebare:

1) informaţia = opusul nedeterminării (stare subiectivă de incertitudine);

2) informaţia = opusul redundanţei;

3) informaţia = opusul entropiei fizice;

4) informaţia = opusul sau complementara materiei (substanţei şi energiei).

● opţiunile preponderent funcţionaliste:

― informaţia = opusul nedeterminării, opţiune „născută din/şi reprezentând ideea filon a teoriei matematice a informaţiei” potrivit căreia „între informaţie şi nedeterminare (stare de incertitudine) avem de a face cu o perfectă dualitate” (cu cât mai multă informaţie, cu atât mai puţină nedeterminare sau incertitudine), modul de evaluare matematică a nedeterminării devenind şi mod de evaluare cantitativă a informaţiei (formulele matematice ale cantităţii de nedeterminare sunt şi formule matematice ale cantităţii de informaţie):

1) formula Inf(s) = log(1/p(s)) = – log p(s) este „măsura binară a cantităţii de informaţie” [Săhleanu, V., 1973, p. 37], putând fi numită din această cauză şi „informaţie binară” sau „bit informaţional”, cea din urmă expresie fiind o denumire improprie, dar sugestivă pentru faptul că teoria matematică a informaţiei nu identifică informaţia cu nedeterminarea, ci doar le relaţionează în virtutea aceleiaşi formule de calcul (ele coincid ca formulă, dar nu în fapt):

A) bit-ul ca unitate de măsură a informaţiei: cantitatea de nedeterminare pe care o conţine o stare compusă din 2 evenimente sau alternative egal probabile;

B) bit-ul ca „unitate de nedeterminare” [Gâlea, D. şi Leon, F., Adresa de Internet: http://eureka.cs.tuiasi.ro/~fleon/curs_ia.htm, p. 15]: cantitatea de informaţie care ne spulberă o nedeterminare sau o stare de incertitudine formată din 2 evenimente sau alternative egal probabile;

2) formula Inf(s) = H(p(s)) = - este expresia unei duble ipostaze a

informaţiei [Săhleanu, V., 1973, p. 39]:

A) „informaţia selectivă medie” pe un semn (semnal, simbol, literă etc.) din alcătuirea mesajului transmis:

33

Page 34: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

a) „selectivă”, întrucât fiecare semn este ales dintr-un repertoriu (tezaur);

b) „medie”, deoarece unele semne poartă mai multă informaţie decât altele;

B) „entropia informaţională”, termen având o justificare discutabilă:

a) „entropie”, pentru că H(p(s)) seamănă formal, dar şi prin modul de deducere, cu formula entropiei termodinamice („entropia unui câmp de probabilitate” sau, altfel spus, „câmpul de nedeterminare”);

b) „informaţională”, pentru a o deosebi de entropia termodinamică sau, în alţi termeni, pentru a deosebi „câmpul informaţional” al unui mesaj transmis de „câmpul de nedeterminare” al unui eveniment posibil;

― informaţia = opusul redundanţei, opţiune – ca şi cea precedentă – preponderent funcţională (spune ce face informaţia, nu ce este informaţia: mută accentul spre plusul de informaţie necesar eliminării redundanţei, dar informaţia rămâne informaţie chiar dacă este în întregime redundantă), regăsibilă atât la adepţii teoriei matematice a informaţiei, cât şi la cei ai teoriei semantice a informaţiei:

1) pentru adepţii teoriei matematice a informaţiei, redundanţa are un sens preponderent fizic („obiectiv”):

A) o comunicare/comunicaţie dobândeşte atributul informaţiei dacă şi numai dacă modifică într-un fel oarecare tezaurul informaţional (de semne purtătoare de informaţie) al destinatarului, comunicarea/comunicaţia care nu îndeplineşte condiţia enunţată mai sus fiind, cel puţin din perspectiva destinatarului, redundantă;

B) o comunicare/comunicaţie dobândeşte atributul redundanţei dacă şi numai dacă produce un „exces informaţional” (un plus de semne sau de semnale etc.) pe canalul de comunicaţie, necesar asigurării eficacităţii mesajului transmis în condiţiile de creştere a zgomotului sau erorilor de decodificare [Săhleanu, V., 1973, p. 29-30];

2) pentru adepţii teoriei semantice a informaţiei, redundanţa are un sens preponderent gnoseologic („subiectiv”, întrucât gnoseologia = teoria cunoaşterii):

A) o comunicare/comunicaţie este redundantă atunci când un sistem de semne sau de constructe de semne nu aduce un plus de cunoaştere sau de noutate (nu atacă zone ale necunoscutului sau nu vizează o realitate necunoscută), altfel spus un sistem este redundant atunci când între elementele sale există astfel de conexiuni încât din cunoaşterea elementului A putem deduce o parte din cunoştinţele despre elementul B;

B) o comunicare/comunicaţie este redundantă atunci când este doar o simplă repetare sau când se abate de la diversitatea extremă dintr-un sistem, acest tip de redundanţă fiind în unele cazuri utilă (precum principiul pedagogic: „repetiţia e mama studiului”) sau dăunătoare (prin risipa ce o poate angrena);

● opţiunile preponderent ontologice:

34

Page 35: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

― informaţia = opusul entropiei fizice, opţiune venind dinspre abordările cibernetice (de exemplu, Cibernetica lui Norbert Wiener) şi dinspre aplicaţiile fizicii matematice (precum cele avute în vedere de Léon Brillouin în Science and Information Theory, Academic Press, New-York, 1956), potrivit cărora discuţia despre ce este informaţia trebuie dusă în termenii obiectivităţii entropiei fizice (precum cel de „entropie termodinamică”) şi nu în cei ai subiectivităţii incertitudinii sau nedeterminării (ca cel de „entropie informaţională”):

1) definirea entropiei fizice

A) definirea neformală îmbracă 2 ipostaze principale:

a) definiţia entropiei fizice ca tendinţă legică şi spontană a sistemelor spre degradare calitativă;

b) definiţia entropiei fizice ca tendinţă a reducerii complexităţii sistemelor;

B) definiţiile formale, care exprimă cantitatea de degradare a energiei sistemelor (nulă în cazul particular al transformărilor reversibile) [Brillouin, L., 1958, p. 116, 157; Guillaumaud, J., 1967, p. 121, 126, 141, 143]:

a) formula Boltzmann-Planck este cea mai cunoscută dintre ele şi redă entropia unui sistem (izolat) aflat într-o stare primitivă (luată ca iniţială):

S = K log P,

unde S este entropia sistemului studiat, P redă numărul de complexiuni posibile ale sistemului a cărui entropie se caută („complexiuni” sau „complexităţi” = entităţi determinate de variabilele microscopice ale unui sistem care, spre deosebire de variabilele lui macroscopice, nu pot fi măsurate individual şi care, ca ansamblu de mărimi necunoscute, îi permite sistemului să ia o mare varietate de structuri cuantificate numite „complexiuni Planck”: de exemplu, poziţia şi viteza fiecărui atom, stările cuantice ale respectivilor atomi sau ale structurilor moleculare etc.), iar K este constanta lui Boltzmann exprimată în ergi/grad, centigrad etc.;

b) formula variaţiei de entropie a unui sistem care, prin intervenţie energetică, trece de la starea primitivă la o stare nouă:

ΔS = K log P0 – K log P = K log P0/P,

unde ΔS este variaţia entropiei (dacă P0 > P, variaţia este pozitivă, adică entropia creşte: o creştere a numărului de stări posibile P0 – practic, de complexiuni – corespunde pentru sistem unei creşteri a entropiei, dar este posibilă şi situaţia inversă), K log P0 exprimă entropia iniţială a sistemului, iar K log P redă entropia noii stări a lui, adică după modificarea stării lui energetice;

c) explicitarea acestor definiţii cu ajutorul „demonului” lui Maxwell [Guillaumaud, J., 1967, pp. 129-131]: „Să considerăm un recipient care conţine

35

Page 36: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

un gaz şi care este despărţit în 2 părţi printr-un perete pe care se găseşte un orificiu O. Acest orificiu poate fi închis cu un oblon V. Fie A jumătatea stângă a vasului şi B jumătatea dreaptă. Să ne închipuim, aşa cum a făcut Maxwell în 1871 expunându-şi «teoria căldurii», «o fiinţă ale cărei facultăţi sunt atât de perfecte încât poate urmări orice moleculă în mişcarea ei». Se ştie că moleculele unui gaz se află într-o mişcare neîncetată. Pe de altă parte, temperatura unui gaz este cu atât mai ridicată cu cât moleculele se mişcă mai repede. Acelaşi lucru se poate spune şi despre presiunea lui. Să ni-l închipuim pe «demonul» lui Maxwell aşezat în O şi manevrând oblonul V. Întrucât el vede moleculele individual, poate lăsa să treacă moleculele cele mai rapide din jumătate A în B, oprindu-le să treacă din B în A. Şi, dimpotrivă, el lasă să treacă din B în A moleculele cele mai lente. În felul acesta el crează o diferenţă de temperatură şi de presiune între B şi A, diferenţă care poate fi folosită pentru a produce lucru mecanic. Dacă am găsi un dispozitiv fizic în stare să joace rolul acestui demon, am putea realiza un perpetuum mobile (...) Construind acest dispozitiv, legăm mişcările oblonului de viteza moleculelor. Amplsarea moleculelor în incinta lui Maxwell va depinde de viteza lor, în timp ce fără dispozitivul de tipul «demonului» moleculele s-ar dispune la întâmplare , adică după schema cea mai probabilă (sau una foarte vecină), respectiv schema unui echilibru statistic între două părţi ale incintei. Vedem astfel că numărul conexiunilor scade de o parte şi de cealaltă a peretelui (deoarece, în cele din urmă în B nu mai rămân molecule foarte lente, iar în A molecule foarte repezi). Sub raport matematic entropia scade datorită acestui fapt. Dar ea scade, de asemenea, sub raport fizic, deoarece dispozitivul «demon» face ca sistemul să fie capabil să producă lucru mecanic, ceea ce era imposibil înainte de intervenţia lui”;

2) definirea informaţiei ca entropie negativă (negentropie = opusul entropiei sau, altfel spus, entropia cu semnul schimbat: N = – S: „După cum cantitatea de informaţie dintr-un sistem este o măsură a gradului de organizare a acestui sistem, tot astfel entropia unui sistem este măsura gradului lui de dezorganizare; una este egală cu cealaltă luată cu semnul opus” [Wiener, N., 1966, pp. 33-34]):

A) definirea neformală, care poate fi ipostaziată în 2 modalităţi [Brillouin, L., 1958, p. VIII;]: „Să considerăm o problemă care comportă un anumit număr de răspunsuri posibile atunci când nu posedăm informaţii speciale asupra situaţiei date. Dacă reuşim să obţinem o informaţie asupra problemei, numărul răspunsurilor posibile se va reduce, iar o informaţie totală poate să ducă chiar la un singur răspuns posibil. Informaţia este o funcţie a raportului dintre răspunsurile posibile înainte şi după ce ea a fost primită”; cele 2 modalităţi de ipostaziere sunt [Guillaumaud, J., 1967, pp. 103-104, 127-128]:

a) definiţia „informaţiei parţiale”: cazul obişnuit al informaţiei, în care informaţia este o funcţie a raportul dintre răspunsurile posibile înainte ca o ea să fie primită şi răspunsurile după ce ea a fost primită (altfel spus, „informaţia I este o funcţie crescătoare a raportului P0/P, în care P0 este numărul cazurilor posibile înainte de primirea informaţiei, iar P numărul cazurilor posibile după primirea informaţiei”; crescătoare: I „sporeşte când acest raport scade sau, ceea ce este acelaşi lucru, când creşte inversul acestui raport”);

36

Page 37: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

b) definiţia „informaţiei totale”: „cazul limită al informaţiei” (raportul dintre răspunsurile posibile înainte ca o informaţie să fie primită şi răspunsurile după ce informaţia respectivă a fost primită) atunci când răspunsurile posibile se reduc la 1, permiţându-ne să ajungem la certitudine;

B) definiţiile formale:

a) definiţia informaţiei parţiale:

I = K’ log P/P0 = – K’ log P0/P = – ΔS = ΔN,

unde K’ este o constantă arbitrară care nu depinde decât de unităţile de măsură alese (biţi, ergi etc; dacă I este exprimat în biţi, K’ = 3,65), P0 şi P sunt răspunsurile în egală măsură probabile (echiprobabile), considerate ca nişte complexiuni Planck (pentru a putea stabili relaţia dintre informaţie şi entropie), iar – ΔS şi ΔN exprimă variaţia negentropiei (negentropie parţială);

b) definiţia informaţiei totale:

I = K’ log 1/P = – K’ log P = – S = N

care este un caz particular al informaţiei parţiale când P0 = 1, iar – S, respectiv N sunt 2 notaţii pentru negentropia totală;

c) explicitarea acestor definiţii se face, de obicei, tot cu ajutorul „demonului” lui Maxwell, informaţia ca negentropie jucând rolul acestui demon:

c1) ca negentropie potenţială: ea nu poate juca acest rol, deoarece se rezumă strict la producerea de noutate (cunoştinţe), adică la informare;

c2) ca negentropie eficientă: ea joacă acest rol deoarece îşi asumă rolul producerii de acţiune (ghidează comportamentul sistemului producător sau consumator de noutate sau cunoştinţe, adică informat), în fond acţiunea pe care o călăuzeşte reprezentând modalitatea de trecere de la negentropia potenţială la negentropia eficientă;

― informaţia = opusul sau complementara materiei (substanţei şi energiei), opţiune venind tot dinspre abordările cibernetice (Cibernetica lui Norbert Wiener) şi dezvoltată îndeosebi de abordările materialiste, marxiste („materialist-dialectice”), structuraliste şi semiotice, potrivit cărora informaţia este informaţie, adică altceva decât substanţa sau energia:

1) principalele poziţii cu privire la acest mod de înţelegere a informaţiei pot fi deosebite după mai multe criterii, cum ar fi de exemplu criteriul numărului entităţilor considerate a sta la baza existenţei şi explicaţiei acesteia:

A) viziunea diadică: are o lungă tradiţie, considerând că totul în lume se compune din doar 2 entităţi existenţiale (substanţa şi energia) şi că explicaţia oricărei realtăţi

37

Page 38: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

trebuie făcută din perspectiva descrierii substanţei acestei realităţi şi a genurilor de energie pe care ea (substanţa) le produce;

B) viziunea triadică consideră că, cel puţin pentru înţelegerea unora dintre zonele realităţii, trebuie pusă în jos nu numai ştiinţele despre substanţă şi energie, ci şi ştiinţa informaţiei, potrivit cărora:

a) informaţia nu este o realitate universală precum substanţa şi energia, ea are o realitate insulară, oazică;

b) informaţia se supune altor legi de transformare şi conservare decât cele substanţial-energetice, motiv pentru care poate fi trasată o graniţă între informaţional şi energetic;

c) informaţia nu funcţionează – niciunde şi nicicând – în sine şi prin sine, ea este informaţie pentru un sistem (substanţialo-energetic) şi despre un sistem, fiind brodată întotdeauna pe solul interacţiuni substanţialo-energetice;

d) informaţia nu se autonomizează, ea are duble dependenţe faţă de substanţă şi energie (funcţionale şi ontologice), locul prin care se fixează pe suportul substanţial-energetic este cel al semnelor şi semnalelor (numite „purtători de informaţie”);

e) informaţia, odată fixată în semne şi semnale ca mesaj, devine conţinut şi esenţă a oricărei comunicări (o entitate nu doar potenţială, ci reală, existenţială), cunoaşteri (procesul cunoaşterii nu mai este doar un proces de receptare de informaţie, ci un proces al generării de informaţie: omul nu receptează doar informaţie despre realitate, ci-şi produce informaţia despre realitate) şi comportări (informaţia ghidează acţiunile fiinţelor şi maşinilor);

2) principalele ipostaze sub care se manifestă informaţia astfel înţeleasă:

A) informaţia structurală: informaţia care se dezvoltă în sânul materiei (substanţă + energie) sub forma unor structuri relativ invariante sau legi formale ale unui univers (fizic, biologic, psihic, social, economic etc.), manifestându-se ca un univers aparte („universul informaţional” = ansamblu de structuri sau legităţi brodat în ţesătura substanţial-energetică a celorlalte universuri şi orientându-le antientropic);

B) metainformaţia: informaţia despre schimbul informaţional dintre 2 sisteme A şi B, conţinută de un sistem C aflat în raport informaţional direct cu B şi indirect cu A (mijlocit de B, care devine semn sau semnal purtător de informaţie pentru C despre A şi despre schimbul informaţional dintre A şi B); metainformaţia joacă un rol esenţial în inteligenţa artificială.

VI. Aplicatii şi lecturi suplimentare

● aplicaţii:

38

Page 39: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

― antrenament prealabil: Intri într-o cabană şi vezi la stânga 7 paturi mici şi la dreapta o masă cu 7 scaune mici. Pe masă sunt 5 feluri de fructe: 1. Măr2. Banană3. Fragi4. Piersică5. Portocală

Ce fruct alegi? Alegerea ta spune multe despre tine!

Răspunsuri:

A. Măr = înseamnă că eşti o personă căreia îi plac merele.B. Banană = înseamnă că eşti o personă căreia îi plac bananele.C. Fragi = înseamnă că eşti o personă căreia îi plac fragii.D. Piersică = înseamnă că eşti o personă căreia îi plac piersicile E. Portocală = înseamnă că eşti o personă căreia îi plac portocalele.

― aplicaţia nr. 1 [„Test de verificare a raţionamentului logic - 10 septembrie 2006”, Examen de admitere INM - 2006]: Zamfir intervievează un număr de exact cinci dintr-un total de şapte candidaţi pentru un post – Georgescu, Imre, Luca, Necula, Orlov, Radu, şi Tănase. Zamfir îi intervievează pe cei cinci, unul câte unul, câte o singură data pe fiecare. Desfăşurarea interviului trebuie să îndeplinească următoarele condiţii:

Luca este cel de-al doilea sau cel de-al treilea intervievat.Unul dintre cei doi – Necula sau Tănase – este intervievat ultimul.Dacă este intervievat, atunci Georgescu este intervievat primul.Dacă amândoi sunt intervievaţi, atunci Imre este intervievat imediat după Radu.Dacă amândoi sunt intervievaţi, atunci Orlov este intervievat imediat după Radu.Dacă amândoi sunt intervievaţi, atunci Tănase este intervievat imediat după Necula.

1.1. Care anume dintre următoarele variante ar putea fi o listă completă şi exactă a candidaţilor pentru post în ordinea în care participă la interviu?

(A) Georgescu, Luca, Imre, Necula, Tănase;

(B) Georgescu, Luca, Imre, Radu, Necula;

(C) Georgescu, Radu, Orlov, Luca, Tănase;

(D) Imre, Georgescu, Luca, Orlov, Tănase

(E) Orlov, Radu, Luca, Necula, Tănase

1.2. Care anume dintre următoarele afirmaţii trebuie să fie adevărată?

39

Page 40: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

(A) Imre nu este primul intervievat.

(B) Orlov nu este cel de-al doilea intervievat.

(C) Imre nu este cel de-al treilea intervievat.

(D) Radu nu este cel de-al patrulea intervievat.

(E) Necula nu este cel de-al cincilea intervievat.

1.3. Dacă Georgescu nu este intervievat, atunci care anume dintre următoarele afirmaţiitrebuie să fie adevărată?

(A) Imre este cel de-al doilea intervievat.

(B) Luca este cel de-al doilea intervievat.

(C) Orlov este cel de-al doilea intervievat.

(D) Necula este intervievat ultimul.

(E) Tănase este intervievat ultimul.

1.4. Care anume dintre următoarele variante reprezintă o listă completă si exactă a numărului de ordine în care poate avea loc interviul lui Imre?

(A) primul, al doilea, al treilea

(B) primul, al treilea, al patrulea

(C) al doilea, al treilea, al patrulea

(D) primul, al doilea, al treilea, al cincilea

(E) primul, al doilea, al treilea, al patrulea

1.5. Dacă Orlov este primul intervievat, atunci care anume dintre următoarele afirmaţii ar putea fi adevărată?

(A) Imre este intervievat al treilea.

(B) Imre este intervievat al patrulea.

(C) Necula este intervievat al treilea.

(D) Radu este intervievat al doilea.

(E) Radu este intervievat al treilea.

40

Page 41: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

1.6. Care anume dintre următoarele variante reprezintă o listă completă şi exactă a candidaţilor care trebuie intervievaţi?

(A) Georgescu

(B) Imre

(C) Luca

(D) Georgescu, Luca

(E) Georgescu, Luca, Tănase

1.7. Dacă Imre este intervievat al patrulea, atunci care anume dintre următoarele afirmaţii trebuie să fie adevărată?

(A) Georgescu este intervievat

(B) Orlov este intervievat

(C) Radu este intervievat.

(D) Luca este intervievat al doilea.

(E) Necula este intervievat ultimul.

1.8. Dacă Georgescu este intervievat primul şi Orlov al doilea, atunci fiecare dintre următoarele afirmaţii ar putea fi adevărate, CU EXCEPŢIA:

(A) Imre este intervievat al patrulea.

(B) Radu este intervievat al patrulea.

(C) Necula este intervievat ultimul.

(D) Tănase este intervievat ultimul.

(E) Atât Necula cât şi Tănase sunt intervievaţi.

― aplicaţia nr. 2 [„Test de verificare a rationamentului logic - 10 septembrie 2006”, Examen de admitere INM 2006]: O agenţie de publicitate are exact şapte reprezentanţi – Fetzger, Jianu, Liptak, Mărăscu, Pîrvu, Rădoi, Suciu. Noua sa campanie publicitară este prezentată unui singur client de către unul sau mai mulţi dintre reprezentanţii săi, cu respectarea următoarelor condiţii:

Dacă campania este prezentată de către Fetzger, atunci prezintă şi Mărăscu şi Pîrvu.

41

Page 42: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

Dacă prezintă Jianu, atunci Rădoi nu prezintă.Dacă Rădoi nu prezintă, atunci prezintă Pîrvu.Dacă prezintă Liptak, atunci prezintă fie Jianu, fie Suciu, fie amândoi.Dacă prezintă atât Liptak cât şi Suciu, atunci Mărăscu nu prezintă. 2.1. Care anume dintre următoarele variante ar putea fi o listă completă şi exactă a reprezentanţilor care fac prezentări?

(A) Mărăscu, Suciu

(B) Fetzger, Mărăscu, Rădoi

(C) Fetzger, Liptak, Mărăscu, Pîrvu

(D) Mărăscu, Pîrvu, Rădoi, Suciu

(E) Jianu, Liptak, Mărăscu, Rădoi, Suciu

2.2. Dacă prezintă atât Liptak cât şi Rădoi, atunci care anume dintre următoarele afirmaţiiar putea fi adevărată?

(A) Fetzger prezintă.

(B) Jianu prezintă.

(C) Mărăscu prezintă.

(D) Exact doi dintre cei şapte reprezentanţi prezintă.

(E) Exact trei dintre cei şapte reprezentanţi prezintă.

2.3. Care anume dintre următorii reprezentanţi ai Agenţiei ar putea fi cel care prezintă singur?

(A) Fetzger

(B) Jianu

(C) Liptak

(D) Rădoi

(E) Suciu

2.4. Dacă Pîrvu nu prezintă, atunci care anume dintre următoarele variante reprezintă numărul maxim al reprezentanţilor care fac prezentarea?

(A) doi

42

Page 43: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

(B) trei

(C) patru

(D) cinci

(E) şase

2.5. Dacă exact doi dintre reprezentanţii Agenţiei fac prezentarea, atunci care anume dintre următorii reprezentanţi NU POATE fi unul din cei doi?

(A) Liptak

(B) Mărăscu

(C) Pîrvu

(D) Rădoi

(E) Suciu

2.6. Dacă Fetzger prezintă, atunci care anume dintre următoarele enunţuri trebuie să fie adevărat?

(A) Cel puţin trei dintre reprezentanţi prezintă.

(B) Cel mult patru dintre reprezentanţi prezintă.

(C) Nici Jianu şi nici Rădoi nu prezintă.

(D) Exact unul dintre Liptak sau Suciu prezintă.

(E) Fie Jianu fie Suciu prezintă, fie amândoi.

2.7. Care anume dintre următoarele variante NU POATE reprezenta o listă exactă parţială a reprezentanţilor Agenţiei care fac prezentarea ?

(A) Fetzger, Jianu, Pîrvu

(B) Fetzger, Liptak, Rădoi

(C) Fetzger, Pîrvu, Suciu

(D) Jianu, Liptak, Mărăscu

(E) Liptak, Pîrvu, Rădoi

2.8. Să presupunem că înlocuim condiţia că dacă Rădoi nu prezintă noua campanie publicitară atunci o face Pîrvu, cu condiţia că Pîrvu prezintă dacă prezintă şi Rădoi. Dacă

43

Page 44: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

toate celelalte condiţii rămân valabile, atunci care anume dintre următoarele variante NU POATE reprezenta o lista completă şi exactă a reprezentanţilor Agenţiei care fac prezentări?

(A)Jianu, Pîrvu

(B) Jianu, Mărăscu, Pîrvu

(C) Liptak, Rădoi, Suciu

(D) Liptak, Pîrvu, Suciu

(E) Mărăscu, Pîrvu, Rădoi

― aplicaţia nr. 3 [„Test de verificare a rationamentului logic - 10 septembrie 2006”, Examen de admitere INM 2006]: Fiecare din următorii cinci experţi - un avocat, un naturalist, un oceanograf, un psiholog şi un statistician – ţine câte o prezentare la o conferinţă. Cele cinci prezentări se desfăşoară una după cealaltă. Fiecare prezentare este susţinută numai într-una din următoarele patru limbi: franceză, germană, japoneză sau mandarină. Fiecare expert vorbeşte numai una dintre aceste limbi. Trebuie întrunite următoarele condiţii:

Două dintre prezentări sunt în aceeaşi limbă.Statisticianul ţine cea de-a doua prezentare în limba germană.Avocatul ţine cea de-a patra prezentare în mandarină sau în franceză.Oceanograful prezintă fie în franceză, fie în japoneză; la fel şi psihologul.Prima şi ultima prezentare sunt în japoneză.

3.1. Care anume din următoarele variante, ar putea reprezenta ordinea în care experţii îşi ţin prezentările, începând cu primul până la ultimul?

(A) naturalistul, psihologul, statisticianul, avocatul, oceanograful

(B) psihologul, statisticianul, avocatul, naturalistul, oceanograful

(C) psihologul, naturalistul, oceanograful, avocatul, statisticianul

(D) oceanograful, statisticianul, avocatul, naturalistul, psihologul

(E) oceanograful, statisticianul, naturalistul, avocatul, psihologul

3.2. Care anume dintre următoarele variante ar putea reprezenta ordinea în care experţii îşi ţin prezentările (şi limba în care le susţin), începând cu primul până la ultimul?

(A) naturalistul (japoneză), statisticianul (franceză), psihologul (germană), avocatul (mandarină), oceanograful (japoneză)

(B) naturalistul (japoneză), statisticianul (germană), oceanograful (franceză),avocatul (mandarină), psihologul (japoneză)

44

Page 45: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

(C) oceanograful (franceză), statisticianul (germană), psihologul (japoneză),avocatul (mandarină), naturalistul (japoneză)

(D) oceanograful (japoneză), naturalistul (franceză), statisticianul (germană), avocatul (mandarină), psihologul (japoneză)

(E) oceanograful (japoneză), statisticianul (germană), naturalistul (japoneză),avocatul (mandarină), psihologul (japoneză)

3.3. Care anume dintre următoarele variante reprezintă o listă completă şi exactă a experţilor astfel încât oricare ar putea fi unul dintre cei doi care fac prezentarea în japoneză?

(A) avocatul, oceanograful

(B) oceanograful, psihologul

(C) naturalistul, oceanograful, psihologul

(D) naturalistul, oceanograful, statisticianul

(E) naturalistul, oceanograful, psihologul, statisticianul

3.4. Care anume dintre următoarele afirmaţii ar putea fi adevărată?

(A) Prima prezentare este ţinută de către avocat.

(B) A doua prezentare este în limba franceză.

(C) A treia prezentare este în limba japoneză.

(D) A patra prezentare este în limba germană.

(E) A cincea prezentare este ţinută de către oceanograf.

3.5. Care anume dintre următoarele afirmaţii trebuie să fie adevărată?

(A) Oceanograful prezintă în japoneză.

(B) Oceanograful este primul care prezintă.

(C) Oceanograful este ultimul care prezintă.

(D) Psihologul nu ţine cea de-a treia prezentare în limba mandarină.

(E) Psihologul nu ţine cea de-a treia prezentare în limba franceză.

3.6. Dacă naturalistul prezintă în limba franceză, care anume dintre următoarele afirmaţii ar putea fi adevărată?

45

Page 46: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

(A) Oceanograful este al treilea care prezintă.

(B) Oceanograful este al cincilea care prezintă.

(C) Avocatul ţine prezentarea în limba franceză.

(D) Oceanograful ţine prezentarea în limba franceză.

(E) Psihologul ţine prezentarea în limba franceză.

3.7. Dacă avocatul prezintă în limba franceză, atunci care anume dintre următoarele afirmaţii trebuie să fie adevărată?

(A) Naturalistul este primul care prezintă.

(B) Naturalistul este al treilea care prezintă.

(C) Oceanograful este primul care prezintă.

(D) Oceanograful este al cincilea care prezintă.

(E) Psihologul este primul care prezintă.

3.8. Dacă oceanograful nu prezintă în limba japoneză, atunci care anume dintre următoarele afirmaţii trebuie să fie adevărată?

(A) Avocatul prezintă în limba mandarină.

(B) Psihologul prezintă în limba franceză.

(C) Naturalistul ţine prima prezentare.

(D) Psihologul ţine prima prezentare.

(E) Oceanograful prezintă la un moment oarecare înaintea naturalistului.

3.9. Să presupunem că înlocuim condiţia ca statisticianul să facă cea de-a doua prezentare în limba germană cu condiţia ca statisticianul să facă una din cele două prezentări susţinute în limba japoneză. Dacă toate celelalte condiţii iniţiale rămân valabile, atunci care anume dintre următoarele variante ar putea reprezenta ordinea în care experţii fac prezentările, începând cu primul şi sfârşind cu ultimul?

(A) avocatul, oceanograful, statisticianul, naturalistul, psihologul

(B) naturalistul, oceanograful, psihologul, avocatul, statisticianul

(C) oceanograful, statisticianul, naturalistul, avocatul, psihologul

46

Page 47: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

(D) psihologul, oceanograful, avocatul, naturalistul, statisticianul

(E) statisticianul, oceanograful, naturalistul, avocatul, psihologul

― aplicaţia nr. 4 [„Test de verificare a rationamentului logic - 10 septembrie 2006”, Examen de admitere INM 2006]: Un electrician angajat într-o întreprindere montează exact şapte componente – denumite S, T, V, W, X, Y şi Z - pe o placă de circuite în exact şapte etape consecutive; în fiecare etapă se montează o singură componentă. Fiecare componentă este montată o singură dată, fie manual, fie de un robot şi nu în ambele moduri. X este a patra componentă montată.Exact două componente sunt montate manual la un moment dat înainte de montarea componentei X.Nici o componentă nu este montată manual înainte de montarea componentei T. W este montată la un moment oarecare înaintea componentei T.Y este montată la un moment oarecare după ce sunt montate componentele Z şi S.Cea de-a şasea componentă este montată manual. 4.1. Care anume dintre următoarele afirmaţii ar putea fi adevărată?

(A) S este prima componentă montată.

(B) T este a treia componentă montată.

(C) Y este a cincea componentă montată.

(D) V este a şasea componentă montată.

(E) Z este a şaptea componentă montată.

4.2. Dacă există două etape consecutive în care componentele sunt montate de robot, atunci fiecare din următoarele afirmaţii ar putea fi adevărată CU EXCEPŢIA:

(A) S este montată manual.

(B) V este montată de robot.

(C) X este montată manual.

(D) Y este montată manual.

(E) Y este montată de robot.

4.3. Daca V este cea de-a treia componentă montată, atunci care anume dintre următoarele afirmaţii trebuie să fie falsă?

(A) S este cea de-a şasea componentă montată.

(B) Y este cea de-a şasea componentă montată.

47

Page 48: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

(C) Y este cea de-a şaptea componentă montată.

(D) Z este cea de-a cincea componentă montată.

(E) Z este cea de-a şasea componentă montată.

4.4. Care anume dintre următoarele variante ar putea fi succesiunea exactă a primelor trei componente, în ordinea în care au fost montate?

(A) W, T, S

(B) W, T, Y

(C) X, Y, Z

(D) Y, W, T

(E) Y, Z, S

4.5. Care anume dintre următoarele componente trebuie să fie montată de robot?

(A) S

(B) V

(C) W

(D) Y

(E) Z

4.6. Dacă V este montată imediat înaintea unei componente montate de robot, atunci care anume dintre următoarele afirmaţii trebuie să fie adevărată?

(A)S este montată de robot.

(B) V este montată manual.

(C) X este montată manual.

(D) Y este montată de robot.

(E) Z este montată de robot.

4.7. Care anume dintre următoarele variante constituie o listă completă şi exactă a componentelor, oricare din acestea putând fi cea de a şasea componentă montată?

(A) S, T, V

48

Page 49: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

(B) S, W, Z

(C) S, T, Y, Z

(D) S, V, Y, Z

(E) S, W, Y, Z

4.8. Care anume dintre următoarele componente trebuie să fie montată manual?

(A) S

(B) T

(C) V

(D) X

(E) Z

4.9. Dacă componenta S este montată de robot, atunci care anume dintre următoarele afirmaţii trebuie să fie adevărată?

(A) Z este montată manual.

(B) X este montată manual.

(C) V este montată manual.

(D) V este cea de-a treia componentă montată.

(E) Y este cea de-a şaptea componentă montată.

● lecturi suplimentare:

― Jérôme Segal, Le Zéro et le Un. Histoire de la notion scientifique d'information au 20° siècle, Paris, Éditions Syllepse, 2003:

1. Momente şi teze principale în abordarea evoluţiei teoriei informaţiei (traducere şi adaptare de Gheorghe Clitan după Jérôme Segal, Le Zéro et le Un. Histoire de la notion scientifique d'information au 20° siècle, Paris, Éditions Syllepse, 2003)

Se poate scrie istoria unei noţiuni ştiinţifice? Aceasta e întrebarea esenţială pe care, într-o primă instanţă, am reţinut-o pentru a încerca înţelegerea locului ocupat astăzi de noţiunea de informaţie nu numai în cadrul a numeroase discipline ştiinţifice, dar şi pur şi simplu în societăţile de tip occidental. Aşadar, în ceea ce o priveşte, nu poate fi vorba doar de o simplă istorie de idei, iar diversitatea contextelor istorice întâlnite impune o abordare densă care se doreşte a fi, în primul rând, o „descriere în profunzime” a nucleului diferitelor dezbateri

49

Page 50: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

ştiinţifice şi tehnice, iar apoi o modalitate de integrare într-o istorie mai generală, în acelaşi timp socială şi politică.

Numeroasele apariţii de cărţi asupra „societăţii informaţionale”, statutul comunicării ca marfă, dezbaterile implicând ideea de „informaţie genetică” sau publicitatea pentru un pretins „cyberspaţiu”, ori despre „autostrăzi ale informaţiei”, acestea vor fi tratate ca tot atâtea probleme ale societăţii care necesită o reflecţie profundă asupra originii admiraţiei faţă de ele şi care trebuiesc lămurite pentru a ajunge la o explicare a unei faţete a contemporaneităţii (caracterul ei informaţional-cognitiv) din perspectivă istorică.

Lămuriri preliminare

Dominanţa actuală a noţiunii de informaţie se bazează pe o legătură mai mult implicită cu o teorie ştiinţifică, teoria informaţiei, născută acum mai bine de cincizeci de ani, la sfârşitul anilor '40 ai secolului XX. Aceasta este teza principală susţinută în cele ce urmează. Amintita „teorie a informaţiei” desemnează în realitate un ansamblu − cel mai adesea heteroclit în ceea ce priveşte disciplinele implicate − de diferite discursuri marcate de O teorie matematică a comunicaţiei şi de Cibernetica, pentru a aminti aici principalele titluri de lucrări apărute în 1948, prima: o publicaţie a lui C. E. Shannon (1916-2001), iar a doua: o carte a lui N. Wienner (1894-1964).

Fie şi numai expresii precum cyberspace (şi derivatele sale cybernaute sau însăşi cybersexe) ne reamintesc importanţa acestor scrieri, în cazul de mai sus cibernetica fiind definită ca teorie generală a comenzii şi comunicării/comunicaţiei, conform subtitlului cărţii lui Wienner. Începând cu anii '20, în fizică, în statistitcă şi în domeniul cercetărilor asupra tehnicilor de telecomunicaţie, asistăm la definirea informaţiei ca noţiune ştiinţifică şi tehnică clar distinctă de sensul comun al termenului. Teoria informaţiei se află la confluenţa acestor trei domenii, motiv pentru care vom începe studiul cu anii '20.

Noţiunea ştiinţifică de informaţie apărea în anii '20 în diverse domenii. Începând cu sfârşitul celui de-al doile război mondial, inginerii, fizicienii şi matematicienii cad de accord în a înţelege prin informaţie drept principala mărime ştiinţifică ce caracterizează diversitatea modurilor de comunicare/comunicaţie, ce intervine în cryptologie, ce se înrudeşte ca formulă matematică cu entropia şi care ne permite să determinăm capacitatea de stocare sau de tratare a calculatoarelor, cu condiţia de a renunţa integral la orice dimensiune semantică a cuvântului „informaţie”. Doar această conceptualizare a informaţiei trebuie studiată pentru a pune în evidenţă legăturile care există între cibernetică şi teoria matematică a comunicaţiei/informaţiei, urmărind totodată şi influenţa diferitelor contexte naţionale (american, francez, german, sovietic etc.) în apariţia acestor teorii.

Odată cu dezvoltarea teoriei informaţiei după anii '50, asistăm la emergenţa unui anumit tip de unitate a cunoaşterii pe care s-ar cuveni a-l caracteriza arătând cum această unitate se însoţeşte cu o „cultură informaţională” care începe tot mai evident să se întrupeze. Aceasta reprezintă cea de-a doua teză cercetată în paginile care urmează. Teoria informaţiei intervine câteodată în însăşi fundamentele a numeroase discipline, orientând de o manieră decisivă evoluţia lor. O asemenea dezvoltare, uneori aproape „imperialistă”, a teoriei informaţiei este încă departe de a se fi încheiat. De aici, una dintre principalele dificultăţi ale studierii evoluţiei noţiunii de informaţie. Depăşirea ei presupune cercetarea modului în care s-au realizat diferitele dezvoltări ale teoriei informaţiei în fizică, în ştiinţele umane, în biologie, în diferitele domenii tehnice, dar mai ales în matematică.

O altă dificulate constă în mulţimea aplicaţiilor pe care această dezvoltare multidisciplinară a teoriei informaţiei le-a favorizat (în comunicare, ştiinţă, tehnologie ş.a.m.d.), complicând statutul istoric şi epistemologic al noţiunii ştiinţifice de informaţie. În

50

Page 51: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

fine, dar nu în ultimul rând, la aceste dificultăţi poate fi adăugată şi cea determinată de mizele ideologice, politice, sociale şi culturale pe care teoria informaţiei le-a înregistrat în perioada războiului rece sau a păcii „calde” ce i-a urmat (experimentul socialist, societatea informaţională capitalistă, societatea actuală a cunoaşterii, postmodernismul ş.c.l.)

2. Informaţia ca noţiune fizică(traducere şi adaptare de Gheorghe Clitan după Jérôme Segal, Le Zéro et le Un. Histoire de la notion scientifique d'information au 20° siècle, Paris, Éditions Syllepse, 2003)

Către definiţii cantitative ale informaţiei

Între 1922 şi 1935, fixând datele inevitabil un pic arbitrar, oamenii de ştiinţă şi inginerii introduc în propriile lor domenii de cercetare noţiunea de informaţie. La început, este vorba mai degrabă de reînsuşirea unui cuvânt din limbajul curent ca „inteligenţa” la inginerul de telecomunicaţii Harry Nyquist în 1924, ori direct a cuvântului „informaţie” la Gilbert Newton Lewis în 1930 sau la Ronald Aylmer Fisher începând cu anul 1922.

Aceşti trei oameni de ştiinţă vin din trei medii foarte diferite. Primul e un inginer american de telecomunicaţii, de origine suedeză, al doilea este un fizician născut în Statele Unite, iar ultimul e unul dintre reprezentanţii Şcolii statistice britanice, devotat cauzei eugeniste. Fisher este probabil cel care a căutat pentru prima dată un fundament pentru folosirea noţiunii de „informaţie”, plasând-o în cadrul teoriei sale a estimării statistice, fondată pe noţiunea de verosimilitudine (plauzabilitate). Ulterior, definirea noţiunii de „informaţie” ca şi concept ştiinţific devine o chestiune centrală, iar publicarea teoriilor lui Dennis Gabor sau Claude Shannon, în anii '40, constitue o etapă importantă. În aceste două teorii, „noţiunea” e prezentată sub un plus de mare rigoare, cu ajutorul unei teorii matematice, dar mai ales a unei abstractizări foarte înalte care face din referinţa la un sistem fizic concret doar un accesoriu.

Pentru că oamenii de ştiinţă care participă la această conceptualizare aparţin unor trei discipline distincte, le vom prezenta lucrările în cadrul problematicii la care fiecare se raportează, ceea ce nu înseamnă în nici un caz că nu există raporturi directe între cele trei discipline, care sunt fizica (de la teoria cinetică a gazului la mecanica cuantică), statistica aplicată la genetică (şi în particular la genetica populaţiilor) şi telecomunicaţiile. În plus, vom mai evoca de-a lungul expunerii noastre atât concepţia bayesiană a probabilităţilor din fizică, cât şi locul legii termodinamicii în scrierile statisticianului R. A. Fisher. Prezentarea acestor lucrări în ansamblul celor realizate în epoca respectivă în domeniile amintite permite contextualizarea mai bună a teoriilor ştiinţifice care, la o primă vedere, pot apărea în afara istoriei.

Problema care se pune atunci este de a şti dacă nu există comunicare indirectă între aceste trei discipline ştiinţifice marcate, de exemplu, în grade diferite, de un nou avânt al calcului probabilităţilor şi înscrise într-un context cultural mai larg. De aceeaşi manieră în care istoricul Thomas Kuhn a analizat descoperirea simultană a legii conservării energiei, între 1842 şi 1847, de către patru oameni de ştiinţă care nu comunicau între ei, vom arăta cum, în trei câmpuri ştiinţifice distincte, s-a ajuns la o definiţie ştiinţifică a noţiunii de informaţie.

Împărţirea pe trei domenii de cercetare se opune, de exemplu, la ceea ce propune istoricul ştiinţelor W. Aspray într-un articol despre „conceptualizarea ştiinţifică a informaţiei: o anchetă”. El distinge cinci domenii diferite: termodinamica, ştiinţa comenzii şi a comunicării/comunicaţiei ca nouă ramură a ingineriei electrice, fiziologia sistemului nervos,

51

Page 52: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

dezvoltarea behaviorismului ce a condus la considerarea creierului drept un organ de tratare a informaţiei şi, în sfârşit, studiul funcţiilor recursive în logica matematică.

Indiferent de viziunea adoptată, pentru a fi punctuali, trebuie demonstrat că teoria informaţiei, care cunoscuse începând cu sfârşitul anilor '40 o formidabilă expansiune în domenii extrem de diferite ale cunoaşterii, se sprijină pe o conceptualizare ce începe din anii '20 în domenii clar diferenţiate. Vom arăta astfel cum, chiar dacă Shannon pare a se prezenta în descendenţa directă a lucrărilor realizate în domeniul telecomunicaţiilor, teoria sa matematică a comunicaţiei este de asemenea influenţată de către publicaţiile anilor '20 din fizică şi din statistică. E suficient a ne gândi aici la analogia dintre informaţie şi entropie sau la considerarea mesajului ca o variabilă aleatorie (temă posibil foarte importantă încă pentru Wienner).

Această primă conceptualizare a noţiunii de informaţie exclude în întregime dimensiunea semantică a informaţiei şi, mai cu seamă, contribuie la apropieri inedite între domenii a priori îndepărtate. De aceea, amintita diviziune în trei părţi − fizică, statistică şi telecomunicaţii − urmăreşte în mod clar să pună în valoare partea novatoare a acestor apropieri. Vom vedea, de asemenea, că unul dintre obiectivele axiomatizării teoriei informaţiei, şi cu atât mai mult ale ciberneticii, îl constituie abolirea separării celor trei domenii.

Noţiunea de informaţie după teoria cintetică a gazelor: Lewis, Szilárd şi Smoluchowski

„Un surplus de entropie înseamnă întotdeauna o pierdere de informaţie şi nimic mai mult”. Iată ce putem citi în numărul din 6 iunie 1930 a revistei Science. Autorul, Gilbert N. Lewis (1875-1946) îşi consacră articolul „simetriei timpului în fizică” şi înţelege să demonstreze că ipoteza ireversibilităţii nu este necesară în fizică (nici chiar în chimie), ipoteza unei cauzalităţi temporare fiind după el consecinţa unei regretabile confuzii între sensul curent al cuvântului „timp” şi cel ştiinţific. Notăm deja aici că vom regăsi această problematică a utilizării de către oamenii de ştiinţă a unui cuvânt din limbajul obişnuit, bineînţeles împreună cu cuvântul „informaţie”, în discuţiile despre legitimitatea teoriei informaţiei. Pentru folosirea cuvântului de către Lewis, de care ne ocupăm aici, dacă ne referim la cea de-a 11-a ediţie a Enciclopediei Britanice (1910-1914), cuvântul „informaţie” înseamnă deja „comunicare a cunoaşterii” (cu un al doilea sens juridic). Dar să vedem în ce context a fost posibilă introducerea acestui cuvânt în fizică.

Pentru a arăta că reversibilitatea timpului poate fi presupusă, Lewis alegea patru discipline: mecanica, termodinamica, teoria radiaţiei şi electromagnetismul. În mecanică, limitându-se la teoriile newtoniene, i-a fost suficientă doar o coloană de text din articol pentru a-şi convinge cititorul, la fel ca şi în cazul teoriei radiaţiei unde se foloseşte de teoria cuantică a luminii a lui Einstein pentru a-şi atinge scopul. Pentru el, nici cazul teoriei electromagnetice nu constituie o sursă de mari dificultăţi întrucât el ne recomandă utilizarea teoriei potenţialului aşteptat şi ne aminteşte că tratamentul matematic al ecuaţiilor lui Maxwell oferă întotdeauna două soluţii simetrice, fizicienii arogându-şi dreptul − tot după el − de a elimina de fiecare dată soluţia care intră în conflict cu „concepţia lor comună a cauzalităţii”.

Termodinamica este cea asupra căruia expozeul său se restrânge, cu naturaleţe asupra discuţiei celui de-al doilea principiu. Nu e ceva extraordinar că el rescrie istoria acestui principiu prin formularea lui Gibbs, cea care înlocuieşte deja cuvântul „imposibilitate” prin „improbabilitate” în formularea lui Clausius, potrivit căreia e imposibil ca entropia să scadă. După aceea, el face aluzie la paradoxurile lui Loschmidt şi Poincaré-Zermelo referitoare la teorema H a lui Boltzmann, chiar dacă nu le citează numele, şi ajunge la o interesantă viziune

52

Page 53: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

subiectivă asupra entropiei: „Creşterea entropiei survine atunci când se trece de la o distribuţie continuă la o distribuţie necunoscută. Pierderea care este întotdeauna caracteristică proceselor ireversibile este o pierdere de informaţie”.

Pentru a ajunge la acest rezultat teoretic, el pleacă de la experimente de gândire. Gedankenexperimente-le au jucat şi joacă încă unu rol important în construcţia fizicii moderne. De exemplu, J. D. van der Waals (1837-1923) putuse astfel explica în 1911 al doilea principiu al termodinamicii pornind de la probabilităţile condiţionale ale lui Bayes. El imaginase fenomene de difuzie într-o cameră închisă şi, utilizând probabilităţile bayesiene, concluziona că acceptându-se principiile elementare ale calculului probabilităţilor, entropia trebuia să crească semnificativ pentru un sistem închis.

În ceea ce-l priveşte, Lewis pleacă de la exemplul amestecului jocului de cărţi şi utilizează o experiment de gândire calchiat pe cel al demonului lui Maxwell, cu trei molecule de gaz diferite, pentru a arăta că în virtutea principiului recurenţei, fenomenele de difuzie nu sunt ireversibile. El scrie că în acest experiment în care moleculele pot fi urmărite în mod individual îţi poţi „atribui privilegiul demonului lui Maxwell”. Nu vom zăbovi aici în detaliu asupra acestui celebru experiment de gândire, întrucât „Demonul lui Maxwell” este binecunoscut în literatura de specialitate.

E în general admis că în 1929, odată cu un articol încă celebru al ungurului Leo Szilard (1898-1964), putem asista la o primă exorcizare a demonului: dacă el însuşi este cel care poate măsura viteza unei molecule pe care o observă, el are nevoie de a fi „instruit” sau „informat” asupra acesteia, iar ceea ce poate fi calificat drept „informaţie” corespunde unui cost energetic şi entropic. Ori, după cunoştinţa noastră, fizicienii sau istoricii se referă de fiecare dată la traducerea engleză a articolului, dar aceasta se află, după cum vom vedea, la originea anumitor confuzii.

Instalat la Berlin după 1919, fizicianul ungur nu foloseşte decât două surse în articolul său: publicaţia sa precedentă din Zeitschrift fűr Physik, în 1925, şi textul unei conferinţe a fizicianului polonez Marjan Smoluchowski (1872-1917). În articolul său „Despre extensia termodinamicii la fenomenele de fluctuaţie”, Szilard anunţă deja într-o notă din josul paginii noua orientare a cercetărilor sale. Arătând că nu există mijloc sigur pentru a face să scadă entropia unui sistem închis, el precizează: „E uşor de conceput valoarea unei reflecţii care trimite deja la demonul lui Maxwell, contra interpretării actuale a celui de-al doilea principiu al termodinamicii care, date fiind prin urmare fenomenele de fluctuaţie, impune o validitate restrânsă: Dacă un demon aflat în serviciul nostru ar fi capabil să ghicească [erraten] de fiecare dată valorile unui parametru fluctuant şi ar fi capabil de intervenţii apropriate (prin însuşire de informaţie), atunci s-ar putea cu siguranţă construi, servindu-ne de serviciile lui, o mişcare perpetuă (un perpetuum mobile) de tipul doi. Noi, ca fiinţe umane, nu putem în ultimă instanţă ghici valoarea parametrului, dar putem să o măsurăm şi am putea astfel, cu rezultatul fiecărei măsurări, să pregătim o intervenţie apropriată. Aceasta ridică problema de a şti dacă, în acest fel, noi nu ajungem la o contradicţie cu interpretarea strictă şi dogmatică a celui de-al doilea principiu al termodinamicii.

Interpretarea „strictă şi dogmatică” la care el se referă poate fi citită în formularea generală a celui de-al doilea principiu potrivit căreia nu se poate ajunge niciodată la o scădere a entropiei. Calificativul „dogmatic” folosit de Szilard poate lăsa impresia că există o altă interpretare a acestui principiu, mai puţin cunoscută, care n-ar veni în contradicţie cu experimentul descris. E vorba atunci de interpretarea statistică a celui de-al doilea principiu care permite desigur a ţine cont de fenomenele de fluctuaţie.

Printre altele, avem aici o introducere la problema măsurii. Fiecărei măsuri îi corespunde un cost în materie de entropie, iar acţiunea măsurării propriu-zise modifică starea sistemului studiat. Dacă nu există cheltuială de energie, verbul „a măsura” se poate înlocui prin „a

53

Page 54: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

ghici”. Acesta din urmă este cuvântul utilizat de Szilard cu privire la demonul său, pentru erraten, care înseamnă deci a prevedea un rezultat fără nici un fel de măsurare, chiar dacă „a măsura” ar presupune o interferenţă, dând seama astfel de o stare de lucruri ireversibil schimbată. Măsurarea este cea care ne permite accesul la valorile paramentrilor şi care, prin aceasta, determină mijloacele noastre de acţiune. În lucrarea sa din 1929, Szilard ajunge la o cuantificare a costului acestei măsurări în termeni de energie şi de creştere a entropei: el arată că acest din urmă cost echivalează cu k log 2 (J/K) şi în aceasta constă, după noi, creditul esenţial ce poate fi acordat publicaţiei sale din 1929, alături de scoaterea în evidenţă a rolului esenţial jucat de „memorarea” realizată de aparatul de măsură. Restul e pe larg conţinut în scrierile lui Smoluchowski.

Să revenim deci la opera fizicianului polonez, evident anterioară celei a lui Szilard din moment ce acesta din urmă îşi susţine teza la Universitatea din Berlin în 1922, adică la cinci ani după moartea lui Smoluchowski.

Marjan Smoluchowski îşi face studiile la Universitatea din Viena unde primeşte diploma de doctor în 1895. Aşa cum se stipulează în prefaţa Operelor sale editate în 1924, el urmează „mai ales învăţătura profesorilor Exner şi Stefan, iniţiindu-se sub coordonarea lor în arta cercetării ştiinţifice; dar nu a avut niciodată ocazia de a pătrunde în intimitatea intelectuală a lui Boltzmann”. Părăsind Viena, el începe trei sejururi determinante pentru formarea sa: la Paris din noiembrie 1895 până în iulie 1896 în laboratorul lui G. Lippmann, când nu este la cursurile lui Poincaré sau ale lui Hermite, la Glasgow din septembrie 1896 până în aprilie 1897 primit de către Lord Kelvin şi, în fine, la Berlin din mai până în august 1897 pe lângă E. Warburg.

Lucrările sale asupra mişcării browniene sunt un pic umbrite de cele pe care Einstein le-a condus independent în aceeaşi perioadă (1905-1906), deşi ei şi-au adus în mod egal contribuţia la acceptarea ipotezei atomiste demonstrând că pătratul liberului parcurs mijlocit de agregate ar fi cel calculabil şi nu viteza, cum se credea până atunci. Teoria lui Smoluchowski putea nu numai să ia în discuţie coliziunile dintre particulele „browniene” şi moleculele înconjurătoare, dar şi să trateze cazul în care moleculele sunt supuse unei forţe cvasi-elastice.

De abia în lucrarea sa din 1912, publicată în Physikalische Zeitschrift, Smoluchowski face pentru prima dată legătura între problema demonului lui Maxwell şi cea a mişcării browniene. Aceste fenomene aleatorii opuneau un proces mecanic de funcţionare contra celui de-al doilea principiu al termodinamicii, dar nu făceau prin aceasta necesar apelul la capacitatea de distincţie a demonului. Printre diferitele procese automate pe care le imaginează în locul demonului, poate fi notat cazul unei roţi dinţate neînvârtindu-se decât într-un singur sens şi legată la un fir de torsiune. Acest exemplu este deja cel a lui Louis-Georges Gouy (1854-1926), pe care Smoluchowski nu-l citează totuşi şi care, încă din 1888, într-un articol apărut în Journal de Physique, imaginează un fenomen în cadrul căruia, din cauza mişcării browniene, al doilea principiu ar fi violat. S-ar datora aceasta mai degrabă faptului că demonul lui Maxwell „triază” moleculele sau întrucât nu s-a gasit un William Thomson care să califice drept „demon” mecanismul lui Gouy, decât faptului că articolul în chestiune a rămas prea puţin cunoscut? F. Bonsack aduce în 1961 argumente pentru cea de-a doua ipoteză. Care este pe de altă parte, raportat la subiectul expresiei „demonul lui Maxwell”, rolul „demonului” imaginat în 1812 de Laplace, această „(...) inteligenţă care, la un moment dat, ar cunoaşte toate forţele de care natura este animată şi starea respectivă a fiinţelor care o compun (...)?

Dar să revenim la Smoluchowski şi la discuţia al cărei text corespondent este reprodus după articolul din 1912. El adaugă „[că] n-ar fi exclus că acţiunea inteligenţei” (Das Wirken) provoacă o „compensare” a scăderii entropiei prin disiparea de energie, chiar dacă el

54

Page 55: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

precizează că o atare inteligenţă „depăşeşte cadrul fizicii”. Asemenea cuvinte, pe care le regăsim în numeroase scrieri ale acestei perioade (chiar mai mult, în interpretările paradoxurilor mecanicii cuantice), sunt în mod particular importane întrucât, aşa cum a demonstrat-o G. G. Granger, numeroase teorii vizând explicarea unor pretinse „fenomene paranormale” se sprijină la fel de mult pe noţiunea de informaţie (ca intermediară între materie şi conştiinţă).

Invitat în 1913 la Göttingen prin fundaţia Wolfskehl la o conferinţă organizată de către Hilbert despre teoria cinetică a gazului, Smoluchowski îşi precizează − în cadrul intervenţiei sale − ideile asupra importanţei observaţiei pe care demonul trebuie să o facă. Găsim în 1914, în actele conferinţei la care participase alături de Planck, Debye, Nernst, Sommerfeld şi Lorentz, că „fiinţa inteligentă” trebuie să fie „cu exactitate instruită” (unterrichtet) asupra moleculei pe care o observă. Cartea cu actele conferinţei pare să fi avut o largă difuzare şi ea este cea pe care Szilárd o citează în pagina a doua a articolului său. Ori, atunci când în ediţia originală a articolului lui Szilárd textul lui Smoluchowski ocupă două treimi de pagină, acesta este redus la un mic paragraf în traducerea englezească, restul presupunându-se deci ca fiind scris de către Szilárd. Se întâmplă ca pasajul vizat să fie chiar cel pe care noi îl cităm mai sus referitor la studiul lui Smoluchowski despre demonul lui Maxwell.

Mai mult, participiul german unterrichtet („instruit”) e tradus în engleză prin informed („informat”), lăsând să se creadă că Szilárd utilizează cuvântul informiert („informat”) care exista efectiv în epocă cu sensul pe care îl cunoaştem azi. De fapt, Smoluchowski este cel care scrie şi nimeni nu vorbeşte de informaţie! E vorba aici de erori mai mult decât regretabile care fac, de exemplu, ca în istoria lor a soluţiilor date la problema demonului lui Maxwell, Lef şi Rex să omită această referinţă la Smoluchowski (expunerea în chestiune publicată în 1914) din lista celor 223 de surse pe care le indică. Aceasta nu este încă prea jenant, dar atunci când citim în Dictionary of Scientific Biography din articolul despre Szilárd că… „Rezultatul muncii sale îl condusese la faimoasa sa publicaţie din 1929 care stabilea conexiunea dintre entropie şi informaţie şi anunţa astfel teoria modernă a ciberneticii” ...suntem îndreptăţiţi să ne mirăm, la fel ca şi când Lanouette, biograful fizicianului ungur, scrie „Szilárd a văzut elementele cheie ale teoriei informaţiei cu trei decenii înainte ca ea să devină populară”, fără ca măcar numele fizicianului polonez, Smoluchowski (care, murind în 1917, nu a avut „şansa” de a emigra în Statele Unite), să fie menţionat în cele 500 de pagini ale biografiei.

E interesant de a examina, sub acest aspect, locul dat acestei publicaţii a lui Szilárd în ceea ce denumim abuziv „autostrăzi ale informaţiei”. Pe pagina de întâmpinare (homepage) privind fizicianul american de origine ungară, se poate citi încă de la început textul următor: „Fiţi bineveniţi la pagina de internet Leo Szilárd unde fizicianul şi «conştiinţa ştiinţei» Leo Szilárd (1898-1964) reînvie în spaţiul informaţional. Ideile lui Leo Szilárd includ acceleratorul linear, cyclotronul, microscopul electronic, teoria informaţiei şi reacţia nucleară în lanţ. De egală importanţă era şi insistenţa sa asupra faptului că oamenii de ştiinţă acceptă o responsabilitate morală pentru consecinţele muncii lor. În scrierea sa din 1929 despre demonul lui Maxwell, Szilárd identifică unitatea sau «bitul» de informaţie. Word Wide Web-ul pe care navigaţi actualmente şi ordinatoarele care fac acest lucru posibil demonstrează importanţa ideii lui Szilárd multă vreme neapreciată”.

Acest lucru e pur şi simplu fantezist şi seamănă mai mult cu un mit fondator, aşa cum sunt cele privitoare la reţeaua Internet. Nu este vorba despre „bit” în articolul lui Szilárd, iar formula k log 2 pe care el o dă e fără îndoială mai puţin importantă pentru teoria informaţiei ce avea să vină decât expresia teoremei H a lui Boltzmann.

Iată deci pentru ce noi am preferat să începem această prezentare a diferitelor definiţii cantitative ale informaţiei din fizică prin lucrarea publicată de Lewis şi să utilizăm referinţele

55

Page 56: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

date de Szilárd cu scopul de a prezenta un pic mai pe larg opera lui Smoluchowski, adesea rău cunoscută. Punctul nostru de vedere referitor la presupusa nerecunoaştere în istoriografia tradiţională a importanţei operei lui Smoluchowski se află de altfel confirmat de către editorul unui volum în onoarea fizicianului polonez (ceea ce nu trebuie să ne mire!), dar şi de către istoricul american al fizicii cuantice Max Jammer. Acesta scrie în The Conceptual Development of Quantum Mechanics: „Concepţia lui Smoluchovski despre o inteligenţă care se află fără întrerupere în situaţia de cunoaştere a stării instantanee a unui sistem dinamic şi este astfel capabilă de a invalida cea de-a doua lege a termodinamicii, fără să facă vreun lucru, era probabil prima speculaţie logică de neînlăturat privind intervenţia fizică a spiritului asupra materiei”.

Nu istoria mecanicii cuantice ne preocupă totuşi aici, precum pe Jammer, ci studiul proceselor stohastice. În celebrul său articol din 1943 despre „Probleme stohastice în fizică şi în astronomie”, astronomul de origine indiană Subrahmanyan Chandrasekhar (1910-1995) recapitulează starea cunoştinţelor în acest domeniu. El rezumă aportul studiilor lui Smoluchowski asupra mişcării browniene astfel: „(...) prim exemplu al unui caz în care era posibil de a studia în detaliu, deopotrivă teoretic şi experimental, tranziţiile între natura ireversibilă la nivel macroscopic a difuziei şi natura reversibilă la nivel microscopic a fluctuaţiilor moleculare”.

Mai mult, Chandrasekhar îi recunoştea lui Smoluchowski câteva priorităţi teoretice hotărâtoare, precum ar fi introducerea conceptului de „probabilitate după acţiune” (Wahrscheinlichkeitsnachwirkung) pe care îl găsim clar definit în 1916, după mai bine de zece ani de muncă în acest domeniu. Acest nou tip de probabilităţi, care va deţine un loc esenţial în teoria măsurii, se referă la cazul observaţiilor repetate şi se compară cu definiţia lanţurilor Markov (după numele matematicianului sovietic, 1856-1922) din 1907, lanţuri care permit modelarea fenomenelor de evoluţie aleatorie. Chandrasekhar consacră de altfel un alt articol, exclusiv fizicianului polonez, în 1986.

Acesta este sensul în care scrierile lui Smoluchowski participă la apropierea care se observă la începutul secolului între fizica stohastică ce se orginează, după cum am arătat, în teoria cinetică a gazului, şi teoria matematică a probabilităţilor care îşi află cât de cât axiomatizarea în lucrările lui Borel, apoi ale lui Kolmogorov. Din punct de vedere filosofic, problema ireversibilităţii timpului e cea care este comună celor două discipline.

O asemenea apropiere se continuă atât cu lucrările lui Norbert Wiener (1894-1964) referitoare la o primă unificare a problemelor matematice şi fizice în jurul mecanicii statistice şi a modelării mişcării browniene, cât şi cu lucrările lui Johannes von Neumann (1903-1957) privind ipoteza ergotică şi Fundamentele matematice ale mecanicii cuantice, după cum vom vedea mai târziu. În cartea publicată în 1932, von Neumann va reansambla într-o teorie a măsurii esenţa rezultatelor a diferite teorii despre mişcarea browniană şi despre demonul lui Maxwell ajungând astfel, printre altele, la expresia entropiei legate de o măsură:

Mişcarea browniană ca şi concept unificator? Norbert Wiener, matematician şi fizician

N. Wiener îşi începuse cercetările prin câteva studii asupra fundamentelor matematicii, prin studierea logicii (sub influenţa lui Russell) şi, în aceeaşi măsură, a filosofiei (în mod special, concepţia bergsoniană despre timp). El scrie în 1958, în primul volum al revistei Cybernetica, un articol retrasând întreaga sa carieră ştiinţifică în care declară că a ales să se intereseze îndeaproape în matematică de analiză, căutând mereu fenomene fizice în a căror modelare putea să-şi utilizeze direct lucrările de matematică. În urma colaborării sale din

56

Page 57: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

1920 cu R. M. Fréchet (1878-1973) de la Strasbourg, el începe să publice despre mişcarea browniană.

În 1918, fizicianul german Walter Schottky avea să propună o explicaţie pentru zgomotul de granulaţie întâlnit în tuburile cu vid: era vorba de fluctuaţii ale numărului de electroni emis prin efect termoionic. Wiener propunea o apropiere între acest zgomot şi mişcarea browniană pe care o studiase schematizând traseul moleculelor prin cel pe care îl face un balon împins din toate direcţiile spre mijlocul unei mulţimi. Muncind după 1919 la departamentul de matematică al lui Massachusetts Institute of Technology (M.I.T.), el va ataca problema proprietăţilor matematice ale acestor traiectorii şi defineşte, pentru a duce la bun sfârşit acest studiu, „integrala stohastică”. Urmând această analiză a lui Wiener, F. Hausdorff va introduce noţiunea de dimensiune a unei curbe, aflată la originea dezvoltării teoriei fractalilor a lui B. Mandelbrot.

După P. R. Masani, fără îndoială cel mai bun biograf şi commentator al său, s-ar părea că publicarea de noi studii despre fenomenele de turbulenţă (G. Taylor, în 1920), ca şi demonstrarea teoremei ergodicităţii de către von Neumann şi Birkhoff, sunt cele care i-au dat ideea de a pune analiza mişcării browniene ca paradigmă pentru studiul fenomenelor stohastice. Din 1924 până în 1930, acest lucru l-a condus în matematică spre propunerea unei teorii generalizate a analizei armonice.

La începutul anilor ’30, mişcarea browniană beneficia deci de o formalizare matematică, iar importanţa teoriilor fizice care o descriau fusese deja demonstrată (de exemplu, prin măsurarea numărului lui Avogadro de către J. Perrin sau prin experimentele suedezului T. Svedberg). Aplicând sfaturile lui Bertrand Russell ce constau pentru Wiener în a rămâne la frontierele fizicii şi matematicii, Wiener explică şi anumite rezultate ale mecanicii cuantice, cum ar fi – de pildă – faptul că pătratul amplitudinii funcţiei de undă reprezintă o probabilitate de prezenţă, prin formalismul ce se aplică la mişcarea browniană.

El reia, de asemenea, studiile despre turbulenţă introducând în 1938 noţiunea de „haos omogen”. Influenţat de axiomatizarea probabilităţilor a lui Markov şi Kolmogorov, care plasaseră procesele stohastice în centrul teoriei lor, Wiener defineşte acest nou tip de haos prin raport cu o măsură aplicabilă mulţimilor. Utilizează aici aplicaţia integralei Furier – ceea ce mai făcuse deja şi care îi permisese să definească funcţiile referitoare la mulţimi – utilizând o topologie care autoriza extinderea calculului integral la aceste noi funcţii.

Astfel, în perioada interbelică, studiul mişcării browniene deţine un loc important pentru Wiener. Putem vorbi, totuşi, de unificarea diferitelor domenii ale ştiinţei în jurul acestei teme de studiu? Ceea ce ne interesează aici este mai mult faptul că un fenomen ca mişcarea browniană devine paradigmatic în baza posibilităţii definirii sale matematice şi a capacităţii sale euristice. Nu ştim de fapt dacă el conservă mai degrabă o realitate fizică sau dacă joacă rolul unei pre-axiome matematice. Teoriile matematice precum cea a seriilor lui Fourier sunt cele care permit stabilirea de legături între fenomene fizice aparent neaflate în vreun raport oarecare, dar aici Wiener pare să aplice atât matematicilor, cât şi fizicii, teoriile referitoare la mişcarea browniană. De altfel, în 1958, el precizează că faptul de a fi fost la M.I.T. îi permisese spiritual să apere importanţa aplicaţiilor teoriilor sale la problemele de inginerie şi, în acest sens, teoria sa generală a analizei armonice poate fi considerată ca matematică şi fizică, servind totodată tehnica.

Printre altele, la începutul anilor '30, pe vremea dezvoltării studiilor stohastice, Wiener se va consacra şi câtorva reflecţii de natură filosofică, promovând o concepţie care să aşeze fizica mai aproape de metafizică. De pe această poziţie, el ia atitudine faţă de problema naturii sufletului reacţionând la un articol de-l prietenului său J. B. S. Haldane (1892-1964), iar această poziţie o va dezvolta mai târziu în justificarea analogiilor propuse de cibernetică. El scria următoarele despre subiectul articolului geneticianului şi statisticianului britanic

57

Page 58: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

amintit mai sus (articol intitulat Mecanica cuantică ca bază a filosofiei): „Nu pot vedea diferenţe esenţiale între un materialism care subînţelege sufletul ca fiind un tip complicat de particule materiale şi un spiritualism care presupune că particulele au un suflet primitiv”.

Aceasta ne arată, dacă mai era necesar, cum toate aceste domenii sunt legate între ele, nu numai la nivelul concepţiilor filosofice, ci şi la cel al teoriilor ştiinţifice. Vom aborda în a doua parte a acestui capitol definiţia cantitativă a informaţiei stabilită în cadrul lucrărilor de statistică propriu-zise.

Înainte de aceasta, vom încheia această prezentare a teoriilor referitoare în primul rând la fizică abordând scrierile lui Neumann.

Noţiunea de informaţie şi mecanica cuantică: Johannes von Neumann

Axându-şi munca pe teoria spaţiului a lui Hilbert, în 1932 von Neumann consacră „fundamentelor matematice ale mecanicii cuantice” o carte apărută la Editura Springer, în colecţia referitoare la „temele fundamentale ale ştiinţelor matematice”. Înţelege astfel să ia parte la polemica epocii şi să se situeze contra ipotezei variabilelor ascunse, susţinută printre alţii de către Einstein. Interesându-se mai precis de „formulele statistice ale mecanicii cuantice”, el le apropie pe acestea de cele pe care le regăsim în termodinamică şi anunţă în introducere că: „O analiză mai profundă arată că binecunoscutele dificultăţi izvorâte din mecanica clasică, referitoare la „ipoteza de dezordine” necesară termodinamicii în justificare, ar putea fi aici aplanate”.

Pentru a realiza acest lucru, sprijinindu-se pe experimente de gândire cărora le precizează caracterul aventuros, el îşi propune să determine entropia unui ansamblu de stări cu ajutorul unui operator statistic U, introdus în cadrul unui studiu despre măsură şi reversibilitate care permitea diferenţierea efectului măsurării de efectul timpului asupra sistemului studiat. După ce a luat în socoată existenţa mişcării browniene, continuîndu-şi analiza critică despre experimentele de gândire, von Neumann se interoghează asupra posibilităţii de a dispune de un perete semi-permeabil pentru sistemele cuantice. El califică acest perete drept „demon al lui Maxwell şi face trimitere la publicaţia lui Szilard din 1929. Pentru a calcula entropia asociată operatorului U, imaginează un experiment de compresiune care-i permite să ajungă la expresia următoare pentru cazul unor M molecule: M k Spur (U ln U) (Spur reprezentând urma lăsată de un operator linear, iar k constanta lui Boltzmann) şi care în cazul unui operator cu valori proprii distincte w1, w2, ... wn dă expresia:

Această expresie îi permite atunci să demonstreze valoarea ipotezei unei ireversibilităţi legată de măsură, dar bineînţeles că nu este vorba aici de informaţie, ci avem de-a face cu prima expresie a costului entropic asociat unei observaţii fizice a gazului cu un număr oarecare de molecule. Mai e vorba aici şi de o teorie a măsurii, ţinând cont în acelaşi timp de teoriile cuantice şi termodinamice, întrucât ni se arată după aceea că rezultatul său poate fi interpretat cu ajutorul numărului de complexiuni introdus de Boltzmann şi reluat de Planck. De altfel, se poate reaminti aici cum Planck, generalizând cercetările lui Boltzmann, introdusese expresia S = k log W din perspectiva următorului punct de vedere: „Pentru că entropia este o mărime aditivă, iar probabilitatea W este o mărime multiplicativă, eu am formulat pur şi simplu S = k log W, unde k reprezintă o constantă universală”.

Până la urmă, această apropiere formală dintre mecanica cuantică şi termodinamică este cea care-i permite lui von Neumann să ajungă la o nouă expresie a interpretărilor în acelaşi timp matematice şi fizice. Plecând de la teoreme matematice destul de anevoioase despre proprietăţile pe care trebuie să le verifice operatorii, el va ajunge la o teorie generală a

58

Page 59: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

măsurii şi numeroşi fizicieni vor vedea aici, pe drept cuvânt, o analiză fizică şi cantitativă a noţiunii de informaţie. Fizicianul Léon Brillouin (1889-1969), unul dintre teoreticienii mecanicii cuantice, va scrie în 1956, în cartea sa Science and Information Theory, cu privire la acest text al lui von Neumann: „J. von Neumann examinează de asemenea cazul observatorului care uită informaţia şi arată că acest proces semnifică deopotrivă o creştere de entropie”. După cunoştinţa noastră, von Neumann nu utilizează cuvântul „informaţie” în scrierile din această perioadă, dar noţiunea de măsură pe care o defineşte în ultimul său capitol poate fi foarte bine considerată, a posteriori, ca un caz al achiziţionării de informaţie.

Printre alţii, fizicianul german Pascual Jordan (1902-1980), co-fondator al mecanicii cuantice cu Born şi Heisenberg, insistă, în articolul pe care îl consacră în 1949 „procesului de măsurare în mecanica cuantică”, asupra faptului că studiul realizat de von Neumann demonstrează că „(...) termodinamica este implicată în observaţiile din mecanica cuantică şi [că] acest lucru e în armonie cu un fapt arătând ireversibilitatea legată de observaţie (...)”. În fond, e exact că, prin munca sa, von Neumann nu numai că „apropie” două domenii ale fizicii, ci le şi „unifică” în jurul aceleaşi interogaţii privind măsura. Se poate tot aşa considera că ar avea loc, ca o consecinţă, „unificarea” cunoaşterii în jurul noţiunii ştiinţifice de informaţie? E încă devreme a o spune, chiar dacă am evocat deja aici texte publicate după cel de-al doilea război mondial. În această primă parte vizând apariţia noţiunii ştiinţifice de informaţie, se cuvine să ne mai interesăm şi de alte axe de cercetare: lucrările realizate în statistică şi în domeniul telecomunicaţiilor.

3. Informaţia statistică (traducere şi adaptare de Gheorghe Clitan după Jérôme Segal, Le Zéro et le Un. Histoire de la notion scientifique d'information au 20° siècle, Paris, Éditions Syllepse, 2003)

Statisticile şi informaţia lui Fisher

„(...) obiectul metodei statistice este reducerea datelor. O masă de date, pe cât de importantă pe atât de neinteligibilă, trebuie înlocuită cu un număr relativ mic de cantităţi care trebuie să reprezinte corect această masă sau, altfel spus, care trebuie să conţină cea mai mare parte posibilă, dacă nu totalitatea informaţiei pertinente conţinută în datele de origine”.

Iată cum, în 1922, Ronald Aylmer Fisher (1890-1962) introducea în scrierile sale noţiunea ştiinţifică de informaţie. Fisher va preciza această noţiune până în 1935 pentru a ajunge, de-a lungul publicaţiilor sale, la o definiţie matematică. El arată că o statistică este o transformare de date ale eşantionului pe care ea îl rezumă, dar totodată îl şi simplifică. Despre o statistică se spune că este exhaustivă dacă rezumatul pe care-l realizează nu suprimă nimic din „informaţia” (în sens de „informare”) conţinută de eşantion. De la început noţiunile de informaţie şi exhaustivitate se găsesc astfel legate.

Retrasând modul cum informaţia care este la început utilizată într-un sens apropiat de sensul comun devine un concept ştiinţific, vom insista de asemenea asupra posterităţii lucrărilor sale, nu fără a aminti mai înainte în ce context teoriile statistice ale lui Fisher au văzut lumina zilei şi cum statistica a putut participa la unificarea ştiinţelor.

Numeroase sunt articolele sau monografiile consacrate lui Fisher. În mod voit, fără grija exhaustivităţii, nu vom invoca aici decât câteva repere din biografia sa, aflate în raport cu subiectul nostru, Fisher având publicate de altfel mai mult de o sută de lucrări.

Diplomat la Cambridge, el a studiat după aceea matematicile şi fizica teoretică, puternica sa miopie interzicându-i fizica experimentală. După ce publică în 1922 în Philosophical

59

Page 60: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

Transactions of the Royal Society, devine la trei ani responsabil de departamentul de statistică de la staţia experimentală din Rothamsted, având sarcina de a obţine profit din miile de date privind referitor la o perioadă de vreo şaizeci de ani deopotrivă diversele probe de îngrăşământ şi condiţiile meteorologice corespunzătoare. Din grija de a fi independent, preferase acest post celui de la Galton Laboratory, unde ar fi trebuit să muncească sub conducerea lui Karl Pearson (1857-1936), cu care avusese diferende referitoare la publicaţiile lor din Biometricka. Până în 1933 va rămâne la Rothamsted unde îşi elaborează principalele lucrări, având ca obiect mai ales problema planurilor de experienţă. Îi va succeede apoi lui Pearson la University College de Londres în calitate de profesor de Eugenie.

Dar să revenim mai întâi la acea publicaţie din 1922 privitoare la „fundamentele matematice ale statisticii teoretice”. Fisher pare motivat de propria-i respingere a noţiunii de probabilitate inversă sau probabilitate bayesiană căreia înţelege să-i substituie un nou concept, cel de „verosimilitudine” („plauzibilitate”). Ori, se ştie că probabilităţile bayesiene sunt cele care i-au permis lui van der Waals să regăsească şi, în acelaşi timp, să justifice cel de-al doilea principiu al termodinamicii. Bineînţeles că Fisher îşi introduce propriul concept de informaţie printr-un alt gen de abordare, plecând de la probleme concrete vizând analiza eşantioanelor statistice avute în vedere în cultura agronomică. Eliberându-se de tradiţia ce dorea să utilizăm teorema lui Bayes ca arhetip al raţionamentului inductiv formalizat, Fisher se lansează într-un proiect inevitabil de mare anvergură pe care-l inaugurează cu cercetarea testelor obiective care-i justifică practica. Dar tocmai conceptul de verosimilitudine, şi nu cel de probabilitate inversă, este cel care-i permisese să determine încă din prima lucrare publicată, cea din 1922, alegerea pe care statisticianul o poate face între multele modele statistice graţie „principiului maximului de verosimilitudine”, principiu ce are pentru el încă de la început o importantă valoare euristică.

Problema care şi-o pune Fisher în lucrarea din 1922 scoate în evidenţă teoria estimării (evaluării): e vorba de a putea „estima”, pornind de la eşantioanele relevate, valorile parametrilor caracteristici ai distribuţiilor de probabilitate ale unei populaţii ipotetice (de exemplu, pentru calculul parametrilor m şi s ai unei legi normale). El propune în acest cadru o „tratare cantitativă a informaţiei aduse de un eşantion” care, chiar dacă nu se aplică încă la toate cazurile, permite deja realizarea unor aplicaţii de alegere a curbelor de eroare ce ne lasă posibilitatea de a considera eşantionul ca fiind cel mai reprezentativ posibil pentru populaţia avută în vedere.

Calificativul „pertinent” („relevant”), pe care-l utilizează pentru a califica informaţia ce încercăm să o izolăm din masa de date, ţine de interesul său pentru genetică, interes care îl determină, începând cu 1918, să studieze „genele relevante”. Această disciplină, genetica, creată printre alţii de către William Bateson (1861-1926) care-i dă şi numele în 1905, este istoric legată de eugenism, mişcare ştiinţifică, politică şi filosofică ce marchează a doua jumătate a secolului XIX şi ai cărui principali reprezentanţi ieşiţi din Şcoala statistică britanică sunt Francis Galton (1822-1911), verişor de-al lui Darwin, sau Karl Pearson (1857-1936).

Foarte schematic, după publicarea Originilor speciilor a lui Darwin (în 1859), Bateson şi primii geneticieni credeau că ar exista o contradicţie între darwinism şi genetică, deoarece selecţia naturală părea să presupună că micile variaţii ar avea o mare importanţă pentru fenomenele de adaptare, ceea ce li se părea a veni împotriva legilor lui Mendel. Sprijinindu-se pe cartea publicată de Darwin în 1871, Descendenţa omului, eugeniştii l-au prezentat adesea pe Darwin ca fiind unul de-al lor. Astăzi mai persistă încă o controversă asupra interpretării ce poate fi dată acestor scrieri. Dacă S. Tort înlătură orice suspiciune eugenistă faţă de Darwin opunând teoria lui Darwin diferitelor „darwinisme” care se reclamă de la ea, Lemaine şi Matalon estimează de asemenea, citând îndeosebi cartea sa din 1871, că Darwin

60

Page 61: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

nu rezistă „(...) la presiunea ideilor timpului său, nici la concluziile discipolilor săi cei mai fervenţi, atât despre reproducerea idioţilor, infirmilor şi bolnavilor în naţiunile civilizate, cât şi despre inferioritatea de natură a popoarelor sălbatice”. Ei conchid că „Darwin nu este nevinovat în ceea ce priveşte ideea de exploatare a omului ce poate fi trasă din teoria sa”.

Teama eugeniştilor vizavi de teoria darwiniană a selecţiei naturale era că omul civilizat ar fi eliminat acţiunea acestei selecţii naturale asupra lui însuşi, mai cu seamă din cauza sistemelor de protecţie socială ce luau amploare în acea epocă.

Fisher intervine în dezbatere la mai multe nivele. Pe de o parte, în domeniul biometriei referitor la studiile statistice şi cantitative ale variaţiilor, iar pe de altă parte în aplicarea geneticii mendeliene „redescoperită” la trecerea dintre secole. După ce şi-a publicat în 1889 manifestul despre biometrie odată cu Natural Inheritance, Galton avea să-l câştige pe Pearson de partea sa. Actualitatea de care se bucurau lucrările lui Mendel în 1990 avea să opună mendelienii biometricienilor şi să pună problema locului ocupat de eugenism în cadrul concepţiilor fiecărora dintre ei: pentru Pearson, eugenismul se înălţa din biometria aplicată, în timp ce pentru mendelieni eugenismul trebuia legat de genetica umană. În articolul său din 1918, Fisher reconciliază aceste două abordări şi utilizează noţiunile geneticii mendeliene, mai ales cea de dominanţă, ca limbaj al biometriei. Acesta este cadrul în care el introduce analiza varianţei, utilizată alături de teoria coeficienţilor de corelaţie stabilită de Galton. Acestea vor fi bazele pe care el va fonda, împreună cu Haldane, genetica populaţiilor.

Fisher a rămas de fiecare dată şi mereu ataşat de preocupările sale eugeniste, el fusese de altfel publicat foarte devreme, în 1914, în The Eugenics Review sau în Annals of Eugenics (a cărei conducere şi-o asumă începând cu 1933 până când devine „Profesor de Eugenie”), dintre numeroasele reviste eugeniste din prima parte a secolului XX. Se foloseşte deseori de expresia „gene relevante” pentru a preciza genele care trebuiesc conservate în generaţiile următoare pentru a se ajunge la „ameliorarea rasei”, scopul principal al oricărui eugenist, indiferent dacă este vorba de un eugenism pozitiv fazorizând cele mai bune elemente dintr-o populaţie sau de un eugenism negativ împiedicând pe cele „mai puţin apte” să se reproducă.

În lucrarea sa din 1925 consacrată „teoriei estimării statistice”, Fisher îşi reia munca asupra noţiunii de informaţie. Ne dă mai întâi un exemplu de calcul al unei cantităţi de informaţie în cazul a două estimări diferite ale parametrului s dintr-o lege normală, pornind de la un acelaşi eşantion de n valori observate. El socoteşte că dacă cu unul dintre cei doi estimatori pe care-i definise ne aflăm în cazul unei „statistici eficiente” (ceea ce vrea să spună că se poate regăsi valoarea lui s când n tinde spre infinit), atunci cu celălalt estimator: „o optime din informaţia totală este respinsă”.

Fisher asociase de asemenea, în lucrarea sa din 1922, pe plan calitativ, cantitatea de informaţie adusă printr-o statistică cu ceea ce el numeşte „precizia intrinsecă a unei curbe de eroare”, adică cu ceea ce corespunde, după cum am văzut, celei mai bune alegeri posibile din parametrii definind o distribuţie statistică. Trei ani mai târziu, el arată că această „precizie intrinsecă a unei curbe de eroare” poate fi calculată în funcţie de varianţa unui estimator eficient şi conchide deja: „Ceea ce noi am numit în termeni de precizie intrinsecă a unei curbe de eroare poate fi de asemenea conceput ca şi catitatea de informaţie [conţinută] într-o singură observaţie aparţinând unei astfel de distribuţii”.

El demonstrează atunci că informaţiile se pot adiţiona în cazul a două observaţii independente.

Fără a intra în toate detaliile matematice, mai reţinem că în această lucrare Fisher dă mai departe expresia generală a cantităţii de informaţie în raport cu un parametru q oferit de un eşantion de n observaţii:

61

Page 62: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

unde S indică o însumare a tuturor observaţiilor, iar m produsul lui n prin probabilitatea unei observaţii de a cădea în una dintre clasele prealabil determinate.

Trei ani mai târziu, în 1928, după cea de-a doua ediţie a Metodelor statistice pentru cercetători, informaţia e definită din nou matematic, ca egală de această dată cu inversul varianţei în cazul unei distribuţii normale a valorilor unui parametru estimate. De fapt, informaţia care este la plecare „conţinută în date” devine încet, încet caracteristica unei statistici, iar obiectul de studiu al lui Fisher se deplasează de la materialele brute ieşite din cercetările sale agronomice la teoria sa matematică a estimării. O astfel de evoluţie se regăseşte mai ales în această carte, atunci când el arată cum conţinutul informaţional adus printr-o experiment agronomic ar putea determina alocarea parcelelor de teren: „Avantajul de a examina nivelul informaţiei câştigate în fiecare etapă a experimentului se sprijină pe faptul că precizia obţinută în majoritatea experimentelor este limitată de către cantitatea de teren, de munca şi supervizarea disponibile. Un real ajutor privind mai buna alocare a acestor resurse poate fi obţinut luând în considerare cantitatea de informaţie pe care o putem anticipa”.

Printre altele, chiar dacă Fisher foloseşte într-un sens ştiinţific un cuvânt din limbajul obişnuit, cel de „informaţie”, el acordă atenţie justificării acestei folosiri, precizând în 1935: „E evident, de asemenea, că introducând conceptul de cantitate de informaţie, noi nu dorim să dăm un nume arbitrar unei cantităţi calculabile, dar trebuie să ne pregătim de justificarea termenului folosit, raportându-ne la cerinţele simţului comun, dar şi de a spune dacă termenul este însuşit şi util ca instrument de gândire. Consecinţele matematice ale identificării, aşa cum o propun, preciziei intrinseci a curbei de eroare cu cantitatea de informaţie extrasă pot fi deci rezumate acum, mai ales ca să putem judeca după simţul nostru comun prematematic dacă ele chiar au proprietăţile pe care trebuie să le aibă”.

Informaţia se vrea deci definită ca o mărime constantă, calculată pornind de la un eşantion. De altfel, încă din 1925 Fisher avusese deja grijă, după cum am semnalat, să demonstreze că această mărime verificase proprietăţile matematice elementare, precum cea de aditivitate, pentru două eşantioane independente.

Totuşi, în publicaţia din 1935, la aceeaşi pagină, el face în felul său apropierea dintre entropie şi informaţie. Cu privire la această analogie, precizează: „Va trebui să notaţi mai ales că procesele reversibile, schimbările de notaţii, transformările matematice bijective, traducerile de date într-un alt limbaj sau rescrierile într-un cod nu se însoţesc cu pierderea de informaţie, dar şi că, în procesele ireversibile prezente în estimarea statistică, unde nu se pot reconstrui datele de origine plecând de la valorile estimate, putem avea o pierdere de informaţie, dar niciodată un câştig.

Fără îndoială, această orientare a sensului timpului, proprie experienţei fizice, e cea care îl face conştient pe Fisher de analogia dintre entropie şi informaţie. Calculul valorilor estimate „consumă” într-un fel oarecare datele brute ale experienţei, de aceeaşi manieră în care o maşină termică crează entropie şi consumă energie. Această opoziţie dintre entropie şi informaţie este clar formulată de către Fisher care, în ultima frază a citatului de mai sus, reia una dintre formulările celui de-al doilea principiu al termodinamicii aplicat la un sistem închis şi izolat: „Putem avea câştig de entropie, dar niciodată pierdere”. Se poate vedea aici, fără îndoială, influenţa fizicianului J. H. Jeans (1877-1946), după care Fisher a studiat.

Astfel, chiar plecând de la studiile statistice, conceptul de informaţie poate apărea sub forma unei ilustrări a celui de-al doilea principiu al termodinamicii. Ceea ce ne-ar putea deja

62

Page 63: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

lăsa să presupunem că analogia dintre informaţie şi entropie este fundamentală şi nu numai formală. Exemplele luate în discuţie de Fisher urmăresc de altminteri, fără îndoială, să arate caracterul universal al unei atari legi.

Statisticile ca mijloc de unificare?

Această unitate care prinde contur în jurul analogiei informaţie–entropie ar fi un ultim avatar al fascinaţiei exercitată de legea normală şi de fizica socială? Se ştie în ce spirit universalist definise Quételet (1796-1847) omul de mijloc, procedând în observaţiile sale despre om tot aşa cum o făcuse pentru ceruri şi mări şi începând astfel să aplice statistica la ştiinţele sociale. Legea Laplace-Gauss, definind caracteristicile distribuţiilor normale, ocupă un loc central în teoria erorilor, la fel ca legea numerelor mari care dobândeşte odată cu Poisson titlul de „lege universală”.

La fel cum Renaşterea cunoscuse o reapariţie a pitagorismului mistic în jurul studiului numărului de aur, sfârşitul secolului al XIX-lea cunoştea extazieri câteodată îngrijorătoare pentru legea normală. Unii, precum M. Boll, văd aici un pas către unitatea ştiinţelor. Acesta din urmă scrie în 1942, după ce demonstrase că am regăsi legea normală în diferite domenii: „Din punct de vedere al unificării cunoaşterii, al unităţii ştiinţei, avem de-a face aici cu un rezultat statistic, a cărui importanţă n-o putem neglija, cu atât mai mult cu cât aceleaşi apropieri se pot stabili între diferitele proprietăţi ale «omului moral» ...”

Cu toate acestea, unii autori precum Pearson se ridicaseră împotriva fetişismului manifestat de câţiva oameni de ştiinţă faţă de legea normală. El căuta să evite ca metoda pătratelor mici să dobândească acest statut.

Numai odată cu legea normală şi cu cea a numerelor mari raţionamentul asupra „populaţiilor” ia avânt în această a doua jumătate a asecolului al XIX-lea, aceasta este optica în care Bernard Bru, într-un articol recent, introduce teoriile lui Darwin, Mendel şi Boltzmann. El arată că primul dintre aceştia discută despre specii şi constată variabilitatea lor, al doilea îşi efectuează observaţiile binecunoscute asupra „populaţiilor” boabelor de mazăre cărora le studiază reproducerea şi, în fine, ultimul modelează mişcările aleatorii ale particulelor unui gaz. Pentru ei, raţionamentul statistic prezintă cu siguranţă o unitate metodologică.

Fisher notase el însuşi aceste paralele în 1925, ceea ce lui îi justifica rolul unitar al statisticii. El scrie în introducerea la Metodele statistice pentru cercetători: „Teoriile ştiinţifice care implică proprietăţi de largi agregaţii de indivizi, iar nicidecum proprietăţile indivizilor însuşi, precum teoria cinetică a gazului, teoria selecţiei naturale sau teoria chimică a acţiunii de masă, sunt în esenţa lor argumente statistice şi fac obiectul unor proaste interpretări ce pierd din vedere natura statistică a argumentului.

Ar trebui deci, după Fisher, să păzim pentru spirit rolul fundamental pe care statistica îl joacă în elaborarea acestor teorii. Nu atât în calitate de mijloc de unificare statisticile sunt aplicate, deoarece nu găsim în scrierile lui Fisher sau ale altora urmele unei voinţe de a parveni la unitate, ci, ca instrument teoretic, statisticile sfârşesc prin a ocupa un loc central în toate acele raţionamente vizând de fapt „populaţiile”. Există deci, mai întâi, unitate în demersul teoretic.

Pornind de la concepţia sa frecvenţială asupra probabilităţilor, Fisher extinde de altfel acest punct de vedere la teoria probabilităţilor. Într-un articol intitulat „Indeterminism şi selecţie naturală”, publicat în revista Philosophy of Science în 1934, Fisher se interesează de problema determinismului, care după el trebuie respinsă dacă acceptăm ipotezele teoriei cinetice a materiei. Aceasta din urmă prezintă pentru Fisher … „avantajul (a) unificării conceptului de lege naturală în diferite sfere ale experienţei umane şi (b) al unei mai mari

63

Page 64: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

generalităţi ce exclude acceptarea cazului particular al cauzalităţii complet deterministe, atâta timp cât aceasta rămâne o ipoteză non probată”.

Pentru probarea acestei unităţi de a cărei stare vorbea, el intră în consideraţii ţinând de ordinul „armoniei” precizând: „Printre teoriile biologice, acest lucru apărea ca fiind în deplină armonie cu teoria selecţiei naturale care, prin natura sa statistică, se aseamănă cu cea de-a doua lege a termodinamicii”.

Câteva pagini mai departe, el examinează chiar cu ajutorul noţiunii de probabilitate această unificare armonioasă, atunci când insistă asupra faptului că întreaga previziune plecând de la observaţii trecute trebuie să fie exprimată sub forma unui enunţ referitor la probabilităţi.

În acelaşi an 1934, asupra aceleeaşi chestiuni referitoare la natura deterministă sau indeterministă a fizicii, găsim în scrisul unui vechi telegrafist (din 1905 până în 1907!) mai bine cunoscut ca filosof al ştiinţei, Gaston Bachelard (1884-1962), introducerea noţiunii de „informaţie probabilistică”. În Noul spirit ştiinţific, referindu-se la teoria cinetică a gazului care-i permite să considere gazul ca un „tot” determinat, pornind de la componente nedeterminate, el arată că dacă presupunem indeterminarea unui fenomen, trebuie să presupunem independenţa acestuia în sensul calculului probabilităţilor. El scrie: „dacă ar exista cea mai mică dependenţă [între gaz şi mediul exterior], am avea de-a face cu o confuzie de informaţii probabiliste şi ar trebui să depunem întotdeauna un mare efort pentru a ţine cont de o interpretare a dependenţei dintre legăturile dependente reale şi legile stricte ale probabilităţii”.

În prelungirea lucrărilor lui Fisher despre informaţie

… După cum vom vedea mai departe, doar începând cu sfârşitul anilor '40 putem vorbi de o veritabilă teorie unificată a informaţiei, dar vom vedea în capitolul 11 sensul ce poate fi dat acestei unificări. Această teorie are la origine, printre altele, lucrările lui Fisher evocate mai sus, dar aceste scrieri au propria lor dezvoltare în câmpul strict al statisticii şi probabilităţilor şi nu participă, propriu-zis vorbind, la naşterea teoriei informaţiei.

Chiar dacă Fréchet, în Franţa, generalizează lucrările lui Fisher referitoare la estimarea unui parametru (bineînţeles, cu ajutorul inegalităţii Fréchet-Darnois-Cramer-Rao), mai cu seamă în Statele Unite teoria lui Fisher cunoaşte dezvoltări importante, printre altele, odată cu lucrările lui J. L. Doob (născut în 1910). Matematicianul american integrează teoria maximului de verosimilitudine a lui Fisher, ca şi definiţia informaţiei ce decurge din ea, în cadrul teoriei probabilităţilor şi, cu mai multă precizie, în cadrul teoriei matematice a mulţimilor măsurabile, fondată prin lucrările lui Borel şi Lebesgue. După o primă lucrare publicată în 1936 despre „estimarea statistică”, în care reia cu plus de rigurozitate matematică unele rezultate obţinute de Fisher , în articolul să din 1941 defineşte „probabilitatea ca o măsură”, titlu de altfel al acestui al doilea articol. Pornind de la axiomatizarea probabilităţilor propusă de Kolmogorov în 1933 şi, deci, de la teoria măsurării, Boob urmează linia gândirii deja dezvoltată de Wiener, cel care – după cum notează U. Krengel într-un articol despre istoria teoriei probabilităţilor – făcea deja parte din rândul acelor matematicieni care considerau probabilităţile ca măsuri. În acest sens, Boob se opune lui R. von Mises (1883-1953) care, în acelaşi timp, se înscria într-o abordare frecvenţială.

Cu toate acestea, von Mises se referă deopotrivă la principiul maximului de verosimilitudine a lui Fisher, chiar dacă la baza matematică a articolului său stau mai ales aplicaţiile lui J. Neyman (1894-1981) plecând de la teoria testelor. Teoria lui Neyman se află de altfel la originea teoriei deciziei a lui Abraham Wald (1902-1950), care unifică teoria

64

Page 65: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

estimării cu cea a testelor sau planurilor de experienţă, prezentate drept cazuri particulare de cercetare ale unei „funcţii de decizie statistică”.

Aşadar, doar în Statele Unite şi în Marea Britanie scrierile lui Fisher cunosc interesante prelungiri. În Sankhya, marea revistă indiană de statistică (publicată încă de pe vremea colonizării britanice), mai găsim un lung articol scris de către A. Bhattacharyya, intitulat „Despre echivalenţele cantităţii de informaţie şi utilizarea lor în statistică”, publicat în trei părţi din 1946 până în 1948, care urmăreşte să amelioreze expresia cantităţii de informaţie în teoria estimării lui Fisher. Nu e locul aici pentru o abordare în detaliu a acestei lucrări, atât de complexă pe plan matematic, dar reţinem numai că la sfârşitul anilor '40 găsim încă articole cu privire la noţiunea de informaţie, exclusiv în sensul lui Fisher. La fel, găsim în 1953, în Physical Review, un articol „Despre estimarea statistică în fizică” care urmăreşte aplicarea teoriei lui Fisher în acest domeniu, fără să se refere la alte definiţii ale informaţiei.

Astfel, chiar dacă definiţia lui Fisher îşi află aplicaţii în fizică, iar cea utilizată de fizică se sprijină uneori pe raţionamentele statistice, ne aflăm de fapt în prezenţa a două tipuri de definiţii distincte, apărute încet, încet plecând de la anii '20. În ambele cazuri, regăsim analogia dintre entropie şi informaţie care pare deja a juca un rol unificator. În ceea ce priveşte statistica, reţinem remarca făcută încă destul de recent de D. Dacunha-Castelle într-o carte intitulată Căile aleatorului: „verosimilitudinea este un concept unificator important al statisticii, foarte legat de noţiunile moderne de entropie şi informaţie”.

El anunţă, de altfel, de la începutul cărţii sale: „Pentru a da ştiinţei hazardului întreaga sa dimensiune, trebuie să facem o altă lectură, un pic mai dificilă ca accesibilitate. Este cea care opune incertitudinea informaţiei”.

Cât priveşte subiectul unificării, nu putem de fiecare dată numai cu ajutorul celor două definiţii izvorâte din domeniile statisticii şi fizicii să numim drept „unificată” toată informaţia ce apare. Principalul ei investigator, inginerul american Claude Elwood Shannon (né en 1916), se prezintă în linia inginerilor de telecomunicaţii care, în anii '20, defineau de asemenea informaţia în manieră cantitativă.

4. Informaţia ca noţiune în telecomunicaţii(traducere şi adaptare de Gheorghe Clitan după Jérôme Segal, Le Zéro et le Un. Histoire de la notion scientifique d'information au 20° siècle, Paris, Éditions Syllepse, 2003)

Putem citi în Bell System Technical Journal din 1924: „Acest articol consideră doi factori fundamentali intrând în determinarea vitezei maximale de tramsmisie a informaţiei („inteligenţei”) prin telegrafie. Aceşti factori sunt: punerea în formă (shaping) a semnalului şi alegerea codurilor”. Iată primele rânduri ale rezumatului unui articol de-al lui Harry Nyquist (1889-1970) în jurnalul companiei unde era angajat.

Date de ordin economic

După cea de-a doua jumătate a secolului XIX, inginerii din telecomunicaţii caută să rentabilizeze mai bine investiţiile legate de construirea primelor mari reţele naţionale şi internaţionale. Chiar dacă îngrijorarea de ordin economic este rareori explicit menţionată, aceasta rămâne mereu un motor important al inovaţiei tehnice. E suficient să ne gândim la cantităţile de cupru puse în joc pentru conductori, la unele materiale pentru izolatori sau chiar la cheltuielile cu bobinele de inducţie pentru pupinelizare.

Un factor important studiat de către ingineri este viteza. Dacă, bineînţeles, viteza semnalului rămâne constantă (egală cu viteza luminii în cazul ideal), Nyquist introduce în

65

Page 66: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

lucrarea sa din 1924 noţiunea de „viteză a unei linii” definită în raport cu „numărul de elemente ale semnalului [transmis] pe secundă”. Ceea ce pune implicit problema metodelor de codaj, dar Nyquist consacră o secţiune din lucrarea sa „alegerii codurilor”. Obiectivul este atunci de a putea transmite cât mai rapid posibil şi e de observat aici că obsesia lui „totdeauna mai repede” (criticată de P. Virilio) se manifestă de fapt concomitent cu primele progrese din domeniul telecomunicaţiilor. Unul dintre mijloacele de atingere a acestui obiectiv era şi reducerea blocajului de pe linii.

Potrivit lui Jacques Lacan, „Era vorba pentru Bell Telephone Company de a face economii, altfel spus de a face să treacă un cât mai mare număr posibil de comunicări/comunicaţii (mesaje) pe un singur fir. Într-o ţară atât de vastă precum Statele Unite e foarte important de a economisi câteva fire de telecomunicaţii şi de a face să treacă mesajele de obicei fade care se vehiculează cu ajutorul diverselor aparate de transmisie printr-un număr de cât mai puţine fire posibil. Pornind de la acest lucru s-a început cuantificarea comunicării/comunicaţiei. (…) E vorba de a şti care sunt condiţiile cele mai economice de a putea transmite cuvinte pe care oamenii le recunosc. De sens, nimeni nu se ocupă”.

Rândurile de mai sus fac parte din cartea a II-a a Seminarului lui Jacques Lacan (1901-1981) şi se regăsesc în capitolul 6, consacrat aplicării noţiunii ştiinţifice de informaţie în ştiinţele umane, ceea ce ne va explica interesul psihanalistului pentru acest tip de chestiuni. Această referinţă istorică îi va permite aici, în lecţia sa despre „circuit”, să diferenţieze vorbirea de comunicare, aşa cum e definită cea din urmă în societatea noastră după ce a făcut obiectul amintitei cuantificări. Notăm deja aici că problema sensului unui mesaj nu este efectiv luată în considerare.

Această optică de rentabilizare a liniilor e cea pe care o dezvoltaseră primele tehnici de multiplexaj permiţând transmiterea mai multor comunicări/comunicaţii (mesaje) pe aceeaşi cale. Anumite linii fiind închiriate la vremea aceea, se urmărea de fiecare dată mărirea vitezei de transmisie şi totodată asigurarea calităţii transmisiei, principalele probleme în epocă fiind: utilizarea unei aceleiaşi linii în ambele sensuri, fenomenele distorsiunii şi cele ale slăbirii semnalului odată cu distanţa. Pentru a rezolva cea din urmă problemă, mai ales în telefonie, liniile au fost dotate cu „amplificatori”, cu atât mai numeroşi cu cât calea de comunicaţie era mai lungă. Pentru o ţară de talia Statelor Unite, nevoia de a pune la punct alternative la acest procedeu se făcea simţită bineînţeles cu mai multă claritate decât pentru ţările europene. Acest sistem necesita surse de energie punctuale şi, înainte de toate, o importantă mână de lucru pentru asigurarea menţinerii funcţionării tuburilor cu vid de folosinţă redusă conţinute în „amplificatorii” necesari conservării amplitudinii iniţiale a semnalului.

Dar referitor la acest „semnal”, care era definiţia lui? Cum e de carcterizat? Noţiunea de informaţie este cea care va permite gradual răspunsul la aceste întrebări. În lucrarea evocată mai sus, Nyquist foloseşte termenul „inteligenţă”. E debutul acelei cuantificări realizată esenţialmente în cadrul Laboratoarelor Bell din Statele Unite şi care îşi va găsi împlinirea în anii '40, odată cu „teoria matematică a comunicaţiei”.

În 1979, o teză de doctorat susţinută în departamentul de filosofie şi ştiinţe sociale al Universităţii libere din Berlin a fost consacrată „evidenţierii locului conceptului de informaţie în tehnicile de telecomunicaţie. Hagemeyer, autorul acestei teze, arată de exemplu în ce context au văzut lumina zilei lucrările lui Nyquist (pe urmă cele ale lui Hartley şi ale altora), insistând asupra specificităţii sistemului de cercetare american din anii '20. După el, electrotehnica era învăţată în departamentele de fizică, inginerii primind o solidă formare în fizica matematică, axată mai cu seamă pe modelul teoriei căldurii a lui Fourier şi pe teoria lui Maxwell revizuită de către Heaviside. În ceea ce priveşte probabilităţile, acestea erau deja

66

Page 67: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

aplicate în telecomunicaţii pentru organizarea reţelei în funcţie de trafic, în particular pentru dimensionarea comutatorilor telefonici.

Mai precis, alte surse arată că plecând din anii 1880, pe când ingineria electrică începea să fie învăţată în Statele Unite, această disciplină se reataşează fie ingineriei mecanice, fie fizicii. Din 1882 până la 1902 cursul de la M.I.T. intitulat „Inginerie electrică” (Electrical Engineering) era de asemenea oferit în departamentul de fizică, în vreme ce în alte universităţi un curs echivalent se înscria în formarea de ingineri în mecanică, urmând pentru aceasta deviza lui William Thomson care, după R. Rosenberg, declarase că un inginer electrician trebuia să fie 90% mecanician şi 10% electrician. Rosenberg explică de altfel: „În primul rând, electrotehnica sublinia importanţa ingineriei mecanice nevizând vaporii; iar, în al doilea rând, electrotehnica dădea greutate argumentului după care formarea inginerilor este rolul unei şcoli dotate cu baze solide în ştiinţe şi în matematici, şi nu doar al atelierelor tehnice”.

Aceste diferenţe autentice în ordonarea câmpului disciplinar explică în parte diferenţele dintre concepţiile pe care le regăsim ulterior. Mai mult, există diferenţe naţionale, iar lucrările germanului Karl Küpfmüller, publicate tot în 1924, ne aduc în situaţia de a compara mediile americane şi germane.

Lucrările de pionierat ale lui Harry Nyquist şi Karl Küpfmüller

În 1924, Karl Küpfmüller (1897-1977) lucrează după trei ani petrecuţi la Berlin în laboratorul central al lui Siemens & Halske, creat în 1847 sub numele de Telegraphen Bauanstalt Siemens und Halske. Se ştie că el a studiat înainte problemele legate de pupinelizare şi că postul său de la Siemens e explicit orientat înspre domeniul teoriei conducţiei (Leitungstheorie). La fel ca şi americanul Harry Nyquist, dar independent de acesta, el propune în lucrarea sa din 1924 intitulată „Despre procesele tranzitorii în filtrele de undă” o primă relaţie cantitativă între timpul de ocupare a liniei şi lărgimea benzii de frecvenţe trecătoare utilizată.

Pe baza fluctuaţiilor care afectează undele purtătoare (tehnică introdusă în timpul primului război mondial) el explică necesitatea utilizării filtrelor de undă (Wellenfilter), neologism pe care îl preia cu grija de a-l justifica, indicând pur şi simplu că expresia e frecventă în Statele Unite. Putem vedea de altfel, chiar şi numai cu ajutorul referinţelor indicate, că urmează îndeaproape ultimele publicaţii americane, precum ar fi cele din Bell System Technical Journal sau din alte reviste. Primul rezultat la care ajunge indică marea generalitate a studiului său referitor la „transmisia semnelor” în ansamblul ei (Zeichenübertragung), indifferent dacă este vorba de telegrafie sau de telefonie. El introduce o „constantă universală” ce caracterizează raportul dintre timpul instituirii unui semnal telegrafic în curent alternativ şi lărgimea benzii frecvenţelor de trecere utilizate pentru filtru (Lochbreite, propriu-zis „lărgimea fantei de trecere”). Un studiu experimental şi teoretic îi permite de altfel să specifice că această constantă, intervenind în limita numărului de semnale telegrafice ce pot fi transmise, este cuprinsă între 5 şi 5,5. Aşa cum notează istoricul britanic al tehnicii C. C. Bissell, el nu e primul care a arătat că existenţa însăşi a unei benzi de frecvenţă ar limita nivelul emisiei, dar abordarea care reprezintă caracterul novator al propunerii sale este mai ales cea pe care o calificăm astăzi drept „sistemică”. În ceea ce priveşte noţiunea de informaţie, Küpfmüller se gândeşte la litere, iar exemplul pe care-l ia referitor la emisia unei litere codată în Morse (sistem adoptat încă de la prima conferinţă internaţională de telegrafie din 1865) îi furnizează expresia de „viteză telegrafică” în funcţie de numărul literelor formate plecând de la cinci semnale elementare (Fünferbuchstaben) pe

67

Page 68: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

care îl putem transmite pe minut. Totuşi, el nu se interesează de diferitele maniere de a selecţiona aceste elemente în constituirea semnalului.

În comparaţie, articolul lui Nyquist aduce o mare noutate: oferă o expresie cantitativă a vitezei cu care se poate transmite informaţia („inteligenţa”). Cei doi factori pe care îi studiază sunt „alegerea codurilor” şi „punerea în formă a semnalului” (signal shaping). Noţiunea de „semnal” emis este aici clar distinctă de cea de „caracter” transmis, semnalul fiind constituit din caracterele obţinute prin combinarea diferitelor elemente alese dintr-un joc de elemente disponibile. El ia în considerare „numărul total de caractere care pot fi ansamblate (construed) şi nu-şi pune deci problema de a se îngriji să ştie dacă toate ansamblările au un sens (sau măcar dacă ele corespund unui caracter existent în cod). Mai putem constata aici, încă de la început, că preţul plătit pentru cuantificarea noţiunii de informaţie e renunţarea cel puţin provizorie la modelarea dimensiunii semantice a informaţiei.

În corpul textlui său, Nyquist dă următoarea formulă pentru „viteza de transmisie a inteligenţei”:

W = K log m

unde K este o constantă, iar m este numărul valorilor de curent electric distinse. Doar în anexă explică condiţiile care îi permit să stabilească această formulă şi două sunt remarcile ce se impun atunci.

Mai întâi, el enunţă ipoteza unui cod în care toate elementele au aceeaşi durată, precizând că acesta „este de obicei cazul codurilor imprimabile”. Dintr-o lovitură, caracterul aleatoriu al mesajului este simplificat la maximum şi Nyquist nu are nevoie de alte instrumente matematice decât combinatorica exhaustivă: dacă n este numărul de semnale elementare pentru un caracter, numărul caracterelor posibile este mn şi avem deci n log m = Cte, ceea ce dă pentru viteza de transmisie a inteligenţei, care este invers proporţională cu n, rezultatul anunţat mai sus. Examinând rapid cazul în care asemenea durate n-ar fi toate egale, el indică că o luare în considerare a „frecvenţelor relative la diferite caractere” ar fi suficientă pentru a arăta că formula pe care o dă ar furniza încă o bună aproximaţie pentru acest caz. De altfel, Nyquist se interesează îndeaproape de acest caz atunci când el (cazul) determină alegerea codului. Raportându-se la un Manual de soluţii pentru cifrurile militare cu scopul de a avea date statistice despre frecvenţa utilizării literelor în engleză, el compară eficacitatea diferitelor variante ale codului Morse (Morse-ul american şi Morse-ul „continental”) raportându-l la un cod „ideal” funcţionând cu două sau trei valori de curent electric. Acest cod ideal se bazează pe principiul potrivit căruia literelor celor mai frecvent utilizate li se atribuie codurile cele mai puţin lungi.

Apoi trebuie notat că Nyquist distinge în ultimul paragraf al articolului său între transmisia de putere (a curentului electric) şi transmisia „de inteligenţă” (a informaţiei) explicând că contrar a ceea ce în general se admite, mai ales în cazul telegrafiei submarine aceeaşi undă nu poate să corespundă la două cerinţe de tipuri diferite: o anumită stabilitate pentru tramsmisia de putere şi o mare supleţe pentru a putea transmite schimbările bruşte de semnal. E de mirare că Nyquist nu face aici aluzie la teoria modulaţiei de amplitudine care permite tocmai rezolvarea acestei probleme. Mai mult, teoria modulaţiei de frecvenţă ajunsese să vadă lumina zilei cu doi ani mai devreme, sub pana lui J. R. Carson (chiar dacă Armstrong nu-i va arăta tot interesul decât în anii '30, pentru a lupta contra problemelor legate de zgomot). El evocă aceste tehnici, fără însă a-şi modifica fondul propunerii, doar când face aluzie la cazul radioului (pe care-l asimilează cazului telegrafiei cu undă purtătoare).

68

Page 69: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

Cu toate acestea, deşi porneşte de la un referent tehnic mai îndepărtat, aproape în exclusivitate sistemul telegraphic cu current continuu aşa cum ne-o arată de altfel titlul articolului său: „Câţiva factori afectând viteza telegrafică” , rezultatele pe care le obţine au o mai mare generalitate decât cele ale lui Küpfmüller şi mai ales un impact teoretic mai deplin. Formaţia celor doi oameni de ştiinţă explică, poate în parte, această diferenţă. Küpfmüller (1897-1977) are o formaţie clasică de inginer în electrotehnică, o disciplină învăţată devreme prin studiile făcute în Germania, după un sistem de ucenicie (Ausbildung) cu o mai largă recunoaştere decât în alte ţări. Astfel, pe Küpfmüller îl găsim în ucenicie la atelierele Siemens-Schuckert din Nuremberg din 1915 şi până în 1917. Aşadar, electrotehnica putea fi învăţată fără a trebui să urmezi un curs complet de fizică. În ceea ce-l priveşte pe Nyquist (1889-1976), el tocmai fizica a studiat mai cu seamă (Ph. D., adică doctorat susţinut la Universitatea din Yale în 1917, trei ani după ce a dobândit naţionalitatea americană). Din această perspectivă, se poate înţelege de ce propunerile lui Nyquist sunt mai puţin dependente de problemele tehnice ale epocii. Astfel, el se limitează în studiul său aproape la transmisia semnalelor continuie, curentul primind mai ales un număr finit de valori. Putem fi, de altfel, surprinşi de constatarea că prima miză a lui Nyquist în publicaţia sa este să recomande abandonarea undelor sinusoidale în favoarea unei unde rectangulare trecând printr-un circuit clasic construit pornind de la rezistenţe, inductanţe şi capacităţi pe care are grijă să le determine.

Astfel, în mod paradoxal, Nyquist se află probabil într-un cu atât mai mare recul cu cât e mai puţin constrâns să găsească aplicaţii practice lucrărilor sale decât Küpfmüller. Hagemeyer consacră una dintre anexele tezei sale de doctorat descrierii mediului de cercetare din Germania anilor '20. El arată, plecând de la organigrame şi alte statistici din epocă privind organizarea Laboratoarelor Siemens & Halske, a Institutului Heinrich Hertz de cercetare a oscilaţiilor şi a celebrului Telegraphentechnisches Reichsamt der Deutschen Reichspost, că nici un loc nu era consacrat serviciilor comparabile celor de „cercetări asupra transmisiilor” de la Bell Labs sau celor de „cercetare matematică” de la AT&T. În laboratoarele germane nu se plătea „luxul” de a avea laboratoare de cercetare fundamentală, expresie utilizată chiar de către Nyquist într-o notă internă la Bell Labs, datată 6 iulie 1934. Cu privire la studiile asupra „fundamentelor telegrafiei” el scrie: „(...) se poate ca această muncă să fie un lux. Telegraful cu frecvenţă vocală pare să iasă mai degrabă bine în ansamblu fără a trage mare profit din teoria fundamentală. Telegraful cu curent alternativ ar fi fără îndoială mult ajutat de o asemenea muncă, dar acesta nu pare să aibă o mare importanţă economică. Faptul că rezultatele sale au adesea o redusă importanţă economică reprezintă unul dintre cele mai mici inconveniente existenţiale ale teoreticianului din telegrafie”.

Înainte de toate, se cercetează doar ceea ce este economic rentabil, iar restul poate fi apoi considerat ca un „lux”. Totuşi, pentru a urma această viziune evident un pic caricaturală, în cazul Laboratoarelor Bell acest lux era pentru a spune astfel „gratuit”. Situaţia de cvasi-monopol pe care o avea interprinderea lor, le permitea cu uşurinţă să finanţeze cercetările fundamentale, plătite indirect de utilizator. P. Aigrain explică bine, într-un interviu, cum acest sistem a putut funcţiona chiar şi după legea anti-trust care limita beneficiile intreprinderii. Mai mult, în domeniile vizate de concurenţă, Bell Labs avuseseră de asemenea ideea de a nu lăsa câmpuri libere.

După datele furnizate de Hagemyer, departamentul de cercetare a Laboratoarelor Bell foloseşte la mijlocul anilor '20 în jur de 1400 de cercetători sau ingineri, formând astfel cel mai mare laborator din lume consacrat telecomunicaţiilor. La momentul în care Nyquist publică, în 1924, el e încă la AT&T, responsabil cu un grup de muncă aplecat asupra „semnalizării telegrafice prin curent alternativ”. Departamentul de cercetare la care este

69

Page 70: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

ataşat (dezvoltarea transmisiunilor) cuprinde 160 de oameni de ştiinţă, număr comparabil cu cel de 140 pe care-l regăsim la laboratorul central Siemens & Halske unde lucrează Küpfmüller.

Pentru a ne forma o idee despre lucrările teoretice efectuate de către echipa lui Nyquist, putem menţiona articolul pe care-l publică în 1927 împreună cu doi dintre colegii săi, Shanck et Cory. Studiul în ansamblu e consacrat măsurării fenomenelor de distorsiune în cazul transmisiei prin curent continuu (Shanck era responsabil de grupul „telegraf cu curent continuu” din cadrul aceluiaşi departament în care lucra şi Nyquist). Autorii se folosesc de modelul unei distribuţii normale pentru a caracteriza distorsiunea şi sfârşesc prin a propune un nou aparat permiţând măsurarea calităţii transmisiei fără să utilizeze înregistrări. Acesta permite, după cum a remarcat J. H. Bell într-o discuţie despre articol, să realizăm economie de timp în localizarea defecţiunilor circuitelor telegrafice care „în această ţară se repetă atât de des”. Totuşi, faptul că ei se limitează la transmisia prin curent continuu blochează provizoriu dezvoltarea teoriei. Aceasta este concluzia pe care o putem trage din studierea acestor articole de „pionerat”, dar mai ales din cele scrise apoi de către Nyquist şi Küpfmüller, îndeosebi de-a lungul anilor '20 sau din lucrarea publicată de R. V. L. Hartley în 1928, care marchează o nouă etapă în conceptualizarea noţiunii de informaţie.

Hartley la Laboratoarele Bell Telephone şi dezvoltarea primelor cercetări

Contrar lui Nyquist şi Küpfmüller, R.V.L Hartley (1888-1970) este un inginer cu multiple centre de interes. În afara publicaţiei sale din 1928, „Transmisia informaţiei”, adesea menţionată ca una dintre originile teoriei matematice a comunicaţiei, găsim uneori numele său legat de un tip de circuit oscilant pe care el îl pune la punct la începutul anilor 1910 sau, în fizica matematică, de un tip de transformare matematică comparabilă cu transformarea lui Fourier, propusă în 1942.

Referitor la perioada care ne interesează mai mult, 1920-1945, Hagemeyer recenzează şaptesprezece publicaţii din care aproape jumătate despre probleme de telecomunicaţii, un sfert în acustică, iar celălalt sfert în mecanica cuantică. Cu aceeaşi uşurinţă, Hartley trece de la lucrări teoretice universitare la lucrări inginereşti. Până să publice în 1928, el se află angajat de 15 ani la Bell Labs sau la Western Electric. Face parte din departamentul de cercetare a transmisiunilor, a cărui conducere şi-o asumă. În acest sens, el se găseşte în organigrama Bell Labs cu două nivele deasupra nivelului lui Nyquist de la AT&T, în fruntea a 148 de angajaţi faţă de 8 pentru Nyquist.

În ceea ce priveşte acustica, el a explicat de exemplu încă din 1919 că urechea umană ar repera direcţia de unde vine un sunet analizând diferenţele de fază dintre două semnale receptate. Interesul său pentru fizică este totuşi mai apropiat de preocupările noastre. În fond, Hartley îşi petrece o bună parte din viaţă încercând să arate că ceva nu e în regulă cu relativitatea generală şi, uneori, chiar cu mecanica cuantică. El va publica studii ce apără acest punct de vedere mai ales în anii '50, în reviste celebre precum Physical Review sau Science. De altfel, în Science, în 1950, porneşte de la cartea lui Wiener, Cibernetica, pe care o citează abundent, pentru a arăta că … „(...) faptul că fusese comod de a descrie fenomenele atomice în termeni de sistem non newtonian, caracterizându-le prin anumite probabilităţi de tranziţie, nu constituie prin el însuşi o probă că sistemul, în comportmamentul lui detaliat, nu se supune legilor newtoniene”.

Ori, lucrarea sa publicată în 1928 e reproducerea unei comunicări susţinute la primul Congres Internaţional de Telegrafie şi Telefonie cu şi fără fir care se ţinuse în Italia pe malul Lacului Como în onoarea centenarului morţii lui Volta în septembrie 1927. Acest Congres se ţinuse în acelaşi moment şi pe acelaşi loc cu cel al fizicienilor unde se regăseau Rutherford,

70

Page 71: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

Gerlach, Bragg, Frank, Zeeman, Millikan şi mai ales Bohr. Era vorba de celebrul congres la care Bohr voia să-şi anunţe principiul complementarităţii şi e foarte rezonabil de a presupune că Hartley era interesat de manifestările organizate. Doi dintre participanţii la congresul asupra telecomunicaţiilor fuseseră de altfel chiar invitaţi la congresul de fizică.

Dar să analizăm îndeaproape comunicarea sa publicată în Bell System Technical Journal. Cuvântul informaţie apărea încă de la începutul studiului, între ghilimele, ca şi cum am fi avut de-a face aici cu una dintre primele utilizări ale cuvântului în afara sensului lui curent. Autorul opune, de altfel, consideraţiile „fizice” care sunt ale sale la consideraţiile „psihologice” obişnuite şi declară în mod explicit: „(...) ignorarea problemei interpretării, efectuând fiecare selecţie de-o manieră perfect arbitrară şi fondându-ne rezultatele pe posibilitatea receptorului de a distinge rezultatul cutărei sau cutărei selecţii”.

Pentru că tocmai de o informaţie „selectivă” e vorba aici, repetarea verbelor „a selecta” sau „alege” nu e anodină (de 23 de ori pe trei pagini). Hartley dispune pentru teoria sa de un referent tehnic foarte precis: sistemul Baudot, după numele inginerului francez Emile Baudot (1845-1903), sistem a cărui funcţionare se caracteriza printr-un cod de lungime constantă, alcătuit din cinci simboluri primare, indiferent care ar fi fost scrisoarea de transmis. Pornind de aici, el obţine la rândul său o formulă dând cantitatea de informaţie:

H = n log s ,

în care n reprezintă numărul de selecţii, iar s numărul de simboluri primare disponibile. Alegerea literei H, iniţiala autorului, poate lăsa impresia că Hartley înţelegea să-şi lase numele posterităţii pentru această definiţie. Aceasta este, de altfel, sursa unei neînţelegeri privind analogia cu teorema H a lui Boltzmann, asupra căreia vom avea ocazia de a reveni. Ca şi la Nyquist, această formulă vizează toate combinaţiile fizic posibile, independent de faptul că ele pot să nu corespundă unui aranjament de simboluri primare utilizate în cod. E vorba deci de o măsură „fizică” a unei cantităţi pe care am putea-o califica încă de la început drept „virtuală” din moment ce ea priveşte ceea ce am putea transmite, la modul condiţional, iar nu ceea ce transmitem efectiv. Această remarcă are aici importanţa ei, întrucât rămâne valabilă de-a lungul dezvoltării a ceea ce s-a convenit de a numi la sfârşitul anilor '40 „teoria informaţiei”, iar astăzi încă „societate comunicaţională” sau „cyberspace”.

Să mai notăm că formula de mai sus depinde stringent de obiectul tehnic de care se leagă: dacă acesta ar fi fost considerat precum un cod Morse sau dacă simbolurile secundare nu sunt constituite din acelaşi număr de simboluri primare (linii şi puncte), Hartley şi-ar fi putut pondera cantitatea de informaţie ţinând cont de frecvenţele de utilizare, utilizând formalismul probabilităţilor. Autorul recenziei care poate fi citită în Revista Generală de Electricitate din octombrie 1928 nu se înşeală: el scrie că Hartley ajunge la această măsură „bazându-şi demonstraţia pe cazul sistemului de telegraf Baudot”. Ori, potrivit arhivelor consultate de Hagemeyer, devine clar că Hartley n-avea decât o slabă pregătire în domeniul calculului probabilităţilor, pe care preferă tocmai de aceea să nu-l utilizeze. Atunci când remarcă faptul că un cod de lungime variabilă ar conduce la formule foarte „complexe”, el nu-şi dezvoltă mai departe cercetările. După cum putem observa, aportul lui Shannon la teoria informaţiei, în domeniul definirii cantităţii de informaţie, urmează cu precizie ceea ce deja scrisese Hartley.

După alte două părţi consacrate unui studiu referitor la „dobânzile comunicării” (egale cu constantele de amortizare a circuitelor utilizate pentru transmisie), iar apoi la analiza raporturilor dintre stările de echilibru şi regimurile tranzitorii, Hartley stabileşte o limită a cantităţii de informaţie ce poate fi transmisă în cazul când se înmagazinează energie pentru restrângerea transmisiunii în regim permanent la un interval limitat de frecvenţe. Această

71

Page 72: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

limită este proporţională cu produsul intervalului de frecvenţă şi durata de timp în care frecvenţele sunt utilizabile, rezultat care se apropie de cel al lui Küpfmüller, abordat mai devreme. Küpfmüller făcea de altfel parte din delegaţia germană la congres, dar cei doi s-au cunoscut personal mult mai târziu decât cu această ocazie, aşa cum Hagemeyer demonstrează printr-o scrisoare de-a lui Nyquist către Küpfmüller din februarie 1928.

Obiectivul lui Hartley este în mod explicit de a putea compara diversele capacităţi de transmisie a mijloacelor de comunicare şi de a-i conduce pe inginerii acestor domenii spre aplicaţii practice interesante. Importanţa generală a lucrărilor sale este clar ilustrată: e vorba de sisteme „de telegrafie, de telefonie, de transmisie a imaginii şi de televiziune”, prin „fire sau prin radio”. În acest sens, e vorba de o unificare a diferitelor mijloace de măsurare a eficacităţii unui sistem de transmisie. Ca probă, reamintim că „Baud”-ul (de la numele inginerului francez Baudot) fusese introdus ca măsură a vitezei modulaţiei unui semnal în 1929, la puţin timp timp după publicaţia lui Hartley. Definită la început ca număr de caractere transmisibile prin sistemul Baudot (deci plecând de la 5 semnale binare elementare) cu pauză, această unitate nu permitea nici în 1935 măsurarea cantităţii de informaţie transmisă de către un alte sistem foarte răspândit: sistemul lui Hughes introdus în 1855. Astăzi încă se pune semnul echivalenţei între baud şi bit în cazul semnalelor binare. La câţiva ani după publicarea „teoriei matematice a comunicaţiei” de către C.E. Shannon, anumiţi autori propun de altfel „Hartley”-ul ca unitate de măsură a informaţiei. În mod special, e cazul lui G.-Th. Guilbaud din cartea sa Cibernetica din 1954: aici, el definea „Hartley”-ul ca alternativă elementară.

Aşa cum arată Hagemeyer, lucrarea publicată de Hartley a cunoscut un anumit ecou mai ales în epocă pentru faptul că a utilizat logaritmul zecimal. O controversă avusese loc referitor la utilizarea scărilor logaritmice în studiul fenomenelor de amortizare şi Hartley face în mod explicit aluzie la ea atunci când dă propria formulă a cantităţii de informaţie. Până la jumătatea anilor '20, măsurile cantităţii de informaţie erau diferite între Statele Unite şi Marea Britanie, pe de o parte, şi alte ţări europene, pe de altă parte. Ambele tipuri de măsuri aveau inconvenientul de a fi dependente de frecvenţă, iar la momentul introducerii logaritmilor problema care se punea era de a şti dacă trebuie să se facă referire la logaritmul zecimal (reamintim că decibelul un este introdus decât în 1932) sau la un alt gen de logaritm. Anglofonii aleg algoritmul zecimal şi acesta se regăseşte, de exemplu, în definiţia informaţiei la Alan Turing care introducea câţiva anu mai târziu „Deciban”-l ca unitate de informaţie.

Breisig, unul dintre principalii participanţi la această controversă, de partea germană, nu pare a se interesa de publicaţia lui Hartley decât din această perspectivă, reamintind că el îi propune o altă „măsură de transmisie”. De abia după reluarea rezultatelor lui Hartley de către Lüschen şi Strecker, la începutul anilor '30, porneşte interesul cu privire la definiţia dată informaţiei de către Hartley, dar nu referitor la limita pe care el o determină pentru cantitatea de informaţie – ca produsul dintre banda de frecvenţe utilizate şi timpul de transmisie –, ci referitor la definiţia sa logaritmică. Toate aceste lucrări sunt abordate în teza de doctorat scrisă de Hagemeyer, inclusiv studiul publicat de Küpfmüller într-o revistă suedeză din 1931, adică pe vremea când Küpfmüller, profesor la Technische Hochschule din Danzig (Gdansk), preciza rezultatele limitative enunţate de Nyquist în 1924.

Înainte de aceasta, la un moment aproape de apariţia comunicării prezentate de Hartley la lacul Como, în 1928, Nyquist publică de asemenea două articole importante. Primul îl reia pe cel din 1924 analizat mai sus, e vorba de „Câteva teme ale teoriei transmisiei prin telegraf”. Telegraful cu curent continuu rămâne în cadrul acestui articol referinţa utilizată, dar găsim aici şi un studiu suplimentar consacrat fenomenelor de interferenţă între simboluri datorat faptului că valorile luate succesiv de către un semnal interferează unele cu altele la un moment dat. Al doilea articol este consacrat numai zgomotului de origine termică în

72

Page 73: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

conductori; el apărea în Physical Review şi completează articolul lui J.B. Johnson, care-l precede în numărul revistei şi care îi oferă cadrul general de analiză. El utilizează mai întâi cea de-a doua lege a termodinamicii pentru a arăta că „(...) forţa electromotrică datorată agitaţiei termice din conductori este o funcţie universală a frecvenţei, a rezistenţei, a temperaturii şi numai a acestor variabile”. În continuare, aplicând legea echipartiţiei de energie, el îi găseşte o expresie cantitativă. Acest scurt articol, de numai patru pagini, va avea aplicaţii mult timp după aceea. Astfel, în 1951, putem citi, tot în Physical Review, un articol intitulat „Ireversibilitate şi zgomot generalizat” şi care face în mod explicit legătura între teoria mişcării browniene şi această publicaţie a lui Nyquist, fără să abordeze noţiunea de informaţie.

Încă o remarcă aici, ca şi pentru statistici, lucrările pe care noi le analizăm au două tipuri de posterităţi diferite. Ele contribuie, în acelaşi timp, la emergenţa unei teorii ştiinţifice a informaţiei şi la apropieri între diferitele domenii ştiinţifice care există independent de noţiunea de informaţie. Primele prelungiri

Schematic, pot fi distinse două feluri de urmări pentru toate aceste lucrări din anii '20, în domeniul tehnic sau teoretic, chiar dacă cele două tipuri de dezvoltări sunt aici strâns legate. Din punct de vedere teoretic, o veritabilă teorie matematică a informaţiei se conturează încetul cu încetul, dar aceasta se sprijină în acelaşi timp şi pe evoluţia aparatelor de măsură şi a sistemelor de transmisie.

Dacă continuăm să răsfoim numerele din Bell System Technical Journal, vom găsi în 1939, după articolul lui Nyquist din 1924 şi cel al lui Hartley din 1928, un nou articol scris de Shanck şi Cory, la doisprezece ani după cel evocat mai sus. Acesta din urmă nu este scris împreună cu Nyquist, dar comportă totuşi numeroase referinţe la scrierile inginerului de origine suedeză. E vorba peste tot de a măsura transmisiile telegrafice şi, inspiraţi de ideile lui Nyquist, autorii studiază un nou tip de telescriptor automat. Putem nota că vitezele de transmisie sunt exprimate aici în cuvinte pe minut, în puncte pe secundă şi în baud-i. Nu pare să aibă o măsură unificată şi, mai degrabă cercetând noi tipuri de aparate decât dezvoltând lucrările lui Hartley şi Nyquist, autorii speră să poată îngloba cât de multe cazuri posibile, ceea ce le-ar putea permite să ajungă la o măsură-etalon a vitezei de transmisie, chiar dacă acest lucru nu constituie explicit obiectivul lor. De altfel, e de reţinut că ei se referă atât la surse americane, cât şi germane, pentru tot ceea ce vizează funcţionarea diferitelor sisteme telegrafice. Indiferent că e vorba de Nyquist sau de Küpfmüller, cu privire la relaţiile dintre banda de frecvenţe şi timpii de transmisie, găsim de asemenea primele consideraţii relative la stabilitatea amplificatorilor.

Articolul publicat de Küpfmüller în 1928, „Despre dinamica regulatorilor automaţi de amplificare”, conţine de pildă una dintre primele scheme generale de retroacţiune:

Küpfmüller [1928], p. 460 (text şi schemă)

73

Page 74: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

„Dispozitivul de reglare comportă în general un «sistem de transmisie» M1 şi un sitem de reglaj M2. Sitemul de transmisie M1 ilustrează relaţia dintre mărimea S1 a unui sistem, care de-o manieră sau alta poate fi modificată în timp, şi mărimea S2 a unui sistem de care depinde şi care poate fi menţinută constantă graţie dispozitivului de reglare. Dacă sistemul de reglaj M2 n-ar exista, între mărimile S1 şi S2 s-ar stabili, în stare staţionară, o relaţie pe care o putem scrie sub forma următoare:

S2 = A S1,

unde A este «factorul de transmisie» al sistemului M1. El poate depinde, la rândul său şi la modul general, de M1.

Efectul sistemului de reglaj M2 constă în alegerea factorului de transmisie A în funcţie de mărimea S2 astfel încât o creştere a lui S2 să cuzeze o diminuare a lui A şi invers”.

Mai mult, aşa cum arată Bissell, Nyquist şi Küpfmüller au propus amândoi în anii '20 şi '30 criterii permiţând statuarea stabilităţii buclelor de retroacţiuni, ceea ce de altfel a dat prilej unei controverse de prioritate între un coleg de-al lui Küpfmüller, Felix Strecker, şi Nyquist în lucrările publicate de ei la începutul anilor '30. Dacă teoria retrocontrolului nu intervine direct în elaborarea teoriei matematice a comunicaţiei, noi avem ocazia de a constata că ea participă într-o mare măsură la progresul acesteia. În fine, o teorie unificată a comenzii şi reglajului începe să vadă lumina zilei după lucrările teoretice şi tehnice ale lui Harold Black şi Hendrick Bode, publicate în 1935, respectiv în 1945, găsindu-şi expresia formalizată în înflorirea ciberneticii. Black avusese ideea de a amplifica un semnal cu ajutorul retroacţiunii negative, iar Bode dezvoltase teoria matematică corespondentă. Principiul unificării care a rezultat se bazează pe analogia dintre diferitele sisteme de reglare şi vom vedea că dacă – în a doua jumătate a anilor '40 – cibernetica reprezintă reuşita acestui demers în Statele Unite, încă din anul 1940 mai găsim o „teorie generală a reglajului” în Germania, odată cu sinteza propusă de Hermann Schmidt. De abia după apariţia acestui tip de sinteză, buclele de retroacţiune vor fi caracterizate prin transmiterea de informaţie pe care ele o permit. Astfel, un studiu mai aprofundat al acestor mecanisme un-şi are locul aici, dar va abordat în contextul naşterii teoriilor cibernetice sau analoage.

Întotdeauna, pe plan tehnic trebuie să ne aşteptăm că sistemul de modulaţie prin impulsuri codate (M.I.C., Pulse Code Modulation în engleză), pus la punct în 1938, se impune cu adevărat ca sistem de referinţă pentru ca o autentică teorie a informaţiei să poată vedea lumina zilei. Acest lucru se observă în detaliu analizând lucrările lui Shannon. Plecând de la definiţia lui Hartley, un cercetător din laboratorul federal de telecomunicaţii, A.G. Clavier, va defini de altfel un criteriu de eficienţă pentru transmisie, ceea ce demonstrează noul interes pe care-l stârneşte M.I.C.. Acest lucru se întâmplă după cel de-al doilea război mondial, la un moment în care publicaţia lui Hatley revine din nou în actualitate.

În fine, în 1945, această publicaţie din 1928 face obiectul unui editorial al revistei Electronics, pentru noile sale aplicaţii în televiziune. Cercetători precum Strecker în Germania (1935) sau Hartey însuşi într-un raport intern al Bell Labs din 1943, aveau să arate că era delicat de aplicat definiţiile date în 1928 la noi sisteme tehnice precum vocoder-ul (1935, cf. cap. 2) care permitea codarea vocii umane. În acest editorial formulele lui Hartley vizând raporturile dintre lărgimea benzii şi timpii necesari transmisiei unei cantităţi de informaţie iau titulatura de „lege a lui Hartley”, inginerul de la Bell Labs fiind de altfel decorat pentru acest motiv cu medalia de onoare a Institute of Radio Engineers în 1946. Totuşi, doi ani mai târziu, odată cu publicarea lucrărilor lui Shannon ce vor cunoaşte o răspândire considerabilă, „legea lui Hartley” este abandonată, la fel ca şi referinţele la

74

Page 75: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

lucrările lui Küpfmüller. Trebuie spus aici că Küpfmüller fusese numit în 1944, direct de către amiralul Dönitz, responsabilul echipei ştiinţifice însărcinată de a duce la bun sfârşit războiul submarin. Acesta este motivul pentru care Küpfmüller avea să fie arestat de forţele americane, din 1946 până în 1947, odată cu ocuparea Germaniei.

E dificil de a şti în ce măsură Hartley participă la teoria matematică născândă a comunicaţiei. Rolul său nu se restrânge, fără îndoială, doar la la lucrările publicate şi la rapoartele în domeniul telecomunicaţiilor. În ale sale Amintiri despre diversele origini ale ciberneticii – scriere ce-i fusese prezentată lui Hartley în 1929 – Warren McCulloch, unul dintre principalii promotori ai ciberneticii din anii '40 împreună cu Wiener, indică referitor la noţiunea de informaţie că această noţiune se afla definită de-o manieră interesantă de către C.S. Peirce: ca al treilea tip de cantitate, dincolo de opoziţia „subiect/predicat”, „antecedent/consecvent”. McCulloch scrie atunci, e adevărat că într-o manieră cu totul retrospectivă: „Aceasta era sâmburele definiţiei americane a informaţiei ca şi cantitate. Înflorirea se va face cu Teoria matematică a comunicaţiei a lui Shannon, în 1948”.

Faptul că Hatley cunoaşte scrierile lui Peirce despre informaţie contribuie fără îndoială la ceea ce într-unul din numeroasele rapoarte nepublicate găsim în 1939, cu puţine dezvoltări, la menţiunea „teoria măsurii cantitative a informaţiei”. În starea actuală a cunoştinţelor despre lucrările lui Hartley, e încă dificil să ne pronunţăm în mod definitiv asupra eventualei influenţe a lui Peirce. Când munca sa de inginer vizează în mod esenţial telecomunicaţiile, el pare conştient de posibilităţile de lărgire a propriei teorii.

Prin urmare, independent de cercetările lui Shannon, se poate constata că impactul lucrărilor lui Hartley a fost de fiecare dată recunoscut. De pildă, William Tuller (născut în 1918) va susţine o teză la M.I.T. în 1948, în care viitorul său articolul din 1949 este un rezumat. Acest articol, intitulat „Limitaţiile teoretice ale nivelului de transmisie a informaţiei” se situează în prelungirea directă a publicaţiei din 1928 a lui Hartley, pe care o caracterizează drept „strămoşul cel mai direct al prezentei comunicări”. Tuller, care reaşează lucrările lui Hartley lângă cele ale lui Nyquist, Küpfmüller şi Carson (pentru tratarea zgomotului), beneficiază în plus de o lectură atentă făcută scrierilor lui Wiener şi Gabor care, în 1946, publică în Marea Britanie o „teorie a comunicaţiei”.

În ceea ce priveşte raportul lui Hartley din 1939, să notăm că acesta este consacrat unei teorii generale a fizicii, chiar dacă Hartley pare a nu fi avut cunoştinţă de lucrările realizate în domeniul fizicii asupra noţiunii de informaţie, principala lui activitate în acest domeniu fiind de a căuta să promoveze fizica newtoniană acolo unde relativitatea se aplică

De-abia în anii '40 găsim articole de fizică în Bell System Technical Journal, în special odată cu lucrările lui K. Darrow care publică în 1942 un articol intitulat simplu “Entropie” unde încearcă să definească această mărime fizică plecând de la probabilităţi. Darow are, de altfel, un parcurs profesional analog cu cel al lui Hartley: începând cu Western Electric (1917-1925) şi continuând la Bell Labs. În publicaţia sa el scrie că regretă „barierele false dintre fizică şi chimie”, ele semănând cu vechile „frontiere europene depăşite (old-fashioned)”. Proiectul său este tipic pentru perioada de la începutul anilor '40, când structura cercetării ştiinţifice – intim legată de eforturile de război – face posibilă interdisciplinaritatea necesară soluţionării problemelor ştiinţifice. Darow scrie că scopul principal al articolului său este „de a aboli batierele atât cât este posibil”  între discipline şi de a preciza semnificaţia fizică a probabilităţilor, mai cu seamă în expresia entropiei pe care el ne-o dă pentru N molecule: S = -k N S ψ ln ψ.

Pentru a opri aici această analiză a diferitelor volume din Bell System Technical Journal, îl mai cităm pe S.O. Rice, intrat la Bell Labs în 1930, care publică în 1944 şi 1945 un articol referitor la „Analiza matematică a zgomotului aleator”. Rice se interesa la Bell Labs de diferitele tipuri de defecte de funcţionare a reţelelor telefonice. Zgomotul, care nu este

75

Page 76: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

practic tratat în scrierile lui Nyquist sau Hartley, apare aici considerat ca o variabilă aleatorie şi, din aceast motiv, articolul lui Rice e atât de apropiat ca demers de cel al lui Chandrasekhar, citat mai sus pentru fizică. Concepţia despre zgomot ca variabilă aleatoare este cea care, din faptul că zgomotul alterează mesajul emis, îi va conduce încetul cu încetul pe ingineri să trateze şi mesajul cu ajutorul formalismului probabilitţilor.

Mai constatăm aici doar că frontierele dintre fizică, statistică şi telecomunicaţii sunt îndeosebi formale, marcate mai degrabă de forma structurilor de cercetare şi de formaţia fiecărui cercetător, decât de veritabile închideri disciplinare. De-o manieră foarte schematică, observăm că în vreme ce sistemul de cercetare german apărea mai mult centrat pe individ şi axat îndeosebi pe aspectele tehnice ale cercetării, laboaratoere întregi din Statele Unite suscită, prin structurile lor, dezvoltarea de noi teorii. Diferenţele de formare şi experienţele profesionale fac din cazurile lui Küpfmüller şi Nyquist un exemplu semnificativ din acest punct de vedere.

Printre altele, ne aflăm în prezenţa a trei definiţii cantitative ale informaţiei. Fie ea în fizică, statistică sau telecomunicaţii, informaţia este o mărime care devine măsurabilă, dar rămâne non materială. Cercetările care acompaniază aceste definiţii au două tipuri de prelungiri, deopotrivă în interiorul matricii disciplinare şi pentru elaborarea teoriei matematice a comunicaţiei care se conturează în anii '40 în Statele Unite. Această teorie precede, aşa cum deja am văzut, o unificare nu numai a acestor trei definiţii, dar şi a altora sau a celorlalte dezvoltări contemporane ale lor. E vorba îndeosebi de teoria comenzii şi a reglajului care, împreună cu proiectul cibernetic, se vor integra în această mişcare de sinteză generală. Pentru a nu lăsa să se creadă că această unificare care marchează întreaga perioadă a anilor '40 ar fi putut rezulta din simplele evoluţii proprii diferitelor câmpuri ştiinţifice, trebuie menţionat că, cel puţin în Statele Unite, contextul celui de-al doilea război mondial suscită această unificare şi determină orientarea principalelor cercetări desfăşurate în acest sens.

― Albert Borgmann, Holding On to Reality. The Nature of Information at the Turn of the Millennium, University of Chicago Press, Chicago and London, 1999:

1. Introducere(traducere si adaptare de Claudia Miclean după Albert Borgmann, Holding On to Reality. The Nature of Information at the Turn of the Millennium, University of Chicago Press, Chicago and London, 1999)

Informaţie vs. Realitate

Informaţia poate explica, transforma sau denatura realitatea. Atunci când o sănătate deficitară sau o defecţiune electrică te privează de informaţii, lumea se închide în jurul tău; devine întunecată şi nedreaptă. Fără informaţie despre realitate, fără rapoarte sau înregistrări, imposibilitatea experienţelor de orice fel ne va arunca imediat în mrejele ignoranţei şi uitării.

Pe lângă informaţia care dezvăluie ceea ce este departe în timp şi spaţiu, există informaţii care ne permit transformarea realităţii şi o fac mai bogată din punct de vedere material şi moral. După cum un raport este paradigma informaţiei despre realitate, tot astfel şi o reţetă este modelul informaţiei pentru realitate, instrucţiunile pentru prepararea pâinii, a vinului sau

76

Page 77: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

a supei franţuzeşti de ceapă. În mod similar, există planuri, partituri, şi constituţii, informaţii pentru ridicarea clădirilor, crearea muzicii şi organizarea societăţii.

Informaţia despre realitate îşi prezintă forma originară într-un cadru natural. O extindere a pietrişului fin este un semn că vă aflaţi în prejma unui râu. Pădurile de bumbac indică locul unde se află malul râului. O grămadă de rămurele într-un copac indică prezenţa egretelui. Prezenţa egretelor indică faptul că există păstrăvi în râu. În economia iniţială a semnelor un lucru indică un altul într-o ordine stabilită de referinţă şi prezenţă. Un banc de pietriş din depărtare te trimite la râu. Este un semn. Când ai ajuns la el şi ai început să păşeşti pe pietrele fine şi colorate, pietrişul a devenit prezent de drept. Este un lucru. La fel şi cu pomii, cuibul, păsările de pradă şi peştii.

Dacă semnele naturale rezultă din mediul lor şi dispar în el imediat, semnele convenţionale au o proeminenţă şi o stabilitate nenaturală. Pietrele care sunt strânse într-un morman indică un grad de concentrare şi un unghi de repaus care le diferenţiază de împrejurimi. Semnele convenţionale devin surse cu adevărat distincte de informaţii atunci când nu doar că ies în evidenţă în natură aşa cum fac mormanele de pietre, dar sunt detaşate de asemenea din mediul lor şi devin mobile aşa cum s-a întâmplat prima dată cu crestăturile de pe beţe şi cu pietricelele din buzunar, iar apoi cu simbolurile de lut din săculeţi, semnele de pe tăbliţele de lut, literele de pe papirus şi hărţile pe pergament. Semnele sunt total diferite de lucruri şi reprezintă originea unor lucruri cu totul noi. Acordurile sau înţelegerile au ajutat triburile să devină naţiuni, planurile au dus la ridicarea catedralelor, iar partiturile le-au dat posibilitate muzicienilor să interpreteze cantate.

Această imagine a unei lumi care este clară prin informaţia naturală şi prosperă prin informaţia culturală nu a fost nicicând mai mult decât o normă sau un vis. Este în mod cert de neidentificat în zilele noastre când cărăuşul paradigmatic al informaţiei nu este nici un lucru natural, nici un text cultural, ci un dispozitiv tehnologic, un şir de electroni care transmit unităţi de informaţie. În succesiunea de informaţii naturale, culturale şi tehnologice, fiecare tip care urmează sporeşte funcţia predecesoarei şi introduce o nouă funcţie. Informaţiile culturale, prin înregistrări, rapoarte, hărţi, şi tabele, dezvăluie realitatea într-un mod mult mai larg şi incisiv decât ar fi putut-o face vreodată semnele naturale. Dar semnele culturale de asemenea şi în mod caracteristic oferă informaţii pentru reorganizarea şi îmbogăţirea realităţii. În acelaşi mod, informaţiile tehnologice ridică atât explicarea, cât şi transformarea realităţii, la un alt nivel de luciditate şi putere. Dar introduc de asemenea şi un alt tip de informaţie. Informaţiei despre şi pentru realitate îi adaugă informaţia ca realitate. Paradigmele raportului şi reţetei sunt urmate de paradigma înregistrării. Informaţia tehnologică de pe un compact disc este atât de detaliată şi controlată încât ni se adresează efectiv ca realitate. Ceea ce provine din înregistrarea unei cantate de Bach pe un CD nu este un raport despre cantată şi nici o reţetă - partitura - pentru interpretarea cantatei, ci este ceea ce înţelegem în mod obişnuit prin muzică. Informaţia prin puterea tehnologiei se remarcă ca rival al realităţii.

Astăzi cele trei tipuri de informaţie se suprapun una peste alta într-un loc, se subminează una pe cealaltă în alt loc şi se înalţă şi se strâng în al treilea. Dar în mod cert informaţia tehnologică este cel mai proeminent strat de informaţie în peisajul cultural de astăzi, şi în mod crescând este mai mult o revărsare decât un strat, un potop care ameninţă să erodeze, suspende şi să-şi dizolve predecesorii.

Ca o consecinţă, lumea noastră abundă de informaţii. Te trezeşti cu ştirile de la radio, citeşti ziarul la micul-dejun, eşti absorbit de semne în drumul tău spre birou, te aşezi să porneşti computerul - care deschide într-adevăr ecluza de informaţii – te întorci acasă, porneşti televizorul şi laşi valurile de informaţie să se deruleze până când mergi în pat. În special sub forma publicităţii, informaţia, după cum a remarcat Brent Staples, "se extinde

77

Page 78: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

rapid pentru a umple spaţiul vandabil - care este, ca să-l denumim spaţiul gol." A profanat până şi zona sacră a Yankee Stadium-ului, diamantul baseball-ului. "Gândiţi-vă acum", spune Staples, "la o lume lipsită de linişte şi vid, unde fiecare suprafaţă ţipă şi fiecare linişte este umplută".

Vuietul de informaţii continuă să crească, alimentat de progresele enorme din tehnologia informaţiei. Atunci când cultura noastră îşi asumă rolul oficial de a pronunţa sumar efectul noii tehnologii a informaţiei, recită o formulă bine-uzată, spunându-ne că această tehnologie va îmbunătăţi "felul în care trăim, învăţăm şi muncim." Ocazional această restricţie premeditată produce afirmaţii şi mai pline de entuziasm, şi ni se spune că informaţia este ,,izvorul nesecat de mari bogăţii, aşa cum a fost şi pământul acum un secol". Va schimba "faţa peisajului naţional al publicităţii". Şi pentru a nu lăsa acest aspect nelămurit, s-a spus că transformarea informaţiei în viaţă artificială inteligentă "reprezintă Marea Lucrare a informaticianului, aşa cum construirea catedralei Notre Dame în L'Ile-de-France, a reprezentat Marea Lucrare a artizanului medieval".

Acest entuziasm reprezintă mult mai mult decât un capriciu al tocilarilor. Politicienii de extremă dreaptă şi cei de stânga care nu pot cădea de acord asupra vreunui aspect, sunt uniţi în fervoarea şi hotărârea lor de a avansa pe autostrada informaţiei, iar un Congres American - care în mod obişnuit amână acţiunile decisive sau aprobă proiecte de lege decisive la limită - pe data de 1 februarie 1996 a aprobat o reformă a telecomunicaţiilor de mare răsunet cu o majoritate mai mare de 90% în ambele camere.

Un asemenea entuziasm nu este fără motiv. Tehnologia informaţiei a produs deja o creştere enormă în ceea ce priveşte libertatea noastră de a selecta informaţia. Există sute de canale de televiziune din care putem alege, milioane de oameni cu care putem comunica, oceane de date pe care le putem obţine într-o secundă, realităţi virtuale pe care le putem explora şi de care ne putem bucura. Internetul în mod special a oferit oamenilor libertatea de a se elibera de constrângerile vârstei, sexului, rasei, timidităţii, singurătăţii şi să-şi creeze o viaţă liberă şi strălucitoare pe World Wide Web. Profesioniştii remarcă adesea cu bucurie că procesarea electronică a cuvintelor a redus sau eliminat complet bariera care se ridicase şi pe care mult prea des nu au reuşit s-o treacă pentru a-şi îndeplini sarcinile de scris. Teoretic, scriitorii pasionaţi şi cu spirit de aventură au sărbătorit căderea liniară şi ierarhică a cărţii austere şi ridicarea hipertextului multimedia flexibil şi asociativ.

Tehnologia informaţiei a devenit motorul economiei postmoderne. Economia modernă se afla în pericol de colaps datorită unui exces de bunuri produse în masă şi de otrăvire cronică, dacă nu fatală, datorită condiţiilor toxice pe care le crease în mediul înconjurător. Procesarea informaţiei a deschis noi portiţe şi dorinţe de a fi alimentaţi cu bunuri şi servicii sofisticate.A ajutat la monitorizare şi la curăţarea mediul şi la extinderea şi refolosirea resurselor. Informaţia în sine a devenit o resursă valoroasă şi un bun de consum care se găseşte cu uşurinţă pe pământul obosit.

Totuşi, cu toate aceste progrese, ne simţim uneori ca ucenici ai unui vrăjitor, incapabili să ne limităm puterile pe care le-am chemat şi de teamă să nu ne înecăm în potop le-am redus apoi. Şi la fel ca ucenicul, suntem incapabili să găsim cuvântul care ar putea restaura calmul şi ordinea, nefăcându-ne înţeleşi atunci când încercăm să ne controlăm situaţia. Cuvintele care se ivesc cel mai uşor pe buzele celor pregătiţi mereu să critice din cultura noastră, privesc justiţia socială. Va crea tehnologia informaţiei o nouă divizare între a avea şi a nu avea sau va spori vechea diviziune? Aceasta este cu siguranţă o întrebare justă. Dar tinde să ne îndepărteze de o întrebare mai profundă, şi anume: Revărsarea recentă şi iminentă de informaţie este bună pentru cineva, fie bogat sau sărac?

Procesarea cuvintelor noastre cu ajutorul computerelor şi apelând la surse cuprinzătoare de informaţii a transformat proza noastră într-una prolixă şi fără formă. Dar tehnologia

78

Page 79: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

informaţiei a dizolvat mai mult decât contururile scrisului nostru. Ne-a contaminat simţul identităţii cu dubii şi disperare. Există în trăsăturile mele palpabile aşa mult zgomot încât distorsionează adevăratul mesaj despre mine? Este eul meu eteric prin Internet adevăratul "Eu", fără accidente ale locului de care aparţin, clasei mele sociale, felului în care arăt? Sau este numai o versiune fragilă şi rătăcitoare a ceea ce de bine sau de rău sunt eu efectiv? Această nu înseamnă că amintitele versiuni virtuale ale eului sunt întotdeauna mai subtile. La anumite persoane deschiderea aceasta nenaturală a spaţiului electronic dă naştere la focuri de furtună de profanare şi ostilitate care ar fi de negândit la întâlnirile faţă-n faţă.

Informaţia inundă cu ambiguitate atât locul cât şi proprietatea. Umbre de îndoială şi de nemulţumire cad asupra lucrurilor care ţi-au fost de mare folos de atâţia zeci de ani atunci când săptămânal cataloage primite prin poştă te îndeamnă la alternative mai elegante şi mai convenabile. Vâltoarea zilnică a oraşelor şi spaţiile deschise de la ţară fac ca locul în care locuiţi să arate dărăpănat şi închis. Atât ţinutul mlăştinos în care locuieşti, cât şi identitatea prietenilor tăi devin confuze atunci când e-mail-urile frecvente fac ca o persoană îndepărtată şi necunoscută să pară mai apropiată şi mai atentă decât prietenul tău de vis-a-vis, sau atunci când un coleg de pe acelaşi etaj rămâne rece şi distant până când începe să se deschidă şi ţi se confesează prin e-mail.

Mai îndepărtatele posibilităţi de a ajunge la realitate şi jaloanele culturale care îi împrumutau coerenţă sunt măturate chiar de la bază de către tehnologie. Conţinutul Galeriei Naţionale din Londra a fost transformat în informaţii tehnologice şi depozitat pe un compact disc în aşa fel încât "acum pot să am întreaga Galerie Naţională la mine pe birou". Odată transformată digital, o piesă de altar poate foarte simplu să fie mutată de pe CD-ul Galeriei Naţionale în realitatea virtuală a bisericii din Upper Rhine Valley, unde s-a aflat cândva centrul de veneraţie. Dar biserica virtuală în sine este un obiect de circulaţie culturală liberă, la fel ca şi altarul. Tot ceea ce este atins de tehnologia informaţiei se detaşează de fundament şi reţine o relaţie cu originea care are aceeaşi importanţă ca şi legătura dintre diamantul Hope şi mina unde a fost descoperit.

Totuşi, din perspectivă globală, trebuie să pară foarte comod să ne îngrijorăm pentru astfel de probleme. Numai aproape un sfert din oamenii din această ţară şi 1% din populaţia mondială sunt suficient de bogaţi pentru a deţine un computer personal, pentru a avea acces la o reţea de computere şi trebuie să-şi facă probleme pentru filtrele de e-mail şi pentru confuziile de pe CD-uri. Totuşi, şi cei mai puţin bogaţi sau mai puţin educaţi din Statele Unite sunt invadaţi de informaţie. Televiziunea este sursa principală care le oferă informaţii până la saturaţie, atât ştiri, cât şi divertisment. Deşi sunt mult mai pasiv conectaţi la informaţie, conexiunea lor cu realitatea este transformată mai profund. Strălucirea nemaipomenită a televiziunii le anesteziază capacitatea de a confrunta şi îndura gravitatea şi presiunea realităţii. Informaţia este elementul de bogăţie tehnologică ce invadează cultura statelor sărace şi pre-moderne mult mai rapid şi mai uşor. Au apărut mai întâi aparatele radio cu tranzistori, apoi televizoarele, ultimele puţine la număr dar urmărite de mulţi. Dacă informaţia nu este mijlocul pentru o copleşitoare nouă cultură, este cel puţin primul pas de intrare care permite culturilor indigene să se strecoare şi să dispară.

De un mileniu, după naşterea lui Christos, aşa cum ne spune Apocalipsa Sfântului Ioan, diavolul a fost aruncat într-o fundătură "pentru a nu mai putea înşela naţiunile … Iar după se vor scurge cei o mie de ani, Satana va fi eliberat din închisoarea sa şi va ieşi să înşele naţiunile". Dar în final Satana este înfrânt, iar prorocul Apocalipsei vede "un nou cer şi un nou pământ". Toate acestea nu s-au întâmplat în anul 1000, nici în anul 2000, doar dacă W. B. Yeats are dreptate:

Că douăzeci de secole de somn de piatră

79

Page 80: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

Au fost transformate în coşmar de-un leagăn Şi unei fiare sălbatice i-a venit rândul în sfârşitŞi merge gârbovit spre Bethleem pentru a se naşte?

Totuşi până acum cuvântul mileniu a păstrat atât sensul de reînnoire cât şi cel de criză. Criticii sociali şi teoreticienii informaţiei sunt au păreri împărţite dacă informaţia reprezintă diavolul sau O a Doua Şansă. Desigur, răspunsul nu este nici unul nici altul. Pentru a nu ne afunda în etichetări nesfârşite şi neconcludente, avem nevoie atât de o teorie şi de o etică a informaţiei - o teorie pentru a explica structura informaţiei şi o etică pentru a identifica partea morală a dezvoltării sale. Speranţa mea este că teoria va acorda claritate eticii, iar că etica va oferi teoriei o anumită putere şi că, odată ce am înţeles informaţia, vom vedea că o viaţă bună necesită o adaptare între cele trei tipuri de informaţie şi un echilibru între semne şi obiecte.

2. Informaţia naturală şi ancorarea în realitate (traducere si adaptare de Claudia Miclean după Albert Borgmann, Holding On to Reality. The Nature of Information at the Turn of the Millennium, University of Chicago Press, Chicago and London, 1999)

Originea informaţiei

"Informaţie" este un cuvânt vechi, iar verbul "a informa" este chiar mai vechi. Cuvântul latinesc informare, aşa cum a fost utilizat de Cicero (106-43 î. Cr.) a însemnat a impune o formă asupra unui lucru, în special asupra minţii, pentru a-l instrui şi pentru a-l îmbunătăţi. Pentru învăţaţii din Evul Mediu informaţia a reprezentat un însoţitor al materializării. Ei au văzut lucrurile ca fiind structurate în formă şi materie, forma informând materia, materia materializând forma. Cuvântul "informaţie" din zilele noastre s-a născut în Evul Mediu târziu, când engleza în sine s-a conturat ca un descendent prodigios al limbilor germanice şi romanice. "Informaţia" a dus o viaţă semantică discretă până în cea de-a doua jumătate a secolului douăzeci când s-a mutat treptat, la început ezitant, spre rândul din faţă.

Certificatul de naştere al informaţiei, ca noţiune şi cuvânt proeminent, este un articol publicat în 1948 de către Claude Shannon. Cuvântul "Informaţie", totuşi, nu figurează în titlu, "Teoria matematică a comunicaţiei". În 1960, Fritz Machlup a publicat "Producerea şi distribuirea cunoaşterii în Statele Unite", un titlu care sună ciudat astăzi. Este informaţia, am putea crede, care poate fi produsă şi distribuită. Gândul i-a venit într-adevăr lui Machlup. El a recunoscut ascensiunea informaţiei şi s-a gândit chiar la includerea termenului în titlu, dar apoi a rămas la tradiţia care a început de la Platon unde subiectul important şi evident este cunoaşterea, în vreme ce informaţia este în mod neclar percepută ca aducătoare de probleme.

Noţiunea noastră despre informaţie a fost concepută ca răspuns la problemele care s-au ivit chiar în momentul apariţiei cuvântului "informaţie". Ca şi în cazul tuturor culturilor pre-moderne, lumea din Evul Mediu târziu, a fost plină de înţelesuri. Lucrurile sfinte îl proclamau pe Dumnezeu; natura a fost invadată de spirite blânde, seducătoare şi periculoase. Realitatea s-a adresat puternic oamenilor; a fost copleşitor de importantă şi elocventă.

La începutul erei moderne, totuşi, a început o perioadă de îngheţ semantic în vestul Europei, care a cuprins de atunci întreg globul. Legenda greacă a lui Pygmalion şi Don Giovanni a lui Mozart, prezintă scene de viaţă rezultând din piatră - Venus a dat viaţă minunatei statui a lui Pygmalion pentru a-şi bucura inima, iar Dumnezeu a dat viaţă statuii neîndurătoare a comandorului pentru a-l aduce pe Don Giovanni în faţa judecăţii. Aceste

80

Page 81: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

povestiri au inspirat pictorii romantici şi designerii contemporani să ne ofere imagini ale elocvenţei care trece în materia fără viaţă. Reversul s-a întâmplat în perioada modernă. Elocvenţa şi sensul au început să se separe de realitate.

Un eveniment istoric de o asemenea importanţă are antecedente şi consecinţe - prăbuşirea culturii medievale, dezvoltarea ştiinţei şi a tehnologiei. Ea nu este totuşi guvernată de o lege cosmică sau de un model universal. Nu este în întregime vina sau realizarea cuiva. Dar include şi implică gânditorii, persoanele de acţiune şi cele care reuşesc să facă ceva. Aşadar filozofii, de la începutul perioadei moderne, au notat, analizat şi poate accelerat pierderea unei structuri semnificative. Ei s-au gândit la cultura lor ca fiind în poziţia cetăţenilor Veneţiei care într-o frumoasă zi de 1902 contemplau o grămadă de cărămizi acolo unde se aflase de 750 de ani Campanila San Marco. Peste noapte, peisajul major al vieţii civice şi religioase se prăbuşise.

Unii observatori ai culturii contemporane acuză ştiinţa de a fi distrus voit şi cu răutate edificiile morale şi spirituale care ne-au fost folositoare atâta timp Majoritatea filozofilor, din contră, privesc această prăbuşire cu detaşare rece. Atunci când a lovit fulgerul descoperirii ştiinţifice, în aşa fel încât oamenii să-l vadă, construcţiile noastre culturale nu au reuşit pur şi simplu să se menţină.

Cinci ani le-au fost necesari cetăţenilor Veneţiei să decidă dacă să reconstruiască acea Campanilă şi cum să facă asta. Dar de reconstruit, au reconstruit-o. Filozofii au încercat încă din secolul al şaptesprezecelea să reconstruiască sensul pe baza unanim acceptată a realităţii ştiinţifice. Dar până în ziua de azi, nu există o viziune larg răspândită despre cum să ajungem de la structura ştiinţifică la cea semnificativă, de la atomi şi molecule la modele şi jaloane care ne-ar ordona şi ghida vieţile.

Informaţia structurală

Ceva pare să lipsească într-o lume formată doar din materie şi energie - un principiu al ordinii şi structurii -, iar informaţia pare să fie ingredientul necesar. Informaţia, spune Donald MacKay, este "ceea ce determină forma", fie construind-o, fie selectând-o. Ştiinţa a demonstrat că realitatea este structurată până în cele mai mici amănunte. La bază este alcătuită nu din "depuneri fără atomi"sau poate din patru tipuri de depuneri – pământ, apă, aer şi foc – ci mai degrabă dintr-un număr finit de particule definite, unite în mod legic una cu cealaltă.

Aşadar, avem speranţa că am putea construi informaţii substanţiale despre lumea noastră din informaţiile elementare pe care le găsim în treapta cea mai de jos a realităţii.

Edward Fredkin a dus această idee chiar mai departe. El ne-a făcut să ne imaginăm universul care constă dintr-o reţea de celule în spaţiu, o mare structură cristalină de cuburi, în care fiecare celulă sau cub se poate afla într-un număr finit de stadii. Structura prinde viaţă conform unor reguli relativ simple, care fac ca întreaga structură să pulseze de la un stadiu la altul şi vor spune fiecărei celule cum să treacă dintr-un stadiu în altul. Simplitatea produce şi lămureşte complexitatea. Tot ceea ce trebuie să facem este să descoperim regulile numerice care se află la baza şi sunt transcendentale fizicii particulelor.

Voi numi informaţia care intră în relaţie cu structura informaţie structurală şi voi lăsa fizicienii să stabilească dacă este o noţiune utilă în munca lor. Când a fost folosită pentru a explica lumea contemporană, informaţia structurală, ca un text în deconstrucţie, prezintă un anumit grad de distincţie între totul şi nimic. Totul este informaţie, nimicul nu este. Scopul acestor distincţii este de a împinge mijloacele materiale necurate într-un abis al nimicului -

81

Page 82: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

nu vor mai exista confuzii pentru teoreticianul informaţiei, nu vor mai exista lucruri obiective pentru deconstrucţionist.

Dar lipsa de conţinut este preţul curăţeniei. Un concept este util numai atunci când ne permite să facem distincţii în realitate, nu atunci când egalează toate distincţiile şi reduce totul la texte sau informaţii. Reprezintă anvelopa o informaţie? "Există profesori de fizică", spune Robert Wright, "care ar mângâia anvelopa cu căldură şi ar spune, "Există multă informaţie la care vă uitaţi acolo" Dar asemenea "informaţie de fizician", după cum o numeşte Wright, nu este ceea ce avem nevoie. "Suntem interesaţi", spune, "de informaţia din viaţa reală - informaţia utilizată de organisme (inclusiv noi), fie intern, fie extern".

Informaţia cognitivă

După cum sugerează Wright, putem spera să separăm informaţia utilă de cea generală prin aplicarea principiului cognitiv al selecţiei şi prin folosirea acelei informaţii care este preluată de o plantă, un animal, un computer, poate, dar în special de fiinţa umană. Numesc ceea ce am selectat mai sus informaţie cognitivă.

Nu există nici un dubiu că cercetarea modului în care structurile din mediu se angrenează sau nu se angrenează cu cele ale urechilor, ochilor, creierului a fost edificatoare. Informaţia cognitivă este un punct central fructuos pentru fiziologie, psihologie şi ştiinţele cognitive. În teoria culturală şi socială, a reprezentat o forţă neliniştitoare pentru unii şi una eliberatoare pentru alţii. Odată ce starea de conştienţă a devenit o măsură a informaţiei, se pare că aceeaşi stare de conştienţă poate fi rezultatul unor circumstanţe externe. Conform lui Adelbers Ames, "ceea ce o persoană vede atunci când se uită la un obiect nu poate fi determinat de simpla cunoaştere a naturii fizice a obiectului, deoarece un număr nelimitat de obiecte fizice pot da naştere aceleiaşi percepţii".

Ames a fost un creator ingenios de trucuri care dau naştere iluziilor optice. Cea mai faimoasă este "camera lui Ames", care văzută prin gaura cheii arată la fel ca o cameră în perspectivă obişnuită, dar este în realitate transformată cu atenţie în aşa fel încât când persoane de aceeaşi înălţime sunt plasate în colţurile îndepărtate ale camerei una arată un uriaş, iar cealaltă ca un pitic. Activitatea lui Ames a făcut mult pentru a transforma percepţia artiştilor şi a teoreticienilor sociali despre modul în care realitatea informează mintea.

Reacţiile, care au avut mai întâi loc în anii de după război, s-au reflectat în timpul actual şi se împart în latura conservatoare şi cea progresistă. Pentru minţile conservatoare, Ames pare să submineze noţiunea de realitate obiectivă ca ultimă resursă în cazuri de confuzie şi neînţelegere. Aşa cum o văd observatorii progresişti, activitatea lui Ames eliberează fiinţele umane de realitate, sau, mai exact, de modul rigid şi autoritar în care fiecare trebuie să-şi construiască o lume proprie dintr-o realitate care în sine permite mai multe construcţii.

Totuşi, sugestia că ar trebui să ne gândim la informaţia despre realitate ca o construcţie a realităţii pare inconsecventă, iar suspiciunea privind argumentul lui Ames este alimentată de eroarea comisă atunci când a afirmat că, dacă obiecte diferite pot produce aceeaşi percepţie, cunoaşterea obiectului nu însemnă că avem percepţia lui. Cunoscând camera lui Ames, ştim deja ce va vedea observatorul.. Dar uitându-ne prin gaura cheii nu putem spune dacă vedem o cameră a lui Ames cu două persoane obişnuite, sau o cameră obişnuită cu un pitic într-un colţ şi un uriaş în celălalt.

Aşadar putem reasigura conservatorii şi trebuie să dezamăgim progresiştii arătând că atât ambiguitatea realităţii, cât şi libertatea noastră de a construi în acest mod vor dispărea când plasăm lucrurile în context. Nu există nici o ambiguitate pentru Ames experimentatorul. El ştie cum arată lucrurile pentru observatorul lor şi dacă interpretarea sa este corectă.

82

Page 83: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

Incertitudinea observatorului va fi eliminată, la rândul ei, atunci când acesta îşi lărgeşte contextul pătrunzând în camera cu pricina sau inspectând cele patru colţuri ale camerei din exterior. Răspunsul scepticilor la această problemă a fost dat încă de când Grecia antică a făcut o artă din scepticism şi a constat în eliminarea ambiguităţii prin extinderea contextului.

Constructivii şi scepticii pot ridica mizele, fireşte, şi susţine că contextul văzut de experimentator este în sine ambiguu şi nu este nici mai tare, nici mai mult constrâns de realitate decât obiectul observaţiei şi percepţia lui. Orice context care este invocat pentru a lămuri o ambiguitate poate fi la rândul său considerat ambiguu. Dar acum ne confruntăm încă o dată cu distincţia dintre totul şi nimic, iar dacă totul este ambiguu, ambiguitatea însăşi devine un nimic. Putem numi ceva ambiguu numai dacă este clar ce "el", acel "ceva" este, aşa cum putem să nu fim de acord numai dacă suntem de acord asupra a ceea ce nu suntem de acord. Trebuie să fie clar că e acea cameră văzută prin gaura cheii cea despre care vorbim, înainte de a începe să ne întrebăm dacă cea la care ne uităm este o cameră obişnuită sau una de tipul Ames.

Totuşi putem percepe interacţiunea unei persoane cu mediul său în întregime ca o informaţie cognitivă, fără a cădea în scepticism sau constructivism cu privire la lumea reală.

Pentru a vedea că aceasta este mama mea am nevoie de un anumit tip de informaţie. Pentru a şti că sunt acum acasă înseamnă să deţin alte informaţii. Să vorbesc cu mama mea înseamnă să produc informaţii. Aşa cum a afirmat precursorul lui Claude Shannon, Waren Weaver, "În discursul oral, sursa informaţiei este creierul, transmiţătorul este mecanismul vocal care produce presiune sonoră ce variază (semnalul),care este transmisă pe calea aerului (canal)". Această abordare poate fi de asemenea edificatoare, dar nu ţine cont de felul în care vorbim, şi va acoperi modul în care trăim sau obişnuiam poate să trăim. Dacă cineva m-ar întreba dacă deţin vreo informaţie despre Rattlesnake Valley din vestul statului Montana, aş ezita în a spune da şi aş răspunde în schimb că, ei bine, cunosc valea, acolo locuiesc. Aş da un răspuns asemănător dacă mi s-ar cere informaţii despre soţia mea, aş spune că o cunosc şi trăiesc împreuna cu ea.

Informaţie şi prezenţă

Dar a deţine informaţii nu este acelaşi lucru cu a şti? Aşa este; dar există două tipuri de cunoaştere: cunoaştere directă şi cunoaştere indirectă, şi numai cea de a doua înseamnă a deţine informaţii despre ceva sau cineva. Ştiu câte ceva despre Death Valley; ştiu că este aridă şi conţine cel mai jos punct din Statele Unite. Dar trebuie să mărturisesc, nu o cunosc. Ştiu câteva lucruri despre Toni Morrison; ştiu că a scris Tar Baby şi că a primit Premiul Nobel. Dar recunosc cu regret că nu o cunosc. Cunoaşterea directă, aşa cum se realizează ea, vizează un obiect nemijlocit, cunoaşterea indirectă are un obiect mijlocit printr-o clauză subordonată sau printr-o propoziţie dintr-o frază. Franceza şi germana au verbe diferite pentru cunoaşterea directă (connaitre şi kennen) şi indirectă (savoir şi wissen). Bertrand Russell a făcut distincţia între cunoaşterea prin luare la cunoştinţă şi cunoaşterea prin descrieri. Lămuririle sale asupra distincţiei sugerează că ea prezintă mai mult decât un interes lingvistic sau logic şi reflectă o chestiune de stiluri şi moralităţi, chestiune subtilă şi esenţială. Russell explică: "De fapt, cred că relaţia dintre subiect şi obiect pe care o numesc luare la cunoştinţă este pur simplu conversa relaţiei dintre obiect şi subiect din care se constituie prezentarea sau descrierea. Adică, dacă spunem că S are cunoştinţă/cunoştinţe despre O este acelaşi lucru cu a spune că O este prezentat lui S." Concluzia pe care o putem trage din punctul de vedere al lui Russell este că dacă permitem ca informaţia să ascundă diferenţa dintre cunoaşterea directă şi cea indirectă, simţul nostru despre prezenţa lucrurilor va deveni obtuz.

83

Page 84: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

Un simţ al realităţii foarte puternic se poate pierde foarte uşor prin sofisticare tehnică. J.L. Austin obişnuia să ia în derâdere filosofii care insistau că sunt necesare "evidenţe" sau "dovezi" pentru a sprijini afirmaţia că ne aflăm în prezenţa unei realităţi tangibile. Nu este cazul, spune Austin, ca de fiecare dată când se realizează un enunţ "material” despre un "obiect" vorbitorul să trebuiască să deţină sau să poată produce evidenţe/dovezi pentru acel enunţ. Acest lucru poate părea suficient de plauzibil; dar implică o utilizarea greşită flagrantă a noţiunii de "evidenţă" sau "dovadă". Situaţia în care aş avea dovezi/m-aş baza pe evidenţe pentru afirmaţia că un animal este un porc e aceea în care, de exemplu, animalul nu se află în vizorul observaţiei, dar pot fi observate o serie de urme ale porcului pe pământ în lipsa prezenţei lui. Dacă găsesc câteva găleţi cu mâncare pentru porci înseamnă că am un pic mai multe dovezi, iar zgomotele şi mirosul pot oferi dovezi chiar mai bune în sprijinul afirmaţiei mele. Dar dacă animalul iese şi stă perfect la vedere, nu se mai pune problema adunării de dovezi; venirea sa la vedere nu oferă însă mai multe dovezi că este un porc, acum pot pur şi simplu să văd că este, astfel problema fiind lămurită.

Ceva asemănător se poate spune despre informaţie. Cuvântul în mod normal cuprinde o arie focalizată de apropiere şi un domeniu periferic de îndepărtare. David Israel şi John Perry susţin că "informaţia", "implică în mod tipic un fapt [un semn, după cum aş spune eu] care arată ceva despre modul în care lucrurile sunt în altă parte şi în alt moment, şi acest lucru face ca informaţia să fie folositoare şi interesantă".

Austin trage câteva învăţături filosofice în legătură cu "întrebarea a fost lămurită". Aşa ar putea fi ceea care priveşte noţiunea de evidenţă/dovadă sau informaţie. Dar când vine vorba despre viaţa noastră în lumea de azi, întrebarea despre prezenţa lucrurilor şi persoanelor este cu mult mai cuprinzătoare. Echivalarea distincţiei dintre cunoaşterea directă şi cea indirectă şi cea a diferenţei dintre apropiere şi îndepărtare a realităţii nu este rezultatul unei manevre epistemologice greşite, ci o reflectare a degradării istorice a semnificaţiei lor culturale. Semnele culturale, dimensiunile şi distincţiile încep să se dizolve. Toată lumea devine indiferentă faţă de tot şi de toţi ceilalţi. Acest proces a început în epoca modernă şi îşi atinge acum punctul culminant prin tehnologia informaţiei. William Mitchell, Decan al unei facultăţii de arhitectură, vede oraşul tradiţional locul al locurilor, ca fiind strămutat - dacă nu chiar înlocuit - de structuri de informaţii. Vorbind despre "Oraşul biţilor", el spune: "Acesta va fi un oraş fără rădăcini într-un loc clar pe suprafaţa pământului, modelat mai degrabă de constrângeri de conectivitate şi lărgime de bandă decât de accesibilitate şi valori de teren, mult asincronic în funcţionarea lui şi locuit de subiecţi fără corp şi defragmentaţi care există ca şi colecţii de porecle şi agenţi. Locurile sale vor fi construite virtual de programe-control şi nu fizic din pietre şi bucăţi de lemn şi vor fi conectate prin legături logice şi nu prin prin uşi, pasaje sau străzi." Pentru a aprecia semnificaţia acestei prognoze, trebuie să cunoaştem mai multe despre natura informaţiei.

3. Natura informaţiei ((traducere si adaptare de Raul Stroiescu după Albert Borgmann, Holding On to Reality. The Nature of Information at the Turn of the Millennium, University of Chicago Press, Chicago and London, 1999)

Relaţia de informare

Când privim către lume ca la o informaţie structurala, vedem ordine şi structură peste tot. Nimic nu scapă descrierii şi explicaţiei. Dar, din punctul de vedere al informaţiei structurale, nu există diferenţe între un gard şi o persoană. Ambele sunt structurate de la un capăt la altul. Când ne asumăm poziţia informaţiei cognitive, luăm ca fiind centrală distinţia dintre oameni

84

Page 85: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

şi lumea în care trăiesc. Ne axăm pe acele structuri informaţionale care conectează lumea la oameni. Dar, de fiecare dată, câte ceva rămâne indistinct. Ceea ce rămâne invizibil instrumentelor cognitive este diferenţa dintre lucruri prezente şi lucruri de care am auzit sau am citit. De aceea e nevoie de un înţeles mai clar al informaţiei. Acest înţeles îl putem numi informaţie instructivă sau instrucţională deoarece în sensul său original şi central ne învaţă despre ceea ce se află la distanţă în spaţiu şi timp.

Informaţia instructivă nu este un cărăuş care ne aduce în pragul uşii un lucru îndepărtat. Nu este adevarat că un semn este un lucru îndepărtat; ci mai degraba vorbeşte despre un lucru îndepărtat. Ceea ce oferă un semn nu este un lucru anume, ci sensul acelui lucru, un mesaj. Pentru ca informaţia să funcţioneze, trebuie să existe semne, obiecte de un anume fel care să lămurească un lucru, obiecte a caror funcţie este mai degrabă de referinţă decât de prezenţă.

Deşi ecologia lucrurilor şi economia semnelor sunt cruciale pentru informaţie şi viaţă într-o lume care deopotrivă este si angrenanta şi clară. Dacă lumea ar fi alcătuită doar din semne, nimic nu ni s-ar adresa şi prezenta în adevăratul sens al cuvantului. Un semn este promisiunea unui lucru. Într-o lume exclusiv a semnelor, o promisiune ar desemna o alta, dar nimic nu ar putea fi dus la îndeplinire. Pe de altă parte, dacă lumea ar fi alcatuită doar din lucruri, am fi condamnaţi la imediat. Nimic nu ne-ar putea raporta la lumea largă ca un întreg.

Structura centralăa informaţei este o relaţe dintre un semn, un lucru ş o persoană o persoană este informată de un semn despre un lucru. Există multe denumiri pentru aceste trei elemente ale relaţtiei menţionate. Persoana poate fi imaginată ca un recipient al informaţiei sau drept ascultatorul, cititorul, spectatorul sau investigatorul. Semnul poate fi denumit semnal, simbol, vehicul sau mesager. Lucrul poate fi un mesaj, un înţeles/o semnificaţie, o noutate sau chiar o informaţie (dar în înţelesul îngust, comun al cuvântului). Spre exemplu, să ne gândim la Noe ca la recipient, la porumbelul cu crenguţa de măslin în cioc ca la mesager şi la “apele s-au retras” ca la mesaj.

Economia semnelor este în mod normal a doua noastră stare naturală şi o parte neobservată a ecologiei naturale şi culturale. Totuşi, aceasta poate ieşi în evidenţă în circumstanţele în care un obiect oscilează între semn şi lucru sau bursc se transformă din referinţă în prezenţă. O scrisoare este, în general, un semn. Dar ca să conteze, trebuie să fie şi lucru, de exemplu o urmă de cerneală pe o bucată de hârtie. E posibil de realizat un joc intre manifestarea unei scrisori drept un lucru si referinţa acesteia drept un semn, asemena jocului de mai jos:

Literele mici, luate drept lucruri mici, urme mărunte de cerneală, conturează cuvântul HOLISM; luată ca un semn şi citită în consecinţă, fiecare literă mică din fiecare grup, defineşte – împreună cu celelate – cuvântul REDUCE. O privire comprehensivă sugerează “holism”, în vreme ce o privire mai atentă reduce lucrul la părţile lui componente.

85

Page 86: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

Figura 1, John Hollander, "Kitty: Black Domestic Shorthair”, in Types of Shape ( New Haven, Conn.: Yale University Press, 1991), poezia 16. Copyright © 1967, 1968, 1969, 1991 de John Hollander

86

Page 87: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

Acest joc de semne şi lucruri aparţine unei vechi tradiţii a scrierii şi aranjării de poezii sub o anumita formă, precum in figura 1. În silueta unei pisici este înscrisă o povestioară. Fiecare joc de cuvinte este o joacă dintre un semn şi un lucru, ambele referinţe fiind lăsate să se îmbine. În caligrafie, lucrul şi semnul sunt ridicate la un rang de echilibru superior din punct de vedere estetic, precum codexurile medievale sau manuscrisele ornate cu aur şi pietre pretioase.

Necazul poate face ca un semn să revină la un simplu lucru. De exemplu, pentru nişte excursionişti care se rătăcesc în viscol, ghidul turistic nu mai are nici o importanţă, nu le mai este de folos pentru orientare. Au nevoie însă de hârtie pentru a aprinde un foc, rupând astfel o parte din broşura turistică. La fel se întâmplă şi cu banii. Bancnotele nu mai au valoare de schimb economic, ci sunt folosite pentru aprinderea focului.

Un semn poate să îşi piardă referinţa când este prezentat la o scară nenaturală. Obiectele pot fi prea mici sau prea mari pentru a fi semne evidente. Alteori, un obiect nu este simplu un semn sau lucru; el depinde de context dacă este una sau alta. Contextul este conturat de nevoile noatre. Scopul nostru răspunde până la urmă ultimului context, chiar realitatea. În fond, armonia contextului cosmic şi a lucrurilor fundamentale fac lumea coerentă semnatic, îi conferă semnificaţie şi permite ivirea sau ascunderea referinţelor. Drept urmare, informaţia trebuie să fie o relaţie între cel puţin patru elemente: o persoană este informată printr-un semn despre un lucru oarecare intr-un anumit context.

Dar şi dacă semnele şi contextele sunt clare, mai este nevoie de încă un ingredient pentru ca mesajul semnelor să fie înţeles de o persoană. Linear B este o scriere descoperită în Creta, datând din perioada myceniana din al doilea mileniu dinainte de Hristos. Însă la mai bine de 50 de ani după ce arheologii au început lucrările de scoatere la lumină a artefactului, nimeni nu ştia dacă simbolurile respective erau silabe sau litere şi nici limba în care a fost scris textul. Ceea ce lipsea era cunoaşterea şi ingeniozitatea. Descifrarea a devenit posibilă când agerimea lui Michael Ventris i-a permis acestuia să extragă – din contextul cultural şi natural ce îl împărtăşim cu scrierile de tip Linear B – cunoaşterea de fundal necesară descifrării scrierii antice. Din contextul cultural fac parte natura scrisului silabic, convenţiile scrisului pictografic (de exemplu când silueta unei femei sau cea a unei roţi sunt reduse la nişte linii simple) şi uneltele limbajului flexibil. Tot parte a contextului natural este locaţia oraşelor şi porturilor.

De vreme ce manuscrisul cretan contine 87 de semne distincte, textul nu are cum să fie logografic, ceea ce ar însemna că fiecare semn reprezintă un lucru sau un concept, deoarece realitatea conţine mult mai multe obiecte şi idei decât 87. Sistemele logografice – precum cel chinezesc – conţin cel puţin o mie de semne şi pot avea până la zeci de mii. În mod contrar, sistemele alfabetice au între 20 şi 30 de semne. Acest lucru conduce spre un sistem silabic unde fiecare cuvânt este descompus în silabe, fiecare având un semn distinctiv. În ceea ce priveşte înţelesul acestor semne, unele prezintă o origine logografică şi reprezintă siluete reconoscibile de bărbaţi, femei, capete de cai, vase, suliţe sau roţi. Dar, deşi aceste asemănări ne oferă indicii ale înţelesului semnului, cum suna oare limba care era codată astfel?

Cercetătorii au căutat inflexiuni, sufixe care fac diferenţa între plural şi singular, prezent şi trecut, între genul feminin şi cel masculin. Ventris a căutat şi denumiri de localităţi despre care ştim sigur că erau cunoscute în antichitate – Knossos, locaţia palatului regal de pe insula Creta şi Amnisos, orasul-port. Oamenii de ştiinţă, în marea lor majoritate, au căzut de acord că Linear B nu putea fi o scriere din Grecia. Dar aşa cum Ventris a condus investigaţiile, improbabilul a devenit inevitabil. Linear B este de fapt o scriere silabică a unei culturi arhaice din Grecia.

87

Page 88: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

Aşa stând lucrurile, nu este adevărat că orice persoană, pusă în faţa unui anumit semn într-un anumit context, poate să înţeleagă ce reprezintă acel semn. Este nevoie de cunoştinţe pentru a putea face acest lucru: cunoştinţe obişnuite pentru semne uzuale şi cunoştinte ieşite din comun pentru semne extraordinare. De aici înainte, cunoştinţa, împreună cu straturile native şi cele acumulate de-a lungul timpului, este al cincelea termen care produce informaţia: beneficiind de cunoaştere, o persoană este informată de un semn despre un anumit lucru într-un context anume. Există o simetrie armonioasă în această relaţie. În centru se află semnul, iar în jurul său se constituie relaţia ce oglindeşte simetria umanului şi realităţii, a cunoaşterii şi contextului, care a fost pentru prima oară descoperită de Aristotel prin celebra afirmaţie: “Sufletul este într-un fel totul”.

Elocvenţa de netăgăduit a realităţii

În timpurile moderne, se credea că simetria invocată mai sus a fost ruptă la mijloc. Diviziunea rezultată între minte şi lume se pare că le-a conferit oamenilor dominaţia asupra realitatii. Eu sunt aici, lumea e aici şi, cel puţin la nivel de principiu, eu aş putea construi o dovadă completă despre existenţa a ceea ce am în faţă. Dacă aş avea timp, aş putea scrie o istorie completa a lumii şi aş face şi o hartă a acesteia. Aş putea începe cu universul şi prin muncă graduală mi-as face drum până la timpul şi locul ocupate de mine. Pentru a scrie istoria universală, pun stiloul pe hârtie şi încep cu Big Bangul, cronici despre începutul universului şi despre originea vieţii. Aş nota evoluţia rasei umane, mi-aş descrie propria naştere şi, cu timpul, aş înainta în viaţa mea. Desigur, schema trebuie să fie sumară pentru a putea prinde din urmă prezentul. Multe detalii trebuiesc omise. Dar există o bucăţică din realitatea istorică care eludează opera mea, idiferent cât de detaliată: momentul scrierii acesteia. Această problemă incomodează proiectul autobiografiei complete. Odată terminată, tot va trebui să omit faptul cum a fost scrisă. Dacă autorul va adăuga un post-scriptum numit “Cum mi-am scris autobiografia”, acesta va eluda cronica, şi tot aşa la infinit.

Dar aşa cum stă treaba cu timpul, tot aşa stă şi cu spaţiul. Pentru a trasa harta completă a universului, aş putea folosi toate minunăţiile tehnicii – precum aparatele de măsură a datelor despre cer şi pământ – şi le-aş stoca pe calculatorul meu personal. Încep cu cosmosul ca un întreg. Monitorul calculatorului îmi arată galaxiile. Îmi îndrept atenţia către Calea Lactee, sistemul nostru solar, planeta Pământ, să zicem continentul american, regiunea unde trăiesc, casa mea, camera unde lucrez. Mă văd stând în faţa calculatorului, folosind tastatura şi mausul, uitându-mă atent la monitor… şi aşa la infinit. Numărului infinit de imagini ce alcătuiesc universul îi lipseşte una, care nu poate fi reprezentată: punctul de observaţie de unde imaginea este privită. Camera de luat vederi ce mă înregistrează pe mine stând în faţa calculatorului trebuie să rămână invizibilă. Dacă folosesc o altă cameră similară pentru a o înregistra pe prima, atunci cea de a doua se retrage în invizibil ş.a.m.d. Problema în acest caz este aceea legată de oglinda universală. Îmi poate arăta orice din lume, inclusiv pe mine, dar nu îmi poate arăta însăşi oglinda universala propriu-zisă.

Timpul şi spaţiul m-au depăşit întotdeauna. Simetria umanităţii şi realitatii e înconjurată de realitate. În lumea lucrurilor elocvente şi interlegate şi a fiinţelor inteligente e posibil să fie specificată referirea la un lucru, e permis ca un lucru să se refere la altul într-un mod special, iar referinţa să fie transpusă formal într-un semn. Semnele sunt tot timpul lucruri purtătoare de semnificaţii. Noi putem descoperi, explica şi califica semnificaţiile lor. Dar nu exista ceva precum dispensarea originală de semnificaţie cu privire la un semn fără semnificaţie.

Confuzia din acest punct a pus în încurcătură mulţi filosofi. Aceste legături dintre persoane, semne şi lucruri pot fi dezvoltate şi în cultură, luată în înţelesul larg al cuvântului,

88

Page 89: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

dar nu cu mai mult succes decat în filosofie. Pot fi slăbite, dar duc la o soartă asemănătoare cu cea a lui Antaeus, care îşi trăgea puterile din contactul cu pământul, fiind invincibil atâta timp cât solul îi dădea vigoare. Când Hercules l-a ridicat în aer, făcându-l să piardă contactul cu solul, acesta a pierdut legătura cu realitatea şi soarta i-a fost pecetluită. E greu să scapi din frâiele lumii, fundamentul realităţii având o forţă atât de mare încât nimeni nu se poate ridica deasupra ei fără un efort herculean.

Bibliografie selectivă:

Borgmann, A., Holding On to Reality. The Nature of Information at the Turn of the Millennium, University of Chicago Press, Chicago and London, 1999.

Botezatu, P., Semiotică şi negaţie. Orientare critică în logica modernă, Editura Junimea, Iaşi, 1973.

Bremer, M.& Cohnitz, D., SituationTheory and the Flow of Information, Centre for the Study of Logic, Language and Information (CSLLI) Düsseldorf, ESSLLI 2002.

Dicţionarul explicativ al limbii române [DEX] Editura Academiei R.S.R., Bucureşti, 1975.

Encyclopædia Britannica from Encyclopædia Britannica Premium Service, http://www.britannica.com/eb/article-9106012

Floridi, Luciano, "Information", in Floridi, L. (editor) The Blackwell Guide to the Philosophy of Computing and Information, Oxford - New York: Blackwell, 2004, http://www.philosophyofinformation.net/blackwell/chapters/chapter5.pdf

Floridi, Luciano, "Information", in Carl Mitcham (editor), Encyclopedia of Science, Technology, and Ethics, Macmillan Reference USA 2005, http://www.philosophyofinformation.net/pdf/este.pdf

Floridi, Luciano, "Semantic Conceptions of Information", The Stanford Encyclopedia of Philosophy (Spring 2007 Edition), Edward N. Zalta (ed.), http://plato.stanford.edu/archives/spr2007/entries/information-semantic/

Grecu, C., „Informaţie şi putere explicativă”, în Flonta, M. (coord.), Epistemologia şi analiza logică a limbajului ştiinţei. Rezultate ─ Perspective ─ Limite, Editura politică, Bucureşti, 1975.

Gâlea, D. şi Leon, F., Inteligenţă artificială, Curs ţinut la Universitatea Tehnică „Gh. Asachi” din Iaşi, Facultatea de Automatică şi Calculatoarea, Adresa de Internet: http://eureka.cs.tuiasi.ro/~fleon/curs_ia.htm.

Guillaumaud, J., Cibernetica şi materialismul dialectic, Editura Ştiinţifică, Bucureşti, 1997.

Gutu, Gh., Dicţionar latin-roman, Editura Ştiinţifică, Bucureşti, 1966.Hintikka, J., “On Semantic Information”, in Hintikka, J., and Suppes, P. (eds.),

Information and Inference, D. Reidel, Dordrecht-Holland, 1970.Hintikka, J., „Inferenţă, informaţie şi adevăr”, în Pârvu, I. (eds.), Epistemologie.

Orientări contemporane, Editura politică, Bucureşti, 1974.Irimie, I., „Despre conceptul de cunoaştere”, Cursurile 3 şi 4 din datele de 5.11.1983,

respectiv 16.11.1983 ţinute în cadrul disciplinei Teoria cunoaşterii, Universitatea „Babeş-Bolyai” din Cluj-Napoca, Facultatea de Istorie-Filosofie, Specializarea filosofie-istorie, Manuscris, 1983.

Lohisse, J., Comunicarea. De la transmiterea mecanică la manipulare, Editura Polirom, Iaşi, 2002.

89

Page 90: teoria informatiei

GHEORGHE CLITAN TEORIA INFORMAŢIEI. Note de curs

O' Sullivan, T., Hartley, J., Saunders, D., Montgomery, M., Fiske, J., Concepte fundamentale din ştiinţele comunicării şi studiile culturale, Editura Polirom, Iaşi, 2001.

Pârvu, I., Semantica şi logica ştiinţei, Editura Ştiinţifică, Bucureşti, 1974.Pârvu, I., „Informaţia semantică. Aspecte logico-epistemologice”, în Flonta, M. (coord.),

Epistemologia şi analiza logică a limbajului ştiinţei. Rezultate ─ Perspective ─ Limite , Editura politică, Bucureşti, 1975.

Pârvu, I., Filosofia comunicării, Facultatea de Comunicare şi Relaţii Publice „David Ogilvy” ─ SNSPA, Bucureşti, 2000.

Popper, K.R., Logica cercetării, Editura Ştiinţifică şi Enciclopedică, Bucureşti, 1981. Săhleanu, V., Eseu de biologie informaţională, Editura Ştiinţifică, Bucureşti, 1973.Segal, J., Le Zéro et le Un. Histoire de la notion scientifique d'information au 20° siècle ,

Paris, Éditions Syllepse, 2003.Shannon, C. E., and Weaver, W., The Mathematical Theory of Communication,

University of Illinois Press, 1949, Pagina de Internet http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html.

Wiener, N., Cibernetica sau ştiinţa comenzii şi comunicării la fiinţe şi maşini, Editura Ştiinţifică, Bucureşti, 1966.

Wiener, N., Cybernétique et société, Union Générale d'Editions, 1971, în original Wiener, N., The Human Use of Human Beings, Riverside Press, Cambridge, Massachusetts, 1950, Pagina de Internet: www.ciren.org/artifice/artifices_4/Actes/wiener.html.

*** Théorie de l'information, http://fr.wikipedia.org/wiki/Théorie_de_l'information

90