Teoria informaţiei


Informaţia în „reprezentarea sistematică” a teoriei semantice a informaţiei



Yüklə 0,52 Mb.
səhifə2/9
tarix05.12.2017
ölçüsü0,52 Mb.
#33830
1   2   3   4   5   6   7   8   9
Informaţia în „reprezentarea sistematică” a teoriei semantice a informaţiei

● reprezentarea neformală a informaţiei în teoria semantică a informaţiei:
― informaţia = date bine formate şi purtătoare de sens sau semnificaţie privind lumea înconjurătoare, în baza cărora putem vorbi despre această lume şi o putem descrie sau modela, ele putând fi înţelese ca [Floridi, L. , 2005, pp. 1-3]:
1) răspunsuri preexistente, de care dispunem fără a avea întrebări de pus sau probleme de rezolvat (spre deosebire de înţelesul dat informaţiei în exemplul anterior cu moneda: număr de întrebări de tipul Da-Nu la care se poate da un răspuns): de pildă când, pentru a merge la serviciu, vrem să pornim motorul maşinii învârtind cheia în contact, dar la bord se aprinde o lumină roşie care indică faptul că bateria este descărcată, trebuie să urmăm instrucţiunile din manualul de utilizare, să dispunem de mijloace şi abilităţi tehnice pentru a remedia inconvenientul, adică trebuie să ne folosim de anumite date care să fie bine formulate şi să aibă un înţeles (să fie practic utilizabile), acestea reprezentând informaţia necesară rezolvării problemei apărute;
2) diferenţe relaţionale în baza cărora lumea devine inteligibilă şi manipulabilă, iar intervenţia asupra ei tehnic raţionalizabilă: 0 în loc de 1, o lumină roşie în locul unei limini de altă culoare, o baterie descărcată în loc de una încărcată etc.;
― informaţia = noutatea adusă în plan semantic (planul raporturilor dintre mesaje şi obiecte) de fiecare enunţ din structura unui mesaj – fie luat enunţul separat, fie relaţionat cu alte enunţuri – şi definită, printre altele, ca:
1) măsură a conţinutului semantic, altfel spus a semnificaţiilor propoziţiilor care alcătuiesc enunţul respectiv: valorile (adevărul şi falsul) pe care le primesc aceste propoziţii atunci când descriu realitatea la care se referă (permiţând enunţului să o modeleze), motiv pentru care semnificaţiile propoziţiilor enunţului respectiv mai sunt cunoscute şi sub numele de „conţinut propoziţional”, uneori chiar de „conţinut informaţional”;
2) grad de confirmare a conţinutului semantic în funcţie de „adevărurile” sau „falsurile” vehiculate de enunţurile care alcătuiesc mesajul transmis:
A) dacă avem de a face cu un conţinut semantic adevărat, informaţia transmisă este justificată sau întemeiată şi vorbim de o informare temeinică sau veridică, numită uneori şi „informare publică”: informaţia adevărată = informaţia bazată pe fapte verificabile sau pe date ştiinţifice credibile (adică pe evidenţă);
B) dacă acest conţinut este fals, informaţia este neîntemeiată, actul informării putând fi:
a) de informare eronată/greşită sau falsă informare atunci când sursa informaţiei neîntemeiate nu este conştientă de natura acestei informaţii: informaţia falsă = informaţia care nu se bazează pe fapte verificabile sau pe date ştiinţifice credibile (adică pe evidenţă);
b) de dezinformare: atunci când sursa informaţiei neîntemeiate este conştientă de falsitatea informaţiei pe care o furnizează;
3) eliminare a incertitudinii: informaţia unei propoziţii p se află în raport invers proporţional cu probabilitatea ca p să fie adevărată şi este cantitatea de incertitudine de care utilizatorii propoziţiei respective sunt eliberaţi atunci când ajung să ştie că p este adevărată.
● reprezentarea formală a informaţiei în teoria semantică a informaţiei (sub denumirea generică de „informaţie semantică”):
― definiţia generală a informaţiei (ca „date + semnificaţie”) susţine că p este o instanţă a unei informaţii, înţeleasă ca şi conţinut propoziţional (informaţional sau semantic), dacă şi numai dacă [Floridi, L., 2004, p. 11]:
1) p constă dintr-una sau din mai multe (să zicem: n) date: d, pentru n ≥ 1;
2) datele din p sunt bine formate: bfd;
3) datele bine formate sunt purtătoare de semnificaţie (încărcate de semnificaţie), adică pot fi adevărate (1) sau false (0), altfel spus „informaţionale”: bfd = i, unde i = 1 sau i = 0;
4) datele informaţionale sunt veridice, deci având capacitatea de a fi numai adevărate: i = 1;
― definiţiile particulare ale informaţiei (ca şi „conţinut semantic”):
1) dezvoltările teoretice ale noţiunii de „conţinut semantic” care au condus la aceste definiţii ale informaţiei:
A) „conţinutul empiric” sau „factual” al unui enunţ este propus de teoria falsificării dezvoltată de K. R. Popper (Logik der Forschung: zur Erkenntnistheorie der modernen Naturwissenschaft, 1934):
a) conţinutul unui enunţ exprimă cantitatea de informaţie empirică care exclude posibilitatea propoziţiilor care-l alcătuiesc de a fi adevărate şi care, de aceea, reprezintă clasa falsificatorilor lui potenţiali;
b) conţinutul unei teorii este clasa falsificatorilor ei potenţiali, teoria fiind falsificată dacă există cel puţin o clasă nevidă de enunţuri bazice (fiecare alcătuit dintr-o propoziţie elementară şi negaţia ei) care sunt interzise de ea (altfel spus: dacă clasa falsificatorilor teoriei nu este vidă);
c) conţinutul unui enunţ, ca şi al unei teorii, este un conţinut empiric întrucât se determină prin referire la fapte în baza a 2 regularităţi cu caracter de lege:
c1) „cantitatea de informaţie empirică, adică conţinutul empiric al unui enunţ, creşte cu gradul său de falsificabilitate: cu cât un enunţ interzice mai mult, cu atât el spune mai mult despre lumea experienţei”;
c2) „fiind o măsură a capacităţii unui enunţ de a exclude anumite posibilităţi, conţinutul empiric este inversul probabilităţii (conţinut = improbabilitate) şi, de aceea, cu cât este mai mare, cu atât exclude mai multe posibilităţi”
B) „conţinutul logic” al unui enunţ este propus de teoria verificării (apoi a confirmării) dezvoltată de R. Carnap (The Logical Syntax of Language, 1937) şi pozitivismul logic (în general):
a) conţinutul unui enunţ este dat fie de sensul propoziţiilor din care este format (de ceea ce ele ne spun), fie de semnificaţiile acestor propoziţii (valorile lor de „adevăr” sau „fals”);
b) conţinutul unei propoziţii din alcătuirea unui enunţ figurează în conţinutul unei alte propoziţii conţinute de enunţul respectiv dacă şi numai dacă prima propoziţie este o consecinţă a celei de a doua;
c) conţinutul unui enunţ, ca şi cel al unei propoziţii, este un conţinut logic întrucât se determină nu prin referire la fapte, ci prin analiza sensului şi semnificaţiei propoziţiilor cu ajutorul a 2 postulate:
c1) „dacă o propoziţie e logic deductibilă din alta, atunci conţinutul ei este cuprins în întregime în conţinutul acesteia din urmă”;
c2) „dacă conţinutul unei propoziţii este cuprins în cel al unei alte propoziţii, atunci prima propoziţie nu asertează nimic care să nu fie asertat de cea de a doua”;
C) „conţinutul semantic” al unui enunţ reprezintă o dezvoltare a noţiunilor de „conţinut empiric” (K. R. Popper) şi „conţinut logic” (R. Carnap) realizată de către R. Carnap şi Y. Bar-Hillel [An Outline of a Theory of Semantic Information, 1952]:
a) conţinutul unui enunţ este dat de consistenţa (necontradicţia) descripţiilor de stare dintr-un limbaj:
a1) dacă enunţurile sunt înţelese ca descripţii de stare (conjuncţii ce conţin un membru din fiecare pereche bazică de enunţuri, adică un membru din fiecare pereche formată dintr-o propoziţie elementară şi negaţia ei), atunci ele pot fi interpretate ca fiind cele mai tari consistente din limbajul respectiv, altfel spus ca având conţinutul semantic maxim: orice enunţ consistent este echivalent cu disjuncţia descripţiilor de stare din domeniul său şi este implicat de către oricare asemenea descripţie de stare;

a2) dacă enunţurile sunt înţelese ca disjuncţii (ce conţin ca disjuncţi câte o propoziţie din fiecare pereche bazică de enunţuri), atunci ele pot fi interpretate ca fiind din punct de vedere al consistenţei cele mai slabe din limbajul respectiv, deci ca având conţinutul semantic minim: fiecare propoziţie elementară care nu este logic adevărată în acel limbaj implică cel puţin un astfel de enunţ, orice astfel de enunţ fiind echivalent cu conjuncţia tuturor enunţurilor cele mai slabe implicate de propoziţiile logic neadevărate din cadrul său;


b) conţinutul unui enunţ se identifică cu elementele de conţinut pe care propoziţiile din alcătuirea lui le implică:
b1) identificarea conţinutului enunţului s cu elementele de conţinut pe care propoziţiile din alcătuirea lui le implică este echivalent cu a identifica acel conţinut cu mulţimea descripţiilor de stare (notată p) cu care s este incompatibil, adică cu domeniul lui non-p;
b2) identificarea conţinutului enunţului s cu enunţurile pe care p le implică (întrucât descripţiile de stare sunt intenţionate a fi descrieri complete ale stărilor posibile ale universului investigat cu ajutorul limbajului nostru) revine exact la acelaşi lucru ca şi identificarea conţinutului lui s cu stările de lucruri incompatibile cu p;
2) formulele cu ajutorul cărora definiţiile particulare ale informaţiei semantice sunt, de obicei, redate:
A) formulele „informaţiei surpriză” sau „neaşteptate”:
Inf(s) = - log Pi,
adică măsura cantităţii de informaţie a enunţului s atunci când el conţine singură propoziţie i adevărată (deci purtătoare de informaţie), unde Pi = probabilitatea ca enunţul s să fie adevărat, adică purtător de informaţie (de unde notaţia i pentru propoziţia informativă din cadrul său)
şi
Inf(s) = H = - ,
adică măsura cantităţii de informaţie a enunţului s atunci când el conţine un şir N de propoziţii i adevărate (deci N purtători de informaţie);
B) formula „informaţiei substanţiale” (substantive information):
cont(s) = 1 - Pi,
unde cont(s) = conţinutul enunţului s pentru intervalul de la 0 la 1 al probabilităţii Pi, iar Pi = probabilitatea ca enunţul s să fie adevărat (informativ sau, altfel spus, informaţional), redată de formula
Pi = 1- cont(s),
ceea ce ne permite să exprimăm – cu ajutorul funcţiei logaritmice şi pentru cazul când s conţine o singură propoziţie adevărată – relaţia formală dintre Inf(s) şi cont(s) prin intermediul formulei:
Inf(s) = - log Pi = log (1- cont(s))-1 = log 1/1- cont(s),
interpretată în literatura de specialitate astfel: „cont(s) măsoară numărul absolut de posibilităţi pe care o anumită informaţie ne permite să le neglijăm, pe când Inf(s) măsoară numărul relativ de astfel de posibilităţi cu privire la numărul total de posibilităţi neeliminate anterior” [Grecu, C., 1975, p. 136].

● proprietăţile principale ale informaţiei astfel definite:


― teoria matematică a informaţiei pune semnul identităţii între informaţie şi comunicaţie, definindu-le „codificare, transmisie, stocare şi prelucrare de date” [Floridi, L., 2007, secţiunile 1.5, 1.8 şi 2.2]::
1) datele definitorii pentru informaţia transmisă sunt numite date-cheie (date de bază) şi înţelese ca:
A) suma sau cantitatea detaliilor (ocurenţelor sau evenimentelor) din care se constituie un semnal, un simbol sau un mesaj, ori cu care se încarcă un spaţiu de memorie necesar saturării (satisfacerii) cererii de informaţie a informatului (fiinţă umană, animal, dispozitiv tehnic etc.);
B) simboluri neinterpretate (fără semnificaţie sau conţinut semantic) codificate în şiruri de semnale bine formate din punct de veder sintactic (al regulilor de combinare sau însumare), altfel spus data = informaţie minus semnificaţie;
2) datele definitorii pentru comunicaţie pot fi numite date informaţionale şi înţelese cantitativ ca opusul entropiei (ca negentropie informaţională) sau, altfel spus, ca grad de informativitate a unui mecanism (Inf(s)), dispozitiv sau sistem echivalent cantitativ cu incertitudinea (H) pe care o înlătură:
A) Inf(s) = H = media sumei de date receptate per semnal, simbol sau mesaj transmis;
B) Inf(s) = H = media corespunzătoare însumării deficitului de date a informatului înainte de receptarea datelor transmise de informator;
C) Inf(s) = H = media corespunzătoare potenţialului informativ al unei surse de informaţie
― teoria semantică a informaţiei defineşte informaţia ca suma datelor şi semnificaţiilor transmise printr-un enunţ sau mesaj (informaţia = date + semnificaţii):
1) datele primare, numite şi „informaţii primare”
A) datele de bază stocate pe un suport informaţional (spaţiu de memorie sau bază de date): de exemplu, un simplu şir de numere;
B) datele utilizate de un sistem de management al informaţiei conceput în general pentru a aviza în primul rând utilizatorul: cum ar fi cel folosit de un autoturism pentru a indica prin pâlpâirea luminii roşii starea bateriei, dar şi necesitatea încărcării bateriei;
2) datele secundare, numite şi „informaţii secundare”: sunt opusul datelor primare, manifestându-se fie prin absenţă (de aceea, ar putea fii numite şi „anti–date”: în exemplul cu autoturismul, faptul că motorul nu mai face zgomotul obişnuit), fie prin „tăcere” (de pildă, tăcerea unei persoane într-un anumit moment, poate fi foarte relevantă: absenta informaţiei poate fii foarte informativă);
3) metadatele: sunt indicaţii despre natura altor date (de obicei primare) şi descriu proprietati ca locaţia, formatul, actualizarea, disponibilitatea, restricţiile de folosire ş.a.m.d. (metainformaţiile sunt informaţiile despre natura informaţiilor: „«Bateria e descarcata» e un enunţ (un mesaj) codificat în limba română” fiind un exemplu simplu de metainformaţie);
4) datele operaţionale:
A) date ce vizeză operaţiunile întregului sistem de date şi performanţa sistemului: de exemplu, să presupunem că pe bordul masinii apare o lumină galbenă care, atunci când pâlpâie, indică faptul că sistemul de verificare al maşinii nu funcţionează bine;
B) date despre dinamica unui sistem de informaţii: faptul că lumina este aprinsă poate indica faptul că indicatorul bateriei descărcate nu funcţionează corect, acest fap subminând ipoteza că bateria este descarcată
5) datele derivate: datele care pot fi extrase din anumite date atunci când cele din urmă sunt folosite ca surse indirecte în căutarea unor modele, indicii sau dovezi despre alte lucruri decât cele abordate în mod direct de înseşi datele în cauză: un exemplu familiar este cardul de credit întrucât din folosirea lui pentru plata unui bun compărat se pot deduce informaţii despre locul unde se află o persoană la un anumit moment;
IV. Complementaritatea abordărilor matematice şi semantice ale informaţiei

● nivelurile la care relaţia dintre teoria matematică a informaţiei şi teoria semantică a informaţiei poate fi evidenţiată [Pârvu, I. 1974, pp. 87-89 şi Pârvu, I. 1975, pp. 98-100]:


― nivelul informal, deosebirea ne-formală a celor 2 teorii fiind susţinută explicit de principalii lor întemeietori:
1) întemeietorii teoriei matematice a informaţiei au poziţii oarecum diferite întrucât, deşi pornesc de la „«ascetismul» semantic al teoriei informaţiei” (a face abstracţie de semnificaţia sau înţelesul unui mesaj), aproape fiecare dintre ei ─ „cu excepţia lui Cl. Shannon” ─ ajunge „să stabilească conexiuni semantice de care s-au separat la început” (evidenţierea încărcaturii cu semnificaţie sau cu înţelesuri din structura unui mesaj) [Pârvu, I. 1974, p. 87 şi Pârvu, I. 1975, p. 98]:
A) Claude E. Shannon [Shannon, Cl. E., 1948, p. 1]: „Deseori, mesajele au semnificaţie; ceea ce înseamnă că se referă la sau că sunt corelate conform unui sistem oarecare cu anumite entităţi fizice sau conceptuale. Aceste aspecte semantice ale comunicării sunt irelevante pentru problema inginerească” a comunicaţiei;
B) Warren Weaver [Weaver, W., 1949, pp. 4-5]: „Cuvântul informaţie, în această teorie, este folosit într-un sens special care nu trebuie confundat cu folosirea lui obişnuită. În special, informaţia nu trebuie confundată cu semnificaţia. De fapt, două mesaje, dintre care unul pe deplin încărcat cu semnificaţie iar celălalt lipsit de orice înţeles, pot fi exact echivalente din această perspectivă asupra informaţiei”;
C) Norbert Wiener [Wiener, N., 1963, p. 17]: „În cazul tehnicii comunicaţiilor, importanţa fenomenului statistic este evidentă în mod nemijlocit. Transmiterea informaţiei este posibilă numai ca transmitere a unor alternative. Dacă este necesar să se transmită o singură posibilitate, atunci este mai bine şi mai uşor să se facă astfel încât să nu fie, în general, transmis nici un mesaj (...) Pentru a aborda tehnica comunicaţiilor sub acest aspect a trebuit să elaborăm teoria statistică a cantităţii de informaţie. În această teorie se ia ca unitate a cantităţii de informaţie cantitatea de informaţie transmisă ca unică alegere între alternative echiprobabile”;
2) întemeietorii şi promotorii teoriei semantice a informaţiei reduc sarcina principală a acestei teorii la „definirea riguroasă, într-un cadru conceptual determinat, a conţinutului semantic al unui enunţ şi a unor măsuri adecvate pentru acest conţinut” [Pârvu, I. 1974, p. 87-88, 102 şi Pârvu, I. 1975, p. 98-99, 111-112]:
A) Rudolf Carnap şi Yoshua Bar-Hillel [Carnap, R., and Bar-Hillel, Y., 1952, p. 223]: „Teoria noastră se situează explicit şi complet în cadrul semanticii”, unde importantă este „informaţia adusă de un enunţ, atât luat separat, cât şi în raport cu alte enunţuri, iar nu informaţia pe care un emiţător intenţionează să o comunice prin transmiterea unui anumit mesaj, nici informaţia pe care un receptor o obţine din acest mesaj”;
B) Jaakko Hintikka [Hintikka, J., “On Semantic Information”, in Hintikka, J., and Suppes, P. (eds.), Information and Inference, D. Reidel, Dordrecht-Holland, 1970, p. 24]: obiectivul central al teoriei semantice a informaţiei şi a probabilităţii îl constituie „dezvoltarea metodelor de discutare a probabilităţilor şi a conţinuturilor informaţionale ale generalizărilor (enunţuri închise)”, prin enunţuri închise Hintikka înţelegând „enunţuri generale, enunţuri fără termeni singulari liberi” [Hintikka, J., 1974, p. 187];
― nivelul formal, unde cele 2 teorii prezintă trăsături comune, dar şi diferenţe neexplicitate întotdeauna clar:
1) elemente comune:
A) ambele teorii pot fi privite ca definind în mod asemănător informaţia, deşi cu concepte diferite [Bar-Hillel, Y., 1970, pp. 510-511, 530]:
a) fie cu ajutorul conceptului de probabilitate ca frecvenţă relativă (în cazul teoriei matematice a informaţiei, care realizează o interpretare frecvenţială, statistică a probabilităţii): „frecvenţa relativă” desemnează estimaţia sau aşteptarea privind numărul ocurenţelor sau apariţiilor unui mesaj/enunţ s (şirul sau clasa de semnale sub care s se manifestă informaţional), ceea ce înseamnă de fapt estimaţia sau aşteptarea măsurată prin raportul dintre numărul semnalelor egal favorabile apariţiei mesajului/enunţului s şi numărul total de semnale egal posibile prin care s se transmite ca informaţie sau, altfel spus, se manifestă informaţional (motiv pentru care teoria matematică a informaţiei a mai fost numită şi „teoria transmiterii semnalelor”): cu cât un semnal este mai puţin predictibil, cu atât popartă mai multă semnificaţie;
b) fie cu ajutorul conceptului de probabilitate ca grad de confirmare (în cazul teoriei semantice a informaţiei, care realizează o interpretare inductivă, logică a probabilităţii): „probabilitatea” este înţeleasă mai rar ca frecvenţă relativă, de obicei ea fiind definită ca grad de confirmare al conţinutului unui mesaj/enunţ s, adică al clasei tuturor descrierilor sau descripţiilor de stare excluse de acest mesaj/enunţ (clasă numită „informaţie semantică” sau „conţinut semantic”, prin descripţie de stare înţelegându-se conjuncţia enunţurilor selectate câte unul din fiecare pereche de enunţuri elementare ─ o afirmaţie şi negaţia ei, alternativă numită „pereche de bază” sau „bazică” ─ pentru a transmite informaţie sau a se referi la un fapt sau eveniment atomar dintr-o stare reală);
B) ambele teorii „pot fi privite ca interpretări diferite ale aceluiaşi sistem formal, şi anume ale calculului informaţiei” [Bar-Hillel, Y., 1970, pp. 529, 533], indiferent de formulele utilizate [Hintikka, J., 1970, p. 4, Grecu, C., 1975, p. 132, Pârvu, I. 1974, p. 88 şi Pârvu, I. 1975, p. 99]:
a) cantitatea de informaţie a mesajului/enunţului s, notată aici cu inf(s), poate fi redată prin formula:
Inf(s) = log(1/p(s)) = – log p(s),
unde s este mesajul/enunţul transmis, p(s) este măsura frecvenţei relative sau a probabilităţii lui s de a se manifesta (realiza) ca semnal, iar logaritmul (log) este luat în baza 2 (motiv pentru care 2 nu se mai scrie, ci se subînţelege), informaţia măsurându-se astfel în cifre binare ─ „binary digit” ─ sau, mai pe scurt zis, în biţi, adică în:
a1) unităţi de informaţie ce se obţin, fiecare, în urma eliminării nedeterminării conţinute de un experiment care pune în evidenţă numai 2 posibilităţi egal probabile [Gâlea, D. şi Leon, F., Adresa de Internet: http://eureka.cs.tuiasi.ro/~fleon/curs_ia.htm, p. 15];
a2) unităţi de informaţie care, fiecare, îmbracă forma unei opoziţii binare fundamentale ce poate fi redată formal prin 0 : 1; de exemplu, „Dacă luăm un dicţionar de 250.000 de cuvinte, putem spune că fiecare cuvânt conţine 18 biţi de informaţie (informaţia, să nu uităm, se referă la predictibilitatea cuvântului în sine, şi nu la înţelesul cuvântului). Aceasta deoarece suntem nevoiţi să alegem între « Se află în prima jumătate? » (0) sau « Se află în a doua jumătate? ». Să răspundem de 18 ori la aceste întrebări ne ajută să identificăm orice cuvânt din dicţionar. Acest cuvânt poate apoi să fie exprimat binar ─ de exemplu, « 0110100 ... etc »” [O' Sullivan, T., Hartley, J., Saunders, D., Montgomery, M., Fiske, J., 2001, p. 341] ;
b) cantitatea de informaţie a mesajului/enunţului s, notată tot cu inf(s), poate fi redată prin formula:

Inf(s) = H(p(s)) = - ,
unde i=1, iar H(p(s)) reprezintă măsura gradului de nederminare (incertitudine) a mesajului/enunţului s ─ numită de către Shannon „entropie”, această măsură este înţeleasă ca o funcţie de probabilităţi ale lui s, mai detaliat ca H(p1, p2, ..., pn);
2) diferenţe nu întotdeauna clar explicitate:
A) fiecare teorie interpretează altfel cantitatea de informaţie a mesajului/enunţului s:
a) potrivit adepţilor teoriei matematice a informaţiei, această cantitate poate fi doar egală cu H(p(s)), adică:

Inf(s) = H(p(s)),
caz în care in p(s) log p(s) exprimă aşteptarea mesajului/enunţului s dintr-o mulţime n de alternative reciproc exclusive cu probabilităţile p(s);
b) potrivit adepţilor teoriei semantice a informaţiei, această cantitate poate fi în general mai mare sau mai mică decât H(p(s)), dar şi egală uneori cu H(p(s)), adică:

Inf(s) H(p(s))

sau


Inf(s) H(p(s)),
cazuri în care - exprimă media ponderată a conţinutului mesajului/enunţului s, altfel spus media ponderată a conţinutului informaţional al mesajului/enunţului s;
B) fiecare teorie foloseşte un alt concept de probabiltate în definirea informaţiei:
a) teoria matematică a informaţiei utilizează conceptul de probabilitate statistică (leagându-l de noţiunea de incertitudine privitoare la un rezultat în cadrul unei serii mari de posibilităţi), fiind interesată în special de ceea ce se întâmplă într-o serie lungă în unele tipuri de situaţii de incertitudine care se pot repeta mereu: incertitudinea devine astfel o măsură a cantităţii de informaţie, referindu-se la raritatea producerii unor evenimente extralingvistice (semne, simboluri, semnale etc.) ce contează prin frecvenţa apariţiei lor într-un sistem de comunicare, iar nu prin semnificaţia lor;
b) teoria semantică a informaţiei utilizează conceptul de probabilitate logică (leagându-l şi pe acesta de noţiunea de incertitudine, dar privitoare la diferitele alternative pe care le putem distinge cu ajutorul mijloacelor de expresie de care dispunem), fiind interesată nu atât de interpretarea informaţiei semantice ca eliminare a incertitudinii, cât de interpretarea informaţiei semantice ca referindu-se la enunţurile unui limbaj şi la conţinutul semantic al acestora: ea s-ar afla în raport invers cu probabilitatea statistică, redând cantitatea de incertitudine de care suntem eliberaţi când ajungem să ştim că un enunţ s este adevărat.
● problematica în raport cu care se relaţionează teoria matematică a informaţiei şi teoria semantică a informaţiei:
― problema comunicării/comunicaţiei:
1) enunţarea acestei probleme în cadrul teoriei matematice a informaţiei are loc mai ales sub aspectul transmiterii/transportării sau receptării informaţiei dintr-un mesaj:
A) formularea lui Claude E. Shannon [Shannon, Cl. E., 1948, p. 1]: „Problema fundamentală a comunicaţiei este cum să reproduci într-un punct oarecare cât mai exact sau aproximativ un mesaj selectat într-un punct. (...) Aspectul semnificativ [al comunicaţiei] este că actualul mesaj e unul selectat dintr-o mulţime de mesaje posibile”;
B) reformularea lui Warren Weaver [Weaver, W., 1949, pp. 1-2]: „Cuvântul communication va fi folosit aici într-un sens foarte larg, spre a include toate procedurile prin care o minte poate afecta o alta. Acesta, desigur, cuprinde nu numai limbajul scris sau vorbit, ci şi muzica, pictura, teatrul, baletul, de fapt întregul comportament uman. În unele conexiuni poate fi dezirabil de a utiliza încă o definiţie largă a comunicării, anume una care să includă procedurile prin intermediul cărora un mecanism (să zicem un echipament automatizat în urmărirea unui avion şi în calcularea poziţiilor lui viitoare) afectează un alt mecanism (să zicem o rachetă ghidată în vânarea acestui avion)”; definind comunicarea în acest fel, Weaver identifică trei niveluri la care problema comunicării poate fi reformulată:
a) „nivelul A”, unde problema comunicării se formulează ca o „problemă tehnică”: „Cu ce exactitate pot fi transmise simbolurile comunicării?”;
b) „nivelul B”, unde problema comunicării se formulează ca o „problemă semantică”: „Cu ce precizie simbolurile transmise vehiculează semnificaţia dorită?”;
c) „nivelul C”: „Cu ce eficacitate semnificaţia receptată influenţează în sensul dorit conduita?”;
C) formularea lui Norbert Wiener [Wiener, N., 1971, Pagina de Internet: www.ciren.org/artifice/artifices_4/Actes/wiener.html]: „Pentru a înţelege că transportul de informaţie necesită mai mult decât un simplu transport fizic (...) să examinăm ambele tipuri de comunicare: transportul material şi transportul informaţiei însăşi. La ora actuală, se consideră că ea n-ar putea fi transmisă dintr-un loc într-altul decât în prima formă, iar nu sub formă de mesaje. Totuşi, chiar şi în prezent, comunicarea informaţiilor serveşte la transmiterea unei părţi din înţelesurile şi capacităţele noastre în orice colţ al lumii. Noi am sugerat deja (...) că această distincţie între transportul material şi transportul mesajelor nu este teoretic nici permanentă, nici de netrecut”;
2) enunţarea acestei probleme în cadrul teoriei semantice a informaţiei se face accentuând asupra conţinutului semantic al informaţiei vehiculate de enunţurile unui mesaj (asupra înţelesului sau semnificaţiei respectivelor enunţuri):
A) Rudolf Carnap şi Yoshua Bar-Hillel [Carnap, R., and Bar-Hillel, Y., 1952, p. 223] consideră că problema comunicării nu se poate reduce la transmiterea sau receptarea informaţiei dintr-un mesaj, dincolo de importanţa acestor utilizări („informaţia pe care un emiţător intenţionează să o comunice prin transmiterea unui anumit mesaj” şi „informaţia pe care un receptor o obţine din acest mesaj”): „O explicaţie a acestor utilizări e de o importanţă deosebită, dar convingerea noastră este că cea mai bună abordare a acestor explicaţii e analiza conceptului de informaţie semantică din moment ce, pe lângă faptul de a fi o aproximaţie prin abstracţie al conceptului viguros al informaţiei pragmatice, el poate foarte bune să dobândească valenţe independente”;
B) Jaakko Hintikka [Hintikka, J., 1974, p. 174-175] afirmă că problema comunicării poate fi redusă la „ceea ce un enunţ «spune» sau «asertează»”, adică la „informaţia pe care o transmite”, dar ca formă a „informaţiei semantice”: „conceptul de informaţie semantică pe care l-am definit aici poate fi numit informaţie de adâncime. Un concept diferit al informaţiei se obţine în acelaşi fel (...). Această nouă noţiune de informaţie poate fi numită informaţie de suprafaţă (...): informaţia de adâncime este informaţia totală pe care o putem extrage dintr-un enunţ cu ajutorul logicii. Informaţia de suprafaţă este informaţie pe care un enunţ ne-o dă înainte de a fi făcut asupra lui vreun lucru din multele pe care le putem face cu ajutorul logicii pentru a scoate înafară toată informaţia ce poate fi ascunsă în el. (...) Ceea ce un enunţ «spune» sau «asertează» trebuie să fie strâns conectat cu informaţia pe care o transmite. Această informaţie nu poate fi informaţia de adâncime, totuşi, deoarece un vorbitor în mod cert nu se poate spune că «asertează» ceva ce decurge la mare distanţă de enunţul pe care l-a pronunţat. Este mult mai natural să-l legăm de informaţia de suprafaţă a acestui enunţ. (...) Deci, ceea ce un om «spune» poate fi cu greu corelat cu informaţia de adâncime, pentru că despre un om se poate zice în mod normal că ştie cât de mare e informaţia pe care o dă altora explicit, deşi el nu ar pute fi întotdeauna capabil să anticipeze cantitatea de informaţie pe care altcineva ar putea fi capabil să o deducă logic din ceea ce spune el”;
― modelul comunicării/comunicaţiei:
1) modelul utilizat în teoria matematică a informaţiei a fost teoretizat din punct de vedere al elementelor sale componente şi reprezentat grafic de Shannon [Shannon, Cl. E., 1948, pp. 2-3] cu ajutorul unei „diagrame schematice a sistemului de comunicaţie în general”, apoi reluat şi problematizat pentru „nivelul A” al comunicării de către Weaver [Weaver, W., 1949, pp. 3-4, 9-13]:
A) reprezentarea standard a modelului, prin schema unui sistem de transmitere a informaţiei cu codificare după cum urmează:


B) elementele componente ale modelului, care au primit următoarele interpretări:
a) sursa de informaţii, care produce mesajul sau secvenţa mesajelor de comunicat, fie în sensul larg de a selecta mesajul dorit (cuvinte scrise sau vorbite, picturi, melodii etc.) dintr-o mulţime de mesaje posibile (în cazul vorbirii orale această sursă de informţie este creierul uman), fie în sensul restrâns de mesaj alcătuit din:

a1) o secvenţă de litere, ca în sistemele de telegraf;

a2) o singură funcţie de timp, f(t), ca în radio sau telefonie;
a3) o singură funcţie de timp şi alte variabile, ca în televiziunea alb-negru, unde mesajul poate fi gândit ca o funcţie f(x,y,t) a două coordonate de spaţiu şi a uneia de timp;

a4) două sau mai multe funcţii de timp, precum f(t), g(t), h(t), caz în care poate avea loc o transmisie de sunet „tridimensională” sau o transmisie „multiplex”, adică transmiterea printr-un singur suport fizic („multiplex”, numit şi „cale de înaltă viteză”) a semnalelor provenind de pe mai multe canale individuale de transmisie;


a5) mai multe funcţii de mai multe variabile, de pildă ca în televiziunea color, unde mesajul constă în trei funcţii f(x,y,t), g(x,y,t), h(x,y,t) definite într-un „continuum tridimensional”;
a6) alte combinaţii care pot avea loc, cum ar fi de exemplu cea dintre o televiziune şi un canal audio asociat;
b) transmiţătorul, care acţionează asupra mesajului de aşa manieră încât să-l transforme într-un semnal convenabil pentru transmiterea pe orice canal:
b1) în telefonie, această operaţie constă doar în schimbarea intensităţii sunetului într-un curent electric adecvat;
b2) în telegrafie, această operaţie e una de codificare având drept rezultat o secvenţă de sunete, liniuţe şi spaţii corespunzătoare mesajului pe canal;
b3) într-un sistem PCM multiplex (Modulaţia Puls-Cod, în engleză Pulse-Code Modulation, pe scurt PCM, a fost primul sistem de comunicaţie digital folosit pentru transmiterea analoagă a semnalelor temporal-continue), această operaţie îmbracă forma compresiei diferitelor date (funcţii de vorbire) ale mesajului, a cuantificării şi codificării acestora astfel încât, prin interelaţionarea lor, să se construiască semnalul dorit;
b4) într-un sistem de modulare a frecvenţei, în televiziune sau în alte sisteme de comunicaţie, această operaţie se aplică mesajului devenind de o complexitate deosebit de mare în obţinerea semnalului;
b5) în vorbirea orală, această operaţie se identifică cu mecanismul vocal de producere a varietăţii sunetelor ce alcătuiesc mesajul (sistemul vocal + nervii aferenţi);
c) canalul, care este doar mediul folosit în transmisia semnalului de la transmiţător la receptor şi care poate fi:
c1) o pereche de fire de sârmă;
c2) un cablu coaxial;
c3) o bandă de frecvenţă radio;
c4) o rază de lumină;
c5) aerul, în vorbirea orală;
d) receptorul, care de obicei efectuează operaţia inversă celei realizate de transmiţător (reconstruirea mesajului pornind de la semnalul primit), punând la îndemâna destinatarului mesajul reconstituit (în vorbirea orală, receptorul este sistemul auditiv + nervii aferenţi);
e) destinatarul (destinaţia), ca persoană (lucru) pentru care mesajul este intenţionat (în cazul vorbirii orale, creierul persoanei căreia i-a fost adresat mesajul iniţial);
f) zgomotul, ca totalitatea schimbărilor ce intervin în semnalul transmis neintenţionate de sursa de informaţie, dar receptate la destinaţie ca distorsionări ale mesajului:
f1) distorsiuni de sunet, în cazul telefoniei şi al radioului;
f2) distorsiuni ale formelor şi de lumină, în cadrul transmisiei televizate;
f3) erori de transmisie, în telegrafie ş.a.
C) presupoziţiile principale ale modelului funcţionează ca principii ale lui, fiecare principiu justificând câte o calificare pe care a primit-o în literatura de specialitate, iar împreună cu celelalte justificând calificarea de „mecanicist” [Lohisse, J., 2002, pp. 27-28]:
a) „Primul principiu: modelul este liniar”, ceea ce înseamnă „a merge direct la ţintă”:
a1) toate elementele sale se înscriu în „liniaritatea mişcării (...) de la A la B”, mişcare ce are loc după un „sens unic” între cele două puncte (ce asigură „conservarea integrităţii mesajului”), deşi pot interveni factori exteriori („zgomote parazite”) care „să frâneze, să deturneze, să contrarieze mişcarea”;
a2) zgomotele parazite sunt doar „accidente” care nu împiedică mersul direct la ţintă, deşi „în orice comunicare există pierdere, din cauza structurii canalului, a lipsei de transparenţă a cunoştinţelor, a specificităţilor de limbă”;
b) „Al doilea principiu: modelul este secvenţial”, traducându-se „printr-o serie de operaţii succesiv analizabile”:
b1) succesiunea are loc după „o ordine obligatorie”, potrivit căreia „subiectul A îşi formulează mesajul, îl aşează pe canal”, iar „mesajul ajunge la subiectul B, asupra căruia efectul se face resimţit”,
b2) „unităţile” succesiunii (ca elemente structurale ale procesului de comunicare) sunt identificabile în paşii („momente” diferite ale acţiunii”) de transmitere a mesajului, astfel încât „mesajul precedă efectul, emiţătorul (transmiţătorul) iniţiază comunicarea, fraza are un început şi un sfârşit etc.”;
c) „Al treilea principiu: modelul este atomist”, adică presupune „exterioritatea şi separarea elementelor constitutive”:
c1) „unităţile” sau elementele constitutive ale modelului „nu se întrepătrund”: subiecţii comunicării diferă unul de celălalt, mesajul diferă de canal ş.a.m.d.;
c2) „unităţile” din structura mesajului sunt „discrete” (separate) sau „discontinui” (neîntrerupte): „există fraze, cuvinte, secvenţe, fotograme etc.”;
d) „Al patrulea principiu: modelul este referenţial”, redând printr-„o anumită formă”, cel mai adesea ca „semne”, obiectele şi ideile care fac obiectul transmisiei:
d1) semnele prin care reprezentăm obiectele şi ideile „pentru a putea fi transmise” sunt „simulacre sau copii, semne convenţionale”;
d2) semnele prin care reprezentăm obiectele şi ideile „pentru a putea fi transmise” sunt posibil de studiat „în plan teoretic şi abstract (...) independent de protagoniştii actului de comunicare”;
2) modelele utilizate în teoria semantică a informaţiei au fost adaptate după cel standard al teoriei matematice a informaţiei, accentuându-se asupra conţinutului semantic al mesajului transmis şi fiind descris de în termenii următori:
A) modelul propus de Bar-Hillel [Bar-Hillel, Y., 1970, pp. 515-517, 535-536] pune accent nu atât pe elementele lui structurale, cât pe „operaţiile” care-l fac funcţional:
a) din punct de vedere „structural”, modelul integral al unui proces complet de comunicare/comunicaţie poate fi reprezentat cu ajutorul următoarei formule:
F*C*S*RSCF (m),
unde m este mesajul sau enunţul transmis, privit din punct de vedere al conţinutului său (nu al formei), iar F*, C*, S*, R, S, C, F sunt

operaţiile implicate în transmisia lui m;


b) din punct de vedere „operaţional”: „Un proces complet de comunicaţie poate fi descris în forma următoare.

Fie F operaţia de punere a limbii obişnuite în formă funcţională;

Fie C operaţia de codificare printr-o secvenţă de simboluri;

Fie S operaţia de transformare a unei secvenţe de simboluri într-o secvenţă de semnale;

Fie R operaţia de distorsiune a unei secvenţe de semnale în cursul transmisiunii;

Fie S* operaţia de transformare a unei secvenţe de semnale într-o secvenţă de simboluri;

Fie C* operaţia de decodificare a unei secvenţe de simboluri în limbaj funcţional;

Fie F* operaţia de punere a limbajului funcţional în formă obişnuită.”;


c) funcţionalitatea modelului poate fi evidenţiată în cel puţin doi paşi:

c1) pornind de la modalităţile în care a fost şi trebuie să fie cercetat de susţinătorii lui (în special, de inginerii de comunicaţii):


c1') din perspectiva teoriei matematice a informaţiei: „Unii ingineri de comunicaţii preferă să se mărginească la cercetarea operaţiilor S, R şi S* menţionate aici, adică la ceea ce am propus să se numească teoria transmiterii semnalelor” (în loc de teoria matematică a informaţiei);
c1'') din perspectiva teoriei codurilor: „Alţii, dându-şi seama de faptul că eficienţa globală a comunicaţiei depinde şi de codificare, ar vrea să includă aici C şi C* şi ar ajunge astfel şi la cercetarea a ceea ce am putea numi teoria codării (şi decodării)”;
c1''') din perspectiva ingineriei lingvistice (actualmente numită şi „lingvistică computaţională”): „Alţii ar putea insista, de asemenea, asupra faptului că procesul de funcţionalizare a limbajului obişnuit este şi el relevant, şi astfel ar mai îngloba în domeniul preocupărilor lor F şi F*, ei meritându-şi denumirea de ingineri de limbaj sau tehnicieni de limbaj, iar domeniul lor meritându-şi, poate, denumirea de inginerie lingvistică”;
c1iv) din perspectiva semioticii: „Fără îndoială, inginerii limbajului vor înţelege rapid că trebuie să cunoască ceva despre mesajele m înseşi, ca să le poată transforma eficient în F (m) şi vor ajunge astfel la studierea lingvisticii teoretice, a logicii şi semanticii ca subdomenii ale teoriei generale a semnelor, adică ale semioticii, sau, cel puţin, vor ajunge să coopereze cu savanţii specializaţi în aceste domenii”;
c1v) din perspectiva diferitelor domenii practice de activitate: „În sfârşit, pentru asigurarea unui sistem eficient de comunicaţii între piloţi şi operatorii de la turnul de control, să spunem, cel puţin unii proiectanţi ai sistemului vor trebui să fie familiarizaţi cu aviaţia, după cum pentru creşterea eficienţei vânzărilor în magazinele universale trebuie să recurgem la disciplina care studiază conducerea şi administrarea afacerilor etc.”
c2) ajungând la concluzia: „Comunicaţia pleacă de la evenimente care, în general, sunt de natură extralingvistică şi decurge prin verbalizare, reverbalizare, codificare, expediere, distorsiune, recepţionare, decodificare, reformulare, înţelegere şi acţionare pe această bază. Putem trata procesul în întreaga sa generalitate, după cum putem, de asemenea, să ne dedicăm unuia sau mai multor procese parţiale implicate aici”;
B) modelul standard reformulat de Luciano Floridi [Floridi, L., 2007, sundiviziunea 2.1, fig. 3] păstrează accentul pe elementele structurale, dar pleacă de la ecuaţia informaţia = date + semnificaţii:

a) reprezentarea schematică a modelului:



b) înţelegerea sa intuitivă poate fi făcută reluând exemplul cu autoturismul: „Luni dimineaţa. Încerci să porneşti maşina dar nimic nu se întâmplă: motorul nu scoate nici macar un sunet. Liniştea motorului te îngrijorează. Îţi dai seama ca pâlpâie beculeţul care te anunţă că bateria ta e aproape moartă. După câteva încercări, te laşi bătut şi suni la Service. Spui că soţia ta a uitat să stingă luminile cu o seară înainte – e o minciună, tu ai uitat să le stingi, dar ţi-e prea ruşine să recunoşti - şi acum bateria e moartă. Mecanicul îţi explică modul de folosire a manualului de utilizare. Îţi explică ce metode să foloseşti pentru a porni motorul din nou. Din fericire, vecinul tău are toate sculele de care ai tu nevoie pentru remedierea situaţiei. Citeşti manualul, te uiţi la ilustraţii, urmăreşti instrucţiunile, rezolvi problema şi într-un sfârşit ai ajuns la lucru.”


b1) sotia este informer-ul (sursa de informaţie);
b2) mecanicul este informatul (informee = destinaţia informaţiei);
b3) „bateria e descărcată” este mesajul (semantic) sau informant-ul;
b4) procedura de codificare şi decodificare printr-un limbaj natural e, să zicem, limba engleză;
b5) sistemul telefonic este canalul de comunicare;
b6) zgomotul posibil funcţionează ca o informaţie perturbătoare;
b7) informatorul şi informatul împărtăşesc aceleaşi cunoştinţe despre simbolurile utilizabile (cunoscute ca alfabet, după cum am convenit cel englez);
C) presupoziţiile principale ale modelelor nou propuse rămân neschimbate, în ultimă instanţă aceste modele fiind tot de factură „mecanicistă”, dar la ele se adaugă şi altele (mai ales de factură semiotică şi cibernetică) care vor permite apariţia în timp a modelelor „organiciste”, modele care nu vor mai înţelege comunicarea doar ca transmitere liniară de mesaje, ci ca „relaţie interactivă şi totalitate dinamică” bazată pe următoarele principii [Lohisse, J., 2002, pp. 101-102]:
c1) „Primul principiu: modelul este circular şi complex”:
▪ circularitarea înlătură ideea de transmitere circulară a mesajului comunicat, întrucât comunicarea este concepută fără „început” şi „sfârşit”, ca un „contact” continuu, sistemic între elementele sale componente: „ne situăm în comunicare cam ca peştele care se află în apă”;
▪ complexitatea comunicării este una sistemică, potrivit lui Edgar Morin „sistemul creează complexitatea, menţine complexitatea, dezvoltă complexitatea”: termenul „complex” nu este sinonim cu termenul „complicat”, iar „noţiunea de complexitate se bazează pe ideea imprevizibilităţii: din interiorul sistemului poate să apară un sens neprăvăzut, fapt care îndepărtează postulatul determinismului”, odată cu ideile simpliăţii şi liniarităţii;
c2) „Al doilea principiu: modelul este interactiv”:
▪ interactivitatea este varianta feedback-ului cibernetic (bucla retroactivă care, potrivit lui Wiener, asigură controlul sistemului oferind informaţii despre rezultatele acţiunii lui): „reprezintă acţiunea reciprocă prin care se transformă comportamentul sau natura componentelor”;
▪ interactivitatea înlătură „viziunea analitică, legătura de la cauză la efect nu mai este unică şi obligatorie”, potrivit lui Gregory Bateson schimbându-se prin comunicare nu doar raporturile cu ceilalţi, ci şi raporturile cu noi înşine: „analiza nu mai trebuie să descrie ceea ce se spune sau se face, ci să vadă actul de comunicare în desfăşurarea lui”;
c3) „Al treilea principiu: modelul ia în calcul totalitatea, inclusiv contextul”:
▪ totalitatea face din sistem „un tot ireductibil la suma componentelor lui”: ea „implică ideea de organizare, de strângere a relaţiilor pentru obţinerea unor calităţi pe care componentele nu le au”;
▪ contextul reprezintă mediul în care are loc procesul comunicării: „comunicarea înseamnă inserarea unui subiect complex într-un mediu la fel de complex”, astfel încât „subiectul face parte din mediu, iar mediul, din subiect”;
c4) „Al patrulea principiu: modelul este relaţional”:
▪ relaţia semnelor în comunicare este una de exprimare din interior, nu de reprezentare exterioară a persoanelor, lucrurilor şi obiectelor;
▪ relaţia semnelor cu persoanele, lucrurile şi obiectele ce intervin în comunicare este de reciprocitate, toate „exprimă şi sunt exprimate”.

V. Principalele opţiuni teoretice împărtăşite de cele două ipostaze ale teoriei informaţiei


● problema avută în vedere de aceste opţiuni [Irimie, I., 1983, pp. 2-6]:
― întrebarea prin care se formulează: „Ce este informaţia?”
― răspunsurile date la această întrebare:
1) informaţia = opusul nedeterminării (stare subiectivă de incertitudine);
2) informaţia = opusul redundanţei;
3) informaţia = opusul entropiei fizice;
4) informaţia = opusul sau complementara materiei (substanţei şi energiei).
● opţiunile preponderent funcţionaliste:
― informaţia = opusul nedeterminării, opţiune „născută din/şi reprezentând ideea filon a teoriei matematice a informaţiei” potrivit căreia „între informaţie şi nedeterminare (stare de incertitudine) avem de a face cu o perfectă dualitate” (cu cât mai multă informaţie, cu atât mai puţină nedeterminare sau incertitudine), modul de evaluare matematică a nedeterminării devenind şi mod de evaluare cantitativă a informaţiei (formulele matematice ale cantităţii de nedeterminare sunt şi formule matematice ale cantităţii de informaţie):
1) formula Inf(s) = log(1/p(s)) = – log p(s) este „măsura binară a cantităţii de informaţie” [Săhleanu, V., 1973, p. 37], putând fi numită din această cauză şi „informaţie binară” sau „bit informaţional”, cea din urmă expresie fiind o denumire improprie, dar sugestivă pentru faptul că teoria matematică a informaţiei nu identifică informaţia cu nedeterminarea, ci doar le relaţionează în virtutea aceleiaşi formule de calcul (ele coincid ca formulă, dar nu în fapt):
A) bit-ul ca unitate de măsură a informaţiei: cantitatea de nedeterminare pe care o conţine o stare compusă din 2 evenimente sau alternative egal probabile;
B) bit-ul ca „unitate de nedeterminare” [Gâlea, D. şi Leon, F., Adresa de Internet: http://eureka.cs.tuiasi.ro/~fleon/curs_ia.htm, p. 15]: cantitatea de informaţie care ne spulberă o nedeterminare sau o stare de incertitudine formată din 2 evenimente sau alternative egal probabile;
2) formula Inf(s) = H(p(s)) = - este expresia unei duble ipostaze a informaţiei [Săhleanu, V., 1973, p. 39]:
A) „informaţia selectivă medie” pe un semn (semnal, simbol, literă etc.) din alcătuirea mesajului transmis:
a) „selectivă”, întrucât fiecare semn este ales dintr-un repertoriu (tezaur);
b) „medie”, deoarece unele semne poartă mai multă informaţie decât altele;
B) „entropia informaţională”, termen având o justificare discutabilă:
a) „entropie”, pentru că H(p(s)) seamănă formal, dar şi prin modul de deducere, cu formula entropiei termodinamice („entropia unui câmp de probabilitate” sau, altfel spus, „câmpul de nedeterminare”);
b) „informaţională”, pentru a o deosebi de entropia termodinamică sau, în alţi termeni, pentru a deosebi „câmpul informaţional” al unui mesaj transmis de „câmpul de nedeterminare” al unui eveniment posibil;
― informaţia = opusul redundanţei, opţiune – ca şi cea precedentă – preponderent funcţională (spune ce face informaţia, nu ce este informaţia: mută accentul spre plusul de informaţie necesar eliminării redundanţei, dar informaţia rămâne informaţie chiar dacă este în întregime redundantă), regăsibilă atât la adepţii teoriei matematice a informaţiei, cât şi la cei ai teoriei semantice a informaţiei:
1) pentru adepţii teoriei matematice a informaţiei, redundanţa are un sens preponderent fizic („obiectiv”):
A) o comunicare/comunicaţie dobândeşte atributul informaţiei dacă şi numai dacă modifică într-un fel oarecare tezaurul informaţional (de semne purtătoare de informaţie) al destinatarului, comunicarea/comunicaţia care nu îndeplineşte condiţia enunţată mai sus fiind, cel puţin din perspectiva destinatarului, redundantă;
B) o comunicare/comunicaţie dobândeşte atributul redundanţei dacă şi numai dacă produce un „exces informaţional” (un plus de semne sau de semnale etc.) pe canalul de comunicaţie, necesar asigurării eficacităţii mesajului transmis în condiţiile de creştere a zgomotului sau erorilor de decodificare [Săhleanu, V., 1973, p. 29-30];
2) pentru adepţii teoriei semantice a informaţiei, redundanţa are un sens preponderent gnoseologic („subiectiv”, întrucât gnoseologia = teoria cunoaşterii):
A) o comunicare/comunicaţie este redundantă atunci când un sistem de semne sau de constructe de semne nu aduce un plus de cunoaştere sau de noutate (nu atacă zone ale necunoscutului sau nu vizează o realitate necunoscută), altfel spus un sistem este redundant atunci când între elementele sale există astfel de conexiuni încât din cunoaşterea elementului A putem deduce o parte din cunoştinţele despre elementul B;
B) o comunicare/comunicaţie este redundantă atunci când este doar o simplă repetare sau când se abate de la diversitatea extremă dintr-un sistem, acest tip de redundanţă fiind în unele cazuri utilă (precum principiul pedagogic: „repetiţia e mama studiului”) sau dăunătoare (prin risipa ce o poate angrena);
● opţiunile preponderent ontologice:
― informaţia = opusul entropiei fizice, opţiune venind dinspre abordările cibernetice (de exemplu, Cibernetica lui Norbert Wiener) şi dinspre aplicaţiile fizicii matematice (precum cele avute în vedere de Léon Brillouin în Science and Information Theory, Academic Press, New-York, 1956), potrivit cărora discuţia despre ce este informaţia trebuie dusă în termenii obiectivităţii entropiei fizice (precum cel de „entropie termodinamică”) şi nu în cei ai subiectivităţii incertitudinii sau nedeterminării (ca cel de „entropie informaţională”):
1) definirea entropiei fizice
A) definirea neformală îmbracă 2 ipostaze principale:
a) definiţia entropiei fizice ca tendinţă legică şi spontană a sistemelor spre degradare calitativă;
b) definiţia entropiei fizice ca tendinţă a reducerii complexităţii sistemelor;
B) definiţiile formale, care exprimă cantitatea de degradare a energiei sistemelor (nulă în cazul particular al transformărilor reversibile) [Brillouin, L., 1958, p. 116, 157; Guillaumaud, J., 1967, p. 121, 126, 141, 143]:
a) formula Boltzmann-Planck este cea mai cunoscută dintre ele şi redă entropia unui sistem (izolat) aflat într-o stare primitivă (luată ca iniţială):
S = K log P,
unde S este entropia sistemului studiat, P redă numărul de complexiuni posibile ale sistemului a cărui entropie se caută („complexiuni” sau „complexităţi” = entităţi determinate de variabilele microscopice ale unui sistem care, spre deosebire de variabilele lui macroscopice, nu pot fi măsurate individual şi care, ca ansamblu de mărimi necunoscute, îi permite sistemului să ia o mare varietate de structuri cuantificate numite „complexiuni Planck”: de exemplu, poziţia şi viteza fiecărui atom, stările cuantice ale respectivilor atomi sau ale structurilor moleculare etc.), iar K este constanta lui Boltzmann exprimată în ergi/grad, centigrad etc.;
b) formula variaţiei de entropie a unui sistem care, prin intervenţie energetică, trece de la starea primitivă la o stare nouă:
ΔS = K log P0 – K log P = K log P0/P,
unde ΔS este variaţia entropiei (dacă P0 > P, variaţia este pozitivă, adică entropia creşte: o creştere a numărului de stări posibile P0 – practic, de complexiuni – corespunde pentru sistem unei creşteri a entropiei, dar este posibilă şi situaţia inversă), K log P0 exprimă entropia iniţială a sistemului, iar K log P redă entropia noii stări a lui, adică după modificarea stării lui energetice;
c) explicitarea acestor definiţii cu ajutorul „demonului” lui Maxwell [Guillaumaud, J., 1967, pp. 129-131]: „Să considerăm un recipient care conţine un gaz şi care este despărţit în 2 părţi printr-un perete pe care se găseşte un orificiu O. Acest orificiu poate fi închis cu un oblon V. Fie A jumătatea stângă a vasului şi B jumătatea dreaptă. Să ne închipuim, aşa cum a făcut Maxwell în 1871 expunându-şi «teoria căldurii», «o fiinţă ale cărei facultăţi sunt atât de perfecte încât poate urmări orice moleculă în mişcarea ei». Se ştie că moleculele unui gaz se află într-o mişcare neîncetată. Pe de altă parte, temperatura unui gaz este cu atât mai ridicată cu cât moleculele se mişcă mai repede. Acelaşi lucru se poate spune şi despre presiunea lui. Să ni-l închipuim pe «demonul» lui Maxwell aşezat în O şi manevrând oblonul V. Întrucât el vede moleculele individual, poate lăsa să treacă moleculele cele mai rapide din jumătate A în B, oprindu-le să treacă din B în A. Şi, dimpotrivă, el lasă să treacă din B în A moleculele cele mai lente. În felul acesta el crează o diferenţă de temperatură şi de presiune între B şi A, diferenţă care poate fi folosită pentru a produce lucru mecanic. Dacă am găsi un dispozitiv fizic în stare să joace rolul acestui demon, am putea realiza un perpetuum mobile (...) Construind acest dispozitiv, legăm mişcările oblonului de viteza moleculelor. Amplsarea moleculelor în incinta lui Maxwell va depinde de viteza lor, în timp ce fără dispozitivul de tipul «demonului» moleculele s-ar dispune la întâmplare , adică după schema cea mai probabilă (sau una foarte vecină), respectiv schema unui echilibru statistic între două părţi ale incintei. Vedem astfel că numărul conexiunilor scade de o parte şi de cealaltă a peretelui (deoarece, în cele din urmă în B nu mai rămân molecule foarte lente, iar în A molecule foarte repezi). Sub raport matematic entropia scade datorită acestui fapt. Dar ea scade, de asemenea, sub raport fizic, deoarece dispozitivul «demon» face ca sistemul să fie capabil să producă lucru mecanic, ceea ce era imposibil înainte de intervenţia lui”;
2) definirea informaţiei ca entropie negativă (negentropie = opusul entropiei sau, altfel spus, entropia cu semnul schimbat: N = – S: „După cum cantitatea de informaţie dintr-un sistem este o măsură a gradului de organizare a acestui sistem, tot astfel entropia unui sistem este măsura gradului lui de dezorganizare; una este egală cu cealaltă luată cu semnul opus” [Wiener, N., 1966, pp. 33-34]):
A) definirea neformală, care poate fi ipostaziată în 2 modalităţi [Brillouin, L., 1958, p. VIII;]: „Să considerăm o problemă care comportă un anumit număr de răspunsuri posibile atunci când nu posedăm informaţii speciale asupra situaţiei date. Dacă reuşim să obţinem o informaţie asupra problemei, numărul răspunsurilor posibile se va reduce, iar o informaţie totală poate să ducă chiar la un singur răspuns posibil. Informaţia este o funcţie a raportului dintre răspunsurile posibile înainte şi după ce ea a fost primită”; cele 2 modalităţi de ipostaziere sunt [Guillaumaud, J., 1967, pp. 103-104, 127-128]:
a) definiţia „informaţiei parţiale”: cazul obişnuit al informaţiei, în care informaţia este o funcţie a raportul dintre răspunsurile posibile înainte ca o ea să fie primită şi răspunsurile după ce ea a fost primită (altfel spus, „informaţia I este o funcţie crescătoare a raportului P0/P, în care P0 este numărul cazurilor posibile înainte de primirea informaţiei, iar P numărul cazurilor posibile după primirea informaţiei”; crescătoare: I „sporeşte când acest raport scade sau, ceea ce este acelaşi lucru, când creşte inversul acestui raport”);
b) definiţia „informaţiei totale”: „cazul limită al informaţiei” (raportul dintre răspunsurile posibile înainte ca o informaţie să fie primită şi răspunsurile după ce informaţia respectivă a fost primită) atunci când răspunsurile posibile se reduc la 1, permiţându-ne să ajungem la certitudine;
B) definiţiile formale:
a) definiţia informaţiei parţiale:
I = K’ log P/P0 = – K’ log P0/P = – ΔS = ΔN,
unde K’ este o constantă arbitrară care nu depinde decât de unităţile de măsură alese (biţi, ergi etc; dacă I este exprimat în biţi, K’ = 3,65), P0 şi P sunt răspunsurile în egală măsură probabile (echiprobabile), considerate ca nişte complexiuni Planck (pentru a putea stabili relaţia dintre informaţie şi entropie), iar – ΔS şi ΔN exprimă variaţia negentropiei (negentropie parţială);
b) definiţia informaţiei totale:
I = K’ log 1/P = – K’ log P = – S = N
care este un caz particular al informaţiei parţiale când P0 = 1, iar – S, respectiv N sunt 2 notaţii pentru negentropia totală;
c) explicitarea acestor definiţii se face, de obicei, tot cu ajutorul „demonului” lui Maxwell, informaţia ca negentropie jucând rolul acestui demon:
c1) ca negentropie potenţială: ea nu poate juca acest rol, deoarece se rezumă strict la producerea de noutate (cunoştinţe), adică la informare;
c2) ca negentropie eficientă: ea joacă acest rol deoarece îşi asumă rolul producerii de acţiune (ghidează comportamentul sistemului producător sau consumator de noutate sau cunoştinţe, adică informat), în fond acţiunea pe care o călăuzeşte reprezentând modalitatea de trecere de la negentropia potenţială la negentropia eficientă;
― informaţia = opusul sau complementara materiei (substanţei şi energiei), opţiune venind tot dinspre abordările cibernetice (Cibernetica lui Norbert Wiener) şi dezvoltată îndeosebi de abordările materialiste, marxiste („materialist-dialectice”), structuraliste şi semiotice, potrivit cărora informaţia este informaţie, adică altceva decât substanţa sau energia:
1) principalele poziţii cu privire la acest mod de înţelegere a informaţiei pot fi deosebite după mai multe criterii, cum ar fi de exemplu criteriul numărului entităţilor considerate a sta la baza existenţei şi explicaţiei acesteia:

A) viziunea diadică: are o lungă tradiţie, considerând că totul în lume se compune din doar 2 entităţi existenţiale (substanţa şi energia) şi că explicaţia oricărei realtăţi trebuie făcută din perspectiva descrierii substanţei acestei realităţi şi a genurilor de energie pe care ea (substanţa) le produce;


B) viziunea triadică consideră că, cel puţin pentru înţelegerea unora dintre zonele realităţii, trebuie pusă în jos nu numai ştiinţele despre substanţă şi energie, ci şi ştiinţa informaţiei, potrivit cărora:
a) informaţia nu este o realitate universală precum substanţa şi energia, ea are o realitate insulară, oazică;
b) informaţia se supune altor legi de transformare şi conservare decât cele substanţial-energetice, motiv pentru care poate fi trasată o graniţă între informaţional şi energetic;
c) informaţia nu funcţionează – niciunde şi nicicând – în sine şi prin sine, ea este informaţie pentru un sistem (substanţialo-energetic) şi despre un sistem, fiind brodată întotdeauna pe solul interacţiuni substanţialo-energetice;
d) informaţia nu se autonomizează, ea are duble dependenţe faţă de substanţă şi energie (funcţionale şi ontologice), locul prin care se fixează pe suportul substanţial-energetic este cel al semnelor şi semnalelor (numite „purtători de informaţie”);
e) informaţia, odată fixată în semne şi semnale ca mesaj, devine conţinut şi esenţă a oricărei comunicări (o entitate nu doar potenţială, ci reală, existenţială), cunoaşteri (procesul cunoaşterii nu mai este doar un proces de receptare de informaţie, ci un proces al generării de informaţie: omul nu receptează doar informaţie despre realitate, ci-şi produce informaţia despre realitate) şi comportări (informaţia ghidează acţiunile fiinţelor şi maşinilor);
2) principalele ipostaze sub care se manifestă informaţia astfel înţeleasă:
A) informaţia structurală: informaţia care se dezvoltă în sânul materiei (substanţă + energie) sub forma unor structuri relativ invariante sau legi formale ale unui univers (fizic, biologic, psihic, social, economic etc.), manifestându-se ca un univers aparte („universul informaţional” = ansamblu de structuri sau legităţi brodat în ţesătura substanţial-energetică a celorlalte universuri şi orientându-le antientropic);
B) metainformaţia: informaţia despre schimbul informaţional dintre 2 sisteme A şi B, conţinută de un sistem C aflat în raport informaţional direct cu B şi indirect cu A (mijlocit de B, care devine semn sau semnal purtător de informaţie pentru C despre A şi despre schimbul informaţional dintre A şi B); metainformaţia joacă un rol esenţial în inteligenţa artificială.

VI. Aplicatii şi lecturi suplimentare


● aplicaţii:
antrenament prealabil: Intri într-o cabană şi vezi la stânga 7 paturi mici şi la dreapta o masă cu 7 scaune mici. Pe masă sunt 5 feluri de fructe:

1. Măr


2. Banană

3. Fragi


4. Piersică

5. Portocală


Ce fruct alegi?

Alegerea ta spune multe despre tine!


Răspunsuri:


A. Măr = înseamnă că eşti o personă căreia îi plac merele.

B. Banană = înseamnă că eşti o personă căreia îi plac bananele.

C. Fragi = înseamnă că eşti o personă căreia îi plac fragii.

D. Piersică = înseamnă că eşti o personă căreia îi plac piersicile

E. Portocală = înseamnă că eşti o personă căreia îi plac portocalele.

aplicaţia nr. 1 [„Test de verificare a raţionamentului logic - 10 septembrie 2006”, Examen de admitere INM - 2006]: Zamfir intervievează un număr de exact cinci dintr-un total de şapte candidaţi pentru un post – Georgescu, Imre, Luca, Necula, Orlov, Radu, şi Tănase. Zamfir îi intervievează pe cei cinci, unul câte unul, câte o singură data pe fiecare. Desfăşurarea interviului trebuie să îndeplinească următoarele condiţii:


Luca este cel de-al doilea sau cel de-al treilea intervievat.

Unul dintre cei doi – Necula sau Tănase – este intervievat ultimul.

Dacă este intervievat, atunci Georgescu este intervievat primul.

Dacă amândoi sunt intervievaţi, atunci Imre este intervievat imediat după Radu.

Dacă amândoi sunt intervievaţi, atunci Orlov este intervievat imediat după Radu.

Dacă amândoi sunt intervievaţi, atunci Tănase este intervievat imediat după Necula.



Yüklə 0,52 Mb.

Dostları ilə paylaş:
1   2   3   4   5   6   7   8   9




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©muhaz.org 2024
rəhbərliyinə müraciət

gir | qeydiyyatdan keç
    Ana səhifə


yükləyin