11
11
1928-ji ildə Amerika alimi R.Xartli informasiyanın miqdarının müəyyən olunması
üçün aşağıdakı düsturu təklif edir:
l=loq
2
N
burada l-informasiyanın miqdarıdır.
Xartlinin verdiyi düstura əsasən ən kiçik informasiya vahidi qəbul edilmişdir. Belə
ki, n=1,m=2 olarsa l=loq
2
N=1loq
2
2=1 (əgər m=1 olarsa l=0 olar).
Beləliklə l=loq
2
2=1
1948-ji ildə Amerika alimi K.Şennon informasiyanın orta miqdarını müəyyən etmək
üçün aşağıdakı düsturu təklif etmişdir.
)
log
...
log
log
(
log
2
2
2
2
1
2
1
1
2
n
n
n
i
i
i
P
P
P
P
P
P
P
P
l
Burada P
1
,…P
n
aparılan sınaqların sayıdır.
Əgər hadisə eyni ehtimallıdırsa P
1
=P
2
=P
n
=1/N onda, P
1
,…P
n
bərabərdirsə onda
onlar da 1/N bərabərdir. Beləliklə Xartlinin dusturu alınır.
Beləliklə Xartlinin təklif etdiyi düstur alınır. Burada H-təsadüfi kəmiyyətin entropiyası
adlanır və sınağın nətijələrinin qeyri müəyyənliyinin ölçüsüdür.
İnformasiyanı ölçmək üçün ən minimal informasiya vahidi
kimi Şennonun təklifi
ilə
Dostları ilə paylaş: