background image

Teoria informacji i kodowanie:
ćwiczenia I

Informacja, niepewność, entropia

Piotr Chołda

Katedra Telekomunikacji Akademii Górniczo-Hutniczej

Kraków, 4. marca 2011 r.

background image

Kontakt z prowadzącym

Dr inż. Piotr Chołda

I

015, parter pawilonu D5

U

Czwartek, 15.30-17.00
(ale można spotkać się też o innej porze;
tylko wcześniej proszę o e-maila)

T

(617–)40–36

B

piotr.cholda@agh.edu.pl

m

http://www.cholda.pl/teaching

TIiK: ćwiczenia

2/32

background image

Zasady zaliczenia

Zaliczenie w normalnym trybie

Cztery kolokwia

Zakaz używania kalkulatorów i wszelkich innych
„wspomagaczy”
Dwa zadania (jedno za 12, drugie za 13 punktów)
Nieobecność: 0 punktów. Nie ma poprawek
Preferowana opcja:

kolokwia dla całego roku na raz

Aktywność podczas zajęć: punktowana pojedynczymi
punktami; nie ma punktów ujemnych

,

Ustalamy: do tablicy—tylko

chętni

(póki są. . . )

Wśród zadań domowych czasem są „zadania dla ambitnych”
— pierwsza osoba, która wyśle poprawne rozwiązanie takiego
zadania dostanie dodatkowe punkty

Ocena końcowa jest liczona według Regulaminu Studiów,
§13.1-2

TIiK: ćwiczenia

3/32

background image

Zasady zaliczenia

Nieobecność i kolokwia zaliczeniowe

Regulamin, §11.3: obecność na ćwiczeniach jest obowiązkowa

Dopuszczalne są co najwyżej

dwie

nieobecności

nieusprawiedliwone
Student, który opuści bez usprawiedliwienia większą liczbę
zajęć — nie może zdawać kolokwiów poprawkowych!
(Regulamin, §15.3)

Pozostali studenci uczęszczający na zajęcia i bez zaliczeń:
mają prawo zdawać dwa kolokwia poprawkowe (aż uzyskają
ocenę

dostateczną

)

Niezadowoleni z oceny pozytywnej: zaliczenie w trybie
komisyjnym

Zgodnie z Regulaminem Studiów, §16.1, do egzaminu można
przystępować

pod warunkiem

uzyskania zaliczenia z ćwiczeń

(

żadna

inna opcja nie jest przewidywana)!

TIiK: ćwiczenia

4/32

background image

Program ćwiczeń w roku 2010/2011

2

11. marca: Źródła informacji, kanały transmisyjne, przepustowość

3

18. marca: Kodowanie źródłowe, długość słowa kodowego, kod Huffmana,
kompresja, kodowanie arytmetyczne, adaptacyjny kod Huffmana

4

około 25 marca (7 kwietnia?):

Kolokwium I

— entropia, kodowanie źródłowe

5

1. kwietnia: Kody nadmiarowe, odległość Hamminga, kresy

6

8. kwietnia: Kody liniowe, kody Hamminga

7

około 15. kwietnia (5 maja?):

Kolokwium II

— kody nadmiarowe, kody

Hamminga

8

6. maja: Zaawansowane kody liniowe (modyfikacje, kody iteracyjne. . . )

9

13. lub 20. maja: Kody wielomianowe (wstęp)

10

27. maja: Kody cykliczne

11

około 3-10. czerwca (17 czerwca?):

Kolokwium III

— rozbudowane kody

liniowe (modyfikacje, kody wielomianowe. . . )

12

17. czerwca: Kody splotowe (wstęp)

13

22. czerwca,

środa

: Dekodowanie kodów splotowych

14

24. czerwca:

Kolokwium IV

— kody splotowe

15

1. lipca, 9.00,

nie ulegnie zmianie

:

Kolokwium zaliczeniowe poprawkowe I

16

8. lipca, 9.00,

nie ulegnie zmianie

:

Kolokwium zaliczeniowe poprawkowe II

TIiK: ćwiczenia

5/32

background image

Materiał do powtórzenia/dorobienia

Analiza:

Właściwości funkcji logarytm
Dwumian Newtona
Ciągi i ich sumy
Metody obliczania sum szeregów

Rachunek prawdopodobieństwa:

Prawdopodobieństwo warunkowe (w tym tw. Bayesa)
Dyskretne rozkłady prawdopodobieństwa (m.in. rozkład
Bernoulliego, rozkład dwumianowy)
Zmienne losowe (również dwuwymiarowe oraz funkcje zmiennej
losowej)
Wartość oczekiwana/średnia zmiennej losowej i jej wlaściwosci
(np. w. ocz. sumy zmiennych)
Procesy losowe i łańcuchy Markowa

TIiK: ćwiczenia

6/32

background image

Literatura do ćwiczeń

Polecam trzy, stosunkowo nowe pozycje w języku polskim:

Podstawy rachunku prawdopodobieństwa: Agnieszka
Plucińska, Edmund Pluciński, Probabilistyka.

Warszawa:

Wydawnictwa Naukowo-Techniczne, 2000.

Zadania z TIiK: Jan Chojcan, Jerzy Rutkowski, Zbiór zadań z
teorii informacji i kodowania
.

Gliwice: Wydawnictwo

Politechniki Śląskiej, 1994.

Zadania z TIiK: Radosław Biernacki, Bohdan Butkiewicz,
Jerzy Szabatin, Bożena Świdzińska, Zbiór zadań z teorii
sygnałów i teorii informacji
.

Warszawa: Wydawnictwo

Politechniki Warszawskiej, 2007.

TIiK: ćwiczenia

7/32

background image

Miara informacji

Zawartość informacyjna pojedynczej wiadomości

Jeśli pewna wiadomość x

i

może wystąpić z prawdopodobieństwem

Pr{x

i

} = p

, to jej zawartość informacyjna wynosi:

(x

i

) = (p) = lg

1
p

= − lg p

Na przykład:

I

1

10

 ≈ 3, 32

I

1
2

 = 1

I

9

10

 ≈ 0, 15

TIiK: ćwiczenia

8/32

background image

Miara informacji cd.

Entropia zmiennej losowej

Zmienna losowa

X

o

dyskretnym

rozkładzie prawdopodobieństwa

Pr{x

i

} = Pr{x

i

} = p

i

(

P

i

p

i

= 1) charakteryzuje się

entropią

(zmiennej losowej)

, którą można rozumieć jako wartość średnią

zawartości informacyjnej:

H() = H(p

1

p

2

, . . . ) = −

P

i

p

i

lg p

i

[

bitów

/

wiadomość

]

Źródło informacji zazwyczaj utożsamiamy z jakimś rozkładem
zmiennej losowej.

TIiK: ćwiczenia

9/32

background image

Kilka użytecznych konwencji. . .

Umówmy się na oznaczenia:

log

2

= lg

log

10

= log

log

e

= ln

Gdy wiadomo lub nie jest istotne, jaki przedział przebiega
zmienna indeksująca , często dla wygody zapisujemy:

P

i

(

P

i

) zamiast np.

N

P

=0

. Ale gdy przebieg zmiennej indeksującej

jest „nietypowy” lub szczególnie ważny z punktu widzenia

danego problemu, zapisujemy dokładniej, np.

−5

P

=N+2

TIiK: ćwiczenia

10/32

background image

Właściowości entropii

Niech będzie dany dyskretny rozkład prawdopodobieństwa
zmiennej losowej , której zbiór realizacji ma liczność (możemy
ten rozkład utożsamić z rozkładem prawdopodobieństwa
generowania wiadomości przez jakieś źródło wiadomości).

Granica dla zerowych prawdopodobieństw

lim

p→0

× lg = 0

Ograniczenie górne i dolne

0 ≤ H() ≤ lg N

Równomierny rozkład prawdopodobieństwa

dla rozkładu

Pr{x

i

} =

1

N

, 1 ≤ ≤ N, entropia osiąga

maksimum po wszystkich rozkładach
N-elementowych:

H

max

() = H

1

N

,

1

N

, . . . ,

1

N

 = lg N

TIiK: ćwiczenia

11/32

background image

Rozszerzenie źródła

k-krotne rozszerzenie źródła

Niech będzie dane dyskretne źródło , generujące wiadomości
x

1

x

2

, . . . , x

N

. Weźmy sekwencje o długości złożone z

wiadomości generowanych przez :

s

i

x

(1)

x

(2)

. . . x

(k)

.

Źródło generujące wiadomości s

i

nazywamy

k-krotnym

rozszerzeniem źródła

.

Jeśli X

k

jest k-krotnym rozszerzeniem

bezpamięciowego

źródła ,

wtedy:

H X

k

 = × H()

TIiK: ćwiczenia

12/32

background image

Zadanie powtórzeniowe I

Policzmy sobie entropie różnych zmiennych losowych. . .

Która z poniższych sekwencji niesie większą informację:

1

10 liter alfabetu łacińskiego (zakładamy, że wystąpienie każdej
z 32 liter jest równie prawdopodobne, nie interesuje nas
rozróżnienie między wielkimi a małymi literami),

2

32 cyfry (zakładamy, że wystąpienie każdej z dziesięciu cyfr
jest równoprawdopodobne)?

TIiK: ćwiczenia

13/32

background image

Zadanie powtórzeniowe II

Wyprowadźmy sobie właściwość dla entropii maksymalnej. . .

Używając właściwości logarytmu naturalnego:

ln =

− 1,

gdy = 1

− 1,

gdy 6= 1

udowodnij następujące twierdzenie:

Jeśli źródło generuje ≥ 1 wiadomości (1, . . . , N), każdą z
prawdopodobieństwem odpowiednio p

i

, to entropia tego źródła

charakteryzuje się poniższą właściwością:

H() = (p

1

p

2

, . . . , p

N

) ≤ lg N,

przy czym równość zachodzi wtedy i tylko wtedy gdy ∀

i

p

i

=

1

N

.

TIiK: ćwiczenia

14/32

background image

Właściowości entropii cd.

Entropia binarnego źródła wiadomości

p

H(p, 1 − p) = −× lg − (1 − p) × lg(1 − p)

1
4

3
4

1

1
2

1
4

1
2

3
4

1

TIiK: ćwiczenia

15/32

background image

Entropia dla wielu zmiennych losowych

Entropia łączna

Entropia łączna

Dla dwóch dowolnych zmiennych losowych o łącznym
rozkładzie prawdopodobieństwa

Pr {x

i

y

j

} = Pr {x

i

∩ y

j

} = Pr {x

i

y

j

} = p(j) = p

ij

(

P

i

P

j

p() = 1) następująco definiujemy

entropię łączną

:

H() = −

P

i

P

j

p() lg p()

Przypomnijmy sobie przy okazji użyteczne właściwości:

Pr {x

i

} =

P

j

Pr {x

i

y

j

}

Pr {x

i

|y

j

} =

Pr

{

x

i

,y

j

}

Pr

{

y

j

}

— zm. los. niezależne: Pr {x

i

y

j

} = Pr {x

j

} × Pr {y

j

}

TIiK: ćwiczenia

16/32

background image

Zadanie powtórzeniowe III

Przydatna właściowość entropii łącznej

Pokaż, że dla niezależnych zmiennych losowych Y entropia
łączna 
wynosi:

H() = H() + H().

TIiK: ćwiczenia

17/32

background image

Entropia dla wielu zmiennych losowych

Entropia warunkowa

Entropia warunkowa

Dla połączonych doświadczeń (zmiennych losowych) Y

entropia warunkowa H(|)

jest definiowana jako wartość średnia

entropii pod warunkiem znanej realizacji zmiennej :

H(|) = −

P

i

Pr{x

i

}

P

j

Pr{y

j

|x

i

} × lg Pr{y

j

|x

i

} =

= −

P

i

P

j

Pr{x

i

y

j

} × lg Pr{y

j

|x

i

}

Entropia warunkowa służy do oceny ilościowej naszej niepewności
odnośnie do przy znanym wyniku .

TIiK: ćwiczenia

18/32

background image

Zadanie powtórzeniowe IV

Użyteczna właściowość entropii łącznej

Udowodnij następującą właściwość (tzw.

reguła łańcuchowa

):

H() = H() + H(|).

TIiK: ćwiczenia

19/32

background image

Informacja wzajemna (transinformacja)

x

1

..

.

x

M

X

Kanał informacyjny

y

1

..

.

y

L

Y

Informacja wzajemna

Informację wzajemną

(

transinformację

) definiujemy następująco:

() =

P

i

P

j

Pr{x

i

y

j

} lg

Pr{x

i

,y

j

}

Pr{x

i

} Pr{y

j

}

Piszemy średnik (X

;

), a nie przecinek (czasem stosowany

zapis (X

,

) oznacza coś innego!)

We wzorze definicyjnym

nie ma

minusa!

TIiK: ćwiczenia

20/32

background image

Informacja wzajemna cd.

Właściwości

Poniższe właściowości pokazują, dlaczego tak zdefiniowana
transinformacja, jest użyteczna w transmisji danych:

() = ()

() = H() − H(|)

() = H() − H(|)

() = H() + H() − H()

TIiK: ćwiczenia

21/32

background image

Informacja wzajemna cd.

Interpretacja graficzna dla kanału transmisyjnego

Proszę pamiętać, że „kanał informacyjny” to bardzo szerokie
pojęcie (kanał transmisyjny, urządzenie magazynujące,
skompresowany plik. . . )

Nadajnik

X

H()

Entropia

wejściowa

()

Transinformacja

Utrata informacji

H(|)

Szum informacyjny

H(|)

Odbiornik

Y

H()

Entropia

wyjściowa

TIiK: ćwiczenia

22/32

background image

Zadanie powtórzeniowe V

No to udowodnijmy sobie, że tak jest. . .

Udowodnij że dla transinformacji zachodzą poniższe tożsamości:

() = ()

H() − H(|)

H() − H(|)

H() + H() − H()

TIiK: ćwiczenia

23/32

background image

Użyteczne wzory na kolokwium

Pewne użyteczne zależności będą w poniższej formie zapisane na
kartce z kolokwium (więc nie trzeba się ich uczyć na pamięć,

ale

trzeba je rozumieć!):

H() = H() + H(|)

() = H() − H(|)

H() − H(|)

H() + H() − H()

— niezależne: H() = H() + H()

TIiK: ćwiczenia

24/32

background image

Zadanie 1

Jaką maksymalną nieokreśloność może zawierać fotografia
6 × 9 cm

2

, jeśli rozmiar ziarna jest równy 0, 01 × 0, 01 cm

2

, a każde

ziarno może mieć trzy odcienie: biały, czarny i szary?

TIiK: ćwiczenia

25/32

background image

Zadanie 2

Źródło generuje wiadomości według następującego schematu:

1

losowane są 0 oraz 1 (odpowiednio z prawdopodobieństwem
p

0

pp

1

= 1 − p);

2

losowanie kończy się w chwili wylosowania pierwszej jedynki;

3

źródło wysyła informację, za którym razem to nastąpiło.

Znajdź entropię takiego źródła.

TIiK: ćwiczenia

26/32

background image

Zadanie 3

Pokaż, że źródło informacji generujące wiadomości
x

0

x

2

, . . . , x

N

zgodnie z rozkładem dwumianowym (rozkładem

Bernoulliego), tj. dla 0 ≤ ≤ N, 0 < < 1 oraz = 1 − p:

Pr{x

i

} =

N

i

p

i

q

Ni

,

charakteryzuje się entropią:

H() ≤ −N(log

2

log

2

q).

TIiK: ćwiczenia

27/32

background image

Zadanie 4

Kolokwium z lat poprzednich. . .

Źródło jest zdefiniowane w sposób następujący:

1

mamy dwa źródła o entropiach odpowiednio H() i
H();

2

wiadomości generowane przez te źródła nie pokrywają się (np.
jedno generuje litery, a drugie — cyfry);

3

ze źródła wysyłamy informację na tej zasadzie, że z
prawdopodobieństwem podajemy na jego wyjście wiadomość
ze źródła , a z prawdopodobieństwem (1 − p) — wiadomość
ze źródła .

Jaka jest entropia ?

TIiK: ćwiczenia

28/32

background image

Zadanie 5

Zmienna losowa przebiega z takim samym
prawdopodobieństwem wartości całkowitoliczbowe 1, 2, . . . , 2N.
Zmienna losowa jest zdefiniowana jako równa 0, gdy wartość X
jest parzysta, natomiast = 1, gdy wartość jest nieparzysta.
Udowodnij, że w takim przypadku zachodzi następująca zależność
dla entropii warunkowej:

H(|) = H() − 1.

A następnie pokaż, że zachodzi również:

H(|) = 0.

TIiK: ćwiczenia

29/32

background image

Zadanie 6

Kolokwium z lat poprzednich. . .

Dana jest dyskretna zmienna losowa . Inna zmienna losowa
zdefiniowana jest przez funkcję:

(),

gdzie (·) jest dowolną funkcją. Jaka zależność ogólna zachodzi
między H() i H():

H() ≤ H(),

H() ≥ H()?

Przy jakich warunkach nałożonych na funkcję (·) zachodzi
równość?

TIiK: ćwiczenia

30/32

background image

Zadanie 7

Kolokwium z lat poprzednich. . .

Nasz kolega wykonuje w ukryciu trzy rzuty niesfałszowaną monetą,
po czym mówi nam, ile w sumie wypadło orłów. Jak wiele
informacji na temat wyniku pierwszego rzutu dostarcza nam w ten
sposób?

TIiK: ćwiczenia

31/32

background image

Pytania? Dziękuję za

uwagę! Za tydzień

źródła

wiadomości

,

kanały

transmisyjne

i

obliczanie

przepustowości

dokończenie materiału z

wykładu 1

TIiK: ćwiczenia

32/32


Document Outline