Matematyka dyskretna 2004 04 Rachunek prawdopodobieństwa

background image

Matematyka Dyskretna

Andrzej Szepietowski

25 marca 2004 roku

background image
background image

Rozdział 1

Rachunek prawdopodobie ´nstwa

1.1

Przestrze ´n zdarze ´n elementarnych

Podstawowym poj˛eciem rachunku prawdopodobie ´nstwa jest przestrze´n zdarze´n elemen-
tarnych
, któr ˛

a najcz˛e´sciej b˛edziemy oznacza´c przez

Ω. W tej ksi ˛

a˙zce ograniczymy si˛e

do przypadków, gdy

Ω jest zbiorem sko ´nczonym. Dzi˛eki temu nasze rozwa˙zania b˛ed ˛

a

prostsze.

Elementy przestrzeni

Ω nazywamy zdarzeniami elementarnymi.

Przykład 1.1 Przypu´s´cmy, ˙ze rzucamy monet ˛

a. Przestrze´n zdarze´n elementarnych mo˙ze

by´c wtedy okre´slona jako

Ω =

{O, R}, gdzie O oznacza wypadni˛ecie orła, a R reszki.

Przykład 1.2 W przypadku dwukrotnego rzutu monet ˛

a przestrze´n zdarze´n elementarnych

mo˙ze by´c okre´slona jako

Ω =

{OO, OR, RO, RR}, gdzie OO oznacza, ˙ze dwa razy

wypadł orzeł;

OR, ˙ze za pierwszym razem wypadł orzeł, a za drugiem reszka; RO, ˙ze za

pierwszym razem reszka, a za drugim orzeł; a

RR, ˙ze dwa razy wypadła reszka.

Przykład 1.3 Przypu´s´cmy, ˙ze mamy urn˛e z pi˛ecioma ponumerowanymi kulami, i ˙ze kule
o numerach

2 i 4 s ˛

a białe, a kule o numerach

1, 3 i 5 s ˛

a czarne. Przestrze´n zdarze´n

elementarnych mo˙ze by´c zdefiniowana jako

Ω =

{1, 2, 3, 4, 5}.

Przykład 1.4 Przypu´s´cmy, ˙ze mamy urn˛e jak w poprzednim punkcie i ˙ze losujemy dwie
kule z tej urny. Przestrzeni ˛

a zdarze´n elementarnych mo˙ze tu by´c zbiór dwuelementowych

podzbiorów zbioru kul

Ω =

{{1, 2}, {1, 3}, {1, 4}, {1, 5}, {2, 3}, {2, 4}, {2, 5}, {3, 4}, {3, 5}, {4, 5}}.

1.1.1

Zdarzenia

Dowolny podzbior

A przestrzeni zdarze ´n elementarnych Ω nazywamy zdarzeniem. Pa-

mi˛etajmy, ˙ze rozwa˙zamy tylko sko ´nczone przestrzenie zdarze ´n elementranych. W przy-
padku, gdy

Ω jest zbiorem niesko ´nczonym, konieczna jest inna definicja zdarzenia. Tak

3

background image

4

Rozdział 1. Rachunek prawdopodobie ´nstwa

wi˛ec zdarzenia s ˛

a elementami zbioru

2

wszystkich podzbiorów zbioru

Ω, jest ich 2

|Ω|

.

Cały zbiór

Ω nazywamy zdarzeniem pewnym, a zbiór pusty

zdarzeniem niemo˙zliwym.

Zdarzenia rozł ˛

aczne,

A

∩ B = ∅, nazywamy wykluczaj ˛

acymi si˛e. Zdarzenie

A

0

= Ω

− A

nazywamy zdarzeniem przeciwnym do zdarzenia

A.

Przykład 1.5 W przykładzie 1.2, z dwukrotnym rzutem monet ˛

a,

Ω =

{OO, OR, RO, RR},

mamy

16 = 2

4

zdarze´n. Zbiór

{OO, OR} jest zdarzeniem polegaj ˛acym na tym, ˙ze za

pierwszym razem wypadł orzeł. Zbiór

{OO, OR, RO}, ˙ze orzeł wypadł przynajmniej je-

den raz.

Przykład 1.6 W przykładzie 1.3, z kulami, zbiór

{2, 4} oznacza zdarzenie, ˙ze wylosowa-

no kul˛e biał ˛

a, a zbiór

{1, 2, 3}, ˙ze wylosowano kul˛e o numerze mniejszym od 4.

Przykład 1.7 W przykładzie 1.4, z losowaniem dwóch kul, zbiór

{{2, 4}} oznacza zda-

rzenie, ˙ze wylosowano dwie kule białe, a zbiór

{{1, 3}, {3, 5}, {3, 5}}, ˙ze wylosowano

dwie kule czarne.

1.1.2

Dalsze przykłady przestrzeni zdarze ´n elementarnych

Podamy teraz inne przykłady przestrzeni zdarze ´n elementarnych.

Przykład 1.8 Zbiór wszystkich czteroelementowych ci ˛

agów z warto´sciami

O lub R jako

przestrze´n dla czterokrotnego rzutu monet ˛

a. Zdarzenie, ˙ze za pierwszym i trzecim razem

wypadł orły to

{OOOO, OOOR, OROO, OROR}, a zdarzenie, ˙ze za pierwszym i trze-

cim razem wypadło to samo to
{OOOO, OOOR, OROO, OROR, RORO, RORR, RRRO, RRRR}.

Przykład 1.9 Zbiór wszystkich

n elementowych ci ˛

agów z warto´sciami

O lub R jako prze-

strze´n dla

n krotnego rzutu monet ˛

a. Podobnie jak w poprzednim przykładzie mo˙zemy roz-

patrywa´c zdarzenie, ˙ze za pierwszym i trzecim razem wypadł orzeł lub zdarzenie, ˙ze za
pierwszym i trzecim razem wypadło to samo.

Przykład 1.10 Niech

G = (V, E) b˛edzie wybranym ustalonym grafem z

|V | = n wierz-

chołkami i

|E| = m kraw˛edziami. Jako przestrze´n zdarze´n elementarnych we´zmy zbiór

wszystkich kolorowa´n dwoma kolorami wierzchołków grafu

G. Przestrze´n zdarze´n ele-

mentarnych jest zbiorem wszystkich funkcji ze zbioru wierzchołków

V w zbiór

{1, 2}, czy-

li

Ω =

{1, 2}

V

. Przykładem zdarzenia jest zbiór kolorowa´n, w których ko´nce wybranej z

góry kraw˛edzi

e =

{u, v} ∈ E maj ˛

a ró˙zne kolory

{f ∈ Ω | f(u) 6= f(v)}.

Przykład 1.11 Zbiór wszystkich funkcji ze zbioru

A w zbiór B, czyli Ω = B

A

. Przykła-

dem zdarzenia jest zbiór funkcji, które maj ˛

a tak ˛

a sam ˛

a warto´s´c dla dwóch z góry wybra-

nych punktów

a, b

∈ A, czyli {f ∈ Ω | f(a) = f(b)}.

Przykład 1.12 Mamy ustalony zbiór

V . Przestrze´n zdarze´n elementarnych to wszystkie

grafy ze zbiorem wierzchołków

V . Zdarzeniem jest zbiór grafów, w których dwa z góry

wybrane wierzchołki s ˛

a poł ˛

aczone kraw˛edzi ˛

a.

background image

1.2. Prawdopodobie ´nstwo

5

Przykład 1.13 Zbiór liter lub słów wyst˛epuj ˛

acych w jakim´s tek´scie, ksi ˛

a˙zce lub li´scie.

Przykład 1.14 Grupa studencka. Zdarzeniem jest zbiór studentów, którzy otrzymali oce-
n ˛

a bardzo dobr ˛

a z egzaminu.

Przykład 1.15 Wyborcy. Zdarzeniem s ˛

a wyborcy, którzy nie brali udziału w ostatnich

wyborach.

1.2

Prawdopodobie ´nstwo

Definicja 1.16 Prawdopodobie´nstwo, lub rozkład prawdopodobie´nstwa, jest funkcj ˛

a

P : 2

→ R

okre´slon ˛

a na zbiorze zdarze´n (w naszym przypadku na zbiorze wszystkich podzbiorów

).

Ka˙zdemu zdarzeniu

A

⊆ Ω przypisujemy liczb˛e rzeczywist ˛

a

P (A), jego prawdopodo-

bie´nstwo. Funkcja ta musi spełnia´c warunki:

Aksjomaty prawdopodobie ´nstwa

A1) Dla ka˙zdego

A

⊆ Ω, P (A) ≥ 0,

A2)

P (Ω) = 1,

A3) je˙zeli zdarzenia

A i B s ˛

a rozł ˛

aczne, to

P (A

∪ B) = P (A) + P (B).

Zbiór zdarze ´n elementarnych

Ω wraz z okre´slonym na nim prawdopodobie ´nstwem b˛e-

dziemy nazywa´c przestrzeni ˛

a probabilistyczn ˛

a. W przypadku, gdy przestrze ´n zdarze´n

elementarnych jest zbiorem sko ´nczonym, wystarczy okre´sli´c prawdopodobie ´nstwa dla
zdarze´n elementarnych. Musz ˛

a by´c tylko spełnione dwa warunki:

A4)

P (ω)

≥ 0, dla ka˙zdego ω ∈ Ω,

A5)

P

ω∈Ω

P (ω) = 1,

Prawdopodobie ´nstwo dowolnego zdarzenia

A jest wtedy równe

P (A) =

X

ω∈A

P (ω).

Łatwo mo˙zna sprawdzi´c, ˙ze tak zdefiniowane prawdopodobie ´nstwo spełnia aksjomaty
definicji 1.16.

Przykład 1.17 Dla dwukrotnego rzutu monet ˛

a (przykład 1.2) mo˙zemy okre´sli´c takie samo

prawdopodobie´nstwo dla wszystkich zdarze´n elementarnych

P (OO) = 0.25,

P (OR) = 0.25,

P (RO) = 0.25,

P (RR) = 0.25.

Ale oczywi´scie funkcja prawdopodobie´nstwa mo˙ze by´c dowoln ˛

a funkcj ˛

a spełniaj ˛

ac ˛

a wa-

runki A4 i A5. Na przykład

P (OO) = 0.27,

P (OR) = 0.24,

P (RO) = 0, 25,

P (RR) = 0, 24

lub

P (OO) = 0.5,

P (OR) = 0.3,

P (RO) = 0.2,

P (RR) = 0.

background image

6

Rozdział 1. Rachunek prawdopodobie ´nstwa

1.2.1

Klasyczna definicja prawdopodobie ´nstwa, rozkład jednostajny

W przypadku, gdy przestrze ´n zdarze´n elementarnych jest zbiorem sko ´nczonym najcz˛e-
´sciej przyjmuje si˛e, ˙ze funkcja prawdopodobie ´nstwa przypisuje, ka˙zdemu zdarzeniu ele-
mentarnemu tak ˛

a sam ˛

a warto´s´c. Mamy wtedy do czynienia z klasyczn ˛

a definicj ˛

a prawdo-

podobie´nstwa lub rozkładem jednostajnym.

Definicja 1.18 Rozkład prawdopodobie´nstwa, w którym ka˙zde zdarzenie elementarne

ω

ma takie samo prawdopodobie´nstwo P (ω) =

1

|Ω|

nazywamy rozkładem jednostajnym.

W dalszej cz˛e´sci ksi ˛

a˙zki b˛edziemy najcz˛e´sciej zakłada´c, ˙ze mamy jednostajny rozkład

prawdopodobie ´nstwa. W razie odst˛epstwa b˛edziemy to specjalnie zaznacza´c.

Przykład 1.19 (kontynuacja przykładów 1.3 oraz 1.6 z losowaniem jednej kuli) Prawdo-
podobie´nsto zdarzenia, ˙ze wylosowano kul˛e biał ˛

a wynosi

2
5

.

Przykład 1.20 (kontynuacja przykładów 1.4 oraz 1.7 z losowaniem pary kul). Prawdo-
podobie´nstwo ˙ze wylosowano par˛e kul białych wynosi

1

10

, a prawdopodobie´nstwo ˙ze wy-

losowano par˛e kul czarnych wynosi

3

10

.

Przykład 1.21 (kontynuacja przykładu 1.8 z czterokrotnym rzutem monet ˛

a). Je˙zeli zało-

˙zymy rozkład jednostajny, to prawdopodobie´nstwo ˙ze za pierwszym i trzecim razem wy-
padł orzeł wynosi

1
4

, a prawdopodobie´nstwo, ˙ze za pierwszym i trzecim razem wypadnie

to samo wynosi

1
2

.

Podobnie w przypadku, gdy

n krotnie rzucamy monet ˛

a

n > 3 (przykład 1.9). Prze-

strze´n zdarz˛e elementarnych zawiera

2

n

ci ˛

agów, z czego

2

n−2

sprzyja zdarzeniu, ˙ze za

pierwszym i trzecim razem wypadnie orzeł, a

2

n−1

sprzyja zdarzeniu, ˙ze za pierwszym i

trzecim razem jest to samo. Tak wi˛ec otrzymamy takie same prawdopodobie´nstwa jak w
przypadku czterokrotnego rzutu monet ˛

a.

Przykład 1.22 Powró´cmy do przypadku kolorowania dwoma kolorami wierzchołków gra-
fu

G = (V, E) z

|V | = n wierzchołkami (przykład 1.10). Prawdopodobie´nstwo, ˙ze ko´nce

wybranej z góry kraw˛edzi

e =

{u, v} ∈ E maj ˛

a ró˙zne kolory wynosi

1
2

. Rzeczywi´scie,

wszystkich kolorowa´n jest

2

n

. Kolorowa´n, w których

u i v maj ˛

a kolor biały, jest

2

n−2

(na

tyle sposobów mo˙zna pokolorowa´c pozostałe

n

− 2 wierzchołków). Tyle samo jest kolo-

rowa´n, w których

u i v maj ˛

a kolor czarny. Tak wi˛ec w połowie kolorowa´n

u i v maj ˛

a taki

sam kolor, a w połowie maj ˛

a ró˙zne kolory.

1.2.2

Własno´sci prawdopodobie ´nstwa

W nast˛epuj ˛

acym twierdzeniu zebrano kilka prostych wniosków wynikaj ˛

acych z aksjoma-

tów prawdopodobie ´nstwa.

Twierdzenie 1.23

a)

P (

∅) = 0.

b) Je˙zeli

A

⊆ B, to P (A) ≤ P (B) oraz P (B − A) = P (B) − P (A).

c)

P (A

∪ B) = P (A) + P (B) − P (A ∩ B).

background image

1.3. Prawdopodobie ´nstwo warunkowe

7

d)

P (A

∪ B) ≤ P (A) + P (B).

Dowód:

a)

Z aksjomatu A3 mamy

P (

∅) = P (∅ ∪ ∅) = P (∅) + P (∅), a 0 jest jedyn ˛a liczb ˛a

spełniaj ˛

ac ˛

a równo´s´c

x = x + x.

b)

Je˙zeli

A

⊆ B, to B = (B − A) ∪ A oraz (B − A) ∩ A = ∅, a wi˛ec z aksjomatu A3

P (B) = P (B

− A) + P (A) ≥ P (A).

c)

Mamy

A

∪ B = A ∪ (B − (A ∩ B)) oraz A ∩ (B − (A ∩ B)) = ∅, a wi˛ec z aksjomatu

A3

P (A

∪ B) = P (A) + P (B − (A ∩ B)), a poniewa˙z A ∩ B ⊆ B, z wniosku 1.23b

mamy

P (B

− (A ∩ B)) = P (B) − P (A ∩ B).

d)

wynika bezpo´srednio z

c)

.

2

Twierdzenie 1.24 Niech

A

1

, . . . , A

n

b˛edzie rodzin ˛

a parami rozł ˛

acznych zdarze´n (to zna-

czy

A

i

∩ A

j

=

dla ka˙zdej pary indeksów i < j). Wtedy

P

n

[

i=1

A

i

=

n

X

i=1

P (A

i

)

Dowód przez indukcj˛e: Dla

n = 1 twierdzenie zachodzi w sposób trywialny. Załó˙zmy,

˙ze twierdzenie jest prawdziwe dla dowolnej rodziny

n zbiorów. Rozpatrzmy

P

n+1

[

i=1

A

i

= P

n

[

i=1

A

i

∪ A

n+1

.

Poniewa˙z

S

n
i=1

A

i

∩ A

n+1

=

∅, z aksjomatu A3 i z zało˙zenia indukcyjnego wynika

P

n+1

[

i=1

A

i

= P

n

[

i=1

A

i

+ P (A

n+1

) =

n

X

i=1

P (A

i

) + P (A

n+1

) =

n+1

X

i=1

P (A

i

).

2

1.3

Prawdopodobie ´nstwo warunkowe

Definicja 1.25 Prawdopodobie´nstwo warunkowe zaj´scia zdarzenia

A pod warunkiem, ˙ze

zaszło zdarzenie

B oznaczane przez P (A

|B) okre´slamy jako

P (A

|B) =

P (A

∩ B)

P (B)

.

Ma to sens tylko wtedy gdy

P (B) > 0.

Mo˙zemy powiedzie´c, ˙ze jest to prawdopodobie ´nstwo zaj´scia zdarzenia

A w sytuacji, gdy

mamy pewno´s´c, ˙ze zaszło zdarzenie

B. Przy klasycznej definicji, gdy prawdopodobie ´n-

stwo oznacza cz˛esto´s´c wyst ˛

apienia, to prawdopodobie ´nstwo

P (A

|B) oznacza jaka cz˛e´s´c

elementów zbioru

B nale˙zy do zbioru A.

background image

8

Rozdział 1. Rachunek prawdopodobie ´nstwa

Przykład 1.26 Niech w urnie b˛edzie sze´s´c kul o numerach od 1 do 6, i niech kule o
numerach parzystych b˛ed ˛

a białe, a kule o numerach nieparzystych czarne. Przypu´s´c-

my, ˙ze losujemy jedn ˛

a kul˛e. Jako przestrze´n zdarze´n elementarnych wybieramy zbiór

Ω =

{1, 2, 3, 4, 5, 6} z jednostajnym rozkładem prawdopodobie´nstwa. Rozwa˙zmy zdarze-

nie

A =

{1, 2} polegaj ˛ace na wylosowaniu kuli o numerze mniejszym od 3 oraz zdarzenie

B =

{2, 4, 6} polegaj ˛ace na wylosowaniu kuli białej. Prawdopodobie´nstwo P (A|B) zaj-

´scia zdarzenia

A pod warunkiem, ˙ze zaszło zdarzenie A wynosi P (A

|B) =

P (A∩B)

P (B)

=

1
6

:

1
2

=

1
3

. Mówi ˛

ac inaczej, w´sród białych kul

1
3

ma numer mniejszy od 3.

Zauwa˙zmy, ˙ze

P (A

|B) = P (A), czyli

1
3

kul ma numer mniejszy od 3 zarówno w

całym zbiorze

jak i w´sród białych kul. Mo˙zemy wi˛ec powiedzie´c, ˙ze zaj´scie zdarzenia

A nie zale˙zy od tego, czy zaszło zdarzenie B, czy nie.

Zauwa˙zmy, ˙ze tak˙ze zdarzenie

B nie zale˙zy od zdarzenia A, poniewa˙z P (B

|A) =

P (B) =

1
2

.

To co zauwa˙zyli´smy w powy˙zszym przykładzie jest ogóln ˛

a prawidłowo´sci ˛

a. Mianowicie,

je˙zeli

A i B s ˛

a zdarzeniami o niezerowych prawdopodobie ´nstwach i

P (A) = P (A

|B)

(zdarzenie

A jest niezale˙zne od B), to P (B) = P (B

|A) (zdarzenie B jest niezale˙zne od

A). Rzeczywi´scie P (A

|B) = P (A) poci ˛aga P (A ∩ B) = P (A) · P (B), a to poci ˛aga

P (B) =

P (A

∩ B)

P (A)

= P (B

|A).

Czyli relacja niezale˙zno´sci zbiorów jest symetryczna. Zwykle jednak u˙zywa si˛e troch˛e

innej definicji niezale˙zno´sci.

1.4

Zdarzenia niezale˙zne

Definicja 1.27 Zdarzenia

A i B s ˛

a niezale˙zne, je˙zeli

P (A

∩ B) = P (A) · P (B).

Zauwa˙zmy, ˙ze je˙zeli

P (A) = 0 lub P (B) = 0, to poniewa˙z A

∩ B ⊂ A oraz A ∩ B ⊂ B,

na podstawie twierdzenia 1.23, mamy

P (A

∩B) = 0, czyli zdarzenia A i B s ˛aniezale˙zne.

Wniosek 1.28

P (A

∩ B) = P (A|B) · P (B).

Definicja 1.29 Zdarzenia

A

1

, . . . , A

n

, s ˛

a:

parami niezale˙zne, je˙zeli ka˙zde dwa zdarzenia s ˛

a niezale˙zne, to znaczy gdy

P (A

i

A

j

) = P (A

i

)

· P (A

j

) dla ka˙zdej pary i < j.

niezale˙zne, je˙zeli dla ka˙zdego podzbioru I ⊆ {1, . . . , n} mamy

P

\

i∈I

A

i

=

Y

i∈I

P (A

i

).

background image

1.5. Prawdopodobie ´nstwo całkowite

9

Przykład 1.30 (Kontynuacja przykładu 1.2, z dwukrotnym rzutem monet ˛

a). Niech

A

1

b˛e-

dzie zdarzeniem, ˙ze za pierwszym razem wypadł orzeł,

A

2

, ˙ze za drugim razem wypadł

orzeł, a

A

3

, ˙ze w obu rzutach wypadło to samo. Mamy

P (A

1

) = P (A

2

) = P (A

3

) =

1
2

P (A

1

∩ A

2

) = P (A

1

∩ A

3

) = P (A

2

∩ A

3

) = P (A

1

∩ A

2

∩ A

3

) =

1
4

.

Jak wida´c zdarzenia te s ˛

a parami niezale˙zne, poniewa˙z dla ka˙zdej pary indeksów

1

≤ i <

j

≤ 3 mamy P (A

i

∩ A

j

) = P (A

i

)

· P (A

j

) =

1
4

. Ale zdarzenia te nie s ˛

a niezale˙zne,

poniewa˙z

1
4

= P (A

1

∩ A

2

∩ A

3

)

6= P (A

1

)

· P (A

2

)

· P (A

3

) =

1
8

.

Przykład 1.31 W przypadku

n krotnego rzutu monet ˛

a, niech

A

i

oznacza, ˙ze za

i-tym

razem wypadł orzeł. Wtedy zdarzenia

A

1

, . . . , A

n

s ˛

a niezale˙zne. Łatwo sprawdzi´c, ˙ze

dla ka˙zdego i, P (A

i

) =

1
2

,

dla ka˙zdej pary i < j, P (A

i

∩ A

j

) =

1
4

dla ka˙zdej trójki i < j < k, P (A

i

∩ A

j

∩ A

k

) =

1
8

,

i ogólnie, dla ka˙zdego podzbioru zbioru indeksów I ⊆ {1, . . . , n} mamy

P

\

i∈I

A

i

=

1

2

|I|

1.5

Prawdopodobie ´nstwo całkowite

Twierdzenie 1.32 (wzór na prawdopodobie ´nstwo całkowite.) Niech

A

1

, . . . , A

n

⊆ Ω,

b˛ed ˛

a zdarzeniami takimi, ˙ze:

• P (A

i

) > 0, dla ka˙zdego 1

≤ i ≤ n,

• A

i

∩ A

j

=

, dla 1 ≤ i < j ≤ n (zdarzenia s ˛

a parami rozł ˛

aczne),

S

1≤i≤n

A

i

= Ω (zdarzenia daj ˛

a w sumie cał ˛

a przestrze´n).

Wtedy prawdopodobie´nstwo dowolnego zdarzenia

B

⊆ Ω wynosi

P (B) =

n

X

i=1

P (B

|A

i

)

· P (A

i

)

background image

10

Rozdział 1. Rachunek prawdopodobie ´nstwa

Dowód: Mamy

B = B

∩ Ω = B ∩

[

1≤i≤n

A

i

=

[

1≤i≤n

(B

∩ A

i

).

Ponadto

(B

∩ A

i

)

∩ (B ∩ A

j

) =

∅ dla i 6= j, wi˛ec na mocy twierdzenia 1.24 mamy

P (B) =

n

X

i=1

P (B

∩ A

i

).

Z wniosku 1.28 mamy

P (B

∩ A

i

) = P (B

|A

i

)

· P (A

i

); co daje tez˛e twierdzenia.

2

W przypadku dwóch zdarze ´n uzupełniaj ˛

acych si˛e

A i A

0

= Ω

− A wzór z twierdze-

nia 1.32 wygl ˛

ada nast˛epuj ˛

aco:

P (B) = P (B

|A) · P (A) + P (B|A

0

)

· P (A

0

).

(1.1)

Przykład 1.33 Wyobra´zmy sobie dwie urny z kulami. W pierwszej urnie mamy kule o nu-
merach 1,2, w drugiej kule o numerach 3,4,5. Zakładamy, ˙ze kule o numerach parzystych
s ˛

a białe, a kule o numerach nieparzystych s ˛

a czarne. Rzucamy monet ˛

a. Je˙zeli wypadnie

orzeł, to losujemy kul˛e z pierwszej urny, je˙zeli reszka, to losujemy z drugiej urny.

Jakie jest prawdopodobie´nstwo, ˙ze wylosujemy kul˛e biał ˛

a? Niech

B oznacza wyloso-

wanie kuli białej, a

A wypadni˛ecie orła na monecie, wtedy A

0

oznacza, ˙ze na monecie

wypadła reszka. Mamy

P (A) = P (A

0

) =

1
2

oraz

P (B

|A) =

1
2

— jest to prawdopodobie´nstwo wylosowania kuli białej pod warunkiem,

˙ze wypadł orzeł i losowali´smy z pierwszej urny.

P (B

|A

0

) =

1
3

— jest to prawdopodobie´nstwo wylosowania kuli białej pod warun-

kiem, ˙ze wypadła reszka i losowali´smy z drugiej urny.

Rysunek 1.1: Prawdopodobie ´nstwo całkowite

O

1
2

1

1
2

2

1
2

R

1
2

3

1
3

4

1
3

5

1
3

Korzystaj ˛

ac teraz ze wzoru (1.1) mamy

P (B) =

1
2

·

1
2

+

1
3

·

1
2

=

5

12

.

background image

1.5. Prawdopodobie ´nstwo całkowite

11

Rozwi ˛

azanie tego zadania mo˙zna przedstawi´c za pomoc ˛

a drzewa (rysunek 1.1). Na po-

cz ˛

atku jeste´smy w korzeniu drzewa. Dwaj synowie korzenia odpowiadaj ˛

a dwóm wynikom

rzutu monet ˛

a. Jak wypadnie orzeł, to idziemy w lewo do wierzchołka

O, jak wypadnie

reszka, to idziemy w prawo do wierzchołka

R. Etykiety przy kraw˛edziach oznaczaj ˛

a praw-

dopodobie´nsta z jakimi te kraw˛edzie s ˛

a wybierane. Synowie wierzchołka

O odpowiadaj ˛

a

wynikom losowania kul pod warunkiem, ˙ze na monecie wypadł orzeł i losujemy z pierw-
szej urny. Etykiety przy kraw˛edziach oznaczaj ˛

a prawdopodobie´nsta warunkowe z jakimi

te kraw˛edzie s ˛

a wybierane. Podobnie synowie wierzchołka

R odpowiadaj ˛

a wynikom lo-

sowania kul pod warunkiem, ˙ze na monecie wypadła reszka i losujemy z drugiej urny.

Ka˙zdy li´s´c w drzewie odpowiada jakiemu´s wynikowi ko´ncowemu (wylosowaniu kon-

kretnej kuli). Prawdopodobie´nsto, ˙ze b˛edzie taki wynik jest równe iloczynowi etykiet na
drodze prowadz ˛

acej od korzenia do tego li´scia. Prawdopodobie´nstwo wylosowania kuli

białej (z parzystym numerem) jest równe

1
2

·

1
2

+

1
2

·

1
3

=

5

12

.

Przykład 1.34 Wyobra´zmy sobie, ˙ze mamy jedn ˛

a urn˛e z trzema kulami o numerach

2, 3

i

4 oraz ˙ze kule o numerach 2 i 4 s ˛

a białe, a kula

3 jest czarna. Przypu´s´cmy, ˙ze pierwsza

osoba wylosowała jedn ˛

a kul˛e i schowała j ˛

a. Jakie jest prawdopodobie´nstwo, ˙ze druga

osoba wylosuje kul˛e biał ˛

a?

Rysunek 1.2:

B

2
3

BB

1
2

BC

1
2

C

1
3

CB

1

CC

0

Rozwi ˛

azanie tego zadania jest przedstawione na drzewie z rysunku 1.2. Synowie ko-

rzenia odpowiadaj ˛

a wynikowi losowania pierwszej osoby. Losuje ona kul˛e biał ˛

a, wierz-

chołek

B, z prawdopodobie´nstwem

2
3

, a kul˛e czarn ˛

a, wierzchołek

C, z prawdopodobie´n-

stwem

1
3

. Synowie wierzchołka

B odpowiadaj ˛

a losowaniom drugiego gracza pod warun-

kiem, ˙ze pierwszy gracz wylosował kułe biał ˛

a. W tej sytuacji drugi gracz wylosuje kul˛e

biał ˛

a, wierzchołek

BB, lub czarn ˛

a, wierzchołek

BC, obie z prawdopodobie´nstwem wa-

runkowym

1
2

. Etykieta

BB oznacza, ˙ze obaj gracze wylosowali kule białe, a etykieta BC

oznacza, ˙ze pierwszy gracz wylosował kul˛e biał ˛

a, a drugi kul˛e czarn ˛

a. Synowie wierz-

chołka

C odpowiadaj ˛

a losowaniom drugiego gracza pod warunkiem, ˙ze pierwszy gracz

wylosował kułe czarn ˛

a. Teraz drugi gracz wylosuje kul˛e biał ˛

a, wierzchołek

CB, z prawdo-

podobie´nstwem warunkowym

1, a kul˛e czarn ˛

a, wierzchołek

CC, z prawdopodobie´nstwem

background image

12

Rozdział 1. Rachunek prawdopodobie ´nstwa

0. Prawdopodobie´nstwo wylosowania kuli białej przez drug ˛

a osob˛e wynosi

2
3

·

1
2

+

1
3

· 1 =

2
3

.

Zauwa˙zmy, ˙ze prawdopodobie´nstwo, ˙ze po drugim losowaniu w urnie zostanie biała kula
jest równe

2
3

·

1
2

+

1
3

· 1 =

2
3

.

Jak wida´c prawdopodobie´nstwo wylosowania białej kuli jest takie samo dla pierwszego,
drugiego i trzeciego losuj ˛

acego.

1.6

Schemat dwumianowy (Bernouliego)

W schemacie dwumianowym (Bernouliego) mamy seri˛e

n do´swiadcze´n losowych (na

przykład rzutów monet ˛

a). W ka˙zdym do´swiadczeniu mo˙zliwe s ˛

a dwa wyniki: sukces (wy-

padni˛ecie orła) lub pora˙zka (wypadnie´cie reszki). Wyniki do´swiadcze´n s ˛

a niezale˙zne i w

ka˙zdym mamy takie samo prawdopodobie ´nstwo sukcesu równe

p.

1.6.1

Rzut symetryczn ˛

a monet ˛

a

Rozpatrzmy trzykrotny rzut symetryczn ˛

a monet ˛

a. Rysunek 1.3 ilustruje jak w tym przy-

Rysunek 1.3: Trzykrotny rzut symetryczn ˛

a monet ˛

a

O

1
2

OO

1
2

OOO

1
2

OOR

1
2

OR

1
2

ORO

1
2

ORR

1
2

R

1
2

RO

1
2

ROO

1
2

ROR

1
2

OR

1
2

RRO

1
2

RRR

1
2

padku rozkłada si˛e prawdopodobie ´nstwo. W korzeniu rzucamy pierwszy raz monet ˛

a, je-

˙zeli wypadnie orzeł, to idziemy do wierzchołka

O, je˙zeli reszka, to do R. W wierzchołku

background image

1.6. Schemat dwumianowy (Bernouliego)

13

O rzucamy drugi raz, id ˛

ac albo do

OO lub do OR. Etykieta OO oznacza, ˙ze w obu rzutach

wypadł orzeł, a etykieta

OR oznacza, ˙ze za pierwszym razem wypadł orzeł, a za drugim

reszka. Podobnie w wierzchołku

R. Poniewa˙z drugi rzut jest niezale˙zny od pierwszego,

etykiety na kraw˛edziach wychodz ˛

acych z

O s ˛

a takie same jak na kraw˛edziach wycho-

dz ˛

acych z

R. Kraw˛edzie wychodz ˛

ace z wierzchołków z dwoma etykietami odpowiadaj ˛

a

trzeciemu rzutowi. Tak˙ze tutaj etykiety kraw˛edzi wychodz ˛

acych z wierzchołków s ˛

a takie

same, poniewa˙z trzeci rzut jest niezale˙zny od dwóch pierwszych.

Li´scie odpowiadaj ˛

a wynikom trzech rzutów. Wyst˛epuj ˛

a tutaj wszystkie 8 ci ˛

agów dłu-

go´sci 3. Ka˙zdy z nich jest przyjmowane z prawdopodobie ´nstwem

1
8

. Otrzymali´smy wi˛ec

jednostajny rozkład prawdopodobie ´nstwa na zbiorze

Ω =

{OOO, OOR, ORO, ORR, ROO, ROR, RRO, RRR}.

Podobnie, przy

n krotnym rzucie monet ˛

a, je˙zeli rzuty s ˛

a niezale˙zne i w ka˙zdym rzucie

prawdopodobie ´nstwa wypadni˛ecia orła i reszki wynosz ˛

a

1
2

,

1
2

, otrzymamy jednostajny

rozkład na zbiorze wszystkich ci ˛

agów długo´sci

n z elementami O i R.

1.6.2

Kolorowanie wierzchołków grafu

Rysunek 1.4: Kolorowanie wierzchołków grafu

B

1
2

BB

1
2

BBB

1
2

BBC

1
2

BC

1
2

BCB

1
2

BCC

1
2

C

1
2

CB

1
2

CBB

1
2

CBC

1
2

BC

1
2

CCB

1
2

CCC

1
2

Przypu´s´cmy, ˙ze mamy graf z trzema wierzchołkami

a, b i c, i ˙ze jego wierzchoł-

ki kolorujemy po kolei niezale˙znie na biało lub czarno z pawdopodobie ´nstwami

1
2

,

1
2

.

Do´swiadczenie to mo˙zna zilustrowa´c za pomoc ˛

a drzewa z rysunku 1.4. W korzeniu wy-

bieramy kolor dla wierzchołka

a, je˙zeli biały, to idziemy do wierzchołka B, je˙zeli czarny,

to do

C. W wierzchołku B wybieramy kolor dla wierzchołka b, id ˛

ac albo do

BB lub do

background image

14

Rozdział 1. Rachunek prawdopodobie ´nstwa

BC. Etykieta BB oznacza, ˙ze oba wierzchołki a i b s ˛

a białe, a etykieta

BC oznacza, ˙ze

wierzchołek

a jest biały, a wierzchołek b czarny. Podobnie w wierzchołku C. Kraw˛edzie

wychodz ˛

ace z wierzchołków z dwoma kolorami odpowiadaj ˛

a kolorowaniom wierzchołka

c. Tak˙ze tutaj etykiety kraw˛edzi wychodz ˛

acych z wierzchołków s ˛

a takie same, ponie-

wa˙z wybór koloru dla

c jest niezale˙zny od wyboru kolorów dla a i b. Li´scie odpowiadaj ˛

a

ostatecznym kolorowaniom trzech wierzchołków. Wyst˛epuje tutaj wszystkie 8 kolorowa ´n.
Ka˙zdy z nich jest przyjmowane z prawdopodobie ´nstwem

1
8

. Otrzymali´smy wi˛ec jedno-

stajny rozkład prawdopodobie ´nstwa na zbiorze wszystkich kolorowa ´n.

Podobnie, koloruj ˛

ac po kolei niezale˙znie

n wierzchołków, na biało lub czarno z praw-

dopodobie ´nstwami

1
2

,

1
2

, otrzymamy jednostajny rozkład na zbiorze wszystkich mo˙zli-

wych kolorowa ´n.

1.6.3

Trzykrotny rzut niesymetryczn ˛

a monet ˛

a

Rozpatrzmy teraz trzykrotny rzut niesymetryczn ˛

a monet ˛

a, gdy prawdopobie ´nstwo wy-

padni˛ecia orła wynosi

p, a prawdopobie ´nstwo wypadni˛ecia reszki wynosi q = 1

− p.

Nadal zakładamay, ˙ze wyniki poszczególnych rzutów s ˛

a od siebie niezale˙zne.

Rysunek 1.5: Trzykrotny rzut niesymetryczn ˛

a monet ˛

a

O

p

OO

p

OOO

p

OOR

q

OR

q

ORO

p

ORR

q

R

q

RO

p

ROO

p

ROR

q

OR

q

RRO

p

RRR

q

Rysunek 1.5 ilustruje jak rozkłada si˛e prawdopodobie ´nstwo w takim przypadku. Ety-

kiety wierzchołków maj ˛

a takie same znaczenie jak w przypadku rzutu symetryczn ˛

a mo-

net ˛

a, Zmieniły si˛e tylko etykiety kraw˛edzi. Kraw˛edzie odpowiadaj ˛

ace wypadni˛eciu orła

maj ˛

a etykiet˛e

p, a odpowiadaj ˛

ace reszce etykiet˛e

q.

Otrzymali´smy teraz inny rozkład prawdopodobie ´nstwa na zbiorze

Ω.

background image

1.6. Schemat dwumianowy (Bernouliego)

15

ω

OOO

OOR

ORO

ORR

ROO

ROR

RRO

RRR

P (ω)

p

3

p

2

q

p

2

q

pq

2

p

2

q

pq

2

pq

2

q

3

Zauwa˙zmy, ˙ze prawdopodobie ´nsto, ˙ze za pierwszym (drugim lub trzecim) razem wy-

padnie orzeł wynosi

p

3

+ p

2

q + p

2

q + pq

2

= p(p

2

+ 2pq + q

2

) = p(p + q)

2

= p,

a prawdopodobie ´nsto, ˙ze za pierwszym (drugim lub trzecim) razem wypadnie reszka wy-
nosi

p

2

q + pq

2

+ pq

2

+ q

3

= q(p

2

+ 2pq + q

2

) = q(p + q)

2

= q.

1.6.4

Ogólny schemat — n krotny rzut niesymetryczn ˛

a monet ˛

a

Ogólnie w schemacie dwumianowym mamy seri˛e

n niezale˙znych do´swiadcze´n. W ka˙z-

dym do´swiadczeniu prawdopodobie ´nstwo sukcesu wynosi

p, a prawdopodobie ´nstwo po-

ra˙zki

q = 1

− p. Bez straty ogólno´sci mo˙zemy nasze rozwa˙zania ograniczy´c do n krot-

nego rzutu niesymetryczn ˛

a monet ˛

a. Zakładamy, ˙ze rzuty s ˛

a niezale˙zne i w ka˙zdym rzucie

prawdopodobie ´nstwa wypadni˛ecia orła wynosi

p, a reszki q. Otrzymamy wtedy rozkład

na zbiorze wszystkich ci ˛

agów długo´sci

n z elementami O i R, w którym prawdopodo-

bie´nstwo ci ˛

agu

ω

∈ Ω jest równe

p

k

q

n−k

,

gdzie

k oznacza liczb˛e symboli O w ci ˛

agu

ω.

Zauwa˙zmy, ˙ze ci ˛

agów z

k orłami jest

n
k

, wi˛ec je˙zeli pogrupujemy te prawdopodo-

bie´nstwa według liczby orłów i zsumujemy, to otrzymamy

n

X

k=0

n

k

p

k

q

n−k

= (p + q)

n

= 1

n

= 1.

Je˙zeli rozwa˙zymy tylko ci ˛

agi z

O na pierwszej (lub na dowolnej i tej) pozycji, to znowu

mo˙zemy je pogrupowa´c według liczby symboli

O. Dla ka˙zdego k od 0 do n

− 1, ci ˛agów

z

k + 1 symbolami O jest

n−1

k

(trzeba wybra´c k pozycji spo´sród n − 1, na których b˛ed ˛a

orły). Je˙zeli pogrupujemy te prawdopodobie ´nstwa według liczby orłów i zsumujemy, to
otrzymamy prawdopodobie ´nstwo wypadni˛ecia orła za pierwszym (lub dowolnym

i tym

razem) równe

n−1

X

k=0

n − 1

k

p

k+1

q

n−1−k

= p

·

n−1

X

k=0

n − 1

k

p

k

q

n−1−k

= p(p + q)

n−1

= p.

Podobnie, je˙zeli rozwa˙zymy ci ˛

agi z

R na pierwszej (lub na dowolnej i tej) pozycji, to

znowu mo˙zemy je pogrupowa´c według liczby symboli

O. Dla ka˙zdego k od 0 do n

− 1

ci ˛

agów z

k symbolami O jest

n−1

k

, wi˛ec je˙zeli pogrupujemy te prawdopodobie ´nstwa

według liczby orłów to, zgodnie ze wzorem na dwumian Newtona, otrzymamy

n−1

X

k=0

n − 1

k

p

k

q

n−k

= q

·

n−1

X

k=0

n − 1

k

p

k

q

n−1−k

= q(p + q)

n−1

= q.

background image

16

Rozdział 1. Rachunek prawdopodobie ´nstwa

1.7

Zmienna losowa

Definicja 1.35 Zmienna losowa

X jest to dowolna funkcja z przestrzeni zdarze´n elemen-

tarnych

w zbiór liczb rzeczywistych R.

Trzeba tutaj przypomnie´c, ˙ze w tej ksi ˛

a˙zce rozwa˙zamy tylko sko ´nczone przestrzenie zda-

rze´n elementarnych. W przypadku, gdy

Ω jest zbiorem niesko ´nczonym definicja zmiennej

losowej jest inna.

Przykład 1.36 Rozwa˙zmy trzykrotny rzut symetryczn ˛

a monet ˛

a,

Ω =

{OOO, OOR, ORO, ORR, ROO, ROR, RRO, RRR}.

Zmienna losowa

X oznacza ile razy wypadł orzeł. Jej warto´sci podane s ˛

a w nast˛epuj ˛

acej

tabeli:

ω

OOO

OOR

ORO

ORR

ROO

ROR

RRO

RRR

X(ω)

3

2

2

1

2

1

1

0

Maj ˛

ac zmienn ˛

a losow ˛

a

X i dowoln ˛

a liczb˛e rzeczywist ˛

a

x definiujemy zdarzenie (X = x)

jako

(X = x) =

{ω ∈ Ω | X(ω) = x}.

Zauwa˙zmy, ˙ze je˙zeli liczba

x nie nale˙zy do zbioru warto´sci X(Ω) zmiennej X, to zdarze-

nie

(X = x) jest zdarzeniem niemo˙zliwym.

Przykład 1.37 Dla zmiennej losowej

X z przykładu 1.36 mamy:

(X = 0) =

{RRR},

(X = 1) =

{0RR, ROR, RRO},

(X = 2) =

{OOR, ORO, OOR},

(X = 3) =

{OOO},

Je˙zeli

x

6= 0, 1, 2, 3, to (X = x) = ∅.

1.7.1

G˛esto´s´c rozkładu prawdopodobie ´nstwa zmiennej losowej

Definicja 1.38 Funkcj˛e

f (x) = P (X = x)

nazywamy funkcj ˛

a g˛esto´sci (rozkładu) prawdopodobie´nstwa zmiennej losowej

X.

Przykład 1.39 (Kontynuacja przykładu 1.36) Je˙zeli zało˙zymy, ˙ze ka˙zde zdarzenie elemen-
tarne jest równo prawdopodobne, to zmienna losowa

X posiada rozkład

x

0

1

2

3

f (x)

1/8

3/8

3/8

1/8

background image

1.7. Zmienna losowa

17

Poniewa˙z, jak zało˙zyli´smy

Ω jest zbiorem sko´nczonym, to zbiór warto´sci X(Ω) zmiennej

X te˙z jest sko´nczony. Dla x /

∈ X(Ω) mamy f(x) = P (X = x) = P (∅) = 0. Tak wi˛ec

funkcja g˛esto´sci przyjmuje warto´sci niezerowe tylko dla sko ´nczenie wielu argumentów.
Zauwa˙zmy, ˙ze je˙zeli

x

1

6= x

2

, to zdarzenia

(X = x

1

) i (X = x

2

) wykluczaj ˛

a si˛e.

Lemat 1.40 Je˙zeli

f jest funkcj ˛

a g˛esto´sci zmiennej losowej

X, to

• f(x) ≥ 0 dla ka˙zdego x ∈ R.

P

x

f (x) = 1.

Sum˛e

P

x

f (x) rozumiemy jako sko´nczon ˛

a sum˛e po zbiorze warto´sci zmiennej

X, czyli

P

x

f (x) =

P

x∈X(Ω)

f (x)

Dowód.

X

x∈X(Ω)

f (x) =

X

x∈X(Ω)

P (X = x) =

X

x∈X(Ω)

X

X(ω)=x

P (ω).

Zauwa˙zmy, ˙ze ostatnia podwójna suma jest sum ˛

a po wszystkich elementach

ω

∈ Ω po-

grupowanych według warto´sci zmiennej

X. Mamy wi˛ec

X

x

f (x) =

X

ω∈Ω

P (ω) = 1.

2

W dalszej cz˛e´sci przedstawiaj ˛

ac funkcj˛e g˛esto´sci zmiennej losowej

X b˛edziemy roz-

wa˙za´c tylko te

x, dla których f (x) > 0.

Maj ˛

ac funkcj˛e g˛esto´sci rozkładu zmiennej

X mo˙zemy okre´sla´c prawdopodobie´nstwa

zdarze´n opisywanych za pomoc ˛

a zmiennej

X.

Przykład 1.41 Dla zmiennej losowej

X z przykładu 1.38. mamy

P (X < 2) = P (X = 0 lub X = 1) = P (X = 0) + P (X = 1) =

1
8

+

3
8

=

1
2

,

pami˛etajmy, ˙ze zdarzenia

X = 0 oraz X = 1 s ˛

a rozł ˛

aczne.

1.7.2

Dalsze przykłady zmiennych losowych

Przykład 1.42 Przypu´s´cmy, ˙ze mamy urn˛e z czteroma ponumerowanymi kulami

{1, 2, 3, 4},

i ˙ze kule o numerach parzystych s ˛

a białe, a kule o numerach nieparzystych czarne. Losu-

jemy dwie kule bez zwracania. Jako przestrze´n zdarze´n elementarnych wybieramy zbiór
dwuelementowych podzbiorów zbioru kul

Ω =

{{1, 2}, {1, 3}, {1, 4}, {2, 3}, {2, 4}, {3, 4}}

z jednostajnym rozkładem prawdopodobie´nstwa.

Niech zmienna losowa

X oznacza liczb˛e białych kul w wylosowanej parze. Jej warto-

´sci podane s ˛

a w nast˛epuj ˛

acej tabeli:

background image

18

Rozdział 1. Rachunek prawdopodobie ´nstwa

ω

{1, 2}

{1, 3}

{1, 4}

{2, 3}

{2, 4}

{3, 4}

X(ω)

1

0

1

1

2

1

G˛esto´s´c rozkładu prawdopodobie´nstwa zawiera tabela

x

0

1

2

f (x)

1
6

4
6

1
6

Przykład 1.43 Rozwa˙zmy zmienn ˛

a losow ˛

a

X oznaczaj ˛

ac ˛

a liczb˛e ró˙znobarwnych kraw˛e-

dzi w kolorowaniu wierzchołków dowolnego grafu

G = (V, E) (przykład 1.10). Przestrze-

ni ˛

a zdarze´n losowych to zbiór

Ω =

{1, 2}

V

wszystkich funkcji ze zbioru wierzchołków

V

w zbiór

{1, 2} dwóch kolorów. Dla ka˙zdego kolorowania ω ∈ Ω warto´s´c X(ω) oznacza

ile kraw˛edzi ma ko´nce w ró˙znych kolorach w kolorowaniu

ω.

W szczególnym przypadku, gdy graf

G = (V, E) jest trójk ˛

atem z wierzchołkami

V =

{a, b, c} i kraw˛edziami E = {{a, b}, {a, c}, {b, c}}. Mamy 8 jednakowo praw-

dopodobnych kolorowa´n (porównaj podrozdział 1.6.2).

Ω =

{BBB, BBC, BCB, BCC, CBB, CBC, CCB, CCC}.

Przypominamy, ˙ze na przykład,

CBB oznacza, ˙ze wierzchołek a jest pokolorowany na

czarno, a wierzchołki

b i c na biało. Łatwo zauwa˙zy´c, ˙ze zmienna X przyjmuje warto´s´c 0

dla dwóch kolorowa´n

BBB oraz CCC. Dla wszystkich innych kolorowa´n X przyjmuje

warto´s´c

2. Wi˛ec jej rozkład ma posta´c

x

0

2

f (x)

2
8

6
8

1.7.3

Rozkład jednopunktowy

Z rozkładem jednopunktowym mamy do czynienia, wtedy gdy całe prawdopodobie ´nstwo
jest skupione w jednym punkcie. Mówi ˛

ac inaczej zmienna losowa

X ma rozkład jedno-

punktowy, je˙zeli dla jekiego´s

m

P (X = m) = 1.

1.7.4

Rozkład zero-jedynkowy

Zmienna losowa

X ma rozkład zero-jedynkowy, je˙zeli prawdopodobie ´nstwo jest skupio-

ne tylko w dwóch punktach 0 i 1. G˛esto´s´c rozkładu prawdopodobie ´nstwa ma wtedy posta´c

x

0

1

f (x)

q

p

dla pewnych dodatnich

p, q spełniaj ˛

acych warunek

p + q = 1.

background image

1.8. Ł ˛

aczny rozkład prawdopodobie ´nstwa

19

1.8

Ł ˛

aczny rozkład prawdopodobie ´nstwa

Mo˙ze si˛e zda˙zy´c, ˙ze na tej samej przestrzeni zdarze ´n elementarnych mamy okre´slone
dwie lub wi˛ecej zmiennych losowych.

Przykład 1.44 Rozwa˙zmy losowanie jednej kuli z urny zawieraj ˛

acej siedem ponumero-

wanych kul.

Ω =

{1, 2, 3, 4, 5, 6, 7}. Niech zmienna losowa X

2

bedzie zdefiniowana jako

X

2

(ω) = ω mod 2,

a zmienna losowa

X

3

jako

X

3

(ω) = ω mod 3.

(

X

2

(ω) jest reszt ˛

a z dzielenia numeru kuli przez 2, a

X

3

(ω) reszt ˛

a z dzielenia przez 3).

Warto´sci tych dwóch zmiennych zebrane s ˛

a w tabeli.

ω

1

2

3

4

5

6

7

X

2

(ω)

1

0

1

0

1

0

1

X

3

(ω)

1

2

0

1

2

0

1

1.8.1

G˛esto´s´c ł ˛

acznego rozkładu

W przypadku dwóch zmiennych losowych

X i Y okre´slonych na tej samej przestrzeni

zdarze´n elementarnych

Ω mamy tak zwany ł ˛

aczny rozkład prawdopodobie ´nstwa, którego

g˛esto´s´c jest okre´slona jako

f (x, y) = P (X = x i Y = y).

(X = x i Y = y) jest innym zapisem zdarzenia (X = x)

∩ (Y = y).

Przykład 1.45 Dla zmiennych

X

2

i

X

3

z przykładu 1.44 g˛esto´s´c ł ˛

acznego rozkładu praw-

dopodobie´nstwa przedstawiona jest w tabeli:

X

3

0

1

2

X

2

0

1/7

1/7

1/7

1

1/7

2/7

1/7

Mo˙zemy teraz oblicza´c prawdopodobie´nstwa zdarze´n opisywanych przez te zmienne. Na
przykład

P (X

2

= X

3

) = P (X

2

= 0 i X

3

= 0 lub X

2

= 1 i X

3

= 1) =

P (X

2

= 0 i X

3

= 0) + P (X

2

= 1 i X

3

= 1) = 1/7 + 2/7 = 3/7

lub

P (X

2

< X

3

) = P (X

2

= 0 i X

3

= 1 lub X

2

= 0 i X

3

= 2 lub X

2

= 1 i X

3

= 2) =

= 1/7 + 1/7 + 1/7 = 3/7

Łatwo mo˙zna zauwa˙zy´c, ˙ze sumuj ˛

ac wiersze tabeli ł ˛

acznego rozkładu mo˙zna otrzyma´c

g˛esto´s´c rozkładu zmiennej

X

2

, a sumuj ˛

ac kolumny g˛esto´s´c rozkładu

X

3

.

background image

20

Rozdział 1. Rachunek prawdopodobie ´nstwa

X

3

0

1

2

X

2

0

1/7

1/7

1/7

3/7

1

1/7

2/7

1/7

4/7

2/7

3/7

2/7

Przykład 1.46 Rozwa˙zmy dwie zmienne losowe

X

1

i

X

2

okre´slone na przestrzeni

Ω =

{OO, OR, RO, RR}

opisuj ˛

acej wyniki dwukrotnego rzutu monet ˛

a.

Zmienna

X

1

przyjmuje warto´s´c

1, je˙zeli za pierwszym razem wypadnie orzeł, oraz

warto´s´c

0, je˙zeli za pierwszym razem wypadnie reszka. Podobnie zmienna X

2

opisuje

wynik drugiego rzutu. Warto´sci tych dwóch zmiennych zebrane s ˛

a w tabeli.

ω

OO

OR

RO

RR

X

1

(ω)

1

1

0

0

X

2

(ω)

1

0

1

0

Ł ˛

aczny rozkład prawdopodobie´nstwa przedstawiony jest w tabeli:

X

2

0

1

X

1

0

1/4

1/4

1

1/4

1/4

1.9

Niezale˙zno´s´c zmiennych losowych

Definicja 1.47 Zmienny losowe

X i Y s ˛

a niezale˙zne je˙zeli dla ka˙zdej pary liczb

x, y

mamy

P (X = x i Y = y) = P (X = x)

· P (Y = y)

lub inaczej, gdy

f

XY

(x, y) = f

X

(x)

· f

Y

(y),

gdzie

f

XY

oznacza g˛esto´s´c rozkładu ł ˛

acznego,

f

X

g˛esto´s´c zmiennej

X, a f

Y

g˛esto´s´c

zmiennej

Y .

Przykład 1.48 Zmienne losowe

X

1

i

X

2

z przykładu 1.46 s ˛

a niezale˙zne, a zmienne loso-

we

X

2

i

X

3

z przykładu 1.45 nie s ˛

a niezale˙zne.

Oczywi´scie mo˙ze by´c wi˛ecej zmiennych losowych okre´slonych na jednej przestrzeni

Dla trzech zmiennych losowych

X, Y , Z g˛esto´s´c ł ˛

acznego rozkładu prawdopodobie ´n-

stwa, zdefiniowana jest jako

f (x, y, z) = P (X = x i Y = y i Z = z).

W ogólnym przypadku

n zmiennych losowych X

1

, . . . , X

n

g˛esto´sc ich ł ˛

acznego rozkładu

okre´slona jest jako

f (x

1

. . . , x

n

) = P (X

1

= x

1

, . . . , X

n

= x

n

).

background image

1.9. Niezale˙zno´s´c zmiennych losowych

21

Definicja 1.49 Zmienne losowe

X, Y , Z s ˛

a niezale˙zne je˙zeli dla ka˙zdej trójki liczb

x, y i

z mamy

f (x, y, z) = P (X = x)

· P (Y = y) · P (Z = z).

Podobnie mamy w przypadku

n zmiennych losowych

Definicja 1.50 Zmienne losowe

X

1

, . . . , X

n

s ˛

a niezale˙zne je˙zeli dla ka˙zdej

n-tki liczb

x

1

, . . . , x

n

zachodzi

P

n

\

i=1

(X

i

= x

i

)

=

n

Y

i=1

P (X

i

= x

i

),

czyli

f (x

1

, . . . , x

n

) =

n

Y

i=1

f

i

(x

i

),

gdzie

f oznacza g˛esto´s´c rozkładu ł ˛

acznego, a

f

i

g˛esto´s´c rozkładu zmiennej

X

i

.

Przykład 1.51 Rozwa˙zmy

n krotny rzut symetryczn ˛

a monet ˛

a. Przestrze´n zdarze´n elemen-

tarnych zawiera ci ˛

agi długo´sci

n o elementach ze zbioru

{O, R} i ka˙zdy ci ˛

ag jest równie

prawdopodobny. Dla ka˙zdego

i od 1 do n okre´slmy zmienn ˛

a losow ˛

a

X

i

:

X

i

(ω) =

1, je˙zeli za i-tym razem wypadł orzeł
0, je˙zeli za i-tym razem wypadła reszka

Zmienne

X

1

, . . . , X

n

s ˛

a niezale˙zne. Prze´sled´zmy to dla

n = 3 (patrz podrozdział 1.6.1).

Dla ka˙zdej trójki liczb

x

1

,

x

2

,

x

3

zdarzenie

(X

1

= x

1

i

X

2

= x

2

i

X

3

= x

3

)

zawiera tylko jeden ci ˛

ag. Na przykład zdarzenie

(X

1

= 1 i X

2

= 0 i X

3

= 0) =

{ORR}.

Czyli dla ka˙zdej trójki

x

1

,

x

2

,

x

3

prawdopodobie´nstwo

P (X

1

= x

1

i

X

2

= x

2

i

X

3

= x

3

) =

1
8

.

Z drugiej strony, dla ka˙zdego

i

∈ {1, 2, 3} mamy P (X

i

= x

i

) =

1
2

, czyli

P (X

1

= x

1

i

X

2

= x

2

i

X

3

= x

3

) = P (X

1

= x

1

)

· P (X

2

= x

2

)

· P (X

3

= x

3

).

Zmienne

X

1

, . . . , X

n

s ˛

a niezale˙zne tak˙ze w przypadku rzutu niesymetryczn ˛

a monet ˛

a.

Znowu poka˙zemy to dla

n = 3. W ogólnym przypadku dowód jest podobny. Tak jak dla

rzutu symetryczn ˛

a monet ˛

a dla ka˙zdej trójki liczb

x

1

,

x

2

,

x

3

zdarzenie

(X

1

= x

1

i

X

2

= x

2

i

X

3

= x

3

)

zawiera tylko jeden ci ˛

ag. Jego prawdopodobie´nstwo

P (X

1

= x

1

i

X

2

= x

2

i

X

3

= x

3

) = p

k

q

3−k

,

background image

22

Rozdział 1. Rachunek prawdopodobie ´nstwa

gdzie

k oznacza liczb˛e jedynek w ci ˛

agu

(x

1

, x

2

, x

3

).

Z drugiej strony zdarzenie

(X

i

= 1) zawiera wszystkie ci ˛

agi, które na

i-tej pozycji

maj ˛

a

O. W podrozdziale 1.6.3 pokazano, ˙ze prawdopodobie´nstwo takiego zdarzenia wy-

nosi

p. Podobnie (X

i

= 0) zawiera wszystkie ci ˛

agi, które na

i-tej pozycji maj ˛

a

R, a jego

prawdopodobie´nstwo wynosi

q. Tak wi˛ec

P (X

1

= x

1

i

X

2

= x

2

i

X

3

= x

3

) = P (X

1

= x

1

)

· P (X

2

= x

2

)

· P (X

3

= x

3

).

1.9.1

Własno´s´c niezale˙znych zmiennych losowych

Poka˙zemy teraz, ˙ze je˙zeli zmienne losowe

X i Y s ˛

a niezale˙zne, to niezale˙zne s ˛

a te˙z zmien-

ne

X

− a i Y − b. Dokładniej

Lemat 1.52 Niech

X i Y b˛ed ˛

a niezale˙znymi zmiennymi losowymi, a

a i b dowolnymi

liczbami rzeczywistymi. Wtedy zmienne

X

− a i Y − b s ˛

a niezale˙zne.

Dowód: Niech

X

1

= X

− a oraz Y

1

= Y

− b. Zaywa˙zmy, ˙ze X

1

(ω) = x

1

wtedy i

tylko wtedy, gdy

X(ω) = a + x

1

, czyli zdarzenie

X

1

= x

1

pokrywa si˛e ze zdarzeniem

X = a + x

1

. Podobnie zdarzenie

Y

1

= y

1

pokrywa si˛e ze zdarzeniem

Y = a + y

1

.

Mamy wi˛ec

P (X

1

= x

1

i

Y

1

= y

1

) = P (X = a + x

1

i

Y = b + y

1

) =

P (X = a + x

1

)

· P (Y = b + y

1

) = P (X

1

= x

1

)

· P (Y

1

= y

1

).

´Srodkowa równo´s´c wynika z niezale˙zno´sci zmiennych X i Y .

2

1.10

Rozkład dwumianowy — Bernoulliego

Przypomnijmy sobie schemat dwumianowy z seri ˛

a

n do´swiadcze´n (rzutów monet ˛

a) i z

prawdopodobie ´nstwem sukcesu (wypadni˛ecia orła) w pojedy ´nczym do´swiadczeniu rów-
nym

p (podrozdział 1.6.4) Przestrze ´n zdarze´n elementarnych jest zbiorem wszystkich ci ˛

a-

gów długo´sci

n z elementami O i R, w którym prawdopodobie ´nstwo ci ˛

agu

ω

∈ Ω jest

równe

p

k

q

n−k

,

gdzie

k oznacza liczb˛e symboli O w ci ˛

agu

ω.

Niech zmienna losowa

X oznacza liczb˛e sukcesów (orłow) w serii. Mówimy, ˙ze

zmienna losowa

X posiada rozkład dwumianowy (Bernouliego) z parametrami: długo-

´sci ˛

a serii

n i prawdopodobie´nstwem sukcesu p. Zmienna losowa X przyjmuje warto´sci k

od

0 do n. Prawdopodobie´nstwo, ˙ze zmienna X posiada warto´s´c k wynosi

P (x = k) =

n

k

p

k

q

n−k

.

Przykładem zminnej losowej z rozkładem dwumianowym jest zmienna opisana w

przykładzie 1.36, która okre´sla liczb˛e orłów w serii 3 rzutów.

Dla

n = 4 rozkład zmiennej X wygl ˛

ada nast˛epuj ˛

aco:

background image

1.11. Warto´s´c oczekiwana, ´srednia

23

x

0

1

2

3

4

f (x)

q

4

4pq

3

6p

2

q

2

4p

3

q

p

4

Zauwa˙zmy, ˙ze zmienna losowa

X jest sum ˛

a zmiennych

X(ω) =

n

X

i=1

X

i

(ω),

gdzie, dla ka˙zdego

i zmienna X

i

oznacza wynik

i tego rzutu i jest równa

X

i

(ω) =

1, je˙zeli za i-tym razem wypadł orzeł
0, je˙zeli za i-tym razem wypadła reszka

Rzeczywi´scie, dla ka˙zdego ci ˛

agu

ω suma

P

n
i=1

X

i

(ω) jest równa liczbie indeksów i

{1, . . . , n}, dla których X

i

(ω) = 1, czyli liczbie pozycji, na których w ci ˛

agu

ω stoi orzeł.

1.11

Warto´s´c oczekiwana, ´srednia

Definicja 1.53 Warto´s´c oczekiwana (´srednia) zniennej losowej

X to liczba

E(X) =

X

ω∈Ω

X(ω)

· P (ω).

Przykład 1.54 Dla zmiennej losowej

X z przykładu 1.36 warto´s´c oczekiwana wynosi

E(X) =

1
8

(3 + 2 + 2 + 1 + 2 + 1 + 1 + 0) =

12

8

= 1.5

Je˙zeli zmienna posiada jednostajny rozkład prawdopodobie ´nstwa, to jej warto´s´c oczeki-
wana jest zwykł ˛

a ´sredni ˛

a arytmetyczn ˛

a jej warto´sci.

E(X) =

X

ω∈Ω

X(ω)

·

1

|Ω|

=

1

|Ω|

·

X

ω∈Ω

X(ω).

W ogólnym przypadku warto´s´c oczekiwana jest nazywana ´sredni ˛

a wa˙zon ˛

a. Je˙zeli mamy

rozkład zmiennej losowej, to warto´s´c oczekiwan ˛

a obliczamy według wzoru.

Lemat 1.55

E(X) =

P

x∈X(Ω)

x

· P (X = x).

Dowód: Je˙zeli pogrupujemy wyrazy sumy

P

ω∈Ω

X(ω)

·P (ω) według warto´sci zmiennej

X, to otrzymamy

E(X) =

X

ω∈Ω

X(ω)

· P (ω) =

X

x∈X(Ω)

x

X

X(ω)=x

P (ω) =

X

x∈X(Ω)

x

· P (X = x).

Przykład 1.56 Przypu´s´cmy, ˙ze mamy informacj˛e, ˙ze w jakiej´s grupie studenckiej połowa
studentów otrzymała ocen˛e 5 z matematyki dyskretnej, jedna trzecia otrzymała ocen˛e 4,
a jedna szósta ocen˛e 3. Jaka jest ´srednia ocena w tej grupie? Przyjmujemy, ˙ze grupa jest
przestrzeni ˛

a losow ˛

a, a zmienna losowa

X jest ocen ˛

a studenta. Wtedy warto´s´c oczekiwana

zmiennej

X wynosi E(X) = 5

·

1
2

+ 4

·

1
3

+ 3

·

1
6

=

26

6

= 4

1
3

i jest ´sredni ˛

a ocen ˛

a w tej

grupie.

background image

24

Rozdział 1. Rachunek prawdopodobie ´nstwa

1.11.1

Własno´sci warto´sci oczekiwanej

W poni˙zszym twierdzeniu zebrano podstawowe własno´sci warto´sci oczekiwanej.

Twierdzenie 1.57

a)

E(X + Y ) = E(X) + E(Y ).

b) Je˙zeli

a jest liczb ˛

a rzeczywist ˛

a, to

E(a

· X) = a · E(X).

c) Je˙zeli zmienne

X i Y s ˛

a niezale˙zne, to

E(X

· Y ) = E(X) · E(Y ).

d) Je˙zeli

X

≥ 0, to E(X) ≥ 0.

Dowód:

a)

E(X + Y ) =

X

ω∈Ω

(X + Y )(ω)

· P (ω) =

X

ω∈Ω

(X(ω) + Y (ω))

· P (ω) =

X

ω∈Ω

X(ω)

· P (ω) +

X

ω∈Ω

Y (ω)

· P (ω) = E(X) + E(Y ).

b)

E(a

·X) =

X

ω∈Ω

(a

·X)(ω)·P (ω) =

X

ω∈Ω

a

·X(ω)·P (ω) = a·

X

ω∈Ω

X(ω)

·P (ω) = a·E(X).

c)

E(X

· Y ) =

X

ω∈Ω

XY (ω)P (ω).

Pogrupujmy składniki sumy według warto´sci zmiennych

X i Y .

E(X

· Y ) =

X

x

X

y

x

· y ·

X

X

(ω)=x

Y

(ω)=y

P (ω)

=

X

x

X

y

x

· y · P (X = x i Y = y) =

X

x

X

y

x

· y · P (X = x) · P (Y = y)

=

X

x

x

· P (X = x)

·

X

y

y

· P (Y = y)

= E(X) · E(Y ).

d)

Je˙zeli dla ka˙zdego

ω, X(ω)

≥ 0, to

P

ω∈Ω

X(ω)

· P (ω) ≥ 0.

2

Punkt a) powy˙zszego twierdzenia mo˙zna uogólni´c (za pomoc ˛

a indukcji) na sume

n

zmiennych.

Twierdzenie 1.58 Warto´s´c oczekiwana sumy

k zmiennych X

1

, . . . , X

k

jest równa

E(

k

X

i=1

X

i

) =

k

X

i=1

E(X

i

).

background image

1.11. Warto´s´c oczekiwana, ´srednia

25

1.11.2

Warto´s´c oczekiwana rozkładu jednopunktowego

Warto´s´c oczekiwana zmiennej

X z rozkładem jednopunktowym wynosi

E(X) = m.

Z definicji warto´sci oczekiwanej wynika nast˛epuj ˛

acy fakt:

Lemat 1.59 Je˙zeli jaka´s zmienna

X przyjmuje warto´sci nieujemne i E(X) = 0, to ma

ona rozkład jednopunktowy.

Zało˙zenie, ˙ze zmienna

X przyjmuje tylko warto´sci nieujemne jest istotne we wnio-

sku 1.59. Pokazuje to nast˛epuj ˛

acy przykład.

Przykład 1.60 Zmienna losowa

Z z funkcj ˛

a g˛esto´sci:

z

i

-1

1

f (z

i

)

1
2

1
2

ma warto´s´c oczekiwan ˛

a

E(Z) = 0.

1.11.3

Warto´s´c oczekiwana rozkładu zero-jedynkowego

Warto´s´c oczekiwana zmiennej

X z rozkładem zero-jedynkowym wynosi

E(X) = 0q + 1p = p

1.11.4

Warto´s´c oczekiwana rozkładu dwumianowego

Warto´s´c oczekiwana zmiennej losowej

X maj ˛

acej rozkład dwumianowy z długo´sci ˛

a serii

n i prawdopodobie´nstwem sukcesu p wynosi E(X) = np.

Wynika to z twierdzenia 1.58 oraz z faktu, ˙ze jak zauwa˙zyli´smy w podrozdziale 1.10,

zmienna

X jest sum ˛

a

n zmienych o rozkładzie zero-jedynkowym X =

P

n
i=1

X

i

.

1.11.5

Warto´s´c oczekiwana liczby ró˙znokolorowych kraw˛edzi

Policzymy teraz warto´s´c oczekiwan ˛

a zmiennej

X okre´slaj ˛

acej liczb˛e ró˙znokolorowych

kraw˛edzi w grafie

G = (V, E) z n =

|V | wierzchołkami (przykład 1.43). W tym celu dla

ka˙zdej kraw˛edzi

e =

{u, v} ∈ E okre´slmy zmienn ˛a losow ˛a X

e

w nast˛epuj ˛

acy sposób:

X

e

(ω) =

1, je˙zeli w kolorowaniu ω oba ko´nce kraw˛edzi e

maj ˛

a ró˙zne kolory,

0, w przeciwnym przypadku.

W przykładzie 1.22 pokazano, ˙ze prawdopodobie ´nstwo tego, ˙ze dowolna kraw˛ed´z ma
ko´nce w ró˙znych kolorach wynosi

1
2

, czyli

E(X

e

) =

1
2

.

Zauwa˙zmy teraz, ˙ze

X =

X

e∈E

X

e

.

background image

26

Rozdział 1. Rachunek prawdopodobie ´nstwa

Rzeczywi´scie dla dowolnego kolorowania

ω suma X =

P

e∈E

X

e

(ω) jest równa liczbie

kraw˛edzi; dla których

X

e

(ω) = 1, czyli liczbie kraw˛edzi z róznymi kolorami na ko ´ncach.

Tak wi˛ec mamy

E(X) =

X

e∈E

E(X

e

) =

m

2

.

E(X), czyli ´srednia liczba ró˙znokolorowych kraw˛edzi w kolorowaniu mo˙ze by´c obliczo-
na bez u˙zywania terminologii rachunku prawdopodobie ´nstwa. Policzmy ile we wszyst-
kich kolorowaniach jest ró˙znokolorowych kraw˛edzi. Z jednej strony jest to

X

ω∈Ω

(liczba ró˙znokolorowych kraw˛edzi w kolorowaniu ω).

Z drugiej strony

X

e∈E

(liczba kolorowa´n, w których kraw˛ed´z e jest ró˙znokolorowa) =

X

e∈E

2

n−1

= m

·2

n−1

.

Przedostatnia równo´s´c wynika z tego, ˙ze liczba kolorowa ´n, w których

e jest ró˙znoko-

lorowa wynosi

2

n−1

(połowa wszystkich). ´Srednia liczba ró˙znokolorowych kraw˛edzi w

kolorowaniu wynosi wi˛ec

m

· 2

n−1

2

n

=

m

2

.

1.11.6

Własno´sci warto´sci oczekiwanej c.d.

Cz˛esto wykorzystywana własno´s´c warto´sci oczekiwanej mówi, ˙ze zawsze istnieje przy-
najmniej jedna warto´s´c mniejsza od lub równa warto´sci ´sredniej oraz warto´s´c wi˛eksza od
lub równa ´sredniej.

Lemat 1.61 Dla ka˙zdej zmiennej losowej

X istnieje zdarzenie elementarne ω

∈ Ω takie,

˙ze

P (ω) > 0 oraz X(ω)

≥ E(X).

Podobnie istnieje zdarzenie

ω

∈ Ω takie, ˙ze P (ω) > 0 oraz X(ω) ≤ E(X).

Dowód: Udowodnimy tylko pierwsz ˛

a cz˛e´s´c twierdzenia, drug ˛

a mo˙zna udowodni´c w po-

dobny sposób. Przypu´s´cmy, ˙ze dla ka˙zdego

ω

∈ Ω z dodatnim prawdopodobie´nstwem

mamy

X(ω) < E(X). Ale to prowadzi do sprzeczno´sci

E(X) =

X

ω∈Ω

X(ω)

· P (ω) <

X

ω∈Ω

E(X)

· P (ω) = E(X)

X

ω∈Ω

P (ω) = E(X).

2

Przykład 1.62 Wierzchołki dowolnego grafu mo˙zna pokolorowa´c dwoma kolarami (bia-
łym i czarnym) w taki sposób, ˙ze przynajmniej połowa kraw˛edzi ma swoje ko´nce w ró˙z-
nych kolorach. Niech

X oznacza liczb˛e ró˙znokolorowych kraw˛edzi w grafie. W podroz-

dziale 1.11.5 pokazano, ˙ze warto´s´c oczekiwana zmiennej

X wynosi

m

2

, czyli musi istnie´c

kolorowanie z co najmniej połow ˛

a ró˙znokolorowych kraw˛edzi.

background image

1.12. Nierówno´s´c Markowa

27

1.12

Nierówno´s´c Markowa

Twierdzenie 1.63 (Nierówno´s´c Markowa) Je˙zeli zmienna losowa

X przyjmuje warto´sci

nieujemne, to dla dowolnej liczby rzeczywistej

d > 0

P (X

≥ d) ≤

E(X)

d

.

Dowód:

E(X) =

X

x

x

· P (X = x) =

X

x≥d

x

· P (X = x) +

X

x<d

x

· P (X = x) ≥

X

x≥d

x

· P (X = x) ≥

X

x≥d

d

· P (X = x) = d

X

x≥d

P (X = x) = d

· P (X ≥ d),

czyli

E(X)

≥ d · P (X ≥ d). Po podzieleniu tej nierówno´sci stronami przez d otrzymu-

jemy tez˛e twierdzenia.

2

Zauwa˙zmy, ˙ze nierówno´s´c Markowa jest u˙zyteczna tylko kiedy

d > E(X). Je˙zeli

bowiem

d

≤ E(X), to mamy trywialne oszacowanie P (X ≥ d) ≤ 1 ≤

E(X)

d

.

Przykład 1.64 Nierówno´s´c Markowa wyra˙za do´s´c prosty fakt. Przypu´s´cmy, ˙ze

X okre´sla

liczb˛e pieni˛edzy posiadan ˛

a przez studenta. Je˙zeli warto´s´c ´srednia zmiennej

X wynosi 100

złotych, to tylko połowa studentów mo˙ze mie´c 200 lub wi˛ecej złotych. Przypu´s´cmy bowiem
˙ze

0.5 + cz˛e´s´c studentów posiada 200 (lub wi˛ecej) złotych. Wtedy udział tej bogatej

cz˛e´sci studentów w ´sredniej wynosi co najmniej

200

· (0.5 + ) = 100 + 200 · > 100, i

warto´s´c ´srednia nie mo˙ze wynosi´c 100 złotych.

Przykład 1.65 Niech zmienna losowa

X posiada rozkład dwumianowy z długo´sci ˛

a serii

n = 1000 oraz prawdopodobie´nstwem sukcesu p =

1
2

. Spróbujmy oszacowa´c prawdo-

podobie´nstwo

P (X

≥ 600). Warto´s´c oczekiwana E(X) = np = 500. Z nierówno´sci

Markowa otrzymamy oszacowanie

P (X

≥ 600) ≤

500
600

=

5
6

.

Oszacowanie to jest bardzo grube. Zauwa˙zmy, ˙ze

P (X

≥ 500) =

1
2

, poniewa˙z rozkład

jest symetryczny

P (X = k) = P (X = 1000

− k) dla ka˙zdego k.

1.13

Wariancja

Definicja 1.66 Wariancj ˛

a zmiennej losowej

X o warto´sci oczekiwanej E(X) = m

X

nazywamy liczb˛e

V ar(X) = E((X

− m

X

)

2

)

Wariancja

V ar(X) jest miar ˛

a tego jak bardzo warto´sci zmiennej

X s ˛

a oddalone od ´sred-

niej. Im wi˛eksze rozrzucenie warto´sci tym wi˛eksza wariancja. W poni˙zszym twierdzeniu
zebrano podstawowe własno´sci wariancji

background image

28

Rozdział 1. Rachunek prawdopodobie ´nstwa

Twierdzenie 1.67

a)

V ar(X)

≥ 0.

b)

V ar(X) = E(X

2

)

− m

2

X

c)

V ar(aX) = a

2

V ar(X).

d) Je˙zeli zmienne

X i Y s ˛

a niezale˙zne, to

V ar(X + Y ) = V ar(X) + V ar(Y ).

e) Je˙zeli zmienne

X

1

, . . . , X

k

s ˛

a parami niezale˙zne, to

V ar

k

X

i=1

X

i

=

k

X

i=1

V ar(X

i

)

Dowód:

a)

wynika z faktu, ˙ze zmienna

(X

− m

X

)

2

przyjmuje tylko nieujemne warto´sci,

b)

V ar(X) = E((X

− m

X

)

2

) = E(X

2

− 2m

X

· X + m

2

X

) = E(X

2

)

− 2m

X

E(X) +

m

2

X

= E(X

2

)

− 2m

2

X

+ m

2

X

= E(X

2

)

− m

2

X

c)

V ar(aX) = E(aX

− E(aX))

2

= E(a

2

(X

− EX)

2

) = a

2

V ar(X).

d)

Pami˛etajmy, ˙ze

E(X + Y ) = m

X

+ m

Y

. Mamy

(X+Y

−E(X+Y ))

2

= (X

−m

X

+Y

−m

Y

)

2

= (X

−m

X

)

2

+(y

−m

Y

)

2

+2(X

−m

X

)(Y

−m

Y

)

czyli

V ar(X+Y ) = E(X

−m

X

)

2

+E(Y

−m

Y

)

2

+2E(X

−m

X

)E(Y

−m

Y

) = V ar(X)+V ar(Y ).

Przedstatnia równo´s´c wynika z faktu, ˙ze na podstawie lematu 1.52 zmienne

X

−m

X

oraz

Y

− m

Y

s ˛

a niezale˙zne, a ostatnia równo´s´c z faktu, ˙ze

E(X

− m

X

) = m

X

− m

X

= 0.

e)

Podobnie jak w przypadku d) korzystaj ˛

ac z faktu, ˙ze

k

X

i=1

X

i

k

X

i=1

m

X

i

2

=

k

X

i=1

(X

i

− m

X

i

)

2

+ 2

k

X

i=1

k

X

j=i+1

(X

i

− m

X

i

)(X

j

− m

X

j

)

oraz z faktu, ˙ze zmienne

X

1

− m

X

1

, .... ,

X

k

− m

X

k

s ˛

a parami niezale˙zne.

2

1.13.1

Wariancja rozkładu jednopunktowego

Wariancja zmiennej losowej

X z rozkładem jednopunktowym wynosi

V ar(X) = E(X

2

)

− (E(X))

2

= m

2

− m

2

= 0.

Ale i na odwrót

Lemat 1.68 Je˙zeli

V ar(X) = 0, to zmienna losowa X posiada rozkład jednopunktowy.

Dowód: Poniewa˙z

V ar(X) = E((X

− m

X

)

2

) = 0, to z lematu 1.59 wynika, ˙ze 1 =

P (X

− m

X

= 0) = P (X = m

X

).

2

background image

1.13. Wariancja

29

1.13.2

Wariancja rozkładu zero-jedynkowego

Je˙zeli

X ma rozkład zero-jedynkowy to jego wariancvja wynosi

V ar(X) = E(X

2

)

− (E(X))

2

= p

− p

2

= p(1

− p) = pq.

1.13.3

Wariancja rozkładu dwumianowego

Je˙zeli zmienna losowa

X ma rozkład dwumianowy z długo´sci ˛

a serii

n i prawdopodobie´n-

stwem sukcesu

p, to jest sum ˛

a

X =

P

n
i=1

X

i

niezale˙znych zmiennych

X

i

o rozkładach

zero-jedynkowych. Wariancja ka˙zdej zmiennej

X

i

wynosi

V ar(X

i

) = pq. Wariancja

zmiennej losowej

X wynosi wi˛ec

V ar(X) = npq.

1.13.4

Wariancja liczby ró˙znokolorowych kraw˛edzi

Obliczmy variancj˛e zmiennej losowej

X oznaczaj ˛

acej liczb˛e kraw˛edzi dwukolorowych w

kolorawaniu grafu

G (patrz podrozdział 1.11.5). Najpierw zauwa˙zmy, ˙ze zmienne losowe

X

e

s ˛

a parami niezale˙zne. Dokładniej, je˙zeli

e

1

i

e

2

s ˛

a dwoma ró˙znymi kraw˛edziami grafu

G, to zmienne X

e

1

i

X

e

2

s ˛

a niezale˙zne. Niech

e

1

=

{u

1

, v

1

} i e

2

=

{u

2

, v

2

}. Poniewa˙z

kraw˛edzie s ˛

a ró˙zne, to mog ˛

a mie´c tylko jeden wspólny koniec. Załó˙zmy, ˙ze wierzchołek

v

2

/

∈ e

1

. W przykładzie 1.6.2 pokazali´smy, ˙ze jednostajny rozkład pokolorowa ´n otrzy-

mamy koloruj ˛

ac po kolei wierzchołki niezale˙znie i ze stałym prawdopodobie ´nstwem:

1
2

dla koloru białego i

1
2

dla czarnego. Mo˙zemy zało˙zy´c, ˙ze wierzchołek

v

2

jest kolorawny

ostatni. Łatwo teraz zauwa˙zy´c, ˙ze przy jednym wyborze koloru dla

v

2

mamy

X

e

1

= X

e

2

,

a przy drugim

X

e

1

6= X

e

2

. Ł ˛

aczny rozkład prawdopodobie ´nstwa zmiennych

X

e

1

i

X

e

2

wygl ˛

ada wi˛ec nast˛epuj ˛

aco:

X

e

2

0

1

X

e

1

0

1/4

1/4

1

1/4

1/4

czyli zmienne te s ˛

a niezałe˙zne.

Dla ka˙zdej kraw˛edzi

e mamy V ar(X

e

) =

1
4

i na podstawie twierdzenia 1.67e mamy

V ar(X) =

m

4

.

Zauwa˙zmy, ˙ze cały komplet zmiennych

X

e

dla wszystkich kraw˛edzi grafu nie musi

by´c niezale˙zny. Na przykład, je˙zeli trzy kraw˛edzie

e

1

,

e

2

i

e

3

tworz ˛

a trójk ˛

at, to zmienne

X

e

1

,

X

e

2

,

X

e

3

nie s ˛

a niezale˙zne. Rzeczywi´scie, je˙zeli

X

e

1

(ω) = X

e

2

(ω) = 0, to w

kolorowaniu

ω ko´nce obu kraw˛edzi e

1

i

e

2

maja taki sam kolor, ale wtedy, tak˙ze ko ´nce

kraw˛edzi

e

3

s ˛

a w tym samym kolorze i

X

e

3

(ω) = 0.

background image

30

Rozdział 1. Rachunek prawdopodobie ´nstwa

1.14

Nierówno´s´c Czebyszewa

Twierdzenie 1.69 (Nierówno´s´c Czebyszewa) Dla zmiennej losowej

X z warto´sci ˛

a ocze-

kiwan ˛

a

E(X) = m

X

oraz liczby rzeczywistej

> 0 mamy

P (

|X − m

X

| ≥ ) ≤

V ar(X)

2

.

Dowód: Rozwa˙zmy zmienn ˛

a losow ˛

a

Y = X

− m

X

. Poniewa˙z

|Y (ω)| ≥ ⇔ Y

2

(ω)

2

,

to

P (

|Y | ≥ ) = P (Y

2

2

).

Stosuj ˛

ac nierówno´s´c Markowa dla zmiennej

Y

2

mamy

P (

|Y | ≥ ) = P (Y

2

2

)

E(Y

2

)

2

ale

E(Y

2

) = E((X

− m

X

)

2

) = V ar(X)

2

Przykład 1.70 (Kontynuacja przykładu 1.65). Dla zmienneja losowej

X z rozkładem

dwumianowy z parametrami

n = 1000 oraz p =

1
2

spróbujmy oszacowa´c prawdo-

podobie´nstwo

P (X

≥ 600). Warto´s´c oczekiwana E(X) = np = 500, a wariancja

V ar(X) = npq = 250. Z symetrii rozkładu wynika, ˙ze

P (X

≥ 600) =

1
2

P (

|x − 500| ≥ 100)

i z nierówno´sci Czebyszewa otrzymamy

P (X

≥ 600) ≤

1
2

·

250

10000

=

1

80

= 0.0125.

1.15

Kra ´nce rozkładu dwumianowego

Dla zmiennej losowej

X z rozkładem dwumianowym istniej ˛

a oszacowania, które w nie-

których przypadkach s ˛

a lepsze od nierówno´sci Czebyszewa.

Twierdzenie 1.71 (Nierówno´sci Chernoff’a) Niech zmienna losowa

X posiada rozkład

dwumianowy z długo´sci ˛

a serii

n i prawdopodobie´nstwem sukcesu p. Oznaczmy warto´s´c

oczekiwan ˛

a tego rozkładu przez

m = np. Wtedy dla dowolnej liczby rzeczywistej , 0

≤ 1, mamy

P (X

≥ (1 + )m) ≤ e

2

m/3

oraz

P (X

≤ (1 − )m) ≤ e

2

m/2

background image

1.16. Problem dnia urodzin

31

Przykład 1.72 Je˙zeli zastosujemy pierwsz ˛

a nierówno´s´c Chernoffa do przykładu 1.70, to

otrzymamy oszacowanie

P (X

≥ 600) = P (X ≥ (1 +

1
5

)500)

≤ e

−20/3

1

786

Je˙zeli skorzystamy z symetrii rozkładu i z drugiej nierówno´s´c Chernoffa, to otrzymamy
du˙zo lepsze oszacowanie

P (X

≥ 600) = P (X ≤ 400) = P (X ≤ (1 −

1
5

)500)

≤ e

−10

1

22027

1.16

Problem dnia urodzin

Przypu´s´cmy, ˙ze na przyj˛eciu jest

k osób. Wtedy prawdopodobie ´nstwo, ˙ze nowo przybyła

osoba ma urodziny tego samego dnia, co jaka´s z osób ju˙z obecnych jest nie wi˛eksze ni˙z

k

365

. Tak wi˛ec,

k musi by´c wi˛eksze ni˙z

365

2

, aby prawdopodobie ´nstwo to przekroczyło

1
2

.

Zastanówmy si˛e teraz ile osób musi znajdowa´c si˛e w pokoju, aby była du˙za szansa

(wi˛eksza od

1
2

), ˙ze dwie osoby maj ˛

a urodziny tego samego dnia.

Dla prostoty przyjmujemy, ˙ze problem dnia urodzin jest równowa˙znu problemowi

wylosowania ci ˛

agu

k liczb u

1

, . . . , u

k

, ka˙zda spo´sród

n = 365 mo˙zliwo´sci, tak aby wy-

st ˛

apiło w nim jakie´s powtórzenie.

Oznaczmy przez

B

k

zdarzenie przeciwne, ˙ze wszystkie wylosowane liczby s ˛

a ró˙zne.

Je˙zeli zało˙zymy, ˙ze wszystkie ci ˛

agi s ˛

a równo prawdopodobne, to prawdopodobie ´nstwo,

˙ze otrzymamy ci ˛

ag ró˙znowarto´sciowy wynosi

P (B

k

) =

n(n

− 1) · · · (n − k + 1)

n

k

= 1

· (

n

− 1

n

)

· (

n

− 2

n

)

· · · (

n

− k + 1

n

) =

= 1

· (1 −

1

n

)

· (1 −

2

n

)

· · · (1 −

k

− 1

n

).

Skorzystamy teraz z nierówno´sci

1 + x

≤ e

x

P (B

k

)

≤ e

−1/n

e

−2/n

· · · e

−(k−1)/n

= e

P

k−1
i

=1

i/n

=

= e

−k(k−1)/2n

≤ e

−(k−1)(k−1)/2n

= e

−(k−1)

2

/2n

.

Prawdopodobie ´nstwo to jest mniejsze od

1
2

wtedy gdy

(k

− 1)

2

≥ 2n ln 2, a to zachodzi

wtedy gdy

k

≥ 1 +

2 ln 2

n. Dla n = 365, zachodzi to dla k

≥ 24.

Tak wi˛ec je´sli w pokoju znajduj ˛

a si˛e co najmniej 24 osoby, to z prawdopodobie ´nstwem

wi˛ekszym od

1
2

dwie spo´sród nich maj ˛

a urodziny w tym samym dniu.

1.17

Algorytmy probabilistyczne

Algorytmy probabilistyczne to algorytmy, które w trakcie obliczenia dokonuj ˛

a losowych

wyborów. Prze´sledzimy teraz kilka prostych przykładów.

background image

32

Rozdział 1. Rachunek prawdopodobie ´nstwa

1.17.1

Algorytm z jednostronnym bł˛edem

Wyobra˙zmy sobie, ˙ze mamy urny z kulami. Urny s ˛

a dwojakiego rodzaju. Urny pierwszego

rodzaju zawieraj ˛

a wył ˛

acznie kule białe. W urnach drugiego rodzaju s ˛

a kule białe i czarne

po połowie. Celem algorytmu jest rozpoznanie jakiego rodzaju jest dana urna. Zakładamy
przy tym, ˙ze nie mo˙zemy obejrze´c wszystkich kul z urny.

Nasz pierwszy algorytm polega na wylosowaniu jednej kuli z danej urny. Je˙zeli wy-

losowana kula jest biała, to orzekamy, ˙ze urna jest pierwszego rodzaju, a je˙zeli kula jest
czarna, to orzekamy, ˙ze urna jest drugiego rodzaju. Je˙zeli urna naprawd˛e jest pierwszego
rodzaju, to nasz algorytm na pewno, z prawdopodobie ´nstwem równym 1 da poprawn ˛

a

odpowied´z. Je˙zeli natomiast urna jest drugiego rodzaju, to poprawn ˛

a odpowied´z uzyska-

my z prawdopodobie ´nstwem równym

1
2

. Prawdopodobie ´nswto bł˛edu mo˙zna zmniejszy´c

powtarzaj ˛

ac losowanie kilka razy.

Drugi algorytm składa si˛e z

t rund. W ka˙zdej rundzie losujemy jedn ˛

a kul˛e i po obej-

rzeniu zwracamy j ˛

a spowrotem do urny. Je˙zeli w które´s rundzie wylosowano kul˛e czarn ˛

a,

to algorytm orzeka, ˙ze urna jest drugiego rodzaju. Je˙zeli we wszystkich losowaniach wy-
padła kula biała, to algorytm orzeka, ˙ze urna jest pierwszego rodzaju. Je˙zeli urna jest
pierwszego rodzaju, to drugi algorytm na pewno da poprawn ˛

a odpowied´z. Je˙zeli urna jest

drugiego rodzaju, to bł ˛

ad popełnimy wtedy, gdy

t razy z rz˛edu wylosujemy kul˛e biał ˛

a.

Zakładaj ˛

ac, ˙ze losowania kul s ˛

a niezale˙zne, prawdopodobie ´nstwo bł˛edu wynosi

1

2

t

.

1.17.2

Algorytm sprawdzaj ˛

acy mno˙zenie wielomianów

Przypu´s´cmy, ˙ze mamy trzy wielomiany

P (x), Q(x) i R(x) i mamy sprawdzi´c, czy R(x) =

P (x)

· Q(x), zachodzi dla ka˙zdego rzeczywistego x. Załó˙zmy, ˙ze P (x) i Q(x) s ˛a stopnia

n, a R(x) jest stopnia 2n. Jednym ze sposobów jest pomno˙zenie wielomianów P (x) i
Q(x) i porównanie współczynników iloczynu z wielomianem R(x). Ta metoda wymaga
około

n

2

mno˙ze´n. Przedstawimy teraz szybszy algorytm probabilistyczny sprawdzaj ˛

acy,

czy dwa wielomiany s ˛

a dobrze wymno˙zone.

Algorytm probabilistyczny sprawdzaj ˛

acy mno˙zenie wielomianów.

Dane wej´sciowe: trzy wielomiany:

P (x), Q(x) oraz R(x).

Dane wyj´sciowe: odpowied´z, czy

P (x)

· Q(x) = R(x).

Losuj liczb˛e naturaln ˛

a

x

0

z przedziału od

0 do 4n,

oblicz waro´sci

u

0

= P (x

0

), v

0

= Q(x

0

) oraz w

0

= R(x

0

).

porównaj

w

0

z iloczynem

u

0

· v

0

.

Je˙zeli

w

0

6= u

0

· v

0

, to

orzekaj, ˙ze

P (x)

· Q(x) 6= R(x).

Je˙zeli

w

0

= u

0

· v

0

, to

orzekaj, ˙ze

P (x)

· Q(x) = R(x).

W rozdziale pierszym pokazano, ˙ze warto´s´c wielomianu

P (x) stopnia n w punkcie x

0

mo˙zna obliczy´c w czasie proporcjonalnym do

n. Je˙zeli równo´s´c P (x)

· Q(x) = R(x) jest

to˙zsamo´sci ˛

a, to dla ka˙zdej wylosowanej warto´sci

x

0

otrzymamy

P (x

0

)

· Q(x

0

) = R(x

0

),

czyli nasz algorytm udzieli poprawnej odpowiedzi z prawdopodobie ´nstwem równym 1.
Je˙zeli

P (x)

·Q(x) = R(x) nie jest to˙zsamo´sci ˛a, to wielomian W (x) = P (x)·Q(x)−R(x)

background image

1.17. Algorytmy probabilistyczne

33

nie jest to˙zsamo´sciowo równy 0, i algorytm mo˙ze wylosowa´c

x

0

, które jest pierwiastkiem

wielomianu

W (x), i da´c bł˛edn ˛

a odpowied´z. Ale jak pokazano w rozdziale pierwszym

wielomian stopnia

2n nie ma wi˛ecej ni˙z 2n pierwiastków, wi˛ec prawdopodobie ´nstwo

bł˛edu jest nie wi˛eksze ni˙z

1
2

.

1.17.3

Algorytmy z bł˛edem obustronnym

W przykładach z poprzedniego podrozdziału tylko jedna z odpowiedzi typu TAK/NIE
mo˙ze by´c udzielana bł˛ednie. Czasami mamy do czynienia z sytuacj ˛

a kiedy bł˛edy s ˛

a mo˙z-

liwe w obu przypadkach.

Wyobra´zmy sobie teraz, ˙ze oba rodzaje urn zawieraj ˛

a kule białe i czarne. Urny pierw-

szego rodzaju zawieraj ˛

a

2
3

kul białych i

1
3

kul czarnych, a urny drugiego rodzaju zawieraj ˛

a

1
3

kul białych i

2
3

kul czarnych.

Jak poprzednio algorytm losuje jedn ˛

a kul˛e i orzeka ˙ze urna jest pierwszego rodza-

ju, je˙zeli wylosuje kul˛e biała, oraz orzeka, ˙ze urna jest drugiego rodzaju, je˙zeli wylosuje
kul˛e czarn ˛

a. Algorytm mo˙ze teraz popełni´c bł ˛

ad w obu przypadkach. Pradwopodobie ´n-

stwo złej odpowiedzi wynosi

1
3

. Aby zmniejszy´c prawdopodobie ´nstwo bł˛edu losujemy

ze zwracaniem

t razy. Je˙zeli wi˛ecej było kul białych, to algorytm orzeka, ˙ze urna jest

pierwszego rodzaju, a je˙zeli wi˛ecej było czarnych, to orzeka, ˙ze drugiego rodzaju.

Zastanówmy si˛e teraz jakie jest prawdopodobie ´nstwo bł˛edu je˙zeli losujemy z urny

pierwszego rodzaju. Niech

X oznacza liczb˛e wylosowanych kul czarnych. X posiada

rozkład dwumianowy długo´sci

t z prawdopodobie´nstwem sukcesu

1
3

. Algorytm popełni

bł ˛

ad, je˙zeli liczba sukcesów b˛edzie wi˛eksza od

t

2

. Z nierówno´sci Chernoffa prawdopodo-

bie´nstwo to mo˙zna oszacowa´c w nast˛epuj ˛

acy sposób:

P (X

t

2

) = P (X

≥ (1 +

1
2

)

t

3

)

≤ e

t

36

.

Z nierówno´sci Czebyszewa mo˙zna to oszacowa´c przez

P (X

t

2

) = P (X

t

3

t

6

)

≥ P (|X −

t

3

| ≥

t

6

)

2t

9

:

t

2

36

=

8

t

.

1.17.4

Algorytm kolorownia wierzchołków grafu

Wyobra´zmy sobie algorytm, który niezale˙znie i ze stałym prawdopodobie ´nstwem

1
2

kolo-

ruje na biało lub czarno wierzchołki wybranego grafu

G = (V, E). Chcemy go wykorzy-

sta´c do takiego pokolorowania grafu aby mie´c du˙zo kraw˛edzi dwukolorowych. Niech

X

oznacza liczb˛e kraw˛edzi dwukolorowych. Pami˛etamy, ˙ze

EX =

m

2

oraz

V ar(X) =

m

4

.

Za pomoc ˛

a nierówno´sci Czebyszewa poka˙zemy, ˙ze

P (X >

m

2

m)

3
4

. W tym celu

oszacujemy prawdopodobie ´nstwo zdarzenia przeciwnego

P (X

m

2

m)

≤ P (|X −

m

2

| ≤

m)

m

4m

=

1
4

.

background image

34

Rozdział 1. Rachunek prawdopodobie ´nstwa

1.18

Zadania

1. Zaproponuj przestrze ´n zdarze´n elementarnych dla rzutu dwiema (rozró˙znialnymi)

kostkami. Przedstaw zdarzenie, ˙ze suma oczek na obu kostkach wynosi 5.

2. Zaproponuj przestrze ´n zdarze´n elementarnych dla losowania dwóch kul z urny za-

wieraj ˛

acej 3 kule białe i 4 czarne. Przedstaw zdarzenie, ˙ze wylosowano:

a) dwie kule białe, b) kule w ró˙znych kolorach.

3. Zaproponuj przestrze ´n zdarze´n elementarnych dla ustawienia czterech liter

a, b, c

i

d w ci ˛

ag. Przedstaw zdarzenie, ˙ze:

a)

a i b stoj ˛

a obok siebie;

b)

a i b s ˛

a

rozdzielone jedn ˛

a liter ˛

a.

4. Zaproponuj przestrze ´n zdarze´n elementarnych dla nast˛epuj ˛

acych do´swiadcze´n: a)

Rzut monet ˛

a i kostk ˛

a. b) Losowanie 13 kart z talii 52 kart. c) Wypełnienie kuponu

totolotka. d) Wypełnienie kuponu totalizatora piłkarskiego.

5.

A, B i C s ˛

a zdarzeniami. Zapisa´c za pomoc ˛

a działa ´n na zbiorach zdarzenia:

a) zachodz ˛

a wszystkie trzy zdarzenia;

b) zachodzi dokładnie jedno ze zdarze ´n

A, B lub C;

c) zachodz ˛

a dokładnie dwa ze zdarze ´n

A, B, C;

d) zachodz ˛

a co najmniej dwa spo´sród zdarze ´n

A, B, C.

6. Cyfry

0, . . . , 9 ustawiono losowo. Jakie jest prawdopodobie ´nstwo: a) ˙ze 1 i 2 stoj ˛

a

obok siebie; b) ˙ze pomi˛edzy

1 i 2 stoj ˛

a dwie cyfry; c) ˙ze

0, 1 i 2 stoj ˛

a obok siebie.

7. Pokaza´c, ˙ze

P (A

∩ B) ≥ P (A) + P (B) − 1

8. Dane s ˛

a

P (A

0

) =

1
3

,

P (A

∩ B) =

1
4

i

P (A

∪ B) =

2
3

. Obliczy´c

P (B

0

), P (A

∩ B

0

)

i

P (B

− A).

9. Dane s ˛

a

P (A

∩ B) =

1
4

i

P (A

∪ B) =

1
2

, wiadomo te˙z, ˙ze

P (A

− B) = P (B − A).

Obliczy´c

P (B) oraz P (B

− A).

10. Udowodnij, ˙ze dla dowolnej rodziny zbiorów

A

1

, . . . , A

n

(niekoniecznie parami

rozł ˛

acznych) mamy

P

n

[

i=1

A

i

n

X

i=1

P (A

i

)

11. W urnie s ˛

a 4 kule białe i 3 czarne. Losujemy dwie. Jakie jest prawdopodobie ´nstwo,

˙ze wylosowane kule b˛ed ˛

a w ró˙znych kolorach?

12. Jakie jest prawdopodobie ´nstwo, ˙ze przy okr ˛

agłym stole wybrane na pocz ˛

atku dwie

osoby usi ˛

ad ˛

a obok siebie?

background image

1.18. Zadania

35

13. Niech przestrze ´n zdarze´n elementarnych b˛edzie zbiorem 3 elementowych ci ˛

agów

zero-jedynkowych. Wypisz zdarzenia: a) na pierwszej współrz˛ednej jest zero; b) na
pierwszej i trzeciej współrz˛ednej s ˛

a zera; c) na pierwszej i trzeciej współrz˛ednej

mamy ró˙zne warto´sci; d) na wszystkich współrz˛ednych jest to samo.

14. Oblicz prawdopodobie ´nstwa zdarze ´n z poprzedniego zadania (rozkład jednostaj-

ny).

15. Niech przestrze ´n zdarze´n elementarnych b˛edzie zbiorem

n elementowych ci ˛

agów

zero-jedynkowych (rozkład jednostajny). Oblicz prawdopodobie ´nstwa zdarze ´n z
zadania 13.

16. Policz jakie jest prawdopodobie ´nstwo, ˙ze losowo wybrana funkcja posiada takie

same warto´sci dla dwóch z góry wybranych punktów

a i b (patrz przykład 1.11).

17. Dwukrotnie rzucamy monet ˛

a. Niech zdarzenie

A oznacza, ˙ze wypadł dokladnie

jeden orzeł, a zdarzenie

B oznacza, ˙ze w pierwszym rzucie wypadł orzeł. Oblicz

P (B

|A). Czy zdarzenia A i B s ˛a niezale˙zne?

18. Rzucamy trzema kostkami. Jakie jest prawdopodobie ´nstwo, ˙ze na ˙zadnej kostce nie

wypada szóstka, je˙zeli na ka˙zdej kostce wypada inna liczba oczek.

19. Mamy dwie urny z kulami. W pierwszej urnie s ˛

a dwie kule białe i cztery czarne, a

w drugiej urnie trzy białe i trzy czarne. Rzucamy kostk ˛

a do gry. Je˙zeli wypadnie 1

lub 2, to losujemy kul˛e z pierwszej urny, je˙zeli 3,4,5 lub 6, to losujemy z drugiej
urny. Jakie jest prawdopodobie ´nstwo, ˙ze wylosujemy kul˛e biał ˛

a?

20. W urnie jest

n kul w tym k białych. n osób po kolei losuje jedn ˛

a kul˛e bez zwracania.

a) Ile wynosi prawdopodobie ´nstwo wylosowania kuli białej dla trzeciej osoby? b)
Ile wynosi prawdopodobie ´nstwo wylosowania kuli białej dla ka˙zdej z losuj ˛

acych

osób?

21. Udowodnij, ˙ze je˙zeli zdarzenia

A i B s ˛

a niezale˙zne, to niezale˙zne s ˛

a tak˙ze zdarzenia

A i B

0

oraz

A

0

i

B

0

.

22. Zmienna

X

5

(x) = x mod 5 jest okre´slona na przestrzeni

{1, . . . , 30} z jednostaj-

nym rozkładem. Podaj jej rozkład, warto´s´c oczekiwan ˛

a oraz

P (X < 3).

23. Zmienna losowa

X posiada rozkład:

x

1

2

3

4

5

P (X = x)

1
2

1
4

1
8

1

16

1

16

Oblicz

P (Xparzyste), P (X < 3), warto´s´c oczekiwan ˛

a

EX, wariancj˛e V ar(X)

oraz

P (X

≥ EX).

24. Mamy urn˛e z czteroma białymi i trzema czarnymi kulami. Losujemy bez zwraca-

nia trzy kule i niech zmienna losowa

X oznacza ile w´sród wylosowanych jest kul

białych. Podaj g˛esto´s´c rozkładu zmiennej losowej

X oraz jej warto´s´c oczekiwan ˛

a.

background image

36

Rozdział 1. Rachunek prawdopodobie ´nstwa

25. W urnie znajduje si˛e pi˛e´c monet, trzy pi˛eciozłotowe i cztery dwuzłotowe. Losujemy

dwie monety i niech zmienna losowa

Y oznacza sum˛e nominałów wylosowanych

monet. Oblicz g˛esto´s´c rozkładu zmiennej losowej

Y oraz jej warto´s´c oczekiwan ˛

a.

26. Rzucamy monet ˛

a a˙z do wypadni˛ecia orła, ale nie wi˛ecej ni˙z cztery razy. Niech

zmienna losowa

Z oznacza liczb˛e wykonanych rzutów. Podaj g˛esto´s´c rozkładu

zmiennej losowej

Z oraz jej warto´s´c oczekiwan ˛

a.

27. W urnie znajduje si˛e sze´s´c monet, dwie pi˛eciozłotowe, dwie dwuzłotowe oraz dwie

jednozłotowe. Losujemy jedn ˛

a monet˛e, a je´sli jest to złotówka to losujemy jeszcze

jedn ˛

a. Niech zmienna losowa

Z oznacza sum˛e nominałów wylosowanych monet.

Oblicz g˛esto´s´c rozkładu zmiennej losowej

Z oraz jej warto´s´c oczekiwan ˛

a.

28. Rzucamy dwukrotnie monet ˛

a. Okre´slamy dwie zmienne losowe

X

1

oraz

X

2

. Zmien-

na

X

1

przyjmuje warto´s´c

1, je˙zeli za pierwszym razem wypadnie orzeł, oraz war-

to´s´c

0, je˙zeli za pierwszym razem wypadnie reszka. Podobnie zmienna X

2

opisuje

wynik drugiego rzutu. Niech zmienna

C b˛edzie okre´slona wzorem C = X

1

+ X

2

.

Podaj rozkład zmiennej losowej

C. Czy zmienne C i X

1

s ˛

a niezale˙zne?

29. W urnie znajduje si˛e pi˛e´c kul z numerami 1,2,3,4,5. Losujemy ze zwracaniem dwie

kule. Niech zmienna losowa

X oznacza sum˛e numerów obu kul. Oblicz g˛esto´s´c

rozkładu zmiennej losowej

X oraz jej warto´s´c oczekiwan ˛

a.

30. Zmienna losowa

Y posiada rozkład:

x

−2

−1

0

1

2

P (X = x)

1

12

1
6

1
2

1
6

1

12

Oblicz warto´s´c oczekiwan ˛

a

EX, wariancj˛e V ar(X) oraz P (

|X − EX| ≥ 1).

Porównaj ostatni ˛

a liczb˛e z warto´sci ˛

a otrzyman ˛

a z oszacowania Czebyszewa.

31. Podaj przykład nieujemnej zmiennej losowej

X oraz liczby d, dla których zachodzi

P (X

≥ d) =

EX

d

.

32. Podaj przykład zmiennej losowej

X oraz liczby , dla których zachodzi

P (

|X − EX| ≥ ) =

V arX

2

.

33. Mamy graf z czteroma wierzchołkami

{a, b, c, d} i kraw˛edziami {{a, b}, {b, c}, {c, d}, {a, d}, }.

Rozwa˙zmy przestrze ´n wszystkich kolorowa ´n wierzchołków tego grafu dwoma ko-
lorami. Nich zmienna losowa

X oznacza liczb˛e kraw˛edzi z ró˙znymi kolorami na

ko´ncach. Podaj rozkład zmiennej losowej

X oraz jej warto´s´c oczekiwan ˛

a.

34. Ł ˛

aczny rozkład zmiennych losowych

X i Y przedstawiony jest w tabeli.

background image

1.18. Zadania

37

Y

-1

0

1

X

0

1
8

1
4

1
8

1

1
6

1
6

1
6

Oblicz rozkłady zmiennych

X, Y , Z = X + Y , W = 2X

− Y .

Oblicz

EX, EY , V ar(X), V ar(Y ), E(X + Y ), V ar(X + Y ).

Czy zmienne

X i Y s ˛

a niezale˙zne?

Oblicz prawdopodobie ´nstwa

P (X = Y ), P (X < Y ).

35. Na przestrzeni

{1, . . . , 30} z jednostajnym rozkładem okre´slamy trzy zmienne X

5

(x) =

x mod 5, X

3

(x) = x mod 3, X

2

(x) = x mod 2. Czy zmienne te s ˛

a niezale˙zne?

36. Pokaza´c, ˙ze dla ka˙zdego

0 < e < 1 istnieje zmienna losowa X taka, ˙ze E(X) = 1

oraz

P (X < 0.5) = 1

− e.

37. Pokaza´c, ˙ze je˙zeli

X ma rozkład symetryczny, tzn dla pewnego m, P (X = m

x) = P (X = m + x) dla ka˙zdego x, to EX = m.

38. Pokaza´c, ˙ze

V arX = V ar(X + c)

39. Poda´c przykład dwóch zmiennych

X i Y o ró˙znych rozkładach takich, ˙ze EX =

EY i V arX = V arY .

40. Przypu´s´cmy, ˙ze zmienna losowa przyjmuje

n > 2 warto´sci x

1

< x

2

< . . . < x

n

ka˙zde z dodatnim prawdopodobie ´nstwem.

a) Czy jest mo˙zliwe

EX = x

1

lub

EX = x

n

?

b) Czy jest mo˙zliwe

EX < x

2

lub

EX > x

n−1

?

c) Czy b) jest mo˙zliwe je˙zeli

X ma rozkład jednostajny?

41. Rzucano symetryczn ˛

a monet ˛

a 9 razy. Jakie jest prawdopodobie ´nstwo, ˙ze:

a) orzeł

wypadł co najmniej raz,

b) orzeł wypadł parzyst ˛

a liczb˛e razy?

42. Jakie jest prawdopodobie ´nstwo, ˙ze w serii sze´sciu rzutów kostk ˛

a suma oczek b˛edzie

parzysta.

43. Poka˙z, ˙ze je˙zeli

i < j < np, to B(n, p, i) < B(n, p, j); a je˙zeli np < i < j, to

B(n, p, i) > B(n, p, j), gdzie B(n, p, i) =

n

i

p

i

q

n−i

to rozkład dwumianowy.

44. Niech zmienna losowa

X ma rozkład dwumianowy z parametrami n = 2000,

p =

1
2

. Oszacuj prawdopodobie ´nstwo

P (X > 1500) (za pomoc ˛

a nierówno´sci

Markowa, Czebyszewa i Chernoff’a).

45. Rozwa˙zmy przestrze ´n wszystkich grafów ze zbiorem wierzchołków

{1, . . . , n} z

jednostajnym rozkładem prawdopodobie ´nstwa. Jakie jest prawdopodobie ´nstwo, ˙ze
wierzchołki 1 i 2 s ˛

a poł ˛

aczone kraw˛edzi ˛

a?

background image

38

Rozdział 1. Rachunek prawdopodobie ´nstwa

46. Podobnie jak w poprzednim zadaniu rozwa˙zmy przestrze ´n grafów z czteroma wierz-

chołkami

{1, 2, 3, 4}. Jake jest prawdopodobie´nstwo, ˙ze graf jest spójny (ka˙zde dwa

jego wierzchołki s ˛

a poł ˛

aczone ´scie˙zk ˛

a)?

47. Rozwa˙zmy kolorowanie dowolnego grafu

G = (V, E) trzema kolorami. Niech

zmienna losowa

X oznacza liczb˛e ró˙znokolorowych kraw˛edzi. Oblicz E(X) oraz

V ar(X).

1.19

Problemy

1.19.1

Niezale˙zno´s´c zmiennych losowych

1. Mamy trzy niezale˙zne zmienne losowe

X, Y i Z (okre´slone na jakiej´s przestrzeni

probabilistycznej). Udowodnij, ˙ze ka˙zde dwie te˙z s ˛

a niezale˙zne.

2. Poka˙z, ˙ze je˙zeli zmienne losowe

X i Y s ˛

a niezale˙zne, to dla dowolnych funkcji

g i

h, zmienne g

◦ X i h ◦ Y te˙z s ˛a niezale˙zne.

3. Udowodnij, ˙ze je˙zeli

A i B s ˛

a dowolnymi podzbiorami zbioru liczb rzeczywistych,

to zdarzenia

A

X

=

{ω | X(ω) ∈ A}

oraz

B

Y

=

{ω | Y (ω) ∈ B}

s ˛

a niezale˙zne.

4. Pokaza´c, ˙ze je˙zeli mamy zmienna losow ˛

a

X z rozkładem jednopunktowym i do-

woln ˛

a inn ˛

a zmienn ˛

a

Y , to X i Y s ˛

a niezale˙zne

1.19.2

Suma kwadratów

Niech

x

1

, . . . , x

k

b˛ed ˛

a dowolnymi liczbami rzeczywistymi i niech

m =

1
k

k

X

i=1

x

i

.

Udowodnij, ˙ze

1
k

k

X

i=1

x

2

i

≥ m

2

,

przy czym równo´s´c zachodzi wtedy i tylko wtedy, gdy

x

i

= m dla ka˙zdego i.

Wskazówka: Niech

Ω =

{1, . . . , k} b˛edzie przestrzeni ˛a z jednostajnym rozkładem praw-

dopodobie ´nstwa i niech

X b˛edzie zmienn ˛

a losow ˛

a okre´slon ˛

a wzorem

X(i) = x

i

. Oblicz

wariancj˛e tej zmiennej losowej.


Wyszukiwarka

Podobne podstrony:
Matematyka dyskretna 2004 04 Rachunek prawdopodobieństwa
Matematyka dyskretna 2002 04 Rachunek prawdopodobieństwa
Matematyka dyskretna 2002 04 Rachunek prawdopodobieństwa
Matematyka dyskretna 2004 01 Podstawowe pojęcia, oznaczenia
PK-I-06, 1 STUDIA - Informatyka Politechnika Koszalińska, Matematyka dyskretna i TPI, 04-10-2012
Test 2, 1 STUDIA - Informatyka Politechnika Koszalińska, Matematyka dyskretna i TPI, 04-10-2012
TPI CH 2, 1 STUDIA - Informatyka Politechnika Koszalińska, Matematyka dyskretna i TPI, 04-10-2012
PK-WE Z E, 1 STUDIA - Informatyka Politechnika Koszalińska, Matematyka dyskretna i TPI, 04-10-2012
PK-WE Z E 2, 1 STUDIA - Informatyka Politechnika Koszalińska, Matematyka dyskretna i TPI, 04-10-2012
Matematyka dyskretna 2004 06 Teoria liczb
Test 3, 1 STUDIA - Informatyka Politechnika Koszalińska, Matematyka dyskretna i TPI, 04-10-2012
E 0, 1 STUDIA - Informatyka Politechnika Koszalińska, Matematyka dyskretna i TPI, 04-10-2012
Test a, 1 STUDIA - Informatyka Politechnika Koszalińska, Matematyka dyskretna i TPI, 04-10-2012
PK-WE M test 2, 1 STUDIA - Informatyka Politechnika Koszalińska, Matematyka dyskretna i TPI, 04-10-2
Test-06, 1 STUDIA - Informatyka Politechnika Koszalińska, Matematyka dyskretna i TPI, 04-10-2012
Test 1, 1 STUDIA - Informatyka Politechnika Koszalińska, Matematyka dyskretna i TPI, 04-10-2012
Matematyka dyskretna 2004 01 Podstawowe pojęcia, oznaczenia
Matematyka dyskretna 2004 06 Teoria liczb

więcej podobnych podstron