Analiza i wnioskowanie statysty Nieznany (2)

background image

Podstawy statystyki

dr hab. in˙z. Rados law Pytlak

Literatura:

1. A. Plucinska, Plucinski E. - Elementy probabilistyki

- WNT, Warszawa, 2000.

2. J. J´

o˙zwiak, Podg´

orski, J. - Statystyka od podstaw

- PWE, Warszawa, 1997.

3. A. Plucinska, Plucinski E. - Zadania z rachunku

prawdopodobienstwa i statystyki matematycznej

dla studentw politechniki - WNT, 1970.

4. L. Gajek, Ka luszka, M. - Wnioskowanie statysty-

czne, WNT, Warszawa, 1996.

background image

5. J. Gawinecki, Kowalski L. - Elementy statystyki

matematycznej w zadaniach - FBC, Warszawa,

1995.

6. H. Kassyk-Rokicka - Statystyka, zbi´

or zadan -

PWE, Warszawa, 1981.

7. H. Kassyk-Rokicka - Statystyka nie jest trudna.

Cz. 1. Mierniki statystyczne - PWE, Warszawa,

1990.

8. M.

Fisz

-

Rachunek

prawdopodobie´

nstwa

i statystyka matematyczna - PWN, Warszawa,

1958.

background image

1

Zdarzenia losowe

Rachunek prawdopodobienstwa jest dzialem matem-

atyki sluzacym do wykrywania i badania prawidlowosci

w zakresie zdarzen losowych.

Co to jest zdarzenie losowe?

Przypuscmy, ze rzucamy moneta symetryczna.

W

rezultacie rzutu moze pojawic sie albo orzel albo reszka.

Czy potrafimy przewidziec wynik rzutu moneta? Wynik

rzutu zalezy od predkosci poczatkowej z jaka wyrzu-

camy monete, kata pod jakim monete rzucamy i wielu

innych uwarunkowan.

Gdybysmy znali te uwarunkowania oraz model ruchu

monety to moglibysmy przewidziec wynik rzutu mon-

eta.

W innym przypadku o wyniku rzutu moneta

mowimy jako o zjawisku przypadkowym albo zjawisku

(zdarzeniu) losowym.

background image

Przypuscmy, ze wielokrotnie rzucamy moneta oraz

zliczamy ile razy pojawil sie orzel, a ile razy reszka.

Na tej podstawie moglibysmy wnioskowac o wyniku

kolejnego rzutu.

Przypuscmy, ze w n rzutach orzel pojawil sie m razy.

Wowczas prawdopodobienstwo, ze w kolejnym rzucie

pojawi sie orzel mozna oszacowac na m/n, a praw-

dopodobienstwo pojawienia sie reszki na (n − m)/n.

Istota rachunku prawdopodobienstwa sa reguly sza-

cowania mozliwosci wystapienia zjawiska losowego w

oparciu o znane szacunki zjawisk losowych lepiej poz-

nanych (zbadanych).

Rachunek prawdopodobienstaw stosujemy tylko do ta-

kich zdarzen, ktorych czestosc zachodzenia moze w

pewnych warunkach podlegac bezposredniej lub posred-

niej obserwacji lub tez moze byc przedmiotem rozu-

mowan logicznych prowadzacych do ustalenia tej wlasnosci.

background image

Podstawowym pojeciem rachunku prawdopodobienstwa

jest zbior zdarzen elementarnych.

Przypuscmy, ze rzucamy kostka do gry, ktorej boki sa

oznaczone cyframi od 1 do 6. Mozemy analizowac

rozne zdarzenia zwiazane z rzutem kostka, np. po-

jawienie sie liczby parzystej, czy zdarzenie pojawienia

sie liczby nieparzystej.

Oba te zdarzenia losowe mozemy jednak wyrazic, w

pewnym sensie, za pomoca zdarzen prostszych, tzw.

zdarzen elementarnych. W przypadku rozpatrywanego

rzutu kostka za zdarzenia elementarne przyjmujemy

zdarzenia pojawienia sie jednej z liczb od 1 do 6. Zbior

zdarzen elemntarnych, ktory bedziemy oznaczali przez

Ω, jest wiec nastepujacy

Ω = {e

1

, e

2

, e

3

, e

4

, e

5

, e

6

},

gdzie e

i

odpowiada zdarzeniu pojawienia sie liczby i

w rzucie kostka.

background image

Wowczas zdarzenie polegajace na pojawieniu sie liczby

parzeystej odpowiada zbiorowi zdarzen elementarnych

{e

2

, e

4

, e

6

}

i analogicznie dla zdarzenia pojawienia sie liczby nieparzys-

tej

{e

1

, e

3

, e

5

}.

Innym pojeciem pierwotnym jest pojecie zdarzenia losowego,

przez ktore rozumiemy dowolny podzbior zbioru zdarzen

elementarnych - scisla definicja bedzie podana pozniej.

Jezeli zbior zdarzen elementarnych jest zbiorem skonc-

zonym to mozemy okreslic wszystkie podzbiory zbioru

zdarzen elementarnych, czyli wszystkie zdarzenia losowe.

Przypuscmy, ze zbior Ω zawiera n elementow. Wowczas

bedziemy mieli 2

n

podzbiorow tego zbioru, w szczegolnosci:

1 zdarzenie niemozliwe (zbior pusty)

n
1

!

zdarzen jednoelementowych

background image

. . . . . . . . . . . . . . . . . . . . . . . . .

n
n −

1

!

zdarzen o n −

1 elementach

1 zdarzenie pewne (caly zbior Ω).

W przypadku, gdy zbior zdarzen losowych jest przeliczalny

albo mocy continuum za zbior zdarzen losowych bedziemy

przyjmowali cialo borelowskie podzbiorow zbioru Ω,

czyli niekoniecznie wszystkie podzbiory zbioru zdarzen

elementarnych.

Definicja. Zdarzenie zawierajace wszystkie elementy

zbioru Ω jest zdarzeniem pewnym.

Definicja. Zdarzenie nie zawierajace zadnego elementu

zbioru Ω nazywamy zdarzeniem niemozliwym i oz-

naczamy

.

Definicja.

Mowimy, ze zdarzenie A zawiera sie w

zdarzeniu B, jezeli kazde zdarzenie elementarne nalezace

do zbioru A nalezy do zbioru B.

background image

Definicja.

Cialem borelowskim podzbiorow zbior Ω

nazywamy zbior θ, ktory spelnia wlasnosci:

1. Zbior θ zawiera zbior Ω.

2. Zbiot θ zawiera zbior

.

3. Jezeli zdarzenia A

1

, A

2

,... w ilosci skonczonej lub

przeliczalnej naleza do zbior θ to ich alternatywa

(suma) oznaczana

A

1

[

A

2

[

. . .

(wzglednie A

1

+ A

2

+ . . .)

nalezy to θ.

4. Jezeli A

1

∈ θ oraz A

2

∈ θ to ich roznica oz-

naczana

A

1

− A

2

nalezy do θ.

background image

5. Jezeli zdarzenia A

1

, A

2

,...

w ilosci skonczonej

lub przeliczalnej naleza do θ, to koniunkcja tych
zdarzen (iloczyn) oznaczana

A

1

\

A

2

\

. . .

(wzglednie A

1

A

2

. . .

)

nalezy do θ.

Elemnty ciala borelowskiego nazywamy zdarzeniami
losowymi.

Definicja. Ciag zdarzen {A

n

} nazywamy ciagiem zstepu-

jacym, jezeli zachodzi A

n+1

⊂ A

n

dla kazdego n.

Koniunkcja A ciagu zstepujacego zdarzen nazywamy
granice tego ciagu. Oznaczamy ja

A

=

\

n

A

n

(wzglednie A =

Y

n

A

n

)

Definicja.

Ciag zdarzen {A

n

} nazywamy wstepuja-

cym, jezeli spelnione jest A

n

⊂ A

n+1

. Alternatywa

A

ciagu zdarzen wstepujacych nazywamy granice tego

ciagu. Oznaczamy ja

A

=

[

n

A

n

(wzglednie A =

X

n

A

n

).

background image

2

Aksjomaty rachunku prawdopodobi-

enstwa

Rozpatrzmy zbior zdarzen elementarnych Ω oraz cialo

borelowskie podzbiorow Ω - θ. Kazdemu zdarzeniu

losowemu przyporzadkowujemy liczbe, ktora jest odpowied-

nikiem czestosci wystepowania zdarzenia.

1. Kazdemu zdarzeniu losowemu A odpowiada okres-

lona liczba P (A) zwana prawdopodobienstwem

zdarzenia A, spelniajaca nierownosc

0 ≤ P (A) ≤ 1.

2. Prawdopodobienstwo zdarzenia pewnego rowna

sie jednosci:

P

(Ω) = 1.

background image

3. Prawdopodobienstwo alternatywy skonczonej lub

przeliczalnej zdarzen losowych {A

n

} parami sie

wylaczajacych rowna sie sumie prawdopodobienstw

tych zdarzen:

A

i

\

A

j

=

∀ i 6= j =⇒ P (

[

n

A

n

) =

X

n

P

(A

n

).

Rozpatrzmy zdarzenia A i B, ktore nie sa wyklucza-

jace, tzn A

T

B 6

=

. Powstaje pytanie w jaki sposob

obliczyc P (A

S

B

). Mamy

A

[

B

= A

[

(B − A

\

B

)

oraz dwa zdarzenia po prawej stronie sa wykluczajace

sie. Ponadto

B

= A

\

B

[

(B − A

\

B

)

i analogiczna uwaga ma zastosowanie. Z aksjomatu

3) otrzymujemy

P

(A

[

B

) = P (A) + P (B − A

\

B

)

P

(B) = P (A

\

B

) + P (B − A

\

B

)

background image

czyli mamy

P

(A

[

B

) = P (A) + P (B) − P (A

\

B

)

Twierdzenie. Jezeli {A

n

} jest skonczona badz przeliczalna

oraz

S

n

A

n

= Ω to wowczas

P

(

[

n

A

n

) = 1.

Definicja. Zdarzenie ¯

A

= Ω − A nazywamy zdarze-

niem przeciwnym (dopelniajacym) zdarzenia A.

Twierdzenie. Dla dowolnego zdarzenia A mamy

P

( ¯

A

[

A

) = P ( ¯

A

) + P (A).

Twierdzenie. Prawdopodobienstwo zdarzenia niemo-

zliwego rowna sie zero:

P

(

) = 0.

background image

Dowod. Dla zdarzenia A mamy: A

S

Ω = Ω. Jezeli

A

=

to wowczas A

T

Ω =

, czyli mamy

P

(A

[

Ω) = P (A) + P (Ω).

Z tego oraz P (Ω) = 1 wynika, ze P (A) = 0.

Twierdzenie. Jezeli {A

n

} jest ciagiem zstepujacym

oraz A jest koniunkcja zdarzen A

n

, to wowczas

P

(A) = lim

n→∞

P

(A

n

).

Twierdzenie. Jezeli {A

n

} jest ciagiem wstepujacym

oraz A jest alternatywa zdarzen A

n

, to wowczas

P

(A) = lim

n→∞

P

(A

n

).

Przyklad. Dokonujemy trzech rzutow moneta. Jakie

jest prawdpodobienstwo, ze orzel pojawi sie 2 razy

(niezaleznie w jakiej kolejnosci)?

background image

Ogolna liczba sekwencji zwiazanych z trzema rzutami

wynosi 2

n

= 2

3

= 8. Jezeli przez O oznaczymy po-

jawienie sie orla w sekwencji, a przez R pojawienie sie

reszki to wowczas sekwencje sa nastepujace:

OOO, OOR, ORO, ROO, ORR, ROR, RRO, RRR.

Sekwencje te stanowia zbior zdarzen elementarnych i

kazda sekwencja jest zdarzeniem elementarnym. Zak-

ladamy, ze pojawienie sie wybranej sekwencji jest jed-

nakowo prawdopodobne, czyli

P

(e

i

) =

1

2

3

.

Dwukrotne pojawienie sie orla odpowiada wystapie-

niu jednego z trzech zdarzen elementarnych: OOR,

ORO

, ROO. Wynika z tego, ze prawdopodobienstwo

tego zdarzenia losowego wynosi

3
8

.

Gdybysmy zamiast trzech rzutow mieli n rzutow oraz

chcieli okreslic prawdopodobienstwo wystapienia w sek-

wencji m orlow to, przy poprzednich zalozeniach, aby

background image

rozwiazac to zagadnienie mozemy posluzyc sie kom-

binatoryka.

Po pierwsze liczba wszystkich mozliwych sekwencji

wynosi 2

n

. Liczba zdarzen elementarnych, ktore

odpowiadaja wystapieniu w sekwencji m orlow jest

rowna liczbie kombinacji z n elementow po m:

n
m

!

=

n

!

m

!(n − m)!

czyli szukane prawdopodobienstwo wynosi

n

!

2

n

m

!(n − m)!

.

3

Prawdopodobienstwo warunkowe

Rozpatrujemy zdarzenie losowe B, takie ze P (B) > 0.

Wiemy, ze B jest elementem ciala borelowskiego θ

background image

utworzonego ze wszystkich pozbiorow zbior Ω zdarzen
elementarnych.

Rozpatrzmy teraz cialo borelowskie utworzone z
podzbiorow zbioru B. Cialo to oznaczamy przez θ

B

.

Jezeli teraz analizujemy zdarzenie A to mozemy je
traktowac jako element θ, ale rowniez mozemy rozpa-
trzyc A jako element θ

B

.

A

moze nalezec do θ

B

, gdy wszystkie zdarzenia ele-

mentarne tworzace A sa rowniez elementami B. Ale
moze byc tak, ze tylko czesc zdarzen elementarnych z
A

jest w B. W szczegolnym przypadku zdarzenia A i

B

moga byc rozlaczne.

Jezeli koniunkcje A

T

B

rozpatrujemy jako element

ciala θ

B

to oznaczamy to jako A|B i czytamy: A

pod warunkiem B.

Jezeli B ⊂ A to wowczas A|B jest zdarzeniem pewnym
w θ

B

, natomiast, gdy A

T

B

=

to A|B jest zdarze-

niem niemozliwym (w θ

B

).

background image

Czy dla takiego zbioru zdarzen losowych mozemy okres-

lic prawdopodobienstwo, ktore bedziemy oznaczali przez

P

(A|B)?

Przyklad.

Dokonalismy n doswiadczen i w wyniku

tego zaobserwowalismy m wystapien zdarzenia B. Ws-

rod m tych wystapien bylo rowniez k (k ≤ m) wystapien

zdarzenia A. Wynika z tego, ze czestosc koniunkcji

A

T

B

wynosila

k

n

. Zauwazmy, ze w ciele θ - P (B) =

m

n

, natomiast w ciele θ

B

naturalnym wydaje sie przy-

jecie P (A|B) =

k

m

. Czyli mamy

P

(A|B) =

k

m

=

k

n

:

m

n

=

P

(A

T

B

)

P

(B)

.

Definicja. Przypuscmy, ze P (B) > 0. Prawdopodobi-

enstwo warunkowe zdarzenia A pod warunkiem B rowna

sie ilorazowi prawdopodobienstwa koniunkcji A

T

B

przez prawdopodobienstwo zdarzenia B. Czyli

P

(A|B) =

P

(A

T

B

)

P

(B)

.

background image

Analogicznie mozemy okreslic

P

(B|A) =

P

(A

T

B

)

P

(A)

przy zalozeniu, ze P (A) > 0.

Mozemy oczywiscie rowniez zdefiniowac

P

(A

1

|A

2

\

A

3

) =

P

(A

1

T

A

2

T

A

3

)

P

(A

2

T

A

3

)

jezeli rozpatrujemy prawdopodobienstwo warunkowe

okreslone na ciele θ

A

2

T

A

3

. Mamy oczywiscie

P

(A

1

\

A

2

\

A

3

) = P (A

1

\

A

2

)P (A

3

|A

1

\

A

2

)

= P (A

1

)P (A

2

|A

1

)P (A

3

|A

1

\

A

2

).

Czy prawdopodobienstwo warunkowe spelnia aksjo-

maty prawdopodobienstwa? Mamy

P

(A

\

B

) ≤ P (B)

czyli

0 ≤ P (A|B) ≤ 1.

background image

Jezeli A jest zdarzeniem pewnym w B, tzn A

T

B

=

B

, to wowczas

P

(A

\

B

) = P (B) =⇒ P (A|B) = 1

czyli drugi aksjomat jest spelniony.

Niech zdarzenia A

n

|B, w ciele θ

B

, beda zdarzeniami

wzajemnie sie wykluczajacymi. Zgodnie z definicja θ

B

mozemy zapisac

[

n

A

n

|B =

[

n

A

n

!

|B

czyli

P

(

[

n

A

n

|B) = P ((

[

n

A

n

)|B).

Korzystajac z definicji prawdopodobienstwa warunk-

owego otrzymujemy

P

(

[

n

A

n

|B) =

P

((

S

n

A

n

)

T

B

)

P

(B)

=

P

(

S

n

A

n

T

B

)

P

(B)

background image

=

X

n

P

(A

n

T

B

)

P

(B)

=

X

n

P

(A

n

|B)

co dowodzi trzeci aksjomat.

4

Wzor Bayesa

Przyklad. Mamy dwie urny - w pierwszej sa 3 kule

biale i 2 czarne. W drugiej sa 2 kule biale i 3 czarnych.

Wybieramy losowo urne a z niej rowniez w sposob

losowy wybieramy kule. Jakie jest prawdopodobienstwo,

ze wybrana kula jest kula biala, jezeli prawdopodobi-

enstwo wyboru kazdej z urn wynosi 0.5.

Oznaczamy przez A

1

i A

2

zdarzenia polegajace na

wybraniu kuli odpowiednio z pierwszej i drugiej urny.

background image

Przez B oznaczamy zdarzenie polegajace na wyciag-
nieciu kuli bialej. Mamy wiec

B

=



B

\

A

1

 [ 

B

\

A

2



.

Poniewaz zdarzenia B

T

A

1

oraz B

T

A

2

sie wylaczaja

wiec mamy

P

(B) = P (B

\

A

1

) + P (B

\

A

2

).

Korzystajac z definicji prawdopodobienstwa warunk-
owego otrzymujemy

P

(B) = P (A

1

)P (B|A

1

) + P (A

2

)P (B|A

2

).

Poniewaz P (A

1

) = P (A

2

) = 0.5 oraz P (B|A

1

) =

0.6, P (B|A

2

) = 0.4, wiec P (B) = 0.5·0.6+0.5·0.4 =

0.5.

Twierdzenie (o prawdopodobienstwie calkowitym). Jezeli
zdarzenia losowe A

1

, A

2

,...

wylaczaja sie parami i

wyczerpuja zbior zdarzen elementarnych, przy czym
P

(A

n

) > 0 dla kazdego n, to dla dowolnego zdarzenia

losowego B mamy

P

(B) = P (A

1

)P (B|A

1

) + P (A

2

)P (B|A

2

) + ...

background image

Dowod. Na podstawie zalozen mamy

B

=



A

1

\

B

 [ 

A

2

\

B

 [

. . .

oraz

P

(B) = P (A

1

\

B

) + P (A

2

\

B

) + . . .

dlatego korzystajac z

P

(A

n

\

B

) = P (A

n

)P (B|A

n

)

dla kazdego n, otrzymujemy teze.

Korzystajac z powyzszego twierdzenia mozemy okres-

lic prawdopodobienstwa warunkowe.

Twierdzenie (Wzor Bayesa). Jezeli A

1

, A

2

,... spelni-

aja zalozenia twierdzenia o prawdopodobienstwie calkow-

itym oraz P (B) > 0, to dla n = 1, 2, . . . zachodzi

wzor

P

(A

n

|B) =

P

(A

n

)P (B|A

n

)

P

(A

1

)P (B|A

1

) + P (A

2

)P (B|A

2

) + . . .

background image

Wzor Bayesa okresla prawdopodobienstwo zdarzenia

A

n

pod warunkiem zajscia (wystapienia) zdarzenia B.

Jest to tzw. wzor na prawdopodobienstwo a posteri-

ori. W przeciwienstwie do tego prawdopodobienstwo

P

(A

n

) jest prawdopodobienstwem a priori.

Przyklad. Przypuscmy, ze dwie armaty strzelaja do

celu. Pierwsza armata wystrzeliwuje pociski w pro-

porcji 0.7 do drugiej armaty.

Wiadomo, ze na 10

pociskow wystrzelonych przez pierwsza armate 8 trafia

do celu. W przypadku drugiej armaty celnosc wynosi

0.7. Okreslic prawdopodobienstwo, ze cel zostal trafiony

przez pierwsza armate.

Mamy: A

1

, A

2

- oddanie strzalu przez pierwsza i

druga armate. Przez B oznaczamy zdarzenie losowe

polegajace na trafieniu celu. Czyli

P

(A

1

) = 0.7P (A

2

), P (B|A

1

) = 0.8, P (B|A

2

) = 0.7.

background image

Ze wzoru Bayesa otrzymujemy

P

(A

2

|B) =

P

(A

2

)P (B|A

2

)

P

(A

1

)P (B|A

1

) + P (A

2

)P (B|A

2

)

=

0.7P (A

2

)

0.7 · 0.8P (A

2

) + 0.7P (A

2

)

= 0.55(5)

5

Zdarzenia niezalezne

Definicja. Zdarzenia A i B sa niezalezne, jezeli spel-
niony jest warunek

P

(A

\

B

) = P (A)P (B).

Ze wzoru na prawdopodobienstwo warunkowe wynika,
ze warunkiem koniecznym i dostatecznym niezaleznosci
zdarzen sa

P

(A|B) = P (A), P (B|A) = P (B)

background image

pod warunkiem, ze P (A) > 0 oraz P (B) > 0.

Defincja. Zdarzenia losowe A

1

, A

2

,...,A

n

sa nieza-

lezne, jezeli dla dowolnych wskaznikow naturalnych

k

1

, k

2

,...,k

s

spelniajacych

1 ≤ k

1

< k

2

. . . < k

s

≤ n

mamy

P

(A

k

1

\

A

k

2

\

. . .

\

A

k

s

) = P (A

k

1

)P (A

k

2

) . . . P (A

k

s

).

Mozna pokazac, ze warunkiem dostatecznym nieza-

leznosci zdarzen w powyzszej defincji nie jest nieza-

leznosc wszystkich par zdarzen.

6

Zmienne losowe

Niech dana bedzie przestrze´

n probabilistyczna (Ω, θ, P ).

Funkcje X okre´

slona na zbiorze zdarze´

n elementarnych

background image

Ω o warto´

sciach rzeczywistych oraz taka, ˙ze dla ka˙zdego

x ∈ R

zbi´

or

{ω ∈ Ω : X(ω) < x}

jest zdarzeniem losowym (czyli nale˙zy do θ) nazywamy

zmienna losowa.

1. Zmienna losowa X jest typu skokowego, je´

sli mo˙ze

przyjmowa´

c sko´

nczona lub niesko´

nczona,

ale

przeliczalna liczbe warto´

sci.

Warto´

sci zmiennej losowej skokowej (punkty

skokowe) oznaczamy przez x

1

, x

2

, ...

natomiast

prawdopodobie´

nstwa z jakimi sa one realizowane

oznaczamy przez p

1

, p

2

, ...

Funkcja prawdopodobie´

nstwa zmiennej losowej X

typu skokowego przyjmujacej warto´

sci x

i

, i

= 1, 2, ...

jest

P

(X = x

i

) = p

i

, i

= 1, 2, ...

background image

Dystrybuanta zmiennej losowej X nazywamy funkcje

F

(x) okre´

slona na zbiorze liczb rzeczywistych:

F

(x) = P (X < x)

F

(x) =

X

x

i

<x

p

i

Dystrybuanta posiada wlasnosci

F

(−∞) = 0, F (+∞) = 1.

2. Zmienna losowa X jest typu ciag lego, je´

sli jej

mo˙zliwe warto´

sci nale˙za do przedzialu ze zbioru

liczb rzeczywistych.

Funkcja gesto´

sci prawdopodobie´

nstwa zmiennej

losowej typu ciag lego nazywamy funkcje f (x),

okre´

slona na zbiorze liczb rzeczywistych o nastepu-

jacych w lasno´

sciach:

f

(x) ≥ 0,

Z

b

a

f

(x)dx = P (a ≤ X ≤ b)

background image

dla dowolnych a < b.

f

(x)

=

lim

∆x→0

P

(x < X ≤ x + ∆x)

∆x

=⇒ P (x < X ≤ x + ∆x)

f

(x)∆x

Dystrybuante zmiennej losowej ciaglej wprowadzamy

w taki sam sposob jak dla zmiennej typu skokowego.

W szczegolnosci mamy

F

(x) =

Z

x

−∞

f

(x)dx.

Definicja. Funkcja P (S) bedaca prawdopodobi-

enstwem tego, ze zmienna losowa X przybiera

wartosci nalezace do S, gdzie S jest dowolnym

zbiorem borelowskim na osi x (rzeczywistej), nosi

nazwe funkcji prawdopodobienstwa. Piszemy

P

(S) = P (X ∈ S).

Twierdzenie. Dystrybuanta F (x) jest funkcja niemale-

jaca.

background image

Dowod. Istotnie, niech x

1

oraz x

2

sa takie, ze

x

1

< x

2

. Poniewaz

(−∞, x

1

) ⊂ (−∞, x

2

)

wiec

P

(X < x

2

) ≥ P (X < x

1

)

czyli F (x

2

) ≥ F (x

1

), gdy x

2

> x

1

.

Twierdzenie. Dystrybuanta F (x) jest funkcja przy-
najmniej lewostronnie ciagla.

Dowod. Przypuscmy, ze {x

n

} jest taki, ze x

n+1

>

x

n

oraz x

n

< x

, lim

n→∞

x

n

= x. Ponadto oz-

naczmy

A

n

= {ω ∈ Ω : X(ω) ∈ [x

n

, x

)}.

Ciag {A

n

} jest ciagiem zstepujacym oraz

lim

n→∞

P

(A

n

) =

lim

n→∞

P

(x

n

≤ X < x)

=

lim

n→∞

[F (x) − F (x

n

)]

= F (x) − lim

n→∞

F

(x

n

) = 0,

czyli

lim

n→∞

F

(x

n

) = F (x).

background image

3. Dwuwymiarowa zmienna losowa (X, Y ) jest typu

skokowego, jesli przyjmuje sko´

nczona lub co

najwy˙zej przeliczalna liczbe warto´

sci (x

i

, y

j

)(i, j =

1, 2, ...) odpowiednio z prawdopodobie´

nstwami p

ij

.

Zachodzi przy tym warunek

X

i

X

j

p

ij

= 1

Funkcja prawdopodobie´

nstwa zmiennej losowej

(X, Y ) typu skokowego jest

p

ij

= P (X = x

i

, Y

= y

j

)

(i, j = 1, 2, ..)

Dystrybuanta F (x, y) dwuwymiarowej zmiennej

losowej (X, Y ) typu skokowego nazywamy funkcje

rzeczywista okre´

slona wzorem

F

(x, y) =

X

x

i

<x

X

y

j

<y

p

ij

background image

x

i

\y

j

y

1

y

2

...

y

l

P

j

p

ij

x

1

p

11

p

12

... p

1l

p

x

2

p

21

p

22

... p

2l

p

.

.

.

.

.

.

.

.

.

.

.

.

x

k

p

k1

p

k2

... p

kl

p

P

i

p

ij

p

·1

p

·2

...

p

·l

1

p

·j

=

k

X

i=1

p

ij

,

j

= 1, ..., l,

p

·j

=

k

X

i=1

P

(X = x

i

, Y

= y

j

) = P (Y = y

j

)

p

=

l

X

j=1

p

ij

,

i

= 1, ..., k,

p

=

l

X

j=1

P

(X = x

i

, Y

= y

j

) = P (X = x

i

)

background image

Zbiory prawdopodobie´

nstw

p

= P (X = x

i

),

i

= 1, ..., k,

p

·j

= P (Y = y

j

),

j

= 1, ..., l

tworza funkcje prawdopodobie´

nstwa rozk lad´

ow

okre´

slanych jako rozk lad brzegowy zmiennej losowej

X

oraz rozk lad brzegowy zmiennej losowej Y.

Rozk lady warunkowe zmiennej losowej (X, Y ).

P

(A | B) =

P

(A ∩ B)

P

(B)

(P (B) > 0)

Prawdopodobie´

nstwa:

P

(X = x

i

| Y = y

j

) =

P

(X = x

i

, Y

= y

j

)

P

(Y = y

j

)

=

p

ij

p

·i

,

i

= 1, ..., k

sa warto´

sciami funkcji prawdopodobie´

nstwa warunk-

owego rozk ladu zmiennej losowej X pod warunk-
iem Y = y

j

,

j

= 1, ..., l.

background image

Analogicznie prawdopodobie´

nstwa

P

(Y

= y

j

| X = x

i

) =

P

(X = x

i

, Y

= y

j

)

P

(X = x

i

)

=

p

ij

p

,

i

= 1, ..., k

sa warto´

sciami funkcji prawdopodobie´

nstwa warunk-

owego rozk ladu zmiennej losowej Y pod warunk-
iem X = x

i

, i

= 1, 2, ..., k

Niech (X, Y ) bedzie dwuwymiarowa zmienna losowa.
Zmienne losowe sa niezale˙zne, je´

sli dla ka˙zdej pary

warto´

sci (x

i

, y

j

) spe lniony jest warunek:

P

(X

=

x

i

, Y

= y

j

) = P (X = x

i

) × P (Y = y

j

)

⇒ p

ij

= p

× p

·j

.

4. Funkcja gesto´

sci dwuwymiarowej zmiennej losowej

(X, Y ) typu ciag lego okreslona jest nastepujaco

f

(x, y) = lim

∆x→0

∆y→0

P (x<X<x+∆x,y<Y <y+∆y)

∆x∆y

background image

(a) f (x, y) ≥ 0

∀x, y ∈ R

(b)

R

+∞

−∞

R

+∞

−∞

f

(x, y)dxdy = 1

(c)

R

x

2

x

1

R

y

2

y

1

f

(x, y)dxdy = P (x

1

< X ≤ x

2

, y

1

<

Y ≤ y

2

)

Rozk lady brzegowe zmiennych ciag lych X, Y charak-
teryzuje sie za pomoca brzegowych funkcji gesto´

sci:

f

1

(x) =

Z

+∞

−∞

f

(x, y)dy,

f

2

(y) =

Z

+∞

−∞

f

(x, y)dx

Dla opisu rozk lad´

ow warunkowych stosuje sie warunk-

owe funkcje gesto´

sci:

f

(x | y) =

f

(x, y)

f

1

(y)

f

(y | x) =

f

(x, y)

f

2

(x)

background image

Zmienne losowe X, Y sa niezale˙zne , je´

sli dla dowol-

nej pary liczb rzeczywistych (x, y) zachodzi

f

(x, y) = f

1

(x)f

2

(y)

7

Parametry rozkladu zmiennej losowej

Parametry okreslamy dla funcki zmiennych losowych

X

- g(X). W szczegolnosci mamy, ze g(X) = X.

Definicja. Niech X bedzie zmienna losowa typy skokowego

o punktach skokowych x

k

i skokach p

k

. Wowczas sz-

ereg

E

(g(X)) =

X

k

p

k

g

(x

k

)

background image

nazywamy wartoscia przecietna (oczekiwana) zmien-

nej losowej g(X), jezeli spelniony jest warunek

X

k

p

k

|g(x

k

)| < +∞.

Definicja. Niech X bedzie zmienna losowa typu cia-

glego o funkcji gestosci f (x). Wowczas

E

(g(X)) =

Z

+∞

−∞

g

(x)f (x)dx

jest wartoscia przecietna (oczekiwana) zmiennej losowej

g

(X) o ile spelniony jest warunek

Z

+∞

−∞

|g(x)|f (x)dx < ∞.

Przyklad. Zmienna losowa X przybiera wartosci k =

0, 1, 2, . . ., przy czym

P

(X = k) =

λ

k

k

!

exp

−λ

,

background image

gdzie λ jest pewna stala dodatnia.

X

ma rozklad

Poissona. Mamy

E

(X) =

X

k=0

k

λ

k

k

!

exp

−λ

= λ exp

−λ

X

k=1

λ

k−1

(k − 1)!

= λ exp

−λ

X

r=0

λ

r

r

!

= λ exp

−λ

exp

λ

= λ.

Przyklad. Zmienna losowa X o rozkladzie normalnym
ma funkcje gestosci prawdopodobienstwa

f

(x) =

1

(2π)

2

exp −x

2

/

2.

Wartosc oczekiwana wynosi

E

(X) =

1

(2π)

1
2

Z

+∞

−∞

x

exp

−x

2

/2

dx

= −

1

(2π)

1
2

Z

+∞

−∞

(−x) exp

−x

2

/2

dx

background image

= −

1

(2π)

1
2



exp

−x

2

/2



+∞

−∞

= 0.

Definicja.

Momentem rzedu k zmiennej losowej X

nazywamy wartosc przecietna funkcji g(X) = X

k

, tzn

m

k

= E(X

k

).

Dla zmiennej losowej typu skokowego mamy wiec

m

k

=

X

k

p

k

x

k

,

natomiast dla zmiennej losowej typu ciaglego mamy

m

k

=

Z

+∞

−∞

x

k

f

(x)dx.

Definicja.

Momentem rzedu k wzgledem punktu c

nazywamy wyrazenie

E



(X − c)

k



.

background image

Jezeli c = m

1

= E(X) to mamy do czynienia z mo-

mentem centralnym rzedu k, ktory oznaczamy

µ

k

= E



(X − E(X))

k



.

Definicja. Moment centralny rzedu 2 zmiennej losowej
X

nazywamy wariancja zmiennej losowej X.

Stosowane oznaczenia:

µ

2

= σ

2

= D

2

(X).

Definicja. Pierwiastek kwadratowy z wariancji nazy-
wamy odchyleniem standardowym, dla ktorego stosu-
jemy oznaczenia σ, D(X).

Parametr σ

2

jest miara rozproszenia zmiennej losowej

dokola jej wartosci przecietnej. Im rozklad jest bardziej
skupiony wokol tej wartosci, tym mniejsza jest wartosc
σ

2

.

Twierdzenie (wlasnosci wariancji). Jezeli D

2

(X) jest

wariancja zmiennej losowej X to zachodzi:

background image

1.

D

2

(X) = m

2

− m

2

1

2. dla kazdego x 6= m

1

mamy

D

2

(X) < E



X − c

)

2



3. jezeli Y = aX + b, to wowczas

D

2

(Y ) = a

2

D

2

(X).

Dowod. Mamy

µ

2

= E



(X − E(X))

2



= E



(X − m

1

)

2



= E(X

2

) − 2m

1

E

(X) + m

2

1

= m

2

− m

2

1

co dowodzi czesc 1).

W czesci 2):

E

((X − c)

2

) = E((X − m

1

+ m

1

− c)

2

)

= E((X − m

1

)

2

+

2(m

1

− c)E(X − m

1

) + (m

1

− c)

2

= D

2

(X) + (m

1

− c)

2

.

background image

Aby udowodnic czesc 3) rozpatrzmy

D

2

(Y ) = E((aX + b)

2

) − (E(aX + b))

2

= a

2

E

(X

2

) − a

2

(E(X))

2

= a

2

((E(X

2

) − (E(X))

2

) = a

2

D

2

(X),

przy czym korzystamy z zaleznosci

E

(c

1

X

1

+ c

2

X

2

) = c

1

E

(X

1

) + c

2

E

(X

2

)

dla dowolnych c

1

, c

2

oraz dowolnych zmiennych losowych

X

1

, X

2

.

Dowod.

E

(cX) =

X

i

cx

i

p

i

= c

X

i

x

i

p

i

= cE(X)

E

(X + Y ) =

X

i

(x

i

+ y

i

) p

i

=

X

i

x

i

p

i

+

X

i

y

i

p

i

= E(X) + E(Y )

Przyklad. Jezeli X ma rozklad normalny, to mamy

E

(X

2

) =

1

(2π)

1
2

Z

+∞

−∞

x

2

exp

−x

2

/2

dx

background image

=

1

(2π)

1
2

Z

+∞

−∞

(−x)(−x exp

−x

2

/2

)dx

=

1

(2π)

1
2



−x exp

−x

2

//2



+∞

−∞

+

1

(2π)

1
2

Z

+∞

−∞

exp

−x

2

/2

dx

= 1.

Czyli D

2

(X) = 1.

8

Wybrane typy rozk lad´

ow.

1. zmienna losowa X ma rozk lad dwumianowy, je´

sli

przyjmuje warto´

sci k = 0, 1, 2, ..., n

z prawdopodobie´

nstwem

P

(X = k) =

n

k

!

p

k

(1 − p)

n−k

E

(X) = np

var

(X) = D

2

(X) = np(1 − p).

background image

2. zmienna losowa X przyjmujaca warto´

sci

k

= 0, 1, 2, ... ma rozk lad Poissona o parametrze

λ,

jesli

P

(X = k) =

λ

k

k

!

e

−λ

,

(λ > 0).

E

(X) = λ,

var

(X) = λ.

3. zmienna losowa X typu ciag lego ma rozk lad nor-

malny je˙zeli jej funkcja gesto´

sci jest postaci

f

(x) =

1

σ

(2π)

1
2

× e

(x−m)2

2σ2

(σ > 0)

E

(X) = m,

var

(X) = σ

2

X

: N (m, σ)

background image

4. zmienna losowa X typu ciag lego ma rozk lad χ

2

o k stopniach swobody, je˙zeli jej funkcja gesto´

sci

prawdopodobie´

nstwa

jest

okreslona

wzorem

f

(x) =



1
2



ν

2

Γ

(

ν

2

)

(x)

ν

2

−1

e

x

2

,

x >

0

0,

x ≤

0

,

Γ(p) =

Z

0

t

p−1

e

−t

dt

Je˙zeli niezale˙zne zmienne losowe U

i

, i

= 1, ..., k

maja rozk lad N (0, 1) to

k

X

i=1

U

2

i

ma rozk lad χ

2

o k stopniach swobody.

5. zmienna losowa X typu ciag lego ma rozk lad t-

Studenta o ν stopniach swobody, je˙zeli jej funkcja

gesto´

sci jest nastepujaca:

background image

f

(x) =

Γ



ν+1

2



(νπ)

1
2

Γ



ν

2



1 +

x

2

ν

!



ν+1

2



(−∞ < x < +∞)

Je˙zeli U ma rozk lad normalny N (0, 1), a V ma
rozk lad χ

2

o k stopniach swobody i je˙zeli zmienne

U, V

sa niezale˙zne , to zmienna

t

=

U

(V /k)

1
2

ma rozk lad t-Studenta o k stopniach swobody.

Pr´

oba losowa prosta jest ciag n zmiennych losowych

(X

1

,X

2

, ..., X

n

) niezale˙znych, majacych jednakowe

rozk lady, takie jak rozk lad zmiennej losowej X w pop-
ulacji.

Statystyka z pr´

oby nazywamy zmienna losowa Z

n

be-

daca funkcja zmiennych X

1

, X

2

, ..., X

n

stanowiacych

pr´

obe losowa.

background image

Przyk lady:

1. X

n

=

1

n

P

n

i=1

X

i

- ´

srednia z pr´

oby losowej. Je˙zeli

jest to pr´

oba losowa prosta oraz

E

(X) = m,

var

(X) = σ

2

,

to w´

owczas

E



X

n



= m,

var



X

n



=

σ

2

n

2. S

2

n

=

1

n

P

n

i=1

(X

i

−m)

2

- wariancja z pr´

oby. Je˙zeli

pr´

oba jest prosta oraz

E

(X) = m,

var

(X) = σ

2

,

owczas

E



S

2

n



=

n −

1

n

σ

2

background image

3. S

2

n

=

1

n−1

P

n−1
i=1

(X

i

− m)

2

- wariancja z pr´

oby.

Je˙zeli pr´

oba jest prosta oraz

E

(X) = m,

var

(X) = σ

2

,

owczas

E



S

2

n



= σ

2

4. χ

2

=

(n−1)S

2

n

σ

2

,

przy czym X

i

maja rozk lad N (m, σ)

oraz

S

2

n

=

1

n −

1

n

X

i=1

(X

i

− X

n

)

2

.

owczas χ

2

ma rozk lad chi-kwadrat (χ

2

) o n − 1

stopniach swobody.

5. t =

X

n

−m

S

n

(n)

1
2

, przy czym X

i

maja rozk lad N (m, σ)

oraz

S

n

=

1

n −

1

n

X

i=1

(X

i

− X

n

)

2

1
2

background image

owczas t ma rok lad t-Studenta (niezale˙zny od

σ

) o n − 1 stopniach swobody.

background image

9

Twierdzenia graniczne

Definicja. Ciag zmiennych losowych {X

n

} jest stochasty-

cznie zbiezny do zera, jezeli dla dowolnego ε > 0 spel-
niona jest zaleznosc

lim

n→∞

P

(|X

n

| > ε) = 0.

Definicja. Mowimy, ze ciag zmiennych losowych {X

n

}

jest zbiezny stochastycznie do liczby c, jezeli ciag zmi-
ennych losowych {X

n

− c} jest zbiezny stochastycznie

do 0.

Twierdzenie. (prawo wielkich liczb Bernoulliego) Oz-
naczmy przez Y

n

zmienna losowa, ktorej funkcja praw-

dopodobienstwa okreslona jest wzorem:

P



Y

n

=

r

n



=

n

r

!

p

r

(1 − p)

n−r

,

przy czym 0 < p < 1 oraz r ∈ {0, 1, 2 . . . , n}. Wowczas
cig zmiennych losowych {X

n

= Y

n

−p} jest stochasty-

cznie zbiezny do zera.

background image

Definicja. Ciag dystrybuant {F

n

(x)} ciagu zmiennych

losowych {X

n

} jest zbiezny, jezeli istnieje taka dys-

trybuanta F (x), ze w kazdym punkcie ciaglosci F (x)

spelniona jest zaleznosc:

lim

n→∞

F

n

(x) = F (x)

Twierdzenie. (prawo wielkich liczb Czebyszewa). Je˙zeli

dla ciagu zmiennych losowych {X

k

}, z kt´

orych ka˙zda

ma sko´

nczona warto´

c oczekiwana E(X

k

) oraz wari-

ancje var(X

k

), jest spe lniony warunek:

lim

k→∞

var

(X

k

) = 0,

to mamy

lim

k→∞

P

(|X

k

− E(X

k

)| < ε) = 1.

Twierdzenie. (centralne twierdzenie graniczne de Moivre’a-

Laplace’a).

Niech {X

k

} bedzie ciagiem zmiennych

losowych o rozk ladzie dwumianowym z parametrami

background image

n

oraz 0 < p < 1 oraz niech {U

k

} bedziem ciagiem

standaryzowanych zmiennych X

k

:

U

k

=

X

k

− np

(np(1 − p))

1
2

.

Wtedy dla ciagu dystrybuant {F

k

(u)} zmiennych losowych

U

k

zachodzi

lim

k→∞

F

k

(u) =

1

(2π)

1
2

Z

u

−∞

e

z2

2

dz

dla ka˙zdego z.

Twierdzenie.

(centralne

twierdzenie

graniczne

Lindeberga-Levy’ego). Je˙zeli {X

k

} jest ciagiem niezale˙znych

zmiennych losowych o identycznych rozk ladach i sko´

nczonej

wariancji, to ciag dystrybuant {F

k

(t)} zmiennych losowych

T

k

=

Z

k

− E(X)(= E(X

k

))

D

(X)(= D(X

k

))/ (k)

1
2

,

background image

gdzie

Z

k

=

1

k

k

X

i=1

X

i

,

spe lnia

lim

k→∞

F

k

(u) =

1

(2π)

1
2

Z

u

−∞

e

z2

2

dz

10

Estymatory

Definicja. Estymatorem T

n

parametru θ (estymator

punktowy) rozk ladu populacji generalnej nazywamy

statystyke z proby T

n

= t(X

1

, X

2

, ..., X

n

), kt´

ora s lu˙zy

do oszacowania warto´

sci tego parametru.

owimy, ˙ze estymator T

n

jest nieobcia˙zony, je˙zeli

spe lniona jest relacja E(T

n

) = θ.

background image

owimy, ˙ze estymator T

n

jest zgodny, je´

sli spe lnia

relacje

lim

n→∞

P

(|T

n

− θ| < ε) = 1

dla dowolnego ε > 0.

Je˙zeli dany jest zbi´

or wszystkich nieobciazonych esty-

mator´

ow T

1

n

, T

2

n

, ..., T

r

n

parametru θ to estymator T

k

n

,

kt´

ory ma w tym zbiorze najmniejsza wariancje, tzn.

var

(T

k

n

) ≤ var(T

i

n

),

i

= 1, ..., r,

nazywamy

najefektywniejszym

estymatorem

parametru θ.

Definicja. Przedzia lem ufnosci dla parametru θ ∈ Θ,

na poziomie ufnosci 1 − α ( 0<α < 1), nazywamy

przedzia l (θ

1

, θ

2

) spe lniajacy warunki:

1. θ

1

= θ

1

(X

1

, ..., X

n

) oraz θ

2

= θ

2

(X

1

, ..., X

n

) sa

funkcjami proby losowej X

1

, ..., X

n

nie zale˙za jed-

nak od θ,

background image

2. dla ka˙zdego θ ∈ Θ

P

1

(X

1

, ..., X

n

) < θ < θ

2

(X

1

, ..., X

n

)) = 1−α.

Przyk lady.

1. przedzia l ufno´

sci dla wartosci parametru m popu-

lacji

generalnej

o

rozk ladzie

N

(m, σ).

Statystyka

t

=

X

n

− m

S

n

(n)

1
2

,

gdzie

S

n

=

1

n −

1

n

X

i=1

(X

i

− X

n

)

2

1
2

ma rozk lad t-Studenta o n−1 stopniach swobody.

Je˙zeli t

α,n−1

jest taka warto´

scia, ˙ze

P

(|t| ≥ t

α,n−1

) = α,

background image

to w´

owczas

x

n

− t

α,n−1

s

n

(n)

1
2

, x

n

+ t

α,n−1

s

n

(n)

1
2

jest przedzia lem ufno´

sci dla m

P



x

n

− t

α,n−1

s

n

(n)

1
2

< m

< x

n

+ t

α,n−1

s

n

(n)

1
2



= 1 − α

2. przedzia l ufnosci dla parametru σ

2

cechy X o rozk ladzie

N

(m, σ). Statystyka χ

2

=

(n−1)S

2

n

σ

2

ma rozk lad χ

2

o n − 1 stopniach swobody. Je˙zeli

χ

2

α

2

,n−1

,

χ

2
1−

α

2

,n−1

sa okreslone nastepujaco

P

2

≥ χ

2

α

2

,n−1

) =

α

2

P

2

≥ χ

2
1−

α

2

,n−1

) = 1 −

α

2

background image

to w´

owczas


(n − 1)s

2

χ

2
1−

α

2

,n−1

,

(n − 1)s

2

χ

2

α

2

,n−1


jest przedzia lem ufnosci dla σ

2

P


(n − 1)s

2

χ

2
1−

α

2

,n−1

< σ

2

<

(n − 1)s

2

χ

2

α

2

,n−1


= 1 − α

11

Testowanie hipotez statystycznych

Przez hipoteze statystyczna rozumie sie dowolne przy-
puszczenie co do rozk ladu populacji generalnej (jego
postaci

funkcyjnej

lub

wartosci

parametr´

ow). Prawdziwo´

c tego przypuszczenia jest

oceniana na podstawie wynik´

ow pr´

oby losowej.

Testem statystycznym nazywamy regu le postepowa-
nia, kt´

ora ka˙zdej mo˙zliwej pr´

obie przyporzadkowuje

background image

decyzje przyjecia lub odrzucenia hipotezy. Oznacza

to, ˙ze test statystyczny jest regu la rozstrzygajaca, jakie

wyniki

pr´

oby

pozwalaja

uzna´

c

sprawdzana hipoteze za prawdziwa, jakie natomiast

- za fa lszywa.

Testy istotno´

sci to taki rodzaj test´

ow, w kt´

orych na

podstawie wynik´

ow pr´

oby losowej podejmuje sie je-

dynie

decyzje

odrzucenia

hipotezy

sprawdzanej lub stwierdza sie, ˙ze brak jest podstaw do

jej odrzucenia. Nie podejmuje sie natomiast w te´

scie

istotno´

sci decyzji o przyjeciu sprawdzanej hipotezy.

Na podstawie hipotezy zerowej buduje sie statystyke Z

z wynik´

ow n-elementowej pr´

oby i wyznacza sie rozk lad

tej statystyki przy za lo˙zeniu prawdziwo´

sci hipotezy H

0

.

W rozk ladzie tym wybiera sie taki obszar Q wartosci

statystyki Z, aby spe lniona by la r´

owno´

c

P

(Z ∈ Q) = α,

background image

gdzie

α

jest

ustalonym

z

ory

prawdopodobie´

nstwem. Q jest obszarem krytycznym

testu.

Ilekro´

c warto´

c statystyki Z z pr´

oby znajdzie sie w

nim, to podejmuje sie decyzje odrzucenia hipotezy H

0

na korzy´

c jej alternatywy H

1

.

Je˙zeli warto´

c statystyki Z z pr´

oby nie nale˙zy do ob-

szaru krytycznego Q to nie ma podstaw do odrzucenia

hipotezy H

0

.

Przyk lad - test istotno´

sci dla warto´

sci ´

sredniej popu-

lacji generalnej.

Hipoteza zerowa jest przypuszczeniem, ˙ze ´

srednia warto´

c

m

ma warto´

c m

0

-

H

0

: m = m

0

wobec hipotezy alternatywnej -

background image

H

1

: m 6= m

0

.

Populacja generalna ma rozk lad N (m, σ) o nieznanych

obu parametrach.

Statystyka t =

X

n

−m

S

n

(n)

1
2

, przy czym

S

n

=

1

n −

1

n

X

i=1

(X

i

− X

n

)

2

1
2

ma rozk lad t-Studenta o n − 1 punktach swobody.

Okre´

slamy t

α,n−1

takie, ˙ze

P

(|t| ≥ t

α,n−1

) = α

(α = 0.01(0.05)). Gdy warto´

c statystyki z pr´

oby

losowej t jest taka, ˙ze

|t| ≤ t

α,n−1

to nie ma podstaw do odrzucenia hipotezy H

0

.

background image

Je˙zeli

|t| ≥ t

α,n−1

to w´

owczas odrzucamy hipoteze zerowa na rzecz H

1

12

Badanie zale˙zno´

sci miedzy cechami

1. Statystyka χ

2

Pearsona.

Niech F (x) bedzie dana dystrybuanta populacji

generalnej. Dzielimy o´

s x na r roz lacznych zbior´

ow

S

k

i

niech

π

k

(k

=

1, ..., r)

bedzie

prawdopodobie´

nstwem, ˙ze zmienna losowa X przy-

biera warto´

c nale˙zaca do S

k

.

Je˙zeli za S

k

przyjmiemy

przedzia l [a

k

, a

k+1

), to

π

k

= F (a

k+1

) − F (a

k

).

Liczbe π

k

nazywamy czesto´

scia teoretyczna.

background image

Przypu´

cmy, ˙ze mamy n niezale˙znych obserwacji

zmiennej losowej X : x

1

, x

2

, ..., x

n

.

Obserwacje

te dzielimy na r grup zaliczajac do k-tej grupy te

warto´

sci , kt´

ore nale˙za do zbioru S

k

.

Oznaczmy

przez n

k

ilo´

c obserwacji nale˙zacych do S

k

.

Oczywi´

scie n

k

sa zmiennymi losowymi.

Statystyke

χ

2

=

r

X

i=1

(n

k

− nπ

k

)

2

k

nazywamy statystyka χ

2

Pearsona.

Twierdzenie. Niech czesto´

sci teoretyczne π

k

beda

dane. W´

owczas {F

n

(z)} statystyki χ

2

okre´

slonej

powy˙zej jest zbie˙zny (n → ∞) do dystrybuanty

rozk ladu χ

2

o r − 1 stopniach swobody.

2. Przypu´

cmy, ˙ze elementy pewnej pr´

oby zosta ly

sklasyfikowane wed lug dw´

och cech X i Y , przy

czym zakres mo˙zliwych warto´

sci tych cech rozbito

odpowiednio na r i s grup. Oznaczamy przez n

ogolna ilo´

c element´

ow proby, przez n

ik

- liczbe

background image

element´

ow proby nale˙zacych do i-tej grupy wed lug

cechy X (i = 1, 2, ..., r) i do k-tej grupy wed lug
cechy Y (k=1,2,...,s). Ponadto

n

=

s

X

k=1

n

ik

n

·k

=

r

X

i=1

n

ik

Oczywi´

scie

s

X

k=1

r

X

i=1

n

ik

= n

Tworzymy tzw. tablice wielodzielcza

i\k

1

2

...

s

og´

o lem n

1

n

11

n

12

...

n

1s

n

2

n

21

n

22

...

n

2s

n

.

.

.

.

.

.

r

n

r1

n

r2

...

n

rs

n

og´

o lem n

·k

n

·1

n

·2

...

n

·s

n

Wysuwamy hipoteze H

0

, ˙ze w populacji gener-

alnej, z kt´

orej wybrano rozwa˙zana probe, cechy

background image

X

i Y sa niezale˙zne. Je˙zeli oznaczymy przez p

ik

prawdopodobie´

nstwo, ˙ze element wybrany przy-

padkowo z populacji generalnej bedzie nale˙za l do

i

-tej grupy wed lug cechy X oraz do k-tej grupy

wed lug cechy Y , a przez p

i p

oznaczymy

odpowiednie prawdopodobie´

nstwa brzegowe, to w

my´

sl hipotezy H

0

dla ka˙zdej pary (i, k) bedzie

p

ik

= p

p

·k

Oczywiscie

s

X

k=1

p

·k

= 1,

r

X

i=1

p

= 1

Hipoteza H

0

nie precyzuje r+s parametr´

ow p

, p

·k

.

Z powy˙zszej zale˙zno´

sci mo˙zemy okre´

sli´

c dwa z

nich. Pozosta le estymujemy metoda najwiekszej

wiarogodno´

sci.

Otrzymamy:

p

=

n

n

,

p

·k

=

n

·k

n

background image

Korzystajac z definicji rozk ladu χ

2

Pearsona otrzy-

mamy

χ

2

= n

r

X

i=1

s

X

k=1

(n

ik

− n

n

·k

/n

)

2

n

n

·k

Poniewa˙z z pr´

oby wyznaczyli´

smy r+s−2 parame-

try, przeto powy˙zsza zmienna χ

2

ma

rs −

(r + s − 2) − 1 = (r − 1) × (s − 1)

stopni swobody. Mo˙zemy zastosowa´

c test χ

2

do

zweryfikowania hipotezy H

0

.

3. Przyk lad. Wysuwamy hipoteze H

0

,

˙ze u me˙zczyzn

kolor oczu X

i kolor w los´

ow Y sa cechami

niezale˙znymi. Zweryfikujemy te hipoteze opier-

ajac sie na danych o kolorze oczu i w los´

ow 6800

me˙zczyzn, zamieszczonych w tabeli, kt´

ora cytu-

jemy za M.G. Kendallem. Pr´

obe rozk ladamy na

3 grupy wed lug koloru oczu i na 4 grupy wed lug

kolor´

ow w los´

ow.

background image

i \k

1

j.s.

2

c.b.

3

c.

4

r.

n

o.

1

n.

1768

807

189

47

2811

2

s.z.

946

1387

746

53

3132

3

p.

115

438

288

16

857

n

·k

o.

2829

2632

1223 116 6800

j.s. - jasne blond, c.b. - ciemne blond, c. - czarne,
r. - rude

n. - niebieskie, s.z. - szare lub zielone, p. - piwne

Z tablicy obliczamy

χ

2

= 6800

3

X

i=1

4

X

k=1

(n

ik

− n

n

·k

/

6800)

2

n

n

·k

= 1075.2

Ilo´

c stopni swobody wynosi (r − 1)(s − 1) = 6. Z

tablic rozk ladu χ

2

okre´

slamy, ˙ze przy 6 stopniach

swobody

P

2

≥ 1075.2) < 0.000001.

Odrzucamy hipoteze H

0

.

background image

13

Testy zgodno´

sci

1. Statystyka χ

2

Pearsona.

Niech F (x) bedzie dana dystrybuanta populacji

generalnej. Dzielimy o´

s x na r roz lacznych zbior´

ow

S

k

i

niech

π

k

(k

=

1, ..., r)

bedzie

prawdopodobie´

nstwem, ˙ze zmienna losowa X przy-

biera warto´

c nale˙zaca do S

k

.

Je˙zeli za S

k

przyjmiemy

przedzia l [a

k

, a

k+1

), to

π

k

= F (a

k+1

) − F (a

k

).

Liczbe π

k

nazywamy czesto´

scia teoretyczna.

Przypu´

cmy, ˙ze mamy n niezale˙znych obserwacji

zmiennej losowej X : x

1

, x

2

, ..., x

n

.

Obserwacje

te dzielimy na r grup zaliczajac do k-tej grupy

te warto´

sci, kt´

ore nale˙za do zbioru S

k

.

Oznaczmy

przez n

k

ilo´

c obserwacji nale˙zacych do S

k

.

Oczywi´

scie n

k

sa zmiennymi losowymi.

background image

Statystyke

χ

2

=

r

X

i=1

(n

k

− nπ

k

)

2

k

nazywamy statystyka χ

2

Pearsona.

Twierdzenie. Niech czesto´

sci teoretyczne π

k

beda

dane. W´

owczas {F

n

(z)} statystyki χ

2

okre´

slonej

powy˙zej jest zbie˙zny (n → ∞) do dystrybuanty

rozk ladu χ

2

o r − 1 stopniach swobody.

Je˙zeli nie znamy pewnych parametr´

ow rozk ladu:

λ

1

, ..., λ

k

to w´

owczas parametry te mo˙zemy wyesty-

mowa´

c metoda najwiekszej wiarogodno´

sci.

Twierdzenie. Je˙zeli nieznane k warto´

sci λ

1

, ..., λ

k

wyznacza sie z pr´

oby metoda najwiekszej wiaro-

godno´

sci, to rozk lad statystyki χ

2

(okre´

slonej powy˙zej)

zmierza do rozk ladu χ

2

o r − k − 1 stopniach swo-

body.

background image

2. Przyk lad. Z partii towaru wybieramy pr´

obe prosta

zawierajaca n = 100 element´

ow, w´

sr´

od kt´

orych

znaleziono n

1

= 22 sztuk wadliwych. Na pod-

stawie tej pr´

oby chcemy zweryfikowa´

c, na poziomie

istotno´

sci α = 0.01, hipoteze H

0

, ˙ze w trakcie

wybierania pr´

oby parwdopodobie´

nstwo wyboru wadli-

wej sztuki wynosi lo stale p = 0.20. Inaczej m´

owiac

w my´

sl tej hipotezy n

1

= 22 jest zaobserwowana

warto´

scia zmiennej losowej o rozk ladzie dwumi-

anowym przy p = 0.20 oraz n = 100.

Stosujemy test χ

2

.

Hipoteza H

0

okre´

sla tu ca lkowicie

rozk lad. Rozk ladamy ca la mase obserwacji na n

1

sztuk wadliwych i n

2

= n − n

1

sztuk dobrych.

Czesto´

sciami teoretycznymi tych grup beda odpowied-

nio p = 0.2 oraz q = 1 − p = 0.8. Otrzymujemy

χ

2

=

(n

1

− np)

2

np

+

(n

2

− nq)

2

nq

=

2

2

20

+

2

2

80

=

1

4

Mamy tu dwie grupy, tj.

r

= 2; rozpatrujemy

rozk lad χ

2

o jednym stopniu swobody. Z tablic

background image

χ

2

odczytujemy, ˙ze P



χ

2

≥ 6.6



= 0.01, a wiec

prawdopodobie´

nstwo, ˙ze warto´

c χ

2

bedzie niem-

niejsza od

1
4

, jest znacznie wieksze od 0.01; nie

ma wiec podstaw do odrzucenia hipotezy H

0

.

3. Empiryczny rozk lad cechy.

Za l´

o˙zmy, ˙ze cecha przyjmuje k wartosci x

i

,

i=1,...,k.

Przyjmujemy, ˙ze warto´

sci te sa uprzadkowane tak,

aby

x

min

= x

1

< x

2

< ... < x

k

= x

max

Liczbe jednostek zbiorowo´

sci, dla kt´

orych cecha

przyjmuje warto´

c x

i

, oznaczamy symbolem n

i

.

Oczywi´

scie mamy

k

X

i=1

n

i

= n

Je˙zeli poszczeg´

olnym warto´

sciom x

i

cechy przy-

porzadkowane sa liczebnosci n

i

to w ten spos´

ob

okre´

slony jest rozk lad empiryczny.

background image

Zamiast liczebnosci n

i

stosuje sie r´

ownie˙z czesto´

sci

okre´

slone nastepujaco

w

i

= n

i

/n, i

= 1, ..., k

k

X

i=1

w

i

= 1

Je˙zeli cecha przyjmuje du˙zo warto´

sci, traktuje sie

ja jako ciag la niezale˙znie od tego, czy z definicji

jest ciag la, czy skokowa.

W przypadku cechy

ciag lej okre´

slanie rozk ladu odbywa sie przez przy-

porzadkowanie liczebnosci (czestosci) odpowied-

nim przedzia lom warto´

sci cechy, a nie konkret-

nym jej warto´

sciom. Takie przedzia ly nazywamy

przedzia lami klasowymi.

Dystrybuanta empiryczna F

n

(x) nazywamy funkcje

okre´

slona na podstawie danych (x

i

, w

i

),i = 1, ..., k :

background image

F

n

(x) =

0 dla x < x

1

P

i

s=1

w

s

dla x

i

≤ x < x

i+1

,

i

= 1, 2, ..., k − 1

1 dla x ≥ x

k

4. Twierdzenie (Gliwienki). Niech F

n

(x) bedzie dys-

trybuanta empiryczna w n - elementowej pr´

obie

prostej wylosowanej z populacji, w kt´

orej zmienna

X

ma dystrybuante F (x) . Prawdopodobie´

nstwo,

˙ze ciag {F

n

(x)} jest jednostajnie zbie˙zny wzgle-

dem x (−∞ < x < ∞) do dystrybuanty teorety-

cznej F (x), r´

owna sie jednosci.

Twierdzenie Gliwienki mozna zapisa´

c w nastepu-

jacej postaci. Oznczamy

D

n

=

sup

−∞<x<∞

|F

n

(x) − F (x)|

Teza twierdzenia orzeka, ˙ze zachodzi r´

owno´

c

P



lim

n→∞

D

n

= 0



= 1

background image

Oznaczamy przez Q

n

(λ) dystrybuante zmiennej

losowej D

n

(n)

1
2

:

Q

n

(λ) =

P



D

n

(n)

1
2

< λ



= P



D

n

< λ/

(n)

1
2



,

gdy λ > 0,

0, gdy λ ≤ 0

Twierdzenie (Ko lmogorowa). Niech F

n

(x) bedzie

dystrybuanta empiryczna w n - elementowej pr´

obie

prostej wylosowanej z populacji, w kt´

orej zmienna

X

ma ciag la dystrybuante F (x) . W´

owczas za-

chodzi relacja

lim

n→∞

Q

n

(λ) =

Q

(λ) =

(

P

k=−∞

(−1)

k

exp



−2k

2

λ

2



,

gdy λ > 0

0, gdy λ ≤ 0

Test λ - Ko lmogorowa zbudowany jest w nastepu-
jacy spos´

ob. Hipoteza zerowa jest przypuszcze-

nie, ˙ze populacja ma ciag ly rozk lad okreslony dys-
trybuanta F

0

(x) :

H

0

: F (x) = F

0

(x) wobec H

1

: F (x) 6= F

0

(x)

background image

Losujemy n - elementowa du˙za pr´

obe, a nastep-

nie okre´

slamy rozk lad empiryczny F

n

(x) . Miara

zgodnosci tych dw´

och dystrybuant jest statystyka

D

n

(x) oraz okre´

slony na jej podstawie rozk lad

graniczny Q (λ) . Je˙zeli prawdziwa jest hipoteza

zerowa to w´

owczas statystyka ta nie powinna przy-

biera´

c duzych warto´

sci. Obszar krytyczny okre´

slony

jest zale˙zno´

scia:

P

(λ ≥ λ

α

) = α,

gdzie α jest poziomem istotnosci.

5. Przyk lad (J´

o˙zwiak, Podg´

orski - Statystyka od pod-

staw).

Jednostkowe koszty produkcji pewnego

wyrobu maja rozk lad normalny. W celu sprawdzenia

tego

przypuszczenia

dokonano

pr´

oby

prostej

o liczebnosci n = 200 :

background image

i

Koszty jednostkowe

Liczba zak lad´

ow

1

2.50-3.50

5

2

3.50-4.50

10

3

4.50-5.50

35

4

5.50-6.50

80

5

6.50-7.50

50

6

7.50-8.50

10

7

8.50-9.50

10

P

200

Na podstawie pr´

oby okreslono warto´

sci estyma-

tor´

ow: m, σ rozk ladu normalnego - x = 6.15, s =

1.216

Oblczenie statystyki D

n

podane jest w tabeli:

i

x

u

Φ (u)

w

i

F

n

(x)

D

n

1

3.50

-2.18

0.015

0.025

0.025

0.010

2

4.50

-1.36

0.087

0.050

0.075

0.012

3

5.50

-0.54

0.295

0.175

0.250

max

0.045

4

6.50

-0.29

0.614

0.400

0.650

0.036

5

7.50

1.11

0.867

0.250

0.900

0.033

6

8.50

1.93

0.973

0.050

0.950

0.023

7

9.50

2.76

0.997

0.050

1.00

0.003

Warto´

c statystyki λ - Ko lmogorowa wynosi: λ =

background image

0.045 (200)

1
2

= 0.637. Dla α = 0.05 otrzymujemy

λ

α

= 1.36. Poniewa˙z λ < λ

α

nie ma podstaw do

odrzucenia hipotezy.

6. Momentem centralnym rzedu k + l(k, l = 0, 1, ...)

dwuwymiarowego rozk ladu zmiennej losowej (X, Y )
nazywamy wyra˙zenie

µ

kl

=E

h

(X − E(X))

k

(Y − E(Y ))

l

i

=

P

i

P

j

(x

i

− E(X))

k

(y

l

− E(Y ))

l

p

ij

dla zmiennej losowej skokowej

R

+∞

−∞

R

+∞

−∞

(x − E(X))

k

(y − E(Y ))

l

f

(x, y)dxdy

dla zmiennej losowej ciag lej

7. Je˙zeli k = 1, l = 1 to w´

owczas µ

11

= cov(X, Y )

jest kowariancja.

µ

11

= E [(X − E(X))(Y − E(Y ))]

= E(XY ) − E(X)E(Y ) −

E

(Y )E(X) + E(X)E(Y )

= E(XY ) − E(X)E(Y )

background image

8. Zmienne losowe dla kt´

orych

cov

(X, Y ) = 0

nazywamy nieskorelowanymi.

Je˙zeli zmienne losowe X, Y sa niezale˙zne, to w´

owczas

E

(XY ) = E(X)E(Y ).

Dow´

od (dla zmiennych skokowych).

E

(XY ) =

X

i

X

j

x

i

y

j

p

ij

=

X

i

X

j

x

p

y

j

p

·j

=

X

i

x

i

p

X

j

y

j

p

·j

= E(X)E(Y )

9. Zmienne losowe X, Y , kt´

oe sa niezale˙zne sa r´

ownie˙z

nieskorelowane.

Twierdzenie odwrotne nie jest

prawdziwe.

background image

10. Dla kowariancji zmiennych X, Y zachodzi r´

owno´

c:

−D(X)D(Y ) ≤ cov(X, Y ) ≤ D(X)D(Y )

Dla zmiennych losowych X, Y zachodzi:

D

2

(X + Y ) = D

2

(X) + D

2

(Y ) + 2cov(X, Y )

Dow´

od. Oznaczmy Z = X + Y. Otrzymamy

D

2

(Z) = E(Z

2

) − [E(Z)]

2

= E

h

(X + Y )

2

i

[E(X + Y )]

2

= E



X

2



+ 2E(XY ) + [E(X)]

2

− E



Y

2



2E(XY ) − [E(Y )]

2

=

E



X

2



− [E(X)]

2

+ E



Y

2



− [E(Y )]

2

+

2 [E(XY ) − E(X)E(Y )] =

var

(X) + var(Y ) + 2cov(X, Y )

background image

11. Je˙zeli X, Y sa nieskorelowane, to w´

owczas

var

(X + Y ) = var(X) + var(Y )

12. Wielko´

c ρ okre´

slona jako

ρ

=

cov

(X, Y )

D

(X)D(Y )

jest wsp´

o lczynnikiem korelacji zmiennych X, Y..

Zawsze

−1 ≤ ρ ≤ 1

13. Twierdzenie. Warunkiem koniecznym i dostate-

cznym na to aby

ρ

2

= 1

jest

background image

P

(Y = aX + b) = 1,

tzn. aby zmienne X, Y by ly zwiazane zale˙zno´

scia

liniowa z prawdopodobie´

nstwem r´

ownym jedno´

sci.

14. Wsp´

o lczynnik korelacji rozk lad´

ow empirycznych.

(a) Rozk lady brzegowe empiryczne:

x

=

1

n

r

X

i=1

x

i

n

s

2

x

=

1

n −

1

r

X

i=1

(x

i

− x)

2

n

=

1

n −

1

r

X

i=1

x

2

i

n

− nx

2

y

=

1

n

s

X

k=1

y

k

n

·k

background image

s

2

y

=

1

n −

1

s

X

k=1

(y

k

− y)

2

n

·k

=

1

n −

1

s

X

k=1

y

2

k

n

·k

− ny

2

(b) kowariancja

dwuwymiarowego

rozk ladu

empirycznego

c

xy

=

1

n −

1

r

X

i=1

s

X

k=1

(x

i

− x) (y

k

− y) n

ik

c

xy

=

1

n −

1

r

X

i=1

s

X

k=1

x

i

y

k

n

ik

− xy

(c) wsp´

o lczynnik korelacji

r

=

c

xy

s

x

s

y

wsp´

o lczynnik r przyjmuje warto´

sci z przedzia lu

[−1, 1]

background image

wsp´

o lczynnik r jest r´

owny zeru, gdy cechy sa

nieskorelowane

modu l wsp´

o lczynnika r jest r´

owny jedno´

sci wt-

edy i tylko wtedy, gdy miedzy cechami za-

chodzi funkcyjny zwiazek liniowy

15. Przypu´

cmy, ˙ze dwuwymiarowy rozk lad zmiennych

losowych X, Y jest normalny. Stawiamy hipoteze,

˙ze zmienne nie sa skorelowane:

H

0

: ρ = 0

wobec hipotezy alternatywnej

H

1

: ρ 6= 0

Je˙zeli hipoteza H

0

jest prawdziwa, to statystyka

t

=

r



1 − r

2



1
2

(n − 2)

1
2

ma rozk lad t-Studenta o n−2 stopniach swobody.

background image

Obszar krytyczny okre´

slony jest nastepujaco

P

(|t| ≥ t

α,n−2

) = α

gdzie α jest poziomem istotno´

sci, a t

α,n−2

jest

warto´

scia krytyczna.

16. Przyk lad. Stawiamy hipoteze, ˙ze spo˙zycie ziem-

niak´

ow jest tym mniejsze, im wy˙zsze sa dochody

konsument´

ow.

Wylosowano 10 gospodarstw

domowych, dla kt´

orych okre´

slono roczny doch´

od

na osobe w 1982 r.

(zmienna X) oraz roczne

spo˙zycie ziemniak´

ow na osobe w tym˙ze roku (zmi-

enna Y ):

background image




















x

i

(ty´

s.P LN

) y

k

(kg)

78

200

35

280

96

130

52

230

110

150

80

150

98

120

96

120

40

240

85

150




















H

0

: ρ = 0

wobec hipotezy alternatywnej

H

1

: ρ < 0

Obliczono r = −0.93 oraz warto´

c statystyki

t

=

−0.93

(1 − 0.8649)

1
2

(8)

1
2

= −7.156

Obszar krytyczny:

background image

P

(t ≤ −t

α,n−2

) = α

Dla α = 0.01 odczytujemy t

α,8

= 2.896. Czyli

warto´

c statystyki jest w obszarze krytycznym.

Odrzucamy hipoteze H

0

na rzecz hipotezy alter-

natywnej H

1

.

17. Odrzcenie hipotezy H

0

wprowadzonej w punkcie

2 oznacza, ˙ze istnieje zwiazek miedzy badanymi

cechami. Do pomiaru si ly zwiazku mozna wyko-

rzysta´

c statystyke χ

2

,

bedaca miara rozbie˙zno´

sci

obu rozk lad´

ow.

Mo˙zna pokaza´

c, ˙ze statystyka

ta przyjmuje warto´

sci z przedzia lu (0, n(m − 1)),

gdzie m = min(r, s). Statystyka χ

2

jest r´

owna

zeru, gdy wszystkie liczebno´

sci teoretyczne i za-

obserwowane sa identyczne. Maksymalna warto´

c

owna n(m − 1) statystyka ta przyjmuje w przy-

padku zale˙zno´

sci funkcyjnej.

background image

Stosujemy nastepujacy wsp´

o lczynnik zbie˙zno´

sci V

Cramera

V

=

χ

2

n

(m − 1)

!

1
2

∈ [0, 1]

Dla przyk ladu z p. 3 mamy

V

=



1075.2

6800 × 2



1
2

0.28

18. Badanie zale˙zno´

sci miedzy cechami niemierzal-

nymi zaproponowa l Spearman. Oznaczmy przez

a

i

range przyporzadkowana i-tej obserwacji z pier-

wszego ciagu, przez b

i

range przyporzadkowana

tej jednostce w drugim ciagu, oraz przez d

i

= a

i

b

i

.

Wz´

or na wsp´

o lczynnik korelacji rang mo˙zna

przedstawi´

c w postaci

r

d

= 1 −

6

P

n

i=1

d

2

i

n

(n

2

− 1)

∈ [−1, 1]

background image

Warto´

c r

d

= 1 oznacza idealna zgodno´

c rang

wystepujacych w obu ciagach, warto´

c r

d

= −1

oznacza maksymalna niezgodno´

c rang.

background image

Przyk lad. Grupa ekspert´

ow opracowa la nastepu-

jaca tabele:

Kraj

Ranga

roz.ekon

Ranga

stab.polit.

A

2

1

B

6

4

C

1

3

D

8

6

E

3

2

F

5

10

G

10

8

H

4

5

I

9

9

J

7

7

background image

Otrzymamy:

d

i

d

2

i

1

1

2

4

−2

4

2

4

1

1

−5 25

2

4

−1

1

0

0

0

0

P

44

Mamy zatem

1 −

6

10

×

44

99

= 0.733

Oznacza to do´

c silna dodatnia zale˙zno´

c miedzy

rangami.

background image

14

Regresja

1. Regresja I rodzaju.

Rozpatrzmy dwuwymiarowa zmienna losowa (X, Y )

typu skokowego.

Warunkowa warto´

c oczekiwana zmiennej X:

E

(X|Y = y

j

) =

X

i

x

i

p

ij

p

·j

= m(y

j

)

Rozpatrzmy dwuwymiarowa zmienna losowa (X, Y )

typu ciag lego.

Warunkowa warto´

c oczekiwana zmiennej X :

E

(X|Y = y) =

Z

+∞

−∞

x

f

(x, y)

f

2

(y)

dx

= m(y)

Funkcje m(y) nazywamy funkcja regresji I rodzaju

zmiennej losowej X wzgledem zmiennej losowej

Y.

background image

Zmienna Y nazywamy zmienna niezale˙zna, nato-

miast zmienna losowa X nazywamy zmienna zale˙zna.

Wykres funkcji regresji I rodzaju w uk ladzie

wsp´

o lrzednych (x, y) nazywamy krzywa regresji

I rodzaju. Zale˙zno´

c y → m(y) jest w og´

olno´

sci

nieliniowa.

Krzywe regresji I rodzaju maja w lasno´

c mini-

malno´

sci:

E



[X − m(y)]

2



= min

u(y)

E



[X − u(y)]

2



Analogicznie mo˙zemy okre´

sli´

c funkcje regresji I

rodzaju zmiennej losowej Y wzgledem zmiennej

losowej X : x → m(x)

E

(Y |X = x

i

) =

X

j

y

j

p

ij

p

= m(x

i

)

dla zmiennej losowej typu skokowego,

background image

E

(Y |X = x) =

Z

+∞

−∞

y

f

(x, y)

f

1

(x)

dy

= m(x)

dla zmiennej losowej typu ciag lego

2. Regresja II rodzaju.

Prosta Y = αX + β spe lniajaca warunek

E



[Y − αX − β]

2



= min

(a,b)

E



[Y − aX − b]

2



nazywamy prosta regresji II rodzaju zmiennej losowej

Y

wzgledem zmiennej losowej X.

Warunki konieczne optymalno´

sci dla α, β :

∂E



[Y − αX − β]

2



∂α

= −2E ([Y − αX − β] X)

= 0

background image

∂E



[Y − αX − β]

2



∂β

= −2E (Y − αX − β) = 0

E



XY − αX

2

− βX



= 0

E

(Y − αX − β) = 0

Czyli

E

(XY ) − αE



X

2



− βE(X) = 0

E

(Y ) − αE(X) − β = 0

W rezultacie:

α

=

E

(XY ) − E(X)E(Y )

E



X

2



− [E(X)]

2

β

= E(Y ) − αE(X)

background image

α

=

cov

(X, Y )

D

2

(Y )

3. Klasyczny model regresji liniowej.

Krzywa regresji I rodzaju nie mo˙ze by´

c narzedziem

’predykcji’.

Przyjmujemy, ˙ze

E

(Y |X = x) = αx + β

D

2

(Y |X = x) = σ

2

czyli, ˙ze funkcja regresji I rodzaju Y wzgledem X
jest liniowa oraz, ˙ze wariancja zmiennej losowej Y
w jej warunkowych rozk ladach jest sta la.

Je˙zeli warunkowe rozk lady Y

sa normalne to

owczas mamy do czynienia z klasycznym mod-

elem normalnej regresji liniowej: Y dla X = x ma
rozk lad N (αx + β, σ).

background image

4. W klasycznym modelu regresji liniowej mamy do

czynienia z ciagiem par

(x

1

, Y

1

), (x

2

, Y

2

), ..., (x

n

, Y

n

)

bedaca n-elementowa pr´

oba losowa (zgodnie z

podej´

sciem klasycznym warto´

ci zmiennej X sa

w pr´

obie ustalone).

Przyjmuje sie, ˙ze warto´

sci Y

i

w pr´

obie losowej

mo˙zna wyja´

sni´

c nastepujaco

Y

i

= E(Y |X = x

i

) + ε

i

= αx

i

+ β + ε

i

,

i

= 1, ..., n

przy czym ε

i

sa zmiennymi losowymi:

E

i

) = 0

D

2

i

) = σ

2

cov

i

, ε

j

) = 0

∀i 6= j

background image

(W klasycznym modelu normalnej regresji liniowej

dodatkowo: ε

i

maja rozk lad normalny N (0, σ).)

owczas bowiem mamy:

E

(Y

i

) = E (αx

i

+ β + ε

i

) = αx

i

+ β + E (ε

i

)

= αx

i

+ β

D

2

(Y

i

) = E



[Y

i

− αx

i

− β]

2



= E



ε

2

i



= σ

2

15

Klasyczny model regresji liniowej

Zak ladamy, ˙ze

Y

=

k

X

i=1

α

i

x

i

+ ε,

background image

przy czym

E

(ε) = 0,

D

2

(ε) = var(ε) = σ

2

.

Je˙zeli x

1

= 1, to w´

owczas α

1

jest sk ladnikiem sta lym.

Zak ladamy, ˙ze rozk lad zmiennej losowej ε jest niezale˙zny

od warto´

sci x

1

, ..., x

k

.

Obowiazuja zale˙zno´

sci

E

(Y

| x

1

, ..., x

k

) =

k

X

i=1

α

i

x

i

,

E

(Y − E(Y

| x

1

, .., x

k

))

2

= E(ε

2

) = σ

2

.

Dokonujemy n obserwacji zmiennej

Y

oraz zmien-

nych obja´

sniajacych x

1

, ..., x

k

background image

y

=









Y

1

Y

2

.
.
.

Y

n









,

X

=









x

11

x

12

. . . x

1k

x

21

x

22

. . . x

2k

.

.

. . .

.

.

.

. . .

.

.

.

. . .

.

x

n1

x

n2

. . . x

nk









Ξ =









ε

1

ε

2

.
.
.

ε

n









,

α

=









α

1

α

2

.
.
.

α

k









,

A

=









A

1

A

2

.
.
.

A

k









,

a

=









a

1

a

2

.
.
.

a

k









.

Ξ jest wektorem zmiennych losowych, A

i

sa estyma-

background image

torami parametr´

ow α

i

, a

i

warto´

sciami tych estyma-

tor´

ow.

Obowiazuje r´

ownanie

y

= Xα + Ξ

Zak ladajac, ˙ze y jest realizacja zmiennej losowej y
wyznaczamy α metoda najmniejszych kwadrat´

ow:

min

α

n

[y − Xα]

T

[y − Xα]

o

=

min

α

n

y

T

y −

2y

T

+ α

T

X

T

o

= min

α

ψ

(α)

Warunki konieczne optymalno´

sci:

∂ψ

∂α

= 0 ⇒

−2y

T

X

+ 2X

T

= 0,

2X

T

X

=

2

ψ

∂α

2

(α)

background image

Za l´

o˙zmy, ˙ze n > k oraz, ˙ze X jest macierza pe lnego

rzedu. W´

owczas

2

ψ

∂α

2

(α) > 0

oraz

a

=

h

X

T

X

i

−1

X

T

y

jest rozwiazaniem zadania estymacji. Poniewa˙z X jest

pe lnego rzedu macierz

h

X

T

X

i

−1

istnieje.

Twierdzenie. Je˙zeli macierz X ma wymiary n × k i

jest rzedu k, to w´

owczas istnieje macierz

h

X

T

X

i

−1

oraz wektor estymowanych parametr´

ow modelu dany

jest wzorem

a

=

h

X

T

X

i

−1

X

T

y.

Twierdzenie. Przy za lo˙zeniach przyjetych w poprzed-

nim twierdzeniu obowiazuja zale˙zno´

sci

1. E(A) = α

background image

2.

var

(A) = E



(A − α) (A − α)

T



= σ

2

h

X

T

X

i

−1

.

Dow´

od.

A

=

h

X

T

X

i

−1

X

T

y

=

h

X

T

X

i

−1

X

T

[Xα + Ξ] .

Tak wiec

E

(A) = E



h

X

T

X

i

−1

X

T

[Xα + Σ]



= α + E



h

X

T

X

i

−1

X

T

Ξ



= α

var

(A) = E





h

X

T

X

i

−1

X

T

y − α



×



h

X

T

X

i

−1

X

T

y − α



T



=

background image

E



h

X

T

X

i

−1

X

T

Ξ

 

h

X

T

X

i

−1

X

T

Ξ



T

!

=

E



h

X

T

X

i

−1

X

T

ΞΞ

T

X

h

X

T

X

i

−1



=

h

X

T

X

i

−1

X

T

E

h

ΞΞ

T

i

X

h

X

T

X

i

−1

= σ

2

h

X

T

X

i

−1

.

c.b.d.o.

Oznaczamy



= y − XA.

Twierdzenie. Je˙zeli spe lnione sa za lo˙zenia przyjete w

poprzednich

twierdzeniach

to

owczas

wyra˙zenie

background image

S

2

e

=



T



n − k

jest

nieobcia˙zonym

estymatorem

wariancji

σ

2

sk ladnika losowego ε.

Je˙zeli y jest realizacja zmiennej y to w´

owczas

s

2

e

=

y

T

y − y

T

X

h

X

T

X

i

−1

X

T

y

n − k

=

y

T

y − y

T

Xa

n − k

s lu˙zy jako miernik zgodno´

sci faktycznych warto´

sci zmi-

ennej y z jej warto´

sciami teoretycznymi

e

y

=

k

X

i=1

a

i

x

i

.

background image

Twierdzenie. Je˙zeli sk ladniki losowe ε

i

maja rozk lad

normalny i spe lnione sa wszystkie za lo˙zenia z poprzed-

nich twierdze´

n to w´

owczas

1. estymatory [A

1

, ..., A

k

] maja k-wymiarowy rozk lad

normalny o wektorze warto´

sci oczekiwanej r´

ownym

α

i macierzy kowariancji r´

ownej

σ

2

h

X

T

X

i

−1

,

2. zmienna losowa

(n − k)

σ

2

S

2

e

ma rozk lad χ

2

o n − k stopniach swobody.

Dow´

od. (1) wynika z definicji A oraz faktu, ˙ze y jest

zmienna losowa o rozk ladzie normalnym.

background image

(2) wynika z definicji rozk ladu χ

2

- jest to suma kwadrat´

ow

zmiennych losowych o rozk ladzie normalnym N (0, 1).

Zauwa˙zmy, ˙ze

S

2

e

=



T



n − k

,

tak wiec

(n − k)S

2

e

jest

suma

kwadrat´

ow

zmiennych

losowych

o rozk ladach normalnych. Mo˙zna pkaza´

c, ˙ze w sumie

mamy

(n

k

)

niezale˙znych

zmiennych

losowych o rozk ladzie normalnym. c.b.d.o.

Twierdzenie. Zmienna losowa

V

i

=

A

i

− α

i

S

e

(c

ii

)

1
2

ma rozk lad t-Studenta o n − k stopniach swobody.

Dow´

od. Zmienna losowa o rozk ladzie t-Studenta to

iloraz zmiennej losowej o rozk ladzie normalnym N (0, 1)

background image

do zmiennej losowej o rozk ladzie χ

2

, pomno˙zony

przez pierwiastek z liczby stopni swobody zmiennej

χ

2

.

Mamy

V

i

=

A

i

− α

i

σ

(c

ii

)

1
2

:

(n − k)

1
2

S

e

σ

(n − k)

1
2

.

c.b.d.o.

Je˙zeli k = 2, to w´

owczas

y

= α

1

+ α

2

x

oraz

a

1

=

P

n

i=1

y

i

− a

2



P

n

i=1

x

i



n

= y − a

2

x,

a

2

=

n



P

n

i=1

x

i

y

i





P

n

i=1

y

i

 

P

n

i=1

x

i





n

P

n

i=1

x

2

i





P

n

i=1

x

i



2

oraz

b

σ,

b

σ

a

1

,

b

σ

a

2

sa estymatorami

background image

D

(ε),

D

(a

1

),

D

(a

2

) :

b

σ

=

P

n

i=1

y

2

i

− a

1

P

n

i=1

y

i

− a

2



P

n

i=1

x

i

y

i



n −

2

1
2

,

b

σ

a

1

=

b

σ

n −

(

P

n
i=1

x

i

)

2

(

P

n
i=1

x

2

i

)

!

1
2

,

b

σ

a

2

=

b

σ



P

n

i=1

x

2

i

1

n



P

n

i=1

x

i



2



1
2

,

Krzywe ufno´

sci dla prostej regresji

e

y

= a

1

+ a

2

x

:

je˙zeli

e

y

i

jest warto´

scia funkcji regresji w punkcie x

i

oraz

b

y

i

oznacza oszacowana wato´

c funkcji Y = α

1

+

α

2

x

+ε w punkcie x

i

to w´

owczas krzywe ufno´

sci okres-

lamy wed lug wzor´

ow

background image

P



e

y

i

− t

γ,n−2

s

e

y

i

<

b

y

i

<

e

y

i

+ t

γ,n−2

s

e

y

i



= 1 − γ

przy czym t

γ,n−2

jest warto´

scia zmiennej o rozk ladzie

t

- Studenta, wyznaczona z tablicy tego rozk ladu dla

ustalonego wsp´

o lczynnika ufno´

sci 1 − γ (zauwa˙zmy,

ze u˙zywamy symbolu γ zamist symbolu α) i dla n − 2
stopni swobody. Ponadto

s

e

y

i

= s

e

1

n

+

(x

i

− x)

P

n

i=1

(x

i

− x)

2

!

1
2

oraz (jak poprzednio):

s

e

=

1

n −

2

n

X

i=1

(y

i

e

y

i

)

1
2

Okre´

slony

w

ten

spos´

ob

obszar

ufno´

sci

z prawdopodobie´

nstwem 1 − γ pokrywa prawdziwa

background image

funkcje regresji Y = α

1

+ α

2

x

+ ε w populacji gener-

alnej.

Przedzia l ufno´

sci dla wsp´

o lczynnika regresji α

2

wyz-

nacza sie wed lug wzoru

P





a

2

− t

γ,n−2

s

e



P

n
i=1

(x

i

−x)

2



1
2

< α

2

< a

2

+ t

γ,n−2

s

e



P

n
i=1

(x

i

−x)

2



1
2





= 1 − γ

Przyk lad.

Y

= α

1

x

1

+ α

2

x

2

+ α

3

x

3

+ ε

background image

y

=














0.1
4.8
3.9
8.2
0.7
1.1
2.0
3.2














,

X

=














1

−2 1

0

1

1

−1

1

1

3

1

1

−2

0

1

0

−1 1

−1

0

1

0

0

1














X

T

X

=


16 0 0

0

8 0

0

0 8


,

h

X

T

X

i

−1

=



1

16

0 0

0

1
8

0

0

0

1
8



background image

X

T

y

=


17.4
15.6
24.0


,

a

=



1

16

0 0

0

1
8

0

0

0

1
8



×


17.4
15.6
24.0


=


1.09
1.95
3.00


y

T

y

= 121.44,

s

2

e

=

121.44 −

h

17.4 15.6 24.0

i

×


1.09
1.95
3.00


8 − 3

= 0.0108,

y

= 3.0.

Wsp´

o lczynnik zmienno´

sci przypadkowej

c

=

s

e

y

=

0.1

3

0.033.

background image

Empiryczny wsp´

o lczynnik zbie˙zno´

sci

ϕ

2

=

(n − k)s

2

e

P

8

i=1

(y

i

− y)

2

,

0 ≤ ϕ

2

≤ 1

- cze´

c zaobserwowanej zmienno´

sci y nie wyjasnionej

przez model.

1 − ϕ

2

- wsp´

o lczynnik determinacji.

8

X

i=1

(y

i

− y)

2

=

8

X

i=1

y

2

i

− ny

2

= 121.44 − 72

= 49.44.

ϕ

2

=

(8 − 3) × 0.0108

49.44

= 0.001.

Testowanie hipotezy: H

0

: α

1

= 0.

v

1

=

1.09

(0.0108)

1
2

×



1

16



1
2

41.9.

H

0

: α

2

= 0

background image

v

2

=

1.95

(0.0108)

1
2

×



1
8



1
2

52.7.

Przy poziomie istotno´

sci α = 0.01, warto´

c krytyczna

v

α

= 4.03.

W obu przypadkach hipoteze nale˙zy odrzuci´

c.

16

Modele tendencji rozwojowej

Wyznaczanie funkcji trendu

1. Zmienna endogeniczna jest jedynie funkcja czasu

(oraz parametr´

ow funkcji)

background image

2. Analiza graficzna umo˙zliwia wyb´

or funkcji trendu:

liniowa, wyk ladnicza, logarytmiczna. Na przyk lad

dla funkcji wyk ladniczej punkty empiryczne po lo˙zone

sa wzd lu˙z lini prostej w uk ladzie wsp´

o lrzednych

(t, log y

t

).

Dla funkcji logarytmicznej punkty empiryczne

po lo˙zone sa wzd lu˙z lini prostej w uk ladzie

wsp´

o lrzednych

(log t, log y

t

).

3. Dob´

or funkcji poprzez obserwacje przyrost´

ow ab-

solutnych

∆y

t

= y

t

− y

t−1

,

wzglednie przyrost´

ow wzglednych

∆y

t

y

t−1

,

itp.

background image

Je˙zeli funkcja trendu jest liniowa to analizujemy model

∆Y

t

= β

1

+ β

2

t

+ ε,

przy czym ε jest sk ladnikiem losowym o parametrach:

E

(ε) = 0, var(ε) = σ

2

.

Je˙zeli funkcja trendu jest liniowa to w´

owczas b

2

powinien

w spos´

ob nieistotny r´

ozni´

c sie od zera.. Po wyesty-

mowaniu parametr´

ow modelu werifikujemy hipoteze

H

0

: β

2

= 0.

Je˙zeli nie ma podstaw do odrzucenia hipotezy H

0

to

przyjmujemy,

ze nasze za lo˙zenie o liniowej funkcji

trendu jest zasadne.

W przypadku wyk ladniczej funkcji trendu budujemy

model

∆Y

t

Y

t−1

= β

1

+ β

2

t

+ ε.

Nastepnie weryfikujemy hipoteze

background image

H

0

: β

2

= 0.

Je˙zeli nie ma podstaw do odrzucenia hipotezy, to nie

ma r´

ownie˙z podstaw do odrzucenia naszego za lo˙zenia,

˙ze funkcja trendu jest wyk ladnicza. (Przyjmijmy, ˙ze

funkcja jest wyk ladnicza:

y

t

=

α

1

α

t

2

,

y

t−1

= α

1

α

t−1
2

∆y

t

y

t−1

= α

2

− 1)

W przypadku logarytmicznej funkcji trendu budujemy

model:

∆Y

t

Y

t−1

= β

1

+ β

2

Y

t

+ ε

oraz werifikujemy hipoteze

background image

H

0

: β

2

= 0

Przyk lad. Produkcja wegla kamiennego (w mln ton)

w roku 1993 wynosi la:

Miesiac

Produkcja

1

11.4

2

11.5

3

13.3

4

11.4

5

9.8

6

9.6

7

9.1

8

9.4

9

10.8

10

11.8

11

11.1

12

12.6

Poda´

c prognoze produkcji wegla na kolejne 3 miesiace

korzystajac z modelu liniowego.

background image

Weryfikacja zale˙zno´

sci liniowej. Budujemy model:

∆Y

t

= β

1

+ β

2

t

+ ε.

Otrzymamy:

∆Y

t

=

−0.667 + 0.1109 × t + ε

(0.17)

Weryfikacja hipotezy

H

0

: β

2

= 0

v

=

b

2

(var(B

2

))

1
2

=

0.1109

0.17

0.652.

Warto´

c statystyki t-Studenta przy poziomie istotno´

sci

α

= 0.05 oraz przy 9 stopniach swobody wynosi t

α

=

2.262.

background image

Konkluzja - nie ma podstaw do odrzucenia hipotezy.

Budowa modelu liniowego zale˙zno´

sci - miesiac-produkcja

wegla kamiennego:

Y

t

= α

1

+ α

2

t

+ ε.

Stosujac metode najmniejszych kwadrat´

ow otrzymamy:

Y

t

=

11.111 + (−0.02) × t +

ε

(0.84)

(0.114)

(1.36)

Budowa prognozy:

Miesiac

Produkcja

13

11.111-0.02×13 = 10.84

14

11.111-0.02×14 = 10.82

15

11.111-0.02×15 = 10.80

´

Sredni b lad prognozy

y

pT

= a

1

+ a

2

× T

background image

mo˙ze by´

c okre´

slony wzorem:

S

pT

=

"

(T − t)

2

P

n

t=1

(t − t)

2

+

1

n

+ 1

#

s

2

e

!

1
2

.

Przyk lad. Produkcja telewizor´

ow kolorowych podana

jest w tabeli.

Rok

Kolejny numer roku

Produkcja telewizor´

ow

1985

1

4.2

1986

2

4.5

1987

3

5.6

1988

4

5.7

1989

5

6.2

1990

6

8.9

1991

7

7.9

1992

8

16.3

1993

9

21.9

1994

10

22.9

Okre´

slamy model:

∆Y

t

Y

t−1

= β

1

+ β

2

t

+ ε.

background image

Stosujac metode najminiejszych kwadrat´

ow wyznaczamy

model:

∆Y

t

Y

t−1

=

0.06954

+ 0.03474 × t +

ε

(0.25756)

(0.04577)

(0.35453)

Przyjmujac rozk lad normalny zmiennej ε uzyskamy, ˙ze

zmienna losowa

t

=

B

2

− β

2

(var(B

2

))

1
2

ma rozk lad t-Studenta z liczba stopni swobody n−k =

9 − 2 = 7.

H

0

: β

2

= 0.

t

=

0.03474

0.045769

= 0.759.

Przy poziomie istotno´

sci α = 0.05 i dla 7 stopni swo-

body mamy t

α

= 2.365. Konkluzja - nie ma podstaw

do odrzucenia hipotezy.

background image

Przyjmujemy nastepujacy model: Y

t

= α

1

α

t

2

10

ε

, α

2

>

0, α

2

6= 1. Mo˙zemy wyznaczy´

c α

1

, α

2

metoda najm-

niejszych kwadrat´

ow:

min

α

1

2

n

X

i=1

(y

i

− α

1

α

i

2

)

2

= min

α

1

2

Ψ(α

1

, α

2

)

Warunki konieczne optymalnosci:

d

Ψ

1

= 2

n

X

i=1

(y

i

− a

1

a

i

2

)(−a

i

1

) = 0

d

Ψ

2

= 2

n

X

i=1

(y

i

− a

1

a

i

2

)(−a

1

ia

i−1
2

) = 0

a

1

n

X

i=1

a

2i

2

=

n

X

i=1

y

i

a

i

2

a

1

n

X

i=1

a

2i

2

i

=

n

X

i=1

iy

i

a

i

2

background image

Jest to uk lad nieliniowy.

Po wprowadzeniu skali logarytmicznej otrzymamy:

log

10

Y

t

= log

10

α

1

+ log

10

α

2

× t + ε.

W wyniku estymacji metoda najmniejszych kwadrat´

ow

otrzymamy

log

10

y

t

=

0.455526

+ 0.086780 × t +

ε

(0.060731)

(0.009788)

(0.08890)

Ponadto: ϕ

2

= 0.0924.

17

Testy zgodno´

sci

1. Statystyka χ

2

Pearsona.

background image

Niech F (x) bedzie dana dystrybuanta populacji
generalnej. Dzielimy o´

s x na r roz lacznych zbior´

ow

S

k

i

niech

π

k

(k

=

1, ..., r)

bedzie

prawdopodobie´

nstwem, ˙ze zmienna losowa X przy-

biera warto´

c nale˙zaca do S

k

.

Je˙zeli za S

k

przyjmiemy

przedzia l [a

k

, a

k+1

), to

π

k

= F (a

k+1

) − F (a

k

).

Liczbe π

k

nazywamy czesto´

scia teoretyczna.

Przypu´

cmy, ˙ze mamy n niezale˙znych obserwacji

zmiennej losowej X : x

1

, x

2

, ..., x

n

.

Obserwacje

te dzielimy na r grup zaliczajac do k-tej grupy
te warto´

sci, kt´

ore nale˙za do zbioru S

k

.

Oznaczmy

przez n

k

ilo´

c obserwacji nale˙zacych do S

k

.

Oczywi´

scie n

k

sa zmiennymi losowymi.

Statystyke

χ

2

=

r

X

i=1

(n

k

− nπ

k

)

2

k

background image

nazywamy statystyka χ

2

Pearsona.

Twierdzenie. Niech czesto´

sci teoretyczne π

k

beda

dane. W´

owczas {F

n

(z)} statystyki χ

2

okre´

slonej

powy˙zej jest zbie˙zny (n → ∞) do dystrybuanty

rozk ladu χ

2

o r − 1 stopniach swobody.

Je˙zeli nie znamy pewnych parametr´

ow rozk ladu:

λ

1

, ..., λ

k

to w´

owczas parametry te mo˙zemy wyesty-

mowa´

c metoda najwiekszej wiarogodno´

sci.

Twierdzenie. Je˙zeli nieznane k warto´

sci λ

1

, ..., λ

k

wyznacza sie z pr´

oby metoda najwiekszej wiaro-

godno´

sci, to rozk lad statystyki χ

2

(okre´

slonej powy˙zej)

zmierza do rozk ladu χ

2

o r − k − 1 stopniach swo-

body.

2. Przyk lad. Z partii towaru wybieramy pr´

obe prosta

zawierajaca n = 100 element´

ow, w´

sr´

od kt´

orych

znaleziono n

1

= 22 sztuk wadliwych. Na pod-

stawie tej pr´

oby chcemy zweryfikowa´

c, na poziomie

istotno´

sci α = 0.01, hipoteze H

0

, ˙ze w trakcie

background image

wybierania pr´

oby parwdopodobie´

nstwo wyboru wadli-

wej sztuki wynosi lo stale p = 0.20. Inaczej m´

owiac

w my´

sl tej hipotezy n

1

= 22 jest zaobserwowana

warto´

scia zmiennej losowej o rozk ladzie dwumi-

anowym przy p = 0.20 oraz n = 100.

Stosujemy test χ

2

.

Hipoteza H

0

okre´

sla tu ca lkowicie

rozk lad. Rozk ladamy ca la mase obserwacji na n

1

sztuk wadliwych i n

2

= n − n

1

sztuk dobrych.

Czesto´

sciami teoretycznymi tych grup beda odpowied-

nio p = 0.2 oraz q = 1 − p = 0.8. Otrzymujemy

χ

2

=

(n

1

− np)

2

np

+

(n

2

− nq)

2

nq

=

2

2

20

+

2

2

80

=

1

4

Mamy tu dwie grupy, tj.

r

= 2; rozpatrujemy

rozk lad χ

2

o jednym stopniu swobody. Z tablic

χ

2

odczytujemy, ˙ze P



χ

2

≥ 6.6



= 0.01, a wiec

prawdopodobie´

nstwo, ˙ze warto´

c χ

2

bedzie niem-

niejsza od

1
4

, jest znacznie wieksze od 0.01; nie

ma wiec podstaw do odrzucenia hipotezy H

0

.

background image

3. Empiryczny rozk lad cechy.

Za l´

o˙zmy, ˙ze cecha przyjmuje k wartosci x

i

,

i=1,...,k.

Przyjmujemy, ˙ze warto´

sci te sa uprzadkowane tak,

aby

x

min

= x

1

< x

2

< ... < x

k

= x

max

Liczbe jednostek zbiorowo´

sci, dla kt´

orych cecha

przyjmuje warto´

c x

i

, oznaczamy symbolem n

i

.

Oczywi´

scie mamy

k

X

i=1

n

i

= n

Je˙zeli poszczeg´

olnym warto´

sciom x

i

cechy przy-

porzadkowane sa liczebnosci n

i

to w ten spos´

ob

okre´

slony jest rozk lad empiryczny.

Zamiast liczebnosci n

i

stosuje sie r´

ownie˙z czesto´

sci

okre´

slone nastepujaco

w

i

= n

i

/n, i

= 1, ..., k

background image

k

X

i=1

w

i

= 1

Je˙zeli cecha przyjmuje du˙zo warto´

sci, traktuje sie

ja jako ciag la niezale˙znie od tego, czy z definicji
jest ciag la, czy skokowa.

W przypadku cechy

ciag lej okre´

slanie rozk ladu odbywa sie przez przy-

porzadkowanie liczebnosci (czestosci) odpowied-
nim przedzia lom warto´

sci cechy, a nie konkret-

nym jej warto´

sciom. Takie przedzia ly nazywamy

przedzia lami klasowymi.

Dystrybuanta empiryczna F

n

(x) nazywamy funkcje

okre´

slona na podstawie danych (x

i

, w

i

),i = 1, ..., k :

F

n

(x) =

0 dla x < x

1

P

i

s=1

w

s

dla x

i

≤ x < x

i+1

,

i

= 1, 2, ..., k − 1

1 dla x ≥ x

k

4. Twierdzenie (Gliwienki). Niech F

n

(x) bedzie dys-

trybuanta empiryczna w n - elementowej pr´

obie

background image

prostej wylosowanej z populacji, w kt´

orej zmienna

X

ma dystrybuante F (x) . Prawdopodobie´

nstwo,

˙ze ciag {F

n

(x)} jest jednostajnie zbie˙zny wzgle-

dem x (−∞ < x < ∞) zbie˙zny do dystrybuanty
teoretycznej F (x), r´

owna sie jednosci.

Twierdzenie Gliwienki mozna zapisa´

c w nastepu-

jacej postaci. Oznczamy

D

n

=

sup

−∞<x<∞

|F

n

(x) − F (x)|

Teza twierdzenia orzeka, ˙ze zachodzi r´

owno´

c

P



lim

n→∞

D

n

= 0



= 1

Oznaczamy przez Q

n

(λ) dystrybuante zmiennej

losowej D

n

(n)

1
2

:

Q

n

(λ) =

P



D

n

(n)

1
2

< λ



= P



D

n

< λ/

(n)

1
2



,

gdy λ > 0,

0, gdy λ ≤ 0

background image

Twierdzenie (Ko lmogorowa). Niech F

n

(x) bedzie

dystrybuanta empiryczna w n - elementowej pr´

obie

prostej wylosowanej z populacji, w kt´

orej zmienna

X

ma ciag la dystrybuante F (x) . W´

owczas za-

chodzi relacja

lim

n→∞

Q

n

(λ) =

Q

(λ) =

(

P

k=−∞

(−1)

k

exp



−2k

2

λ

2



,

gdy λ > 0

0, gdy λ ≤ 0

Test λ - Ko lmogorowa zbudowany jest w nastepu-

jacy spos´

ob. Hipoteza zerowa jest przypuszcze-

nie, ˙ze populacja ma ciag ly rozk lad okreslony dys-

trybuanta F

0

(x) :

H

0

: F (x) = F

0

(x) wobec H

1

: F (x) 6= F

0

(x)

Losujemy n - elementowa du˙za pr´

obe, a nastep-

nie okre´

slamy rozk lad empiryczny F

n

(x) . Miara

zgodnosci tych dw´

och dystrybuant jest statystyka

D

n

(x) oraz okre´

slony na jej podstawie rozk lad

graniczny Q (λ) . Je˙zeli prawdziwa jest hipoteza

background image

zerowa to w´

owczas statystyka ta nie powinna przy-

biera´

c duzych warto´

sci. Obszar krytyczny okre´

slony

jest zale˙zno´

scia:

P

(λ ≥ λ

α

) = α,

gdzie α jest poziomem istotnosci.

5. Przyk lad (J´

o˙zwiak, Podg´

orski - Statystyka od pod-

staw).

Jednostkowe koszty produkcji pewnego

wyrobu maja rozk lad normalny. W celu sprawdzenia
tego

przypuszczenia

dokonano

pr´

oby

prostej

o liczebnosci n = 200 :

i

Koszty jednostkowe

Liczba zak lad´

ow

1

2.50-3.50

5

2

3.50-4.50

10

3

4.50-5.50

35

4

5.50-6.50

80

5

6.50-7.50

50

6

7.50-8.50

10

7

8.50-9.50

10

P

200

background image

Na podstawie pr´

oby okreslono warto´

sci estyma-

tor´

ow: m, σ rozk ladu normalnego - x = 6.15, s =

1.216

Oblczenie statystyki D

n

podane jest w tabeli:

i

x

u

Φ (u)

w

i

F

n

(x)

D

n

1

3.50

-2.18

0.015

0.025

0.025

0.010

2

4.50

-1.36

0.087

0.050

0.075

0.012

3

5.50

-0.54

0.295

0.175

0.250

max

0.045

4

6.50

-0.29

0.614

0.400

0.650

0.036

5

7.50

1.11

0.867

0.250

0.900

0.033

6

8.50

1.93

0.973

0.050

0.950

0.023

7

9.50

2.76

0.997

0.050

1.00

0.003

Warto´

c statystyki λ - Ko lmogorowa wynosi: λ =

0.045 (200)

1
2

= 0.637. Dla α = 0.05 otrzymujemy

λ

α

= 1.36. Poniewa˙z λ < λ

α

nie ma podstaw do

odrzucenia hipotezy.

background image

18

Analiza danych: mierniki po lo˙zenia

i rozproszenia

1. ´

Srednia arytmetyczna w rozk ladzie empirycznym

nazywamy wyra˙zenie:

x

=

1

n

X

x

j

gdzie x

j

, j = 1, ..., n sa indywidualnymi obserwac-

jami w zbiorze danych a n jest liczba obserwacji.

Je˙zeli dysponujemy danymi przedstawionymi w

postaci szeregu rozdzielczego to w´

owczas

x

=

1

n

k

X

i=1

x

i

n

i

gdzie x

i

sa wyr´

o˙znionymi warto´

sciami w rozk ladzie,

za´

s n

i

odpowiednimi liczebno´

sciami klasowymi.

ownowa˙znie:

background image

x

=

k

X

i=1

x

i

w

i

´

Srednia arytmetyczna ma w lasno´

sci:

(a) xn =

P

n

j=1

x

j

(b)

P

n

j=1



x

j

− x



= 0

(c)

P

n

j=1



x

j

− C



2

osiaga minimum dla C = x

Przyk lad 1 (J´

o˙zwiak, Podg´

orski - Statystyka od

podstaw).

Sprawdzono 20 stron maszynopisu

znajdujac na nich nastepujace liczby b led´

ow: 0,

3, 1, 1, 2, 2, 0, 0, 3, 5, 0, 1, 2, 2, 1, 1, 0, 1, 1,

1.

background image

Liczba b led´

ow

Liczba stron

x

j

n

j

0

5

1

8

2

4

3

2

4

0

5

1

P

20

Liczba b led´

ow

x

j

0
1
2
3
4
5

P

Skumulowana liczba

Czesto´

c

stron n



x

j



stron w

j

5

0.25

13

0.40

17

0.20

19

0.10

19

0

20

0.05
1.00

Otrzymamy:

x

=

1

20


0 + 3 + 1 + 1 + 2 + 2 + 0 + 0

+3 + 5 + 0 + 1 + 2+

2 + 1 + 1 + 0 + 1 + 1 + 1


background image

Ale r´

ownie˙z:

x

=

1

20

0 × 5 + 1 × 8 + 2 × 4

+3 × 2 + 4 × 0 + 5 × 1

!

Przyk lad 2 (J´

o˙zwiak, Podg´

orski - Statystyka od

podstaw). Zmierzono czas obs lugi przy kasie skle-

powej 25 losowo wybranych klient´

ow, uzyskujac

dane: 15, 37, 34, 9, 61, 24, 56, 52, 6, 36, 21, 46,

86, 40, 74, 39, 48, 55, 73, 92, 43, 78, 67, 30, 29.

Przyjmujemy liczbe klas r´

owna 5

Czas obs lugi

Liczba klient´

ow

klienta (w s.)

n

i

x

0i

− x

1i

0-20

3

20-40

9

40-60

6

60-80

5

80-100

2

background image

Czas obs lugi

Skumulowana

klienta (w s.)

liczba klient´

ow

x

0i

− x

1i

n

(x

1i

)

0-20

3

20-40

12

40-60

18

60-80

23

80-100

25

Otrzymamy: x =

1

25

(15 + 37 + 34 + ... + 30 + 29)

=

1

25

1150 = 46.

Ale r´

ownie˙z

x

1

n

k

X

j=1

e

x

j

n

j

gdzie

e

x

j

jest ´

srodkiem j - tego przedzia lu kla-

sowego. Czyli mamy r´

ownie˙z

x

1

25

(10 × 3 + 30 × 9 + ... + 90 × 2) = 45.2

2. Mediana rozk ladu empirycznego me nazywamy

taka warto´

c cechy, ˙ze co najmniej po lowa jednos-

tek zbiorowo´

sci ma warto´

c cechy nie wieksza od

background image

niej i r´

ownocze´

snie co najmniej po lowa jednostek

ma warto´

c cechy nie mniejsza od tej warto´

sci.

Przyk lad 2. Czas obs lugi uporzadkowany rosnaco:

6, 9, 15, 21, 24, 29, 30, 34, 35, 37, 39, 40, 43, 46,

48, 52, 55, 56, 61, 67, 73, 74, 78, 86, 92. Numer

jednostki ´

srodkowej wynosi (25+1)/2=13, zatem

mediana jest me = x

13

= 43s.

W przypadku cechy o rozk ladzie ciag lym stosu-

jemy interpolacje:

me

= x

0m

+



n

2

− n (x

0m

)



h

m

n

m

przy czym x

0m

- dolna granica przedzia lu, w kt´

orym

znajduje sie mediana, h

m

, n

m

- odpowiednio: rozpi-

eto´

c i liczebno´

c przedzia lu mediany.

Mo˙zemy r´

ownie˙z skorzysta´

c ze wzoru:

me

= x

0m

+



1

2

− F

n

(x

0m

)



h

m

w

m

background image

gdzie F

n

(x

0m

) jest warto´

scia dystrybuanty em-

pirycznej dla dolnej granicy przedzia lu mediany.

Przyk lad 2.

x

0i

− x

1i

n

(x

1i

)

F

n

(x

1i

)

0-20

3

0.12

20-40

12

0.48

40-60

18

0.72

60-80

23

0.92

80-100

25

1.00

Mamy

n

2

=

25

2

= 12.5 oraz

me

= 40 + (12.5 − 12)

20

6

= 40 + 1.67 = 41.67s.

3. Kwantylem rzedu p (0 < p < 1) w rozk ladzie em-

pirycznym nazywamy taka warto´

c cechy k

p

, dla

kt´

orej - jako pierwszej - dystrybuanta empiryczna

spe lnia warunek

F

n

(k

p

) ≥ p

background image

Wz´

or interpolacyjny:

k

p

= x

0p

+

h

p − F

n



x

0p

i

h

p

w

p

przy czym x

0p

- dolna granica przedzia lu, w kt´

orym

znajduje sie warto´

c kwantyla, h

p

, n

m

- odpowied-

nio: rozpieto´

c i liczebno´

c przedzia lu kwantyla.

(a) kwartyle - kwantyle rzedu 0.25, 0.5, 0.75 (kwartyl

pierwszy - Q

1

,

kwartyl drugi - Q

2

,

kwartyl

trzeci - Q

3

(b) decyle - kwantyle rzedu 0.1, 0.2, .03,...,0.9

(oznaczane odpowiednio - D

1

, ..., D

9

)

(c) centyle

(percentyle)

-

kwantyle

rzedu

0.01, 0.02,...,0.99 (oznaczamy odpowiednio -

P

1

, ..., P

99

)

Przyk lad (czas obs lugi przy kasie sklepowej):

background image

Q

1

= k

0.25

= 20 + (0.25 − 0.12)

20

0.36

= 20 + 7.2 = 27.2

Q

3

= k

0.75

= 60 + (0.75 − 0.72)

20

0.20

= 60 + 3 = 63

Obliczenia na podstawie danych indywidualnych:

numer obserwacji = (25+1)/4=6.5 , Q

1

= x

7

=

30.

4. Dominanta do w rozk ladzie empirycznym nazy-

wamy warto´

c wystepujaca w tym rozk ladzie na-

jcze´

sciej, tzn. warto´

c, kt´

orej odpowiada najwiek-

sza liczebno´

c (czesto´

c).

Przyk lad (czas obs lugi przy kasie sklepowej): dom-

inanta znajduje sie w przedziale 20-40 s.

Wz´

or aproksymacyjny:

background image

do

= x

0d

+

n

d

− n

d−1

n

d

− n

d−1



+ n

d

− n

d+1



h

d

przy czym x

0d

- dolna granica przedzia lu, w kt´

orym

znajduje sie dominanta, h

d

- rozpieto´

c tego

przedzia lu, n

d

, n

d−1

, n

d+1

- odpowiednio liczebno´

c

przedzia lu, w kt´

orym wystepuje dominanta, przedzia lu

poprzedniego i przedzia lu nastepnego. Na pod-

stawie tego wzoru

do

= 20 +

9 − 3

(9 − 3) + (9 − 6)

20

= 20 + 13.33 = 33.33s.

19

Analiza danych: miary zr´

o˙znicowania

cechy

1. Wariancja dla danych x

1

, ..., x

n

nazywamy wyra˙zenie

background image

s

2

=

1

n −

1

n

X

i=1

(x

i

− x)

2

gdzie x jest ´

srednia arytmetyczna.

Mamy:

s

2

=

1

n −

1


n

X

i=1

x

2

i

n

X

i=1

x

i

2

/n


=

1

n −

1

n

X

i=1

x

2

i

− n (x)

2

W przypadku szeregu rozdzielczego:

s

2

=

1

n −

1

n

X

i=1

(x

i

− x)

2

n

i

oraz

background image

s

2

=

1

n −

1

n

X

i=1

x

2

i

n

i

− n (x)

2

Przyk lad (czas obs lugi klient´

ow przy kasie):

s

2

=

1

25−1

"

(15 − 46)

2

+ (37 − 46)

2

+ ...

+ (29 − 46)

2

#

=

548.3

czyli s = 23.42.

Na podstawie szeregu rozdzielczego otrzymamy:
s

2

= 542.67 oraz s = 23.3.

2. Niech x bedzie obserwacja nale˙zaca do zbioru danych

o ´

sredniej x oraz odchyleniu standardowym s.

Warto´

scia standaryzowana odpowiadajaca obserwacji

x

jest warto´

c u otrzymana z przekszta lcenia

u

=

x − x

s

Mamy

background image

(a)

u

= 0

(b)

s

2

u

= 1

W praktyce przyjmuje sie czesto za nietypowe te

warto´

sci, dla kt´

orych |u| > 3.

Dla standaryzowanego rozk ladu normalnego mamy,

˙ze P (−3 < U < 3) = 0.99730

3. Wsp´

o lczynnikiem zmienno´

sci V jest

V

=

s

x

4. Rozstepem jest r´

o˙znica miedzy najwieksza i na-

jmniejsza warto´

scia cechy w zbiorze.

background image

5. Rozstep (przedzia l) ´

cwiartkowy to r´

o˙znica miedzy

kwartylem trzecim i pierwszym, czyli Q

3

− Q

1

.

Przyk lad (czas obs lugi...): rozstep - 92-6 =86,

przedzia l ´

cwiartkowy - 61-30=31.

20

Analiza danych: asymetria rozk ladu

empirycznego

1. M´

owimy, ˙ze rozk lad empiryczny jest symetryczny,

je´

sli ka˙zdej warto´

sci cechy x

i

< x

odpowiada

warto´

c x

j

taka, ˙ze

x − x

i

= x

j

− x

oraz n

i

= n

j

.

background image

2. Trzeci moment centralny zdefiniowany jest nastepu-

jaco:

M

3

=

1

n

n

X

i=1

(x

i

− x)

3

oraz dla szeregu rozdzielczego:

M

3

=

1

n

n

X

i=1

(x

i

− x)

3

n

i

Je˙zeli rozk lad empiryczny jest symetryczny to

owczas M

3

= 0. Je˙zeli M

3

<

0 to w´

owczas

rozk lad empiryczny ma asymetrie lewostronna.
Je˙zeli M

3

>

0 to w´

owczas mamy do czynienia z

asymetria prawostronna (wyd lu˙zone prawe ramie
rozk ladu).

3. Wsp´

o lczynnikiem asymetrii jest wielko´

c:

A

=

M

3

s

3

background image

Przyk lad

(rozk lad

liczby

b led´

ow

na

stronie

maszynopisu):

x

i

n

i

x

i

− x

(x

i

− x)

3

n

i

0

5

-1.35

-12.302

1

8

-0.35

-0.343

2

4

0.65

1.099

3

2

1.65

8.984

4

0

2.65

0

5

1

3.65

48.627

P

20

46.065

Odchylenie standardowe wynosi s = 1.268, czyli

mamy: M

3

= 46.065/20 = 2.303 oraz A =

2.303/ (1.628)

3

= 0.534.

4. Wsp´

o lczynnik sko´

sno´

sci zdefiniowany jest nastepu-

jaco:

A

1

= (x − do) /s

Je˙zeli A

1

= 0 to w´

owczas rozk lad empiryczny jest

symetryczny.

background image

5. Pozycyjny wsp´

o lczynnik asymetrii:

A

3

=

(Q

2

− me) − (me − Q

1

)

2Q

Je˙zeli asymetria rozk ladu jest lewostronna, to

owczas A

3

<

0, odwrotna sytuacja jest dla

asymetrii prawostronnej.

21

Analiza danych:

koncentracja

warto´

sci cechy

1. Przez koncentracje rozumie sie nier´

ownomierne

rozdysponowanie lacznej sumy warto´

sci cechy w

badanej zbiorowo´

sci pomiedzy jednostki tworzace

ta zbiorowo´

c.

background image

2. Przyk lad (J´

o˙zwiak, Podg´

orski - Statystyka od pod-

staw):

PGR (w ha)

CZG

LP (w ha)

CZ LP

0.5-2

0.296

918 914

0.058

2-5

0.276

2 377 556

0.150

5-7

0.123

2 049 968

0.130

7-10

0.129

2 856 810

0.181

10-15

0.107

3 526 142

0.223

>

15

0.069

4 067 453

0.258

P

1.00

15 769 843

1.00

Przy czym: PGR - powierzchnia gospodarstwa

rolnego, CZG - czesto´

c gospodarstw, LP - laczna

powierzchnia, CZ LP - czesto´

c lacznej powierzchni

Wysokiemu odsetkowi gospodarstw o niskiej

powierzchni odpowiada relatywnie niski ich udzia l

w lacznej powierzchni wszystkich gospodarstw.

background image

i

GGPG

SCZG

SCZP

1

2

0.296

0.058

2

5

0.572

0.208

3

7

0.695

0.338

4

10

0.824

0.519

5

15

0.931

0.642

6

1.00

1.00

przy czym GGSP - g´

orna granica powierzchni gospo-

darstwa, SCZG - skumulowana czesto´

c gospo-

darstw, SCZP - skumulowana czesto´

c powierzchni.

Na podstawie powy˙zszej tabeli wykre´

slamy krzywa

koncentracji Lorenza.

Jako miare koncentracji stosujemy wsp´

o lczynnik

Giniego: K = 2T = 1 − 2P, przy czym T jest

polem pod przekatna wykresu, natomiast P jest

polem pod krzywa koncentracji. Przy braku kon-

centracji mamy K = 0. Z oblicze´

n mamy 2P =

0.523,K=1-0.523=0.477. ´

Swiadczy to o do´

c sil-

nej koncentracji powierzchni indywidualnych gospo-

darstw rolnych.

background image

22

Analiza szereg´

ow czasowych: ad-

dytywny model tendencji rozwo-

jowej

1. Klasyczny liniowy model tendencji rozwojowej

Y

t

= α

2

t

+ α

1

+ ε

t

.

przy czym

E

t

) = 0,

D

2

t

) = σ

2

,

cov

t

, ε

s

) = 0,

je˙zeli t 6= s.

2. Addytywny liniowy model tendencji rozwojowej

Y

t

= α

2

t

+ α

1

+ β

1

Q

t1

+ β

2

Q

t2

3

Q

t3

+ β

4

Q

t4

+ ε

t

background image

przy czym ε

t

spe lnia warunki jak w punkcie (1).

Ponadto β

i

sa parametrami za´

s Q

ti

sa zmiennymi

niezale˙znymi okre´

slonymi nastepujaco: przyjmuja

warto´

sci sta le r´

owne 1 dla poszczeg´

olnego podokresu.

Zak ladamy, ˙ze wystepuja 4 podokresy cyklu.

3. Wprowadzajac oznaczenia

X

=


















t

Q

t1

Q

t2

Q

t3

Q

t4

1

1

1

0

0

0

1

1

0

1

0

0

3

1

0

0

1

0

4

1

0

0

0

1

5

1

1

0

0

0

6

1

0

1

0

0

-

-

-

-

-

-

n −

1

1

0

0

1

0

n

1

0

0

0

1


















background image

γ

=









α

2

α

1

β

1

β

2

β

3

β

4









,

y

=









Y

1

Y

2

.
.
.

Y

n









Ξ =









ε

1

ε

2

.
.
.

ε

n









ownania n eksperyment´

ow pr´

oby prostej mo˙zemy

zapisa´

c

y

= Xγ + Ξ

4. Estymacja parametr´

ow modelu: γ na podstawie

n

- elementowej pr´

oby prostej.

Zauwa˙zmy, ˙ze

background image

macierz X nie jest pe lnego rzedu. Wynika to z
tego, ˙ze

4

X

i=1

Q

ti

= 1

Dlatego nie jest mo˙zliwe okre´

slenie macierzy



X

T

X



−1

kt´

ora wymagamy gdy problem estymacji parametr´

ow

rozwiazujemy metoda najmniejszych kwadrat´

ow.

Istnieja dwie metody ominiecia tego problemu.

5. W pierwszej procedurze eliminujemy jedna ze zmi-

ennych z zale˙zno´

sci

4

X

i=1

Q

ti

= 1

np.

Q

t1

= 1 −

4

X

i=2

Q

ti

background image

owczas r´

ownanie modelu bedzie mia lo posta´

c:

Y

t

= α

2

t

+ (α

1

+ β

1

) + (β

2

− β

1

) Q

t2

+ (β

3

− β

1

) Q

t3

+ (β

4

− β

1

) Q

t4

+ ε

t

oraz r´

ownania eksperyment´

ow pr´

oby prostej

y

=

f

X

e

γ

+ Ξ

przy czym

f

X

=


















t

Q

t2

Q

t3

Q

t4

1

1

0

0

0

1

1

1

0

0

3

1

0

1

0

4

1

0

0

1

5

1

0

0

0

6

1

1

0

0

-

-

-

-

-

n −

1

1

0

1

0

n

1

0

0

1


















background image

oraz

e

γ

=







α

2

α

1

+ β

1

β

2

− β

1

β

3

− β

1

β

4

− β

1







Macierz

f

X

jest

pe lnego

rzedu

wiec

estymacja parametr´

ow

e

γ

metoda najmniejszych

kwadrat´

ow jest wykonalna. Otrzymamy

e

Γ =



f

X

T

f

X



−1

f

X

T

y

owczas

e

y

t

= a

2

+ (a

1

+ b

1

) t + (b

2

− b

1

) Q

t2

+ (b

3

− b

1

) Q

t3

+ (b

4

− b

1

) Q

t4

przy czym

background image

c

=







a

2

a

1

+ b

1

(b

2

− b

1

)

(b

3

− b

1

)

(b

4

− b

1

)







jest realizacja estymatora

e

Γ.

Ponadto

S

2

e

=



T



n −

5

gdzie



= y −

e

y

jest estymatorem wariancji σ

2

sk ladnika losowego.

S

2

e



f

X

T

f

X



−1

jest estymatorem wariancji estymatora

e

Γ.

background image

Prognozowanie w oparciu o addytywne modele
tendecji rozwojowej bazuje na zale˙zno´

sci:

Y

T

= a

2

T

+ (a

1

+ b

1

) + (b

2

− b

1

) Q

T 2

+ (b

3

− b

1

) Q

T 3

+ (b

4

− b

1

) Q

tT

kt´

ora mo˙zna r´

ownie˙z zapisa´

c

Y

T

= c

T

x

T

przy czym

x

T

=







T
1
Q

T 2

Q

T 3

Q

T 4







B lad prognozy okre´

slamy na podstawie wzoru:

S

(Y

T

) = S

e



1 + c

T

T



f

X

T

f

X



−1

c

T



1
2

background image

6. Druga procedura wyznaczania parametr´

ow mod-

elu bazuje na metodzie najmniejszych kwadrat´

ow,

ale dla zadania z ograniczeniami.

Ograniczenie jest nastepujace:

d

T

γ

= 0

gdzie

d

=









0
0
1
1
1
1









Zadanie optymalizacji ma posta´

c:

min

γ



1

2

(y − Xγ)

T

(y − Xγ)



p. o. d

T

γ

= 0

background image

A˙zeby rozwiaza´

c to zadanie nale˙zy rozwiaza´

c uk lad

owna´

n:

"

X

T

X

d

d

T

0

# "

γ
λ

#

=

"

X

T

y

0

#

gdzie λ jest liczba reprezentujaca wsp´

o lczynnik

Lagrange’a.

Mo˙zna pokaza´

c, ˙ze γ bedaca rozwiazaniem tego

zadania okre´

slone jest zale˙zno´

scia:

γ

=



X

T

X

+ dd

T



−1

X

T

y

7. Przyk lad (J´

o˙zwiak Podg´

orski - Statystyka od pod-

staw): Dane dotyczace po low´

ow ryb podane sa w

tabeli:

Lata\Kwarta ly

I

II

III

IV

1987

8

11

16

10

1988

10

12

18

13

1989

12

15

19

12

1990

13

14

22

15

background image

Korzystajac

z

pierwszej

metody

okre´

slania

wsp´

o lczynnik´

ow modelu addytywnego otrzymu-

jemy uk lad r´

owna´

n:

Y

t

=

e

γ

1

t

+

e

γ

2

+

e

γ

3

Q

t2

+

e

γ

4

Q

t3

+

e

γ

5

Q

t4

+ ε

t

,

t

= 1, ..., 16

Mamy:

y

=









8

11
16

...

22
15









,

f

X

=









1

1

0

0

0

2

1

1

0

0

3

1

0

1

0

...

... ... ... ...

15

1

0

1

0

16

1

0

0

1









W wyniku zastosowania metody najmniejszych

kwadrat´

ow otrzymujemy:

background image

e

γ

=







0.3875
8.0375
1.8625
7.2250
0.5875







Ponadto

e

y

=







8.425

10.675
16.425

...

14.825







,



=







−0.425

0.325

−0.425

...

0.175







s

2

e

=

8.450

11

= 0.768182

Prognoza na kolejne dwa kwarta ly jest nastepu-
jaca:

Y

17

= 0.3875 × 17 + 8.0375 = 14.625

Y

18

= 0.3875 × 18 + 8.0375 + 1.8625 = 16.875

background image

B ledy prognoz wynosza odpowiednio:

S

(Y

17

) = 0.876 (1 + 0.5625)

1
2

= 1.095

S

(Y

18

) = 0.876 (1 + 0.5625)

1
2

= 1.095

Stosujac druga metode okre´

slania parametr´

ow mod-

elu korzystamy bezpo´

srednio z modelu

Y

t

= α

2

t

+ α

1

+ β

1

Q

t1

+ β

2

Q

t2

3

Q

t3

+ β

4

Q

t4

+ ε

t

W celu estymacji parametr´

ow rozwiazujemy uk lad

owna´

n














1496 136 28 32 36 40 . 0

136

16

4

4

4

4

.

0

28

4

4

0

0

0

.

1

32

4

0

4

0

0

.

1

36

4

0

0

4

0

.

1

40

4

0

0

0

4

.

1

.

.

.

.

.

.

.

.

0

0

1

1

1

1

.

0
























α

2

α

1

β

1

β

2

β

3

.

λ











=

background image











2016

220

43
52
75

.

0











Macierz

X

T

X

+ dd

T

=









1496 136 28 32 36 40

136

16

4

4

4

4

28

4

5

1

1

1

32

4

1

5

1

1

36

4

1

1

5

1

40

4

1

1

1

5











X

T

X

+ dd

T



−1

=









.

0031

−.0026

.

0047

−.0026

.

3508

−.1023

.

0047

−.1023

.

2570

.

0016

−.0758

.

0023

−.0016 −.0492 −.0023
−.0047 −.0227 −.0070

background image

.

0016

−.0016

−.0047

−..0758 −..0492 −.0027

.

0023

−.0023

−.0070

.

2508

−.0008

−.0023

−.0008

.

2508

.

0023

−.0023

.

0023

.

02570









X

T

y

=









2016

220

43
52
75
50









Czyli realizacja γ wynosi









0.3875

10.4563

−2.4188
−0.5563

4.8063

−1.8313









i zgadza sie z warto´

sciami okre´

slonymi poprzednia

metoda.


Wyszukiwarka

Podobne podstrony:
14 Wnioskowanie statystyczne w Nieznany (2)
analiza wynikow w statystyce id Nieznany (2)
Analizowanie procesow technolog Nieznany (2)
analizy 2 id 62051 Nieznany
analiza 6 1 id 584986 Nieznany (2)
1d analiza interasariuszy, pro Nieznany
Lab 03 Analiza obwodu elektrycz Nieznany
Cw 5 10 Analiza tolerancji i od Nieznany
Analiza algorytmow ukrywania w Nieznany
analiza 3 id 59700 Nieznany (2)
,analiza matematyczna 2, elemen Nieznany (2)
1 Analiza kinematyczna manipula Nieznany (2)
WNIOSKOWANIE STATYSTYCZNE 12.10.2013, IV rok, Ćwiczenia, Wnioskowanie statystyczne
zadanie o analizie struktury, statystyka i demografia-Hnatyszyn-Dzikowska ćwiczenia

więcej podobnych podstron