Statystyka SUM w4

background image

Statystyka II-4

1

Testowanie hipotez statystycznych

(1)

• Drugim (obok teorii estymacji) ważnym działem

wnioskowania statystycznego jest testowanie

hipotez statystycznych, obejmu-jące zasady i

metody sprawdzania określonych przypuszczeń

(założeń), dotyczących parametrów lub postaci

rozkładu cech statystycznych populacji

generalnej na podstawie wyników z próby.

Hipotezą statystyczną nazywamy każdy sąd o

zbiorowości generalnej, wydany bez

przeprowadzenia badania całkowitego.

Prawdziwość hipotezy statystycznej orzeka się na

podstawie próby losowej.

• Hipotezy mogą być parametryczne, gdy dotyczą

wartości odpowiednich parametrów

statystycznych populacji generalnej, takich jak

wartość przeciętna, wariancja czy wskaźnik

struktury, lub nieparametryczne, gdy dotyczą np.

postaci rozkładu cechy statystycznej,

współzależności cech lub losowości próby.

background image

Statystyka II-4

2

Testowanie hipotez statystycznych

(2)

Hipotezą zerową H

0

nazywamy hipotezę sprawdzaną

(testowaną, weryfikowaną).

Hipotezą alternatywną H

1

nazywamy hipotezę, którą

jesteśmy skłonni przyjąć, gdy odrzucamy hipotezę H

0

.

Test statystyczny jest to reguła postępowania, która

przyporządkowuje wynikom próby losowej decyzję

przyjęcia lub odrzucenia hipotezy H

0

.

Bląd I rodzaju polega na odrzuceniu hipotezy H

0

, mimo

że jest ona prawdziwa.

Poziomem istotności  nazywamy prawdopodobieństwo

popełnienia błędu I rodzaju. Wartości  są bliskie zera i

na ogół są równe 0,01; 0,02; 0,05; 0,1.

Bląd II rodzaju polega na przyjęciu hipotezy H

0

, gdy

jest ona fałszywa. Prawdopodobieństwo popełnienia

tego błędu oznacza się przez . Dobry test statystyczny

powinien mieć tę własność, że  również powinno być

bliskie zera.

background image

Statystyka II-4

3

Testowanie hipotez statystycznych

(3)

• W statystycznej kontroli jakości (SKJ)  określane jest

często jako ryzyko producenta,  zaś jako ryzyko
odbiorcy. Wartości  i  są wzajemnie powiązane i
zmniejszanie jednej z nich powoduje zwiększenie
drugiej.

• Pewnym kompromisem są tzw. testy istotności, które

dla zadanego z góry poziomu istotności a zapewniają
możliwie najmniejszą wartość prawdopodobieństwa .

Sprawdzianem hipotezy nazywamy taką statystykę T

(o znanym rozkładzie), której wartość t

e

, policzona na

podstawie próby losowej, pozwala na podjecie decyzji,
czy odrzucić hipotezę H

0

. Dla hipotez parametrycznych

sprawdzianami są estymatory odpowiednich
parametrów, natomiast dla hipotez nieparametrycznych
rolę sprawdzianów pełnią mierniki rozbieżności między
rozkładem empirycznym a teoretycznym,
sformułowanym w hipotezie H

0

.

background image

Statystyka II-4

4

Testowanie hipotez statystycznych

(4)

Ilustracja graficzna wielkości  i 

background image

Statystyka II-4

5

Testowanie hipotez statystycznych

(5)

Zbiorem krytycznym Z nazywamy zbiór tych

wartości sprawdzianu hipotezy, które
przemawiają za odrzuceniem hipotezy H

0

.

• Zbiór Z może być w zależności od postaci

hipotezy alternatywnej zbiorem
jednostronnym
(prawostronnym lub
lewostronnym) albo zbiorem dwustronnym.
Mówimy wtedy również, że test statystyczny
jest jednostronny (prawostronny, lewostronny)
lub dwustronny. Rozkład sprawdzianu
hipotezy określa, z jakich tablic należy
odczytać wartość krytyczną t

wyznaczającą

zbiór Z, a zatem zbiór Z zależy również od
liczebności próby n, od tego, czy znamy
parametry (m lub ) w zbiorowości generalnej
oraz od poziomu istotności .

background image

Statystyka II-4

6

Testowanie hipotezy o wartości

przeciętnej (1)

• Konstrukcję testu statystycznego omówimy na

przykła-dzie. Zakłada się, że długość życia

opon ma rozkład

N(m,). Producent twierdzi, że wartość

przeciętna tej charakterystyki jest równa 50

tys. km. Na podstawie 100 losowo wybranych

opon otrzymano = 45 tys. km i

s = 8 tys. km. Czy na poziomie istotności

=0,05 można uważać, że producent ma

rację?

• 1

o

Sformułowanie hipotezy H

0

i H

1

W testach istotności hipoteza H

0

jest hipotezą

„o równoś-ci”. Hipoteza alternatywna H

1

może

być prostym zaprzeczeniem H

0

albo hipotezą

„o większości” lub „o mniejszości”. W tym

przypadku:

H

0

: m = 50

H

1

: m 50

• W testach istotności wartość  jest z góry

zadana

x

background image

Statystyka II-4

7

Testowanie hipotezy o wartości

przeciętnej (2)

2

o

Zakładając, że długość życia opon ma

rozkład N(m,) wybór sprawdzianu hipotezy
zależy od liczebności próby n oraz od tego, czy
parametr w zbiorowości generalnej jest
znany: jeśli

jest znane i n30 lub
jest znane i n>30 lub
jest nieznane i n>30, ale wówczas   S

to sprawdzianem hipotezy H

0

jest statystyka:

o rozkładzie N(0,1).

• Gdy jest nieznane i n 30, to sprawdzianem

hipotezy jest

o rozkładzie Studenta z (n-1)

st.swobody

n

m

X

T

1

1

n

S

m

X

T

n

T

e

=(45-

50)/8·100=-6,25

background image

Statystyka II-4

8

Testowanie hipotezy o wartości

przeciętnej (3)

3

o

Wyznaczanie zbioru krytycznego

Wartość krytyczną t

odczytujemy w danym

przykładzie z tablic funkcji (t) w ten sposób,
że przy zbiorze dwustron-nym (t

)=(1- )/2, a

przy jednostronnym (t

)=1/2- . Jeżeli relacja

wyznaczająca zbiór krytyczny jest spełniona,
czyli wartość t

wpada w zbiór krytyczny, to

hipotezę H

0

należy odrzucić. W przeciwnym

przypadku nie ma podstaw do odrzucenia H

0

.

W przypadku przyjęcia sprawdzianu hipotezy
T

n-1

wartość krytyczną t

odczytujemy z tablic

rozkładu Studenta dla n-1 stopni swobody i:
a)P(t

)=  przy zbiorze jednostronnym;

b) P(t

)= 2 przy zbiorach dwustronnych. W

przykładzie H

1

: m  50, więc zbiór krytyczny

jest dwustronny.

background image

Statystyka II-4

9

Testowanie hipotezy o wartości

przeciętnej (4)

Zbiory krytyczne
w zależności od
postaci hipotezy
alternatywnej

background image

Statystyka II-4

10

Testowanie hipotez

parametrycznych

• W przypadku testowania hipotezy H

0

: m = m

0

wobec

hipotezy alternatyw-nej postaci H

1

: m  m

0

można

podejmować decyzję o odrzuceniu (lub nie) H

0

na

podstawie przedziału ufności wyznaczonego dla

parametru m na poziomie ufności l-.
Jeśli wartość m

0

wpada do przedziału ufności, to nie ma

podstaw do odrzucenia H

0

; jeśli nie, to H

0

należy odrzucić,

ponieważ zbiór leżący poza przedziałem ufności jest

zbiorem krytycznym.

• Korzystając z gotowych pakietów statystycznych, takich

jak np. „Statgra-phics", otrzymujemy wśród wyników, na

wydrukach, wartość określaną jako „P-value". Wartość ta

jest równa prawdopodobieństwu zajścia odpowiednich

zdarzeń: a) P

V

= P(T>t

e

) przy testach dwustronnych,

b) P

V

= P(T>t

e

) przy testach prawostronnych, c) P

v

=P(T<

-t

e

) przy testach lewostronnych, gdzie T — oznacza

sprawdzian hipotezy, t

e

wartość sprawdzianu T

policzoną na podstawie wyników z próby. Jeśli wartość

obliczonego prawdopodobieństwa P jest nie większa od

zadanego poziomu istotności  (P

v

 ), to hipotezę H

0

należy odrzucić na korzyść odpowiedniej hipotezy

alternatywnej. W przeciwnym wypadku, gdy

P

v

> , nie ma podstaw do odrzucenia H

0

.

background image

Podsumowanie przykładu

• W rozpatrywanym przykładzie H

1

: m ≠ 50,

więc zbiór krytyczny jest dwustronny.
Sprawdzianem hipotezy jest
(t

) = (1 – 0,05)/2 = 0,95/2 = 0,475

stąd t

= 1,95

• W przykładzie wyznaczyliśmy wartość t

e

=

-6,25. Wynika stąd, że t

e

wpada w zbiór

krytyczny, należy zatem odrzucić hipotezę H

0

i

w konsekwencji przyjąć hipotezę alternatywną
H

1

. Zatem producent opon nie ma racji

twierdząc, że przeciętna długość życia opon
wynosi 50 tys. km.

Statystyka II-4

11

background image

Podsumowanie

• W przypadku testowania hipotezy H

0

: m

≠ m

0

można podejmować decyzję o

odrzuceniu (lub nie) H

0

na podstawie

przedziału ufności wyznaczonego dla
parametru m na poziomie ufności 1 - .
Jeśli wartość m

0

wpada do przedziału

ufności, to nie ma podstaw do
odrzucenia H

0

; jeśli nie, to H

0

należy

odrzucić, ponieważ zbiór leżący poza
przedziałem ufności jest zbiorem
krytycznym.

Statystyka II-4

12

background image

P-value

• Korzystając z gotowych pakietów statystycznych, np.

pakietu „Statistica”, na wydrukach wyników
otrzymujemy wartość określaną jako „P-value”. Wartość
ta jest równa prawdopodobieństwu zajścia odpowiednich
zdarzeń:

a) P

v

= P(|T| > t

e

) przy testach dwustronnych,

b) P

v

= P(T > t

e

) przy testach prawostronnych,

c) P

v

= P(T < -t

e

) przy testach lewostronnych,

gdzie T – oznacza sprawdzian hipotezy, t

e

–wartość

sprawdzianu T policzoną na podstawie wyników z próby.
Jeśli wartość obliczonego prawdopodobieństwa P jest
nie większa od zadanego poziomu istotności  (P

v

),

to hipotezę H

0

należy odrzucić na korzyść odpowiedniej

hipotezy alternatywnej. W przeciwnym przypadku, gdy
P

v

> , nie ma podstaw do odrzucenia H

0

.

Statystyka II-4

13

background image

Testowanie hipotezy o

równości dwóch wartości

przeciętnych

• Dane są dwie zbiorowości generalne o

rozkładach normalnych N(m

1

, 

1

) i N(m

2

,

2

). Chcemy zweryfikować hipotezę H

0

:

m

1

= m

2

wobec hipotezy H

1

: m

1

m

2

(lub

H

1

: m

1

< m

2

albo H

1

: m

1

> m

2

). Niech n

1

,

n

2

oznaczają wielkości prób prostych,

wylosowanych z każdej zbiorowości , a
oraz oznaczają
odpowiednio średnie arytmetyczne i
wariancje z prób.

Statystyka II-4

14

2

1

, X

X

2

)

2

(

2

)

1

(

S

i

S

background image

Testowanie hipotezy o

równości dwóch wartości

przeciętnych (2)

• W zależności od założeń

dotyczących zbiorowości
generalnych oraz od liczebności
prób, sprawdzian hipotezy H

0

ma

różną postać i jest związany z
rozkładem normalnym lub
rozkładem Studenta.

Statystyka II-4

15

background image

Testowanie hipotezy o

równości dwóch wartości

przeciętnych (3)

• Jeżeli

1

,

2

znane i n

1

≤ 30, n

2

≤ 30 lub

1

,

2

znane i n

1

> 30, n

2

> 30 lub

1

,

2

nieznane i n

1

> 30, n

2

> 30 i

przyjmujemy, że

, to

sprawdzian hipotezy ma postać:

Statystyka II-4

16

2

)

2

(

2

2

\

2

)

1

(

2

1

,

S

S

2

2

2

1

2

1

2

1

n

n

X

X

T

Rozkład statystyki przy
założeniu prawdziwości
H

0

, jest N(0, 1).

background image

Testowanie hipotezy o równości

dwóch wartości przeciętnych (4)

• W przypadku, gdy s

1

, s

2

nieznane, lecz s

1

=

s

2

i n

1

≤ 30, n

2

≤ 30, to korzystamy ze

sprawdzianu:

który, przy założeniu prawdziwości H

0

, ma

rozkład Studenta o (n

1

+ n

2

2) stopniach

swobody.

• Dalszy tok postępowania związanego z

testowaniem H

0

: m

1

= m

2

przebiega tak samo

jak przy testowaniu hipotezy o jednej średniej.

Statystyka II-4

17

background image

Testowanie hipotezy o równości

dwóch wartości przeciętnych (5)

Przykład. Stalowe obręcze produkowane są

na dwóch maszynach A i B. Kontroler jakości
uważa, że obręcze produkowane przez
maszynę A mają średnicę istotnie większą od
średnicy obręczy produkowanych przez
maszynę B. Zakładamy, że rozkłady średnic
obręczy dla maszyn A i B są: N(m

1

, s

1

) i N(m

1

,

s

2

) oraz że s

1

= s

2

. Sprawdzić, czy kontroler

jakości ma rację, jeśli dla 10 losowo
wybranych obręczy z maszyny A otrzymano
x

1

= 1,051 i s

1

2

= 0,000397 a dla 15 obręczy z

maszyny B mamy x

2

= 1,036 i s

2

2

= 0,00021.

Poziom istotności a = 0,01.

Statystyka II-4

18

background image

Etapy konstrukcji testu

statystycznego

H

0

: m

l

= m

2

, H

1

: m

1

>m

2

, a = 0,01.

• Ponieważ s

1

, s

2

— nieznane, a n

1

= 10 < 30 i n

2

= 15 < 30, to sprawdzian hipotezy ma postać:

T ma rozkład Studenta o 23 stopniach

swobody i H

1

: m

1

> m

2

zbiór krytyczny jest

prawostronny i t

a

odczytujemy dla P (t

a

) = 2∙a

= 2∙0,01 = 0,02 i 23 stopni swobody z tablic
rozkładu Studenta, zatem t

a

= 2,5. Rysunek na

następnym slajdzie przedstawia zbiór
krytyczny i wartość t

e

.

Statystyka II-4

19

background image

Etapy konstrukcji testu

statystycznego

Statystyka II-4

20

Otrzymaliśmy t

e

< t

a

, czyli nie ma podstaw do

odrzucenia H

0

, więc kontroler jakości nie ma

racji twierdząc, że obręcze produkowane przez
maszynę A mają średnicę istotnie większą niż
obręcze produkowane przez maszynę B.

background image

Testowanie hipotezy o wskaźniku

struktury

• Niech populacja generalna ma rozkład dwupunktowy z

parametrem p oznaczającym prawdopodobieństwo, że badana
cecha przyjmie wyróżnioną wartość. Chcemy zweryfikować na
podstawie n-elementowej próby (n ≥ 100) hipotezę zerową
H

0

: p = p

0

.

• Hipoteza alternatywna może przyjmować jedną z

następujących postaci:

H

1

: p ≠ p

0

, H

1

: p < p

0

, lub H

1

: p > p

0

,

• Sprawdzianem hipotezy H

0

: p = p

0

jest statystyka:

Statystyka II-4

21

która przy prawdziwości H

0

ma w przybliżeniu rozkład N(0, 1),

przy czym X oznacza ilość jednostek o wyróżnionej wartości
cechy w n-elementowej próbie.

background image

Testowanie hipotezy o wskaźniku

struktury (2)

• Przykład: Firma zatrudniająca około

2000 pracowników ma zamiar budować
parking, ponieważ przypuszcza się, że
ponad 60% pracowników przyjeżdża do
pracy samochodem. Sprawdzić, czy
przypuszczenie jest prawdziwe, jeśli
spośród 250 losowo wybranych osób
206 przyjeżdża do pracy swoim
samochodem. Poziom istotności a =
0,02.

Statystyka II-4

22

background image

Testowanie hipotezy o wskaźniku

struktury (3)

• Test statystyczny jest następujący:
H

0

: p = 0,6, H

1

: p> 0,6, a = 0,02,

X określa ilość osób przyjeżdżających do pracy swoim

samochodem wśród 250 wylosowanych osób, czyli x =
206.

• Sprawdzianem hipotezy H

0

: p = p

0

dla wskaźnika

struktury jest statystyka:

Statystyka II-4

23

T – N(0, 1). Z uwagi na to, że H

1

: p > 0,6, zbiór krytyczny jest

prawostronny i t

a

znajdujemy z warunku F(t

a

) = 1/2 – 0,02 = 0,48,

więc t

a

= 2,05. Ponieważ t

e

> t

a

, zatem należy odrzucić H

0

na

korzyść H

1

, czyli przypuszczenie, że ponad 60% pracowników

przyjeżdża swoim samochodem, można uznać za prawdziwe.

background image

Testowanie hipotezy o dwóch

wskaźnikach struktury

• Zakładamy, że badana cecha ma w dwóch populacjach

rozkład dwupunktowy z parametrami p

1

i p

2

. Należy

zweryfikować hipotezę H

0

: p

1

= p

2

. Hipoteza

alternatywna może mieć postać H

1

: p

1

p

2

lub H

1

: p

1

>

p

2

lub H

1

: p

1

< p

2

.

• Z obu populacji losujemy próby proste o liczebności n

1

i

n

2

, przy czym obydwie próby muszą być duże, tzn. n

1

100 i n

2

≥ 100. Niech X

1

/n

1

i X

2

/n

2

oznaczają wskaźniki

struktury z pierwszej i drugiej próby. Sprawdzianem
hipotezy H

0

: p

1

= p

2

jest statystyka:

Statystyka II-4

24

background image

Testowanie hipotezy o dwóch

wskaźnikach struktury (2)

• Statystyka ta, przy założeniu prawdziwości

hipotezy H

0

, ma rozkład zbliżony do N(0, 1).

Sposób weryfikacji hipotezy będzie więc
identyczny jak w przypadku hipotezy o jednej
średniej.

• Przykład: Panuje przekonanie, że studenci

stacjonarni pewnej uczelni zdają lepiej egzamin ze
statystyki niż studenci zaoczni. Wylosowano w tym
celu grupę 100 osób na studiach stacjonarnych i
okazało się, że wśród nich 35 uzyskało ocenę
przynajmniej dobrą. Wśród 100 osób
wylosowanych z grupy studentów zaocznych
podobną ocenę uzyskało 16 osób. Czy rzeczywiście
studenci stacjonarni zdają lepiej egzamin ze
statystyki niż studenci zaoczni? Poziom istotności
a = 0,05.

Statystyka II-4

25

background image

Etapy budowy testu

statystycznego

• W zadaniu interesuje nas procent studentów,

którzy na egzaminie uzyskali ocenę
przynajmniej dobrą. Chcemy zweryfikować
hipotezę:

H

0

: p

1

= p

2

przeciwko H

l

: p

1

> p

2

,

przy czym indeks 1 odpowiada zbiorowości
studentów stacjonarnych, 2 zaś zbiorowości
studentów zaocznych.

• Z danych w zadaniu otrzymujemy:

Statystyka II-4

26

background image

Etapy budowy testu

statystycznego (2)

• Znajdujemy wartość t

e

sprawdzianu hipotezy:

Statystyka II-4

27

Ponieważ H

1

: p

1

> p

2

, więc zbiór krytyczny jest

prawostronny i t

a

spełnia równość F(t

a

) = 1/2 –

a = 0,45. Stąd t

a

= 1,65.

Otrzymaliśmy t

e

> t

a

, odrzucamy więc H

0

: p

1

=

p

2

na korzyść H

1

. Mamy zatem prawo sądzić,

że studenci stacjonarni zdają egzamin ze
statystyki lepiej niż studenci zaoczni.

background image

Testowanie hipotezy o

wariancji

• Niech cecha X ma w zbiorowości generalnej

rozkład N(m, s). Należy zweryfikować hipotezę
H

0

: s

2

= s

0

2

przeciwko

H

1

: s

2

> s

0

2

.

• Taką hipotezę alternatywną przyjmuje się

najczęściej, gdyż zwykle sytuacja, gdy wariancja
cechy w zbiorowości jest duża, jest niekorzystna.

• Jeśli m jest znane, to sprawdzian hipotezy H

0

ma

postać:

Statystyka II-4

28

Przy założeniu prawdziwości H

0

statystyka ta ma rozkład

2

o n

stopniach swobody.

background image

Testowanie hipotezy o

wariancji (2)

• Jeśli m jest nieznane, sprawdzianem hipotezy

H

0

jest:

Statystyka II-4

29

lub

Obydwie te statystyki mają rozkład

2

o (n - 1)

stopniach swobody. Z uwagi na postać H

1

relacja P

= P(

2

>

a

2

) = a wyznacza prawostronny zbiór

krytyczny, gdzie jest wartością krytyczną
odczytaną z tablic rozkładu

2

dla odpowiedniej

liczby stopni swobody i P = a.
Jeśli dla danej próby losowej relacja wyznaczająca
zbiór krytyczny jest spełniona, to H

0

należy

odrzucić na korzyść H

1

.

background image

Testowanie hipotezy o

wariancji (3)

Przykład: W zakładzie A otrzymano

następujące informacje o 16 pracownikach:

Statystyka II-4

30

Wiek pracowników

20-24

24-28

28-32

32-36

Liczba pracowników

4

6

4

2

 Zakładając, że wiek ma rozkład N(m, s)
czy można uważać, że wariancja wieku
jest większa niż 10, na poziomie istotności
a = 0,05?

background image

Testowanie hipotezy o

wariancji (4)

H

0

: s

2

= 10, H

1

: s

2

> 10, a = 0,05.

m jest nieznane, więc obliczamy s

2

Statystyka II-4

31

background image

Testowanie hipotezy o

wariancji (5)

• Z tablic rozkładu

2

dla 15 stopni

swobody i P = =a = 0,05 otrzymujemy

a

2

= 24,996.

• Ponieważ

e

2

= 23,8 < 24,996 =

a

2

,

więc relacja wyznaczająca zbiór
krytyczny nie jest spełniona, tzn. nie ma
podstaw do odrzucenia hipotezy H

0

. Nie

można zatem twierdzić, że wariancja
wieku jest większa niż 10.

• Opisany powyżej test stosuje się, gdy

liczebność próby jest n ≤ 30.

Statystyka II-4

32

background image

Testowanie hipotezy o

wariancji (6)

• Jeśli n > 30, sprawdzian hipotezy przyjmuje

jedną z poniższych postaci:

– jeśli m jest znane w zbiorowości generalnej, to:

Statystyka II-4

33

- jeśli m jest nieznane, wówczas:

Statystyka T ma rozkład zbliżony do N(0, 1), zatem
dalsze postępowanie jest identyczne jak w opisanych
wyżej testach istotności wykorzystujących statystyki o
rozkładzie N(0, 1).

background image

Testowanie hipotezy o

wariancji (7)

• Przykład: Zweryfikować hipotezę, że wariancja

wieku pracowników pewnego zakładu jest
większa niż 16, jeśli na podstawie 100-
elementowej próby pracowników otrzymano
odchylenie standardowe wieku równe 5 lat (a =
0,05).

• Etapy budowy testu są następujące:

1. H

0

:s

2

= 16, H

1

: s

2

> 16, a = 0,05.

2. Ponieważ n > 30 i m jest nieznane,
korzystamy ze sprawdzianu hipotezy postaci

Statystyka II-4

34

background image

Testowanie hipotezy o

wariancji (8)

• Obliczamy:

Statystyka II-4

35

3. Zbiór krytyczny jest prawostronny, zatem
t

a

odczytujemy dla F(t

a

= 1/2 – a = 0,45, t

a

=

1,65. Relacja t

e

= 3,64 > t

a

= 1,65 jest

spełniona, więc należy odrzucić H

0

, na

poziomie istotności 0,05 można zatem
uważać, że wariancja wieku jest większa niż
16.

background image

Testowanie hipotezy o dwóch

wariancjach

Statystyka II-4

36

Badamy dwie zbiorowości o rozkładzie normalnym N(m

1

,

s

1

) i N(m

2

, s

2

). Należy zweryfikować hipotezę:

H

0

: s

1

2

= s

2

2

przy H

1

: s

1

2

> s

2

2

.

Z obydwu populacji losuje się próby proste o liczebności n

1

i n

2

. Niech S

(1)

2

i S

(2)

2

oznaczają wariancję S

1

2

obliczoną dla

każdej z prób. Ze względu na postać hipotezy H

1

tak

numerujemy zbiorowości, aby S

(1)

2

> S

(2)

2

.

Sprawdzianem hipotezy jest statystyka:

o wartości empirycznej F

e

.

Statystyka ta ma rozkład F-Snedecora o r

1

= (n

1

– 1)
i r

2

= (n

2

– 1) stopniach swobody.

background image

Testowanie hipotezy o dwóch

wariancjach (2)

Statystyka II-4

37

Relacja wyznaczająca prawostronny zbiór
krytyczny jest postaci:
P(F > F

a

) = a,

gdzie F

a

odczytujemy z tablic rozkładu F-

Snedecora dla r

1

i r

2

stopni swobody.

Jeśli relacja ta jest spełniona, należy H

0

odrzucić, w przeciwnym wypadku nie ma
podstaw do odrzucenia H

0

.

Przedstawiony powyżej test wykorzystuje się
najczęściej do sprawdzenia prawdziwości
założenia, że s

1

= s

2

, które jest konieczne, aby

można było testować hipotezę o równości
wartości przeciętnych w dwóch populacjach,
gdy n

1

≤ 30,

n

2

≤ 30, s

1

i s

2

zaś — nieznane.

background image

Testowanie hipotezy o dwóch

wariancjach (3)

Statystyka II-4

38

Uwagi:
• Jeśli w zadaniach dane są wartości wariancji
S

2

, to wartości S

1

2

, z których korzystamy w

omawianym teście, wyznacza się z równości

• Jeśli w tablicy zawierającej wartości rokładu
F-Snedecora brakuje wartości dla pewnej
liczby stopni swobody r

1

lub r

2

, to odczytujemy

je dla najbliższej liczby stopni swobody, np. gdy
r

1

= 19, to odczytujemy dla r

1

= 20 (lub 18).

background image

Testowanie hipotezy o dwóch

wariancjach (4)

Statystyka II-4

39

Przykład: W dwóch firmach przewozowych
badano odległości przejazdów i otrzymano:
dla firmy A: wielkość próby — 15 przewozów i
odchylenie standardowe z próby — 158 km,
dla firmy B: wielkość próby — 10 przewozów i
odchylenie standardowe w tej próbie 283 km.
Czy można na poziomie istotności a = 0,05
uważać, że wariancje odległości przewozów w
obu firmach są takie same?

background image

Testowanie hipotezy o dwóch

wariancjach (5)

Statystyka II-4

40

Test statystyczny jest następujący:
1. H

0

: s

1

= s

2

, H

1

: s

1

> s

2

, a = 0,05.

2. Oznaczamy:
n

1

= 10 i s

(1)

2

= (283)

2

= 80089

n

2

= 15 i s

(2)

2

= (158)

2

= 24964

i otrzymujemy:

Z tablic rozkładu Snedecora dla P = 0,05 oraz
r

1

= 9 i

r

2

= 14 otrzymujemy F

a

= 2,65. Ponieważ F

e

>

F

a

, odrzucamy hipotezę H

0

, że wariancja

odległości przewozów w obu firmach jest
jednakowa.

background image

Statystyka II-4

41

Hipotezy nieparametryczne (1)

• Nieparametryczne testy istotności dzielimy na trzy

zasadnicze grupy: testy zgodności, testy

niezależności oraz testy losowości próby. Testy

nieparametryczne, w przeciwieństwie do testów

parametrycznych, mają tę zaletę, że nie wymagają

założeń w odniesieniu do postaci rozkładu cechy w

zbiorowości generalnej.

• Do najczęściej stosowanych testów nieparametrycznych

należy test zgodności chi-kwadrat (

2

). Test zgodności

2

służy do weryfikowania hipotezy, że obserwowana

cecha X w zbiorowości generalnej ma określony typ

rozkładu, np. dwumianowy, Poissona, normalny itd.

Poniżej podajemy kilka sposobów formułowania takiej

hipotezy:
a. H

0

: cecha X ma rozkład określony dystrybuantą F(x)

= F

0

(x).

b. H

0

: cecha X ma rozkład N(m,).

c. H

0

: cecha X ma rozkład N (100, 5).

d. H

0

: cecha X ma rozkład Poissona.

e. H

0

: cecha X ma rozkład Poissona z parametrem m =

2.

background image

Statystyka II-4

42

Hipotezy nieparametryczne (2)

• W celu jednoznacznego określenia rozkładu

teoretycznego (hipote-tycznego) w danej ich klasie
niejednokrotnie należy najpierw na pod-stawie próby
oszacować odpowiednie parametry. Dla zweryfikowania
hipotezy przedstawionej w b) należy oszacować m i w
d) parametr m; w c) i e) parametry są podane. W
omawianych przykładach hipoteza alternatywna jest
prostym zaprzeczeniem hipotezy zerowej. Test
zgodności

2

można stosować, jeśli:

1° dane pochodzą z dużej n-elementowej próby
wylosowanej w sposób niezależny,
2° dane są przedstawione w postaci szeregu
rozdzielczego o r przedziałach klasowych, o
liczebnościach przedziałów n

1

, n

2

,..., n

r

spełniających

warunek n

1

+ n

2

+...+ n

r

= n. Na ogół przyjmuje się, że

n

j

 5, j = l, 2,..., r,

3° rozkład hipotetyczny (sprecyzowany w H

0

) może być

zarówno rozkładem typu ciągłego, jak i skokowego.

background image

Statystyka II-4

43

Hipotezy nieparametryczne (3)

• Sprawdzianem hipotezy H

0

jest statystyka

• Statystyka ta ma, przy założeniu prawdziwości hipotezy H

0

,

rozkład 

2

o k = (r-s-1) stopniach swobody, przy czym s

oznacza liczbę parametrów, które należy wstępnie

wyznaczyć na podstawie próby; r — liczbę przedziałów

klasowych.

• We wzorze (*) p

i

oznacza prawdopodobieństwo, że cecha X

przyjmuje wartość należącą do i-tego przedziału klasowego

(gdy rozkład cechy jest zgodny z H

0

), np

i

, zaś oznacza liczbę

jednostek, które powinny znaleźć się w i-tym przedziale,

przy założeniu, że cecha ma rozkład zgodny z

hipotetycznym. Określa się je jako liczebności teoretyczne.

Wartość empiryczną statystyki (*) oznaczamy przez 

e

2

.

Statystyka 

2

jest miarą rozbieżności między rozkładem

empirycznym a teoretycznym, a zatem zbyt duże wartości

2

powodują odrzucenie H

0

. Z tego względu relacja

wyznaczająca zbiór krytyczny ma postać

gdzie 

2

oznacza wartość krytyczną odczytaną z tablic

dla k = r – s – 1 stopni swobody i P = a.

(*)

1

2

2

r

i

i

i

i

np

np

n

2

2

P

background image

Statystyka II-4

44

Test zgodności -Kołmogorowa (1)

• Test służy do weryfikowania hipotezy, że cecha

X ma w zbiorowości generalnej określony
rozkład typu ciągłego; najczęsciej jest to
rozkład normalny. Warunki dotyczące danych
z próby są takie same, jak w teście 

2

.

Hipotezy H

0

i H

1

formułuje się następująco:

H

0

: F(x) = F

0

(x)

H

1

: F(x)  F

0

(x)

Sprawdzian hipotezy ma postać:

F(x) oznacza dystrybuantę hipotetyczną
(teoretyczną), a F*(x) – dystrybuantę
empiryczną.

)

(

*

)

(

sup

x

F

x

F

D

D

n

x

n

n

background image

Statystyka II-4

45

Test zgodności -Kołmogorowa (2)

• Wartość dystrybuanty empirycznej dla danego

x oblicza się z zależności: F*(x)=n

isk

/n, w

której n

isk

jest skumulowaną liczebnością,

odpowiadającą wartościom cechy nie
większym od x.

• Statystyka  przy założeniu prawdziwości H

0

ma asymptotyczny rozkład - Kołmogorowa. Z
uwagi na fakt, iż D

n

mierzy rozbieżność

między dystrybuantą teoretyczną i
empiryczną, zbiór krytyczny będą tworzyły
tylko zbyt duże wartości , tak więc będzie to
zbiór prawostronny określony równością:

odczytuje się z tablic, przy czym Q(

) =

P

background image

Test zgodności -Kołmogorowa

(3)

• Przykład: Producent proszku do prania uważa,

że rozkład wagi pudełka proszku jest N(m, s).
Na podstawie 150 wylosowanych niezależnie
do próby pudełek otrzymano:

• Na poziomie istotności a = 0,05 należy

zweryfikować hipotezę o prawdziwości
przekonania producenta.

H

0

: X — waga proszku w pudełku ma rozkład

N(m, s) wobec hipotezy:

H

1

: X — ma rozkład różny od rozkładu N(m, s).

Statystyka II-4

46

Waga

pudełka [g]

575-585

585-

595

595-

605

605-

615

615-

625

Liczba pudełek

16

34

50

38

12

background image

Test zgodności -Kołmogorowa

(4)

• Obliczenia pomocnicze związane z

wyznaczeniem statystyki l przedstawiono w
tabeli.

Statystyka II-4

47

Otrzymaliśmy więc D

n

= 0,0215 i l

e

= 150∙

0,0215 = 0,263.
Z tablicy rozkładu l dla Q(l

a

) = 1 – 0,05 = 0,95

odczytujemy
l

a

= 1,36. l

e

< l

a

, nie ma zatem podstaw do

odrzucenia hipotezy H

0

, że rozkład wagi pudełka

proszku jest N(m, s).

background image

Test zgodności Kołmogorowa-

Smirnowa

• Test służy do weryfikacji hipotezy, że

dwie populacje mają jednakowy
rozkład, co jest równoważne ze
stwierdzeniem, że dwie próby pochodzą
z tej samej populacji. Badamy dwie
populacje, w których cecha ma rozkład
ciągły
opisany odpowiednio
dystrybuantami F

l

(x) i F

2

(x). Hipotezy

H

0

i H

1

mają postać

H

0

: F

1

(x) = F

2

(x),

H

1

: F

1

(x) ≠ F

2

(x).

Statystyka II-4

48

background image

Test zgodności Kołmogorowa-

Smirnowa (2)

• Sprawdzianem hipotezy jest statystyka:

l

n

= n D

n1,n2

, gdzie

przy czym n

1

, n

2

oznaczają liczebności

dużych prób z obu populacji, a F*

n1

(x),

F*

n2

(x) - dystrybuanty empiryczne,

wyznaczone na podstawie prób.

Statystyka II-4

49

background image

Test zgodności Kołmogorowa-

Smirnowa (3)

• Statystyka l

n

ma przy założeniu

prawdziwości H

0

asymptotyczny rozkład l-

Kołmogorowa. Zbyt duże wartości
sprawdzianu wskazują, że hipoteza H

0

może być nieprawdziwa, a więc relacja
wyznaczająca zbiór krytyczny oraz sposób
wyznaczania wartości krytycznej są takie
same jak w teście l –Kołmogo-rowa, tzn.
P(l

n

l

a

) = a, przy czym l

a

odczytuje się z

tablicy rozkładu, tak że Q(l

a

) = 1 – a.

Statystyka II-4

50

background image

Test zgodności Kołmogorowa-

Smirnowa (4)

Statystyka II-4

51

Przykład : Na podstawie
danych otrzymanych w
dwóch wylosowanych
niezależnie próbach na
poziomie istotności a =
0,05 zweryfikować
hipotezę, że rozkład
wieku lekarzy na wsi i w
mieście jest taki sam.
H

0

: F

1

(x) = F

2

(x),

H

1

: F

1

(x) ≠ F

2

(x).

background image

Test zgodności Kołmogorowa-

Smirnowa (5)

Statystyka II-4

52

n

1

= 350, n

2

= 400,

 
 

Ponieważ l

e

> l

a

, odrzucamy hipotezę, że rozkład

wieku lekarzy w mieście na wsi jest taki sam, co
jest równoznaczne ze stwierdzeniem, że struktury
wieku lekarzy w mieście i na wsi są różne.

background image

Testowanie niezależności testem

chi-kwadrat

Statystyka II-4

53

W praktyce badań statystycznych występuje
często konieczność oceny niezależności
stochastycznej:
— dwóch cech jakościowych,
— dwóch cech ilościowych lub
— cech: ilościowej i jakościowej, opisujących
zbiorowość generalną.
W tym celu weryfikuje się odpowiednio
sformułowaną hipotezę nieparametryczną za
pomocą testu niezależności

2

.

W przypadku odrzucenia hipotezy zerowej,
mówiącej o tym, że dwie cechy opisujące daną
zbiorowość statystyczną są niezależne,
korzystając z wybranej miary, ocenia się siłę
zależności stochastycznej tych cech.

background image

Testowanie niezależności testem chi-

kwadrat (2)

Statystyka II-4

54

Hipotezę zerową orzekającą, że cechy X i Y
niezależne, można formalnie zapisać (por. rozdział
5):
 

H

0

: p

ij

= p

i∙

p

∙j

, H

1

: p

ij

p

i∙

p

∙j

 
gdzie p

ij

oznacza łączny rozkład zmiennej (X, Y), a

p

i

. oraz p.

j

- rozkłady brzegowe cechy X i cechy Y.

Dla zweryfikowania tej hipotezy należy
dysponować dużą próbą, tzn. n > 30. Wyniki tej
próby przedstawiamy w postaci tzw. tablicy
dwudzielnej
o r-wierszach i s-kolumnach, przy
czym r oznacza liczbę wariantów cechy X, a s
liczbę wariantów
cechy Y.

background image

Testowanie niezależności testem chi-

kwadrat (3)

Statystyka II-4

55

Wnętrze tablicy dwudzielnej
stanowią liczebności
empiryczne n

ij

tych

elementów w próbie, dla
których cecha X przyjęła
wariant x

i

, a cecha Y —

wariant y

j

.

Jak widać, n

ij

są to liczby

leżące na przecięciu i-tego
wiersza oraz j-tej kolumny,
przy czym wymaga się na
ogół, aby n

ij

≥ 8 dla każdej

kombinacji i i j.

background image

Testowanie niezależności testem chi-

kwadrat (4)

Statystyka II-4

56

Obliczając n

i∙

/n, n

j

/n znajdujemy empiryczne

rozkłady brzegowe i przyjmujemy je jako
oszacowania rozkładów brzegowych cechy X i
cechy Y:

Liczebności teoretyczne n'

ij

znajdujemy,

zakładając prawdziwość hipotezy H

0

, w ten

sposób, że

background image

Testowanie niezależności testem chi-

kwadrat (5)

Statystyka II-4

57

Sprawdzianem hipotezy H

0

jest statystyka

Statystyka ta przy założeniu prawdziwości H

0

ma

asymptotyczny rozkład

2

o k = (r – l)(s – 1)

stopniach swobody. Duże wartości empiryczne
sprawdzianu hipotezy oznaczają, że liczebności
empiryczne i teoretyczne istotnie różnią się
między sobą, powodują więc odrzucenie hipotezy
zerowej.

background image

Testowanie niezależności testem chi-

kwadrat (6)

Statystyka II-4

58

Obszar krytyczny jest prawostronny, określony
relacją
P(

2

> 

e

2

) = a

 
Jeśli wartość empiryczna sprawdzianu hipotezy
spełnia relację

2

> 

e

2

na

przyjętym poziomie

istotności należy hipotezę o niezależności X i Y
odrzucić. Oznacza to, że cechy X i Y są zależne.
A więc można ocenić siłę tej zależności
korzystając z jednej z zaprezentowanych poniżej
miar.
Większość spośród istniejących miar zależności
cech, zwłaszcza jakościowych, bazuje na
wartości statystyki

2

, obliczonej dla tablicy

dwudzielnej o wymiarach (rs)

background image

Najczęściej stosowane miary

zależności

Statystyka II-4

59

Współczynnik -Yule'a postaci:

przy czym gdy:
r = 2, s — dowolne, to 0 ≤ ≤ 1,
r > 2, s — dowolne, to może być większe od 1.

background image

Najczęściej stosowane miary

zależności (2)

Statystyka II-4

60

Współczynnik zbieżności T-Czuprowa postaci:

gdy r = s, to 0 ≤ T ≤ 1,
r ≠ s, T może być znacznie mniejsze od 1.

background image

Najczęściej stosowane miary

zależności (3)

Statystyka II-4

61

Współczynnik V-Cramera postaci:

gdy: r = s, to V = T,
r
s, to V > T.

background image

Interpretacja każdego z podanych

współczynników

Statystyka II-4

62

- jeśli przyjmuje on wartość zero, oznacza to,
że cechy X i Y są stochastycznie niezależne,
- im bliższa jedności jest wartość danego
współczynnika, tym silniejsza zależność
między badanymi cechami X i Y.

Oczywiście, w przypadku tablic o wymiarach
(2x2),

 = V = T.

background image

Miary zależności - przykład

Statystyka II-4

63

Przykład: Wyrób produkowany w dwóch zakładach A i B
może być uznany jako wadliwy z dwóch powodów: J —
niskiej jakości wykonania lub S - użycia gorszego surowca.
Analizując 165 wyrobów wadliwych otrzymano wyniki:

Na

poziomie istotności a = 0,01 zweryfikujemy hipotezę

o niezależności między miejscem powstania wyrobu a
przyczyną uznania wyrobu za wadliwy.
H

0

: p

ij

= p

i∙

p

∙j

, H

1

: p

ij

p

i∙

p

∙j

background image

Miary zależności –

przykład (2)

Statystyka II-4

64

Jak widać, dane tworzą tablicę dwudzielną o
wymiarach (2x2). Np. liczba 21 oznacza, że wśród
165 badanych wyrobów 21 wyprodukowano w
zakładzie A i zakwalifikowano je jako wadliwe z
powodu niskiej jakości wykonania. Można podać
analogiczną interpretację pozostałych elementów
tej tablicy.

Korzystając z wzoru

wyznaczamy tablicę liczebności teoretycznych n

ij

.

Dla przykładu liczebność teoretyczna

background image

Miary zależności –

przykład (3)

Statystyka II-4

65

Analogicznie obliczamy pozostałe elementy
tabeli.

Zgodnie z zależnością:

background image

Miary zależności –

przykład (4)

Statystyka II-4

66

Z tablic rozkładu

2

dla P = 0,01 i dla k = (r - l)(s -

1) =
= (2 - 1)(2 - 1) = 1 stopni swobody mamy = 6,63.
Ponieważ

e

2

> 

a

2

, należy odrzucić H

0

, a zatem można

powiedzieć, że istnieje zależność między przyczyną
uznania wyrobu za wadliwy a miejscem, gdzie
został wyprodukowany.
Miarą tej zależności jest jeden z przedstawionych
wyżej współczynników. Dla analizowanego
przykładu  = T = V i wynosi

Jak widać, jakość wyrobu zależy od miejsca jego
powstania.

background image

Miary zależności – uwagi

• Prezentowane powyżej miary

stosowane są przede wszystkim do
oceny zależności stochastycznej
cech niemierzalnych.

• W przypadku cech mierzalnych,

zwłaszcza o dużej liczbie
wariantów, stosuje się różne
mierniki zależności korelacyjnej.

Statystyka II-4

67


Document Outline


Wyszukiwarka

Podobne podstrony:
Statystyka SUM w4
Statystyka SUM w4
zestaw zadań statystyka SUM GiG (1)
Statystyka SUM w1
Statystyka SUM w2
zestaw zadań statystyka SUM GiG
ściąga statystyka, MEDYCYNA - ŚUM Katowice, I ROK, Biofizyka
Przykładowe pytania ze statystyki (1), ochrona środowiska UJ, I semestr SUM, statystyka
1-14, ochrona środowiska UJ, I semestr SUM, statystyka
statystyka w4, Studia, Statystyka
statystyka Liszka 2003, Prywatne, 1 SUM, Statystyka
statystyka 2014 I termin, ochrona środowiska UJ, I semestr SUM, statystyka
METODY STATYSTYCZNE 2014 materiały do W4
ściąga statystyka, MEDYCYNA - ŚUM Katowice, I ROK, Biofizyka
W4 Proces wytwórczy oprogramowania
W4 2010
w4 3

więcej podobnych podstron