background image

R O Z D Z I A Ł 13 

T E S T Y  N I E P A R A M E T R Y C Z N E 

I. Wprowadzenie 

W poprzednich rozdziałach (za wyjątkiem rozdziału 12) przedstawiliśmy różnorodne 
parametryczne testy statystyczne. Ich użycie do opracowywania wyników badań jest 
ograniczone określonymi założeniami - zmienne mierzalne, zmienne mające rozkład 
normalny, jednorodność zbioru itd.  W a r u n k i e m użycia tych testów jest więc sprawdzenie 
wyżej wymienionych założeń. W przypadku ich niespełnienia wyciągnięte wnioski nie są 
całkowicie poprawne lub tracą swoją wiarygodność. Testy te stają się też bezużyteczne dla 
danych jakościowych i danych uporządkowanych. W tych wszystkich przypadkach 
stosujemy testy nieparametryczne. Za pomocą testów nieparametrycznych (jak i testów 
parametrycznych)  m o ż e m y rozstrzygnąć, czy określoną hipotezę  m o ż e m y odrzucić, czy też 
nie  m a m y do tego podstaw. W tym ostatnim przypadku nie oznacza to, że nasza hipoteza 

jest całkowicie słuszna, lecz że nie stoi w sprzeczności z otrzymanymi wynikami naszych 

badań. Testy nieparametryczne nie zależą od kształtu rozkładu zmiennej oraz od  p e w n y c h 
parametrów rozkładu populacji. Dla testów nieparametrycznych również wzory służące do 
ich obliczenia są proste, a same obliczenia nie zajmują dużo czasu.  M o ż e m y je więc 
szeroko stosować wszędzie tam, gdzie nie są spełnione założenia  w y m a g a n e dla testów 
parametrycznych. Stosujemy je również wtedy gdy nasze dane są jakościowe lub  m o ż n a je 
tylko uporządkować według określonych kryteriów oraz dla grup o małej liczebności. Siła 
testów nieparametrycznych (1 minus wielkość błędu drugiego rodzaju) jest  j e d n a k niższa 
niż siła testów parametrycznych. Stosujemy je więc tylko wówczas, gdy nie  m o ż e m y 
posłużyć się testem parametrycznym. Niniejszy rozdział jest w całości poświęcony testom 
nieparametrycznym. 

Testy przez nas przedstawione podzielimy na sześć grup: 

1. Testy dla dwóch niezależnych próbek (nieparametryczne odpowiedniki testu 

t-Studenta dla zmiennych niepowiązanych) 

• Test serii Walda-Wolfowitza 
• Test U Manna-Whitneya 
• Test Kołmogorowa-Smirnowa 

2. Testy dla dwóch zależnych próbek (nieparametryczne odpowiedniki testu 

t-Studenta dla zmiennych powiązanych) 

• Test  z n a k ó w 
• Test kolejności par Wilcoxona 
• Test  M c N e m a r y 

3. Testy dla n próbek (nieparametryczne odpowiedniki analizy wariancji) 

• Test Kruskala-Wallisa 
• Test Friedmana 
• Test Q Cochrana 

263 

background image

Przystępny kurs statystyki 

4. Korelacje nieparametryczne 

• R Spearmana 
• Tau Kendalla 
• Test χ

5. Testy

 zgodności 

• Test χ

• Test

 Kołmogorowa-Smirnowa 

Przykład 1 
W dwóch grupach chorych na pewną chorobę neurologiczną przeprowadzono badania 
stężenia adrenaliny w surowicy krwi. Zebrane wyniki dla 24 pacjentów przedstawia 
poniższa tabela: 

N u m e r 

grupy 

Wielkość 

stężenia 

R a n g a 

N u m e r 

grupy 

Wielkość 

stężenia 

R a n g a 

14,34 

14 

II 

5,33 

20,33 

17 

II 

22,50 

19 

18,79 

15 

II 

11,74 

8,22 

II 

7,39 

31,5 

22 

II 

12,34 

12 

12,08 

10 

II 

13,22 

13 

22 

18 

II 

8,53 

9,22 

II 

22,80 

20 

19,50 

16 

II 

12,70 

11 

78,89 

24 

II 

7,78 

30,48 

21 

II 

9,63 

45,86 

23 

II 

8,90 

Przyjmując poziom istotności p = 0,05, zweryfikujemy hipotezę, że stężenie adrenaliny 
w obu grupach jest jednakowe. Ponieważ zmienna opisująca  p o z i o m adrenaliny nie ma 
rozkładu normalnego, nie  m o ż e m y zastosować testu t-Studenta,  p o s ł u ż y m y się więc  j e g o 
nieparametrycznym odpowiednikiem testem Manna-Whitneya. 

Punktem wyjścia w opisywanym teście jest nadanie  w y n i k o m obserwacji rang. 

Przebiega to następująco: 

1. Porządkujemy rosnąco wartości obu prób. 

2. Zaczynając od wartości najmniejszej (lub największej) przyporządkowujemy 

poszczególnym obserwacjom kolejne liczby naturalne. 

3. W przypadku wystąpienia wartości jednakowych, przyporządkowujemy im 

tzw. rangi wiązane (średnia arytmetyczna z rang, jakie  p o w i n n o im się 
przypisać). 

Rangi przypisane obserwacjom z analizowanego przykładu podane są w powyższej tabelce. 
Wykorzystamy obecnie wspomniany test Manna-Whitneya następującej postaci: 

264 

background image

Testy nieparametryczne 

Po obliczeniu sumy rang w poszczególnych grupach otrzymujemy R

1

 = 191 oraz R

2

 = 109. 

Statystyka U przyjmuje teraz wartość U= 144+(12*13)/2 - 191 =  3 1 . Z tabeli wartości 
krytycznych testu U Manna-Whitneya dla  p o z i o m u istotności p = 0,05 otrzymujemy 
U

p

(n

1

,n

2

) = 37. Ponieważ obliczona wartość statystyki U jest niniejsza (!) od krytycznej, 

zatem w  o m a w i a n y m przykładzie odrzucamy hipotezę zerową i stwierdzamy, że różnica 
między stężeniami adrenaliny z obu grup jest statystycznie istotna. 

Przykład 2 
Przeprowadzono badania w celu porównania czterech  m e t o d leczenia pewnej choroby. 
Pobrano pięcioelementowe próby losowe spośród chorych na daną chorobę, których 
leczono odpowiednio metodą I, II, III i IV. Wyniki terapii oceniono w specjalnym teście. 
Wartości testu (podane w umownej punktacji) wraz z przypisanymi im rangami  p o d a n o 
w poniższej tablicy: 

265 

background image

Przystępny kurs statystyki 

Metoda I 

Rangi 

Metoda II  Rangi  Metoda III  Rangi  Metoda IV  Rangi 

57 

74 

20 

63 

8,5 

62 

6,5 

58 

66 

11,5 

68 

15 

63 

8,5 

67 

13 

65 

10 

59 

4,5 

66 

11,5 

50 

72 

19 

59 

4,5 

71 

18 

62 

6,5 

68 

15 

68 

15 

70 

17 

25,5 

75,5 

47,5 

61,5 

Chcemy zweryfikować hipotezę, że wszystkie metody leczenia dają  j e d n a k o w e wyniki 
w leczeniu choroby. 

T y m razem  m u s i m y zastosować test sprawdzający hipotezę, że k niezależnych 

próbek pochodzi z tej samej populacji. Najczęściej w tym celu używany jest test sumy rang 
Kruskala-Wallisa będący nieparametryczną alternatywą analizy wariancji z klasyfikacją 
pojedynczą. Stosujemy go również, gdy założenia analizy wariancji nie są spełnione. Jest 
to test słabszy, ale równocześnie  w y m a g a słabszych założeń. Test ten ma postać: 

Założenia testu: 
Danych jest k populacji, w których badana cecha ma rozkłady typu ciągłego i dane  m o ż n a 
rozpatrywać w skali porządkowej.  O z n a c z m y przez Fi( x ), F

2

(x ),  F

k

( x ) dystrybuanty 

rozpatrywanych populacji. 
Z populacji tych wylosowano po n j (i  = 1 , ...,k) elementów do prób (n, > 5). 

Weryfikacja hipotezy: 

H

0

: F,(x) = F

2

(x) =... =  F

k

 (x) 

266 

background image

Testy nieparametryczne 

Dla naszego przykładu obliczona wartość statystyki H  ( u w z g l ę d n i a j ą c poprawkę) wynosi 
H= 7,8414, co pozwala odrzucić hipotezę zerową na poziomie istotności 0,05 (wartość 

krytyczną χ

20,05:3

= 7,815 znajdujemy w tablicach statystycznych).

 Wartość statystyki 

H należy bowiem do obszaru krytycznego, co ilustruje poniższy rysunek: 

Rys. 13.1 Obszar krytyczny dla testu Kruskała-Wallisa 

Wybór metody leczenia ma zatem istotnie statystyczny wpływ na wynik terapii. 

Przykład 3 
Chcemy ustalić współzależność między opiniami wydanymi przez dwóch lekarzy 
o zdrowiu 10 pacjentów. Opinie te zostały ujęte w punktach: 

Pacjenci 

Punkty 

uzyskane od 

I lekarza 

42 

27 

36 

33 

24 

47 

39 

52 

43 

37 

Punkty 

uzyskane od  II lekarza 

39 

24 

35 

29 

26 

47 

4 4 

51 

39 

32 

Ponieważ istnieje możliwość uporządkowania opinii lekarzy (wyrażonej w punktach), to 

jako miarę korelacji dwóch wyrażonych opinii użyjemy współczynnik korelacji rang 

Spearmana. Współczynnik ten służy do opisu siły korelacji cech jakościowych, które 
możemy uporządkować. Miarę tę stosujemy również do badania zależności między 
cechami ilościowymi w przypadku niewielkiej liczby obserwacji. Podobnie  j a k 
współczynnik korelacji liniowej Pearsona, współczynnik korelacji rang Spearmana 

oraz ma podobną interpretację. 

przyjmuje wartości z przedziału 

background image

Przystępny kurs statystyki 

Współczynnik korelacji rang Spearmana obliczamy według wzoru: 

Jak widać, obliczenia należy rozpocząć od uporządkowania wyjściowych informacji 
rosnąco (lub malejąco) i przypisania im rang. Rangowanie  m o ż e się odbywać od wartości 
największej do najmniejszej (lub odwrotnie),  j e d n a k ż e sposób rangowania musi być 

jednakowy dla obydwu zmiennych. W  n a s z y m przykładzie  p u n k t o w y m  o c e n o m lekarzy 

nadajemy rangi (zaczynając od wartości najmniejszej) jak, to jest widoczne w poniższej 
tabeli: 

Pacjenci 

Rangi 

I lekarza 

10 

uzyskane od 

II lekarza  6,5 

10  6,5 

Wykorzystując powyższy wzór na współczynnik Spearmana otrzymujemy 

r

s

= 1 - 63/10(100-1) = 0,936 

Otrzymany wynik wskazuje na silną współzależność opinii  d w ó c h lekarzy o stanie zdrowia 
pacjenta. 

Przedstawione powyżej przykłady wskazują obszar zastosowań testów 
nieparametrycznych.  O m ó w i o n o w nich również testy rozwiązujące postawione tam 
problemy bez użycia komputera. Dziś nikt  j e d n a k nie prowadzi analizy statystycznej „na 
piechotę" (bez użycia techniki komputerowej). Pozostałe testy  o m ó w i m y więc w oparciu 
o pakiet STATISTICA. 

II. A jak to się liczy w programie STATISTICA 

W programie STATISTICA testy nieparametryczne tworzą swój własny  m o d u ł  n a z w a n y 
Statystyki nieparametryczne/Rozkłady. Po otwarciu tego  m o d u ł u na ekranie pokazuje się 
okno przedstawione na poniższym rysunku. 

268 

background image

Testy nieparametryczne 

Rys. 13.2  O k n o  m o d u ł u - Statystyki nieparametryczne 

Powyższe okno umożliwia dostęp do wszystkich statystyk nieparametrycznych i rozkładów 
opisanych w  o m a w i a n y m module. Każdy z testów zawartych w  t y m oknie zostanie 
szczegółowo opisany poniżej w tym rozdziale. Na samej górze okna  m a m y opcje 
umożliwiające przejście do okna dialogowego realizującego testowanie zgodności rozkładu 
danych z dowolnie wybranym rozkładem hipotetycznym. 

II. 1 Testy dla dwóch niezależnych próbek 

Omówienie testów zawartych w  m o d u l e Statystyki Nieparametryczne rozpoczniemy od 
opisania grupy testów będących nieparametrycznymi odpowiednikami testu t-Studenta. 
Należą do niej testy: 

• test serii Walda-Wolfowitza 
• test U Manna-Whitneya 
• test Kołmogorowa-Smirnowa 

Testy te służą do weryfikacji hipotezy, że dwie analizowane próby pochodzą z różnych 
populacji. Wymagają one założenia, że analizowane zmienne  m o g ą być uporządkowane od 
wartości najmniejszej do wartości największej (tzn. są mierzone na skali porządkowej). Ich 
interpretacja właściwie jest taka sama, jak w przypadku testu t-Studenta dla zmiennych 
niepowiązanych. Dane powinny być podobnie rozmieszczone w dwóch kolumnach (dwie 
zmienne). Jedna kolumna zawiera zmienne do przeprowadzenia odpowiedniego 

background image

Przystępny kurs statystyki 

porównania, a druga zawierająca zmienną grupującą (zmienna niezależna) do 

jednoznacznej identyfikacji grup. Sytuację taką widzimy na poniższym rysunku: 

Rys. 13.3 Fragment arkusza danych 

Po dwukrotnym kliknięciu na nazwie testu otwiera się okno dialogowe umożliwiające 
wybór zmiennych do analizy, podania  k o d ó w oraz przeprowadzenia interpretacji graficznej 
otrzymanych wyników. Okna te dla wszystkich  o m a w i a n y c h testów są takie same, 
przykładowo więc opiszemy  j e d n o związane z testem Walda-Wolfowitza.  O k n o to 

przedstawione jest na poniższym rysunku. 

Rys. 13.4  O k n o testu Walda-Wolfowitza 

Do dyspozycji  m a m y opcje: 

[1] - przycisk Zmienne, powodujący otwarcie okna wyboru zmiennych.  O k n o to 

umożliwia wybór zmiennych, a także oferuje rozmaite opcje przeglądania zawartości 
zbioru danych (więcej informacji na ten temat znajduje się w rozdziale trzecim). 

270 

background image

Testy nieparametryczne 

[2] - pola umożliwiające określenie  k o d ó w użytych do identyfikacji grup. 

Wartości kodów wpisujemy bezpośrednio w tych polach lub wybieramy z listy otwierającej 
się po dwukrotnym kliknięciu na tym polu. 

[3] - przyciski tworzące interpretację graficzną otrzymanych  w y n i k ó w analizy 

statystycznej.  M a m y możliwość utworzyć Wykres  R a m k o w y charakteryzujący 
podstawowe właściwości rozkładu zmiennej. Jest więc on użytecznym narzędziem do 
porównywania rozkładu zmiennych w różnych grupach. Drugi typ wykresu to 
Skategoryzowany Histogram rozkładu wyselekcjonowanej zmiennej. Wykresy 
skategoryzowane są tworzone przez podzielenie danych na podzbiory, a następnie 
odwzorowanie wszystkich podzbiorów na oddzielnych  m a ł y c h wykresach, 
rozmieszczonych na  j e d n y m obrazie. 

Sposób weryfikacji hipotez przy  p o m o c y nieparametrycznych odpowiedników testu 
t przedstawimy w oparciu o dane z przykładu 1. 

Przykład 1 cd. 
Analizę rozpoczniemy od testu Walda-Wolfowitza (test najbardziej konserwatywny). Test 
ten oparty jest na rozkładzie liczby serii. Jeśli serii jest mało, będziemy mogli odrzucić 
hipotezę zerową, w przeciwnym wypadku niemożliwe jest odrzucenie hipotezy zerowej, że 
dwie próby pochodzą z tej samej populacji. 

Po wprowadzeniu danych i określeniu  k o d ó w klikamy na przycisku OK dla 

rozpoczęcia analizy. Wynik zostanie wyświetlony w oknie, którego postać przedstawiona 

jest na poniższym rysunku. 

Rys. 13.5 Arkusz  w y n i k ó w testu Walda-Wolfowitza 

Poszczególne pola w arkuszu wyników oznaczają odpowiednio: 

[1] - liczebność grupy oznaczonej symbolem  „ a " 
[2] - liczebność grupy oznaczonej symbolem  „ b " 
[3] - średnia wartości grupy oznaczonej  k o d e m  „ a " 
[4] - średnia wartości grupy oznaczonej  k o d e m  „ b " 
[5] - wartość testu Walda-Wolfowitza brana  p o d uwagę, gdy liczebność obu 

grup jest większa od 20 

[6] - poziom istotności wyliczona dla powyższej wartości testu 
[7] - wartość testu skorygowanego stosowanego dla małych liczebności (poniżej 

20). Tę  p o p r a w k ę na ciągłość wprowadził Siegel w 1956 roku 

[8] - poziom istotności dla testu poprawionego 
[9] - liczba serii - podstawowa wielkość w konstrukcji testu Walda-Wolfowitza. 

Hipotezę zerową odrzucamy gdy liczba serii jest zbyt  m a ł a 

[10] - liczba rang wiązanych 

271 

background image

Przystępny kurs statystyki 

Jak wynika z arkusza  w y n i k ó w testu Walda-Wolfowitza dla przykładu pierwszego nie 
m a m y podstaw do odrzucenia hipotezy zerowej. 

A tak wygląda arkusz  w y n i k ó w testu Manna-Whitneya (rysunek poniżej). Test ten został 
dokładnie omówiony na początku tego rozdziału.  T y m razem,  j a k wynika z arkusza 
wyników,  m o ż e m y  n a poziomie istotności  p = 0,018 odrzucić hipotezę zerową. 

Stwierdzamy więc, że różnica między stężeniami adrenaliny z obu grup jest statystycznie 
istotna. 

[1] [2] [3] [4] [5] [6] [7] [8] [9]

 [10] 

Rys. 12.6 Arkusz  w y n i k ó w testu Manna-Whitneya 

Poszczególne pola w arkuszu  w y n i k ó w oznaczają odpowiednio: 

[1] - suma rang dla grupy oznaczonej symbolem  „ a " 
[2] - suma rang dla grupy oznaczonej symbolem  „ b " (stanowią one podstawę 

podejmowanych decyzji) 

[3] - wartość testu Manna-Whitneya stosowanego dla małych liczebności 

(poniżej 20) 

[4] - wartość testu Manna-Whitneya brana  p o d uwagę, gdy liczebność obu grup 

jest większa od 20 

[5] - poziom istotności wyliczona dla powyższej wartości testu 
[6] - wartość testu skorygowanego, stosowanego ze względu na rangi wiązane 

dla liczebności obu grup powyżej 20 

[7] - poziom istotności wyliczona dla powyższej wartości testu 
[8] - liczebność grupy oznaczonej symbolem  „ a " 
[9] - liczebność grupy oznaczonej symbolem  „ b " 
[10] - dla prób o małej liczebności obliczana jest wartość 2*p, gdzie p jest równe 

1 minus odpowiednia wartość dystrybuanty rozkładu statystyki U. 

Stosujemy, gdy nie występują rangi wiązane 

Z kolei arkusz  w y n i k ó w testu  K o ł m o g o r o w a - S m i r n o w a (dla tych samych danych) 
przyjmuje postać widoczną na poniższym rysunku. 

272 

background image

Testy nieparametryczne 

Rys. 13.7 Arkusz wyników testu  K o ł m o g o r o w a - S m i r n o w a 

Poszczególne pola w arkuszu wyników oznaczają odpowiednio: 

[1] - maksymalna wartość ujemnych różnic 
[2] - maksymalna wartość dodatnich różnic 

M a k s i m u m z bezwzględnych wartości powyższych liczb stanowi podstawę 
wnioskowania statystycznego w teście Kołmogorowa-Smirnowa. 

[3] -  p o z i o m istotności wyliczona dla powyższej wartości testu 
[4] - średnia wartości grupy oznaczonej  k o d e m  „ a " 
[5] - średnia wartości grupy oznaczonej  k o d e m  „ b " 
[6] - odchylenie standardowe grupy oznaczonej  k o d e m  „ a " 
[7] - odchylenie standardowe grupy oznaczonej  k o d e m  „ b " 
[8] - liczebność grupy oznaczonej symbolem  „ a " 
[9] - liczebność grupy oznaczonej symbolem  „ b " 

Otrzymujemy, jak poprzednio, że różnica między stężeniami adrenaliny z obu grup jest 
statystycznie istotna (poziom istotności p< 0,05). Potwierdza to interpretacja graficzna 
(wykres ramkowy) przedstawiona na poniższym rysunku. 

Rys. 13.8 Wykres ramkowy dla danych z przykładu 1 

273 

background image

Przystępny kurs statystyki 

II. 2 Testy dla dwóch zależnych próbek 

Jako drugą grupę opiszemy testy dla  d w ó c h zmiennych zależnych. Należą do nich: 

• test znaków 
• test kolejności par Wilcoxona. 

Są one nieparametryczną alternatywą testu t-Studenta dla  z m i e n n y c h powiązanych. 
Stosujemy je, gdy dysponując  d w o m a pomiarami  c h c e m y dowieść, że pomiary różnią się. 
Inaczej mówiąc, testy te przeznaczone są do sprawdzania istotności różnic między  d w i e m a 

zależnymi próbkami. Te dwie zależne próbki to albo dwie obserwacje u tej samej osoby 
(np. przed i po zabiegu) albo też badania  p r o w a d z i m y dla par osób o tych samych 
właściwościach. Ich hipoteza zerowa mówi, że wyniki obu próbek są  j e d n a k o w e . Testy te 

stosujemy również wtedy, gdy nie są spełnione założenia testu t dla zmiennych 
powiązanych. Za ich  p o m o c ą  m o ż e m y stwierdzić, czy próbki (zmienne) różnią się między 
sobą pod względem pewnych własności. Te łatwe w użyciu testy wymagają jedynie 
założenia, że badane zmienne  m o ż e m y uporządkować (są mierzalne na skali porządkowej). 

Test znaków, jak sama  n a z w a wskazuje, oparty jest na znakach różnic między 

kolejnymi parami wyników (czy są ujemne, czy dodatnie). Test ten stosujemy więc przede 
wszystkim dla cech jakościowych. Wystarczy  b o w i e m sprawdzić, że dana jednostka 
charakteryzuje się obecnością  „ + " lub nieobecnością „-" danego zjawiska. Ogólnie 
mówiąc, test znaków, to ustalenie liczby plusów i  m i n u s ó w oraz porównanie ich 
z wartością teoretyczną podaną w odpowiednich tablicach. Dla danych mierzalnych nie 
uwzględniamy wartości różnic, a jedynie ich znaki. Różnice o wartości zero są pomijane. 
W teście znaków tracimy więc informację niesioną przez liczbowe wartości różnic. Ta 
znacząca informacja jest w pełni wykorzystywana przez test Wilcoxona. Staje się on więc 
w tym wypadku testem mocniejszym niż test znaków. 

Test kolejności par Wilcoxona uwzględnia zarówno znak różnic, ich wielkość,  j a k 

również ich kolejność (stąd nazwa). Po uporządkowaniu różnic w szereg rosnący 
przypisujemy im rangi. Następnie osobno sumujemy rangi różnic dodatnich i ujemnych. 
Mniejsza z otrzymanych sum to wartość testu Wilcoxona, która  p o r ó w n a n a z odpowiednią 
wartością teoretyczną w tablicach decyduje o odrzuceniu lub nie hipotezy zerowej. 

Przykład 4 
Przeprowadzono badanie tętna u 20 osób przed i po krótkim (trwającym 3 min) wysiłku 
fizycznym. Otrzymane dane z uwzględnieniem płci przedstawiono w poniższej tabeli. 

Lp. 

10 

11 

Tętno I 

63 

77 

64 

96 

66 

97 

72 

66 

88 

91 

68 

Tętno II 

127 

153 

127 

156 

126 

265 

138 

149 

159 

142 

112 

Płeć 

Lp. 

12 

13 

14 

15 

16 

17 

18 

19 

20 

Tętno I 

92 

76 

80 

68 

86 

70 

88 

70 

65 

Tętno II 

141 

147 

137 

116 

145 

121 

154 

134 

142 

Płeć 

274 

background image

Testy nieparametryczne 

Czy otrzymane wyniki przeczą hipotezie, że wysiłek  w p ł y w a na przyspieszenie tętna? 

Najpierw  w p r o w a d z a m y dane. Sposób ich przygotowania jest taki  s a m  j a k dla 

testu t. Zapisujemy je w dwu kolumnach, każdą ze  z m i e n n y c h w innej kolumnie. 

Jako pierwszy zastosujemy test znaków. Po wprowadzeniu danych klikamy OK 

uruchamiając analizę. Otrzymujemy arkusz  w y n i k ó w przedstawiony na poniższym 
rysunku. 

Rys 13.9 Arkusz  w y n i k ó w testu  z n a k ó w 

Poszczególne wartości oznaczają: 

[1] - nazwy zmiennych 
[2] - liczebność grup 
[3] - procent liczebności zmiennych, dla których różnica ma wartość ujemną 

(znak „-") 

[4] - wartość testu  z n a k ó w 
[5] -  p o z i o m istotności dla testu  z n a k ó w 

M o ż e m y zatem stwierdzić, że z bardzo  w y s o k i m  p o z i o m e m ufności 1 - 0,000022 = 
0,99998 można wykazać wpływ wysiłku fizycznego na przyspieszenie tętna. Potwierdza to 
graficznie wykres  r a m k o w y przedstawiony na poniższym rysunku. 

Rys. 13.10 Wykres  r a m k o w y dla danych z przykładu 4 

275 

background image

Przystępny kurs statystyki 

Z kolei zastosowanie testu kolejności par Wilcoxona do danych z przykładu 2 dostarcza 
poniższy arkusz wyników. 

Rys. 13.11 Arkusz  w y n i k ó w dla testu Wilcoxona 

Poszczególne wartości oznaczają: 

[1] - nazwy zmiennych 
[2] - liczebność grup 
[3] - wartość testu Wilcoxona dla grup o liczebności n

 < lub = 25 

[4] - wartość testu Wilcoxona dla grup o liczebności n

 > 25 

[5] - poziom istotności dla testu Wilcoxona 

Otrzymane wyniki dla testu Wilcoxona potwierdzają, że hipotezę o równości rozkładów 
zmiennych  T E S T I i  T E S T I I należy odrzucić i to z  p r a w d o p o d o b i e ń s t w e m popełnienia 
błędu p = 0,000089. 

II 3. Testy dla wielu próbek (nieparametryczne odpowiedniki 
analizy wariancji) 

Jako trzecią grupę opiszemy testy dla wielu populacji. Należą do nich: 

• test  A N O V A rang Kruskala-Wallisa 
• test  A N O V A Friedmana 
• test Q Cochrana 

Każdy z wymienionych powyżej testów ma inny obszar zastosowań. 

Test Kruskala-Wallisa

 jest nieparametrycznym odpowiednikiem jednoczynnikowej 

analizy wariancji. Za  p o m o c ą tego testu sprawdzamy, czy n niezależnych próbek pochodzi 
z tej samej populacji, bądź z populacji z taką samą medianą. Poszczególne próbki nie 
muszą mieć takiej samej liczebności. Maksymalnie  m o ż e m y  p o r ó w n y w a ć 10 grup. 

Test Friedmana

 jest nieparametrycznym odpowiednikiem jednoczynnikowej analizy 

wariancji dla pomiarów powtarzanych.  U w a ż a n y jest on za najlepszy test nieparametryczny 
dla danych tego rodzaju. Najczęściej są to wyniki dla tych samych osób otrzymane 
w n (n>2) różnych badaniach, bądź wyniki  r ó w n o w a ż n y c h grup osób. 

Test Q Cochrana

 jest uogólnieniem na więcej niż dwie próby testu  M c N e m a r y . 

W teście tym  m a m y do czynienia z co najmniej trzema  z m i e n n y m i zależnymi 
i stwierdzamy, czy kolejne liczebności lub proporcje różnią się istotnie między sobą. Test 

276 

background image

Testy nieparametryczne 

wymaga danych dychotomicznych,tzn. przyjmujących wartości zakodowane  j a k o 0 i 1 (np. 
zdarzenie zaszło lub nie oraz odpowiedź poprawna lub zła).  Z m i e n n e mierzalne  m u s i m y 
więc sztucznie przeskalować na zmienne dychotomiczne (np. powyżej średniej lub 
poniżej). 

• Jako pierwszy  o m ó w i m y przykład zastosowania testu Kruskala-Wallisa. 

Przykład 5 
Przypuśćmy, że chcemy ocenić cztery metody terapii dla znalezienia najlepszego sposobu 
przeprowadzenia leczenia. Każda metoda terapii oceniana jest w umownej skali punktowej. 

Dane te powinny być podobnie rozmieszczone  j a k w analizie wariancji. Jedna 

zmienna  W Y N I K I zawiera wyniki oceny, a druga  M E T O D A zawierająca kod (numer 
metody) do jednoznacznej identyfikacji grup. Sytuację taką widzimy na poniższym 
rysunku: 

Rys 13.12  O k n o arkusza danych (dane do przykładu 5) 

Po uruchomieniu testu (dwukrotnie klikając na nazwie) otrzymujemy następujące okno 
dialogowe: 

277 

background image

Przystępny kurs statystyki 

Rys. 13.13  O k n o testu Kruskala-Wallisa 

W oknie  A N O V A Kruskala-Wallisa i test mediany (Kruskai-Wallis  A N O V A and 
Median Test)
 przyciski o kolejnych numerach [1], [2], [3], [4] realizują następujące 
funkcje: 

[1] - Kliknięcie przycisku Zmienne spowoduje otwarcie okna wyboru zmiennych. 

Okno to umożliwia wybór zmiennych, a także oferuje rozmaite opcje przeglądania 
zawartości zbioru danych (więcej informacji na ten temat znajduje się w rozdziale trzecim). 
W polu Zmienna (grupująca) niezależna wybieramy zmienną grupującą.  Z m i e n n a ta 

powinna zawierać co najmniej dwa różne kody, które jednoznacznie identyfikują 
przynależność do wybranych prób dla każdego rozpatrywanego przypadku. W polu 
zmienna zależna wybieramy listę zmiennych dla odpowiednich porównań. Jeśli 
zapomnimy określić zmienne i naciśniemy OK aby rozpocząć statystyczną analizę, 
STATISTICA

 zapyta o zmienne do analizowania. 

[2] - Kody otwiera okno dialogowe do wyboru kodów, które będą używane w grupowaniu 

zmiennej. 

Rys. 13.14  O k n o wyboru  k o d ó w dla testu Kruskala-Wallisa 

O k n o to oferuje różnorodne funkcje. Przykładowo przed  d o k o n a n i e m wyboru  m o ż e m y 
przejrzeć wartości pojedynczych zmiennych lub wypełnić pole  k o d ó w wartościami dla 

jednoznacznej identyfikacji przynależności do interesujących nas grup dla każdego 

przypadku. Jeśli nie  w p r o w a d z i m y żadnego kodu i naciśniemy OK, program 

278 

background image

Testy nieparametryczne 

automatycznie wypełni pole kodu wszystkimi różnymi wartościami wybranej zmiennej 
i zamknie okno dialogu. 

[3] - przycisk wywołujący serię okien dialogowych dla utworzenia wykresu Wykres 
ramkowy
 („pudełko z wąsami"). Wykres ten charakteryzujący podstawowe właściwości 

rozkładu zmiennej jest użytecznym narzędziem do porównywania rozkładu zmiennych 
w różnych grupach. 

[4] - Skategoryzowany Histogram - opcja ta umożliwia tworzenie skategoryzowanego 

histogramu rozkładu wyselekcjonowanej zmiennej. Wykresy skategoryzowane są tworzone 
przez podzielenie danych na podzbiory, a następnie odwzorowanie wszystkich podzbiorów 
na oddzielnych małych wykresach, rozmieszczonych na  j e d n y m obrazie. 

W oknie tym znajduje się również pole wyboru Przetwarzanie wsadowe/drukowanie. 
Umożliwia ono automatycznie powtarzanie przez program analizy wraz z drukowaniem 
rezultatów dla każdej wybranej zmiennej bez dodatkowych działań ze strony użytkownika. 
Opcja ta jest aktywna, jeżeli w oknie dialogowym Strona/Ustawienie wydruku  j a k o 
docelowe dla wyników wybrano Drukarkę, Plik dyskowy i/lub  O k n o wyników. 

W oknie  A N O V A Kruskala - Wallisa i test mediany  m a m y ponadto (podobnie 

jak w innych oknach dialogowych opisanych wcześniej) dwa przyciski - do selekcji 

przypadków i określania wag przypadków. Działanie ich zostało dokładnie opisane 
wcześniej. 

Przeanalizujemy teraz w programie STATISTICA dane z przykładu 3. Ustawienie 
wszystkich potrzebnych opcji i kliknięcie OK powoduje wykonanie analizy i pojawienie 
się (jako pierwszego) okna pokazanego poniżej. 

Rys. 13.15 Arkusz wyników testu Kruskala-Wallisa 

Powyższe okno zawiera wyniki analizy statystycznej. W trzech kolejnych kolumnach 
podane  m a m y kod, liczbę przypadków oraz sumę rang. Powyżej w nagłówku podana jest 
wartość testu Kruskala-Wallisa H= 7,841454 oraz poziom istotności p= 0,0494, który 
pozwala na odrzucenie hipotezy wyjściowej (zerowej). Wyniki analizy pozwalają (na 
poziomie istotności p = 0,049) wyciągnąć wniosek, że  m e t o d y leczenia mają istotnie 
statystyczny wpływ na wynik terapii. 

279 

background image

Przystępny kurs statystyki 

Dla interpretacji graficznej wykorzystamy przyciski Wykres  r a m k o w y 
i Skategoryzowany histogram w oknie  A N O V A Kruskala-Wallisa i test mediany. Po 
wybraniu rodzaju „pudelka" i wciśnięciu OK otworzy okno z poniższym rysunkiem. 

Rys. 13.16 Wykres  r a m k o w y dla danych z przykładu 5 

W tym samym polu co test Kruskala-Wallisa, znajduje się jego mniej dokładna wersja, test 
mediany. STATISTICA oblicza dla każdej z prób liczbę przypadków, które wypadają 
powyżej lub poniżej mediany. Następnie wyliczana jest wartość statystyki dla wyników 
zawartych w tablicy kontyngencji 2 x n. Test ten stosujemy w sytuacji, gdy skala 
pomiarowa zawiera sztuczne ograniczenia i wiele przypadków znajdzie się na krańcach 
skali. Dla takiej sytuacji test mediany jest  j e d y n y m narzędziem do porównywania prób. 

• Jako koleiny  o m ó w i m y test Friedmana 

Przykład 6 
W celu ocenienia różnic między średnimi stężeniami kortyzolu występującymi w kolejnych 
etapach leczenia chorych na udar mózgu, zbadano czterokrotnie (w stałych odstępach 
czasowych) stężenie kortyzolu (w μg%) u 17 pacjentów.  O t r z y m a n e wyniki przedstawione 
są w poniższej tabeli. Czy między średnimi stężeniami kortyzolu występują istotne 
różnice? 

280 

background image

Testy nieparametryczne 

Hipoteza zerowa, którą chcemy odrzucić, zakłada, że kolumny danych zawierają próby 
pobrane z tej samej populacji.  D a n e  w p r o w a d z a m y kolumnami, tzn. wszystkie wyniki 
kolejnych pomiarów zapisane są w nowej kolumnie (nowa zmienna). Po uruchomieniu 
testu (dwukrotnie klikając na nazwie) i wybraniu zmiennych otrzymujemy okno dialogowe: 

Rys. 13.17 Arkusz wynikowy testu Friedmana 

Powyższe okno zawiera wyniki analizy statystycznej. W czterech kolejnych kolumnach 
m a m y podane dla każdej zmiennej średnią rangę,  s u m ę rang oraz średnią arytmetyczną 
i odchylenie standardowe. Powyżej w nagłówku podana jest wartość testu χ

2

  A N O V A = 

9,232142 oraz  p o z i o m

 istotności p= 0,02637, który pozwala na odrzucenie hipotezy 

wyjściowej (zerowej). Wyniki analizy pozwalają (na poziomie istotności p= 0,026) 
wyciągnąć wniosek, że istnieje statystycznie istotna różnica między średnimi stężenia 
kortyzolu w kolejnych etapach leczenia. W arkuszu  w y n i k o w y m  m a m y również obliczony 
współczynnik zgodności Kendalla. Statystyka ta opisuje współzależność pomiędzy 
n przypadkami skorelowanych prób. Wartość tę wykorzystujemy do oceny zgodności tzw. 
niezależnych sędziów. 

281 

background image

Przystępny kurs statystyki 

Dla interpretacji graficznej wykorzystamy przyciski Wykres  r a m k o w y w oknie  A N O V A 
rang Friedmana.
 Po wybraniu rodzaju  „ p u d e ł k a " i wciśnięciu OK otworzy okno 
z rysunkiem pokazane poniżej. 

Rys. 13.18 Wykres  r a m k o w y dla danych z przykładu 6 

• Na koniec przedstawimy test Q Cochrana. 

Przykład 7 
Piętnastu chorym podawano w szpitalu cztery różne środki na uśmierzenie bólu. Chciano 
stwierdzić, czy  m o ż e m y je uważać za równie skuteczne. Pacjent oceniał symbolem 0 
środek mało skuteczny, a symbolem 1 pełną jego skuteczność. Wyniki oceny zawiera 
poniższa tabelka. 

282 

background image

Testy nieparametryczne 

Dane wprowadzamy kolumnami tzn. wszystkie wyniki kolejnych  p o m i a r ó w zapisane są 
w nowej kolumnie (nowa zmienna). Po uruchomieniu testu (dwukrotnie klikając na 
nazwie) i wybraniu zmiennych otrzymujemy następujący arkusz wyników: 

Rys. 13.19 Arkusz wyników dla testu Q Cochrana 

Powyższe okno zawiera wyniki analizy statystycznej. W trzech kolejnych  k o l u m n a c h 
podane  m a m y : sumę  k o d ó w o wartości 1 procent osób oceniających lek negatywnie (kod 0) 
oraz procent osób oceniający dany lek pozytywnie (kod 1). Powyżej w nagłówku  p o d a n a 

jest wartość Q = 1,723404 oraz poziom istotności p= 0,631747, który nie pozwala na 

odrzucenie hipotezy wyjściowej (zerowej) o jednakowej wartości wszystkich leków. 
Różnica między średnimi  m o ż e wynikać z przyczyn losowych. 

II4. Korelacje nieparametryczne 

Omówienie testów zawartych w module Statystyki Nieparametryczne kontynuujemy 
przedstawiając grupę współczynników opisujących nieparametryczne korelacje. 
Współczynniki te są nieparametrycznymi odpowiednikami współczynnika korelacji 
Pearsona. Należą do nich współczynniki: 

• współczynnik R Spearmana 
• Tau Kendalla 
•  G a m m a 

Dla obliczenia tych współczynników dwukrotnie klikamy na opcji Korelacje (Spearmana, 
tau Kendalla,  g a m m a )
 w oknie Statystyki nieparametryczne/Rozkłady 
(Nonparametrics and Distribution).
 Otrzymujemy  w ó w c z a s następujące okno dialogowe. 

283 

background image

Przystępny kurs statystyki 

Rys. 13.20  O k n o wyboru korelacji 

Do dyspozycji  m a m y opcje: 

[1] - przycisk Zmienne powodujący otwarcie okna wyboru listy dwu zmiennych.  O k n o to 

umożliwia wybór zmiennych, a także oferuje rozmaite opcje przeglądania zawartości 
zbioru danych (więcej informacji na ten temat znajduje się w rozdziale trzecim). 

[2] - lista rozwijalna Korelacja umożliwia wybór współczynnika korelacji, który chcemy 

policzyć. Do wyboru  m a m y : 

• współczynnik korelacji rang  S p e a r m a n a - współczynnik ten został obszernie 

omówiony na początku tego rozdziału 

• współczynnik tau Kendalla (τ-Kendalla) - współczynnik ten opiera się na różnicy 

między prawdopodobieństwem tego, że dwie zmienne układają się w tym  s a m y m 
porządku (dla obserwowanych danych) a prawdopodobieństwem, że ich 
uporządkowanie się różni.  Z a p r o p o n o w a n y przez Kendalla (1955 r.) wymaga, aby 
wartości zmiennych  m o ż n a było uporządkować (zmienne muszą być mierzone co 
najmniej na skali porządkowej). Współczynnik ten przyjmuje wartości z przedziału <-l, 

1>. Wartość 1 oznacza pełną zgodność, wartość 0 brak zgodności uporządkowań, 

natomiast wartość -1 całkowitą ich przeciwstawność. Współczynnik Kendalla wskazuje 
więc nie tylko siłę, lecz również kierunek zależności. Jest doskonałym narzędziem do 
opisu podobieństwa uporządkowań zbioru danych. Dokładniejsze opisanie tego 
współczynnika nastąpiło w rozdziale 12. 

• statystyka  g a m m a - współczynnik ten ma podobną konstrukcję i interpretację  j a k 

współczynnik R Spearmana lub Τ Kendalla.  W y m a g a też  p o d o b n y c h założeń. Stosuje 
się go w przypadkach, gdy dane zawierają wiele obserwacji powiązanych 
(reprezentujących ten sam wariant cechy). 

[3] - lista rozwijalna Oblicz 

następujące możliwości: 

umożliwia wybór sposobu przeprowadzenia obliczeń.  M a m y 

284 

background image

Testy nieparametryczne 

• szczegółowy raport - wybór tej opcji powoduje obliczenie nie tylko współczynników 

korelacji, ale także dodatkowych informacji o liczbie poprawnych przypadków, 
wartości statystyki t i poziomu istotności dla oceny istotności współczynnika korelacji; 

• macierz dwóch list - wybranie tej opcji powoduje wyliczenie tylko  w s p ó ł c z y n n i k ó w 

korelacji pomiędzy wybranymi zmiennymi; 

• macierz kwadratowa - wybranie tej opcji powoduje wyliczenie  w s p ó ł c z y n n i k ó w 

korelacji w postaci macierzy kwadratowej dla wszystkich par wybranych zmiennych. 

[4] - przycisk Wykres macierzowy - przycisk ten umożliwia utworzenie  m a c i e r z o w e g o 

wykresu rozrzutu dla wszystkich wybranych zmiennych. Przykładowy macierzowy wykres 
widoczny jest na poniższym rysunku. 

Rys. 13.21 Macierzowy wykres rozrzutu 

Przykładowe wyliczanie współczynników współzależności przeprowadzimy w oparciu 
o dane z przykładu trzeciego. Po wprowadzeniu danych (każda  z m i e n n a w osobnej 
kolumnie) wybieramy do obliczeń współczynnik korelacji rang Spearmana (z listy 
Korelacja). Kliknięcie OK uruchamia obliczenia. 

Wyświetlone zostaje okno z wynikami pokazane na rysunku poniżej. 

[1] [2] [3] [4] [5] 

Rys. 13.22 Arkusz  w y n i k ó w obliczania współczynnika Spearmana 

285 

background image

Przystępny kurs statystyki 

Poszczególne wartości oznaczają: 

[1] - nazwy zmiennych 
[2] - liczebność grup 
[3] - wartość współczynnika R Spearmana 
[4] - wartość statystyki t sprawdzaj istotność współczynnika R Spearmana 
[5] - poziom istotności dla powyższej statystyki t 

Uzyskany współczynnik R Spearmana R

s

 = 0,936175 wskazuje na silną, istotną 

współzależność opinii dwóch lekarzy o stanie zdrowia pacjenta.  P o d o b n e wyniki 
otrzymujemy, wyliczając współczynnik x Kendalla. Widoczne są one w poniższym oknie. 

Rys. 13.23 Arkusz wyników obliczania współczynnika tau Kendalla 

Nasze obliczenia  m o ż e m y zilustrować na koniec wykresem macierzowym. 

Rys. 13.24 Wykres macierzowy dla danych z przykładu 3 

II. 5. Test χ

2

 i miary na nim oparte 

Opcja Tablice 2x2 , chi/V/Fi kwadrat, test McNemary,.. .

 umożliwia obliczenie statystyki 

χ

2

 dla tablic 2x2 oraz innych statystyk

 związanych z χ

2

 (dokładny test Fishera, test 

286 

background image

Testy nieparametryczne 

M c N e m a r y itd.). Test χ

2

 został przez nas dokładnie  o m ó w i o n y w rozdziale 12. 

Przypomnimy tylko najważniejsze fakty. 

Dla tabel dwudzielczych 2x2 postaci wartość statystyki χ

2

  w y z n a c z a m y

 według prostszego, 

praktycznego wzoru: 

Zgryz prawidłowy  Z g r y z nieprawidłowy  R a z e m 

Chłopcy 

80 

70 

150 

Dziewczynki 

50 

100 

150 

R a z e m 

130 

170 

300 

Stosujemy ją, jeżeli 20 < N  < 4 0 i którakolwiek z liczebności oczekiwanych jest niniejsza 
od 5. Dokładne omówienie wszystkich poprawek nastąpi poniżej przy omawianiu, jak 
analizy tego typu obliczane są w pakiecie STATISTICA. 

Po wybraniu opcji Tablice 2x2, chi/V/Fi kwadrat, test  M c N e m a r y , otwiera się 

okno do wprowadzania danych postaci: 

287 

Przykład 8 (Miller[40]) 
Zebrano dane na temat wad zgryzu u chłopców i dzieci Przebadano 300 losowo wybranych 
dzieci w wieku przedszkolnym. Szczegółowe dane przedstawione są w poniższej tablicy. 

gdzie N liczebność całej próby 

Obliczając χ

2

 według wzoru podanego wyżej otrzymujemy χ

2

 = 12,217.  D l a  p o z i o m u 

istotności α = 0,001  m a m y wartość krytyczną równą

 2

 = 10,827. Ponieważ χ

2

 >=

 2 

więc odrzucamy hipotezę zerową o niezależności zmiennych, a tym  s a m y m wnioskujemy, 
że występowanie wad zgryzu u dzieci ma związek z płcią. 

U W A G A ! 
Dla tabeli 2x2 przedstawionej wyżej statystyka χ

2

  j e s t

 często modyfikowana w celu 

utworzenia bardziej odpowiedniego testu. W większości  k o m p u t e r o w y c h  p r o g r a m ó w 
statystycznych  m a m y możliwości obliczenia tych poprawek. Najbardziej popularna to 
poprawka Yatesa postaci: 

background image

Przystępny kurs statystyki 

Rys. 13.25  O k n o wprowadzania danych dla testu % 

Po wprowadzeniu danych (przy  p o m o c y klawisza  T A B )  j a k na  p o w y ż s z y m rysunku, 
klikamy OK, uruchamiając proces obliczania statystyki.  O t r z y m a m y  w ó w c z a s następujące 
okno z wynikami: 

Rys. 13.26 Arkusz  w y n i k o w y dla testu χ

Poszczególne pola zaznaczone w oknie z wynikami zawierają: 

[1] - powtórzona tabela  z d a n y m i wraz z  s u m a m i brzegowymi oraz procenty wszystkich 

wartości wyliczane w stosunku do całkowitej liczebności grupy. 

[2] - wartość testu χ

2

  w r a z z  p o z i o m e m

 istotności. 

[3] - wartość testu V-kwadrat wraz z  p o z i o m e m istotności 

288 

background image

Testy nieparametryczne 

[4] - χ

2

 z

 poprawką Yatesa - Jest to poprawka statystyki χ

2

 dla

 małych tabel o rozmiarach 

2x2, wraz z podanym obok  p o z i o m e m istotności. Poprawka ta stosowana jest, jeżeli 
liczebności w tabeli są  m a ł e tak, że  w ó w c z a s liczebności oczekiwane są mniejsze od 
5. Poprawka ta została dokładniej  o m ó w i o n a na początku tego rozdziału. 

[5] - Współczynnik Φ-Yula postaci Φ

2

 = χ

2

 /N 

Współczynnik ten jest miarą korelacji pomiędzy dwiema zmiennymi jakościowymi 
w tabeli 2x2. Przyjmuje on wartości od 0 (brak powiązania między zmiennymi) do 1 
(całkowite powiązanie pomiędzy zmiennymi). 

[6] - dokładny test Fishera - ten test jest obliczany tylko dla tabel 2x2. Oblicza on przy 

założeniu hipotezy zerowej dokładne prawdopodobieństwo otrzymania tabeli 
o liczebnościach obserwowanych. Podawane jest zarówno prawdopodobieństwo 

jedno, jak i dwustronne. Dokładny test Fishera stosujemy, jeżeli całkowita liczebność 

obserwacji jest mała lub jeśli bardzo małe są liczebności oczekiwane. 

[7] - wartości testów  M c N e m a r y (A/D) i (B/C) wraz z  p o z i o m e m istotności. Dokładne 

omówienie tego testu nastąpiło w rozdziale 12. 

Aby nie zgubić się w gąszczu tych poprawek,  p o d a m y  w s k a z ó w k ę - kiedy i jaką poprawkę 
zastosować. 

Liczebności Rodzaj testu  

III. Dopasowanie rozkładu 

Na samej górze okna Statystyki Nieparametryczne  m a m y opcje umożliwiające przejście 
do okna dialogowego, realizującego testowanie zgodności rozkładu danych z dowolnie 
wybranym rozkładem hipotetycznym. Po jej wybraniu, okno dialogowe zmienia się, 
przyjmując postać: 

289 

background image

Przystępny kurs statystyki 

Rys. 13.27  O k n o startowe dopasowywania rozkładów 

W

 oknie tym istnieje możliwość testowania zgodności rozkładu danych użytkownika 

z dowolnym rozkładem. 

Do dyspozycji  m a m y  d w a testy zgodności: test zgodności χ

2

 i test

 zgodności 

Kołmogorowa-Smirnowa. Test zgodności χ

2

  m o ż e być użyty tylko wtedy, gdy wszystkie 

częstości oczekiwane są zawsze większe niż 5. Jest więc bezużyteczny w stosunku do 
próbek o małej liczebności (n<30). W takim  w y p a d k u należy zastosować test 
Kołmogorowa-Smirnowa. Po wybraniu zmiennej, użytkownik  m o ż e  d o k o n y w a ć 

przełączania dopasowania różnych rozkładów (tego  s a m e g o typu, tzn. ciągłych lub 
dyskretnych) w oknie opcji Rozkład. Po określeniu zmiennej, obliczane są parametry 
dające najlepsze dopasowanie dla każdego z odpowiednich typów rozkładu. Parametry te 
są wyświetlane  j a k o wartości domyślne. Użytkownik ma także możliwość wprowadzania 
własnych wartości. 

Najczęstszym zastosowaniem procedur dopasowania jest weryfikacja założenia 
o normalności rozkładu. Taki też przykład przeanalizujemy. 

290 

background image

Testy nieparametryczne 

Przykład 9 
Badano wartości  H C 0 3 w organizmie 35 chorych.  O t r z y m a n o następujące wyniki: 

19,30; 21,60; 16,50; 28,50; 22,80; 13,40; 24,90; 20,20; 18,00; 18,30; 29,40; 21,20; 
17,70; 18,30; 24,00; 18,50; 19,60; 21,80; 22,10;16,20; 20,70; 18,20; 23,00; 18,50; 
15,90; 15,60; 23,90; 21,80; 18,00; 25,90; 21,90; 18,70; 21,30; 19,80; 22,80. 

Chcemy sprawdzić, czy zmienna losowa  H C 0 3 ma rozkład normalny. Po wprowadzeniu 
danych i wyborze rozkładu hipotetycznego klikamy OK. Otworzy się  w ó w c z a s następujące 
okno dialogowe: 

Rys. 13.28  O k n o opcji dopasowywania rozkładu ciągłego 

Po zaakceptowaniu (lub zmianie) parametrów domyślnych klikamy OK - otwierając tym 
samym okno z wynikami analizy statystycznej.  O k n o to przedstawione jest na poniższym 
rysunku. 

Ponieważ χ

2

 = 4,971  o r a z p = n.s.

 więc nie ma podstaw do odrzucenia hipotezy zerowej, że 

badana cecha -  p o z i o m  H C 0 3 - ma rozkład normalny. Otrzymane wynik  m o ż e m y 
zilustrować na wykresie, klikając przycisk Wykres. Rodzaj wykresu określają poniżej 
podane opcje: 

• Wykres rozkładu - opcja ta pozwala utworzyć wykres rozkładu liczebności lub 

rozkładu liczebności skumulowanych. 

• Wykres liczebności - opcja ta pozwala utworzyć wykres w oparciu 

o liczebności surowe lub odsetkowe (%) 

291 

background image

Przystępny kurs statystyki 

Rys 13.29 Arkusz wynikowy dopasowywania rozkładów 

Poniższy wykres (utworzony przy wyborze opcji Rozkład liczebności) graficznie 
interpretuje uzyskane wyniki. 

d Kołmogorowa-Smirnowa=,0856779 , p= n.s. 

11 13 15 17 19 21 23 25 27 29 31 

12 14 16 18 20 22 24 26 28 30 Oczekiwana 

Rys. 13.30 Wykres histogram dla danych z przykładu 9 

292