ANALIZA WARIANCJI ściąga

ANALIZA WARIANCJI- jest testem istotności. Służy do oceny tego czy dwie lub więcej średnich z prób różni się pod względem wartości średnich prawdziwych populacji z których pochodzą. Polega na podziale wariancji ogółem na części składowe. Często oznaczana jest ona skrótem ANOVA pochodzącym od angielskiej normy metody- Analysis of Variance. MODEL MATEMATYCZNY ANALIZY WARIANCJI: XIJ= µ + αJ +EIJ gdzie XIJ- pojedynczy I-ty pomiar J-tego obiektu; µ- ogólna średnia z populacji generalnej; αJ- wpływ badanego czynnika; EIJ - odchylenie losowe pomiaru (błąd) o średniej równej zero i rozkładzie normalnym. WYMAGANIA DOTYCZĄCE DANYCH: Aby wyniki uzyskane przy pomocy analizy wariancji, były wiarygodne dane, na podstawie których jest wyliczana ANOVA muszą być: addytywne, homogeniczne, normalne. Addytywność różnic- oznacza, że wartość αJ jest stała dla danego poziomu wariantu czynnika i nie zależy od wielkości µ. Homogeniczność (jednorodność)- zakłada że wariancje dla poszczególnych obiektów będą zbliżone. W przybliżeniu można przyjąć, że warunek stałości wariancji jest spełniony, gdy stosunek wariancji maksymalnej do minimalnej nie jest większy jak 3:1. Normalność rozkładu- oznacza, że czynnik losowy EIJ w równaniu ma rozkład normalny, co w praktyce oznacza, że rozkład pomiarów dla danego obiektu jest zgodny z rozkładem normalnym. Doświadczenie- zainicjowanie i obserwowanie pewnego zjawiska w warunkach kontrolowanych. Czynnik- zmienna przyczyna kształtowania się przebiegu zjawisk i procesów w doświadczeniu. Obiekt- konkretna, wybrana wartość danego czynnika (poziom, wariant). Replikacja ( powtórzenie)- n-krotne wystąpienie danego obiektu w doświadczeniu lub kombinacji w doświadczeniu. Jednostka doświadczalna- najmniejsza część doświadczenia względem której stosowane są obiekty doświadczalne. Badana cecha- określona w doświadczeniu właściwość badanego materiału. Kombinacja- wzajemny układ obiektów badanych czynników (min. 2). Losowanie (randanizacja)- sposób przyporządkowania obiektów do jednostek doświadczalnych. Błąd doświadczalny- zmienność wywołana przez czynniki, które istnieją, ale których nie znamy lub nie możemy dokładnie określić. Układ doświadczalny- sposób rozmieszczenia obiektów w doświadczeniu. TABELA ANALIZY WARIANCJI: 1. Rodzaj zmienności- Obiekty (l.s.s- k-1); Błąd (l.s.s – k(n-1)); Ogółem (l.s.s. kn-1). 2. Suma kwadratów różnic- jest licznikiem poszczególnych wariancji składowych. Podobnie jak liczba stopni swobody suma kwadratów różnic obiektów i błędów musi dać sumę kwadratów różnic dla ogółem. 3. Wariancja składowa S2-jest ilorazem sumy kwadratów różnic i liczb stopni swobody dla poszczególnych rodzajów zmienności. W tabeli ANOVA nie wyliczamy wariancji dla ogółem. 4.Femp- test- jest ilorazem S2 obiektu i S2 błędu. Jego wartość określa w takim razie stosunek zmienności wynikającej z różnic pomiędzy obiektami do zmienności przypadkowej. 5. F0,05 i F0,01- wartości krytyczne odczytów z tablic dla określonych poziomów istotności alfa (L). Są potrzebne do porównania ich z wartością empiryczną testu, w celu wyciągnięcia wniosków. ( FL; v1=k-1; v2= k(n-1). Femp>F0,05(o,01)- dlatego odrzucamy H0 na korzyść H1 i z prawdopodobieństwem popełnienia błędu mniejszym niż 5% (1%). Femp ≤ F0,05- brak podstaw do odrzucenia H0 oznacza to, że nie mamy przynajmniej 95% pewności, że istnieją co najmniej dwie średnie, które się różnią.

BADANIE WSPÓŁZALEŻNOŚCI ZJAWISK. KORELACJA I REGRESJA LINIOWA. Jednostki tworzące zbiorowość, charakteryzowane są za pomocą więcej niż jednej cechy. Cechy te nie są od siebie odizolowane, ale wzajemnie się warunkują. Zachodzi potrzeba ich łącznego badania. Celem tego rodzaju analizy jest stwierdzenie, czy między badanymi zmiennymi zachodzą jakieś zależności, jaka jest ich siła, kształt i kierunek. Dział statystyki zajmujący się badaniem związków między kilkoma zmiennymi nosi nazwę teorii współzależności. RODZAJE ZALEŻNOŚCI: 1. Zależność funkcyjna (deterministyczna)występuje gdy ściśle określonej wartości jednej zmiennej (tzw. zmiennej niezależnej) odpowiada ściśle określona i zawsze ta sama wartość drugiej zmiennej (tzw. zmiennej zależnej). 2. Zależność korelacyjna występuje gdy ściśle określonej wartości zmiennej niezależnej odpowiada przybliżona wartość zmiennej zależnej. Zależność korelacyjna jest szczególnym przypadkiem zależności stochastycznej tj. takiej, że z każdą wartością zmiennej niezależnej związana jest populacja wartości zmiennej zależnej o określonym rozkładzie prawdopodobieństwa. Rodzaje zależności korelacyjnych: A. ze względu na liczbę zmiennych: proste- jedna zmienna zależna i jedna zmienna niezależna.;; złożone- jedna (wiele) zmiennych zależnych i wiele (jedna) zmiennych niezależnych. B. ze względu na postać zależności: zależność liniowa;; zależność krzywoliniowa.

Y- zmienna zależna;; X- zmienna niezależna.

WSPÓŁCZYNNIK KORELACJI LINIOWEJ: = gdzie: cov (x,y)- kowariancja zmiennych x i y. Sx Sy- odchylenie standardowe tych zmiennych. Kowariancja-jest miarą związku pomiędzy zmiennymi. Dla oceny korelacji liniowej posługujemy się współczynnikiem korelacji Pearsona „r”. Jego wartość waha się w zakresie <-1,1>. Wartość „0” wskazuje na brak istnienia zależności. W miarę wzrostu wartości bezwzględnej zależność wzrasta. Znak przed współczynnikiem określa kierunek zależności. W przypadku „-‘’ oznacza to, że wraz ze wzrostem wartości zmiennej niezależnej- wartość zmiennej zależnej maleje. W przypadku „+” wraz ze wzrostem wartości zmiennej niezależnej wartość zmiennej zależnej także wzrasta. Gdy r=0- brak korelacji. Ocena istotności współczynnika korelacji: do oceny istotności współczynnika korelacji można posłużyć się tablicami istotności. Po wyliczeniu wartości współczynnika korelacji (na podstawie pobranej próby), który określamy jako empiryczny (remp) jego wartość porównujemy z wartością krytyczną odczytaną z tablic dla określonego przez nas poziomu istotności α, liczby zmiennych porównywanych k (dla korelacji prostej k=2) i liczby swobody v=n-k. W przypadku gdy wartość emp jest większa od krytycznej dla α=0,05 – korelacja jest istotna ( a dla α=0,01- wysoce istotna). Korzystamy z testu studenta: temp= temp tα to r jest istotny. > rα; v=n-p. tα ; v=n-p p-liczba badanych zmiennych- p=2.

WSPÓŁCZYNNIK DETERMINACI: współczynnik determinacji „r2 określa w jakim stopniu zmiany zmiennej zależnej spowodowane są zmianami zmiennej niezależnej, a w jakim innymi zmiennymi, których nie badaliśmy. Wyrażany jest w przedziale od 0<r2<1 lub po przemnożeniu przez 100 w „%”0<r2%<100; np. n=102; r2=0,2 ; r2%= 4. MODEL MATEMATYCZNY REGRESJI LINIOWEJ: postać funkcji regresji w populacji dana jest wzorem: Y=α+βx+ gdzie Y-zmienna zależna; X- zmienna niezależna; β współczynnik kierunkowy funkcji regresji; α stała funkcji regresji; błędy losowe. Równanie dla próby: y=a+bx (a-estymator α; b- estymator β). Równanie regresji liniowej- POSTAĆ FUNKCJI REGRESJI DANA JEST WZOREM: =a+bx; Ŷ-szacowana wartość zmiennej zależnej; a-wyraz wolny funkcji, decydujący na wykresie o miejscu przecięcia prostej z osią OY; b- współczynnik kierunkowy prostej (współczynnik regresji), który w interpretacji na wykresie określa kąt miedzy osią OX, a prostą regresji. WYLICZANIE I INTERPRETACJA WSPÓŁCZYNNIKA REGRESJI b: Współczynnik ten określa, o ile zmieni się wartość zmiennej zależnej, jeśli wartość zmiennej niezależnej zmieni się o jednostkę: b= WYLICZANIE RÓWNANIA PROSTEJ REGRESJI: mając wyliczony współczynnik kierunkowy prostej b, łatwo jest podać równanie prostej regresji: ŷ=+b (x-) Po wyliczeniu wartości współrzędnych dwóch punktów można wykreślić prostą regresji. ODCHYLENIE STANDARDOWE REGRESJI (błąd standardowy estymacji) Sy/x: mówi o przeciętnym odchyleniu punktów od prostej regresji:

Sy/x= = OCENA ISTOTNOŚCI WSPÓŁCZYNNIKA RÓWNANIA REGRESJI- INTERPRETACJA: hipoteza zerowa zakłada, ze dany współczynnik równa się zero, hipoteza alternatywna-ze jest różny od zera. H0: β=0; H1: β≠0; H0: a=0; H1: a≠0; t-Studenta: t= Sb- błąd standardowy współczynnika regresji. W sytuacji, gdy współczynnik regresji nie różni się istotnie od zera oznacza to, że brak jest istotnej zależności miedzy zmiennymi. Ocena istotności wyrazu wolnego ma jedynie znaczenie pomocnicze.

BŁĄD STANDARDOWY WSPÓŁCZYNNIKA REGRESJI Sb: jest miarą błędu oszacowania współczynnika b. Sb=

PROCEDURA Tukeya: NIRα lub LSDα- najmniejsza istotna różnica. 1-2> NIRα- to mówimy, że średnie się różnią; . 1-2NIRα –mówimy, że średnie się nie różnią. Grupa jednorodna- to grupa obiektów podobnych. Grupa niejednorodna- to grupa obiektów nie różniących się istotnie. S -=

OCENA ISTOTNOŚCI WSPÓŁCZYNNIKÓW RÓWNANIA REGRESJI LINIOWEJ: stosując t-studenta można ocenić niezależnie istotność współczynnika kierunkowego prostej i wyrazu wolnego równania wzorów: gdzie Sb i Sa błędy standardowe odpowiednich współczynników; porównując tą wartość z wartościami z tablic dla danego poziomu istotności i l.s.s. n-2. Korelacja i regresja krzywoliniowa: najczęściej w praktyce wykorzystuje się modele linearyzowane. Do linearyzacji funkcji stosowane są przekształcenia typu logarytmicznego, pierwiastkowego czy odwrotnie proporcjonalnego. Wykorzystuje się także funkcje nieliniowe np. funkcja logistyczna, Richardsa czy Gompertza do opisu. A) analiza merytoryczna materiału (studiowanie literatury, opinie ekspertów, wyniki doświadczeń); B) wstępna analiza statystyczna (punktowy wykres korelacyjny, empiryczne linie regresji); C) statystyczna ocena miar dopasowania modelu do danych empirycznych; D) wybieramy model jak najprostszy matematycznie. Statystyczne miary dopasowania krzywych: W przypadku modeli linearyzowanych miarami dopasowania są miary: - r współczynnik korelacji prostoliniowej lub r2; - Sy/x odchylenie standardowe regresji; - średni kwadrat błędu z analizy wariancji w regresji, czyli zmienność nie wyjaśniona regresją. „Wybieramy ten model, dla którego r lub r2 jest największe, czyli Sy/x i jest najmniejsze”. W przypadku modeli, których nie linearyzujemy miarami dopasowania krzywej są: -R współczynnik korelacji wielorakiej lub R2; - e stosunek korelacyjny może być e2- zakres wahań 0<R=e<1; 0<R<1 0<R2<1 0<R2(%)<100 Gdy model jest prostoliniowy: r=R=e - średni kwadrat błędu z analizy wariancji w regresji, czyli zmienność nie wyjaśniona regresją. Y= lny=lna+b lnx ; Wielomiany: Y=a+bx+cx2; Y=a+bx+cx2+dx2 Krzywe logarytmiczne: Y=a+b lnx; Krzywa wykładnicza: Y=a ebx lny=lna+bx; y=e(a+bx) lny=a+bx; Krzywa hiperboliczna: y=1/(a+bx) 1/y=a+bx Funkcja logistyczna: y=A/(1+b*ek*x)


Wyszukiwarka

Podobne podstrony:
Analiza ekonomiczna sciaga
Opis analizowanych wariantów inwestycji
Analiza wartości sciaga
Analiza matematyczna 2 ściąga
Jednoczynnikowa analiza wariancji
Analiza wariancji wprowadzenie
analiza przedsiębiorstwa-ściąga, Firmy i Przedsiębiorstwa
analiza-wyklady sciaga, Analiza finansowa
ANALIZA MATEMATYCZNA - ściąga, Edukacja, Analiza matematyczna
ANALIZA MATEMATYCZNA sciaga kolo 2
Analiza ekonomiczna - ściąga (wzory)
Analiza strategiczna - ściąga
Analiza wariancji
Hierarchiczna analiza wariancji zadania Word2003, Elementy matematyki wyższej
Analiza wariancji, Jednoczynnikowy model analizy wariancji
8 1 analiza wariancji odp
ANALIZA 3 WARIANTÓW ZAMIENNEGO WYKONANIA OKIEN
10 Analiza wariancji

więcej podobnych podstron