ekonometria i prognozowanie procesow ekonomicznych wyk

Ekonometria i prognozowanie procesów ekonomicznych – wykłady

T: Zagadnienia wstępne z ekonometrii.

Nazwa ekonometrii pochodzi z języka greckiego iokonomia (administracja gospodarki) oraz metron (miara). W literaturze po raz pierwszy termin ekonometria pojawił się w 1910 roku a do słownictwa nauk ekonomicznych nazwę tę wprowadził ekonomista Ranger Frisch.

E.Nowak – ekonometria jest nauką o metodach badania i ilościowych zależności występujących między zjawiskami ekonomicznymi.

Model ekonometryczny i jego elementy składowe.

Przedmiotem ekonometrii jest model ekonometryczny. Opisowy model ekonometryczny to równanie bądź układ równań, który w sposób przybliżony przedstawia zasadnicze powiązania ilościowe występujące między rozpatrywanymi zjawiskami ekonomicznymi. Elementy składowe opisowego modelu ekonometrycznego to:

  1. Zmienna objaśniana Y (zmienna zależna, określająca zjawisko ekonomicznej wyjaśniane przez model)

  2. Zmienne objaśniające X1,X2,…Xn (określające zjawiska, które oddziałują na zmienną objaśnianą)

  3. Parametry modelu a1,a2,…an

  4. Typ związku funkcyjnego: postać liniowa i nieliniowa

  5. Czynnik losowy (błąd), którego źródłem jest nieuwzględnienie wszystkich zmiennych objaśniających w danym równaniu lub przyjęcie złej postaci funkcji

Przyjmując, że zależność Y zmiennej objaśnianej od X objaśniających ma charakter liniowy, model można zapisać:

Etapy budowy modelu ekonometrycznego.

Ekonometryczna analiza zjawisk gospodarczych przy wykorzystaniu modeli opisowych odbywa się etapowo. Najczęściej wyróżnia się 5 etapów postępowania:

  1. Dobór zmiennych objaśniających do modelu

  2. Wybór postaci analitycznej modelu

  3. Estymacja parametrów strukturalnych modelu

  4. Weryfikacja modelu

  5. Wnioskowanie na podstawie modelu

Ad.1

Zagadnienie wyboru zmiennych objaśniających w modelu ekonometrycznym jest etapem szczególnie ważnym, mającym wpływ na kolejne etapy budowy modelu.

Doboru zmiennych objaśniających do modelu dokonuje się następująco:

  1. Na podstawie wiedzy merytorycznej o badanych zależnościach sporządza się tzw. zestaw potencjalnych zmiennych objaśniających

  2. Przeprowadza się redukcję wstępnego zestawu zmiennych wykorzystując kryteria statystyczne

Kryteriami statystycznymi, które powinny spełniać zmienne objaśniające są:

  1. Wysoka zmienność (zróżnicowanie)

  2. Silna korelacja ze zmienną objaśnianą

  3. Słaba korelacja między poszczególnymi zmiennymi objaśniającymi

Miarą poziomu zmienności jest współczynnik zmienności, który obliczamy dzieląc odchylenie standardowe zmiennej x przez średnią arytmetyczną tej zmiennej.

gdzie

Ze zbioru potencjalnych zmiennych objaśniających eliminuje się te zmienne, które dla obserwowanej wcześniej wartości krytycznej współczynnika zmienności V*(najczęściej V*=0,10) spełniają nierówność:

Zmienne te uznaje się za quasi stałe i odrzuca.

Siłę skorelowania między zmiennymi określa się na podstawie współczynnika korelacji

gdzie

r – współczynniki korelacji między zmienną yt a potencjalnymi zmiennymi objaśniającymi X1,X2,…Xn. Obliczone współczynniki korelacji tworzą wektor R0.

gdzie

rij – współczynniki korelacji między potencjalnymi zmiennymi objaśniającymi.

Obliczone współczynniki korelacji tworzą macierz R.

Metoda wskaźnika pojemności informacyjnej Hellwiga.

Przyjmujemy, że dany jest zbiór potencjalnych zmiennych objaśniających X1,X2,…Xn (czyli zbiór kandydatek do roli zmiennych objaśniających, które traktuje się jako nośniki informacji o zmiennej objaśnianej.

Metoda Hellwiga pozwala wybrać ze zbioru kandydatek takie zmienne objaśniające, które są:

1) Silnie skorelowane ze zmienną objaśnianą

2) Słabo skorelowane między sobą

Etapy postępowania są następujące:

1) Ustalamy liczbę możliwych kombinacji potencjalnych zmiennych objaśniających wg wzoru

Gdzie: m – liczba zmiennych kandydujących do roli zmiennych objaśniających

2) Dla każdej kombinacji obliczamy pojemności indywidualne nośników informacji wg wzoru

gdzie

i – numer kombinacji

j – numer zmiennej kombinacji

rj – współczynnik korelacji potencjalnej j-tej zmiennej objaśniającej ze zmienną objaśniać zawartym w wektorze R0.

rij – współczynnik korelacji między i-tą a j-tą zmienną objaśniającą (macierz R)

  1. Integralne wskaźniki pojemności informacyjnej wg wzoru

Istota metody polega na wyborze takiej kombinacji zmiennych objaśniających dla której pojemność integralna jest największa.

Estymacja modeli liniowych

Jedną z najbardziej rozpowszechnionych metod estymacji parametrów strukturalnych modeli jest Metoda Najmniejszych Kwadratów (MNK). Może być ona stosowana przede wszystkim w jednorównaniowych modelach liniowych oraz w modelach w których przez transformację można sprowadzić do postaci liniowej.

W przypadku modeli wielorównaniowych w MNK wykorzystać można do estymacji parametrów strukturalnych modeli prostych i rekurencyjnych przy czym parametry dla każdego równania stosuje się oddzielnie.

Idea MNK sprowadza się do takiego wyznaczenia wartości ocen a0, a1,…, ak parametrów strukturalnych α0, α1,…, αk modelu liniowego

aby suma kwadratów odchyleń zaobserwowanych wartości zmiennej objaśniającej od jej wartości teoretycznych wyznaczonych z modelu była najmniejsza.

Kryterium to zapisać można następująco:

Przy czym

Odchylenie zaś empirycznych wartości zmiennej objaśnianej od jej wartości teoretycznych wyznaczonych z modelu nosi nazwę reszt model

(t = 1,2,…,n)

Wykorzystanie MNK w procesie estymacji parametrów strukturalnych modeli wymaga spełnienia następujących założeń:

1) Szacowany model jest modelem liniowym

2) Zmienne objaśniające są wielkościami nielosowymi tzn. zmienne objaśniające równania są ustalane w powtarzalnych próbach

3) Nie występuje zjawisko współliniowości zmiennych objaśniających (zjawisko to pojawia się wtedy, gdy współczynniki korelacji między zmiennymi objaśniającymi co do bezwzględnej wartości są bliskiej jedności)

4) Składnik losowy ma wartość oczekiwaną równą 0 i stałą skończoną wariancję

5) Nie występuje zjawisko autokorelacji składnika losowego czyli zależności składnika losowego w różnych jednostkach czasu

Estymacja parametrów modelu z jedną zmienną objaśniającą

Rozważamy liniowy model ekonometryczny o postaci:

Wartości ocen a0 oraz a1 parametrów αo oraz α1 dla tego modelu wyznacza się z następującego kryterium:

Warunkiem istnienia minimum funkcji dwuwymiarowych jest to aby pochodne cząstkowe względem zmiennych były równe zeru.

Obliczając pochodne cząstkowe otrzymamy następujące równania:

Po skróceniu przez (-2) i otwarciu nawiasów otrzymujemy

Po przeniesieniu odpowiednich wielkości na lewą stronę otrzymujemy następujący układ równań normalnych:

Po rozwiązaniu powyższego układu równań otrzymujemy następujące wzory na oceny parametrów a0 i a1

Standardowe błędy szacunku S(a0) i S(a1) parametrów strukturalnych a0 i a1 wyznacza się z wzorów

Se – odchylenie resztowe

Szacowanie parametrów strukturalnych modelu liniowego z wieloma zmiennymi objaśniającymi

Wykorzystując symbolikę macierzową modelu zapisać można następująco:

gdzie

Wektor obserwacji zmiennej objaśnianej

Macierz wartości zmiennych objaśniających

Wektor parametrów strukturalnych

Wektor składników resztowych

przez oznaczamy oszacowanie wartości średniej zmiennej objaśnianej „y” przy czym „a” oznacza wektora oceny parametrów strukturalnych modelu.

Wówczas funkcję kryterium dla ocen parametrów modelu zapisać można następująco:

gdzie

Wstawiając do funkcji kryterium otrzymujemy:

Ponieważ:

Otrzymujemy:

Następnie obliczamy pochodne cząstkowe i przyrównujemy je do zera

Po podzieleniu przez (-2) otrzymujemy:

gdzie

a – wektor ocen parametrów strukturalnych szacowanego modelu ekonometrycznego

Macierz wariancji i kowariancji ocen parametrów strukturalnych oblicza się z wzoru

gdzie

Se2 – wariancję składnika resztowego w sposób macierzowy oblicza się ze wzoru:

Należy dodać, że

Natomiast:

Elementy na głównej przekątnej w macierzy D2(y) są wariancjami V(a) ocen parametrów strukturalnych. Natomiast standardowe błędy szacunku parametrów strukturalnych pierwiastkami z wariancji ocen parametrów strukturalnych.

T: Weryfikacja modeli liniowych

Kolejnym etapem po estymacji parametrów strukturalnych modelu ekonometrycznego jest jego weryfikacja. Weryfikacja modelu ma na celu sprawdzenie, czy model dobrze opisuje badane zjawisko a więc czy może być przydatny do celów analizy lub predykcji.

W zakresie weryfikacji wyróżnić można:

1) Weryfikację merytoryczną

2) Weryfikację statystyczną

Weryfikacja merytoryczna polega na sprawdzeniu czy model ekonometryczny jest zgodny z wiedzą ekonomiczną na temat badanego zjawiska, teorią ekonomii a wreszcie ze zdrowym rozsądkiem.

Podczas weryfikacji merytorycznej badamy np.

1) Czy sensowne są znaki parametrów modelu

2) Czy skala parametrów jest do przyjęcia

3) Czy na podstawie modelu można sensownie prognozować

Natomiast przy weryfikacji statystycznej szerokie zastosowanie znajdują instrumenty z zakresu statystyki matematycznej a zwłaszcza teorie hipotez statystycznych.

Za „dobry” w sensie statystycznym uznaje się więc taki model ekonometryczny w którym:

1) Parametry strukturalne są statystycznie istotne

2) Wybrane parametry struktury stochastycznej przyjmują dopuszczalne wartości (np. współczynnik zbieżności i determinacji, współczynniki zmienności losowej)

3) Reszty modelu charakteryzują się pożądanymi własnościami.

Rodzaj obliczanych mierników statystycznych oraz przeprowadzonych testów zależą od konkretnego modelu, od rodzaju danych statystycznych na podstawie, których szacowano parametry tego modelu (szeregi czasowe, dane przekrojowe) od liczby obserwacji (duża próba, mała próba). Niepowodzenie w badaniu jakiejś pożądanej cechy modelu powinno spowodować powrót do wcześniejszych etapów modelowania ekonometrycznego (zmiana postaci analitycznej modelu, zmienne zestawu zmiennych objaśniających, zmiana metody estymacji parametrów strukturalnych modelu i przeprowadzenie procedury weryfikacyjnej od początku).

Badanie istotności parametrów strukturalnych α1, α2,.. αk liniowego modelu ekonometrycznego ma na celu sprawdzenie czy zmienne objaśniające istotnie oddziałują na zmienną objaśnianą czy też nie. Formułujemy więc odpowiednie hipotezy statystyczne:

H0: α1=0

H1: α1≠0

Hipoteza zakłada, że parametr α1 nieistotnie różni się od 0 tzn. że zmienna xi przy której stoi wywiera nieistotny wpływ na zmienną objaśnianą. Hipoteza H1 zaś oznacza, że wartość parametru istotnie różni się od 0 czyli zmienna X1 przy której on stoi wywiera istotny wpływ na zmienną objaśnianą.

Test istotności oparty jest na następującej statystyce:

Gdzie:

ai – wartość oceny parametru statystyczne ai

S(ai) – standardowy błąd szacunku tego parametru

Z tablic testu t-Studenta dla przyjętego poziomu istotności α oraz n-k-1 stopnia swobody odczytujemy wartość krytyczną tα. Jeśli spełniona jest nierówność ti ≤ tα nie ma podstaw do odrzucenia hipotezy H0. Natomiast jeśli ti > tα to hipotezę H0 należy odrzucić na rzecz hipotezy H1.

Podstawowymi miarami zgodności modelu z danymi empirycznymi są:

1) Współczynnik zbieżności o postaci

Współczynnik zbieżności przyjmuje wartość z przedziału (0,1) informuje jaka część całkowitej zmienności objaśnianej nie jest wyjaśniana przez model. Im współczynnik zbieżność jest bliższy zeru, tym lepsze jest dopasowanie modelu do danych.

2) Współczynnik determinacji o postaci

Współczynnik determinacji przyjmuje wartości z przedziału (0,1) i wskazuje jaka część całkowitej zmienności zmiennej objaśnianej jest wyjaśniana przez model. Dopasowanie modelu do danych jest tym lepsze, im współczynnik determinacji jest bliższy jedności.

3) Współczynnik zmienności losowej zdefiniowany następująco

Gdzie Se – odchylenie resztowe

Współczynnik ten informuje jaki jest procent średniej arytmetycznej zmiennej objaśnianej modelu stanowi odchylenie standardowe reszt. Im współczynnik We jest mniejszych tym lepsze dopasowanie modelu do danych.

Losowość reszt

Badanie losowości rozkładu składnika resztowego ma na celu zweryfikować hipotezy o trafności doboru postaci analitycznej modeli. Podstawę wnioskowania stanowią reszty uzyskane po oszacowaniu modelu klasycznie metodą najmniejszych kwadratów.

Do badania losowego reszt wykorzystuje się test serii a kolejne etapy postępowania są następujące:

1) Formułujemy odpowiednie hipotezy statystyczne

H0: reszty et modelu są losowe

H1: reszty et modelu nie są losowe

2) Wyznaczonym resztom przypisujemy losowe symbole „a” jeżeli et>0 oraz „b” jeżeli et<0 (reszt dokładnie równych zeru nie bierze się pod uwagę). Otrzymujemy ciąg złożony z symboli a i b w którym występują serie. Seria to każdy podciąg jednakowych elementów, który poprzedzony jest i po którym następuje element różny od elementów podciągu. Liczbę serii oznaczamy jako k.

3) Z tablic liczby serii odczytujemy wartość krytyczną kα dla na (liczby reszt oznaczonych symbolem a) i dla nb (liczby reszt oznaczonych symbolem b) oraz przyjętego poziomu istotności α. Jeżeli k≤ kα to hipotezę o losowości reszt należy odrzucić co wiąże się z koniecznością zmiany postaci analitycznej modelu. Jeśli natomiast k> kα nie ma podstaw do odrzucenia hipotezy H0.

Badanie asymetrii składnika losowego

Rozkład reszt uznaje się za symetryczny, gdy reszty dodatnie (obserwując odchylające się in plus od wartości modelowych) stanowią połowę wszystkich obserwacji. Hipotezy statystyczne zapisujemy więc następująco:

Gdzie:

m – liczba reszt dodatnich

n – ogółem liczba obserwacji

Test pozwalający zweryfikować powyższe hipotezy ma postać:

Dla przyjętego poziomu istotności α oraz n-1 stopni swobody w tablicach testu t-Studenta odczytujemy wartość krytyczną tα, jeśli t < tα, to nie ma podstaw do odrzucenia hipotezy H0 o symetrii składnika resztowego. Gdy t ≥ tα hipotezę H0 należy odrzucić.

Badanie autokorelacji reszt

Jednym z założeń klasycznej metody najmniejszych kwadratów jest brak skorelowania pomiędzy składnikami resztowymi. Założenie to czasem nie jest zawsze spełnione, zwłaszcza w modelach dla szeregów czasowych, kiedy wartość zmiennej objaśnianej w danym okresie zależy od tego, jaka była jej wartość w okresie poprzedzającym. Oznacza to, że istnieje zależność między et-1 a et.

Badając autokorelację reszt formułujemy hipotezy statystyczne:

H0: reszty modelu nie są skorelowane (ρ1=0)

H1: autokorelacja reszt występuje (ρ1≠0)

Testem weryfikacyjnym istnienia autokorelacji pierwszego rzędu jest test Durbina-Watsona o postaci:

Z tablic testu Durbona-Watsona dla przyjętego poziomy istotności α; liczby obserwacji n oraz liczby zmiennych objaśniających k odczytuje się dwie wartości dL i du.

Jeśli d < 2 to występuje autokorelacja dodatnia z założenia weryfikacyjne są następujące:

Gdy d > du to nie ma podstaw do odrzucenia hipotezy H0.

Gdy d < dL to hipotezę Ho należy odrzucić.

Gdy dL ≤ d ≤ du test nie pozwala podjąć decyzji.

Natomiast gdy d > 2 występuje autokorelacja ujemna w związku z tym oblicza się jeszcze wartość d = 4-d a założenia weryfikacyjne są następujące:

Gdy d’ > du to nie ma podstaw do odrzucenia hipotezy H0.

Gdy d’ < du to hipotezę H0 należy odrzucić.

Gdy dL ≤ d’ ≤ du test nie pozwala podjąć decyzji.

Badanie normalności rozkładu składnika losowego Test Shapiro-Wilka.

Jeżeli składnik losowy jednowymiarowego modelu liniowego ekonometrycznego ma rozkład normalny, to estymator uzyskany za pomocą MNK ma własności użyteczne w konstruowaniu testów statystycznych w celu sprawdzenia różnych cech modelu ekonometrycznego stąd spełnienie założenia o normalności rozkładu składnika losowego ma zasadnicze znaczenie dla procesu weryfikacji modelu.

Istnieje wiele testów weryfikujących hipotezę o normalności składnika losowego modelu ekonometrycznego. Jednym z nich jest test Shapiro-Wilka. Weryfikujemy hipotezy, że dystrybuanta odchyleń F(ε) jest równa dystrybuancie rozkładu normalnego FN(ε) co można zapisać jako:

H0: F(ε)= FN(ε)

H1: F(ε)≠ FN(ε)

Etapy postępowania z testu Shapiro-Wilka są następujące:

1) Porządkujemy reszty według wartości niemalejącyh utrzymując ciąg e(1), e(2),… e(n)

2) Obliczamy wartości statystyki W

gdzie

n/2 – część całkowita liczby n/2

an-t+1 – współczynnik Shapiro-Wilka odczytany z tablic

1) Z tablic testu Shapiro-Wilka dla przyjętego poziomu istotności odczytujemy wartość krytyczną W*. Test ten jest testem lewostronnym, więc jeśli W ≥ W* to nie ma podstaw do odrzucenia hipotezy H0 mówiącej, że rozkład składników losowych jest normalny. Natomiast jeśli W < W* hipotezę H0 należy odrzucić na rzcz hipotezy H1 co oznacza, że rozkład składników losowych jest normalny

T: Test Hellwiga – badanie normalności rozkładu reszt.

H0:F(ε) = FN(ε)

H1:F(ε) ≠ FN(ε)

Etapy postępowania przy użyciu testu Hellwiga.

1) Dokonujemy standaryzacji reszt według wzoru:

- średnia reszta

- odchylenie standardowe reszt

2) Porządkuejemy zestandaryzowane reszty od najmniejszej do największej wartości.

3) Z tablic dystrybuanty rozkładu normalnego odczytujemy wartości dystrybuant.

4) Wyznaczamy tzw. cele It, którymi są przedziały liczbowe o rozpiętości, powstaje po podzieleniu odcinka wartości od 0 do 1 na n równych części.

5)Przyporządkowujemy wartości dystrybuanty odpowiednim celom oraz określamy liczbę cel pustych K do których nie trafiła żadna wartość dystrybuanty.

6)Dla przyjętego poziomu istotności α oraz liczby odbserwacji n z tablic testu zgodności Hellwiga odczytujemy wartości krytyczne K1,K2.

7)Jeśli K będzie:

Nie ma podstaw do odrczuenia hipotezy H0 o normalności rozkładu reszt. Jestli natomiast K < K1 to hipotezę H0 należy odrzucić na rzecz hipotezy H1. Odchylenia losowe modelu nie mają wówczas rozkładu normalnego.

Badania stałości wariancji w czasie.

Założenia o stałości wariancji składnika losowego (homoscedastyczności) można zweryfikować przy użyciu testu F sprawdzając hipotezę o równości wariancji odchyleń losowych dwóch skrajnych grup obserwacji. Odpowiednie hipotezy statystyczne są następujące:

Wyznczamy wartość statystyki

Z tablic testu F dla przyjętego poziomu istotności α oraz m1=n2-k-1 i m2=n1-k-1 stopni swobody odczytuje się wartość krytyczną F*. Jeśli F≤F*, nie ma podstaw do odrzucenia hipotezy H0; wariancja odchyleń losowych jest stała w czasie. Jeśli F>F*, hipotezę H0 należy odrzucić na rzecz hipotezy H1; w miarę upływu czasu wariancja odchyleń losowych wzrasta.

Prognozowanie ekonometryczne

Prognozowanie na podstawie modelu ekonometrycznego jest ostatnim etapem analizy ekonometrycznej badanego zjawiska. Przystępujemy do niego tylko wówczas gdy model danego zjawiska przeszedł pozytywnie etap weryfikacji.

Prognozowaniem ekonometrycznym lub predykcją ekonometryczną nazywa się proces wnioskowania o przyszłych wartościach zmiennej objaśnianej na podstawie modelu wyjaśniającego kształtowanie się tej zmiennej. Wynik tego procesu nazywamy prognozą.

Wyznaczenie prognozy wymaga spełnienia następujących założeń:

1)Znana jest postać modelu ekonometrycznego dla zmiennej prognozowanej i jest ona stabilna w czasie.

2)Znane są wartości zmiennych objaśniających w okresie prognozowania (wielkości założone, planowane albo przewidywane w scenariuszach rozwoju badanego zjawiska).

3) Oceny paramterów strukturalnych modelu są stabilne w czasie

4) Znane są parametry stochastyczne struktury modelu.

Wyróżnia się dwa rodzaje prognozowania:

- prognozowanie punktowe, które jest liczbą stanowiącą możliwie najlepszą ocenę przyszłej realizacji zmiennej prognozowanej

- prognoza przedziałowa będąca przedziałem liczebnym, który z określonym prawdopodobieństwem zwanym wiarygodnością prognozy zawiera nieznaną wartość zmiennej prognozowanej w okresie prognozowania.

Wynikiem procesu prognozowania powinna być nie tylko prognoza ale także wartość odpowiedniego miernika dokładności predykcji zwanego średnim błędem prognozy. Określa on różnicę pomiędzy wartością zmiennej objaśnianej a wartością obliczanej dla niej prognozy.

Prognozowanie na podstawie modelu trendu

Model tendencji rozwojowej to model jednorównaniowy ekonometryczny, którego postać analityczna jest stała w czasie a jedyną zmienną objaśniającą jest zmienna czasowa t lub jej funkcja. Modele te przydatne są zwłaszcza do budowy prognoz krótko i średnioterminowych.

Predykcja na podstawie modelu trendu wymaga:

1) Wyboru postaci analitczynej funkcji trendu na podstawie zebranych danych statystycznych

2) Estymacji parametrów strukturalnych modelu

Ogólną postać liniowego modelu tendencji rozwojowej można zapisać następująco:

Oceny parametrów strukturalnych α0 i α1 wyznaczamy z wzorów:

Prognozy punktowe zmiennej objaśnianej Y w okresie prognozowania T na podstawie trendu wyznacza się wstawiając w oszczacowanym modelu w miejsce zmiennej czasowej t numer okresu prognozowania.

Natomiast średni błąd prognozy:

Se2 – wariancja resztowa modelu

Przedział prognozy założonej wiarygodności prognozy β ma postać:

tα odczytuje się z tablic rozkładu t-Studenta dla n-2 stopni swobody oraz dla założej wiarygodności β.

Prognozowanie na podstawie modelu opisowego.

Gdy występuje zmienność analizowanego procesu gospodarczego i nie można wyodrębnić trwałej tendencji rozwojowej wówczas w prognozowaniu istotne znaczenie mają modele opisowe.

Aby prognozować na podstawie liniowego modelu jednorównaniowego o postaci:

Aby oszacować prognoże modelu opisowego należy znać wartości X1F*, X2F*,XkT* zmiennych objaśniających w okresie prognozowania.

Prognozę punktową zmiennej y wyznaczamy więc następująco:

Błąd prognozy wyznaczamy z wzoru:

Prognozę przedziałową buduje się tak samo jak w prognozowaniu na podstawie linowych modeli trendu.

Predykcja metodą wag harmonicznych.

Metoda wag harmonicznych charakteryzuje się tym, że nie wymaga spełnienia założeń o stabilności parametrów modelu czy jego postaci analitycznej. Uwzględnia natomiast zjawisko starzenia się informacji czyli uniezależnienia w pewnym sensie opisu przebiegu zjawiska w przeszłości od napływu nowych danych empirycznych. W metodzie wag harmonicznych wyróżnia się dwa niezależne etapy:

1) Wyrównywanie szeregu czasowego za pomocą trendu pełzającego

2) Wyznaczenie prognoz z wykorzystaniem wag harmonicznych

W metodzie trendu pełzającego postępujemy następująco:

- klasyczną metodą najmniejszych kwadratów szacujemy parametry strukturalne liniowych funkcji trendów segmentowych uwzględniając określony okres wygładzania s; (s<n)

- na podstawie wyznaczonych równań trendów segmentowych obliczamy wstawiając kolejne wartości zmiennej czasowej teoretyczne wartości zmiennej prognozowanej

Ostateczne wygładzanie szeregu czasowego otrzymujemy obliczając średnie arytmetyczne z każdego wiersza.

Następnie obliczamy przyrosty wygładzanych wartości szeregu czasowego

Oraz średni ważony przyrost wygładzonych wartości zmiennej prognozowanej

Ct – wagi harmoniczne

Oraz liczymy odchylenie standardowe przyrostów

Prognozę punktową w metodzie wag harmonicznych wyznacza się następująco:

Przedział prognozy buduje się wyznaczając dolną i górną granicę przedziału.

T: Analiza szeregów czasowych.

Szereg czasowy to ciąg obserwacji pewnego zjawiska w kolejnych jednostkach czasu (latach, kwartałach, miesiącach itd.).

Wyróżnia się następujące składniki szeregu losowego:

1) Tendencję rozwojową (T)

2) Wahania cykliczne (C)

3) Wahania sezonowe (S)

4) Wahania przypadkowe (E)

Tendencja rozwojowa zwana trendem jest długotrwałą skłonnością do jednokierunkowych zmian wzrostu lub spadku wartości badanej zmiennej. Charakter tych zmian (systematyczność i długotrwałość) pozwala przypuszczać, że przyczyną występowania określonego trendu w rozwoju zjawiska jest oddziaływanie na zjawisko pewnego stałego zestawu czynników. Tendencja rozwojowa może być wyznczana gdy dysponuje się długim ciągiem obserwacji.

Wahania cykliczne wyrażają się w postaci długookresowych powtarzających się rytmicznie przedziałach czasu dłuższych niż rok wahań wartości zmiennej wokół tendencji rozwojowej lub stałego (przeciętnego) poziomu tej zmiennej np. cykle koniunkturalne w gospodarce, w których wyróżnia się fazy: ekspansji, recesji, kryzysu i ożywienia.

Wahania sezonowe są wahaniami wartości obserwacji zmiennej wokół tendencji rozwojowej lub stałego (przeciętnego) poziomu tej zmiennej. Najczęściej obserwuje się wahania o cyklu rocznym a podokresami cyklu mogą być w tym przypadku półrocza, kwartały, miesiące a nawet dni. Przyczyną wahań o cyklu rocznym sa na ogół czynniki przyrodnicze i dlatego nazywa się je wahaniami sezonowymi.

Ostatnią składową występującą we wszystkich szeregach czasowych są wahania nieregularne (przypadkowe) spowodowane działaniem przyczyn losowych np. klęski żywiołowe, epidemia.

Proces wyodrębnienia poszczególnych składowych danego szeregu czasaowego określa się mianem dekompozycji szeregu.

Wahania sezonowe występują w bardzo wielu zjawiskach ekonomicznych np. przewozach towarowych kolei, w ruchu pasażerskim, w pracach inwestycyjnych, w spożyciu niektórych artykułów.

Analiza wahań sezonowych zależy od ich typu. Jeśli amplituda wahań w analogicznej fazie cyklu jest jednakowa to wahania sezonowe są bezwzględne (addytywne).

Jeśli bezwzględne rozmiary amplitudy zmieniają się, ale w stałym stosunku to mówimy o względnych wahaniach sezonowych (multiplikatywnych).

Wahania sezonowe można wyodrębnić na podstawie wskaźników sezonowości, które wskazują w jakim stopniu poziom zjawiska w danym cyklu wahań różni się od poziomu tego zjawiska wyznaczonego przez jego ogólną tendencję rozwojową.

W analizie wahań sezonowych można wyróżnić 4 etapy postępowania:

1) Wyodrębnienie tendencji rozwojowej

2) Eliminację tendencji rozwojowej szeregu czasowego

3) Eliminację wahań przypadkowych

4) Obliczanie czystych wskaźników sezonowości

Wyodrębnianie tendencji rozwojowe polega na określeniu modelu trendu dla szeregu czasowego zmiennej.

Eliminacja tendencji rozwojowej z szeregu czasowego dokonuje się następująco:

1) W przypadku modelu addytywnego obliczając różnice wartości rzeczywistych zmiennej i wartości teoretycznych otrzymanych z modelu tendencji rozwojowej

2) W przypadku modelu multiplikatywnego obliczając ilorazy wartości rzeczywistych zmiennej przez odpowiadające im wartości teoretyczne otrzymane z modelu tendencji rozwojowej

Elimincaję wahań przypadkowych przeprowadza się obliczając tzw. surowe wskaźniki sezonowości Zt jako średnie arytmetyczne tych wartości Zti, które odpowiadają i-tej fazie cyklu. Czyste wskaźniki sezonowości (ci) wyznacza się z wzorów:

dla modelu addytywnego

lub

dla modelu multiplikatynwgo

gdzie

r – liczba faz w cyklu

Suma czystych wskaźników sezonowości powinna być równa zeru (dla modelu addytywnego) lub liczbie faz tworzących cykl (dla modelu multiplikatywnego).

Prognostyczną wartość zmiennej na moment lub okres t można wyznaczyć następująco:

dla modelu addytywnego

dla modelu multiplikatywnego

gdzie

y*ti – prognoza zmiennej y na okres t w i-tej fazie cyklu

y*ti(w) – wstępna prognoza zmiennej y na okres i w i-tej fazie cyklu wyznaczana na podstawie modelu tendencji rozwojowej

ci – czysty wskaźniki sezonowości w i-tej fazie cyklu

Procesem stochastycznym nazywa się ciąg zmiennych losowych obserwowanych w przeciągu pewnego czasu. Jeżeli w każdym okresie czasu zmienne te mają taki sam rozkład to nazywamy je stacjonarnymi w szerszym sensie, jeżeli średnie i wariancje są skończone i stałe w czasie a kowariancje zależą jedynie od różnicy okresów pomiędzy dwoma obserwowanymi zmiennymi. Szereg w którym zmienna ekonomieczna wykazuje trend jest niestacjonarny.

Badanie stacjonarności szeregów jest ważne gdyż estymacja modelu liniowego dla zmiennych niestacjonarnych może spwowodować wystąpienie tzw. regresji pozornej. Model wydaje się dobry, na co wskazują wyniki weryfikacji (zauważamy R2 i statystyki istotności) jednak tylko pozornie a wnioskowanie na podstawie takiego modelu nie jest poprawne.

Wstępne wnioski na temat występowania regresji pozornej można wyciągnąć porównując współczynnik determinacji (R2) i statystyki Durbina-Watsona (DW). Gdy R2>DW to możemy spodziewać się efektu regresji pozornej.

Niemal wszystkie szeregi danych ekonomicznych zawierają trend, więc należy usunąć trend zanim będzie można przeprowadzić sezonową analizę regresji. Wygodnym sposobem pozbycia się trendu jest zastosowanie pierwszych przyrostów (różnic między kolejnymi obserwacjami) zamiast poziomów zmiennych.

Niekiedy do osiągnięcia stacjonarności niezbędne jest obliczenie przyrostów więcej niż jeden raz.

Szereg niestacjonarny, który można sprowadzić do szeregu stacjonarnego obliczając przyrost d razy nazywamy szeregiem zintegrowanym stopnia d.

Taki szerego oznacza się symbolem

yt ~ I(d)

szereg stacjonarny nazywa się inaczej szeregiem zintegrowanym w stopniu zerowmym co zapisujemy

yt ~ I(0)

Oznacza to równocześnie, że zmierza on do stanu równowagi w długmi okresie.

Jeśli pewna zmienna wykazuje stały wzrost lub spadek w czasie to jest zintegrowana w stopniu pierwszym. Inaczej mówiąc jeśli szereg yt jest niestacjonarny, ale stacjonarny jest szereg pierwszych przyrostów yt, czyli Δyt = yt – yt-1 – mówimy, że szereg yt jest zintegrowany w stopniu pierwszym co zapisujemy: yt ~ I(1).

Jeżeli szereg Δyt też nie jest stacjonarny, ale stacjonarny jeste szereg jego pierwszych przyrostów to mówimy, że szereg yt jest zintegrowany w stopniu drugim co zapisujemy: yt ~ I(2) itd.

Do testowania stopnia integracji, służy test Dickeya – Fullera (DF) zwany testem pierwiastka jednostkowego.

Hipotezy statystyczne są następujące:

H0:δ=0 oznacza to, że yt ~ I(1) przynajmniej (szereg niestacjonarny)

H1:δ<0 oznacza to, że yt ~ I(0) (szereg stacjonarny)

Test DF polega na testowaniu ujemności δ modelu

Δyt = δ yt-1 + εt

oszacowanego metodą najmniejszych kwadratów.

Statystyka testu pierwiastka jednostkowego jest obliczana jako iloraz wartości parametru i jego błędu standardowego.

Wartości krytyczne testu odczytuje się ze specjalnie dla tego testu skonstruowanych tablic Dickeya-Fullera. Znajdziemy tam dla danej liczby obserwacji n oraz m=0 dolną i górną wartość statystyki DF (tablice pomijają znak minus przed wartościami statystyki DF).

Jeśli obliczona wartość statystyki jest mniejsza niż dolna wartość krytyczna to odrzucamy hipotezę zerową. Gdy obliczona wartość jest większa od górnej wartości krytycznej to nie ma podstaw do odrzucenia hipotezy zerowej.

Jeżeli podejmiemy decycję, w której brak jest podstaw do odrzucenia H0 o niestacjonarności szeregu czasowego, następny krok polega na ustaleniu poziomu integracji.

Powtarzamy test DF używając pierwszych przyrostów szeregu, czyli na podstawie modelu

gdzie

Testujemy hipotezę, że szereg jest zintegrowany co najmniej w stopniu 2 z modelu hipotezy, że szereg jest zintegrowany w stopniu 1.

H0:δ=0

H1:δ<0

Jeśli obliczona wartość statystyki DF jest mniejsza niż dolna wartość krytyczna, to odrzucamy hipotezę zerową na rzecz hipotezy alternatywnej. Mamy wtedy do czynienia ze zmienną niestacjonarną zintegrowaną w stopniu 1.

Jeśli nie możemy odrzucić hipotezy zerowej to należy przeprowadzić koleny test dla

Kointegracja dotyczy dwóch lub więcej szeregów czasowych i występuje wówczas, gdy dwa szeregi lub więcej są niestacjonarne, ale ich liniowa kombinacja jest stacjonarna, szeregi czasowe są więc skointegrowane gdy są zintegrowane i mają ten sam stopień integracji.

Rozważamy dwa szeregi zintegrowane w stopniu pierwszym I(1):

yt i xt oraz model:

czyli

Jeżeli okaże się, że składnik losowy εt, czyli liniowa kombinacja yt i xt są skointegrowane czynniki powodujące niestacjonarnych zmiennych yt i xt eliminują się wzajemnie i składnik losowy pozostaje stacjonarny. Powyższy model nazywany jest regresją lub relacją kointegrującą a parametr parametrem kointegrującym.

W przypadku rozszerzenia modelu regresji na m skointegrowanych zmiennych objaśniających powstanie m-elementarny wektor kointegrujący.

Występowanie kointegracji testuje się za pomocą testu pierwiastka jednostkowego. Należy w tym celu rozważać równanie regresji

wyznaczyć jego resztę et i zweryfikować niestacjonarność procesu

stosując test Dickeya-Fullera.

Wartości krytyczne testu znajdują się w tablicach testu kointegracji DF (skorygowane tablice DF).

Wykład........

Jeśli związek zmiennej objaśnianej ze zmiennymi objaśniającymi nie ma charakteru liniowego, to do opisu badanej zależności wykorzystuje się najczęściej następujące modele nieliniowe:

1) Funkcję hiperboliczną

2) Funkcję potęgową

3) Funkcję wykładniczą

4) Funkcję paraboliczną

Do wyboru postaci analitycznej modeli nieliniowych można wykorzystać następujące metody:

1) Metoda oparta na apriorycznej wiedzy o badanych zależnościach.

Postać analityczną modelu można zaproponować korzystając z wiedzy ekonomicznej o badanych prawidłowościach. Istnieją bowiem teorie ekonomiczne wyjaśniające zachowanie się gospodarki narodowej, rynkowej czy przedsiębiorstw.

Np. Jeśli wiadomo, że jednostkowemu przyrostowi zmiennej objaśniającej odpowiada stały przeciętny przyrost zmiennej objaśnianej wówczas model opisujący badaną zależność przyjmuje najczęściej postać liniową:

W sytuacji, gdy wiedza o badanym zjawisku wskazuje na to, że przyrostowi jednostkowemu zmiennej towarzyszą coraz to mniejsze przyrosty zmiennej objaśnianej, należy wówczas zastosować model logarytmiczny:

Jeśli natomiast wiadomo, że przyrostowi jednostkowemu zmiennej objaśniającej odpowiadają coraz to większe przyrosty zmiennej objaśnianej, wówczas można zaproponować model wykładniczy:

2) Metoda heurystyczna, tj. metoda prób polegająca na dopasowaniu do danych empirycznych różnych postaci analitycznych modelu i wyboru jednej z nich na podstawie określonego kryterium. Najczęściej jako kryterium przypisuje się współczynniki zbieżności, współczynnika determinacji bądź współczynnika zmienności losowej.

3) Metoda oceny wzrokowej, którą stosuje się zwłaszcza do modeli z jedną zmienną objaśniającą. Metodę tę można także adoptować do modeli z wieloma zmiennymi objaśniającymi. Wówczas sporządza się k-wykresów przedstawiających związki łączące zmienną objaśnianą z poszczególnymi zmiennymi objaśniającymi: X1,X2,…,Xk. Model ekonometryczny powstaje przez zsumowanie tych części szczegółowych funkcji regresji, które są przy zmiennych objaśniających oraz wyrazu wolnego.

Dobór zmiennych objaśniających

Dobór zmiennych objaśniających do modelu nieliniowego może być przeprowadzony na podstawie wektora współczynników korelacji zmiennej objaśnianej z liniowymi przekształceniami potencjalnych zmiennych objaśniających i macierzy współczynników korelacji między liniowymi przekształceniami potencjalnych zmiennych objaśniających. Do redukcji zbioru transformat liniowych potencjalnych zmiennych objaśniających można zastosować m.in. metodę wskaźnika pojemności informacyjnej Hellwiga lub metodę analizy macierzy współczynnika korelacji.

Szacowanie parametrów strukturalnych modeli nieliniowych.

Do estymacji parametrów strukturalnych modeli nieliniowych można wykorzystać MNK przy czym najpierw należy dokonać transformacji liniowej, tak aby przekształcone równanie miało postać liniową względem parametrów strukturalnych MNK wyznaczamy parametry modelu przekształconego przy czym wszelkie związane z tym obliczenia wykonywane są na wartościach przekształconych zmiennych. Następnie obliczamy wartości ocen parametrów modelu pierwotnego.

Model hiperboliczny o postaci:

Sprowadzamy do postaci liniowej przez wprowadzenie zmiennej

Otrzymujemy więc model liniowy o postaci:

Wartości ocen parametrów strukturalnych obliczamy z wzorów:

Następnie zapisujemy oszacowany model o postaci liniowej oraz powracamy do postaci wyjściowej.

Standardowe błędy szacunku parametrów strukturalnych obliczamy z wzorów:

Model potęgowy o postaci:

Sprowadzamy do postaci liniowej poprzez zlogarytmowanie obu jego stron

Oznaczając:

Otrzymujemy model o postaci liniowej:

Oceny parametrów strukturalnych wyznaczamy:

Standardowe błędy szacunku parametrów strukturalnych obliczamy z wzorów:

Model wykładniczy o postaci:

Sprowadzamy do postaci liniowej poprzez zlogarytmowanie obu jego stron

Oznaczając:

Otrzymujemy model o postaci liniowej:

Oceny parametrów strukturalnych wyznaczamy z wzorów:

Standardowe błędy stosunku parametrów strukturalnych obliczamy z wzorów:

Model paraboliczny o postaci:

Doprowadzamy do postaci liniowej poprzez wprowadzenie zmiennych:

Otrzymujemy model liniowy:

Oceny parametrów strukturalnych wyznaczamy następująco:

Miarą dopasowania modeli nieliniowych do danych empirycznych jest wskaźnik średniego względnego poziomu reszt o postaci:

Dopasowanie modelu do danych empirycznych jest tym lepsze im mniejsze wartości przyjmuje wskaźnik P.

Przykład.

Przeciętne spożycie warzyw w kg/na osobę w zależności od przeciętnych miesięcznych dochodów w zł/na osobę w gospodarstwach pracowników na stanowiskach nierobotniczych kształtowały się następująco:

Spożycie

warzyw

yt

Dochody

xt

yt* xt* A
B
AB B2
3,13 350,2 0,496 2,545 -0,213 -0,421 0,0897 0,1772
4,13 519,8 0,616 2,716 -0,093 -0,250 0,0233 0,0625
4,66 707,3 0,668 2,850 -0,041 -0,116 0,0480 0,0135
4,59 903,5 0,698 2,956 -0,011 -0,010
5,21 1099,7 0,733 3,041 0,024 0,075
6,72 1294,0 0,794 3,112 0,075 0,146
6,28 1490,0 0,798 3,173 0,089 0,207
7,44 2146,9 0,872 3,332 0,163 0,366
5,675 23,725 0,2102 0,4569

Opisać zależność spożycia warzyw od dochodów funkcją potęgową.

Wzrostowi dochodu o 1% towarzyszy wzrost spożycia warzyw średnio o 0,46%.

Przykład.

Na podstawie następujących danych wyznaczyć parametry modelu hiperbolicznego. Obliczyć wskaźnik średniego względnego poziomu reszt.

yt xt A
B
AB B2 |et|
6 10 1/10 -2 -0,4 0,8 0,16 6,76 0,76 0,112
7 5 1/5 -1 -0,3 0,3 0,09 7,07 0,70 0,099
8 5 1/5 0 -0,3 0 0,09 7,07 0,73 0,132
9 1 1 1 0,5 0,5 0,25 9,55 0,55 0,058
10 1 1 2 0,5 1,0 0,25 9,55 0,44 0,047
2,6 0,84 0,448


Wyszukiwarka