Co to jest model ekonometryczny


  1. Co to jest model ekonometryczny?

Modelem ekonometrycznym nazywamy równanie wyjaśniające związek między zjawiskiem objaśnianym i najważniejszymi zjawiskami objaśniającymi.

W modelu występują: zmienna objaśniana, zmienne objaśniające, zaburzenie losowe, oddające sumaryczny wpływ drugorzędnych, explicite nie wyróżnionych czynników.

  1. Proszę przedstawić metodologię ekonometrii.

Metodologia ekonometrii to sposób postępowania w trakcie budowy modelu ekonometrycznego.

Kroki:

  1. Proszę wymienić i przedyskutować założenia klasycznego modelu regresji liniowej.

Klasyczny model regresji liniowej opiera się na sześciu założeniach, których spełnienie jest gwarancją uzyskania teoretycznie poprawnego wyniku:

  1. O generowaniu obserwacji na zmiennej objaśnianej.

Założenie to jest opisane równaniem:

yi = β1 + β2x2i + β3x3i +...+βKxKi + ε i i=1,2,3...n

lub w zapisie macierzowym

y = Xβ + β.

Ustala ono, że i-ta obserwacja na zmiennej objaśnianej yi powstaje jako suma iloczynów nieznanych parametrów βk (k = 2,...,K), przemnożonych przez i-te obserwacje na zmiennych objaśniających xki , a następnie uzupełnionych nieznanym zaburzeniem losowym εi. Efekt, jaki i-ta obserwacja na k-tej zmiennej objaśniającej przydaje zmiennej objaśnianej, wynosi więc βkxki. Ponieważ zakładamy, że obserwacje na zmiennych objaśniających są stałe (to znaczy nielosowe w powtarzalnych próbach), lub jeśli są losowe, to są niezależne od zaburzenia ε, to suma iloczynów parametrów przez obserwacje na zmiennych objaśniających określa część y wyjaśnioną przez zmienne objaśniające, zaś ε - część niewyjaśnioną. Zmienna objaśniana y jest losowa, gdyż jest funkcją ε.

Innym ważnym wnioskiem wynikającym z założenia 1 jest liniowość względem: po pierwsze - zmiennych objaśniających, które są w pierwszej potędze, a po drugie - względem parametrów βk , które są również w pierwszej potędze.

Ponadto w założeniu 1 przyjmujemy, że model yi = ŷi + ei i = 1,2,..., n jest dobrze wyspecyfikowany, to znaczy, że w równaniu regresji znajdują się wszystkie zmienne ważne dla wyjaśnienia zmiennej objaśnianej, oraz że równanie to ma poprawną postać matematyczną.

  1. Elementy macierzy X są nielosowe, lub losowe ale niezależne od równoczesnych zaburzeń losowych ε.

Nielosowość elementów macierzy X oznacza, że jeśli wzięlibyśmy inną próbę lub kolejne dalsze inne próby, to zmienne objaśniające we wszystkich próbach są zgodnie z założeniem 2 takie same.

Założenie 2 należy rozumieć, że regresja jest regresją warunkową, a więc regresją przy danych wartościach zmiennych objaśniających X.

Z tego wynika że:

E(y|X) = E(y), oraz

Var(y|X) = Var(y), gdzie Var oznacza wariancję.

  1. Rząd macierzy X jest równy liczbie szacowanych parametrów K, gdzie K jest mniejsze od liczby obserwacji n.

A więc:

r(X) = K< n.

Oznacza to, że macierz X ma pełny rząd kolumnowy, z czego wynika po pierwsze, że obserwacje na każdej zmiennej objaśniającej nie mogą by jednakowe, i po drugie, że każda kolumna macierzy X nie może być kombinacją liniową innych kolumn tej macierzy. Można więc powiedzieć, że każda zmienna wnosi do równania regresji własną informację i dlatego nie może być zastąpiona przez inne, już istniejące w równaniu regresji zmienne.

  1. Wektor zaburzeń losowych ma warunkową wartość oczekiwaną przy danej macierzy X równą wektorowi zerowemu.

E(ε|X) = E(ε) = 0

Z założenia 2 o tym, że macierz obserwacji na zmiennych objaśniających X jest nielosowa lub losowa, ale niezależna od zaburzeń ε, wynika pierwsza równość

E(ε|X) = E(ε). Druga z tych równości E(ε) = 0 oznacza, że wartość oczekiwana wektora zaburzeń jest wektorem zerowym. Wynika stąd, że czynniki nie włączone explicite do modelu i dlatego przenoszące łącznie swoje efekty na zaburzenie losowe nie wpływają w sposób systematyczny na średnią wartość y, co oznacza, że ich dodatnie wpływy znoszą się z wpływami ujemnymi powodując, że oczekiwany łączny ich efekt wynosi zero.

  1. Zaburzenia losowe ε są sferyczne.

Oznacza to, że warunkowa macierz wariancji-kowariancji wektora zaburzeń ε przy danej macierzy X ma postać:

Var(ε|X) = E(εε'|X) = Var(ε) = E(εε') = σ²I,

gdzie I oznacza macierz jednostkową. Z zapisu tego wynika, że warunkowa macierz wariancji-kowariancji jest równa bezwarunkowej macierzy wariancji-kowariancji.

Z ostatnich zapisów widać, że założenie sferyczności zaburzeń oznacza:

Po pierwsze, że wariancje kolejnych zaburzeń są takie same dla wszystkich obserwacji i równe σ², gdzie σ² jest nieznaną dodatnią stałą;

Po drugie, że elementy pozadiagonalne, które są kowariancjami zaburzeń dla różnych obserwacji są równe zero, a więc zaburzenia dla różnych obserwacji są ze sobą nieskorelowane.

Jednakowe wariancje zaburzeń εi nazywamy homoskedastycznością zaburzeń. Oznacza to, że zaburzenia losowe są jednakowo rozproszone wokół zerowej wartości oczekiwanej. Jeśli wariancje εi nie byłyby jednakowe, to sytuację taką nazywamy heteroskedastycznością.

Przypadek zerowych kowariancji dla różnych zaburzeń losowych εi nazywamy brakiem autokorelacji zaburzeń. Oznacza to, że zaburzenia losowe dla różnych obserwacji są niezależne, a przez to nieskorelowane, a więc nie mają tendencji do gromadzenia się.

Niespełnienie założenia o nieskorelowaniu zaburzeń nazywamy autokorelacją zaburzeń losowych.

  1. Zaburzenia losowe mają n-wymiarowy rozkład normalny.

ε~N(0, σ²I)

i czytamy „wektor zaburzeń losowych ε ma n-wymiarowy rozkład normalny o wektorze średnich 0 i macierzy wariancji-kowariancji σ²I”. Połączenie założeń 4, 5 i 6 pozwala stwierdzic, że każde z zaburzeń εi ma identyczny rozkład normalny o średniej 0 i wariancji σ² i rozkład ten jest niezależny od rozkładu innego zaburzenia (dla wszystkich i = 1, 2, ...n). O wektorze ε mówimy wówczas, że ma sferyczny rozkład normalny. Jest to wygodne i dośc często spełnione w praktyce modelowania założenie, jakie przyjmujemy dla najprostszego teoretycznie modelu, to jest klasycznego modelu regresji liniowej. Przy tych założeniach estymatory metody najmniejszych kwadratów, mają lepsze własności statystyczne od modelu regresji z nienormalnymi zaburzeniami, co istotnie wpływa na sposób testowania stawianych hipotez.

  1. Jaką rolę spełnia składnik losowy w klasycznym modelu regresji liniowej?

Dodanie do równania regresji składnika losowego powoduje, że równanie regresji nie ma charakteru deterministycznego a stochastyczny (losowy), gdyż zmienna objaśniana będąc funkcją składnika losowego staje się sama zmienną losową. Dołączenie składnika losowego sprawia, że wyspecyfikowane równanie staje się modelem ekonometrycznym.

  1. Proszę przedyskutować rodzaje danych statystycznych.

Dane statystyczne pełnią podstawową rolę w modelowaniu ekonometrycznym. Potwierdzają one poprawność specyfikacji funkcji regresji, poprawność postawionych hipotez, lub ogólniej rzecz ujmując, poprawność modelowania ekonometrycznego i wprowadzanych na podstawie tego modelowania wniosków.

Rodzaje danych statystycznych:

  1. Na czym polega liniowość w KMRL?

Liniowy model regresji jest modelem liniowym względem parametrów, a nie względem zmiennych objaśniających.

Dla oddania efektów nieliniowych wprowadza się zmienną i zmienną do kwadratu, jak w przykładzie „wiek” i „wiek do kwadratu”. Wówczas dla spełnienia warunku ceteris paribus efekt takiej zmiennej jest mierzony za pomocą parametru przy zmiennej „wiek” + dwukrotny iloczyn zmiennej „wiek” przez parametr przy zmiennej „wiek do kwadratu”, gdyż:

  1. Jaką interpretację mają współczynniki regresji w modelu liniowym względem zmiennych objaśniających?

βk mierzy oczekiwaną zmianę yi jako efekt zmiany xki o jedną jednostkę, gdy wartości pozostałych zmiennych objaśniających są niezmienione. Warunek ten zwany jest warunkiem ceteris paribus.

  1. Jaką interpretację mają współczynniki regresji w modelu podwójnie logarytmicznym?

W modelu podwójnie logarytmicznym parametry przy zmiennych są elastycznościami, a więc określają o ile procent zmieni się zmienna objaśniana, jeśli zmienna objaśniająca zmieni się o jeden procent, gdy wartości pozostałych zmiennych objaśniających modelu pozostają niezmienione.

  1. Proszę sformułować twierdzenie Gaussa-Markowa i je zinterpretować.

Twierdzenie brzmi: W klasycznym modelu regresji liniowej najlepszym liniowym i nieobciążonym estymatorem wektora parametrów β jest b wyznaczone MNK.

b = (X'X)ˉ¹X'y

o macierzy wariancji-kowariancji

Σbb = σ²( X'X)ˉ¹.

Dyskusja twierdzenia:

  1. Estymator b jest estymatorem liniowym, gdyż jest liniową funkcją zmiennej losowej y.

  2. b jest estymatorem nieobciążonym, to znaczy E(b) = β. Wiemy, że b=(X'X)ˉ¹X'y i podstawiając za y prawą stronę równania generującego obserwacje na zmiennej objaśnianej y=Xβ+ε otrzymamy: b=(X'X)ˉ¹X'y=(X'X)ˉ¹X'(Xβ+ε)=β+(X'X)ˉ¹X'ε.

Biorąc wartość oczekiwaną b= β+(X'X)ˉ¹X'ε dostajemy

E(b)=β+E[(X'X)ˉ¹X'ε]=β(X'X)ˉ¹X'E(ε)=β+(X'X)ˉ¹X'0=β

3. Estymator b jest estymatorem najlepszym, co oznacza, że ma minimalną macierz wariancji-kowariancji, wynoszącą Σbb= σ²( X'X)ˉ¹. Estymator taki nazywamy estymatorem efektywnym.

Ponieważ estymator b jest liniowy, to analogiczne włąsności posiada również dowolna kombinacja liniowa wektora b.

Ważny jest wniosek płynący z tych rozważań, a mianowicie, że najlepszym, liniowym i nieobciążonym estymatorem pojedynczego parametru βk jest bk, które również ma rozkład normalny:

bk ~N(βk , σ²ckk )

bk jest pojedynczą zmienną losową, dlatego mówimy jedynie o jego wariancji, która wynosi:

σ²bk= σ²ckk ,

gdzie ckk jest kk-tym elementem diagonalnym macierzy (X'X)ˉ¹.

Z twierdzenia Gaussa-Markowa wiemy, że wariancja ta jest najmniejsza w klasie estymatorów liniowych i nieobciążonych.

Istotnym dopełnieniem własności estymatorów MNK jest własność zgodności, co oznacza, że dla wzrastającej wielkości próby estymator b jest zbieżny do prawdziwych wartości β w populacji.

  1. Co to jest błąd standardowy estymatora? Proszę podać wzór dla przypadku regresji wielorakiej i go zinterpretować.

Z przypadkami nieistotności zmiennych objaśniających spotykamy się często w praktyce ekonometrycznej, gdzie za pomocą testu t-Studenta weryfikujemy hipotezy o istotności zmiennych. Estymatory są wtedy nieobciążone, a jedną ich ujemną własnością są nieco większe błędy standardowe, co powoduje, że są one mniej efektywne od tych dla równania pomijającego zmienne nieistotne Jeśli do wzoru 0x01 graphic
zamiast nieznanej wariancji σ² podstawimy jej obliczony z próby nieobciążony estymator σ² to nowo otrzymane wyrażenie:

bk - ßk

‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾

ỡ √ckk

jest już zmienną, którą możemy wykorzystać we wnioskowaniu. Wyrażenie w mianowniku nazywamy błędem standardowym estymatora bk , lub krótko - błędem standardowym i oznaczamy przez ỡbi. Jest to pierwiastek kwadratowy z wariancji z próby dla bk,

bi = √ỡ 2 ckk = ỡ √ckk

Często błędy standardowe umieszczamy w równaniu regresji w nawiasach pod wyznaczonymi ocenami.

  1. Na czym polega statystyczna istotność zmiennej objaśniającej?

Istotność zmiennej objaśniającej weryfikujemy wykorzystując podaną w wydruku komputerowym wartość p - jest to wyliczony poziom istotności dla statystyki t. Jeśli wartość p jest mniejsze od 0,05 to odrzucamy hipotezę, że zmienna jest statystycznie nieistotna. Odrzucenie hipotezy zerowej oznacza, że parametr stojący przy k - tej zmiennej objaśniającej jest, jak mówimy „ statystycznie różny od zera”, a więc, że k - ta zmienna jest statystycznie istotna, co oznacza , że wyjaśnia ona zachowanie się zmiennej objaśnianej.

  1. Proszę przedyskutować wzór dekompozycji zmienności całkowitej zmiennej objaśnianej y na zmienność wyjaśnioną i niewyjaśnioną.

Zmienność całkowitą zmiennej objaśnianej y, oznaczoną skrótem TSS , mierzymy za pomocą sumy kwadratów odchyleń obserwacji zmiennej objaśnianej od średniej:

TSS=Σ(yi-y)²

Jeśli model zawiera stałą, to całkowitą sumę kwadratów możemy zdekomponować na dwa składniki, na wyjaśnioną (równaniem regresji) sumę kwadratów, oznaczaną przez ESS:

ESS = Σ(ŷi - y)²

i resztową (niewyjaśnioną) sumę kwadratów, oznaczaną przez RSS:

RSS = Σei²

Wiemy, że yi = ŷi + ei Odejmując od obydwu stron średnią y mamy

yi = ŷi + ei = yi -y = (ŷi -y) + ei , a po podniesieniu do kwadratu i wysumowaniu

Σ(yi-y)²= Σ(ŷi - y)²+ Σei²+2 Σ(ŷi - y)ei

Ostatecznie:

Σ(yi-y)²= Σ(ŷi - y)²+ Σei²

lub inaczej TSS=ESS+RSS

  1. Proszę wyprowadzić wzory na współczynnik determinacji i skorygowany współczynnik determinacji oraz podać ich interpretacje.

Współczynnik determinacji R² określa jaka część zmienności zmiennej objaśnianej y jest wyjaśniona łącznie przez zmienność wszystkich zmiennych objaśniających x2,...xk

Skorygowany współczynnik determinacji R² uwzględnia efekt małej liczby stopni swobody, występującej w równaniu regresji, to znaczy różnicy między liczbą obserwacji n a liczbą zmiennych objaśniających K.

  1. Proszę omówić zasady wprowadzania do równania regresji regresorów 0-1.

Zmienne zero-jedynkowe przyjmują jedynie wartości 0 lub 1. Są stosowane dla oddania efektów zmiennych jakościowych.

Gdy zmienna jakościowa ma m kategorii, to do równania wprowadza się m-1 regresorów zero-jedynkowych, pomijając dowolną kategorię zwaną kategorią referencyjną, albo kategorią bazową.

Niektóre cechy ilościowe wygodnie jest podzielić na przedziały i traktować jako cechy jakościowe, wykorzystując ideę zmiennych 0-1.

Dla oddania efektów interakcyjnych iloczynu dwóch lub większej liczby zmiennych jakościowych wprowadza się tyle zmiennych zero-jedynkowych ile wynosi iloczyn kategorii tych minus jeden.

  1. Co to jest współliniowość? Jakie są symptomy, metody wykrywania i jak można ją przezwyciężać?

Współliniowość oznacza dokładną lub bardzo wysoką korelację między regresorami. Typowym przypadkiem współliniowości jest wysoka korelacja między regresorami, co utrudnia, a niekiedy uniemożliwia wydzielenie własnego wpływu każdej ze zmiennych objaśniających na zmienna objaśnianą. Przy współliniowości estymatory są nadal nieobciążone, ale mają zbyt duże błędy standardowe, co zmniejsza precyzję oszacowania.

Objawy współliniowości:

  1. Współczynniki mają bardzo duże błędy standardowe i w związku z tym znaczna liczba regresorów jest nieistotna, nawet wtedy, gdy łącznie są one istotne, a R² jest wysokie.

  2. Współczynniki mogą mieć niewłaściwe znaki i niedopuszczalną wielkość.

  3. Małe zmiany w zbiorze danych statystycznych (na przykład dodanie jednej lub kilku nowych obserwacji) mogą prowadzić do znacznych zmian oszacowań współczynników regresji przy niektórych zmiennych.

Wykrywanie współliniowości odbywa się za pomocą wyznaczania K-2 regresji pomocniczych, w których kolejno zmienną objaśnianą jest jedna z dotychczasowych zmiennych objaśniających np. xk , zaś zmiennymi objaśniającymi są pozostałe regresory wyjściowego równania regresji.

Środki zaradcze są jednak mało doskonałe: opuszczenie zmiennej wywołującej wspołliniowość, szacowanie modelu na pierwszych różnicach wyjściowych zmiennych, wprowadzenie w charakterze dodatkowych regresorów obok zmiennych pierwotnych, również kwadratów zmiennych pierwotnych. Środek najlepszy to rozszerzenie zbioru pierwotnych obserwacji o obserwache dodatkowe.

  1. Na czym polega uogólniona metoda najmniejszych kwadratów?

Uogólniona metoda najmniejszych kwadratów zwana również od nazwiska jej autora metodą Aitkena

Var(ε|X)=E(εε'|X)=Var(ε)=E(εε')= σ²Ω

gdzie o macierzy Ω zakładamy, że może mieć elementy diagonalne różne, a więc dopuszczamy heteroscedastyczność, oraz może mieć elementy pozadiagonalne różne od zera, a więc dopuszczamy autokorelację zaburzeń losowych. Macierz Ω jako macierz wariancji-kowariancji wektora losowego jest z definicji macierzą dodatnio określoną, co oznacza, że ma wyznacznik dodatni i jest macierzą odwracalną.

Z algebry macierzy wiemy, że dla macierzy dodatnio określonej istnieje taka macierz dolnotrójkątna P, że P'P=Ω oraz PΩP'=I.

Istnienie takiej macierzy jest kluczem do wyznaczenia estymatorów UMNK.

Model uogólnionej metody najmniejszych kwadratów można sprowadzić poprzez lewostronne przemnośenie przez macież P do modelu klasycznej metody najmniejszych kwadratów.

Estymator MNK ma postać b = (X'X)ˉ¹X'y. Jeśli w tym wzorze zastąpimy y przez Py, X przez PX oraz ε przez Pε, to otrzymamy estymator UMNK, który oznaczamy przez b:

b=[(PX)'(PX)]ˉ¹(PX)'Py=(X'Ωˉ¹X)ˉ¹X'Ωˉ¹y

W konsekwencji testy hipotez oparte na statystykach t-Studenta i F są niepoprawne, co prowadzi do błędnych wniosków wyprowadzanych na ich podstawie. Z tego powodu należy zawsze rozpoznać, czy nie mamy do czynienia z przypadkiem heteroscedastyczności lub autokorelacji i jeśli tak, to należy zastosować UMNK zamiast MNK.

Temu zadaniu służą testy statystyczne na heteroscedastyczność i na autokorelację. Zwykle rozgraniczamy te dwa przypadki i oddzielnie przeprowadzamy test heteroscedastyczności, gdy model oparty jest na danych przekrojowych i oddzielnie na autokorelację, gdy model zbudowany jest na szeregach czasowych

  1. Proszę przedstawić test Durbina-Watsona i go omówić.

Test Durbina-Watsona jest powszechnie stosowanym testem dla wykrywania autokorelacji pierwszego rzędu, a więc autokorelacji między sąsiednimi zaburzeniami losowymi.

Autokorelację pierwszego rzędu opisuje równanie:

εt =ρεt-1+ut

gdzie ρ jest współczynnikiem autokorelacji zaburzeń, zaś ut ~iiN(0, σ²) jest zaburzeniem o identycznych i niezależnych rozkładach normalnych.

Idea testu jest następująca: Weźmy sumę kwadratów różnic sąsiednich reszt podzieloną przez sumę kwadratów reszt:

gdzie ρ jest współczynnikiem autokorelacji pierwszego rzędu:

Wyrażenie oznaczone przez d lub niekiedy przez DW znane jest pod nazwą statystyki Durbina-Watsona.

Statystyka ta jest standardowo liczona przy szacowaniu regresji w prawie wszystkich pakietach ekonometrycznych.

Ponieważ:

d ≈ 2(1 - ρ), zaś -1 ≤ ρ ≤ 1 to 0 ≤ d ≤ 4.

Powyższy wzór wskazuje, że obliczona wartość d leży między tymi granicami. Z

d ≈ 2(1 - ρ) wynika, że jeśli ρ=0 to d=2. więc jeśli nie zachodzi dodatnia autokorelacja pierwszego rzędu to oczekujemy, że wartość d winna wynosić około 2. Dlatego przyjmujemy jako „regułę kciuka”, że jeśli w konkretnym modelu d wynosi 2 lub jest w przybliżeniu równe 2, to nie występuje autokorelacja pierwszego rzędu, ani dodatnia, ani ujemna. Jeśli ρ = +1, to w modelu zachodzi doskonała dodatnia korelacja reszt, wówczas d ≈ 0. Stąd im obliczone d leży bliżej zera to mamy do czynienia z wyższą dodatnią autokorelacją.

W praktycznych zastosowaniach testu Durbina-Watsona wykonujemy następujące kroki.

  1. Szacujemy za pomocą MNK równanie regresji i wyznaczamy reszty ei

  2. Obliczamy statystykę d

  3. Stawiamy hipotezę zerową H0 = 0 wobec hipotezy alternatywnej H1 > 0.

  4. Jeśli d < dL to odrzucamy H0 = 0 i przyjmujemy H1 > 0 oznacza to, że występuje dodatnia autokorelacja zaburzeń losowych.

Jeśli dL ≤ d ≤ dU to test jest nie rozstrzygnięty, oznacza to, że za pomocą testu Durbina-Watsona nie możemy rozstrzygnąć czy istnieje, czy nie istnieje dodatnia autokorelacja.

Jeśli d > dU to przyjmujemy H0 = 0 , oznacza to brak dodatniej autokorelacji zaburzeń losowych.

Niekiedy alternatywną hipotezą jest występowanie ujemnej autokorelacji. Przy doskonałej ujemnej autokorelacji wartość statystyki d, jak wynika z 0 ≤ d ≤ 4. jest równa 4. Stąd, ze względu na symetrię statystyki d wokół wartości 2 , przy weryfikacji ujemnej autokorelacji za granicę dolną możemy przyjmować 4 - dU i za górną 4 - dL

Okazało się w praktycznych zastosowaniach, że nadzwyczaj popularny test Durbina-Watsona ma szereg istotnych wad:

  1. Istotnym jego mankamentem jest przedział nie rozstrzygnięcia testu. Jest to sytuacja bardzo częsta w praktyce modelowania, a jednocześnie niezwykle niewygodna dla badacza, gdyż nie wiadomo, czy występuje, czy nie występuje autokorelacja. Zauważmy jednak, że im większa jest próba, tym węższy jest przedział nie rozstrzygnięcia testu.

  2. Test ten ma zdolność wykrywania autokorelacji tylko pierwszego rzędu. W danych kwartalnych lub miesięcznych możemy oczekiwać autokorelacji równej liczbie obserwacji w cyklu sezonowym (np. czwartego rzędu dla obserwacji kwartalnych).

  3. Test daje odpowiedzi poprawne, gdy zmienne objaśniające są stałe w powtarzalnych próbach, a nie losowe, co jest najczęstszym przypadkiem.

  4. Model nie może zawierać jako regresorów zmiennych opóźnionych, co jest nierzadkim przypadkiem modelowania dynamicznego.

  5. Test jest bardzo czuły na założenie normalności zaburzeń losowych i zawodzi, gdy zaburzenia nie mają tego rozkładu.

  1. Co to jest standardowy błąd prognozy i przedział prognozy?

Standardowy błąd prognozy jest średnim błędem o który różni się prognoza ŷt = x'tb od pojedynczej realizacji zmiennej prognozowanej yT+S = x' T+Sβ+ε T+S.

Przedział prognozy jest przedziałem ufności dla pojedynczej realizacji zmiennej prognozowanej yT+S. Jest on wyznaczony analogicznie do przedziału ufności dla pojedynczego parametru βk.

  1. Jakie są skutki pominięcia w równaniu regresji istotnych zmiennych objaśniających?

Pominięcie w równaniu regresji istotnych zmiennych objaśniających powoduje, że estymatory MNK dla istniejących zmiennych są obciążone.

  1. Jakie są efekty dodania w równaniu regresji nieistotnych zmiennych objaśniających?

Dodanie do równania regresji nieistotnych zmiennych objaśniających powoduje, że estymatory równania rozszerzonego są nieobciążone i jedną ujemną cechą są nieco większe błędy standardowe, co powoduje mniejszą efektywność rozszerzonego równania.

  1. Proszę przedstawić test White'a i go omówić.

Test White`a stosujemy w sytuacjach, gdy nie wiemy jaka zmienna wywołuje heteroscedastyczność. Sprawdza on hipotezę:

  1. Czy równanie regresji ma poprawną specyfikację matematyczną. Błąd niepoprawnej specyfikacji oznacza, że niektóre lub wszystkie zmienne y lub X winny być transformowane, a więc przedstawione jako funkcje potęgowe, logarytmiczne, odwrotności lub inne funkcje wyjaśnionych zmiennych.

  2. Czy występuje homoskedastyczność zaburzeń losowych?

  3. Czy zmienne objaśniające ze zbioru X nie są skorelowane z zaburzeniem losowym ε? Występowanie takiej korelacji wywołuje obciążoność i niezgodność estymatorów MNK.

Małe wartości statystyki White`a wskazują, że żaden z tych trzech przypadków nie jest naruszony, jednak niespełnienie któregokolwiek z nich prowadzi do dużej wartości statystyki. Test White`a nie wskazuje, który z tych trzech przypadków nie jest spełniony i nie podpowiada, jak należy zmodyfikować równanie regresji, aby warunki te były spełnione. Uzyskanie poprawnego modelu wymaga w takiej sytuacji dalszych żmudnych zabiegów, popartych dobrym przygotowaniem ekonomicznym w zakresie istoty modelowanego zagadnienia.

  1. Jak testujemy hipotezę o nieistotności określonego podzbioru regresorów?

Testowanie łącznej istotności podzbioru regresorów przebiega analogicznie do testowania łącznej istotności zmiennych zero-jedynkowych. Wymaga ono oszacowania dwóch równań regresji. Pierwsze bez restrykcji, a więc zawierające wszystkie zmienne objaśniające, dla którego współczynnik determinacji oznaczamy jak zwykle przez R². Oraz drugie z restrykcjami, pozbawione J zmiennych, względem których stawiamy hipotezę, że są one łącznie nieistotne. Założenie to oznacza, że J parametrów przy pominiętych regresorach jest łącznie równych zero. Dla tak postawionej hipotezy zerowej statystyka testująca ma rozkład F- Fishera-Snedecora postaci:

Jeśli wartość tej statystyki jest większa od wartości krytycznej wziętej z tablic dla liczby stopni swobody J oraz n-K, to odrzucamy hipotezę o łącznej nieistotności J zmiennych objaśniających.



Wyszukiwarka

Podobne podstrony:
Co to jest rynek, Ekonomia
Co to jest rynek, ekonomia
co to jest mikroekonomia, Ekonomia
co to jest mikroekonomia, Ekonomia, ekonomia
Co to jest model?ersa
co to jest franchising, Ekonomia, ekonomia
co to jest akredytywa (4 str), Ekonomia, ekonomia
ekonomia giełda, Globalizacja, Co to jest globalizacja
40. Co to jest kurs walutowy. Czym się różni deprecjacja od dewaluacji waluty, Ekonomia - PYTANIA NA
co to jest ekonomia, Ekonomia, ekonomia
co to jest PKB (PNB), Ekonomia, ekonomia
ekonomia giełda, PKB, Co to jest PKB
co to jest fundusz celowy (4 str), Ekonomia, ekonomia
co to jest PKB (PNB), Ekonomia
co to jest AEF (2 str), Ekonomia, ekonomia
co to jest AEF (2 str), Ekonomia
co to jest spólka akcyjna (4 str), Ekonomia
co to jest spólka akcyjna (4 str), Ekonomia, ekonomia

więcej podobnych podstron