9. Normalność składnika losowego.
Podstawową własnością rozkładu normalnego jest symetria oraz mezokurtyczność. Asymetria rozkładu wynika z nierównomierności prawostronnego i lewostronnego rozproszenia, co oznacza, że wartości liczbowe średniej, mediany i dominanty nie pokrywają się.
Standardową miarą asymetrii rozkładu jest współczynnik skośności, określany także mianem współczynnika asymetrii:

;
gdzie:![]()
, k=2,3,4,…
Dodatnia wartość ![]()
wskazuje na prawostronną asymetrię, natomiast wartość ujemna ![]()
na asymetrię lewostronną.
Kurtoza rozkładu wyraża się albo tym, że gęstość rozkładu obserwacji w pobliżu średniej jest większa niż dla rozkładu normalnego, albo tym, że gęstość rozkładu w pobliżu średniej jest mniejsza iż dla rozkładu normalnego. W pierwszym przypadku rozkład cechuje tzw. smukłość, drugi przypadek określamy mianem spłaszczenia rozkładu. Miarą nasilenia kurtozy jest współczynnik kurtozy:
![]()
.
Dla rozkładu normalnego, współczynnik kurtozy jest równy ![]()
, stąd w praktyce, współczynnik kurtozy definiowany jest jako odchylenie od standardu, czyli ![]()
Do weryfikacji hipotez ![]()
- rozkład zgodny z rozkładem normalnym} wobec hipotezy alternatywnej ![]()
nie ma rozkładu normalnego} korzystamy ze statystyki Jarque'a-Bera ![]()
:
![]()
Weryfikacja zgodności rozkładu składnika losowego z rozkładem normalnym prowadzona jest na podstawie reszt modelu, stąd:
![]()
, j=1,2,3…,
statystykę Jarque'a-Bera można zapisać w postaci równoważnej:

Z tablic testu ![]()
dla określonego poziomu ufności ![]()
oraz n-2 stopni swobody odczytujemy wartość krytyczną ![]()
. Jeśli ![]()
, to nie ma powodów do odrzucenia hipotezy ![]()
, składnik losowy jest zgodny z rozkładem normalnym, jeśli natomiast ![]()
, należy odrzucić hipotezę ![]()
i przyjąć hipotezę alternatywną ![]()
.
Zweryfikowany zbiór własności elementów struktury modelu dotyczył zarówno zmiennych modelu ale także i to w dużej części składnika losowego. Proces weryfikacji powinien zostać uzupełniony o testy istotności łącznego wpływu zmiennych objaśniających, test na dołączanie i usuwanie zmiennych, weryfikację poprawności założenia o postaci analitycznej oraz testy stabilności struktury modelu weryfikowanej w kontekście stałości oszacowanych parametrów strukturalnych czasie.
10. Istotność łącznego wpływu zmiennych objaśniających.
Definiujemy hipotezę ![]()
wobec hipotezy alternatywnej ![]()
istnieje takie i, że ![]()
. Sprawdzianem hipotezy ![]()
jest statystyka:

.
Z tablic rozkładu statystyki F przy określonym poziomie istotności ![]()
oraz parametrach rozkładu ![]()
, odczytujemy wartość krytyczną statystyki ![]()
. Jeśli ![]()
, to ma podstaw do odrzucenia hipotezy ![]()
, jeśli natomiast ![]()
, odrzucamy hipotezę ![]()
na rzecz hipotezy alternatywnej ![]()
.
11. Test na dołączenie i usuwanie zmiennych.
Budując model ekonometryczny zadajemy sobie pytanie, na ile włączenie dodatkowej zmiennej poprawia dokładność opisu zmian zmiennej objaśnianej. Miarą zgodności czy też dopasowania modelu do danych empirycznych jest współczynnik ![]()
. Stąd pytanie, czy uwzględnienie nowej zmiennej w modelu poprawi istotnie stopień dopasowania mierzony współczynnikiem ![]()
?.
Niech ![]()
, ponadto załóżmy, że stopień dopasowania modelu do danych empirycznych mierzy ![]()
/współczynnik determinacji modelu pierwotnego, przed dołączeniem dodatkowej zmiennej objaśnianej/.
Pierwotny zbiór zmiennych objaśniających uzupełnimy o zmienne {![]()
, tzn. ,![]()
miarę dopasowania modelu o tak uzupełniony zbiór zmiennych oznaczmy jako ![]()
.
Chcemy zatem zweryfikować hipotezę ![]()
wobec hipotezy alternatywnej ![]()
istnieje takie j, że k+1![]()
oraz ![]()
. Sprawdzianem hipotezy ![]()
jest statystyka F:

, gdzie m liczba dołączonych zmiennych.
Statystyka F ma rozkład Fishera-Snedecora o parametrach rozkładu ![]()
. Z tablic rozkładu statystyki dla poziomu istotności ![]()
odczytujemy wartość statystyki ![]()
. Jeśli ![]()
nie ma podstaw do odrzucenia hipotezy ![]()
, jeśli natomiast ![]()
, odrzucamy hipotezę ![]()
na rzecz hipotezy alternatywnej ![]()
, co oznacza, że dołączenie nowej zmiennej powoduje istotne zwiększenia stopnia dopasowania modelu.
12. Poprawność założenia o postaci analitycznej modelu.
Najprostszym rozwiązaniem wątpliwości z tym związanych jest sprawdzenie, czy kwadraty wartości teoretycznych zmiennej objaśnianej nie stanowią „pominiętej zmiennej” w budowanym modelu. Sprawdzamy zatem, czy włączenie dodatkowej zmiennej powoduje istotny wzrost współczynnika determinacji ![]()
.
Idea weryfikacji podana została przez Ramseya. Sprawdzian testu ma dwie wersje, ![]()
o rozkładzie ![]()
oraz wersję ![]()
o rozkładzie Fishera-Snedecora ![]()
.
Weryfikujemy hipotezę ![]()
błąd w założeniu o postaci analitycznej} wobec hipotezy alternatywnej ![]()
poprawna postać analityczna}. Z tablic rozkładu ![]()
bądź rozkładu statystyki F odczytujemy wartości krytyczne obydwu statystyk, statystykę ![]()
weryfikujemy identycznie jak w teście Godfreya.
13. Stabilność parametrów strukturalnych modelu.
Po oszacowaniu parametrów strukturalnych modelu, ciekawe staje się pytanie, czy oszacowane parametry nie zmieniają się w czasie? To ważne pytanie, bowiem od stałości parametrów zależy wiarygodność konstruowanych prognoz zmian zmiennej objaśnianej w przyszłości.
W 1960 r. Chow podał sprawdzian stabilności parametrów modelu. Należy dokonać podziału próby na dwa podzbiory ![]()
oraz ![]()
takie, że ![]()
.
Zatem model możemy zapisać:
![]()
![]()
,
![]()
Weryfikujemy hipotezę ![]()
wobec hipotezy alternatywnej ![]()
. Sprawdzianem hipotezy ![]()
jest statystyka ![]()
dla dużych prób i statystyka ![]()
dla prób małych.

,
gdzie: ![]()
- wektor reszt modelu szacowanego MNK na podstawie całej próby n,
![]()
- wektor reszt modelu szacowanego MNK na podstawie próby n1,
![]()
- wektor reszt modelu szacowanego MNK na podstawie próby n2.
Przy założeniu, że wariancje składnika losowego w obydwu „podpróbach” są sobie równe, statystyka ![]()
ma rozkład Fishera-Snedecora o (![]()
stopniach swobody a statystyka:
![]()
, ma rozkład ![]()
.
Z tablic rozkładu statystyk F oraz ![]()
odczytujemy wartości krytyczne. Jeśli statystyki obliczone są mniejsze lub równe wartościom krytycznym statystyk, to nie ma powodów by przyjąć hipotezę ![]()
, w przeciwnym przypadku uznajemy hipotezę alternatywną ![]()
, co oznacza, że parametry strukturalne nie są stabilne w czasie.