pojęcie i istota prognozowania (10 str), Ekonomia, ekonomia


Pojęcie i istota prognozy:

Prognozowanie- racjonalne, naukowe przewidywanie przyszłych zdarzeń

Prognozowanie-( Czerwiński) sąd o zajściu określonego zdarzenia w czasie określonym z dokładnością do momentu lub okresu czasu należącego do przyszłości

Prognoza statystyczna- ( Helwig) każdy sąd, którego prawdziwość jest zdarzeniem losowym, przy czym prawdopodobieństwo tego zdarzenia jest znane i jest wystarczająco duże dla celów praktycznych

Prognoza- ( Cieślak) sąd o następujących właściwościach:

- jest sformułowany z wykorzystaniem dorobku nauki

- odnoszący się do określonej przyszłości

- weryfikowany empirycznie

- niepewny, ale akceptowany

Założenia prognozowania:

1) Znajomość modelu kształtowania się zmiennej prognozy

2) Stabilność prawidłowości ekonomicznej w czasie( Parametry strukturalne modelu odzwierciedlają rzeczywiste relacje ilościowe między zmienną endogeniczną, która jest zmienną prognozowaną i występującymi zmiennymi objaśniającymi.

3) Stabilność rozkładu składnika losowego modelu

4) Znane są wartości zmiennych objaśniających w okresie prognozowanym

5) Dopuszczalna jest ekstrapolacja modelu poza zaobserwowany w próbie obszar zmienności zmiennych objaśniających

Założenia te muszą być wszystkie spełnione. Słowo stabilność zostało zastąpione przez prawie stabilność. Prawie stabilność- sytuacja, gdy parametry modelu ulegają zmianie, ale zmiany te są regularne oraz stosunkowo powolne;

Podstawowe postulaty teorii predykcji:

1.Każda prognoza powinna być obliczona z odpowiednim miernikiem rzędu dokładności

2.Przy wyborze sposobu budowy prognozy dążyć należy do możliwie wysokiej efektywności predykcji, to jest osiągnięcia możliwie zadowalającej wartości wybranego miernika rzędu dokładności predykcji

Funkcje prognoz:

1.Funkcja preparacyjna wg której prognozowanie jest działaniem, które przygotowuje inne działania

2.Funkcja aktywizująca- polega na pobudzaniu do podejmowania działań sprzyjających realizacji prognozy, gdy zapowiada się zdarzenie korzystne i przeciwstawiających się jej realizacji gdy przewidywane zdarzenia oceniane są niekorzystnie

3.Funkcja informacyjna, która polega na zapoznaniu się z nadchodzącymi zmianami

Klasyfikacja prognoz:

I. ze względu na horyzont czasowy:

- perspektywiczne( z horyzontem od 10 do20 lat)

- długoterminowe( obejmuje ponad 5 lat; dotyczy takiego przedziału czasu, w którym mogą wystąpić zarówno zmiany ilościowe jak i poważne zmiany jakościowe)

- średnioterminowe( dotyczy 2 do 5 lat; jest to okres czasu, w którym oczekuje się nie tylko zmian ilościowych, ale i śladowych zmian jakościowych)

- krótkoterminowe( prognoza na taki przedział czasu, w którym zachodzą tylko zmiany ilościowe; zwykle nie przekracza 1 roku)

Zmiany jakościowe polegają na zmianie istotnych cech zjawisk. Znajdują wyraz w odejściu od dotychczasowej prawidłowości np. zmiana postaci trendu.

II. ze względu na cel:

- ostrzegawcze( ich zadaniem jest przewidywanie zdarzeń niekorzystnych dla odbiorcy prognozy)

- badawcze( mają na celu wszechstronne rozpoznanie przyszłości i ukazanie wielu możliwych ich wersji)

- normatywne( podstawowym zadaniem jest ułatwienie wyboru potrzeb i przyszłych celów wraz z określeniem zadań i środków)

III. ze względu na funkcje spełniane przez prognozy:

- operacyjne( są wykorzystywane jako narzędzie planowania operatywnego oraz bieżącej polityki gospodarczej; zwykle nie przekraczają 1 roku)

- strategiczne( pełnią rolę narzędzi planowania długookresowego i perspektywicznego)

IV. ze względu na charakter prognozowanych zjawisk:

- ilościowe( gdy stan zmiennej prognozowanej jest wyrażany liczbą; np. prognozowanie stóp procentowych):

+ punktowa (jest liczbą uznaną za najlepszą ocenę wartości zmiennej prognozowanej)

+ przedziałowa (jest to przedział liczbowy, który zadanym pdp nazwanym wiarygodnością prognozy zawiera nieznana wartość zmiennej prognozowanej w okresie prognozowania)

- jakościowe (dotyczą zjawisk typu jakościowego np. kandydatów na prezydenta)

V. ze względu na stopień szczegółowości:

- ogólne

- szczegółowe

VI. ze względu na zasięg terenowy:

- światowe

- międzynarodowe

- lokalne i regionalne

- krajowe

VII. ze względu na zakres ujęcia:

- całościowe i częściowe

- globalne i odcinkowe

- kompleksowe i fragmentaryczne

Zasady prognozowania:

1.Status quo

Oznacza, że prawidłowości zaobserwowane w przeszłości będą również aktualne w przyszłości. Wszystkie są wykorzystywane w prognozowaniu i traktuje się je jednakowo ważnie.

2.Postarzania informacji

Polega na tym, że w miarę upływu czasu zmieniają się prawidłowości ekonomiczne. Dane starsze mają mniejsze znaczenie niż nowsze. Zatem danym z różnych okresów przypisuje się różne rangi.

Dane wykorzystywane w prognozowaniu:

Prawomocność procesu wnioskowania o przyszłości jest określona przez zdolność prognosty do rozpoznawania właściwego zasobu informacji o prognozowanym zjawisku i umiejętności wykorzystania tego zasobu do sformułowania prognozy. Jednym z aspektów prawomocności są rodzaje i źródła danych, kryteria ich selekcji oraz postacie danych.

W procesie prognozowania wykorzystuje się dane o obiekcie, dla którego sporządza się prognozę, oraz o obiektach stanowiących jego otoczenie. Pierwsze z nich noszą nazwę danych wewnętrznych, drugie - zewnętrznych.

- wewnętrzne( gromadzone są w obiekcie prognozowanym na potrzeby zarządzania tym obiektem lub specjalnie na potrzeby prognozowania). Wszystkie dane pozostają w gestii kierownictwa obiektu i za jego zgodą są udostępniane prognoście. Do ważniejszych źródeł tych danych należą: opisy zasad funkcjonowania obiektu (przepisy, regulaminy wewnętrzne, receptury dotyczące procesu technologicznego), bieżąca rejestracja zdarzeń (np. rejestr kosztów w przedsiębiorstwie, urodzeń w urzędzie stanu cywilnego, wypadków drogowych w komendzie policji), sprawozdania (np. ze sprzedaży, zatrudnienia, wydatkowania dochodów), spisy (np. maszyn w przedsiębiorstwie, zapasów w sklepie, ludności w kraju), zapisy wyników badań specjalnych (np. jakość wyrobów produkowanych przez firmę, opinii publicznej w gminie).

- zewnętrzne( zakres ich nie zależy od obiektu, dla którego sporządza się prognozę; dotyczą one otoczenia bliższego, tworzonego przez obiekty bezpośrednio powiązane z obiektem prognozowanym oraz dalszego tworzącego ogólne warunki funkcjonowania obiektu). Dane te są tym trudniej dostępne, im bliższego otoczenia dotyczą, i im bardziej są szczegółowe. Jeśli obiektem, dla którego sporządza się prognozę, jest przedsiębiorstwo przemysłowe, to jego otoczenie bliższe stanowią przede wszystkim dostawcy, klienci i konkurenci. Żeby opracować własną strategię rozwoju, przedsiębiorstwo powinno znać zamiary tych podmiotów. Zamiary te nie są jednak ogłaszane, przeciwnie - do czasu ich realizacji są starannie ukrywane. Przedsiębiorstwo stara się zdobyć o nich informacje przez rozmowy z klientami, pośrednikami, itp., obserwacje działań (np. ofert sprzedaży, wystaw), wreszcie przez specjalne wywiady gospodarcze. Otoczenie dalsze przedsiębiorstwa to instytucje krajowe i międzynarodowe typu ustawodawczego, administracyjnego i gospodarczego oraz sama gospodarka krajowa i światowa.

Rzetelność - dane są rzetelne, gdy są zgodne z przedmiotem, którego dotyczą. W danych mogą występować rodzaje błędów:

- losowe - wynikają z pomyłek przy zbieraniu i przetwarzaniu (np. pomyłki zapisu czy pomyłki rachunkowe)

- systematyczne - wynikają z celowego fałszowania danych (np. zeznania o dochodu firm lub osób fizycznych)

Konieczna jest więc kontrola merytoryczna i formalna rzetelności danych. Kontrola może polegać na wyrywkowym sprawdzaniu poprawności, porównywaniu zgodności powiązanych ze sobą danych, sporządzaniu wykresów szeregów czasowych bądź przekrojowych.

Jednoznaczność - dane powinny być podawane w taki sposób, by każdy odbierał je tak samo.

Identyfikowalność zjawiska przez zmienną (zmienne) - wiele zjawisk można opisać za pomocą więcej niż jednej zmiennej, nawet jeśli są to zjawiska proste. W zależności od celu badania należy wybrać jeden z mierników. Szczególnie kłopotliwa jest sytuacja, gdy mamy do czynienia ze zjawiskiem złożonym. W takich przypadkach trzeba się odwołać do teorii i konsensusu przyjętego w dotychczasowych badaniach, ewentualnie zaś odstępstwa od niego czytelnie uzasadnić.

Kompletność dane powinny obejmować wszystkie ważne wiadomości wystarczające do rozpoznania problemu, pomijać zaś wiadomości powtarzające się i marginesowe.

Aktualność danych dla przyszłości - sporządzając diagnozę prognozowanego zjawiska, określa się czynniki istotne nań dotąd oddziałujące. Jest rzeczą oczywistą, że nie każdy z tych czynników będzie działał w przyszłości z dotychczasową siłą. Prognosta powinien starać się określić, który z tych czynników będzie tracił na znaczeniu, który zaś nabierał mocy, wreszcie jaki nowy czynnik może się pojawić. Analiza ta powinna wyłonić fakty niosące przyszłość i od nich uzależnić prognozę.

Koszt zbierania i opracowywania danych - bywa on wysoki, toteż zasadne jest dążenie do minimalizacji ilości danych. Należy korzystać przede wszystkim z danych już zgromadzonych, nowe zaś dane pozyskiwać tylko wtedy, gdy są niezbędne do polepszenia jakości prognozy.

Porównywalność danych - można ją rozpatrywać z różnych punktów widzenia, stąd wyróżnia się m.in. porównywalność:

- czasową (jednakowy odstęp czasu między obserwacjami zasobów i jednakowy przedział czasu dla strumieni)

- terytorialną (jednakowe terytorium np. państwa czy województwa, w całym okresie objętym badaniem)

- pojęć i kategorii (te same definicje i klasyfikacje)

- metody obliczeń (np. dochodu narodowego, indeksu inflacji).

Inny podział danych:

+ dane statystyczne prezentujące stan zjawisk i procesów w jednym momencie, w jednorodnych jednostkach np. przedsiębiorstwa ( dane przekrojowe)

+ dane prezentujące dynamikę zjawisk i procesów opracowane w formie szeregów czasowych. Są to tzw. dane dynamiczne.

Reguły prognozowania:

Reguła prognozy - sposób przejścia od danych przetworzonych do prognozy;

Wyróżniamy 4 reguły prognozy:

1) podstawowa - prognozą jest stan zmiennej prognozowanej w okresie t lub momencie, otrzymany z modelu tej zmiennej przy przyjęciu założenia, że model będzie aktualny w chwili, na którą określa się prognozę; model otrzymujemy przez ekstrapolację poza próbą. W przypadku klasycznego modelu regresji liniowej podstawowa reguła prognozy przybiera postać reguły nieobciążonej według której prognoza jest wartością oczekiwaną zmiennej y w chwili T, T>n;

yT*= E (YT)

yT* - prognoza zmiennej y w momencie lub okresie T

E (YT) - nadzieja matematyczna zmiennej y w momencie lub okresie T

2) podstawowa z poprawką - jest modyfikacją reguły podstawowej; korzysta się z niej gdy występują uzasadnione przypuszczenia, że ostatnio zaobserwowane odchylenia danych empirycznych od modelu utrzymają się w przyszłości;

yT*= E (YT) +p

p - poprawka

sposób szacowania poprawki zależy od liczby zaobserwowanych odchyleń od modelu. Jeżeli zmiana, o której sądzimy, że będzie trwała, wystąpiła w ostatniej chwili dla której mamy obserwację to poprawka wynosi:

p = ynn

yn - rzeczywista wartość zmiennej y w chwili n

ŷn - teoretyczna wartość zmiennej y w chwili n

3) największego prawdopodobieństwa - prognozą jest wartość modalna rozkładu, co oznacza, że prognozą jest stan zmiennej, któremu odpowiada największe prawdopodobieństwo lub maksymalna wartość funkcji gęstości rozkładu; ta reguła jest stosowana, gdy zmienna prognozowana jest zmienną losową i znany jest rozkład jej pdp

yT*= M0 (YT)

4) minimalnej straty - według tej reguły prognozą jest stan zmiennej, którego realizacja powoduje minimalne straty. Przyjmuje się, że wielkość straty jest funkcją błędu prognozy i poszukuje się minimum tej funkcji.

Metoda prognozowania jest sposobem, który służy do rozwiązywania zadań prognostycznych.

Ogólnie dzielimy je na:

- metody matematyczno - statystyczne - służą do prognozowania krótko i średniookresowego. Oparte są głównie na szeregach czasowych i przekrojowo - czasowych

- metody niematematyczne (heurystyczne) - polegają na wykorzystaniu opinii ekspertów opartej na szerokiej wiedzy, intuicji i doświadczeniu. Przewidywanie przyszłości nie jest ekstrapolowaniem wykrytych w przeszłości prawidłowości lecz jest prognozowaniem możliwych wariantów rozwoju interesujących nas zjawisk i wskazywaniem najbardziej prawdopodobnych. Metody te są wykorzystywane do prognozowania długookresowego np. model technologii i odkryć naukowych.

Metody matematyczno - statystyczne dzielimy na:

1) metody oparte na modelach deterministycznych

2) metody oparte na modelach ekonometrycznych

a) model jednorównaniowy:

- klasyczne modele trendu

- adaptacyjne modele trendu (kilka miesięcy)

- modele przyczynowo - opisowe (rok, dwa lata)

- modele autoregresywne

b) modele wielorównaniowe:

- proste

- rekurencyjne

- o równaniach współzależnych

Metody heurystyczne dzielimy na:

- metody ankietowe

- metody intuicyjne

- metody ekspertyz

- kolejnych przybliżeń

- delficka

- analogowe

- modelowe

- refleksji

- inne

Wybór metod prognozowania jest wspomagany przez ocenę jakości modelu tj. ocenę jego zgodności z danymi empirycznymi oraz ocenę wartości prognostycznej modelu.

Jakość modelu z danymi empirycznymi określamy za pomocą mierników:

- współczynnik determinacji

- wsp. zbieżności

- wariancja resztowa

- średnie błędy szacunku

- wsp. wyrazistości

- weryfikacja hipotez (badanie autokorelacji i istotności współczynników kierunkowych)

Przyczyny powodujące złą jakość modelu:

- zostały dobrane nieodpowiednie zmienne objaśniające

- zły dobór analitycznej postaci modelu

- zastosowanie niewłaściwej metody szacowania parametrów

Jakość modelu w przeszłości nie jest jednoznaczna z jego wartością prognostyczną. Wartość prognostyczną modelu (łącznie modelu i reguły prognozowania) określa się przez badanie jakości prognoz ex post i ex ante.

Mierniki prognoz ex post:

- bezwzględny błąd prognozy DT = yt-yT* ; T>n

yt - realizacja zmiennej y w czasie t

yT* - prognoza zmiennej y na czas T otrzymana z danej metody

miernik ten informuje o jaką wartość różni się rzeczywista wartość zmiennej prognozowanej od postawionej prognozy. Znak „+” oznacza, że rzeczywista wartość jest wyższa od prognozy, znak „-” oznacza, że rzeczywista wartość jest niższa od prognozy (przeszacowaliśmy zjawisko).

- względny błąd prognozy VT - informuje on, o ile % rzeczywista wartość zmiennej prognozowanej odchyla się od postawionej prognozy.

- średni bezwzględny błąd prognozy - w przypadku gdy stawiamy ciąg prognoz yT*, t=n+1,..., T; średni bezwzględny błąd prognozy oblicza się (D średnie)

- średni względny błąd prognozy (V średnie)

- średni kwadratowy błąd prognozy (S) - informuje o ile średnio odchylają się zaobserwowane wartości zmiennej prognozowanej inplus bądź inminus od wartości postawionych prognoz

- względny średni błąd prognozy (V)

Dwie ostatnie miary są najbardziej popularne.

- współczynnik Janusowy (J2) - określa on relację stopnia dopasowania prognoz i modelu do danych rzeczywistych. Jeżeli J2 ≤1 to uważa się że dotychczasowe prognozy są trafne i model może być wykorzystany do prognozowania.

- współczynnik Theil'a (I2)

Iep- okres empiryczny weryfikacji prognoz; przedział w którym sprawdzana jest prognoza;

Jeżeli I2 przyjmuje wartości bliskie 0 to prognozy są prawidłowe. Jeżeli I2= 0 to prognozy są idealnie trafne. Im większe są różnice pomiędzy prognostycznymi i rzeczywistymi wartościami badanej zmiennej, tym większa jest jego wartość. Na przyczyny nietrafności prognoz wskazują trzy miary powstałe po rozłożeniu współczynnika Theil'a na 3 składniki:

I2= I21+ I22+ I23

Wzory :

t - średnia arytmetyczna rzeczywistych wartości zmiennej prognozowanej w przedziale weryfikacji

T* - średnia wartość prognoz w przedziale weryfikacji

Sr - odchylenie standardowe rzeczywistych wartości yt w przedziale weryfikacji

Sp - odchylenie standardowe prognoz w przedziale weryfikacji

r - współczynnik korelacji liniowej między yt i yT*

I21, I22, I23, oznaczają błędy popełnione z tytułu:

I21 - obciążoności prognozy (nieodgadnięcia średniej wartości zmiennej prognozowanej)

I22 - niedostatecznej elastyczności (nieodgadnięcia wahań zmiennej prognozowanej)

I23 - niedostatecznej zgodności prognoz z rzeczywistym kierunkiem zmian zmiennej prognozowanej (nieodgadnięcie kierunku tendencji rozwojowej).

Wzory na błędy względne, struktura błędów predykcji (I2 z daszkami)

Rozmiary tych błędów są uzasadnione tym, że stosowana metoda prognozowania nie uwzględnia w sposób bezpośredni punktów zwrotnych realizacji zmiennej. Predykcja punktów zwrotnych jest sprawą trudną i dlatego rząd dokładności prognoz w przypadku częstego występowania tych punktów jest niższy niż miałoby to miejsce wówczas gdyby zmienna prognozowana zmieniła się w czasie w sposób monotoniczny. Efektywność metody prognozowania zależy od liczby punktów zwrotnych. W miarę ich wzrostu efektywność metody maleje.

Błędy typu ex post - to błędy wyznaczane po upływie czasu, na który została ustalona prognoza; mogą dotyczyć jednej prognozy lub ciągu prognoz;

Systematyczna analiza trafności prognoz umożliwia ocenę:

1. stopnia niepewności prognozowania poszczególnych zmiennych

2. osiąganego horyzontu prognozy

3. źródeł niedoskonałości prognoz

4. formułowania rekomendacji co do dalszego wykorzystania danej metody prognozowania

5. wyboru tej metody spośród wielu, która dla danej zmiennej daje najmniejsze błędy ex post;

Błąd typu ex ante - jest określany przed upływem czasu, na który prognoza została ustalona. Mierniki dokładności typu ex ante służą do oceny oczekiwanych wielkości odchyleń rzeczywistych, wartości zmiennej prognozowanej od podstawowych prognoz. Mierniki te wykorzystywane są do określenia dopuszczalności prognozy.

Bezwzględny błąd średni prognozy ex ante D(yt) zależy od :

- horyzontu prognozy (T-t) - gdy rośnie tym błąd jest większy

- liczebności próby n - im większa tym błąd mniejszy

- stopnia dopasowania modelu - im Se większe tym błąd mniejszy

Poziom błędu bezwzględnego i względnego prognozy przedziałowej zależy od:

- bezwzględnego błędu średniego prognozy punktowej ex ante;

- przyjętej wiarygodności prognozy;

Dopuszczalność prognozy - prognoza jest dopuszczalna, gdy obarczona jest przez jej odbiorcę stopniem zaufania wystarczającym do tego, by mogła być wykorzystana do celu, dla którego została ustalona. Kryterium dopuszczalności prognozy formułuje się w postaci warunku nałożonego na względny błąd predykcji.

W skali makro:

V≤ 5% (warunek rygorystyczny)

V≤ 10% (warunek łagodny)

б - jest liczbą daną, z góry zależną od konkretnych warunków i praktycznych potrzeb w zakresie wymaganej dokładności prognoz.

W skali mikro V≤ 3%

W przypadku prognoz przedziałowych kryterium dopuszczalności prognozy zapisujemy:

P{|yt-yT*|<ε}≥γ; ε>0, 0< γ<1

Warunek ten mówi, że pdp tego że błąd prognozy będzie mniejszy od liczby ε powinno być przynajmniej równe pdp γ, przy czym pdp to w literaturze nazwane jest wiarygodnością prognozy, czyli pdp sprawdzenia się prognozy. Wybór ε oraz γ zależy od konkretnych warunków. W praktyce ε ustala się na relatywnie niskim poziomie, natomiast pdp γ na możliwie wysokim.

Etapy prognozowania:

1. sformułowanie zadania prognostycznego - w tym etapie należy określić: obiekt, zjawisko, zmienne które mają podlegać w prognozowaniu, cel wyznaczania prognozy, wymagania co do dopuszczalności i horyzontu prognozy. Główną rolę odgrywa odbiorca, prognosta jest konsultantem pomagającym sprecyzowaniu ustaleń i ewentualnie negocjującym wymagania co do dopuszczalności prognozy i horyzontu. Precyzja w określaniu zadania prognostycznego jest niezwykle ważna, ponieważ na tym etapie ustala się zakres działań prognosty, a więc praktycznie decyduje się o postaci wyniku, jaki ma być uzyskany.

2. zebranie danych statystycznych i ich analiza - gromadzi się tu dane statystyczne dotyczące zmiennej która jest przedmiotem prognozowania jak i zmiennych przyjętych do opisu tej zmiennej.

3. wybór metody prognozowania - znajdują tu zastosowanie różne metody prognostyczne ze względu na rodzaj sporządzanej prognozy, jej cel oraz charakter przewidywanego zjawiska. Wybór metody prognozowania jest konsekwencją zaakceptowanych przesłanek prognostycznych. Opowiedzenie się za postawą pasywną oznacza sięgnięcie po którąś z metod analizy i prognozowania szeregów czasowych lub modelowania ekonometrycznego ze stałymi parametrami. Przyjęcie postawy aktywnej oznacza potraktowanie wymienionych metod jako co najwyżej pomocnicze, a więc sięgnięcie do modeli symulacyjnych, ekonometrycznych ze zmiennymi w czasie parametrami, metod analogowych, heurystycznych itd.

4. wyznaczenie prognozy - następuje przetwarzanie danych. Zwykle ostateczna prognoza powstaje jako wypadkowa kilku metod prognozowania. Czynność ta powinna przebiegać zgodnie z ogólnym schematem wybranych metod, a gdy to nie jest możliwe należy w opisie postępowania ująć wszelkie podjęte decyzje. Samo sformułowanie prognozy powinno odpowiadać określeniu zadania prognostycznego.

5. ocena dopuszczalności prognozy - ocena dopuszczalności musi być podana w sposób zgodny z żądaniem odbiorcy w 1-szym etapie. Jeśli prognoście nie udało się spełnić jakościowych wymagań odbiorcy w żądanym horyzoncie, to może nastąpić renegocjacja warunków umowy prowadząca do obniżenia wymagań jakościowych, lub skrócenia żądanego horyzontu, lub odstąpienie od realizacji zadania.

6. ocena trafności prognozy - przeprowadza się szczegółową analizę i ocenę otrzymanych wartości liczbowych. Weryfikacja polega na określeniu trafności prognozy za pomocą któregoś błędu prognozy ex post, gdy prognoza dotyczyła zmiennej ilościowej, lub na porównaniu prognozowanego stanu zmiennej jakościowej ze stanem zrealizowanym. Prognosta rozlicza się w ten sposób z odbiorcą. Gdy prognoza okazała się trafna, prognosta analizuje słuszność swego postępowania. Jeśli nie, to prognosta dąży do określenia przyczyn swego błędu.

Prognozowanie na podstawie modeli tendencji rozwojowej:

Zalety praktycznego wykorzystania modelu tendencji rozwojowej do prognozowania :

1. do budowy modelu niezbędne są jedynie informacje dotyczące zmiennej prognozowanej

2. nie występuje problem znajomości zmiennych objaśniających w okresie prognozowanym

3. modele tendencji rozwojowej są w większości przypadków liniowe lub dające się sprowadzić do postaci liniowej

4. łatwo można ocenić dokładność budowanych prognoz;

Ogólnie model tendencji rozwojowej zapisujemy w postaci:

I. Y= f(t) + ε - model addytywny

II. Y= f(t) * ε - multiplikatywny

f(t) - funkcja trendu

ε - zmienna losowa, która charakteryzuje efekty oddziaływania wahań przypadkowych na tendencję rozwojową szeregu o wartości oczekiwanej =0 dla modelu pierwszego i jedności dla modelu drugiego.

Predykcja na podstawie klasycznego modelu wymaga:

1. oszacowania analitycznej funkcji trendu f(t)

2. estymacji parametrów modelu

Predykcja na podstawie trendu liniowego:

Żeby wykorzystać model do budowy prognoz należy założyć

1) stabilność relacji strukturalnych w czasie

2) stabilność rozkładu składnika losowego umożliwiającą ocenę błędu ex ante prognozy

- przyszła wartość prognozowana :

yT*= a0+a1T

T - numer okresu na który dokonujemy prognozy

- średni błąd prognozy SPT

- względny błąd prognozy VT (VT≤5%)

- prognoza przedziałowa (błąd bezwzględny S'PT i błąd względny V'T)

Wahania sezonowe - wahania o cyklu rocznym charakteryzujące się regularnym przebiegiem i wywołują okresowy i powtarzający się cyklicznie wzrost lub spadek badanego zjawiska.

Wahania sezonowe wyznaczane są z szeregów czasowych przez porównanie realizacji empirycznych z teoretycznymi.

W zależności od sposobu tego porównania wyróżniamy:

- wahania addytywne (bezwzględne, absolutne)

- wahania multiplikatywne (względne, relatywne)

Wahania addytywne występują, gdy różnice między rzeczywistymi empirycznymi wartościami szeregu czasowego a teoretycznymi są względnie stałe.

Wahania multiplikatywne występują, gdy iloraz wartości empirycznych i teoretycznych jest mniej więcej stały.

Wzory

i - liczba cyklów podokresowości

Yt - poziom empiryczny badanego zjawiska

Ŷt - trend zmiennej y

Git, Oit - wahania sezonowe

εt - składnik losowy (wahania przypadkowe)

W prognozowaniu na podstawie modeli adaptacyjnych najczęściej wykorzystywane w praktyce to:

1) model wyrównywania wykładniczego Browna

2) metoda wag harmonicznych w powiązaniu z metodą trendu pełzającego

Model wyrównywania wykładniczego Browna:

Istota tej metody polega na tym, że wartości szeregu wygładza się za pomocą średniej ruchomej ważonej, zaś wagi określone są wg reguły wykładniczej. W modelu wyrównywania wykładniczego oceny trendu wyznacza się na podstawie relacji (równanie rekurencyjne mt)

Ocenę trendu w okresie t=1 można znaleźć:

1) m1=y1

2) wybiera się średnią arytmetyczną z wyrazów szeregu empirycznego m1=Σyt/n

3) średnią arytmetyczną z kilku pierwszych wyrazów szeregu empirycznego np. k- wyrazów

Parametr α należy do <0;1> i jest stałą wygładzania. Wartości parametru bliskie 1 oznaczają, że większą agę mają obserwacje najnowsze (kontynuacja trendu). Natomiast bliskie 0 oznaczają, że większą wagę mają obserwacje okresu poprzedniego.

W praktyce wartość α ustalana jest metodą prób i błędów. Za najlepszą uznaje się tę wartość dla której otrzymuje się największą zgodność obserwacji empirycznych i teoretycznych modelu.

Po obliczeniu oceny mt można dokonać prognozy dla okresu T, wybiegającego w przyszłość na h jednostek za pomocą wzoru: yT*=mt+(mt-mt-1)h, T≥3

Nie możemy budować prognozy dla T=1 i T=2, bo brakuje informacji niezbędnych do wykorzystania wzoru. Prognozy dla T=3,...,n nazywamy prognozami wygasłymi. Oblicza się je w celu wyznaczenie najlepszej dla danego szeregu czasowego wartości parametru wygładzania α.

Mierniki dokładności prognoz:

1) średnia arytmetyczna błędów prognozy (ữ)

m - liczba par obserwacji yt i yT*

Jeżeli odchylenia od średniej u są dodatnie to prognozy są niskie, jeżeli ujemne to prognozy są za wysokie.

2) średni kwadratowy błąd prognozy expost (SP2)

3) współczynnik rozbieżności Theila (I2)

Metoda wag harmonicznych

Metoda prognozowania oparta na wagach harmonicznych dotyczy zasady postarzania informacji. Twórcą ej metody jest prof. Zdzisław Helwig.

W metodzie tej wyróżniamy 2 etapy:

a. wyrównywania szeregu czasowego za pomocą trendu pełzającego

b. ekstrapolację trendu metodą wag harmonicznych - metodę wag harmonicznych stosuje się do zjawisk charakteryzujących się nieregularnością oraz częstymi załamaniami trendu;

Trend pełzający (ruchomy) stosowany jest do opisu kształtowania się zjawiska w czasie, gdy charakteryzuje się ono nieregularnymi zmianami; nie zakłada się postaci analitycznej zjawiska.

Procedura wyznaczania trendu pełzającego polega na wygładzaniu szeregu czasowego o długości n wyrazów (n>10).

Wygładzanie szeregu przebiega etapami:

1. zakładamy, że znany jest szereg czasowy niemonotonicznie roznący y1, y2,....yn; ustalamy arbitralnie liczbę k, która jest stałą wygładzania, tak by k<n

2. szacuje się za pomocą metody najmniejszych kwadratów na podstawie k obserwacji parametry równania odcinków liniowych.

3. na podstawie oszacowanych trendów czasowych obliczamy teoretyczne wartości zmiennej ŷt

4. ostateczne wygładzanie szeregu następuje w wyniku obliczenia średniej z wartości teoretycznych dla każdego momentu ŷt średnie

5. łącząc kolejne punkty (t; ŷt średnie) otrzymuje się wykres trendu badanego szeregu czasowego w postaci łamanej zwanej trendem ruchomym (pełzającym).

Oszacowany model trendu pełzającego jest podstawą do przewidywania przyszłych wartości prognozowanej zmiennej. W tym celu dokonuje się ekstrapolacji trendu w przyszłości wg metody wag harmonicznych.

Procedura wag harmonicznych:

1. oblicza się przyrosty funkcji trendu (Wt+1)

2. wyznacza się współczynniki Cnt+1 które nazywane są wagami harmonicznymi i mają na celu zadanie postarzenia informacji, co oznacza, że przyrosty wag przypisywane kolejnym wyrazom szeregu czasowego są odwrotnie proporcjonalne do wieku danych.

3. określa się średnią przyrostu (w średnie)

4. wyznacza się odchylenie standardowe przyrostów trendu pełzającego (s)

5. prognozę punktową wg metody wag harmonicznych otrzymujemy ze wzoru (y*T)

6. prognoza przedziałowa (dolna i górna granica)

Metodę wag harmonicznych stosuje się do zjawisk charakteryzujących się nieregularnością oraz częstymi załamaniami trendu.

Modele ekonometryczne wykorzystywane są do prognozowania średniookresowego takich wielkości jak: struktura produkcji, konsumpcji, analiza kosztów, wydajność pracy;

Zalety tej metody prognostycznej to:

1. prosta budowa i interpretacja ocen parametrów

2. możliwość obliczeń błędów predykcji ex-ante

3. możliwość uzyskania prognoz wariantowych

4. możliwość doboru metod estymacji parametrów modelu w zależności od przyjętych założeń odnośnie składnika losowego (niejednorodność wariancji lub autokorelacja składników losowych implikuje stosowanie uogólnionej metody najmniejszych kwadratów);

Żeby można było wykorzystać wyznaczony model do predykcji należy dysponować:

1. oszacowanym modelem ekonometrycznym

2. wartościami zmiennych objaśniających w okresie prognozowania (mogą być to wielkości założone, planowane bądź kreowane w scenariuszach rozwoju).

Do celów prognozowania należy wykorzystywać modele dobre, co oznacza, że :

1. model ma wysoki stopień dopasowania do danych empirycznych

2. zmienne objaśniające są istotne oraz współczynnik korelacji wielorakiej jest istotny.

Założenia teorii prognozy ekonometrycznej:

1. znany jest dobry model (dobrze opisujący badane zjawisko w sensie podanych wcześniej kryteriów)

2. występuje stabilność relacji strukturalnych w czasie, co oznacza, że postać modelu i wzajemne oddziaływanie zmiennych są stałe aż do momentu lub okresu prognozowanego włącznie;

3. składnik losowy ma stały rozkład w czasie, co oznacza, że nie pojawią się nowe ważne zmienne oddziałujące na prognozowane zjawisko, zaś dotychczasowe nie zmieniają siły oddziaływania

4. znane są wartości zmiennych objaśniających Xi w okresie prognozowanym; zwykle zmienne te ustalane są :

- w oparciu o funkcję trendu zbudowane dla tych zmiennych

- wartości ustalone w planach i inne opracowania prognostyczne

5. można ekstrapolować model poza jego dziedziną.

Wymienione założenia zwykle są spełnione przy sporządzaniu prognoz krótkookresowych.

Na podstawie jednorównaniowego modelu ekonometrycznego buduje się prognozy punktowe i przedziałowe.

Prognozy punktowe podawane są za pomocą jednej liczby stanowiącej najlepszą ocenę przyszłej realizacji zmiennej prognozowanej.

Prognozy przedziałowe obejmują przedział liczbowy, który ze z góry zadanym prawdopodobieństwem będzie zawierać przyszłą realizację zmiennej prognozowanej.

Symulacją nazywamy każdy proces, którego celem jest zbadanie zachowania pewnego sztucznego układu lub poznanie jego określonych charakterystyk, kiedy układ ten odwzorowuje pewien badany obiekt realny, badane zjawisko bądź zdarzenie. Badane zjawisko, zdarzenie, poznawany obiekt nazywamy systemem przedmiotowym, zaś układ sztuczny modelem.

Posługiwanie się modelem a nie systemem wynika z przyczyn:

1. system taki może jeszcze nie istnieć

2. system realny może istnieć, ale może być tak skomplikowany i trudny do obserwacji, że bezpośrednie jego badanie jest niemożliwe

3. badanie może mieć na celu zweryfikowanie słuszności budowanej teorii o cechach charakterystycznych badanego systemu realnego lub o jego funkcjach bądź zachowaniach.

Symulacja na podstawie modelu ekonometrycznego ma dać odpowiedź na pytania:

1. jakie byłyby wartości zmiennych endogenicznych gdyby zmienne egzogeniczne przyjęły określone wartości?

2. jak należałoby dobrać wartości zmiennych egzogenicznych by uzyskać określone wartości zmiennych endogenicznych?

Symulacja na podstawie modelu ekonometrycznego dotyczyć może zmiennych występujących w modelu, parametrów strukturalnych i właściwości składnika losowego.

1. deterministyczna - gdy oszacowane parametry modelu nie zmieniają się w czasie eksperymentu

2. stochastyczna - gdy zakłócenia wprowadzone do modelu przyjmują wartości losowe

I. prosta - gdy zmienione są wartości tylko jednej zmiennej egzogenicznej

II. złożona - gdy jednocześnie zmieniane są wartości kilku zmiennych egzogenicznych

Jeżeli symulacja dotyczy przyszłego zachowania obiektu, to uzyskane warianty, których pdp realizacji dla celów praktycznych jest wystarczające może być traktowane jako prognoza.

Prognozy heurystyczne to przewidywanie nowych obrazów rzeczywistości na podstawie opinii ekspertów opartych na intuicji i doświadczeniu. Przewidywanie przyszłości nie jest ekstrapolowaniem wykrytych w przeszłości prawidłowości w przyszłość, lecz prognozowaniem możliwych wariantów rozwoju interesujących nas zjawisk i wskazywaniem najbardziej realistycznych.

Zastosowania metod heurystycznych do prognozowania:

- wskazywanie daty zajścia interesującego nas zdarzenia

- określenie poziomu badanego zjawiska

- określenie punktów zwrotnych przebiegu zmiennych

- określanie pdp występowania danego zdarzenia

- określanie natężenia występowania zjawisk nowych

- ocena przydatności utworzonych modeli do prognozowania

Przy wyborze ekspertów należy kierować się zasadami:

1. grupa ekspertów powinna zawierać reprezentantów specjalistycznych dziedzin nauki i praktyki

2. grupa powinna być liczna, by reprezentować różne poglądy

3. wybrane osoby powinny mieć niezależną wizję przyszłości

Prognozą jest ta opinia ekspertów, która powtarza się najczęściej.

Największe zastosowani wśród metod heurystycznych znalazły:

1. burza mózgów

2. metoda delficka

Burza mózgów stosowana jest do rozwiązywania problemów niezbyt dużej wagi w przeciągu krótkiego okresu czasu. Twórcą jej jest Osborn (1953). Oddzielił on fazę tworzenia od fazy oceniania pomysłów. Podstawą metody są założenia:

- nie krytykować

- wytworzyć dużo pomysłów

Etapy w badaniu burzą mózgów:

1) przygotowanie organizacyjne - formułowany jest temat, zbiera się informacje o rozwiązywanym problemie

2) tworzenie pomysłów

3) analiza i ocena zebranych pomysłów - następuje wybór najlepszego pomysłu lub tworzony jest nowy projekt, będący kompilacją najlepszych fragmentów wcześniej zgłoszonych pomysłów.

Metoda delficka została opracowana i opisana w 1963. Twórcą jest Dalkey i Helmer. Istota tej metody polega na opracowaniu szczegółowych ankiet i rozesłaniu ich do specjalistów z różnych dziedzin wiedzy oraz na uzgadnianiu opinii przez informowanie ekspertów o wynikach ankiety. W wyniku statystycznej analizy otrzymuje się uogólnioną opinię ekspertów dotyczącą prognozy badanego zjawiska. Eksperci nie wymieniają między sobą poglądów i pracują niezależnie od pozostałych. Ich odpowiedzi są anonimowe

Etapy metody delfickiej:

1) wybór problemów, które mają być przedmiotem prognozowania

2) przekazanie ankiet znacznej liczbie ekspertów

3) uzyskanie odpowiedzi

4) analiza otrzymanych opinii - w przypadku, gdy zgoda zostaje osiągnięta badanie zostaje zakończone. Ostateczne wyniki prezentują organizatorzy badania.

5) jeżeli zgoda nie została osiągnięta ponownie formułowane są pytania do ekspertów wraz z wynikami poprzedniej ankiety

6) zwrot kwestionariuszy

7) zebranie i statystyczna analiza uzyskanego materiału

zalety metody delfickiej:

- anonimowość i niezależność wypowiadanych sądów

- wieloetapowość postępowania

- ostateczne wnioski są wynikiem agregacji i uśrednienia opinii indywidualnych

wady metody delfickiej:

- trudności w doborze ekspertów

- długi czas trwania badań (do 1 roku)

- konieczność angażowania dużej grupy osób do opracowywania ankiety i odpowiedzi uczestników

- brak bezpośredniej wymiany poglądów pomiędzy ekspertami

Metodę delficką stosujemy do:

- wyznaczania ważnych dat interesującego nas zjawiska

- określania punktów zwrotnych trendów zjawisk

- wyznaczenia pdp wystąpienia danego zdarzenia

- oceny ważności i skutków zmian w zakresie czynników determinujących analizowany proces

Statystyczna analiza odpowiedzi ekspertów:

Odpowiedzi zawarte w ankiecie są pomiarami w skali nominalnej lub porządkowej. Są to skale przeznaczone głównie do badania cech jakościowych. Według skali nominalnej klasyfikuje się obiekty ze względu na wyróżnione warianty. Pomiar prowadzony na skali porządkowej polega na rangowaniu, czyli porządkowaniu według kolejności wariantów zmiennej wyróżnionej w danym pytaniu. Rangowanie może być ścisłe bądź swobodne. Rangowanie ścisłe polega na przypisaniu każdemu z „k” wariantów jednej z liczb naturalnych (stosuje się do małej liczby wariantów). Rangowanie swobodne polega na przydziale ekspertom określonej puli punktów, które rozdzielają między wyróżnione warianty pytania w dowolny sposób (stosuje się w przypadku dużej liczby wariantów).

Statystyczna analiza wyników pochodzących z ankiet ma na celu:

1) ocenę stopnia zgodności odpowiedzi ekspertów w odniesieniu do każdego wariantu oddzielnie oraz dla wszystkich wariantów włącznie

2) wyodrębnienie jednorodnych grup ekspertów o zbliżonych poglądach (gdy występują istotne rozbieżności w opiniach)

3) wykrycie przyczyn zróżnicowanych opinii ekspertów przez określenie wpływu charakterystyk osobowych na udzielane odpowiedzi

4) określenie wspólnego poglądu zespołu ekspertów

Stopień zgodności opinii ekspertów bada się za pomocą miernika Vj

Vj - współczynnik zróżnicowania dla j-tej cechy

nij - odpowiedzi o i-tej randze przydzielonej j-temu wariantowi

Vj należy do przedziału <0;1>

Średni stopień zgodności ekspertów oblicza się za pomocą współczynnika konkordancji Tendala i Smith'a (W)

n - liczba ekspertów

k - liczba wariantów

x średnie - średnia sumy rang dla wszystkich wariantów

Istotność współczynnika korelacji bada się testem chi-kwadrat. Z tablicy rozkładu chi-kwadrat oraz liczby stopni swobody (k-1) odczytujemy wartość krytyczną.

Χ20> Χ2α - istnieje zbieżność opinii ekspertów i zespół uznajemy za kompetentny

Praca pochodzi z serwisu www.e-sciagi.pl



Wyszukiwarka

Podobne podstrony:
handel i usługi (10 str), Ekonomia
pojęcia i etapy badań rynku (9 str), Ekonomia, ekonomia
Istota i cele outsourcingu (9 str), Ekonomia, ekonomia
układ wykonawczy budżetu (10 str), Ekonomia
inwestycje rzeczowe istota i przykłdy (13 str), Ekonomia, ekonomia
pojęcie budżetu państwa (54 str), Ekonomia
globalizacja (10 str), Ekonomia, ekonomia
rodzaje i cechy podmiotu gospodarczego (10 str), Ekonomia, ekonomia
rachunek inwestycyjny - referat (10 str), Ekonomia, ekonomia
fundusze inwestycyjne (10 str), Ekonomia, ekonomia
popyt (10 str), Ekonomia

więcej podobnych podstron