11 Analiza Szeregów Czasowych

TEORIA STEROWNIA

Zajęcia nr 11

Analiza Szeregów Czasowych

SZEREGI CZASOWE

Dane reprezentowane w postaci szeregów czasowych są popularne w wielu zastosowaniach, np.:

Szereg dyskretny:


t1,  t2,  …, tN


z(t1),  z(t2),  …, z(tN)

lub


z1,  z2,  …, zN

i mierzone są w odstępach h.

Chwile czasowe można zatem opisać również następująco:


t0, t0 + h , t0 + 2h,  …, t0 + Nh

Stacjonarne procesy stochastyczne:

proces stochastyczny, w którym wszystkie momenty oraz momenty łączne są stałe.

N – obserwacji


zt = φ1zt − 1 + φ2zt − 2 + … + at

Średnią procesu stochastycznego wyrażona jest wzorem:


μ = E[zt] = ∫−∞zp(z)dz

gdzie p jest funkcją prawdopodobieństwa, a E oznacza wartość oczekiwaną.

Równanie to można zastąpić korzystając ze wzoru na średnią:


$$\overset{\overline{}}{z} = \frac{1}{N}\sum_{t = 1}^{N}z_{t}$$


$$\frac{1}{N^{2}}\sum_{t = 1}^{N}\left( z_{t} - \overset{\overline{}}{z} \right)\left( z_{t - k} - \overset{\overline{}}{z} \right)$$

Wariancja określona jest wzorem:


$$\sigma_{z}^{2} = \frac{1}{N}\sum_{t = 1}^{N}\left( z - \overset{\overline{}}{z} \right)^{2}$$

Autokowariancja:


γk = cov[zt,zt + k] = E[(ztμ)(zt − kμ)]

Gdzie k oznacza odstęp między (zt,zt + k)

Autokorelacja:


$$\varrho_{k} = \frac{E\left\lbrack \left( z_{t} - \mu \right)\left( z_{t - k} - \mu \right) \right\rbrack}{\sqrt{E\left\lbrack \left( z_{t} - \mu \right)^{2} \right\rbrack}\sqrt{E\left\lbrack \left( z_{t + k} - \mu \right)^{2} \right\rbrack}}$$

Którą można zastąpić wzorem:


$$\begin{matrix} \varrho_{k} = \frac{\gamma_{k}}{\gamma_{0}} \\ \gamma_{0} = 1 \\ \end{matrix}$$

ZADANIA:

  1. Niżej podane są pomiary temperatury z w reaktorze chemicznym wykonane co minuta:

200,202,208,204,207,207,204,202,199,201,198,200,202,203,205,207,211,204,206,203,203,201,198, 200,206, 207,206,200,203,203,200,200,195,202,204.

  1. Pierwsze dwie autokorelacje procesu są równe niezerowe, a pozostałe równe zeru. Stwierdzić, Czy proces jest stacjonarny, czy nie?

Aby proces był stacjonarny macierz autokowariancji(symetryczna) $\mathbf{\Gamma}_{\mathbf{p}}\mathbf{=}\left\lbrack \begin{matrix} \begin{matrix} \mathbf{1} & \gamma_{1} \\ \gamma_{1} & \gamma_{0} \\ \end{matrix} \\ \begin{matrix} \mathbf{\ldots} & \mathbf{\ldots} \\ \gamma_{n - 1} & \gamma_{n - 2} \\ \end{matrix} \\ \end{matrix}\mathbf{\text{\ \ \ }}\begin{matrix} \begin{matrix} \mathbf{\ldots} & \gamma_{n - 1} \\ \mathbf{\ldots} & \gamma_{n - 2} \\ \end{matrix} \\ \begin{matrix} \mathbf{\ldots} & \mathbf{\ldots} \\ \mathbf{\ldots} & \gamma_{0} \\ \end{matrix} \\ \end{matrix} \right\rbrack$

oraz odpowiadająca jej macierz autokorelacji


$$\mathbf{\Gamma}_{\mathbf{p}}\mathbf{=}\left\lbrack \begin{matrix} \begin{matrix} \mathbf{1} & \gamma_{1} \\ \gamma_{1} & \gamma_{0} \\ \end{matrix} \\ \begin{matrix} \mathbf{\ldots} & \mathbf{\ldots} \\ \gamma_{n - 1} & \gamma_{n - 2} \\ \end{matrix} \\ \end{matrix}\mathbf{\text{\ \ \ }}\begin{matrix} \begin{matrix} \mathbf{\ldots} & \gamma_{n - 1} \\ \mathbf{\ldots} & \gamma_{n - 2} \\ \end{matrix} \\ \begin{matrix} \mathbf{\ldots} & \mathbf{\ldots} \\ \mathbf{\ldots} & \gamma_{0} \\ \end{matrix} \\ \end{matrix} \right\rbrack\mathbf{=}\sigma_{z}^{2}\left\lbrack \begin{matrix} \begin{matrix} \mathbf{1} & \varrho_{1} \\ \varrho_{1} & \varrho_{0} \\ \end{matrix} \\ \begin{matrix} \mathbf{\ldots} & \mathbf{\ldots} \\ \varrho_{n - 1} & \varrho_{n - 2} \\ \end{matrix} \\ \end{matrix}\mathbf{\text{\ \ \ }}\begin{matrix} \begin{matrix} \mathbf{\ldots} & \varrho_{n - 1} \\ \mathbf{\ldots} & \varrho_{n - 2} \\ \end{matrix} \\ \begin{matrix} \mathbf{\ldots} & \mathbf{\ldots} \\ \mathbf{\ldots} & \varrho_{0} \\ \end{matrix} \\ \end{matrix} \right\rbrack\mathbf{=}\mathbf{P}_{\mathbf{p}}$$

dla n obserwacji muszą być dodatnio określone.

Rozważając funkcję liniową zmiennych losowych z1, zt − 1,  …, zt − n + 1 mamy:


Li = l1zt + l2zt − 1 + … + l2zt − n + 1


$$var\lbrack L_{i}\rbrack = \sum_{i = 1}^{n}{\sum_{j = 1}^{m}l_{i}}l_{j}\gamma_{\left| j - i \right|}$$

co jest większe od zera, jeżeli nie wszystkie li są zerami.

  1. Oblicz c0, c1, c2,  r1, r2dla szeregu podanego w ćwiczeniu 1. Wykonać wykres rk,  k = 0, 1, 2.

Model autoregresji (AR) rzędu p

Niech p początkowych wag przyjmuje wartości różne od zera


$${\tilde{z}}_{t} = \varphi_{1}{\tilde{z}}_{t - 1} + \varphi_{2}{\tilde{z}}_{t - 2} + \ldots + \ \varphi_{p}{\tilde{z}}_{t - p} + a_{t}$$

gdzie: φ1, φ2, …, φp- skończony układ parametrów wagowych

Proces ten nazywamy procesem autoregresji rzędu p lub w skrócie AR(p).

Można również zapisać jako:


$${{(1 + \varphi}_{1}B + \varphi_{2}B^{2} + \ldots + \ \varphi_{p}B^{p})\tilde{z}}_{t} = a_{t}$$

lub


$${\ \varphi(B)\tilde{z}}_{t} = a_{t}$$

gdzie operator: $B^{p} = \ {\tilde{z}}_{t - p}$

Proces można traktować jako wyjście ${\ \tilde{z}}_{t}$ filtru liniowego z funkcją przenoszenia φ−1(B) , w którym wejściem jest biały szum at, dlatego:


$${\ \tilde{z}}_{t} = {\varphi^{- 1}(B)a}_{t}$$

Model średniej ruchomej (MA) rzędu q

Niech p początkowych wag przyjmuje wartości różne od zera


$${\tilde{z}}_{t} = a_{t} - \theta_{1}a_{t - 1} - \theta_{2}a_{t - 2} - \ldots + \ \theta_{q}a_{t - q}$$

gdzie: θ1, θ2, …, θ- skończony układ parametrów wagowych

Proces ten nazywamy procesem średniej ruchomej rzędu q lub w skrócie MA(q).

Można również zapisać jako:


$${\tilde{z}}_{t} = {{(1 - \theta}_{1}B - \theta_{2}B^{2} + \ldots + \ \theta_{q}B^{q})a}_{t}$$

lub


$${\ \tilde{z}}_{t} = {\theta(B)a}_{t}$$

gdzie operator: $B^{p} = \ {\tilde{z}}_{t - p}$

Warunki odwracalności:


$${{a_{t} = \varphi}^{- 1}(B)\ \tilde{z}}_{t}$$

Mieszany model autoregresji i średniej ruchomej (ARMA) rzędu p i q

Niech p początkowych wag przyjmuje wartości różne od zera


$${\tilde{z}}_{t} = {\varphi_{1}{\tilde{z}}_{t - 1} + \varphi_{2}{\tilde{z}}_{t - 2} + \ldots + \ \varphi_{p}{\tilde{z}}_{t - p} + a}_{t} - \theta_{1}a_{t - 1} - \theta_{2}a_{t - 2} - \ldots + \ \theta_{q}a_{t - q}$$

gdzie: θ1, θ2, …, θ- skończony układ parametrów wagowych

Proces ten nazywamy procesem średniej ruchomej rzędu q lub w skrócie ARMA(p,q).

Można również zapisać jako:


$${(1 + \varphi}_{1}B + \varphi_{2}B^{2} + \ldots + \ \varphi_{p}B^{p}){\tilde{z}}_{t} = {{(1 - \theta}_{1}B - \theta_{2}B^{2} + \ldots + \ \theta_{q}B^{q})a}_{t}$$

lub


$${\varphi(B)\ \tilde{z}}_{t} = {\theta(B)a}_{t}$$

gdzie operator: $B^{p} = \ {\tilde{z}}_{t - p}$


Oznaczenia – symbole i definicje.

Dla liniowego równania różnicowe postaci:


yt + a1yt − 1 + a2yt − 2 + … + anayt − na =  b0ut + b1ut − 1 + … + bnbut − nb + v(t)

przy czym at − 1, …, at − nasą nieznanymi wartościami parametrów obiektu, wielkości yt − 1, …, yt − na znanymi wielkościami wyjścia, ut, ut − 1, …, ut − nb znanymi wielkościami wejścia, natomiast v(tto zakłócenia.

Model ten da się zapisać za pomocą jednego wzoru:


yt = φTθ + v

gdzie przez φ oznaczamy wektor regresji, a przez θ wektor współczynników modelu.

W przypadku wyżej wymienionego modelu przez te oznaczenia rozumiemy:


φ = [ − yt − 1, …, −yt − na, ut, ut − 1, …, ut − nb]T


θ =  [ a1,a2,…,ana,b0,b1,…bnb]T

Przyjmując, że zakłócenia v(t)  = [ε1, ε2, …, εn]T są zmiennymi losowymi o wartości oczekiwanej: E(v) = 0

I macierz kowariancji: cov(v) = Iσ2

Metoda najmniejszych kwadratów (Least Squares - LS)

Współczynniki równania można znaleźć za pomocą wzoru:


θ = (YTY)−1YTy

gdzie Y oznacza macierz o wymiarze NxN gdzie N = na + nb + 1 postaci:


$$Y = \begin{bmatrix} \begin{matrix} \begin{matrix} \begin{matrix} {- y}_{t - 1} & \ldots \\ \end{matrix} & \begin{matrix} {- y}_{t - n_{a}} & u_{t} \\ \end{matrix} \\ \end{matrix} \\ \begin{matrix} \begin{matrix} {- y}_{t} & \ldots \\ \end{matrix} & \begin{matrix} {- y}_{t - n_{a} + 1} & u_{t + 1} \\ \end{matrix} \\ \end{matrix} \\ \end{matrix} & \begin{matrix} \ldots \\ \ldots \\ \end{matrix} & \begin{matrix} u_{t - n_{b}} \\ u_{t - n_{b} + 1} \\ \end{matrix} \\ \begin{matrix} \begin{matrix} \begin{matrix} {- y}_{t + 1} & \ldots \\ \end{matrix} & \begin{matrix} {- y}_{t - n_{a} + 2} & u_{t + 2} \\ \end{matrix} \\ \end{matrix} \\ \begin{matrix} \begin{matrix} \ldots & \ldots \\ \end{matrix} & \begin{matrix} \ldots & \ldots \\ \end{matrix} \\ \end{matrix} \\ \end{matrix} & \begin{matrix} \ldots \\ \ldots \\ \end{matrix} & \begin{matrix} u_{t - n_{b} + 2} \\ \ldots \\ \end{matrix} \\ \begin{matrix} \begin{matrix} {- y}_{t + N - 1} & \ldots \\ \end{matrix} & \begin{matrix} {- y}_{t - n_{a} + N - 1} & u_{t + 2} \\ \end{matrix} \\ \end{matrix} & \ldots & u_{t - n_{b} + 2 + N - 1} \\ \end{bmatrix}$$


y = [yt,yt + 1,…,yt + N]

Rozszerzona metoda najmniejszych kwadratów (Extended Least Squares - ELS)

Metoda ELS jest rozszerzeniem metody LS na układy, w których zakłócenia są ze sobą skorelowane. Model ten da się zapisać za pomocą wzoru:


yt = φTθ

gdzie przez φ oznaczamy wektor regresji, a przez θ wektor współczynników modelu.

W przypadku wyżej wymienionego modelu przez te oznaczenia rozumiemy:


φ = [−yt − 1,…,−yt − na,ut,ut − 1,…,ut − nb,et,et − 1,…,et − nc]T


θ =  [ a1,a2,…,ana,b0,b1,…bnb,c0,c1,…cnc]T

Współczynniki równania można znaleźć za pomocą wzoru:


θ = (YTY)−1YTy

gdzie Y oznacza macierz o wymiarze NxN gdzie N = na + nb + nc + 2 postaci:


$$Y = \begin{bmatrix} \begin{matrix} \begin{matrix} \begin{matrix} {- y}_{t - 1} & \ldots \\ \end{matrix} & \begin{matrix} {- y}_{t - n_{a}} & u_{t} \\ \end{matrix} \\ \end{matrix} \\ \begin{matrix} \begin{matrix} {- y}_{t} & \ldots \\ \end{matrix} & \begin{matrix} {- y}_{t - n_{a} + 1} & u_{t + 1} \\ \end{matrix} \\ \end{matrix} \\ \end{matrix} & \begin{matrix} \ldots \\ \ldots \\ \end{matrix} & \begin{matrix} \begin{matrix} u_{t - n_{b}} & \begin{matrix} e_{t} & \begin{matrix} \ldots & e_{t - n_{c}} \\ \end{matrix} \\ \end{matrix} \\ \end{matrix} \\ \begin{matrix} u_{t - n_{b} + 1} & \begin{matrix} e_{t + 1} & \begin{matrix} \ldots & e_{t - n_{c + 1}} \\ \end{matrix} \\ \end{matrix} \\ \end{matrix} \\ \end{matrix} \\ \begin{matrix} \begin{matrix} \begin{matrix} {- y}_{t + 1} & \ldots \\ \end{matrix} & \begin{matrix} {- y}_{t - n_{a} + 2} & u_{t + 2} \\ \end{matrix} \\ \end{matrix} \\ \begin{matrix} \begin{matrix} \ldots & \ldots \\ \end{matrix} & \begin{matrix} \ldots & \ldots \\ \end{matrix} \\ \end{matrix} \\ \end{matrix} & \begin{matrix} \ldots \\ \ldots \\ \end{matrix} & \begin{matrix} \begin{matrix} u_{t - n_{b} + 2} & \begin{matrix} e_{t + 2} & \begin{matrix} \ldots & e_{t - n_{c + 2}} \\ \end{matrix} \\ \end{matrix} \\ \end{matrix} \\ \begin{matrix} \ldots & \begin{matrix} \ldots & \begin{matrix} \ldots & \ldots \\ \end{matrix} \\ \end{matrix} \\ \end{matrix} \\ \end{matrix} \\ \begin{matrix} \begin{matrix} {- y}_{t + N - 1} & \ldots \\ \end{matrix} & \begin{matrix} {- y}_{t - n_{a} + N - 1} & u_{t + 2} \\ \end{matrix} \\ \end{matrix} & \ldots & \begin{matrix} u_{t - n_{b} + N - 1} & \begin{matrix} e_{t + N - 1} & \begin{matrix} & e_{t - n_{c} + N - 1} \\ \end{matrix} \\ \end{matrix} \\ \end{matrix} \\ \end{bmatrix}$$


y = [yt,yt + 1,…,yt + N]


Wyszukiwarka

Podobne podstrony:
11 Analiza Szeregów Czasowych z rozwiązaniami
11 Analiza Szeregów Czasowych z rozwiązaniami
Analiza szeregów czasowych wzory
Analiza szeregów czasowych
analiza szeregow czasowych z9 i Nieznany (2)
analiza szeregu czasowy, Płyta farmacja Bydgoszcz, statystyka, pozostałe
Skladnikowa analiza szeregow czasowych, materiały z roku 2011-2012, Semestr II, Statystyka opisowa -
Analiza szeregow czasowych w c., Studia, STUDIA PRACE ŚCIĄGI SKRYPTY
Analiza Szeregów Czasowych
ANALIZA SZEREGÓW CZASOWYCH
analiza szeregów czasowych zadania, I rok, Statystyka opisowa
Analiza szeregów czasowych
analiza szeregów czasowych (7 str), Analiza i inne
ANALIZA SZEREGÓW CZASOWYCH

więcej podobnych podstron