11 Analiza Szeregów Czasowych z rozwiązaniami

TEORIA STEROWNIA

Zajęcia nr 11

Analiza Szeregów Czasowych

SZEREGI CZASOWE

Dane reprezentowane w postaci szeregów czasowych są popularne w wielu zastosowaniach, np.:

Szereg dyskretny:


t1,  t2,  …, tN


z(t1),  z(t2),  …, z(tN)

lub


z1,  z2,  …, zN

i mierzone są w odstępach h.

Chwile czasowe można zatem opisać również następująco:


t0, t0 + h , t0 + 2h,  …, t0 + Nh

Stacjonarne procesy stochastyczne:

proces stochastyczny, w którym wszystkie momenty oraz momenty łączne są stałe.

N – obserwacji


zt = φ1zt − 1 + φ2zt − 2 + … + at

Średnią procesu stochastycznego wyrażona jest wzorem:


μ = E[zt] = ∫−∞zp(z)dz

gdzie p jest funkcją prawdopodobieństwa, a E oznacza wartość oczekiwaną.

Równanie to można zastąpić korzystając ze wzoru na średnią:


$$\overset{\overline{}}{z} = \frac{1}{N}\sum_{t = 1}^{N}z_{t}$$


$$\frac{1}{N^{2}}\sum_{t = 1}^{N}\left( z_{t} - \overset{\overline{}}{z} \right)\left( z_{t - k} - \overset{\overline{}}{z} \right)$$

Wariancja określona jest wzorem:


$$\sigma_{z}^{2} = \frac{1}{N}\sum_{t = 1}^{N}\left( z - \overset{\overline{}}{z} \right)^{2}$$

Autokowariancja:


γk = cov[zt,zt + k] = E[(ztμ)(zt − kμ)]

Gdzie k oznacza odstęp między (zt,zt + k)

Autokorelacja:


$$\varrho_{k} = \frac{E\left\lbrack \left( z_{t} - \mu \right)\left( z_{t - k} - \mu \right) \right\rbrack}{\sqrt{E\left\lbrack \left( z_{t} - \mu \right)^{2} \right\rbrack}\sqrt{E\left\lbrack \left( z_{t + k} - \mu \right)^{2} \right\rbrack}}$$

Którą można zastąpić wzorem:


$$\begin{matrix} \varrho_{k} = \frac{\gamma_{k}}{\gamma_{0}} \\ \gamma_{0} = 1 \\ \end{matrix}$$

ZADANIA:

  1. Niżej podane są pomiary temperatury z w reaktorze chemicznym wykonane co minuta:

200,202,208,204,207,207,204,202,199,201,198,200,202,203,205,207,211,204,206,203,203,201,198, 200,206, 207,206,200,203,203,200,200,195,202,204.

  1. Pierwsze dwie autokorelacje procesu są równe niezerowe, a pozostałe równe zeru. Stwierdzić, Czy proces jest stacjonarny, czy nie?

Aby proces był stacjonarny macierz autokowariancji(symetryczna) $\mathbf{\Gamma}_{\mathbf{p}}\mathbf{=}\left\lbrack \begin{matrix} \begin{matrix} \mathbf{1} & \gamma_{1} \\ \gamma_{1} & \gamma_{0} \\ \end{matrix} \\ \begin{matrix} \mathbf{\ldots} & \mathbf{\ldots} \\ \gamma_{n - 1} & \gamma_{n - 2} \\ \end{matrix} \\ \end{matrix}\mathbf{\text{\ \ \ }}\begin{matrix} \begin{matrix} \mathbf{\ldots} & \gamma_{n - 1} \\ \mathbf{\ldots} & \gamma_{n - 2} \\ \end{matrix} \\ \begin{matrix} \mathbf{\ldots} & \mathbf{\ldots} \\ \mathbf{\ldots} & \gamma_{0} \\ \end{matrix} \\ \end{matrix} \right\rbrack$

oraz odpowiadająca jej macierz autokorelacji


$$\mathbf{\Gamma}_{\mathbf{p}}\mathbf{=}\left\lbrack \begin{matrix} \begin{matrix} \mathbf{1} & \gamma_{1} \\ \gamma_{1} & \gamma_{0} \\ \end{matrix} \\ \begin{matrix} \mathbf{\ldots} & \mathbf{\ldots} \\ \gamma_{n - 1} & \gamma_{n - 2} \\ \end{matrix} \\ \end{matrix}\mathbf{\text{\ \ \ }}\begin{matrix} \begin{matrix} \mathbf{\ldots} & \gamma_{n - 1} \\ \mathbf{\ldots} & \gamma_{n - 2} \\ \end{matrix} \\ \begin{matrix} \mathbf{\ldots} & \mathbf{\ldots} \\ \mathbf{\ldots} & \gamma_{0} \\ \end{matrix} \\ \end{matrix} \right\rbrack\mathbf{=}\sigma_{z}^{2}\left\lbrack \begin{matrix} \begin{matrix} \mathbf{1} & \varrho_{1} \\ \varrho_{1} & \varrho_{0} \\ \end{matrix} \\ \begin{matrix} \mathbf{\ldots} & \mathbf{\ldots} \\ \varrho_{n - 1} & \varrho_{n - 2} \\ \end{matrix} \\ \end{matrix}\mathbf{\text{\ \ \ }}\begin{matrix} \begin{matrix} \mathbf{\ldots} & \varrho_{n - 1} \\ \mathbf{\ldots} & \varrho_{n - 2} \\ \end{matrix} \\ \begin{matrix} \mathbf{\ldots} & \mathbf{\ldots} \\ \mathbf{\ldots} & \varrho_{0} \\ \end{matrix} \\ \end{matrix} \right\rbrack\mathbf{=}\mathbf{P}_{\mathbf{p}}$$

dla n obserwacji muszą być dodatnio określone.

Rozważając funkcję liniową zmiennych losowych z1, zt − 1,  …, zt − n + 1 mamy:


Li = l1zt + l2zt − 1 + … + l2zt − n + 1


$$var\lbrack L_{i}\rbrack = \sum_{i = 1}^{n}{\sum_{j = 1}^{m}l_{i}}l_{j}\gamma_{\left| j - i \right|}$$

co jest większe od zera, jeżeli nie wszystkie li są zerami.


$$\text{\ \ }\left| \begin{matrix} \begin{matrix} 1 & 0,8 \\ 0,8 & 1 \\ \end{matrix} & \begin{matrix} 0,55 & 0 \\ 0 & 0 \\ \end{matrix} & \begin{matrix} \ldots & 0 \\ \ldots & 0 \\ \end{matrix} \\ \begin{matrix} 0,55 & 0 \\ 0 & 0 \\ \end{matrix} & \begin{matrix} 1 & \ldots \\ \ldots & 1 \\ \end{matrix} & \begin{matrix} \ldots & 0 \\ \ldots & 0 \\ \end{matrix} \\ \begin{matrix} \ldots & \ldots \\ 0 & 0 \\ \end{matrix} & \begin{matrix} \ldots & \ldots \\ 0 & 0 \\ \end{matrix} & \begin{matrix} \ddots & 0 \\ \ldots & 1 \\ \end{matrix} \\ \end{matrix} \right|$$

Załóżmy, że mamy N obserwacji. Korzystając w rozwinięcia Laplace’a do wyznaczania wyznaczników macierzy otrzymywalibyśmy kolejno rozwinięcia względem i tego wiersza i tej kolumny:


$$\left| \begin{matrix} \begin{matrix} 1 & 0,8 \\ 0,8 & 1 \\ \end{matrix} & \begin{matrix} 0,55 & 0 \\ 0 & 0 \\ \end{matrix} & \begin{matrix} \ldots & 0 \\ \ldots & 0 \\ \end{matrix} \\ \begin{matrix} 0,55 & 0 \\ 0 & 0 \\ \end{matrix} & \begin{matrix} 1 & \ldots \\ \ldots & 1 \\ \end{matrix} & \begin{matrix} \ldots & 0 \\ \ldots & 0 \\ \end{matrix} \\ \begin{matrix} \ldots & \ldots \\ 0 & 0 \\ \end{matrix} & \begin{matrix} \ldots & \ldots \\ 0 & 0 \\ \end{matrix} & \begin{matrix} \ddots & 0 \\ \ldots & 1 \\ \end{matrix} \\ \end{matrix} \right| = {( - 1)}^{i + i}\left| \begin{matrix} \begin{matrix} 1 & 0,8 \\ 0,8 & 1 \\ \end{matrix} & \begin{matrix} 0,55 & 0 \\ 0 & 0 \\ \end{matrix} & \begin{matrix} \ldots & 0 \\ \ldots & 0 \\ \end{matrix} \\ \begin{matrix} 0,55 & 0 \\ 0 & 0 \\ \end{matrix} & \begin{matrix} 1 & \ldots \\ \ldots & 1 \\ \end{matrix} & \begin{matrix} \ldots & 0 \\ \ldots & 0 \\ \end{matrix} \\ \begin{matrix} \ldots & \ldots \\ 0 & 0 \\ \end{matrix} & \begin{matrix} \ldots & \ldots \\ 0 & 0 \\ \end{matrix} & \begin{matrix} \ddots & 0 \\ \ldots & 1 \\ \end{matrix} \\ \end{matrix} \right| = \ldots$$

Ponieważ rozwijalibyśmy tylko za pomocą kolumny i i wiersza i wynik byłby parzysty, -1 do potęgo parzystej dawało by 1 , więc wyznacznik nie zmieniałby znaku.

Doszlibyśmy w końcu do macierzy: $\left| \begin{matrix} 1 & 0,8 & 0,55 \\ 0,8 & 1 & 0 \\ 0,55 & 0 & 1 \\ \end{matrix} \right|$

Zatem wyznacznik macierzy byłby równy:


$${( - 1)}^{1 + 3} \bullet 0,55\left| \begin{matrix} 0,8 & 1 \\ 0,55 & 0 \\ \end{matrix} \right| + {( - 1)}^{3 + 3} \bullet 1\left| \begin{matrix} 1 & 0,8 \\ 0,8 & 1 \\ \end{matrix} \right| = 0,6$$

Proces byłby stacjonarny.

Postępując analogicznie otrzymamy macierz:


$$\left| \begin{matrix} 1 & 0,8 & 0,28 \\ 0,8 & 1 & 0 \\ 0,28 & 0 & 1 \\ \end{matrix} \right| = 0,28$$

  1. Oblicz sty matę funkcji autokowariancji i funkcji autokorelacji dla dziesięciu wartości procesu chemicznego.

ESTYMACJA FUNKCJI AUTOKOWARIANCJI I AUTOKORELACJI

Mamy szereg czasowy z1, z2,  …, zN.

N- ilość obserwacji.

Z obserwacji innych badaczy wynika, że najbardziej zadawalającym estymatorem autokorelacji 𝜚k jest:


$$r_{k} = \ \frac{c_{k}}{c_{0}}$$


$$c_{k} = \frac{1}{N}\sum_{t = 1}^{N - k}\left( z_{t} - \overset{\overline{}}{z} \right)\left( z_{t + k} - \overset{\overline{}}{z} \right),\ k = 0,1,2,\ldots K$$

ck- estymator kowariancji

$\overset{\overline{}}{z}$- średnia szeregu czasowego

γk-estymator autokowariancji kowariancji

EX.

N=10

t 1 2 3 4 5 6 7 8 9 10
z(t) 47,00 64,00 23,00 71,00 38,00 64,00 55,00 41,00 59,00 48,00

Na początku należy obliczyć wartość średnią:


$$\overset{\overline{}}{z} = \frac{1}{N}\sum_{t = 1}^{N}z_{t} = 51$$

a potem odchylenia wokół wartości średniej:

t
$$z_{t} - \overset{\overline{}}{z}$$
1 -4,00
2 13,00
3 -28,00
4 20,00
5 -13,00
6 13,00
7 4,00
8 -10,00
9 8,00
10 -3,00

Następnie trzeba policzyć ck:


$$c_{0} = \frac{1}{10}\lbrack\left( - 4 \right) \bullet \left( - 4 \right) + 13 \bullet 13 + \left( - 28 \right) \bullet \left( - 28 \right) + \ldots + \ 8 \bullet 8 + \left( - 3 \right) \bullet \left( - 3 \right)\rbrack = 189,6$$


$$c_{1} = \frac{1}{10}\lbrack\left( - 4 \right) \bullet 13 + 13 \bullet \left( - 28 \right) + \left( - 28 \right) \bullet 20 + \ldots + \left( - 1 \right) \bullet 8 + 8 \bullet \left( - 3 \right)\rbrack = 149,7$$

Obliczając wszystkie ck możemy przejść do obliczenia rk. Otrzymujemy więc:


ck

rk
0 189,6 1,00
1 -149,7 -0,79
2 87,6 0,46
3 -57,1 -0,30
4 -23,4 -0,12
5 47,9 0,25
6 -43 -0,23
7 22,8 0,12
8 -7,1 -0,04
9 1,2 0,01
  1. Oblicz c0, c1, c2,  r1, r2dla szeregu podanego w ćwiczeniu 1. Wykonać wykres rk,  k = 0, 1, 2.

Z obserwacji innych badaczy wynika, że najbardziej zadawalającym estymatorem autokorelacji 𝜚k jest:


$$r_{k} = \ \frac{c_{k}}{c_{0}}$$


$$c_{k} = \frac{1}{N}\sum_{t = 1}^{N - k}\left( z_{t} - \overset{\overline{}}{z} \right)\left( z_{t + k} - \overset{\overline{}}{z} \right),\ k = 0,1,2,\ldots K$$

ck- estymator kowariancji

$\overset{\overline{}}{z}$- średnia szeregu czasowego

γk-estymator autokowariancji kowariancji

200,202,208,204,207,207,204,202,199,201,198,200,202,203,205,207,211,204,206,203,203,201,198, 200,206, 207,206,200,203,203,200,200,195,202,204.

Na początku należy obliczyć wartość średnią:


$$\overset{\overline{}}{z} = \sum_{t = 1}^{N}z_{t} = 202,89$$

a potem odchylenia wokół wartości średniej dla każdego t:


$$z_{t} - \overset{\overline{}}{z}$$

t
$$z_{t} - \overset{\overline{}}{z}$$
1 -2,89
2 -0,89
3 5,11
4 1,11
5 4,11
6 4,11
7 1,11
8 -0,89
9 -3,89
10 -1,89
11 -4,89
12 -2,89
13 -0,89
14 0,11
15 2,11
16 4,11
17 8,11
18 1,11
19 3,11
20 0,11
21 0,11
22 -1,89
23 -4,89
24 -2,89
25 3,11
26 4,11
27 3,11
28 -2,89
29 0,11
30 0,11
31 -2,89
32 -2,89
33 -7,89
34 -0,89
35 1,11

Następnie trzeba policzyć ck:


$$c_{0} = \frac{1}{10}\lbrack\left( - 2,89 \right) \bullet \left( - 2,89 \right) + \left( - 0,89 \right) \bullet \left( - 0,89 \right) + 5,11 \bullet 5,11 + \ldots + \left( - 0,89 \right) \bullet ( - 0,89) + 1,11 \bullet 1,11\rbrack = 10,96$$


$$c_{1} = \frac{1}{10}\lbrack\left( - 2,89 \right) \bullet \left( - 0,89 \right) + \left( - 0,89 \right) \bullet 5,11 + 5,11 \bullet 1,11 + \ldots + \left( - 7,89 \right) \bullet ( - 0,89) + ( - 0,89) \bullet 1,11\rbrack = 5,36$$


$$c_{2} = \frac{1}{10}\lbrack\left( - 2,89 \right) \bullet 5,11 + \left( - 0,89 \right) \bullet 1,11 + 5,11 \bullet 4,11 + \ldots + \left( - 2,89 \right) \bullet ( - 0,89) + \left( - 7,89 \right) \bullet 1,11\rbrack = 2,11$$


c0
10,96

c1
5,36

c2
2,11

Obliczając wszystkie ck możemy przejść do obliczenia rk. Otrzymujemy więc:


r0
1

r1
0,49

r2
0,19

Model autoregresji (AR) rzędu p

Niech p początkowych wag przyjmuje wartości różne od zera


$${\tilde{z}}_{t} = \varphi_{1}{\tilde{z}}_{t - 1} + \varphi_{2}{\tilde{z}}_{t - 2} + \ldots + \ \varphi_{p}{\tilde{z}}_{t - p} + a_{t}$$

gdzie: φ1, φ2, …, φp- skończony układ parametrów wagowych

Proces ten nazywamy procesem autoregresji rzędu p lub w skrócie AR(p).

Można również zapisać jako:


$${{(1 + \varphi}_{1}B + \varphi_{2}B^{2} + \ldots + \ \varphi_{p}B^{p})\tilde{z}}_{t} = a_{t}$$

lub


$${\ \varphi(B)\tilde{z}}_{t} = a_{t}$$

gdzie operator: $B^{p} = \ {\tilde{z}}_{t - p}$

Proces można traktować jako wyjście ${\ \tilde{z}}_{t}$ filtru liniowego z funkcją przenoszenia φ−1(B) , w którym wejściem jest biały szum at, dlatego:


$${\ \tilde{z}}_{t} = {\varphi^{- 1}(B)a}_{t}$$

Model średniej ruchomej (MA) rzędu q

Niech p początkowych wag przyjmuje wartości różne od zera


$${\tilde{z}}_{t} = a_{t} - \theta_{1}a_{t - 1} - \theta_{2}a_{t - 2} - \ldots + \ \theta_{q}a_{t - q}$$

gdzie: θ1, θ2, …, θ- skończony układ parametrów wagowych

Proces ten nazywamy procesem średniej ruchomej rzędu q lub w skrócie MA(q).

Można również zapisać jako:


$${\tilde{z}}_{t} = {{(1 - \theta}_{1}B - \theta_{2}B^{2} + \ldots + \ \theta_{q}B^{q})a}_{t}$$

lub


$${\ \tilde{z}}_{t} = {\theta(B)a}_{t}$$

gdzie operator: $B^{p} = \ {\tilde{z}}_{t - p}$

Warunki odwracalności:


$${{a_{t} = \varphi}^{- 1}(B)\ \tilde{z}}_{t}$$

Mieszany model autoregresji i średniej ruchomej (ARMA) rzędu p i q

Niech p początkowych wag przyjmuje wartości różne od zera


$${\tilde{z}}_{t} = {\varphi_{1}{\tilde{z}}_{t - 1} + \varphi_{2}{\tilde{z}}_{t - 2} + \ldots + \ \varphi_{p}{\tilde{z}}_{t - p} + a}_{t} - \theta_{1}a_{t - 1} - \theta_{2}a_{t - 2} - \ldots + \ \theta_{q}a_{t - q}$$

gdzie: θ1, θ2, …, θ- skończony układ parametrów wagowych

Proces ten nazywamy procesem średniej ruchomej rzędu q lub w skrócie ARMA(p,q).

Można również zapisać jako:


$${(1 + \varphi}_{1}B + \varphi_{2}B^{2} + \ldots + \ \varphi_{p}B^{p}){\tilde{z}}_{t} = {{(1 - \theta}_{1}B - \theta_{2}B^{2} + \ldots + \ \theta_{q}B^{q})a}_{t}$$

lub


$${\varphi(B)\ \tilde{z}}_{t} = {\theta(B)a}_{t}$$

gdzie operator: $B^{p} = \ {\tilde{z}}_{t - p}$


Oznaczenia – symbole i definicje.

Dla liniowego równania różnicowe postaci:


yt + a1yt − 1 + a2yt − 2 + … + anayt − na=


 b0ut + b1ut − 1 + … + bnbut − nb + v(t)

przy czym at − 1, …, at − nasą nieznanymi wartościami parametrów obiektu, wielkości yt − 1, …, yt − na znanymi wielkościami wyjścia, ut, ut − 1, …, ut − nb znanymi wielkościami wejścia, natomiast v(tto zakłócenia.

Model ten nazywany jest modelem autoregresji i średniej ruchomej w skrócie ARMA.

Model ten da się zapisać za pomocą jednego wzoru:


yt = φTθ + v

gdzie przez φ oznaczamy wektor regresji, a przez θ wektor współczynników modelu.

W przypadku wyżej wymienionego modelu przez te oznaczenia rozumiemy:


φ = [ − yt − 1, …, −yt − na, ut, ut − 1, …, ut − nb]T


θ =  [ a1,a2,…,ana,b0,b1,…bnb]T

Przyjmując, że zakłócenia v(t)  = [ε1, ε2, …, εn]T są zmiennymi losowymi o wartości oczekiwanej: E(v) = 0

I macierz kowariancji: cov(v) = Iσ2

Metoda najmniejszych kwadratów (Least Squares - LS)

Współczynniki równania można znaleźć za pomocą wzoru:


θ = (YTY)−1YTy

gdzie Y oznacza macierz o wymiarze NxN gdzie N = na + nb + 1 postaci:


$$Y = \begin{bmatrix} \begin{matrix} \begin{matrix} \begin{matrix} {- y}_{t - 1} & \ldots \\ \end{matrix} & \begin{matrix} {- y}_{t - n_{a}} & u_{t} \\ \end{matrix} \\ \end{matrix} \\ \begin{matrix} \begin{matrix} {- y}_{t} & \ldots \\ \end{matrix} & \begin{matrix} {- y}_{t - n_{a} + 1} & u_{t + 1} \\ \end{matrix} \\ \end{matrix} \\ \end{matrix} & \begin{matrix} \ldots \\ \ldots \\ \end{matrix} & \begin{matrix} u_{t - n_{b}} \\ u_{t - n_{b} + 1} \\ \end{matrix} \\ \begin{matrix} \begin{matrix} \begin{matrix} {- y}_{t + 1} & \ldots \\ \end{matrix} & \begin{matrix} {- y}_{t - n_{a} + 2} & u_{t + 2} \\ \end{matrix} \\ \end{matrix} \\ \begin{matrix} \begin{matrix} \ldots & \ldots \\ \end{matrix} & \begin{matrix} \ldots & \ldots \\ \end{matrix} \\ \end{matrix} \\ \end{matrix} & \begin{matrix} \ldots \\ \ldots \\ \end{matrix} & \begin{matrix} u_{t - n_{b} + 2} \\ \ldots \\ \end{matrix} \\ \begin{matrix} \begin{matrix} {- y}_{t + N - 1} & \ldots \\ \end{matrix} & \begin{matrix} {- y}_{t - n_{a} + N - 1} & u_{t + 2} \\ \end{matrix} \\ \end{matrix} & \ldots & u_{t - n_{b} + 2 + N - 1} \\ \end{bmatrix}$$


y = [yt,yt + 1,…,yt + N]

Rozszerzona metoda najmniejszych kwadratów (Extended Least Squares - ELS)

Metoda ELS jest rozszerzeniem metody LS na układy, w których zakłócenia są ze sobą skorelowane. Model ten da się zapisać za pomocą wzoru:


yt = φTθ

gdzie przez φ oznaczamy wektor regresji, a przez θ wektor współczynników modelu.

W przypadku wyżej wymienionego modelu przez te oznaczenia rozumiemy:


φ = [−yt − 1,…,−yt − na,ut,ut − 1,…,ut − nb,et,et − 1,…,et − nc]T


θ =  [ a1,a2,…,ana,b0,b1,…bnb,c0,c1,…cnc]T

Współczynniki równania można znaleźć za pomocą wzoru:


θ = (YTY)−1YTy

gdzie Y oznacza macierz o wymiarze NxN gdzie N = na + nb + nc + 2 postaci:


$$Y = \begin{bmatrix} \begin{matrix} \begin{matrix} \begin{matrix} {- y}_{t - 1} & \ldots \\ \end{matrix} & \begin{matrix} {- y}_{t - n_{a}} & u_{t} \\ \end{matrix} \\ \end{matrix} \\ \begin{matrix} \begin{matrix} {- y}_{t} & \ldots \\ \end{matrix} & \begin{matrix} {- y}_{t - n_{a} + 1} & u_{t + 1} \\ \end{matrix} \\ \end{matrix} \\ \end{matrix} & \begin{matrix} \ldots \\ \ldots \\ \end{matrix} & \begin{matrix} \begin{matrix} u_{t - n_{b}} & \begin{matrix} e_{t} & \begin{matrix} \ldots & e_{t - n_{c}} \\ \end{matrix} \\ \end{matrix} \\ \end{matrix} \\ \begin{matrix} u_{t - n_{b} + 1} & \begin{matrix} e_{t + 1} & \begin{matrix} \ldots & e_{t - n_{c + 1}} \\ \end{matrix} \\ \end{matrix} \\ \end{matrix} \\ \end{matrix} \\ \begin{matrix} \begin{matrix} \begin{matrix} {- y}_{t + 1} & \ldots \\ \end{matrix} & \begin{matrix} {- y}_{t - n_{a} + 2} & u_{t + 2} \\ \end{matrix} \\ \end{matrix} \\ \begin{matrix} \begin{matrix} \ldots & \ldots \\ \end{matrix} & \begin{matrix} \ldots & \ldots \\ \end{matrix} \\ \end{matrix} \\ \end{matrix} & \begin{matrix} \ldots \\ \ldots \\ \end{matrix} & \begin{matrix} \begin{matrix} u_{t - n_{b} + 2} & \begin{matrix} e_{t + 2} & \begin{matrix} \ldots & e_{t - n_{c + 2}} \\ \end{matrix} \\ \end{matrix} \\ \end{matrix} \\ \begin{matrix} \ldots & \begin{matrix} \ldots & \begin{matrix} \ldots & \ldots \\ \end{matrix} \\ \end{matrix} \\ \end{matrix} \\ \end{matrix} \\ \begin{matrix} \begin{matrix} {- y}_{t + N - 1} & \ldots \\ \end{matrix} & \begin{matrix} {- y}_{t - n_{a} + N - 1} & u_{t + 2} \\ \end{matrix} \\ \end{matrix} & \ldots & \begin{matrix} u_{t - n_{b} + N - 1} & \begin{matrix} e_{t + N - 1} & \begin{matrix} & e_{t - n_{c} + N - 1} \\ \end{matrix} \\ \end{matrix} \\ \end{matrix} \\ \end{bmatrix}$$


y = [yt,yt + 1,…,yt + N]


Wyszukiwarka

Podobne podstrony:
11 Analiza Szeregów Czasowych z rozwiązaniami
11 Analiza Szeregów Czasowych
~$ Analiza Szeregów Czasowych z rozwiązaniami doc
Analiza szeregów czasowych wzory
Analiza szeregów czasowych
analiza szeregow czasowych z9 i Nieznany (2)
analiza szeregu czasowy, Płyta farmacja Bydgoszcz, statystyka, pozostałe
Skladnikowa analiza szeregow czasowych, materiały z roku 2011-2012, Semestr II, Statystyka opisowa -
Analiza szeregow czasowych w c., Studia, STUDIA PRACE ŚCIĄGI SKRYPTY
Analiza Szeregów Czasowych
ANALIZA SZEREGÓW CZASOWYCH
analiza szeregów czasowych zadania, I rok, Statystyka opisowa
Analiza szeregów czasowych
analiza szeregów czasowych (7 str), Analiza i inne
ANALIZA SZEREGÓW CZASOWYCH

więcej podobnych podstron