Latała R Wstęp do Analizy Stochastycznej

background image

Wstęp do Analizy Stochastycznej

Rafał Latała

6 września 2010

Poniższy tekst zawiera notatki do wykładów ze Wstępu do Analizy Sto-

chastycznej, prowadzonego w semestrze wiosennym 2010 roku. Gwiazdkami
oznaczono paragrafy dla których zabrakło czasu w trakcie wykładów (być
może niektóre z nich były omówione podczas ćwiczeń) i których znajomość
nie będzie wymagana podczas egzaminu, choć mile widziana.

U Czytelnika zakłada się znajomość podstawowych faktów z zakresu kur-

sowego wykładu z rachunku prawdopodobieństwa. Wszystkie potrzebne wia-
domości można znaleźć w podręcznikach [1] i [3].

Autor przeprasza za wszystkie nieścisłości i omyłki mogące się pojawić w

tekście i jednocześnie zwraca się z prośbą do Czytelników, którzy zauważyli
błędy lub mają jakieś inne uwagi na temat notatek o ich zakomunikowanie
osobiste lub wysłanie na adres emailowy rlatala@mimuw.edu.pl z poda-
niem wersji notatek (daty), której dotyczą.

Dziękuje panom Krzesimirowi Arodziowi, Tomaszowi Badowskiemu, Ma-

rianowi Kędzierskiemu i Radomirowi Mastelorzowi za zauważenie literówek
w notatkach.

1

background image

1

Podstawowe Definicje. Proces Wienera.

Zaczniemy od podania ważnych definicji używanych podczas całego wykła-
du.

Definicja 1. Niech (Ω, F , P) będzie przestrzenią probabilistyczną, (E, E)
przestrzenią mierzalną, zaś T dowolnym zbiorem. Procesem stochastycznym
o wartościach w E, określonym na zbiorze T , nazywamy rodzinę zmiennych
losowych X
= (X

t

)

t∈T

, przyjmujących wartości w zbiorze E.

Uwaga 2. W zasadzie w czasie całego wykładu T będzie podzbiorem R
(najczęściej przedziałem, niekoniecznie ograniczonym), zaś E = R lub R

d

.

Parametr t można wówczas interpretować jako czas.

Definicja 3.

Trajektorią procesu X nazywamy funkcję (losową!) t →

X

t

(ω), określoną na zbiorze T o wartościach w E.

Definicja 4. Powiemy, że proces X = (X

t

)

t∈T

, T ⊂ R ma przyrosty

niezależne jeśli dla dowolnych indeksów t

0

¬ t

1

¬ . . . ¬ t

n

ze zbioru T ,

zmienne losowe X

t

0

, X

t

1

− X

t

0

, X

t

2

− X

t

1

, . . . , X

t

n

− X

t

n−1

są niezależne.

Definicja 5. Mówimy, że proces stochastyczny (X

t

)

0

ma przyrosty sta-

cjonarne, jeśli rozkład X

t

− X

s

zależy tylko od t − s, czyli

t>s­0

X

t

− X

s

∼ X

t−s

− X

0

.

1.1

Proces Wienera (Ruch Browna)

Definicja 6. Procesem Wienera (Ruchem Browna) nazywamy proces sto-
chastyczny W
= (W

t

)

0

taki, że

W

0

= 0 p.n.;

(W0)

W ma przyrosty niezależne;

(W1)

Dla 0 ¬ s < t zmienna W

t

− W

s

ma rozkład normalny N (0, t − s); (W2)

Trajektorie W są ciągłe z prawdopodobieństwem 1.

(W3)

Uwaga 7. Warunek (W3) oznacza, że istnieje zbiór A taki, że P(A) = 1
oraz dla wszystkich ω ∈ A, t → W

t

(ω) jest funkcją ciągłą na [0, ∞). Czasami

w definicji procesu Wienera zakłada się, że wszystkie trajektorie są ciągłe
oraz W

0

0.

2

background image

1.2

*Konstrukcja Procesu Wienera*

Podczas następnych wykładów podamy dość abstrakcyjną konstrukcję pro-
cesu Wienera opartą o ogólniejsze twierdzenia dotyczące istnienia i ciągłości
trajektorii procesów stochastycznych. W tym paragrafie jedynie naszkicuje-
my alternatywną, bardziej bezpośrednią konstrukcję.

Najpierw zdefiniujemy pewne dwa ważne układy funkcji.

Definicja 8. Niech I(0) = {1}, I(n) = {1, . . . , 2

n−1

}, n = 1, 2, . . .. Układem

Haara nazywamy rodzinę funkcji (h

n,k

)

k∈I(n),n=0,1,...

określonych na [0, 1]

wzorami h

0,1

(t) 1 oraz dla k ∈ I(n), n ­ 1,

h

n,k

(t) =

2

n−1

2

dla (2k − 2)2

−n

¬ t < (2k − 1)2

−n

2

n−1

2

dla (2k − 1)2

−n

¬ t < 2k · 2

−n

0

w pozostałych przypadkach.

Definicja 9. Przy oznaczeniach poprzedniej definicji układem Schaudera
nazywamy rodzinę funkcji (S

n,k

)

n=0,1,...,k∈I(n)

określonych na [0, 1] wzorem

S

n,k

(t) =

R

t

0

h

n,k

(s)ds.

Fakt 10. a) Układ Haara jest bazą ortonormalną przestrzeni L

2

[0, 1].

b) Dla ustalonego n ­ 1, funkcje (S

n,k

)

k∈I(n)

mają nośniki o rozłącznych

wnętrzach oraz kS

n,k

k

= 2

(n+1)/2

.

Uwaga 11. Układ Haara jest bazą Schaudera w przestrzeniach L

p

[0, 1],

1 ¬ p < ∞. Po dodaniu funkcji stale równej 1, układ Schaudera staje się
bazą Schaudera przestrzeni C[0, 1].

Fakt 12. Dla dowolnych t, s ∈ [0, 1] mamy

X

n=0

X

k∈I(n)

S

n,k

(t)S

n,k

(s) = min{t, s}.

Niech (g

n,k

)

k∈I(n),n=0,1,...

będzie rodziną niezależnych zmiennych loso-

wych o rozkładzie N (0, 1) i

W

(n)

t

(ω) =

n

X

m=0

X

k∈I(m)

g

m,k

(ω)S

m,k

(t).

Twierdzenie 13. Dla prawie wszystkich ω ∈ ciąg funkcji (W

(n)

t

(ω)) zbie-

ga jednostajnie na [0, 1] do pewnej funkcji ciągłej W

t

(ω). Jeśli określimy np.

W

t

(ω) = 0 dla pozostałych ω, to tak zdefiniowany proces stochastyczny jest

procesem Wienera na [0, 1].

3

background image

Uwaga 14. Mając dany proces Wienera (W

t

)

t∈[0,1]

nietrudno skonstruować

proces Wienera na całej prostej. Można np. sprawdzić, że ((1 + t)W

1

1+t

W

1

)

0

jest takim procesem.

1.3

Charakteryzacje procesu Wienera

Najpierw podamy twierdzenie, które znacznie ułatwia sprawdzanie, że dany
proces jest procesem Wienera. Musimy wpierw podać ważną definicję.

Definicja 15. Proces X = (X

t

)

t∈T

nazywamy gaussowskim, jeśli wszystkie

skończenie wymiarowe rozkłady X są gaussowskie, tzn. wektor (X

t

1

, . . . , X

t

n

)

ma rozkład gaussowski dla dowolnych t

1

, . . . , t

n

∈ T .

Przykłady

1. X

t

= f (t)g, gdzie f : T → R dowolne oraz g ∼ N (0, 1).

2. Proces Wienera (W

t

)

0

.

3. Most Browna X

t

= W

t

− tW

1

, 0 ¬ t ¬ 1.

Twierdzenie 16. Proces (X

t

)

0

jest procesem Wienera wtedy i tylko wte-

dy, gdy jest procesem gaussowskim, o ciągłych trajektoriach p.n. takim, że

EX

t

= 0 oraz Cov(X

t

, X

s

) = min{t, s}.

Dowód. ⇒: Mamy EX

t

= E(X

t

− X

0

) = 0 oraz Var(X

t

) = Var(X

t

− X

0

) =

t na mocy (W0) i (W2). Ponadto z niezależności przyrostów, dla t > s,
Cov(X

t

, X

s

) = Cov(X

t

− X

s

, X

s

) + Var(X

s

) = 0 + s = min{t, s}.

: Zauważmy, że Var(X

0

) = 0 = EX

0

, więc spełniony jest warunek

(W0). Dla t > s, zmienna W

t

− W

s

ma rozkład normalny ze średnią 0 i

wariancją Var(X

t

− X

s

) = Var(X

t

) + Var(X

s

) 2Cov(X

t

, X

s

) = t − s, więc

zachodzi (W2). By sprawdzić niezależność przyrostów ustalmy 0 ¬ t

0

¬ t

1

¬

. . . ¬ t

n

. Zauważmy, że wektor (X

t

0

, X

t

1

− X

t

0

, X

t

2

− X

t

1

, . . . , X

t

n

− X

t

n−1

)

ma rozkład gaussowski, więc jego współrzędne są niezależne wtedy i tylko
wtedy, gdy są nieskorelowane. Mamy jednak dla s

1

¬ s

2

¬ s

3

¬ s

4

,

Cov(X

s

1

, X

s

3

− X

s

2

) = Cov(X

s

1

, X

s

3

) Cov(X

s

1

, X

s

2

) = s

1

− s

1

= 0

oraz

Cov(X

s

2

−X

s

1

, X

s

4

−X

s

3

) = Cov(X

s

2

, X

s

4

−X

s

3

)Cov(X

s

1

, X

s

4

−X

s

3

) = 0.

4

background image

Kolejne twierdzenie pokazuje, że (z dokładnością do drobnych technicz-

nych założeń oraz normalizacji) proces Wienera jest jedynym procesem o
ciągłych trajektoriach oraz niezależnych i stacjonarnych przyrostach.

Twierdzenie 17. Załóżmy, że proces (X

t

)

0

spełnia warunki (W0), (W1),

(W3) (z W zastąpionym przez X) oraz

X ma przyrosty stacjonarne;

(W2a)

EX

1

= 0, Var(X

1

) = 1;

(W2b)

EX

4

t

< ∞ dla wszystkich t > 0.

(W2c)

Wówczas X

t

jest procesem Wienera.

Dowód. Określmy dla t ­ 0, a(t) = EX

t

oraz b(t) = Var(X

t

). Zauważmy, że

na mocy niezależności i stacjonarności przyrostów,

b(t + s) = Var(X

t+s

− X

t

+ X

t

) = Var(X

t+s

− X

t

) + Var(X

t

)

= Var(X

s

) + Var(X

t

) = b(t) + b(s).

Ponadto oczywiście b(t) ­ 0, zatem funkcja b(t) jest addytywna i niema-
lejąca na [0, ∞), więc b(t) = ct dla pewnego c ­ 0, co wobec (W2b) daje
Var(X

t

) = b(t) = t. Analogicznie sprawdzamy, że a(t + s) = a(t) + a(s),

wiemy też, że a(0) = 0, stąd dowodzimy, że EX

t

= a(t) = 0 dla t wy-

miernych. Weźmy t > 0 i wybierzmy dążący do t ciąg liczb wymiernych
(t

n

). Na mocy (W2c), EX

2

t

< ∞, wiemy też, że EX

2

t

n

= Var(X

t

n

) = t

n

,

zatem (E|X

t

n

− X

t

|

2

)

1/2

¬ M dla pewnej stałej M . Z ciągłości trajekto-

rii X

t

n

→ X

t

prawie na pewno, czyli również według prawdopodobieństwa.

Zatem dla ε > 0,

|EX

t

| = |EX

t

EX

t

n

| ¬ E|X

t

− X

t

n

| ¬ ε + E|X

t

− X

t

n

|

1

{|X

t

−X

tn

|­ε}

¬ ε + (E|X

t

− X

t

n

|

2

)

1/2

P(|X

t

− X

t

n

| ­ ε)

1/2

¬ ε + M P(|X

t

− X

t

n

| ­ ε)

1/2

¬ 2ε

dla dostatecznie dużych n. Stąd EX

t

= 0. Wykazaliśmy zatem, że X

t

ma

średnią zero i wariancję t.

Ustalmy t > s ­ 0, chcemy pokazać, że X

t

− X

s

ma rozkład normalny

N (0, t − s). Zauważmy, że

X

t

− X

s

=

n

X

k=1

Y

n,k

, gdzie

Y

n,k

= X

s+k(t−s)/n

− X

s+(k−1)(t−s)/n

.

5

background image

Zmienne (Y

n,k

)

1¬k¬n

tworzą układ trójkątny, możemy więc skorzystać z

Centralnego Twierdzenia Granicznego i wykazać, że

P

n
k
=1

Y

n,k

zbiega do

N (0, t − s) według rozkładu. Mamy

n

X

k=1

EY

n,k

= 0,

n

X

k=1

Var(Y

n,k

) = t − s,

wystarczy więc sprawdzić warunek Lindeberga. Dla ε > 0,

L

n

(ε) =

n

X

k=1

E|Y

n,k

|

2

1

{|Y

n,k

|­ε}

¬ E

h

n

X

k=1

|Y

n,k

|

2

1

{max

k¬n

|Y

n,k

|­ε}

i

¬

E

n

X

k=1

|Y

n,k

|

2

2

1/2

P

max

k¬n

|Y

n,k

| ­ ε

1/2

.

Zauważmy, że zmienne (Y

n,k

) dla ustalonego n są niezależne i mają średnią

zero, zatem

E(X

t

− X

s

)

4

= E

n

X

k=1

Y

n,k

4

=

X

1¬k

1

,k

2

,k

3

,k

4

¬n

EY

n,k

1

Y

n,k

2

Y

n,k

3

Y

n,k

4

=

n

X

k=1

EY

4

n,k

+ 6

X

1¬k<l¬n

EY

2

n,k

EY

2

n,l

­

n

X

k=1

EY

4

n,k

+ 2

X

1¬k<l¬n

EY

2

n,k

EY

2

n,l

= E

n

X

k=1

|Y

n,k

|

2

2

.

Z ciągłości trajektorii X wynika, że P(max

k¬n

|Y

n,k

| ­ ε) 0 przy n → ∞,

zatem lim

n→∞

L

n

(ε) = 0.

Uwaga 18.

Warunek (W2c) nie jest konieczny - zob. Twierdzenie 5 z

paragrafu 13.1 książki [3].

Okazuje się, że również nie trzeba zakładać skończoności wariancji ani

nawet istnienia wartości średniej W

1

- warunek (W2b) ma charakter czysto

normalizacyjny. Dokładniej zachodzi następujące twierdzenie.

Twierdzenie 19. Załóżmy, że proces stochastyczny X = (X

t

)

0

spełnia

warunki (W0),(W1),(W2a) i (W3). Wówczas istnieją stałe a, b ∈ R i proces
Wienera W takie, że X

t

= aW

t

+ bt dla wszystkich t ­ 0.

6

background image

1.4

Nieróżniczkowalność trajektorii

Trajektorie procesu Wienera mają wiele ciekawych własności, część z nich
poznamy później. W tym paragrafie pokażemy, że mimo iż są ciągłe, to z
prawdopodobieństwem 1 nie są różniczkowalne w żadnym punkcie.

Twierdzenie 20. Prawie wszystkie trajektorie procesu Wienera (W

t

)

0

funkcjami nieróżniczkowalnymi w żadnym punkcie, tzn.

P

t

0

­0

t → W

t

(ω) jest różniczkowalne w t

0

= 0.

Dowód. Najpierw pokażemy nieróżniczkowalność trajektorii na [0, 1), tzn.

P

t

0

[0,1)

t → W

t

(ω) jest różniczkowalne w t

0

= 0.

Zauważmy, że jeśli funkcja f : [0, 1] R jest różniczkowalna w t

0

[0, 1)

oraz |f

0

(t

0

)| < M , to |f (t) − f (t

0

)| ¬ M |t − t

0

| dla t dostatecznie bliskich

t

0

. Zatem, jeśli j/n ¬ t

0

< (j + 1)/n, to dla dostatecznie dużych n,



f

j + 1

n

− f

j

n


¬



f

j + 1

n

− f (t

0

)



+



f (t

0

) − f

j

n


¬ M

1

n

+

1

n

,



f

j + 2

n

−f

j + 1

n


¬



f

j + 2

n

−f (t

0

)



+



f (t

0

)−f

j + 1

n


¬ M

2

n

+

1

n

oraz



f

j + 3

n

−f

j + 2

n


¬



f

j + 3

n

−f (t

0

)



+



f (t

0

)−f

j + 2

n


¬ M

3

n

+

2

n

.

Stąd, jeśli funkcja f jest różniczkowalna w jakimś punkcie przedziału [0, 1),
to

M <∞

m<∞

n­m

0¬j¬n−3

k=0,1,2



f

j + k + 1

n

− f

j + k

n


¬

5M

n

.

Czyli

P

t

0

[0,1)

t →W

t

(ω) jest różniczkowalne w t

0

¬ P

[

M =1

[

m=1

\

n=m

n−3

[

j=0

2

\

k=0

n


W

j+k+1

n

− W

j+k

n


¬

5M

n

o

¬

X

M =1

X

m=1

P

\

n=m

n−3

[

j=0

2

\

k=0

n


W

j+k+1

n

− W

j+k

n


¬

5M

n

o

.

7

background image

Z niezależności przyrostów dostajemy

P

2

\

k=0

n


W

j+k+1

n

− W

j+k

n


¬

5M

n

o

=

2

Y

k=0

P


W

j+k+1

n

− W

j+k

n


¬

5M

n

=

P


W

1

n


¬

5M

n

3

=

P

1

n

|W

1

| ¬

5M

n

3

=

1

2π

Z

5M/

n

5M/

n

e

−x

2

/2

dx

3

¬

1

2π

10M

n

3

.

Zatem

P

n−3

[

j=0

2

\

k=0

n


W

j+k+1

n

− W

j+k

n


¬

5M

n

o

¬

n−3

X

j=0

1000M

3

n

3/2

¬

1000M

3

n

,

czyli

P

\

n=m

n−3

[

j=0

2

\

k=0

n


W

j+k+1

n

− W

j+k

n


¬

5M

n

o

= 0

i

P

t

0

[0,1)

t → W

t

(ω) jest różniczkowalne w t

0

= 0.

Nieznacznie modyfikując poprzedni dowód (albo używając faktu, że

f

W

t

=

T

1/2

W

tT

też jest procesem Wienera oraz w oczywisty sposób nieróżnicz-

kowalność W na [0, 1) jest równoważna nieróżniczkowalności

f

W na [0, T ))

dostajemy, że dla T < ∞,

P

t

0

[0,T )

t → W

t

(ω) jest różniczkowalne w t

0

= 0.

By zakończyć dowód wystarczy zauważyć, że

P

t

0

>0

t → W

t

(ω) jest różniczkowalne w t

0

= lim

N →∞

P

t

0

[0,N )

t → W

t

(ω) jest różniczkowalne w t

0

= 0.

Uwaga 21. Dokładna analiza przedstawionego dowodu pokazuje, że nie wy-
kazaliśmy mierzalności zdarzenia {∃

t

0

t → W

t

(ω) jest różniczkowalne w t

0

},

a jedynie to, że jest ono podzbiorem pewnego zdarzenia miary zero. By
uniknąć kłopotów technicznych podobnego rodzaju, wygodnie jest przyjąć,
że przestrzeń probabilistyczna (Ω, F , P) jest zupełna, tzn. dowolny podzbiór
zbioru miary zero jest mierzalny (każdą przestrzeń probabilistyczną można
rozszerzyć do przestrzeni zupełnej).

8

background image

2

Rozkłady Procesów Stochastycznych

Podczas tego wykładu zdefiniujemy rozkład procesu stochastycznego, w
szczególności powiemy jakie zdarzenia określone przez proces są mierzalne.
Udowodnimy, że rozkład procesu jest wyznaczony przez rozkłady skończenie
wymiarowe. Sformułujemy też warunki, które muszą być spełnione, by ist-
niał proces stochastyczny o zadanych rozkładach skończenie wymiarowych.

Przypomnijmy, że jeśli X jest zmienną losową o wartościach w przestrze-

ni (E, E ), to

rozkładem X jest miara probabilistyczna na (E, E ) zadana

wzorem

µ

X

(A) = P(X ∈ A), A ∈ E.

2.1

σ-ciało zbiorów cylindrycznych

Proces X = (X

t

)

t∈T

możemy traktować jako zmienną losową o wartościach

w R

T

. Jakie podzbiory R

T

są wówczas na pewno mierzalne?

Definicja 1. Zbiory postaci

x ∈ R

T

: (x

t

1

, . . . , x

t

n

) ∈ A

, t

1

, . . . , t

n

∈ T, A ∈ B(R

n

)

nazywamy zbiorami cylindrycznymi. Przez B(R

T

) będziemy oznaczać naj-

mniejsze σ-ciało zawierające zbiory cylindryczne i będziemy je nazywać σ-
ciałem zbiorów cylindrycznych.

Uwaga 2. Zauważmy, że

B(R

T

) = σ({x ∈ R

T

: x

t

∈ A}, t ∈ T, A ∈ B(R)).

Przykłady

1. Zbiory {x : x

t

> x

s

}, {x : x

t

1

> 0, x

t

2

− x

t

1

> 0, . . . , x

t

n

− x

t

n−1

> 0}

oraz {x :

t<s,t,s∈Q

+

x

t

> x

s

} należą do B(R

[0,∞)

).

2. Zbiór {x : sup

t∈T

|x

t

| ¬ 1} nie należy do B(R

T

), gdy T jest nieprzeli-

czalny, podobnie {x : t → x

t

ciągłe} nie należy do B(R

T

), gdy T jest

niezdegenerowanym przedziałem.

Definicja 3. Rozkładem procesu X = (X

t

)

t∈T

nazywamy miarę probabili-

styczną µ

X

na B(R

T

) daną wzorem

µ

X

(C) = P((X

t

)

t∈T

∈ C), C ∈ B(R

T

).

9

background image

Uwaga 4. Załóżmy, że T jest przedziałem (skończonym lub nie). Na prze-
strzeni funkcji ciagłych C(T ) rozważmy topologię zbieżności niemal jedno-
stajnej. Wówczas B(R

T

) ∩ C(T ) = B(C(T )), co oznacza, że jeśli proces

X = (X

t

)

t∈T

ma ciągłe trajektorie, to X wyznacza rozkład probabilistycz-

ny na przestrzeni funkcji ciągłych (C(T ), B(C(T ))). W szczególności proces
Wienera wyznacza pewien rozkład probabilistyczny na C[0, ∞).

2.2

Warunki zgodności. Twierdzenie Kołmogorowa o istnie-
niu procesu

Najprostsze zbiory z B(R

T

), to zbiory cylindryczne. Miary takich zbiorów

to rozkłady skończenie wymiarowe procesu.

Definicja 5. Dla procesu (X

t

)

t∈T

o wartościach w R i t

1

, . . . , t

n

∈ T okre-

ślamy miarę µ

t

1

,...,t

n

na R

n

wzorem

µ

t

1

,...,t

n

(A) = P((X

t

1

, . . . , X

t

n

) ∈ A), A ∈ B(R

n

).

Rodzinę miar {µ

t

1

,...,t

n

: t

1

, . . . , t

n

∈ T parami różne} nazywamy rodziną skoń-

czenie wymiarowych rozkładów procesu X.

Fakt 6. Załóżmy, że X = (X

t

)

t∈T

i Y = (Y

t

)

t∈T

są procesami o tych samych

skończenie wymiarowych rozkładach, czyli

P((X

t

1

, . . . , X

t

n

) ∈ A) = P((Y

t

1

, . . . , Y

t

n

) ∈ A)

dla wszystkich t

1

, . . . , t

n

∈ T, A ∈ B(R

n

). Wówczas X i Y mają ten sam

rozkład, tzn.

P(X ∈ C) = P(Y ∈ C) dla wszystkich C ∈ B(R

T

).

Dowód. Rodzina zbiorów cylindrycznych A tworzy π-układ, a rodzina C
zbiorów C takich, że P(X ∈ C) = P(Y ∈ C), jest λ-układem zawierają-
cym A. Zatem z twierdzenia o π- i λ- układach, C zawiera również σ-ciało
generowane przez A, czyli B(R

T

).

Definicja 7. Powiemy, że rodzina skończenie wymiarowych rozkładów

t

1

,...,t

n

: t

1

, . . . , t

n

∈ T parami różne}

spełnia warunki zgodności, jeśli zachodzą następujące warunki:

10

background image

i) Dla dowolnych t

1

, t

2

, . . . , t

n

∈ T , dowolnej permutacji (i

1

, . . . , i

n

) liczb

(1, . . . , n) oraz zbiorów A

1

, A

2

, . . . , A

n

∈ B(R),

µ

t

i1

,...,t

in

(A

i

1

× A

i

2

× . . . × A

i

n

) = µ

t

1

,...,t

n

(A

1

× A

2

× . . . × A

n

).

ii) Dla dowolnych t

1

, t

2

, . . . , t

n+1

∈ T oraz A

1

, A

2

, . . . , A

n

∈ B(R),

µ

t

1

,...,t

n

,t

n+1

(A

1

× A

2

× . . . × A

n

× R) = µ

t

1

,...,t

n

(A

1

× A

2

× . . . × A

n

).

Oczywiście rodzina rozkładów skończenie wymiarowych dowolnego pro-

cesu stochastycznego spełnia warunki zgodności. Okazuje się, że są to jedyne
warunki jakie należy nałożyć na taką rodzinę.

Twierdzenie 8. Załóżmy, że dana jest rodzina skończenie wymiarowych
rozkładów
(µ

t

1

,...,t

n

) spełniająca warunki zgodności. Wówczas istnieje proces

(X

t

)

t∈T

mający skończenie wymiarowe rozkłady równe (µ

t

1

,...,t

n

).

Nie będziemy przedstawiać technicznego dowodu powyższego twierdze-

nia - wszystkich zainteresowanych odsyłamy do Dodatku B. W zamian sfor-
mułujemy użyteczny wniosek.

Wniosek 9. Załóżmy, że T ⊂ R oraz dana jest rodzina rozkładów skończe-
nie wymiarowych {µ

t

1

,...,t

n

: t

1

< t

2

< . . . < t

n

, t

1

, . . . , t

n

∈ T } spełniająca

warunek

µ

t

1

,...,t

n

(A

1

× . . . × A

k−1

× R × A

k+1

. . . × A

n

)

= µ

t

1

,...t

k−1

,t

k+1

,...,t

n

(A

1

× . . . × A

k−1

× A

k+1

× . . . × A

n

).

dla wszystkich t

1

< t

2

< . . . < t

n

, n ­ 2, 1 ¬ k ¬ n oraz zbiorów borelow-

skich A

1

, . . . , A

n

. Wówczas istnieje proces (X

t

)

t∈T

taki, że (X

t

1

, . . . , X

t

n

)

ma rozkład µ

t

1

,...,t

n

dla t

1

< t

2

< . . . < t

n

.

Dowód. Dla t

1

, . . . , t

n

∈ T parami różnych istnieje permutacja (i

1

, . . . , i

n

)

liczb (1, . . . , n) taka, że t

i

1

< t

i

2

< . . . < t

i

n

. Możemy więc określić µ

t

1

,...,t

n

ja-

ko rozkład wektora (Y

1

, . . . , Y

n

) takiego, że (Y

i

1

, . . . , Y

i

n

) ma rozkład µ

t

i1

,...,t

in

.

Można sprawdzić, że tak określona rodzina miar (µ

t

1

,...,t

n

) spełnia warunki

zgodności.

Przykłady

1. Jeśli (µ

t

)

t∈T

jest dowolną rodziną rozkładów na R, to istnieje rodzina

niezależnych zmiennych losowych (X

t

)

t∈T

taka, że X

t

ma rozkład µ

t

.

Używamy tu twierdzenia o istnieniu dla µ

t

1

,...,t

n

= µ

t

1

⊗ . . . ⊗ µ

t

n

.

11

background image

2. Istnieje proces spełniający warunki (W0)-(W2) definicji procesu Wie-

nera. Istotnie dla 0 = t

0

¬ t

1

< t

2

< . . . < t

n

kładziemy

µ

t

1

,...,t

n

X

1

, X

1

+ X

2

, . . . ,

n

X

k=1

X

k

,

gdzie X

1

, . . . , X

n

są niezależnymi zmiennymi losowymi X

k

∼ N (0, t

k

t

k−1

). Warunki zgodności wynikają wówczas stąd, iż jeśli Y

1

, Y

2

niezależne i Y

i

∼ N (0, σ

2

i

) dla i = 1, 2, to Y

1

+ Y

2

∼ N (0, σ

2

1

+ σ

2

2

).

Uwaga 10. Dla uproszczenia zakładaliśmy podczas tego wykładu, że pro-
ces X

t

ma wartości rzeczywiste. Nic się zmieni (poza oczywistymi drobnymi

zmianami definicji) dla procesów o wartościach w R

d

. Czasem jednak za-

chodzi potrzeba rozpatrywania procesów o wartościach w ogólniejszej prze-
strzeni E. warto więc zauważyć, że

• w Fakcie 6 nie wykorzystywaliśmy żadnych własności przestrzeni E,

• w dowodzie Twierdzenia 8 wykorzystuje się regularność miar na E

n

-tu wystarczy założyć, że E jest σ-zwartą przestrzenią metryczną, tzn.
E jest przeliczalną sumą zbiorów zwartych lub dodać warunek regu-
larności rozpatrywanych miar.

3

Ciągłość trajektorii

Wiemy już kiedy istnieje proces o zadanych skończenie wymiarowych rozkła-
dach. Nasuwa się pytanie – kiedy taki proces ma ciągłe trajektorie? Zanim
jednak zastanowimy się nad odpowiedzią wprowadzimy dwa ważne sposoby
porównywania procesów.

3.1

Procesy stochastycznie równoważne i nierozróżnialne

Definicja 11. Niech X = (X

t

)

t∈T

oraz Y = (Y

t

)

t∈T

będą dwoma procesa-

mi stochastycznymi, określonymi na tej samej przestrzeni probabilistycznej.
Powiemy, że:
a) X jest
modyfikacją Y (lub X jest stochastycznie równoważny Y ), jeśli

t∈T

P(X

t

= Y

t

) = 1.

b) X i Y są nierozróżnialne, jeśli

P(

t∈T

X

t

= Y

t

) = 1.

12

background image

Zauważmy, że procesy nierozróżnialne są oczywiście stochastycznie rów-

noważne. Ponadto dwa procesy stochastycznie równoważne mają ten sam
rozkład. Poniższy przykład pokazuje, że z rozkładu procesu nie można wnio-
skować o własnościach trajektorii.

Przykład

Niech Z ­ 0 będzie dowolną zmienną losową o rozkładzie bezatomowym

tzn. P(Z = z) = 0 dla wszystkich z ∈ R. Zdefiniujmy dwa procesy na
T = [0, ∞):

X

t

0

oraz

Y

t

(ω) =

(

0

dla t 6= Z(ω)

1

dla t = Z(ω).

Wówczas Y jest modyfikacją X, bo P(X

t

6= Y

t

) = P(Z = t) = 0. Zauważ-

my jednak, że wszystkie trajektorie Y są nieciągłe, czyli w szczególności

P(

t6=0

X

t

= Y

t

) = 0, a zatem procesy X i Y nie są nierozróżnialne.

Fakt 12. Załóżmy, że T jest przedziałem oraz procesy X = (X

t

)

t∈T

i

Y = (Y

t

)

t∈T

mają prawostronnie ciągłe trajektorie. Wówczas, jeśli X jest

modyfikacją Y , to Xi Y są nierozróżnialne.

Dowód. Wybierzmy przeliczalny podzbiór T

0

⊂ T , gęsty w T , zawierający

dodatkowo sup T , jeśli T jest przedziałem prawostronnie domkniętym. Niech

A = {∀

t∈T

0

X

t

= Y

t

},

wówczas P(A) = 1, jako przeliczalne przecięcie zbiorów pełnej miary. Po-
nadto, jeśli ω ∈ A, to dla dowolnego t ∈ T ,

X

t

(ω) =

lim

s→t+,s∈T

0

X

s

(ω) =

lim

s→t+,s∈T

0

Y

s

(ω) = Y

t

(ω),

czyli

P(

t∈T

X

t

= Y

t

) ­ P(A) = 1.

3.2

Twierdzenie o ciągłej modyfikacji

Najważniejsze twierdzenie tego wykładu podaje kryterium istnienia mody-
fikacji procesu, która ma ciągłe trajektorie. Zanim sformułujemy dokładny
wynik przypomnijmy definicję h¨

olderowskości.

13

background image

Definicja 13. Funkcja f : [a, b] R jest h¨olderowsko ciągła z wykładnikiem
γ, jeśli dla pewnej stałej C < ∞,

|f (s) − f (t)| ¬ C|t − s|

γ

dla wszystkich s, t ∈ [a, b].

Twierdzenie 14. Załóżmy, że X = (X

t

)

t∈[a,b]

jest procesem takim, że

t,s∈[a,b]

E|X

t

− X

s

|

α

¬ C|t − s|

1+β

(1)

dla pewnych stałych dodatnich α, β, C. Wówczas istnieje proces

e

X = (

e

X

t

)

t∈[a,b]

,

będący modyfikacją procesu X, którego wszystkie trajektorie są ciągłe. Co
więcej trajektorie każdej modyfikacji X o ciągłych trajektoriach są, z praw-
dopodobieństwem 1, h¨

olderowsko ciągłe z dowolnym wykładnikiem γ <

β
α

.

Zainteresownych dowodem odsyłamy do Dodatku B.

Wniosek 15. Twierdzenie 14 jest prawdziwe, gdy przedział [a, b] zastąpi-
my nieskończonym przedziałem, o ile h¨

olderowskość trajektorii zastąpimy

lokalną h¨

olderowskością (tzn. h¨

olderowskością na każdym przedziale skoń-

czonym). Co więcej, wystarczy, by warunek (1) zachodził dla |s − t| ¬ δ,
gdzie δ jest ustaloną liczbą dodatnią.

Dowód. Przedział nieskończony T można zapisać jako przeliczalną sumę
przedziałów [a

n

, a

n+1

], długości nie większej od δ. Z Twierdzenia 14 wynika

istnienie modyfikacji

e

X

(n)

t

procesu X na przedziale [a

n

, a

n+1

], o ciągłych tra-

jektoriach. Niech A

n

= { ˜

X

(n)

a

n+1

6= ˜

X

(n+1)

a

n+1

}, wówczas A =

S

n

A

n

ma miarę

zero. Możemy więc położyć:

e

X

t

(ω) =

(

e

X

(n)

t

(ω)

dla t ∈ [a

n

, a

n+1

], ω /

∈ A

0

dla ω ∈ A.

Wniosek 16. Istnieje proces Wienera, tzn. proces spełniający warunki (W0)-
(W3).

Dowód. Mamy E|W

s

− W

t

|

4

= E|

t − sW

1

|

4

= (s − t)

2

EW

4

1

= 3(s − t)

2

i

możemy zastosować Wniosek 15 z β = 1, α = 4 i C = 3.

Wniosek 17. Prawie wszystkie trajektorie procesu Wienera są lokalnie H¨

olderowsko

ciągłe z dowolnym parametrem γ < 1/2.

14

background image

Dowód. Mamy E|W

s

− W

t

|

p

= (s − t)

p/2

EW

p

1

= C

p

(s − t)

p/2

dla dowolnego

p < ∞. Stosując twierdzenie 14 z β = p/21, α = p dostajemy H¨

olderowską

ciągłość trajektorii z dowolnym γ <

1
2

1
p

. Biorąc p → ∞ dostajemy tezę.

Uwaga 18. Prawie wszystkie trajektorie procesu Wienera nie są jednostaj-
nie ciągłe na [0, ∞), nie mogą więc być globalnie H¨

olderowskie z żadnym

wykładnikiem.
Uwaga 19.

Założenia β > 0 nie można opuścić – wystarczy rozważyć

proces Poissona (tzn. proces (N

t

)

0

o prawostronnie ciaglych trajektoriach,

startujący z zera, o przyrostach niezależnych taki, że N

t

− N

s

ma rozkład

Poissona z parametrem λ(t − s) – zob. np. Rozdział 23 w [1]) dla którego

E|N

t

− N

s

| = λ|t − s|, a oczywiście proces Poissona przyjmuje wartości

całkowite, więc nie ma modyfikacji o ciągłych trajektoriach.

3.3

Inne rodzaje ciągłości procesów

W tym wykładzie koncentrowaliśmy uwagę nad procesami o trajektoriach
ciągłych. Warto jednak wspomnieć o innych formach ciągłości procesów sto-
chastycznych.

Definicja 20. Niech X = (X

t

)

t∈T

będzie procesem stochastycznym. Mówi-

my, że
a) proces X jest
stochastycznie ciągły, jeśli

t

n

→ t ⇒ X

t

n

P

→ X

t

.

b) proces X jest ciągły wg p-tego momentu (ciągły w L

p

), jeśli

t

n

→ t ⇒ E|X

t

n

− X

t

|

p

0.

Uwaga 21. Nietrudno wykazać, że zarówno ciągłość trajektorii jaki i cią-
głość wg p-tego momentu implikują ciągłość stochastyczną procesu. Z pozo-
stałych czterech implikacji między powyższymi pojęciami ciągłości procesu
żadna nie jest prawdziwa bez dodatkowych założeń.

4

Filtracje, Momenty Zatrzymania

Celem tego wykładu jest pokazanie jak zmodyfikować definicje omawiane
podczas kursowego wykładu z rachunku prawdopodobieństwa z przypadku
czasu dyskretnego na czas ciągły.

Będziemy zakładać, że T jest lewostronnie domkniętym przedziałem (ty-

powo T = [0, ∞)), choć większość definicji i wyników można uogólnić na
szerszą klasę zbiorów.

15

background image

4.1

Filtracje

Definicja 1. Filtracją (F

t

)

t∈T

przestrzeni probabilistycznej (Ω, F , P) nazy-

wamy rosnący rodzinę σ-ciał zawartych w F , tzn. F

t

⊂ F

s

dla t ¬ s, t, s ∈

T .

Zdarzenia z σ-ciała F

t

możemy interpretować jako zdarzenia obserwo-

walne do chwili t.

Definicja 2. Niech X = (X

t

)

t∈T

będzie procesem stochastycznym. Filtra-

cją generowaną przez X nazywamy rodzinę (F

X

t

)

t∈T

daną wzorem F

X

t

=

σ(X

s

: s ¬ t).

Fakt 3. Proces X

t

ma przyrosty niezależne wtedy i tylko wtedy, gdy dla

dowolnych t < s, t, s ∈ T przyrost X

s

− X

t

jest niezależny od σ-ciała F

X

t

.

Dowód. ⇒: Rodzina zdarzeń A niezależnych od X

s

− X

t

tworzy λ-układ,

ponadto, z niezależności przyrostów X, zawiera π-układ zdarzeń postaci
{X

t

1

∈ A

1

, . . . , X

t

n

∈ A

n

} dla t

1

< . . . < t

n

¬ t.

: Ustalmy t

1

< . . . < t

n

oraz zbiory borelowskie A

1

, . . . , A

n

. Zdarzenie

{X

t

1

∈ A

1

, X

t

2

− X

t

1

∈ A

2

, . . . , X

t

n−1

− X

t

n−2

∈ A

n−1

} należy do σ-ciała

F

X

t

n−1

, więc jest niezależne od zmiennej X

t

n

− X

t

n−1

. Stąd

P(X

t

1

∈ A

1

, X

t

2

− X

t

1

∈ A

2

, . . . , X

t

n

− X

t

n−1

∈ A

n

)

= P(X

t

1

∈ A

1

, . . . , X

t

n−1

− X

t

n−2

∈ A

n−1

)P(X

t

n

− X

t

n−1

∈ A

n

).

Iterując to rozumowanie pokazujemy, że

P(X

t

1

∈A

1

, X

t

2

− X

t

1

∈ A

2

, . . . , X

t

n

− X

t

n−1

∈ A

n

)

= P(X

t

1

∈ A

1

)P(X

t

2

− X

t

1

∈ A

2

, ) · · · P(X

t

n

− X

t

n−1

∈ A

n

).

Definicja 4. Proces X = (X

t

) nazywamy zgodnym z filtracją (F

t

)

t∈T

lub

F

t

-adaptowalnym, jeśli dla wszystkich t ∈ T , X

t

jest F

t

mierzalne.

Uwaga 5. Oczywiście proces X jest zgodny z filtracją (F

t

)

t∈T

wtedy i tylko

wtedy, gdy F

X

t

⊂ F

t

dla t ∈ T . W szczególności każdy proces X jest zgodny

z filtracją przez siebie generowaną.

16

background image

4.2

Momenty Zatrzymania

Definicja 6.

Momentem zatrzymania (momentem Markowa, czasem za-

trzymania) względem filtracji (F

t

)

t∈T

nazywamy zmienną losową o warto-

ściach w T ∪ {∞} taką, że {τ ¬ t} ∈ F

t

dla wszystkich t ∈ T .

Moment zatrzymania to strategia przerwania eksperymentu losowego

(np. zakończenia udziału w pewnej grze losowej) taka, że decyzję o prze-
rwaniu do chwili t podejmujemy tylko na podstawie obserwacji dostępnych
w tym czasie.

Przykład. Dla zbioru A ⊂ R i procesu stochastycznego (X

t

)

t∈T

określmy

τ

A

= inf{t ∈ T : X

t

∈ A}.

Jeśli (X

t

)

t∈T

jest F

t

-adaptowalnym procesem o ciągłych trajektoriach, zaś A

zbiorem domkniętym, to τ

A

jest momentem zatrzymania względem filtracji

(F

t

).

Dowód. Niech T

0

⊂ T będzie gęstym podzbiorem T zawierającym lewy ko-

niec. Z domkniętości zbioru A i ciągłości X dostajemy dla t ∈ T

A

¬ t} = {∃

s¬t

X

s

∈ A} =

\

n=1

[

s¬t,s∈T

0

{X

s

∈ A

1/n

} ∈ F

t

,

gdzie

A

ε

:= {x ∈ R

n

: d(x, A) < ε}

(ε-otoczka zbioru A).

Uwaga 7. Jeśli w powyższym przykładzie A będzie zbiorem otwartym, to
τ

A

nie musi być momentem zatrzymania względem filtracji (F

t

)

t∈T

, ale musi

być momentem zatrzymania względem filtracji (F

t+

)

t∈T

, gdzie dla t < sup T

F

t+

:=

\

s>t

F

s

,

a jeśli t jest największym elementem T , to kładziemy F

t+

= F

t

.

Powyższa uwaga motywuje poniższą definicję, która ma nieco techniczny

charakter, ale jest powszechnie używana w teorii procesów.

Definicja 8. Filtrację (F

t

)

t∈T

nazywamy prawostronnie ciągłą, jeśli F

t+

=

F

t

dla wszystkich t ∈ T . Mówimy, że filtracja (F

t

)

t∈T

spełnia zwykłe wa-

runki, jeśli
a) jest prawostronnie ciągła,
b) dla wszystkich t, F

t

zawiera wszystkie zbiory miary zero, tzn. jeśli A ∈ F ,

P(A) = 0, to A ∈ F

t

.

17

background image

Definicja 9. Niech τ będzie momentem zatrzymania względem filtracji (F

t

)

t∈T

.

Definiujemy σ-ciało zdarzeń obserwowalnych do chwili τ wzorem

F

τ

:=

n

A ∈ F

:= σ

[

t∈T

F

t

:

t∈T

A ∩ {τ ¬ t} ∈ F

t

o

.

Fakt 10. a) Zbiór F

τ

jest σ-ciałem.

b) Jeśli τ ¬ σ, to F

τ

⊂ F

σ

.

c) Zmienna losowa τ jest F

τ

mierzalna.

Dowód. a) Zbiór Ω ∈ F

τ

, bo Ω ∩ {τ ¬ t} = {τ ¬ t} ∈ F

t

. Jeśli A ∈ F

τ

, to

A

0

∩ {τ ¬ t} = {τ ¬ t} \ (A ∩ {τ ¬ t}) ∈ F

t

, czyli A

0

∈ F

τ

. Jeśli A

n

∈ F

τ

,

to (

S

n

A

n

) ∩ {τ ¬ t} =

S

n

(A

n

∩ {τ ¬ t}) ∈ F

t

, czyli

S

n

A

n

∈ F

τ

.

b) Weźmy A ∈ F

τ

, wówczas dla t ∈ T , A ∩ {σ ¬ t} = A ∩ {τ ¬ t} ∩ {σ ¬

t} ∈ F

t

, czyli A ∈ F

σ

.

c) Wystarczy pokazać, że {τ ¬ s} ∈ F

τ

, ale {τ ¬ s} ∩ {τ ¬ t} = {τ ¬

s ∧ t} ∈ F

s∧t

⊂ F

t

.

Fakt 11. Załóżmy, że τ i σ są momentami zatrzymania. Wówczas F

τ ∧σ

=

F

τ

∩ F

σ

oraz zdarzenia {τ < σ}, {σ < τ }, {τ ¬ σ}, {σ ¬ τ }, {τ = σ} należą

do F

τ ∧σ

.

Dowód. Zauważmy, że τ ∧ σ jest momentem zatrzymania oraz τ ∧ σ ¬ τ i
τ ∧ σ ¬ σ, zatem na mocy Faktu 10 dostajemy F

τ ∧σ

⊂ F

τ

∩ F

σ

. Na odwrót,

jeśli A ∈ F

τ

∩ F

σ

, to A ∩ {τ ∧ σ ¬ t} = A ∩ ({τ ¬ t} ∪ {σ ¬ t}) = (A ∩ {τ ¬

t}) (A ∩ {σ ¬ t}) ∈ F

t

, czyli A ∈ F

τ ∧σ

. Dalszą część faktu pozostawiamy

do udowodnienia na ćwiczeniach.

Okazuje się, że adaptowalność procesu nie gwarantuje np. mierzalności

zmiennych X

τ

dla wszystkich momentów zatrzymania τ . Dlatego wprowa-

dzimy jeszcze jedną techniczną definicję.

Definicja 12. Proces X = (X

t

)

t∈T

nazywamy

progresywnie mierzalnym

względem filtracji (F

t

)

t∈T

, jeśli dla każdego t ∈ T , funkcja (s, ω) → X

s

(ω)

traktowana jako funkcja ze zbioru T ∩ (−∞, t] × w R jest mierzalna wzglę-
dem σ-algebry B
(T ∩ (−∞, t]) ⊗ F

t

. Równoważnie

t∈T

A∈B(R)

{(s, ω) ∈ T × Ω : s ¬ t, X

s

(ω) ∈ A} ∈ B(T ∩ (−∞, t]) ⊗ F

t

.

Fakt 13. Załóżmy, że T jest przedziałem oraz dany jest proces X = (X

t

)

t∈T

oraz filtracja (F

t

)

t∈T

.

a) Jeśli proces X jest progresywnie mierzalny względem (F

t

), to jest F

t

-

adaptowalny.
b) Jeśli proces X jest F

t

-adaptowalny oraz ma prawostronnie ciągłe trajek-

torie, to jest progresywnie mierzalny względem (F

t

).

18

background image

Dowód. a) Zbiór : X

t

(ω) ∈ A} jest przekrojem zbioru {(s, ω) ∈ T ×

Ω : s ¬ t, X

s

(ω) ∈ A}, a zatem należy do F

t

.

b) Ustalmy t ∈ T i połóżmy dla s ∈ T , s ¬ t, X

(n)

s

:= X

t−2

−n

k

, gdzie k

jest liczbą całkowitą taką, że t − 2

−n

(k + 1) < s ¬ t − 2

−n

k. Wówczas

{(s, ω) ∈T × Ω : s ¬ t, X

(n)

s

(ω) ∈ A}

=

[

k=0

T ∩

t −

k + 1

2

n

, t −

k

2

n

i

× {ω : X

t−

k

2n

(ω) ∈ A}

∈ B(T ∩ (−∞, t]) ⊗ F

t

.

Zatem funkcja X

(n)

s

(ω), s ∈ T ∩ (−∞, t], ω ∈ Ω jest B(T ∩ (−∞, t]) ⊗ F

t

mie-

rzalna. Wobec prawostronnej ciągłości X mamy X

s

(ω) = lim

n→∞

X

(n)

s

(ω),

zatem funkcja X

s

(ω), s ∈ T ∩ (−∞, t], ω ∈ Ω jest B(T ∩ (−∞, t]) ⊗ F

t

mie-

rzalna jako granica funkcji mierzalnych.

Jeśli τ jest momentem zatrzymania, a X = (X

t

)

t∈T

procesem, to zmien-

na X

τ

jest dobrze zdefiniowana tylko na zbiorze {τ < ∞}. Musimy zatem

określić co mamy na myśli mówiąc, że zmienna X

τ

jest mierzalna.

Definicja 14. Mówimy, że zmienna losowa X określona na zbiorze A jest
mierzalna względem σ-ciała G zawierającego A, jeśli {ω ∈ A
: X(w) ∈ B} ∈
G dla dowolnego zbioru borelowskiego B.

Fakt 15. Załóżmy, że X = (X

t

)

t∈T

jest procesem progresywnie mierzal-

nym względem filtracji (F

t

)

t∈T

, a τ jest momentem zatrzymania. Wówczas

zmienna losowa X

τ

określona na zbiorze {τ < ∞} ∈ F

τ

jest F

τ

mierzalna.

Ponadto proces zatrzymany w chwili τ , X

τ

:= (X

t∧τ

)

t∈T

jest progresywnie

mierzalny.

Dowód. Odwzorowanie

(s, ω) (τ (ω) ∧ s, ω) : T ∩ (−∞, t] × → T ∩ (−∞, t] ×

jest mierzalne względem σ-ciała B(T ∩ (−∞, t]) ⊗ F

t

). Jeśli złożymy je z

odwzorowaniem

(s, ω) → X

s

(ω) mierzalnym z (T ∩ (−∞, t] × , B(T ∩ (−∞, t]) ⊗ F

t

) w R,

to otrzymamy odwzorowanie

(s, ω) → X

τ (ω)∧s

(ω) mierzalne z (T ∩ (−∞, t] × , B(T ∩ (−∞, t]) ⊗ F

t

) w R.

19

background image

Stąd wynika progresywna mierzalność procesu X

τ

. By zakończyć dowód

zauważmy, że

{X

τ

∈ A} ∩ {τ ¬ t} = {X

τ ∧t

∈ A} ∩ {τ ¬ t} ∈ F

t

na mocy progresywnej mierzalności (a właściwie adaptowalności) X

τ

.

5

Martyngały z czasem ciągłym

Jak podczas poprzedniego wykładu, jeśli nie powiemy inaczej, zakładamy,
że T jest lewostronnie domkniętym przedziałem.

5.1

Definicje i przykłady

Definicja 1. Mówimy, że (X

t

)

t∈T

jest

martyngałem (odp.

podmartyn-

gałem, nadmartyngałem) względem filtracji (F

t

)

t∈T

lub, że (X

t

, F

t

)

t∈T

jest

martyngałem (odp. podmartyngałem, nadmartyngałem), jeśli
a) dla wszystkich t ∈ T , X

t

jest F

t

adaptowalny i E|X

t

| < ∞,

b) dla dowolnych s, t ∈ T, s < t, E(X

t

|F

s

) = X

s

p.n. (odp. ­ dla podmar-

tyngału i ¬ dla nadmartyngału).

Przykład 1. Jeśli X jest całkowalną zmienną losową, a F

t

dowolną filtracją

to X

t

:= E(X|F

t

) jest martyngałem.

Sprawdzamy dla t > s

E(X

t

|F

s

) = E(E(X|F

t

)|F

s

) = E(X|F

s

) = X p.n..

Przykład 2. (W

t

)

0

jest martyngałem względem naturalnej filtracji F

W

t

=

σ(W

s

: s ¬ t).

Istotnie dla t > s mamy z niezależności przyrostów

E(W

t

|F

s

) = E(W

s

|F

s

) + E(W

t

− W

s

|F

s

) = W

s

+ E(W

t

− W

s

) = W

s

p.n..

Przykład 3. (W

2

t

)

0

jest podmartyngałem, a (W

2

t

− t)

0

martyngałem

względem naturalnej filtracji F

W

t

= σ(W

s

: s ¬ t).

Liczymy dla t > s

E(W

2

t

|F

s

) = E(W

2

s

|F

s

) + E(2W

s

(W

t

− W

s

)|F

s

) + E((W

t

− W

s

)

2

|F

s

)

= W

2

s

+ 2W

s

E(W

t

− W

s

) + E(W

t

− W

s

)

2

= W

2

s

+ t − s p.n..

Uwaga 2. W ostatnich dwu przykładach filtrację (F

W

t

) można zastąpić

filtracją (F

W

t+

).

20

background image

Fakt 3. Załóżmy, że (X

t

, F

t

) jest martyngałem (odp. podmartyngałem), zaś

f : R R funkcją wypukłą (odp. wypukłą i niemalejącą) taką, że E|f (X

t

)| <

∞ dla wszystkich t. Wówczas (f (X

t

), F

t

) jest podmartyngałem.

Dowód. Z nierówności Jensena mamy E(f (X

t

)|F

s

) ­ f (E(X

t

|F

s

)) p.n., a

ostatnia zmienna jest równa f (X

s

) w przypadku martyngału i nie mniejsza

niż f (X

s

) dla podmartyngału.

Przypomnijmy definicję funkcji harmonicznych.

Definicja 4. Funkcję f : R

n

R nazywamy podharmoniczną (odp. harmo-

niczną, nadharmoniczną) jeśli

x∈R

n

0

f (x) ¬

1

|S

n−1

|

Z

S

n−1

f (x + ry)(y) (odp. =, ­),

gdzie σ(y) jest miarą powierzchniową na sferze, a |S

n−1

| =

R

S

n−1

(y) =

2π

n/2

(Γ(n/2))

1

.

Uwaga 5. Funkcja gładka jest harmoniczna (odp. pod-,nad-) wtedy i tylko
wtedy, gdy ∆f = 0 (odp. ­, ¬). Dla n = 1 warunek podharmoniczności jest
równoważny wypukłości. Funkcja f (x) = ln |x − x

0

| jest nadharmoniczna

na R

2

, a funkcja f (x) = |x − x

0

|

2−d

nadharmoniczna na R

d

dla d > 2.

Fakt 6. Niech W

t

= (W

(1)

t

, . . . , W

(d)

t

) będzie d-wymiarowym procesem Wie-

nera, F

W

t

= σ(W

s

: s ¬ t), zaś f : R

d

R funkcją harmoniczną (odp. nad-,

pod-) taką, że E|f (W

t

)| < ∞ dla t ­ 0. Wówczas (f (W

t

), F

W

t

) jest martyn-

gałem (odp. nad-, pod-).

Dowód. Liczymy dla t > s,

E(f (W

t

)|F

s

) = E(f (W

s

+ (W

t

− W

s

))|F

s

)

= (2π(t − s))

−d/2

Z

R

d

f (W

s

+ x)e

|x|2

2(t−s)

dx

= (2π(t − s))

−d/2

Z

0

r

d−1

e

r2

2(t−s)

Z

S

d−1

f (W

s

+ y)(y)

dr

= (2π(t − s))

−d/2

|S

d−1

|f (W

s

)

Z

0

r

d−1

e

r2

2(t−s)

dr

= (2π)

−d/2

|S

d−1

|

Z

0

r

d−1

e

r2

2

drf (W

s

) = c

d

f (W

s

) p.n..

By zauważyć, że c

d

= 1 przeprowadzamy albo bezpośredni rachunek, albo

podstawiamy powyżej f ≡ 1.

21

background image

5.2

Nierówności maksymalne

Zacznijmy od przypomnienia podstawowego lematu dla martyngałów z cza-
sem dyskretnym, pochodzącego od Dooba.

Lemat 7. Załóżmy, że (X

n

, F

n

)

0¬1¬N

jest martyngałem (odp. nad-, pod-),

zaś 0 ¬ τ ¬ σ ¬ N dwoma momentami zatrzymania. Wówczas

E(X

σ

|F

τ

) = X

τ

p.n. (odp. ¬, ­).

Dowód. Musimy pokazać, że dla A ∈ F

τ

, EX

τ

1

A

= EX

σ

1

A

. Połóżmy A

k

:=

A ∩ {τ = k} dla k = 0, 1, . . . , N . Mamy

(X

σ

−X

τ

)

1

A

k

= (X

σ

−X

k

)

1

A

k

=

σ−1

X

i=k

(X

i+1

−X

i

)

1

A

k

=

N

X

i=k

(X

i+1

−X

i

)

1

A

k

∩{σ>i}

,

zatem

E[(X

σ

− X

τ

)

1

A

k

] =

N

X

i=k

E[(X

i+1

− X

i

)

1

A

k

∩{σ>i}

] = 0,

gdyż A

k

∩ {σ > i} ∈ F

i

. Stąd

E[(X

σ

− X

τ

)

1

A

] =

N

X

k=0

E[(X

σ

− X

τ

)

1

A

k

] = 0.

Uwaga 8.

Lemat 7 nie jest prawdziwy, jeśli nie założymy ograniczono-

ści momentów zatrzymania, np. biorąc X

n

=

P

n
k
=1

ε

n

, gdzie ε

n

niezależne

zmienne losowe takie, że P(ε

n

= ±1) = 1/2, F

n

= σ(ε

1

, . . . , ε

n

), τ = 0,

σ = inf{n : X

n

= 1} widzimy, że EX

τ

= 0 6= 1 = EX

σ

.

Lemat 9. Niech (X

n

, F

n

)

0¬n¬N

będzie podmartyngałem, wówczas dla wszyst-

kich λ ­ 0 mamy

a) λP

max

0¬n¬N

X

n

­ λ

¬ EX

N

1

{max

0¬n¬N

X

n

­λ}

¬ EX

+

N

,

b) λP

min

0¬n¬N

X

n

¬ −λ

¬ EX

N

1

{min

0¬n¬N

X

n

>−λ}

EX

0

¬ EX

+

N

EX

0

.

22

background image

Dowód. a) Niech τ := inf{n : X

n

­ λ}, z lematu 7 dostajemy (wobec τ ∧N ¬

N )

EX

N

­ EX

τ ∧N

= EX

τ

1

{max

0¬n¬N

X

n

­λ}

+ EX

N

1

{max

0¬n¬N

X

n

<λ}

­ λP( max

0¬n¬N

X

n

­ λ) + EX

N

1

{max

0¬n¬N

X

n

<λ}

i po przeniesieniu wartości oczekiwanych na jedną stronę dostajemy postu-
lowaną nierówność.

b) Definiujemy τ := inf{n : X

n

¬ −λ}, z lematu 7 dostajemy (wobec

τ ∧ N ­ 0)

EX

0

¬ EX

τ ∧N

= EX

τ

1

{min

0¬n¬N

X

n

¬−λ}

+ EX

N

1

{min

0¬n¬N

X

n

>−λ}

¬ −λP( min

0¬n¬N

X

n

¬ −λ) + EX

N

1

{min

0¬n¬N

X

n

>−λ}

i znów wystarczy pogrupować wartości oczekiwane.

Wniosek 10. Jeśli (X

n

, F

n

)

0¬n¬N

jest martyngałem, bądź nieujemnym

podmartyngałem, to

a)

1

λ­0

λ

p

P

max

0¬n¬N

|X

n

| ­ λ

¬ E|X

N

|

p

,

b)

p>1

E|X

N

|

p

¬ E max

0¬n¬N

|X

n

|

p

¬

p

p − 1

p

E|X

N

|

p

.

Dowód. a) Funkcja f (t) = |t|

p

jest wypukła, niemalejąca na R

+

, stąd na

mocy Faktu 3 |X

n

|

p

jest nieujemnym podmartyngałem, zatem z Lematu 9

mamy

λ

p

P

max

0¬n¬N

|X

n

| ­ λ

¬ E|X

N

|

p

1

{max

0¬n¬N

|X

n

|

p

­λ

p

}

¬ E|X

N

|

p

.

b) Niech X

:= max

0¬n¬N

|X

n

|, z rachunku przeprowadzonego powyżej

λP(X

­ λ) ¬ E|X

N

|

1

{X

­λ}

.

Stosując kolejno wzór na całkowanie przez części, twierdzenie Fubiniego i
nierówność H¨

oldera dostajemy

E max

0¬n¬N

|X

n

|

p

= p

Z

0

λ

p−1

P(X

­ λ)dλ ¬ p

Z

0

λ

p−2

E|X

N

|

1

{X

­λ}

= pE|X

N

|

Z

X

0

λ

p−2

dλ ¬

p

p − 1

E|X

N

|(X

)

p−1

¬

p

p − 1

(E|X

N

|

p

)

1/p

(E(X

)

p

)

(p−1)/p

.

23

background image

Jeśli E|X

N

|

p

< ∞, to E|X

n

|

p

¬ E|X

N

|

p

< ∞ dla 0 ¬ n ¬ N oraz E(X

)

p

¬

E

P

N
n
=0

|X

n

|

p

< ∞. Dzieląc więc otrzymaną poprzednio nierówność stronami

przez (E(X

)

p

)

(p−1)/p

dostajemy

(E(X

)

p

)

1/p

¬

p

p − 1

(E|X

N

|

p

)

1/p

.

Udowodnimy teraz

nierówność maksymalną Dooba w przypadku cią-

głym.

Twierdzenie 11. Załóżmy, że (X

t

, F

t

)

t∈T

martyngałem lub nieujemnym

podmartyngałem, o prawostronnie ciągłych trajektoriach. Wówczas

a)

1

λ­0

λ

p

P

sup

t∈T

|X

t

| ­ λ

¬ sup

t∈T

E|X

t

|

p

,

b)

p>1

sup

t∈T

E|X

t

|

p

¬ E sup

t∈T

|X

t

|

p

¬

p

p − 1

p

sup

t∈T

E|X

t

|

p

.

Uwaga 12. Oczywiście jeśli T zawiera element maksymalny t

max

, to przy

założeniach twierdzenia sup

t∈T

E|X

t

|

p

= E|X

t

max

|

p

.

Dowód. Jeśli D jest skończonym podzbiorem T , to na podstawie Wniosku
10 dostajemy

λ

p

P

sup

t∈D

|X

t

| ­ λ

¬ sup

t∈D

E|X

t

|

p

¬ sup

t∈T

E|X

t

|

p

.

Niech T

0

będzie gęstym podzbiorem T zawierającym prawy koniec T (o

ile taki istnieje), zaś D

n

wstępującym ciągiem skończonych podzbiorów T

0

takim, że

S

n

D

n

= T

0

. Wówczas dla dowolnego ˜

λ > 0 dostajemy na mocy

prawostronnej ciągłości

˜

λ

p

P

sup

t∈T

|X

t

| > ˜

λ

= ˜

λ

p

P

sup

t∈T

0

|X

t

| > ˜

λ

= lim

n→∞

˜

λ

p

P

sup

t∈D

n

|X

t

| > ˜

λ

¬ sup

t∈T

E|X

t

|

p

.

Biorąc ciąg ˜

λ

n

% λ dostajemy postulowaną w a) nierówność. Nierówność z

punktu b) wynika z Wniosku 10 w podobny sposób.

24

background image

Uwaga 13.

Punkt b) twierdzenia 11 nie zachodzi dla p = 1 – można

skonstruować martyngał dla którego sup

t

E|X

t

| < ∞, ale E sup

t

|X

t

| = .

Zachodzi jednak (przy założeniach Twierdzenia 11) nierówność

E sup

t∈T

|X

t

| ¬

e

e − 1

1 + sup

t∈T

E|X

t

| ln

+

|X

t

|

.

Wniosek 14. Dla dowolnych u, s > 0 zachodzi

P

sup

0¬t¬s

W

t

­ u

¬ e

u2

2s

.

Dowód. Ustalmy λ > 0, wówczas M

t

:= exp(λW

t

λ

2

t

2

) jest martyngałem

względem filtracji F

W

t

generowanej przez proces Wienera. Stąd na mocy

Twierdzenia 11 a) i nieujemności M

t

dostajemy

P

sup

0¬t¬s

W

t

­ u

¬ P

sup

0¬t¬s

M

t

­ e

λu−

λ2s

2

¬ e

−λu+

λ2s

2

sup

0¬t¬s

E|M

t

| = e

−λu+

λ2s

2

EM

0

= e

−λu+

λ2s

2

.

Zatem

P

sup

0¬t¬s

W

t

­ u

¬ inf

λ>0

e

−λu+

λ2s

2

= e

u2

2s

.

6

Twierdzenia o zbieżności martyngałów

6.1

Przejścia w dół przez przedział

Definicja 1. Załóżmy, że I ⊂ R, f : I → R oraz α < β. Jeśli I jest skoń-
czone, to określamy

τ

1

:= inf{t ∈ I : f (t) ­ β} oraz σ

1

:= inf{t ∈ I : t > τ

1

, f (t) ¬ α}

i dalej indukcyjnie dla i = 1, 2, . . .

τ

i+1

:= inf{t ∈ I : t > σ

i

, f (t) ­ β} oraz σ

i+1

:= inf{t ∈ I : t > τ

i+1

, f (t) ¬ α}.

oraz definiujemy

D

I

(f, [α, β]) := sup{j : σ

j

< ∞} ∨ 0

25

background image

W przypadku, gdy I jest nieskończone kładziemy

D

I

(f, [α, β]) := sup{D

F

(f, [α, β]) : F ⊂ T skończone}.

Wielkość D

I

(f, [α, β]) nazywamy liczbą przejść w dół funkcji f przez prze-

dział [α, β].

Przypomnijmy fakt z rachunku prawdopodobieństwa wiążący skończo-

ność liczby przejść ciągu przez przedział z istnieniem granicy

Lemat 2. Ciąg liczbowy x

n

jest zbieżny do pewnej, niekoniecznie skończonej

granicy wtedy i tylko wtedy, gdy D

N

((x

n

), [α, β]) < ∞ dla dowolnych liczb

wymiernych α < β.

Następny lemat jest niewielką modyfikacją poprzedniego.

Lemat 3. Jeśli f : [a, b) R, b ¬ ∞ jest prawostronnie ciągłą funkcją taką,
że D

[a,b)Q

(f, [α, β]) < ∞ dla dowolnych liczb wymiernych α < β, to istnieje

(niekoniecznie skończona) granica lim

t→b

f (t).

Dowód. Załóżmy, że postulowana granica nie istnieje, wtedy można znaleźć
liczby wymierne α, β takie, że

lim inf

t→b

f (t) < α < β < lim inf

t→b

f (t).

Stąd wynika, że istnieje rosnący ciąg liczb wymiernych t

n

z przedziału [a, b)

taki, że f (t

2k−1

) ­ β oraz f (t

2k

) ¬ α. Przyjmując I = {t

1

, t

2

, . . .} widzimy,

że D

[a,b)Q

(f, [α, β]) ­ D

I

(f, [α, β]) = .

Lemat 4. Załóżmy, że X = (X

t

)

t∈T

jest podmartyngałem względem pewnej

filtracji, a F jest przeliczalnym podzbiorem T , wówczas

ED

F

(X, [α, β]) ¬ sup

t∈F

E(X

t

− β)

+

β − α

.

Dowód. Stosując twierdzenie Lebesgue’a o zbieżności monotonicznej widzi-
my, że wystarczy udowodnić lemat dla skończonych zbiorów F , dla uprosz-
czenia notacji możemy oczywiście przyjąć, że F = {1, 2, . . . , N }. Zauważmy,
że (przy oznaczeniach jak w Definicji 1)

X

τ

i

∧N

−X

σ

i

∧N

=

X

τ

i

− X

σ

i

­ β − α

gdy σ

i

< ∞,

X

τ

i

− X

N

­ β − X

N

­ −(X

N

− β)

+

gdy τ

i

< σ

i

= ∞,

X

N

− X

N

= 0

gdy τ

i

= ∞.

26

background image

Zatem

N

X

i=1

(X

τ

i

∧N

− X

σ

i

∧N

) ­ (β − α)D

F

(X, [α, β]) (X

N

− β)

+

.

Na mocy Lematu 7, EX

τ

i∧N

¬ EX

σ

i∧N

, więc

0 ­ E

N

X

i=1

(X

τ

i

∧N

− X

σ

i

∧N

) ­ E(β − α)D

F

(X, [α, β]) E(X

N

− β)

+

.

6.2

Zbieżność prawie na pewno

Przypomnijmy twierdzenie dotyczące zbieżności podmartyngałów z czasem
dyskretnym:

Twierdzenie 5. Załóżmy, że (X

n

)

n∈N

jest podmartyngałem względem pew-

nej filtracji takim, że sup

n∈N

EX

+

n

< ∞ (lub nadmartyngałem takim, że

sup

n∈N

EX

n

< ∞), wówczas X = lim

n→∞

X

n

istnieje i jest skończona p.n.,

ponadto E|X| < ∞.

Sformułujemy teraz odpowiednik powyższego twierdzenia dla czasu cią-

głego.

Twierdzenie 6. Załóżmy, że (X

t

)

t∈[a,b)

, b ¬ ∞ jest podmartyngałem o pra-

wostronnie ciągłych trajektoriach takim, że sup

t∈[a,b)

EX

+

t

< ∞. Wówczas

X = lim

t→b

X

t

istnieje i jest skończony p.n., ponadto E|X| < ∞.

Dowód. Dla ustalonego α < β na podstawie Lematu 4 mamy

ED

[a,b)Q

(X

t

, [α, β]) ¬

1

β − α

sup

t∈[a,b)

E(X

t

− β)

+

< ∞,

zatem P(D

[a,b)Q

(X

t

, [α, β]) = ) = 0. Niech

A :=

\

α,β∈Q,α<β

{D

[a,b)Q

(X

t

, [α, β]) < ∞},

wówczas P(A) = 1, bo A jest przecięciem przeliczalnej liczby zbiorów pełnej
miary. Jeśli ω ∈ A, to D

[a,b)Q

(X

t

(ω), [α, β]) < ∞ dla dowolnych liczb wy-

miernych α < β, czyli na podstawie Lematu 3 granica X(ω) := lim

t→b

X

t

(ω)

27

background image

istnieje (choć apriori może być nieskończona). Zauważmy, że E|X

t

| = 2EX

+

t

EX

t

¬ 2EX

+

t

EX

0

, zatem sup

t∈[a,b)

E|X

t

| < ∞. Z Lematu Fatou

E|X| = E lim

t→b

|X

t

| ¬ lim inf

t→∞

E|X

t

| ¬ sup

t

E|X

t

| < ∞,

czyli zmienna X jest całkowalna, a więc w szczególności skończona p.n..

Wniosek 7. Załóżmy, że (X

t

)

0

jest niedodatnim podmartyngałem (lub

nieujemnym nadmartyngałem) o prawostronnie ciągłych trajektoriach, wów-
czas X
= lim

t→∞

X

t

istnieje i jest skończony p.n., ponadto E|X| < ∞.

6.3

Jednostajna całkowalność

Definicja 8. Rodzinę zmiennych losowych (X

i

)

i∈I

nazywamy jednostajnie

całkowalną, jeśli

lim

C→∞

sup

i∈I

E|X

i

|

1

{|X

i

|>C}

= 0.

Fakt 9. Rodzina zmiennych losowych (X

i

)

i∈I

jest jednostajnie całkowalna

wtedy i tylko wtedy, gdy spełnione są następujące dwa warunki
a)
sup

i∈I

E|X

i

| < ∞,

b) ∀

ε>0

δ>0

P(A) ¬ δ ⇒ sup

i∈I

E|X

i

|

1

A

¬ ε.

Dowód. ⇒: Ustalmy ε > 0 i dobierzmy C takie, że sup

i∈I

E|X

i

|

1

{|X

i

|>C}

¬

ε/2. Wówczas

i∈I

E|X

i

| ¬ C + E|X

i

|

1

{|X

i

|>C}

¬ C + ε/2 < ∞

oraz, jeśli P(A) < δ :=

ε

2C

, to

E|X

i

|

1

A

¬ CP(A) + E|X

i

|

1

{|X

i

|>C}

¬ Cδ +

ε

2

= ε.

: Niech α := sup

i∈I

E|X

i

| oraz δ > 0 będzie takie, że sup

i∈I

E|X

i

|

1

A

¬

ε dla P(A) ¬ δ. Wówczas, jeśli C = α/δ, to P(|X

i

| > C) < α/C = δ dla

dowolnego i ∈ I, czyli sup

i∈I

E|X

i

|

1

{|X

i

|>C}

¬ ε.

Przykłady rodzin jednostajnie całkowalnych

1. Rodzina jednoelementowa {Y } taka, że E|Y | < ∞.

Istotnie lim

C→∞

E|Y |1

{|Y |>C}

= 0.

2. Rodzina wspólnie ograniczona przez zmienną całkowalną tzn. rodzina

(X

i

)

i∈I

taka, że

i∈I

|X

i

| ¬ Y oraz EY < ∞.

28

background image

Wynika to z Faktu 9, poprzedniego przykładu i oczywistej obserwację

E|X

i

|

1

A

¬ E|Y |1

A

.

3. Rodzina uśrednień ustalonej całkowalnej zmiennej losowej, tzn. rodzi-

na postaci (E(X|F

i

))

i∈I

, gdzie E|X| < ∞, zaś (F

i

)

i∈I

dowolna rodzina σ-

podciał F .

Na podstawie nierówności Jensena E|X

i

| = E|E(X|F

i

)| ¬ E|X|, a zatem

P(|X

i

| ­ C) ¬

E|X

i

|

C

¬

E|X|

C

¬ δ dla C ­

E|X|

δ

.

Zbiór {|X

i

| > C} ∈ F

i

, więc z nierówności Jensena

E|X

i

|

1

{|X

i

|>C}

= E|E(X1

{|X

i

|>C}

|F

i

)| ¬ EE(|X|1

{|X

i

|>C}

|F

i

)

¬ E(|X|1

{|X

i

|>C}

) ¬ ε,

jeśli tylko dobierzemy odpowiednio małe δ korzystając z jednostajnej całko-
walności {|X|}.

Fakt 10. Załóżmy, że 1 ¬ p < ∞, a X

n

są zmiennymi losowymi takimi,

że rodzina (|X

n

|

p

)

n=1

jest jednostajnie całkowalna. Wówczas X

n

zbiega do

zmiennej X w L

p

wtedy i tylko wtedy, gdy X

n

zbiega do X według prawdo-

podobieństwa.

Dowód. Wystarczy udowodnić, że zbieżność X

n

według prawdopodobień-

stwa implikuje zbieżność w L

p

, bo przeciwna implikacja jest zawsze praw-

dziwa. Załóżmy więc, że X

n

P

→ X, wówczas dla pewnego podciągu n

k

, X

n

k

zbiega do X p.n., stąd na mocy Lematu Fatou

E|X|

p

= E lim |X

n

k

|

p

¬ lim inf E|X

n

k

|

p

¬ sup

n

E|X

n

|

p

< ∞.

Zatem rodzina {|X

n

|

p

: n = 1, 2, . . .} ∪ {|X|

p

} jest jednostajnie całkowalna.

Ustalmy ε > 0 i dobierzmy δ > 0 tak by dla P(A) < δ zachodziło E|X

n

|

p

1

A

¬

ε oraz E|X|

p

1

A

¬ ε. Mamy

E|X

n

− X|

p

¬ ε

p

+ E|X

n

− X|

p

1

{|X

n

−X|>ε}

¬ ε

p

+ 2

p

E|X

n

|

p

1

{|X

n

−X|>ε}

+ 2

p

E|X|

p

1

{|X

n

−X|>ε}

,

a ponieważ X

n

P

→ X, więc P(|X

n

− X| > ε) < δ dla dużych n, czyli

E|X

n

− X|

p

¬ ε

p

+ 2

p+1

ε dla dostatecznie dużych n.

29

background image

Wniosek 11. Jeśli rodzina (X

n

)

n=1

jest jednostajnie całkowalna oraz X

n

zbiega prawie na pewno do zmiennej X, to lim

n→∞

EX

n

1

A

= EX1

A

dla

wszystkich zdarzeń A.

Dowód. Stosujemy Fakt 10 i oczywiste szacowanie |EX

n

1

A

EX1

A

| ¬

E|X

n

− X|.

Jesteśmy teraz gotowi do dowodu ciągłej wersji Lematu 7.

Twierdzenie 12. a) Załóżmy, że T jest przedziałem, a (X

t

)

t∈T

martyn-

gałem prawostronnie ciągłym, zaś σ i τ czasami zatrzymania takimi, że
σ ¬ τ ¬ t

max

oraz t

max

∈ T . Wówczas E(X

τ

|F

σ

) = X

σ

p.n..

b) Jeśli (X

t

)

0¬t¬∞

jest prawostronnie ciągłym martyngałem z ostatnim ele-

mentem X

to dla dowolnych dwu czasów zatrzymania σ ¬ τ , E(X

τ

|F

σ

) =

X

σ

p.n.

Dowód. Udowodnimy część a) (część b) można za pomocą zmiany czasu
sprowadzić do a)). Zdefiniujmy

τ

n

(ω) :=

(

t

max

k
n

dla τ (ω) (t

max

k+1

n

, t

max

k
n

], k = 0, 1, . . . , n

2

t

max

− n

dla τ (ω) ¬ t

max

− n

oraz

σ

n

(ω) :=

(

t

max

k
n

dla σ(ω) (t

max

k+1

n

, t

max

k
n

], k = 0, 1, . . . , n

2

t

max

− n

dla σ(ω) ¬ t

max

− n

.

Wówczas σ

n

¬ τ

n

¬ t

max

są ograniczonymi czasami zatrzymania przyjmu-

jącymi jedynie skończenie wiele wartości. Zatem na mocy Lematu 7 mamy

E(X

τ

n

|F

σ

n

) = X

σ

n

p.n., E(X

t

max

|F

σ

n

) = X

σ

n

p.n. oraz E(X

t

max

|F

τ

n

) = X

τ

n

p.n., w szczególności więc rodziny (X

τ

n

)

n=1

oraz (X

σ

n

)

n=1

są jednostaj-

nie całkowalne. Ponieważ τ

n

→ τ + oraz σ

n

→ σ+, więc z prawostronnej

ciągłości X oraz Faktu 10 X

τ

n

→ X

τ

, X

σ

n

→ X

σ

p.n. i w L

1

. Weźmy

A ∈ F

σ

⊂ F

σ

n

, wówczas

EX

τ

1

A

= lim

n→∞

EX

τ

n

1

A

= lim

n→∞

EX

σ

n

1

A

= EX

σ

1

A

,

co oznacza, że E(X

τ

|F

σ

) = X

σ

p.n..

Wniosek 13. Załóżmy, że T jest przedziałem, a (M

t

)

t∈T

jest prawostronnie

ciągłym martyngałem względem (F

t

)

t∈T

. Wówczas dla dowolnego momentu

zatrzymania τ proces M

τ

= (M

τ ∧t

)

t∈T

jest martyngałem zarówno względem

(F

τ ∧t

)

t∈T

, jak i (F

t

)

t∈T

.

30

background image

Dowód. Niech s < t oraz s, t ∈ T , wówczas τ ∧ s ¬ τ ∧ t ¬ t, więc z
Twierdzenia 12 mamy E(M

τ ∧t

|F

τ ∧s

) = M

τ ∧s

p.n., czyli (M

τ ∧t

, F

τ ∧t

)

t∈T

jest martyngałem.

By udowodnić drugą część ustalmy s < t oraz A ∈ F

s

. Nietrudno spraw-

dzić, że A∩{τ > s} ∈ F

τ ∧s

, zatem z poprzednio udowodnionej części wniosku

mamy

EM

τ ∧t

1

A∩{τ >s}

= EM

τ ∧s

1

A∩{τ >s}

.

Ponadto

EM

τ ∧t

1

A∩{τ ¬s}

= EM

τ

1

A∩{τ ¬s}

= EM

τ ∧s

1

A∩{τ ¬s}

.

Dodając powyższe tożsamości stronami otrzymujemy EM

τ ∧t

1

A

= EM

τ ∧s

1

A

dla A ∈ F

s

, zatem (M

τ ∧t

, F

t

)

t∈T

jest martyngałem.

6.4

Zbieżność martyngałów w L

p

Zacznijmy od warunków zbieżności martyngałów z czasem ciągłym w L

1

.

Twierdzenie 14. Załóżmy, że (X

t

)

t∈[a,b)

, b ¬ ∞ jest prawostronnie ciągłym

martyngałem. Wówczas następujące warunki są równoważne:
a) Rodzina
(X

t

)

t∈[a,b)

jest jednostajnie całkowalna.

b) Istnieje całkowalna zmienna losowa X

b

taka, że X

t

zbiega do X

b

w L

1

tzn. lim

t→b

E|X

t

− X

b

| = 0.

c) Istnieje całkowalna zmienna losowa X

b

mierzalna względem σ-ciała F

b

:=

σ(

S

t∈[a,b)

F

t

) taka, że X

t

= E(X

b

|F

t

) dla t ∈ [a, b).

W przypadku, gdy zachodzą warunki (a)-(c), to X

b

= lim

t→b

X

t

p.n..

Dowód. a)b): X

t

jest jednostajnie całkowalny, więc sup

t

E|X

t

| < ∞, czyli

wobec Twierdzenia 6 istnieje zmienna całkowalna X

b

taka, że X

t

→ X

b

p.n.

przy t → b. Z jednostajnej całkowalności i Lematu 10 wynika zbieżność w
L

1

.

b)c): Dla pewnego podciągu t

k

→ b, X

t

k

→ X

b

p.n., stąd możemy

zakładać, że zmienna X

b

jest F

b

mierzalna. Ustalmy t i A ∈ F

t

, wówczas dla

s ­ t

EX

t

1

A

= EX

s

1

A

EX

b

1

A

, s → ∞.

Zatem X

t

= E(X

b

|F

t

) p.n..

c)a) wiemy, że rodzina uśrednień ustalonej zmiennej jest jednostajnie

całkowalna.

Ostatnia część twiedzenia wynika z dowodu implikacji a)b).

31

background image

Twierdzenie 15. Załóżmy, że (X

t

)

t∈[a,b)

jest prawostronnie ciągłym mar-

tyngałem. Wówczas następujące warunki są równoważne:
a)
sup

t∈[a,b)

E|X

t

|

p

< ∞.

b) Rodzina (|X

t

|

p

)

t∈[a,b)

jest jednostajnie całkowalna.

c) Istnieje zmienna losowa X

b

∈ L

p

taka, że X

t

zbiega do X

b

w L

p

tzn.

lim

t→b

E|X

t

− X

b

|

p

= 0.

d) Istnieje losowa X

b

∈ L

p

mierzalna względem F

b

:= σ(

S

t∈[a,b)

F

t

) taka, że

X

t

= E(X

b

|F

t

) dla t ∈ [a, b).

W przypadku, gdy zachodzą warunki (a)-(d), to X

b

= lim

t→b

X

t

p.n..

Dowód. a)b): Na podstawie Twierdzenia 11 wiemy, że E sup

t∈[a,b)

|X

t

|

p

¬

(

p

p−1

)

p

sup

t∈[a,b)

E|X

t

|

p

< ∞. Pozostałe implikacje dowodzimy jak w dowo-

dzie Twierdzenia 14.

6.5

*Regularność trajektorii

W wielu twierdzeniach zakłada się, iż (X

t

) jest prawostronnie ciągłym pod-

martyngałem. Oczywiście modyfikacja podmartyngału jest podmartyngałem
– problem jest tylko z mierzalnością, ale znika on, gdy filtracja spełnia zwy-
kłe warunki. Naturalnie jest więc zapytać kiedy dany podmartyngał możemy
zmodyfikować tak, by stał się prawostronnie ciągły.

Następny lemat jest prostą modyfikacją Lematu 2, więc przytoczymy go

bez dowodu.

Lemat 16. Jeśli f : [a, b] Q R jest funkcją ograniczoną taką, że dla
dowolnych liczb wymiernych α < β , D

[a,b]Q

(f, [α, β]) < ∞, to granice

t∈[a,b)

f (t+) :=

lim

s→t+,s∈Q

f (s) i ∀

t∈(a,b]

f (t−) :=

lim

s→t−,s∈Q

f (s)

istnieją i są skończone.

Będziemy też wykorzystywać prosty fakt.

Fakt 17. Załóżmy, że (X

n

)

0

jest podmartyngałem z czasem odwróconym o

wartościach średnich ograniczonych z dołu, tzn. a := lim

n→−∞

EX

n

> −∞.

Wówczas rodzina (X

n

)

0

jest jednostajnie całkowalna.

Dowód. Ustalmy ε > 0 i dobierzmy k takie, że EX

k

¬ a + ε/2, wówczas

EX

k

− ε/2 ¬ EX

n

¬ EX

k

dla n ¬ k. Zatem dla takich n, z własności

32

background image

podmartyngału

E|X

n

|

1

{|X

n

|>C}

= EX

n

1

{X

n

>C}

EX

n

1

{X

n

<−C}

= EX

n

1

{X

n

>C}

+ EX

n

1

{X

n

­−C}

EX

n

¬ EX

k

1

{X

n

>C}

+ EX

k

1

{X

n

­−C}

EX

k

+

ε

2

= EX

k

1

{X

n

>C}

EX

k

1

{X

n

<−C}

+

ε

2

¬ E|X

k

|

1

{|X

n

|>C}

+

ε

2

.

Mamy E|X

n

| = 2EX

+

n

EX

n

¬ 2EX

+

0

− a, więc α := sup

n

E|X

n

| < ∞.

Zatem

P(|X

n

| > C) ¬

E|X

n

|

C

¬

α

C

dla C :=

α

δ

,

czyli, wobec jednostajnej całkowalności rodziny jednoelementowej, dla odpo-
wiednio małego δ > 0, E|X

k

|

1

{|X

n

|>C}

¬ ε/2, a więc E|X

n

|

1

{|X

n

|>C}

¬ ε dla

n ¬ k i odpowiednio dużego C. Ponieważ rodzina {X

k+1

, X

k+2

, . . . , X

0

} jest

skończona, a zatem i jednostajnie całkowalna, więc dla dużych C i wszyst-
kich n ¬ 0, E|X

n

|

1

{|X

n

|>C}

¬ ε.

Twierdzenie 18. Załóżmy, że T jest przedziałem, a (X

t

)

t∈T

podmartynga-

łem (lub nadmartyngałem). Wówczas istnieje zbiór A taki, że P(A) = 1 oraz
dla wszystkich ω ∈ A i t ∈ T poza odpowiednio lewym i prawym końcami T
granice

X

t+

(ω) =

lim

s→t+,s∈Q

X

s

(ω) oraz X

t−

(ω) =

lim

s→t−,s∈Q

X

s

(ω)

istnieją i są skończone.

Dowód. Bez straty ogólności możemy zakładać, że X

t

jest podmartyngałem.

Ponieważ możemy znaleźć niemalejący ciąg przedziałów [a

n

, b

n

] taki, że T =

S

n

[a

n

, b

n

], więc dowód wystarczy przeprowadzić w przypadku T = [a, b].

Zauważmy, że

sup

t∈[a,b]

]Ex(X

t

− β)

+

= E(X

b

− β)

+

< ∞,

zatem z Lematu 4 dostajemy

α<β

P(D

[a,b]Q

(X

t

, [α, β]) = ) = 0.

Ponadto, na mocy Lematu 9, dla dowolnego λ > 0

λP( sup

t∈[a,b]Q

X

t

­ λ) ¬

sup

t∈[a,b]Q

EX

+

t

= EX

+

b

< ∞

33

background image

oraz

λP( inf

t∈[a,b]Q

X

t

¬ −λ) ¬

sup

t∈[a,b]Q

EX

+

t

EX

a

= EX

+

b

EX

a

< ∞.

Stąd

P(−∞ <

inf

t∈[a,b]Q

X

t

¬

sup

t∈[a,b]Q

X

t

< ∞) = 1.

Niech

A :=

\

α,beta∈Q,α<β

{D

[a,b]Q

(X

n

, [α, β]) < ∞} ∩ { sup

t∈[a,b]Q

|X

t

| < ∞},

wtedy P(A) = 1. By wykazać, że zbiór A ma postulowane własności wystar-
czy skorzystać z Lematu 16.

Definicja 19. Funkcję f : T → R określoną na przedziale T nazywamy
PCLG (często również używa się pochodzącej z francuskiego nazwy cadlag)
jeśli jest prawostronnie ciągła i w każdym punkcie T (poza ewentualnie le-
wym końcem) ma skończone lewostronne granice.

Twierdzenie 20. Załóżmy, że T jest przedziałem, a X = (X

t

)

t∈T

jest pod-

martyngałem (odp. nadmartyngałem) względem filtracji (F

t

)

t∈T

spełniają-

cej zwykłe warunki. Wówczas X ma prawostronnie ciągłą modyfikację wte-
dy i tylko wtedy gdy funkcja t →
EX

t

jest prawostronnie ciągła. Co wię-

cej, jeśli taka modyfikacja istnieje, to istnieje również modyfikacja PCLG
i F

t

-adaptowalna będąca podmartyngałem (odp. nadmartyngałem) względem

(F

t

)

t∈T

.

Dowód. ⇐ Wystarczy rozpatrzeć przypadek podmartyngału oraz T = [a, b].
Na mocy Twierdzenia 18 istnieje A takie, że P(A) = 1 oraz dla wszystkich
ω ∈ A granice lim

s→t+,s∈Q

X

s

, t ∈ [a, b) oraz lim

s→t−,s∈Q

X

s

, t ∈ (a, b]

istnieją i są skończone. Połóżmy

X

t+

(ω) :=

(

lim

s→t+,s∈Q

X

s

(ω)

ω ∈ A

0

ω /

∈ A

Niech t

n

& t+, ponieważ EX

t

n

­ EX

a

, więc (X

t

n

)

n

jest jednostajnie całko-

walny jako podmartyngał z czasem odwróconym (Fakt 17). Weźmy A ∈ F

t

,

wówczas

EX

t

1

A

¬ EX

t

n

1

A

EX

t+

1

A

przy n → ∞,

stąd X

t+

= E(X

t+

|F

t

) ­ X

t

p.n.. Co więcej

E(X

t+

− X

t

) = lim

n→∞

EX

t

n

EX

t

= 0

34

background image

na mocy prawostronnej ciągłości t → EX

t

, czyli X

t+

= X

t

p.n., a zatem

X

t+

jest szukaną modyfikacją X.

: Zauważmy, że jeśli X

t

prawostronnie ciągły, to X

t+

= X

t

, biorąc t

n

&

t+ i wykorzystując jednostajną całkowalność (X

t

n

)

n

(Fakt 17) dostajemy

EX

t

= EX

t+

= lim

n→∞

EX

t

n

.

7

Całka Stieltjesa

Podstawowy problem jakim się zajmiemy podczas najbliższych wykładów
polega na ścisłym zdefiniowaniu całek

R

t

0

f (s)dW

s

,

R

t

0

X

s

dW

s

lub ogólniej

R

t

0

X

s

dY

s

, gdzie f (s) jest „porządną” funkcją, a X

s

, Y

s

są „porządnymi”

procesami stochastycznymi.

Najprostsze podejście polega na zdefiniowaniu osobno całki dla każdej

trajektorii, tzn. określeniu dla ustalonego ω ∈ Ω,

R

s

0

Y

s

(ω)dX

s

(ω). Sposób

takiej konstrukcji daje całka Stieltjesa, uogólniająca całkę Riemanna.

7.1

Całka Riemanna-Stieltjesa

W tej części podamy tylko podstawowe fakty i definicje, bez dowodów. Wię-
cej informacji oraz kompletne dowody można znaleźć w [4, 5] i [2].

Definicja 1. Podziałem przedziału [a, b] nazywamy niemalejący ciąg liczb
Π = (t

0

, t

1

, . . . , t

k

) taki, że a = t

0

¬ t

1

¬ . . . ¬ t

k

= b. Średnicę podziału Π

definiujemy wzorem diam(Π) : = max

i

|t

i+1

− t

i

|.

Mówimy, że podział Π

0

jest podpodziałem Π (ozn. Π

0

Π) jeśli wszystkie

punkty Π są punktami Π

0

.

Ciąg Π

n

= (t

n

0

, . . . , t

n
k

n

) nazywamy

normalnym ciągiem podziałów, jeśli

diam(Π

n

)

n→∞

−→ 0 oraz Π

n+1

Π

n

.

Definicja 2. Niech f, g : [a, b] R. Powiemy że

R

b

a

g df istnieje oraz, że g

jest całkowalna względem f , jeśli dla dowolnego normalnego ciągu podzia-
łów
Π

n

= (t

n

0

, . . . , t

n
k

n

) oraz punktów s

n

0

, . . . , s

n
k

n

1

takich, że t

k

j

¬ s

k

j

¬ t

k

j+1

istnieje skończona granica

lim

n→∞

k

n

X

j=1

g(s

k
j−
1

)[f (t

k
j

) − f (t

k
j−
1

)],

która nie zależy od wybranego ciągu punktów i podziałów. Granicę tą ozna-
czamy

R

b

a

g(t) df (t) i nazywamy całką Riemanna-Stjeltjesa.

35

background image

Uwaga 3. Można udowodnić, że całka

R

b

a

g df istnieje oraz jest równa S,

jeśli dla dowolnego ε > 0 istnieje δ > 0 taka, że dla dowolnego podziału
Π

n

= (t

n

0

, . . . , t

n
k

n

) o średnicy nie większej niż δ oraz punktów s

n

0

, . . . , s

n
k

n

1

takich, że t

k

j

¬ s

k

j

¬ t

k

j+1

,



S −

k

n

X

j=1

g(s

k
j−
1

)[f (t

k
j

) − f (t

k
j−
1

)]



¬ ε.

Uwaga 4. i) W przypadku f (t) = t całka Riemanna-Stieltjesa jest całką
Riemanna.
ii) Jeśli f ∈ C

1

[a, b], to f (t

n

j+1

) − f (t

n

j

) = f

0

n

j

) dla pewnego t

n+1
j

¬

Θ

n

j

¬ t

n

j

, stąd można prosto udowodnić, że w tym przypadku

R

b

a

g(t) df (t) =

R

b

a

g(t)f

0

(t) dt.

Wprost z definicji natychmiast wynika.

Fakt 5. i) Jeśli g

1

i g

2

są całkowalne względem f , to dla dowolnych liczb c

1

i c

2

funkcja c

1

g

1

+ c

2

g

2

jest całkowalna względem f oraz

Z

b

a

(c

1

g

1

+ c

2

g

2

)df = c

1

Z

b

a

g

1

df + c

2

Z

b

a

g

2

df.

ii) Jeśli g jest całkowalna względem f

1

i f

2

, to dla dowolnych liczb c

1

i c

2

, g

jest całkowalna względem c

1

f

1

+ c

2

f

2

oraz

Z

b

a

gd(c

1

f

1

+ c

2

f

2

) = c

1

Z

b

a

gdf

1

+ c

2

Z

b

a

gdf

2

.

Uwaga 6. Może się zdarzyć, że dla a < b < c całki

R

b

a

gdf i

R

c

b

gdf istnieją, a

całka

R

c

a

gdf nie istnieje. Jeśli jednak wszystkie trzy całki istnieją, to

R

c

a

gdf =

R

b

a

gdf +

R

c

b

gdf .

Oczywiście naturalnie jest zapytać dla jakich funkcji f i g istnieje całka

R

gdf . By odpowiedzieć na to pytanie musimy zdefiniować funkcje o wahaniu

skończonym.

Definicja 7. Jeśli f : [a, b] R, to liczbę

Wah

[a,b]

(f ) : = sup

n∈N

sup

a=t

0

<...<t

n

=b

n

X

i=1

|f (t

i

) − f (t

i−1

)|

nazywamy wahaniem funkcji f w przedziale [a, b]. Mówimy, że f ma wa-
hanie skończone na [a, b], jeśli Wah

[a,b]

(f ) < ∞.

36

background image

Oczywiście 0 ¬ Wah

[a,b]

(f ) ¬ ∞ Wahanie jest addytywną funkcją prze-

działu, tzn. Wah

[a,c]

(f ) = Wah

[a,b]

(f ) + Wah

[b,c]

(f ) dla a < b < c.

Przykłady.

Funkcje lipschitzowskie, funkcje monotoniczne mają wahanie skończone na
ograniczonych przedziałach.
Kombinacja liniowa funkcji o wahaniu skończonym ma wahanie skończone.
Funkcja f (x) = x sin(

1
x

) oraz f (0) = 0 jest ciągła, ale nie ma wahania

skończonego na [0, 1].

Twierdzenie 8. Jeżeli f, g : [a, b] R, przy czym g jest ciągła, a f ma
wahanie skończone, to

R

b

a

g df istnieje.

Twierdzenie to można odwrócić.

Twierdzenie 9. Jeśli całka Riemanna-Stieltjesa

R

b

a

gdf istnieje dla dowol-

nej funkcji ciągłej g, to funkcja f ma wahanie skończone na [a, b].

7.2

Całka Lebesgue’a-Stieltjesa

Fakt 10. Jeśli f ma wahanie skończone na [a, b], to istnieją funkcje nie-
malejące f

1

, f

2

takie, że f

1

(a) = f

2

(a) = 0 oraz f (t) = f (a) + f

1

(t) − f

2

(t).

Co więcej f ma w każdym punkcie granice jednostrone. Ponadto jeśli f jest
ciągła (odp. prawostronnie ciągła), to f

1

i f

2

można wybrać ciągłe (odp.

prawostronnie ciągłe).

Szkic dowodu. Określamy f

1

(t) =

1
2

(Wah

[a,t]

(f ) + f (t) − f (a)) oraz f

2

(t) =

1
2

(Wah

[a,t]

(f ) − f (t) + f (a)).

Definicja 11. Załóżmy, że f jest prawostronnie ciągłą funkcją na [a, b] o
wahaniu skończonym. Niech f

1

i f

2

będą prawostronnie ciągłymi funkcjami

niemalejącymi takimi, że f

1

(a) = f

2

(a) = 0 oraz f (t) = f (a) + f

1

(t)

f

2

(t). Istnieją wtedy skończone miary borelowskie µ

1

i µ

2

na [a, b] takie, że

µ

i

[a, t] = f

i

(t) dla i = 1, 2. Dla ograniczonych funkcji mierzalnych g na [a, b]

określamy całkę Lebesgue’a-Stieltjesa g względem f wzorem

Z

[a,b]

gdf =

Z

gdµ

1

Z

gdµ

2

.

Uwaga 12.

Można wykazać, że dla funkcji ciągłych g całki Riemanna-

Stieltjesa i Lebesgue’a-Stieltjesa g względem f są sobie równe.

37

background image

7.3

Nieskończone wahanie ciągłych martyngałów

Niestety proces Wienera ma z prawdopodobieństwem jeden nieskończone
wahanie na każdym przedziale. Prawdziwy jest znacznie ogólniejszy fakt.

Twierdzenie 13. Załóżmy, że (M

t

)

t∈[a,b]

jest ciągłym martyngałem oraz

A = : M

t

(ω) ma wahanie skończone na [a,b]}. Wówczas M

t

ma z praw-

dopodobieństwem 1 trajektorie stałe na A, tzn.

P(

t∈[a,b]

M

t

1

A

= M

a

1

A

) = 1.

Dowód. Załóżmy najpierw, że istnieje stała C < ∞ taka, że Wah

[a,b]

(M

t

) ¬

C oraz sup

t∈[a,b]

|M

t

| ¬ C. Ustalmy 0 ¬ u ¬ b − a i rozpatrzmy zmienne

losowe

X

n

=

n−1

X

k=0

(M

a+(k+1)u/n

− M

a+ku/n

)

2

.

Zauważmy, że dla s < t,

EM

s

M

t

= EE(M

s

M

t

|F

s

) = E(M

s

E(M

t

|F

s

)) = EM

2

s

,

stąd

EX

n

=

n−1

X

k=0

E(M

2

a+(k+1)u/n

− M

2

a+ku/n

) = EM

2

a+u

EM

2

a

.

Zauważmy, że

|X

n

| ¬

sup

0¬k¬n−1

|M

a+(k+1)u/n

− M

a+ku/n

|

n−1

X

k=0

|M

a+(k+1)u/n

− M

a+ku/n

|

¬

sup

|s−t|¬u/n

|M

t

− M

s

|Wah

[a,b]

(M

t

),

stąd |X

n

| ¬ 2C

2

oraz, z ciągłości M , lim

n→∞

X

n

= 0. Zatem z twierdzenia

Lebesgue’a o zbieżności zmajoryzowanej lim

n→∞

EX

n

= 0, czyli EM

2

a+u

=

EM

2

a

. Zauważmy jednak, że

EM

2

a+u

= EE((M

a

+ (M

a+u

− M

a

))

2

|F

a

)

= EM

2

a

+ E(M

a+u

− M

a

)

2

+ 2E[M

a

E((M

a+u

− M

a

)F

a

)

= EM

2

a

+ E(M

a+u

− M

a

)

2

.

Stąd M

a+u

= M

a

p.n., czyli M

t

= M

a

p.n dla dowolnego t ∈ [a, b]. Z ciągłości

M wynika, że P(

t

M

t

= M

a

) = 1.

38

background image

W przypadku ogólnym zdefiniujmy ciąg czasów zatrzymania

τ

n

= inf{t ­ a : sup

a¬s¬t

|M

s

| ­ n} ∧ inf{t ­ a : Wah

[0,t]

­ n},

wówczas martyngał M

τ

n

spełnia założenia pierwszej części dowodu (z C =

n), więc M

τ

n

ma stałe trajektorie p.n.. Wystarczy zauważyć, że dla ω ∈ A,

τ

n

(ω) = dla dostatecznie dużych n.

8

Całka izometryczna względem procesu Wienera

Podczas kolejnych wykładów zdefiniujemy całkę względem procesu Wienera
- zaczniemy od całkowania funkcji deterministycznych, by później przejść do
konstrukcji izometrycznej całki stochastycznej Ito.

Konstrukcja całki stochastycznej ma pewne podobieństwa do konstruk-

cji całki Lebesgue’a. Najpierw określa się, w naturalny sposób, całki naj-
prostszych funkcji/procesów (funkcje schodkowe, procesy elementarne), póź-
niej pokazuje się własności tak określonej całki (oparte na liczeniu drugich
momentów), które pozwalają uogólnić definicję na bardziej złożone funk-
cje/procesy.

Należy zwrócić uwagę, że całkę stochastyczną definiujemy globalnie na

całej przestrzeni probabilistycznej, a nie dla każdej trajektorii z osobna.

Dla uproszczenia notacji będziemy definiowali całki

R

t

0

X

s

dW

s

. Całkę

R

t

u

X

s

dW

s

dla 0 < u < t można wówczas określić na kilka sposobów - albo

w naturalny sposób uogólniając odpowiednie definicje albo np. jako całkę

R

t

0

X

s

1

[u,∞)

(s)dW

s

.

Będziemy zakładać, że 0 < T ¬ ∞ oraz F

t

jest filtracją spełniającą

zwykłe warunki taką, że W

t

jest F

t

mierzalne oraz W

s

− W

t

jest niezależne

od F

t

dla s ­ t (za F

t

można przyjąć uzupełnienie F

W

t+

).

8.1

Całka Paleya-Wienera

Definiowanie całki stochastycznej względem procesu Wienera zaczniemy od
najprostszego przypadku funkcji deterministycznych.

Dla funkcji schodkowej postaci

h =

k

X

i=1

α

i

1

(t

i−1

,t

i

]

,

0 = t

0

< t

1

< . . . < t

k

= t, α

i

R,

określamy

I(h) =

Z

t

0

h(s) dW

s

:=

k

X

i=1

α

i

(W (t

i

) − W (t

i−1

)).

39

background image

Z podstawowych własności procesu Wienera natychmiast otrzymujemy

następujące własności przekształcenia I:

Fakt 1. Przy powyżej wprowadzonych oznaczeniach mamy
i)
EI(h) = 0,
ii)
EI(h)

2

=

R

t

0

h

2

(s) ds,

iii) I(h) ma rozkład normalny N (0,

R

t

0

h

2

(s) ds),

iii) I(c

1

h

1

+ c

2

h

2

) = c

1

I(h

1

) + c

2

I(h

2

) dla c

1

, c

2

R.

Oznaczając przez E

1

zbiór funkcji schodkowych na [a, b] widzimy, że

przekształcenie I definiuje liniową izometrię L

2

([0, t]) ⊃ E

1

→ L

2

(Ω). Po-

nieważ funkcje schodkowe są gęste w L

2

izometrię w jednoznaczny sposób

możemy rozszerzyć na całe L

2

([0, t]).

Definicja 2. Rozszerzenie powyższej izometrii do izometrii na L

2

([0, t]) na-

zywamy całką Paleya-Wienera z funkcji h i oznaczamy

R

t

0

h(s) dW

s

.

Fakt 3. Dla dowolnej funkcji h ∈ L

2

([0, t]),

i) E(

R

t

0

h(s) dW

s

) = 0,

ii) Var(

R

t

0

h(s) dW

s

) = E(

R

t

0

h(s) dW

s

)

2

=

R

t

0

h

2

(s) ds,

iii)

R

t

0

h(s) dW

s

ma rozkład normalny N (0,

R

t

0

h

2

(s) ds).

Można też udowodnić następujące proste własności całki Paleya-Wienera

Fakt 4. i) Jeżeli h ∈ C

1

([0, t]), to

Z

t

0

h(s) dW

s

= h(t)W

t

Z

t

0

h

0

(s)W

s

ds.

Ponadto dla dowolnego h ∈ L

2

[0, t]

ii) E|

R

t

0

h(s) dW

s

|

p

= E|W

1

|

p

(

R

t

0

h

2

(s) ds)

p/2

oraz
iii)

R

u

0

h(s)dW

s

=

R

t

0

h(s)

1

[0,u]

(s)ds p.n. dla dowolnych 0 < u < t.

8.2

Procesy elementarne

Starając się przenieść konstrukcję Paleya-Wienera na przypadek całki z pro-
cesów, musimy określić stochastyczny odpowiednik funkcji schodkowych - są
to tak zwane procesy elementarne.

Definicja 5. Powiemy, że proces X = (X

t

)

t∈[0,T )

należy do E - rodziny

procesów elementarnych ( elementarnych procesów prognozowalnych), jeśli
X jest postaci

X

t

= ξ

0

1

{0}

+

n

X

k=1

ξ

k−1

1

(t

k−1

,t

k

]

(t),

(2)

40

background image

gdzie 0 = t

0

< t

1

< . . . < t

m

< T , zaś ξ

k

są ograniczonymi zmiennymi

losowymi, F

t

k

-mierzalnymi.

Oczywiście E jest przestrzenią liniową.

Definicja 6. Dla X ∈ E definiujemy proces

I(X) = (I(X)

t

)

t¬T

=

Z

t

0

X

s

dW

s

t¬T

wzorem

I(X)

t

:=

m

X

k=1

ξ

k−1

(W

t

k

∧t

− W

t

k−1

∧t

).

Uwaga 7. Definicja jest poprawna, tzn. nie zależy od reprezentacji X ∈ E .

Fakt 8. Jeśli X jest procesem elementarnym, to I(X) = (

R

t

0

X

s

dW

s

)

t¬T

jest martyngałem względem (F

t

)

0¬t¬T

, o ciągłych trajektoriach takim, że

I(X)

0

= 0 oraz

E



Z

T

0

X

s

dW

s



2

= E

Z

T

0

X

2

s

ds.

Dowód. Przyjmijmy, że X

t

jest postaci (2). Ciągłość trajektorii i I(X)

0

= 0

wynika natychmiast z określenia I(X). Jeżeli t

j

¬ t ¬ t

j+1

, to zmienna

I(X)

t

= ξ

0

(W

t

1

− W

t

0

) + ξ

1

(W

t

2

− W

t

1

) + . . . + ξ

j

(W

t

− W

t

j

)

jest F

t

mierzalna. Ponadto I(X)

t

= I(X)

t

m

dla t

m

¬ t ¬ T .

Sprawdzimy teraz, że I(X) jest martyngałem, czyli dla s < t ¬ T mamy

E(I(X)

t

|F

s

) = I(X)

s

. Wystarczy pokazać to dla t

j

¬ s < t ¬ t

j+1

, ale

wtedy

E(I(X)

t

− I(X)

s

|F

s

) = E(ξ

j

(W

t

− W

s

)|F

s

) = ξ

j

E(W

t

− W

s

|F

s

) = 0,

wykorzystujemy tu założenie, że ξ

j

jest F

t

j

⊂ F

s

mierzalne. By zakończyć

dowód liczymy

EI(X)

2
T

=

m

X

k=1

E[ξ

2

k−1

(W

t

k

− W

t

k−1

)

2

] + 2

X

j<k

E[ξ

k−1

ξ

j−1

(W

t

k

− W

t

k−1

)(W

t

j

− W

t

j−1

)]

= I

1

+ I

2

.

41

background image

Wykorzystując mierzalność ξ

j

oraz niezależność przyrostów procesu Wienera

mamy

I

1

=

X

k

E[ξ

2

k−1

E((W

t

k

−W

t

k−1

)

2

|F

t

k−1

)] =

X

k

Eξ

2

k−1

(t

k

−t

k−1

) = E

Z

T

0

X

2

s

ds

oraz

I

2

= 2

X

j<k

E[(ξ

k−1

ξ

j−1

E((W

t

k

− W

t

k−1

)(W

t

j

− W

t

j−1

)|F

t

k−1

)]

= 2

X

j<k

E[ξ

k−1

ξ

j−1

(W

t

j

− W

t

j−1

)E(W

t

k

− W

t

k−1

|F

t

k−1

)] = 0,

bo E(W

t

k

− W

t

k−1

) = 0.

Uwaga 9.

Jedyne własności procesu Wienera jakie wykorzystywaliśmy

w dowodzie, to E(W

t

− W

s

|F

s

) = 0 oraz E((W

t

− W

s

)

2

|F

s

) = t − s dla

0 ¬ s < t. Własności te można formalnie wyprowadzić z faktu, że procesy
(W

t

) i (W

2

t

− t) są martyngałami względem (F

t

).

8.3

Martyngały ciągłe, całkowalne z kwadratem

Definicja 10. Przez M

2,c
T

oznaczamy przestrzeń martyngałów M = (M

t

)

0¬t¬T

względem filtracji (F

t

)

t∈[0,T ]

o trajektoriach ciągłych takich, że EM

2

T

< ∞.

Uwaga 11. i) Jeśli M ∈ M

2,c
T

, to z nierówności Jensena wynika, że EM

2

t

¬

EM

2

T

< ∞, więc (M

2

t

)

0¬t¬T

jest podmartyngałem.

ii) Przestrzeń M

2,c
T

można utożsamić z przestrzenią martyngałów ciągłych

(M

t

)

0¬t<T

takich, że sup

t<T

EM

2

t

< ∞. Możemy bowiem określić M

T

jako

granicę p.n. M

t

przy t → T (zob. Twierdzenie 6.15 dla p = 2).

iii) Z nierówności Dooba wynika, że dla M = (M

t

) ∈ M

2,c
T

,

E sup

t¬T

M

2

t

¬ 4EM

2

T

.

Fakt 12. Przestrzeń M

2,c
T

jest przestrzenią Hilberta (tzn. zupełną przestrze-

nią euklidesową) z iloczynem skalarnym

(M, N ) = (M, N )

T

= EM

T

N

T

,

M, N ∈ M

2,c
T

oraz normą

kM k

T

=

q

(M, M )

T

=

q

EM

2

T

= kM

T

k

L

2

(Ω)

.

42

background image

Uwaga 13. i) Przy rozważaniach dotyczących całki stochastycznej utoż-
samiamy procesy nieodróżnialne. Formalnie rzecz biorąc elementy M

2,c
T

to

klasy abstrakcji martyngałów ciągłych względem relacji nieodróżnialności.
ii) Przekształcenie M → M

T

jest izometrycznym włożeniem przestrzeni

M

2,c
T

w L

2

(Ω, F , P).

Dowód Faktu. Oczywiście M

2,c
T

jest przestrzenią liniową, zaś (M, N ) jest

iloczynem skalarnym, bo jeśli (M, M ) = 0, to EM

2

T

= 0, czyli M

T

= 0 p.n.,

co z własności martygału implikuje, że M

t

= 0 p.n., więc z ciągłości M ,

P(

t¬T

M

t

= 0) = 1.

Musimy jeszcze udowodnić zupełność. Niech M

(n)

= (M

(n)

t

) ∈ M

2,c
T

będzie ciągiem Cauchy’ego, czyli

kM

(n)

− M

(m)

k

2
T

= E(M

(n)

T

− M

(m)

T

)

2

0

dla m, n → ∞.

Wówczas M

(n)

T

jest ciągiem Cauchy’ego w L

2

(Ω, F

T

, P), zatem z zupełności

L

2

istnieje całkowalna z kwadratem zmienna M

T

taka, że E|M

(n)

T

−M

T

|

2

0

przy n → ∞.

Możemy położyć ˜

M

t

:= E(M

T

|F

t

), ale taka definicja nie gwarantuje

ciągłości ˜

M . Udowodnimy, że można znaleźć martyngał M , który jest ciągłą

modyfikację ˜

M .

Zauważmy, że na mocy nierówności Dooba,

E sup

t¬T

(M

(n)

t

− M

(m)

t

)

2

¬ 4E|M

(n)

T

− M

(m)

T

|

2

,

więc możemy wybrać podciąg n

k

taki, że

l>k

E sup

t¬T

(M

(n

k

)

t

− M

(n

l

)

t

)

2

¬ 8

−k

.

Wówczas

P

sup

t¬T

|M

(n

k

)

t

− M

(n

k+1

)

t

| ­ 2

−k

¬ 2

−k

.

Zatem, jeśli określimy

A

k

:= {sup

t¬T

|M

(n

k

)

t

− M

(n

k+1

)

t

| ­ 2

−k

},

to

P

k

P(A

k

) < ∞, czyli na mocy lematu Borela-Cantelli, P(lim sup A

k

) = 0.

Jeśli ω /

lim sup A

k

, to ω /

∈ A

k

dla k ­ k

0

= k

0

(ω), czyli sup

t¬T

|M

(n

k

)

t

M

(n

k+1

)

t

| ¬ 2

−k

dla k ­ k

0

. Ciąg (M

n

k

t

(ω))

0¬t¬T

jest zatem zbieżny jedno-

stajnie na [0, T ] do pewnej funkcji M

t

(ω). Kładziemy dodatkowo M (ω) = 0

dla ω ∈ lim sup A

k

.

43

background image

Z ciągłości M

(n

k

)

wynika ciągłość M . Ponieważ M

(n

k

)

T

→ M

T

w L

2

więc również w L

1

, czyli M

(n

k

)

t

= E(M

(n

k

)

T

|F

t

) E(M

T

|F

t

) w L

1

, a że

M

(n

k

)

t

→ M

t

p.n., więc M

t

= E(M

T

|F

t

) = ˜

M

t

p.n., czyli (M

t

)

0¬t¬T

jest

martyngałem ciągłym.

8.4

Całka izometryczna Ito. Procesy prognozowalne

Każdemu procesowi elementarnemu X przyporządkowaliśmy martyngał cią-
gły I(X), co więcej przekształcenie I

L

2

([0, T ] × , B([0, T ]) ⊗ F , λ ⊗ P) ←- E

I

−→ M

2,c
T

jest liniową izometrią. Przekształcenie I możemy więc rozszerzyć do liniowej
izometrii (którą też będziemy oznaczać literą I) z E w M

2,c
T

, gdzie E oznacza

domknięcie przestrzeni procesów elementarnych w L

2

([0, T ] × , B([0, T ])

F , λ ⊗ P).

Definicja 14. Tak zdefiniowane przekształcenie I przyporządkowujące każ-
demu procesowi X
= (X

t

)

0¬t¬T

z przestrzeni

E ciągły, całkowalny z kwa-

dratem martyngał I(X) nazywamy izometryczną całką stochastyczną Ito z
procesu X i oznaczamy

I(X)

t

=:

Z

t

0

X

s

dW

s

,

0 ¬ t ¬ T.

Oczywiście natychmiast powstaje pytanie jak wygląda przestrzeń E , czyli

jakie procesy stochastyczne umiemy całkować.

Definicja 15. σ-ciało zbiorów prognozowalnych P, to σ-ciało podzbiorów
[0, T ) × generowane przez zbiory postaci {0} × A, (s, t] × A, s < t < T ,
A ∈ F

s

.

Proces X = (X

t

)

0¬t<T

jest prognozowalny, jeśli traktowany jako funkcja

X : [0, T ) × R jest mierzalny względem P.

Z definicji natychmiast wynika, że X

t

(ω) =

1

A

(ω)

1

(u,v]

(t) jest progno-

zowalny, jeśli A ∈ F

u

oraz u ¬ v < T

Ponieważ każdą ograniczoną zmienną ξ, F

u

–mierzalną można aproksy-

mować jednostajnie przez zmienne postaci

P

a

i

1

A

i

, A

i

∈ F

u

, więc proces

ξ(ω)

1

(u,v]

(t) jest prognozowalny dla dowolnej ograniczonej zmiennej ξ, F

u

mierzalnej. Stąd jest on także prognozowalny dla dowolnej zmiennej ξ nie-
ujemnej F

u

– mierzalnej, a zatem dla dowolnej F

u

–mierzalnej zmiennej ξ.

44

background image

Zatem dowolny proces Y ∈ E jest prognozowalny, czyli E ⊂ L

2

([0, T ) ×

, P, λ ⊗ P), stąd

E ⊂ L

2

([0, T ) × , P, λ ⊗ P).

W szczególności każdy proces z

E jest nieodróznialny od procesu prognozo-

walnego. Okazuje się, że zachodzi również odwrotne zawieranie.

Fakt 16. Mamy E = L

2

([0, T ) × , P, λ ⊗ P).

Dowód. Wobec poprzednich rozważań musimy tylko pokazać, że E ⊃ L

2

([0, T )×

, P, λ ⊗ P). Rozważymy dwa przypadki.

Przypadek I: T < ∞.

Najpierw pokażemy, że jeśli Γ ∈ P, to

1

Γ

∈ E. W tym celu określmy

A := {Γ ∈ P :

1

Γ

∈ E} oraz

B := {{0} × A : A ∈ F

0

} ∪ {(u, v] × A : 0 ¬ u < v < T, A ∈ F

u

}.

Łatwo sprawdzić, że B jest π-układem, ponadto jeśli Γ ∈ B, to

1

Γ

∈ E ⊂ E,

a zatem B ⊂ A. Co więcej A jest λ-układem dla T < ∞, bo
i) Γ = [0, T ) × ∈ A, czyli

1

Γ

= 1

E, gdyż biorąc ciąg T

n

% T ,

otrzymujemy E 3

1

{0

+

1

(0,T

n

]×

=

1

[0,T

n

]×

L

2

−→

1

[0,T )×

∈ E.

ii) Γ

1

, Γ

2

∈ A, Γ

1

Γ

2

,

1

Γ

2

\Γ

1

=

1

Γ

2

1

Γ

1

∈ E z liniowości E, czyli

Γ

2

\ Γ

1

∈ A.

iii) Γ

n

∈ A wstępujący, wówczas

1

Γ

n

L

2

−→

1

S

Γ

n

∈ E, czyli

S

Γ

n

∈ A.

Zatem dla T < ∞, z twierdzenia o π, λ− ukladach A ⊃ σ(B) = P.
Dalej, jeśli Γ

i

∈ P, a

i

R, to

P

n
i
=1

a

i

1

Γ

i

∈ E (z liniowości). Ponadto

funkcje proste

P

i¬n

a

i

1

Γ

i

są gęste w L

2

([0, T ) × , P, λ ⊗ P), czyli E =

L

2

([0, T ) × , P, λ ⊗ P).

Przypadek II: T = .

Niech X ∈ L

2

([0, ∞) × , P, λ ⊗ P) oraz X

(n)

t

(ω) := X

t

(ω)

1

[0,n)×

(t, ω).

Wówczas X

(n)

prognozowalne, należace do L

2

([0, n) × , P, λ ⊗ P), zatem

X

(n)

∈ E na mocy przypadku I.

Ponadto X

(n)

→ X w L

2

([0, ∞) × , λ ⊗ P) (tw. Lebesgue’a o zbieżności

zmajoryzowanej), czyli X ∈

E.

Określiliśmy zatem

R

t

0

X

s

dW

s

dla procesów prognozowalnych całkowal-

nych z kwadratem względem miary λ ⊗ P na [0, T ) × Ω. Od tej pory przyj-
mujemy następujące oznaczenie

L

T
2

= L

2

([0, T ) × , P, λ ⊗ P)

=

n

X = (X

t

)

0¬t<T

prognozowalny : E

Z

T

0

X

2

s

ds < ∞

o

.

45

background image

Dobrze by było jeszcze wiedzieć, że klasa procesów prognozowalnych jest

dostatecznie duża, wynika to z następującego faktu:

Fakt 17. Jeśli X = (X

t

)

t∈[0,T )

jest procesem adaptowalnym i lewostronnie

ciągłym, to X jest prognozowalny.

Dowód. Dla T < ∞ określmy

X

(n)

t

:= X

0

1

{0}

+

2

n

1

X

k=1

X

k−1

2n

T

1

(

k−1

2n

T,

k

2n

T ]

,

zaś w przypadku T = niech

X

(n)

t

:= X

0

1

{0}

+

n2

n

X

k=1

X

k−1

2n

1

(

k−1

2n

,

k

2n

]

.

Łatwo zauważyć, że procesy X

(n)

są prognozowalne oraz z lewostronnej cią-

głości X wynika, że X

(n)

t

→ X

t

punktowo. Prognozowalność X wynika z

faktu, że granica punktowa ciągu funkcji mierzalnych jest mierzalna.

Uwaga 18. Można udowodnić, że dla (F

t

)-adaptowalnego procesu X =

(X

t

)

t∈[0,T )

takiego, że E

R

T

0

X

2

s

ds < ∞ istnieje proces prognozowalny Y taki,

że X

t

(ω) = Y

t

(ω) dla λ ⊗ P prawie wszystkich (t, ω) [0, T ) × Ω. Pozwala

to określić

R

XdW dla procesów adaptowalnych z L

2

([0, T ) × Ω).

9

Własności całki izometrycznej. Uogólnienie de-
finicji całki stochastycznej

9.1

Twierdzenie o zatrzymaniu całki stochastycznej

Zacznijmy od prostej obserwacji.

Fakt 1. Jeśli X ∈ L

2

T

, to dla dowolnego u < T ,

1

[0,u]

X ∈ L

2

T

i

Z

t

0

1

[0,u]

(s)X

s

dW

s

=

Z

t∧u

0

X

s

dW

s

dla 0 ¬ t ¬ T.

Dowód. Funkcja (t, ω)

1

[0,u]

(t) jest deterministyczna, więc prognozowal-

na, zatem proces

1

[0,u]

X jest prognozowalny jako iloczyn procesów progno-

zowalnych, więc

1

[0,u]

X ∈ L

2

T

.

46

background image

Jeśli X jest procesem elementarnym postaci X = ξ

0

1

{0}

+

P

k

ξ

k

1

(t

k−1

,t

k

]

,

to X

1

[0,u]

= ξ

0

1

{0}

+

P

k

ξ

k

1

(t

k−1

∧u,t

k

∧u]

∈ E oraz

Z

t

0

1

[0,u]

(s)X

s

dW

s

=

X

ξ

k

(W

t

k

∧u∧t

− W

t

k−1

∧u∧t

) =

Z

t∧u

0

X

s

dW

s

.

Dla X ∈ L

2

T

weźmy X

(n)

∈ E takie, że X

(n)

→ X w L

2

T

. Wówczas

oczywiście również X

(n)

1

[0,u]

→ X

1

[0,u]

w L

2

T

. Stąd

Z

t

0

X

s

1

[0,u]

(s)dW

s

Z

t

0

X

(n)

s

1

[0,u]

(s)dW

s

=

Z

t∧u

0

X

(n)

s

dW

s

Z

t

0

X

s

dW

s

.

Uogólnieniem faktu jest ważne twierdzenie o zatrzymaniu całki stocha-

stycznej.

Twierdzenie 2. Niech X ∈ L

2

T

oraz τ będzie momentem zatrzymania.

Wówczas

1

[0]

X ∈ L

2

T

oraz

Z

t

0

1

[0]

(s)X

s

dW

s

=

Z

t∧τ

0

X

s

dW

s

dla 0 ¬ t ¬ T.

(3)

Dowód. Biorąc τ ∧ T zamiast T możemy zakładać, że τ ¬ T p.n..

Proces

1

[0]

(t) jest lewostronnie ciągły i adaptowalny, a zatem jest pro-

gnozowalny, czyli

1

[0]

X jest prognozowalny (iloczyn funkcji mierzalnych

jest funkcją mierzalną). Stąd

1

[0]

X ∈ L

2

T

.

Wzór (3) udowodnimy w trzech krokach.

Krok 1. X ∈ E , τ przyjmuje skończenie wiele wartości.

Ewentualnie powiększając ciąg t

i

możemy zakładać, że τ przyjmuje war-

tości 0 = t

0

¬ t

1

¬ . . . ¬ t

m

¬ T oraz X = ξ

0

1

{0}

+

P

m−1
k=0

ξ

k

1

(t

k

,t

k+1

]

.

Mamy

1

[0]

(t) =

m

X

k=0

1

=t

k

}

1

[0,t

k

]

(t) =

m

X

k=0

k−1

X

j=0

1

=t

k

}

1

(t

j

,t

j+1

]

(t)

+

1

=t

k

}

1

{0}

=

1

1

{0}

(t) +

m−1

X

j=0

m

X

k=j+1

1

=t

k

}

1

(t

j

,t

j+1

]

(t)

=

1

1

{0}

(t) +

m−1

X

j=0

1

{τ >t

j

}

1

(t

j

,t

j+1

]

(t),

47

background image

zatem

1

[0]

(t)X = ξ

0

1

{0}

(t) +

m−1

X

j=0

ξ

j

1

{τ >t

j

}

1

(t

j

,t

j+1

]

(t),

czyli

1

[0]

(t)X ∈ E . Liczymy

Z

t

0

1

[0]

(s)X

s

dW

s

=

m−1

X

j=0

ξ

j

1

{τ >t

j

}

(W

t

j+1

∧t

− W

t

j

∧t

)

=

m−1

X

j=0

k−1

X

k=j+1

ξ

j

1

=t

k

}

(W

t

j+1

∧t

− W

t

j

∧t

)

=

m

X

k=1

1

=t

k

}

k−1

X

j=0

ξ

j

(W

t

j+1

∧t

− W

t

j

∧t

)

=

m

X

k=1

1

=t

k

}

Z

t∧t

k

0

X

s

dW

s

=

Z

t∧τ

0

X

s

dW

s

.

Krok 2. τ dowolne oraz X ∈ E .

Weźmy ciąg momentów zatrzymania τ

n

przyjmujących skończenie wiele

wartości taki, że τ

n

& τ . Na mocy kroku 1, para (τ

n

, X) spełnia (3). Z

ciągłości trajektorii całki stochastycznej,

R

t∧τ

n

0

X

s

dW

s

R

t∧τ

0

X

s

dW

s

p.n..

Mamy

E

Z

t

0

1

[0

n

]

(s)X

s

dW

s

Z

t

0

1

[0]

(s)X

s

dW

s

2

= E

Z

t

0

1

(τ,τ

n

]

(s)X

s

dW

s

2

= E

Z

t

0

1

(τ,τ

n

]

(s)X

2

s

ds → 0.

Zbieżność wynika z twierdzenia Lebesgue’a, gdyż proces

1

(τ,τ

n

]

(s)X

2

s

dąży

punktowo do zera i jest majoryzowany przez X

2

s

. Stąd

Z

t∧τ

0

X dW

p.n.

←−

Z

t∧τ

n

0

X dW =

Z

t

0

1

[0

n

]

X dW

L

2

(Ω)

−→

Z

t

0

1

[0]

X dW,

czyli spełnione jest (3).

Krok 3. τ oraz X ∈ L

2

T

dowolne.

Weźmy X

(n)

∈ E takie, że X

(n)

→ X w L

2

T

. Z kroku 2, para (τ, X

(n)

)

spełnia (3). Mamy

E

Z

t∧τ

0

(X

s

− X

(n)

s

) dW

s

2

¬ E

Z

T

0

(X − X

(n)

) dW

2

= E

Z

T

0

(X − X

(n)

s

)

2

ds → 0,

48

background image

gdzie pierwsza nierówność wynika z nierówności Jensena oraz Twierdzenia
Dooba 6.12 dla martyngału (

R

(X − X

(n)

) dW ). Ponadto

E

Z

t

0

1

[0]

(s)(X

s

− X

(n)

s

) dW

s

2

= E

Z

t

0

1

[0]

(s)(X

s

− X

(n)

s

)

2

ds

¬ E

Z

T

0

(X

s

− X

(n)

s

)

2

ds → 0.

Stąd

Z

t∧τ

0

X

s

dW

s

L

2

(Ω)

←−

Z

t∧τ

0

X

(n)

s

dW

s

=

Z

t

0

1

[0]

X

(n)

s

dW

s

L

2

(Ω)

−→

Z

t

0

1

[0]

X

s

dW

s

,

czyli (3) spełnione jest i w tym przypadku.

Wniosek 3. Dla X ∈ L

2

T

, proces M := ((

R

t

0

X dW )

2

R

t

0

X

2

ds)

t¬T

jest

martyngałem.

Dla X ≡ 1 otrzymujemy znany fakt, że W

2

t

− t jest martyngałem.

Dowód wniosku oparty jest na następującej prostej obserwacji.

Fakt 4. Załóżmy, że M jest adaptowalnym, prawostronnie ciągłym proce-
sem takim, że M

0

= 0 i dla wszystkich t, E|M

t

| < ∞. Wówczas M jest

martyngałem wtedy i tylko wtedy gdy EM

τ

= 0 dla wszystkich ograniczonych

momentów zatrzymania τ .

Dowód. ⇒: Z Twierdzenia Dooba 6.12, EM

τ

= EM

0

= 0.

: Musimy pokazać, że dla s < t, E(M

t

|F

s

) = M

s

p.n., czyli EM

t

1

A

=

EM

s

1

A

dla wszystkich A ∈ F

s

. Określmy

τ :=

(

s dla ω ∈ A
t
dla ω 6∈ A.

Jak łatwo sprawdzić τ jest momentem zatrzymania, stąd

0 = EM

τ

= EM

s

1

A

+ EM

t

1

A

c

= EM

s

1

A

EM

t

1

A

,

gdzie ostatnia równość wynika z faktu, że

EM

t

1

A

c

= EM

t

EM

t

1

A

= 0 EM

t

1

A

.

49

background image

Dowód Wniosku. Jak wiemy

R

X dW ∈ M

2,c

T

, czyli M jest ciągły, adapto-

walny i całkowalny oraz M

0

= 0. Dla ograniczonego momentu zatrzymania

τ ¬ T otrzymujemy na mocy twierdzenia o zatrzymaniu całki stochastycznej

E

Z

τ

0

X dW

2

= E

Z

T

0

1

[0]

X dW

2

= E

Z

T

0

1

[0]

(s)X

2

s

ds = E

Z

τ

0

X

2

s

ds.

Zatem

EM

τ

= E

h

Z

τ

0

X dW

2

Z

τ

0

X

2

s

ds

i

= 0.

9.2

Uogólnienie definicji całki stochastycznej

Definicja 5. Dla T ¬ ∞ określamy przestrzeń procesów prognozowalnych,
lokalnie całkowalnych z kwadratem

Λ

2
T

=

n

(X

t

)

t<T

− prognozowalny :

Z

t

0

X

2

s

ds < ∞ p.n. dla 0 < t < T

o

.

Zatem proces prognozowalny X należy do przestrzeni Λ

2

T

wtedy i tylko

wtedy, gdy

P

t<T

Z

t

0

X

2

s

ds < ∞

= 1.

Przestrzeń Λ

2

T

jest liniowa, ale nie jest przestrzenią Hilberta. Na Λ

2

T

moż-

na wprowadzić metrykę przestrzeni Frecheta generowaną przez ciąg metryk
euklidesowych.

Definicja 6. Jeśli X = (X

t

)

t∈I

jest procesem stochastycznym, a τ mo-

mentem zatrzymania, to X

τ

= (X

τ

t

)

t∈I

- proces X zatrzymany w chwili τ

definiujemy wzorem

X

τ

t

:= X

t∧τ

.

Lemat 7. Dla X ∈ Λ

2

T

określmy

τ

n

:= inf

n

t ­ 0 :

Z

t

0

X

2

s

ds ­ n

o

∧ T ∧ n, n = 1, 2, . . . .

Wówczas (τ

n

) jest rosnącym ciagiem momentów zatrzymania, τ

n

% T p.n.

Ponadto dla wszystkich n,

1

[0

n

]

X ∈ L

2

T

.

50

background image

Dowód. τ

n

jest momentem zatrzymania jako moment dojścia przez adapto-

walny proces ciągły

R

t

0

X

2

s

ds do zbioru domkniętego [n, ∞). Z założenia o

skończoności

R

X

2

s

ds wynika, że τ

n

% T p.n..

Proces

1

[0

n

]

X jest prognozowalny jako iloczyn procesów prognozowal-

nych, ponadto na mocy nierówności Schwarza i definicji τ

n

,

E

Z

T

0

1

[0

n

]

(s)X

s

ds

2

= E

Z

τ

n

0

X

s

ds

2

¬ E

h

τ

n

Z

τ

n

0

X

2

s

ds

i

¬ n

2

< ∞.

Załóżmy, że mamy dany rosnący ciąg momentów zatrzymania τ

n

% T

p.n. taki, że

1

[0

n

]

X ∈ L

2

T

dla wszystkich n. Niech M

n

(t) :=

R

t

0

1

[0

n

]

X dW .

Lemat 8. Dla m ­ n, procesy M

τ

n

m

i M

n

są nierozróżnialne, czyli

P(

t¬T

, M

m

(t ∧ τ

n

) = M

n

(t)) = 1.

Dowód. Na mocy twierdzenia o zatrzymaniu całki stochastycznej dla usta-
lonego t ¬ T ,

M

m

(τ

n

∧ t) =

Z

τ

n

∧t

0

1

[0

m

]

X dW =

Z

t

0

1

[0

n

]

1

[0

m

]

X dW

=

Z

t

0

1

[0

n

]

X dW = M

n

(t).

Zatem M

τ

m

jest modyfikacją M

n

. Teza lematu wynika z ciągłości obu proce-

sów.

Definicja 9. Niech X ∈ Λ

2

T

oraz τ

n

będzie rosnącym do T ciągiem momen-

tów zatrzymania takich, że

1

[0

n

]

X ∈ L

2

T

dla wszystkich n. Całką stocha-

styczną

R

X dW dla X ∈ Λ

2

T

oznaczamy taki proces (M

t

)

t<T

= (

R

t

0

X dW )

t<T

,

że M

τ

n

t

=

R

t∧τ

n

0

X dW =

R

t

0

1

[0

n

]

X dW dla n = 1, 2, . . ..

Fakt 10. Proces M zdefiniowany powyżej jest jest ciągły i jednoznacznie
określony w klasie procesów nieodróżnialnych.

Dowód. Na mocy Lematu 8 dla każdego m > n istnieje zbiór N

n,m

taki,

że P(N

n,m

) = 0 oraz dla ω 6∈ N

n,m

zachodzi M

n

(t, ω) = M

m

(t ∧ τ

n

(ω), ω)

dla wszystkich t < T . Niech N :=

S

m>n

N

n,m

, wówczas P(N ) = 0 oraz dla

ω /

∈ N , t ¬ τ

n

(ω) ciąg (M

m

(t, ω))

m­n

jest stały. Zatem możemy (i musimy)

położyć M (t, ω) := M

n

(t, ω) dla t ¬ τ

n

(ω).

51

background image

Fakt 11. Definicja

R

X dW nie zależy od wyboru ciągu τ

n

dla X ∈ Λ

2

T

.

Dokładniej, jeśli τ

n

,

τ

n

- momenty zatrzymania, τ

n

% T , τ

n

% T ,

1

[0

n

]

X ∈

L

2

T

i

1

[0

n

]

X ∈ L

2

T

oraz M,

M zdefiniowane za pomocą τ

n

, τ

n

odpowiednio,

to procesy M i M są nierozróżnialne.

Dowód. Mamy

M

t∧τ

n

=

Z

t

0

1

[0

n

]

X dW,

M

t∧τ

n

=

Z

t

0

1

[0,

τ ]

X dW.

Na mocy twierdzenia o zatrzymaniu całki stochastycznej,

M

t∧τ

n

∧τ

n

=

Z

t

0

1

[0

n

]

1

[0,

τ

n

]

X dW = M

t∧τ

n

∧τ

n

.

Ponadto τ

n

∧ τ

n

% T , więc t ∧ τ

n

∧ τ

n

= t dla n ­ n(ω) i stąd M

t

= M

t

p.n., a że są to procesy ciągłe, to są nierozróżnialne.

Definicja 12. Jeżeli dla procesu adaptowalnego M = (M

t

)

t<T

, istnieje ciąg

momentów zatrzymania τ

n

% T taki, że M

τ

n

jest martyngałem, to M na-

zywamy martyngałem lokalnym. Jeśli dodatkowo M

τ

n

∈ M

2,c
T

, to mówimy,

że M jest ciągłym martyngałem lokalnym całkowalnym z kwadratem. Kla-
sę takich procesów oznaczamy M

2,c
T ,
loc

(M

2,c
loc

jeśli wartość T jest jasna z

kontekstu).

Uwaga 13. M ∈ M

c
T ,
loc

wtedy i tylko wtedy, gdy M − M

0

∈ M

2,c
T ,
loc

, gdzie

M

c
T ,
loc

oznacza rodzinę ciągłych martyngałów lokalnych.

Fakt 14. Załóżmy, że M =

R

XdW dla X ∈ Λ

T

2

. Wówczas

i) M jest procesem ciągłym, M

0

= 0,

ii) M ∈ M

2,c
T ,
loc

,

iii) Przekształcenie X →

R

XdW jest liniowe.

Dowód. Punkty i), ii) wynikają z definicji. By udowodnić iii) weźmy X, Y ∈
Λ

2

T

Istnieją wówczas momenty zatrzymania τ

n

% T i τ

n

% T takie, że

1

[0

n

]

X ∈ L

2

T

oraz

1

[0

n

]

Y ∈ L

2

T

. Przyjmując σ

n

:= τ

n

∧ τ

n

% T otrzymu-

jemy

1

[0

n

]

X,

1

[0

n

]

Y ∈ L

2

T

, a zatem

1

[0

n

]

(aX + bY ) ∈ L

2

T

dla dowolnych

a, b ∈ R. Stąd na mocy definicji otrzymujemy, że

R

t∧σ

n

0

(aX + bY ) dW =

a

R

t∧σ

n

0

X dW + b

R

t∧σ

n

0

Y dW i biorąc granicę n → ∞,

R

(aX + bY ) dW =

a

R

XdW + b

R

Y dW.

Sformułujemy teraz uogólnienie twierdzenia o zatrzymaniu całki stocha-

stycznej.

52

background image

Fakt 15. Jeśli X ∈ Λ

2

T

, to dla dowolnego momentu zatrzymania τ ,

1

[0]

X ∈

Λ

2

T

oraz

Z

t∧τ

0

X dW =

Z

t

0

1

[0]

X dW.

Dowód. Proces

1

[0]

X jest prognozowalny jako iloczyn procesów prognozo-

walnych i majoryzowany przez X, stąd

1

[0]

X ∈ Λ

2

T

. Proces X ∈ Λ

2

T

, więc

istnieje ciąg τ

n

% T taki, że

1

[0

n

]

X ∈ L

2

T

. Wtedy też

1

[0

n

]

1

[0]

X ∈ L

2

T

.

Niech

M :=

Z

X dW,

N :=

Z

1

[0]

X dW.

Na mocy definicji,

M

t∧τ

n

=

Z

t

0

1

[0

n

]

X, dW,

N

t∧τ

n

=

Z

t

0

1

[0

n

]

1

[0]

X dW.

Z udowodnionego wcześniej twierdzenia 2 o zatrzymaniu całki izometrycznej,

M

t∧τ ∧τ

n

=

Z

t

0

1

[0]

1

[0

n

]

X dW = N

t∧τ

n

.

Biorąc n → ∞ dostajemy M

τ

t

= M

t∧τ

= N

t

, czyli M

τ

= N .

Uwaga 16. Martyngał lokalny M =

R

X dW dla X ∈ Λ

2

T

nie musi być

martyngałem, M

t

nie musi być nawet całkowalne. Ale, jeśli E

R

t

0

X

2

s

ds < ∞

dla wszystkich t < T , to M jest martyngałem, bo możemy przyjąć τ

n

= t

n

,

gdzie t

n

jest ciągiem rosnącym zbieżnym do T i wtedy M

t∧τ

n

= M

t∧t

n

M

2,c
T

.

Mimo, że w przypadku ogólnym

R

X dW nie musi być martyngałem, to

zachodzi dla tego procesu nierówność Dooba.

Twierdzenie 17 (Nierówność Dooba). Dla dowolnego procesu X ∈ Λ

T

2

oraz

momentu zatrzymania τ ¬ T ,

E sup

t<τ

Z

t

0

X dW

2

¬ 4E

Z

τ

0

X

2

s

ds.

Dowód. Weźmy τ

n

% T takie, że

1

[0

n

]

X ∈ L

2

T

. Mamy

E sup

t<τ

Z

t∧τ

n

0

X dW

2

= E sup

t<τ

Z

t

0

1

[0

n

]

X dW

2

= E sup

t<T

Z

t∧τ

0

1

[0

n

]

X dW

2

= E sup

t¬T

Z

t

0

1

[0]

1

[0

n

]

X dW

2

53

background image

(

1

[0]

1

[0

n

]

X ∈ M

2,c
T

, więc t < T można zamienić na t ¬ T ). Na mocy

nierówności Dooba dla martyngałów,

E sup

t¬T

Z

t

0

1

[0,T ]

1

[0

n

]

X dW

2

¬ 4E

Z

T

0

1

[0]

1

[0

n

]

X dW

2

= 4E

Z

T

0

(

1

[0]

1

[0

n

]

X

s

)

2

ds = 4E

Z

τ ∧τ

n

0

X

2

s

ds ¬ 4E

Z

τ

0

X

2

s

ds.

Wykazaliśmy zatem, że

E sup

t<τ

Z

t∧τ

n

0

X dW

2

¬ 4E

Z

τ

0

X

2

s

ds.

Ponieważ

sup

t<τ

Z

t∧τ

n

0

X dW

2

= sup

t<τ ∧τ

n

Z

t

0

X dW

2

% sup

t<τ

Z

t

0

X dW

2

,

więc teza wynika z twierdzenia Lebesgue’a o zbieżności monotonicznej.

10

Całka względem ciągłych martyngałów

Podczas wcześniejszych wykładów zdefiniowaliśmy całkę

R

XdW . Okazuje

się, że bez większych trudności definicję tę daje się uogólnić na

R

XdM , gdzie

M jest ciągłym martyngałem (a nawet ciągłym martyngałem lokalnym).

Podczas tego i kolejnych wykładów zakładamy, że T ¬ ∞ oraz (F

t

)

t∈[0,T ]

jest filtracją spełniającą zwykłe warunki.

10.1

Rozkład Dooba-Meyera

Podstawą konstrukcji całki stochastycznej względem procesu Wienera jest
to, że W

t

i W

2

t

− t są martyngałami. Okazuje się, że dla dowolnego całkowal-

nego z kwadratem ciągłego martyngału M znajdzie się proces niemalejący
X taki, że M

2

− X jest martyngałem.

Twierdzenie 1 (rozkład Dooba-Meyera). Dla M ∈ M

2,c
T

istnieje pro-

ces hM i = (hM i

t

)

0¬t¬T

o trajektoriach ciągłych, niemalejących taki, że

hM i

0

= 0 oraz (M

2

t

− hM i

t

)

0¬t¬T

jest martyngałem. Co więcej proces hM i

jest wyznaczony jednoznacznie.

Udowodnimy jednoznaczność rozkładu, dowód istnienia znajduje się w

Dodatku B.

54

background image

Dowód Jednoznaczności. Załóżmy, że M

2

t

− Y

t

i M

2

t

− Z

t

dwa martyngały

o ciągłych trajektoriach oraz Y

t

, Z

t

niemalejące, ciągłe. Trajektorie procesu

Y

t

−Z

t

mają wahanie skończone, ponadto Y

t

−Z

t

= (M

2

t

−Z

t

)(M

2

t

−Y

t

) jest

martyngałem ciągłym. Stąd, na podstawie twierdzenia 7.13 Y − Z ≡ 0.

Przykłady.

Dla procesu Wienera hW i

t

= t.

Ogólniej, Wniosek 3 implikuje, że h

R

X

s

dW

s

i

t

=

R

t

0

X

2

s

ds dla X ∈ L

2

T

.

10.2

Całka izometryczna

Ponieważ dla wszystkich ω, t → hM i

t

(ω) jest niemalejące, zatem ma wa-

hanie skończone, czyli można określić skończoną miarę dhM i

t

(ω) na [0, T ].

Z uwagi na ciągłość hM i miara ta jest bezatomowa. Następna definicja jest
naturalnym uogólnieniem definicji dla procesu Wienera.

Definicja 2. Dla procesu elementarnego X postaci

X = ξ

0

1

{0}

+

m−1

X

k=0

ξ

k

1

(t

k

,t

k+1

]

,

gdzie 0 = t

0

¬ t

1

¬ t

2

¬ . . . ¬ t

m

< T , ξ

k

ograniczone, F

t

k

- mierzalne oraz

M ∈ M

2,c
T

określamy

Z

t

0

X dM :=

m−1

X

k=0

ξ

k

(M

t

k+1

∧t

− M

t

k

∧t

) dla 0 ¬ t ¬ T.

Definiujemy też dla M ∈ M

2,c
T

L

2
T

(M ) =

n

X = (X

t

)

t<T

prognozowalne takie, że E

Z

T

0

X

2

s

dhM i

s

< ∞

o

.

Fakt 3. Niech M ∈ M

2,c

oraz X ∈ E . Wówczas I(X) :=

R

X dM ∈ M

2,c
T

,

I(X)

0

= 0 oraz

kI(X)k

2
T

= E

Z

T

0

X

s

dM

s

2

= E

Z

T

0

X

2

s

dhM i

s

= kXk

2
L

2
T

(M )

.

Dowód. Ciągłość I(X), warunek I(X)

0

= 0 oraz to, że I(X)

t

∈ L

2

dla

wszystkich t są oczywiste. Dla t

j

¬ t ¬ t

j+1

mamy

I(X)

t

= ξ

0

(M

t

1

− M

t

0

) + ξ

1

(M

t

2

− M

t

1

) + . . . + ξ

j

(M

t

− M

t

j

).

55

background image

Dla t

j

¬ t ¬ s ¬ t

j+1

otrzymujemy zatem

E(I(X)

s

|F

t

) − I(X)

t

= E(ξ

j

(M

s

− M

t

)|F

t

) = ξ

j

(E(M

s

|F

t

) − M

t

) = 0,

czyli I(X) jest martyngałem. Ponadto

EI(X)

2
T

=

m−1

X

k=0

E[ξ

2

k

(M

t

k+1

− M

t

k

)

2

]

+ 2

X

j<k

E[ξ

k−1

ξ

j−1

(M

t

k

− M

t

k−1

)(M

t

j

− M

t

j−1

)] = I + II.

Zauważmy, że dla s < t,

E((M

t

− M

s

)

2

|F

s

) = E(M

2

t

− hM i

t

|F

s

) + E(hM i

t

|F

s

) 2M

s

E(M

t

|F

s

) + M

2

s

= M

2

s

− hM i

s

+ E(hM i

t

|F

s

) − M

2

s

= E(hM i

t

− hM i

s

|F

s

).

Stąd

I =

X

k

E[ξ

2

k

E((M

t

k+1

− M

t

k

)

2

|F

t

k

)] =

X

k

E[ξ

2

k

E(hM i

t

k+1

− hM i

t

k

|F

t

k

)]

= E

X

k

ξ

2

k

(hM i

t

k+1

− hM i

t

k

) = E

X

k

Z

t

k+1

t

k

ξ

2

k

dhM i

s

= E

Z

T

0

X

2

s

dhM i

s

.

Ponadto

II = 2

X

j<k

E[ξ

k−1

ξ

j−1

(M

t

j

− M

t

j−1

)E(M

t

k

− M

t

k−1

|F

t

k−1

)] = 0.

Tak jak dla procesu Wienera dowodzimy, że domknięcie E w przestrzeni

L

2

([0, T ) × , dhM i ⊗ P) jest równe E = L

2

T

(M ). Izometrię I(X) możemy

przedłużyć do E , w ten sposób otrzymujemy izometryczną definicję całki
I(X) =

R

X dM dla X ∈ L

2

T

(M ). Mamy zatem następujący fakt.

Fakt 4. Niech M ∈ M

2,c
T

. Wówczas

a) Dla X ∈ L

2

T

(M ) proces

R

XdM ∈ M

2,c
T

oraz



Z

XdM



2

M

2,c
T

= E

Z

T

0

X

s

dM

s

2

= E

Z

T

0

X

2

s

dhM i

s

= kXk

L

2
T

(M )

.

b) Jeśli X, Y ∈ L

2

T

(M ), to aX + bY ∈ L

2

T

(M ) dla a, b ∈ R oraz

R

(aX +

bY )dM = a

R

XdM + b

R

Y dM .

56

background image

10.3

Uogólnienie definicji całki

Zacznijmy od prostego faktu.

Fakt 5. Załóżmy, że M ∈ M

2,c
T

, wówczas dla dowolnego momentu zatrzy-

mania τ , M

τ

∈ M

2,c
T

oraz hM

τ

i = hM i

τ

.

Dowód. Wiemy, że M

τ

jest ciągłym martyngałem. Na mocy nierówności

Jensena

E|M

τ

T

|

2

= EM

2

τ ∧T

= E[E(M

T

|F

τ ∧T

)]

2

¬ EM

2

T

,

zatem M

τ

∈ M

2,c
T

. Proces hM i

τ

startuje z zera, ma trajektorie ciągłe, po-

nadto (M

τ

)

2

− hM i

τ

= (M

2

− hM i)

τ

jest martyngałem, więc hM i

τ

spełnia

wszystkie warunki definicji hM

τ

i.

Możemy uogólnić rozkład Dooba-Meyera na przypadek ciągłych martyn-

gałów lokalnych.

Wniosek 6. Załóżmy, że M ∈ M

c
loc

, wówczas istnieje dokładnie jeden

proces hM i = (hM i

t

)

0¬t<T

o trajektoriach ciągłych, niemalejących taki, że

hM i

0

= 0 oraz M

2

− hM i ∈ M

c
loc

.

Dowód.

Istnienie. Niech τ

n

będzie rosnącym do T ciągiem momentów

zatrzymania takim, że M

τ

n

∈ M

2,c
T

. Określmy Y

n

:= hM

τ

n

i, wówczas dla

n ¬ m

Y

τ

n

m

= hM

τ

m

i

τ

n

= h(M

τ

m

)

τ

n

i = hM

τ

n

∧τ

m

i = hM

τ

n

i = Y

n

.

Stąd istnieje proces ciągły Y = (Y

t

)

0¬t<T

taki, że Y

τ

n

= Y

n

, oczywiście

Y

0

= Y

n,0

= 0, ponadto Y ma trajektorie niemalejące oraz

(M

2

− Y )

τ

n

= (M

τ

n

)

2

− Y

τ

n

= (M

τ

n

)

2

− hM

τ

n

i ∈ M

c

,

zatem M

2

− Y jest ciągłym martyngałem lokalnym na [0, T ).

Jednoznaczność. Niech Y i ¯

Y procesy ciągłe o niemalejących trajek-

toriach takie, że Y

0

= ¯

Y

0

= 0 oraz M

2

− Y i M

2

¯

Y są martyngałami

lokalnymi. Wówczas istnieją momenty zatrzymania τ

n

% T i ¯

τ

n

% T takie,

że (M

2

− Y )

τ

n

oraz (M

2

¯

Y )

¯

τ

n

są martyngałami. Biorąc σ

n

= τ

n

¯

τ

n

% T

dostajemy martyngały (M

2

− Y )

σ

n

= ((M

2

− Y )

τ

n

)

¯

τ

n

oraz (M

2

¯

Y )

σ

n

=

((M

2

¯

Y )

¯

τ

n

)

τ

n

, proces (Y − ¯

Y )

σ

n

jest więc martyngałem o ograniczonym

wahaniu, czyli jest stały, zatem Y

σ

n

= ¯

Y

σ

n

. Przechodząc z n → ∞ otrzy-

mujemy Y = ¯

Y .

Podbnie jak dla procesu Wienera dowodzimy twierdzenie o zatrzymaniu

całki stochastycznej względem martyngałów całkowalnych z kwadratem.

57

background image

Twierdzenie 7. Załóżmy, że M ∈ M

2,c
T

, X ∈ L

2

T

(M ) oraz τ będzie mo-

mentem zatrzymania. Wówczas

1

[0]

X ∈ L

2

T

(M ), X ∈ L

2

T

(M

τ

) oraz

Z

t

0

1

[0]

(s)X

s

dM

s

=

Z

t∧τ

0

X

s

dM

s

=

Z

t

0

X

s

dM

τ

s

dla 0 ¬ t ¬ T.

Definicja 8. Dla T ¬ ∞, M ∈ M

c
loc

określamy przestrzeń procesów pro-

gnozowalnych, lokalnie całkowalnych z kwadratem względem hM i

Λ

2
T

(M ) =

n

(X

t

)

t<T

− prognozowalny :

Z

t

0

X

2

s

dhM i

s

< ∞ p.n. dla t < T

o

.

Ponieważ

R

XdM =

R

Xd(M − M

0

) oraz hM − M

0

i = hM i, więc bez

straty ogólności przy uogólnianiu definicji całki będziemy zakładać, że M

0

=

0.

Definicja 9. Niech M = (M

t

)

t<T

∈ M

c
loc

, M

0

= 0, X = (X

t

)

t<T

Λ

2

T

(M ) oraz τ

n

będzie rosnącym do T ciągiem momentów zatrzymania ta-

kich, że M

τ

n

∈ M

2,c
T

i

1

[0

n

]

X ∈ L

2

T

(M

τ

n

) dla wszystkich n. Całką stocha-

styczną

R

X dM nazywamy taki proces (N

t

)

t<T

= (

R

t

0

X dM )

t<T

, że N

τ

n

t

=

R

t

0

1

[0

n

]

X dM

τ

n

dla n = 1, 2, . . ..

Nietrudno udowodnić (naśladując dowód dla całki względem procesu

Wienera), że całka

R

X dM dla M ∈ M

c
loc

i X ∈ Λ

2

T

(M ) jest zdefiniowana

poprawnie i jednoznacznie (z dokładnością do nieodróżnialności procesów)
oraz nie zależy od wyboru ciągu momentów zatrzymania τ

n

.

Następujący fakt przedstawia podstawowe własności

R

XdM .

Fakt 10. Niech M, N ∈ M

c
loc

. Wówczas

a) Dla X ∈ Λ

2

T

(M ) proces

R

XdM ∈ M

c
loc

.

b) Jeśli X, Y ∈ Λ

2

T

(M ), to aX + bY ∈ Λ

2

T

(M ) dla a, b ∈ R oraz

R

(aX +

bY )dM = a

R

XdM + b

R

Y dM .

c) Jeśli X ∈ Λ

2

T

(M ) Λ

2

T

(N ) oraz a, b ∈ R, to X ∈ Λ

2

T

(aM + bN ) oraz

R

Xd(aM + bN ) = a

R

XdM + b

R

XdN .

Można również sformułować twierdzenie o zatrzymaniu całki stocha-

stycznej w ogólnym przypadku.

Twierdzenie 11. Załóżmy, że M ∈ M

c
loc

, X ∈ Λ

2

T

(M ) oraz τ będzie mo-

mentem zatrzymania. Wówczas

1

[0]

X ∈ Λ

2

T

(M ), X ∈ Λ

2

T

(M

τ

) oraz

Z

t

0

1

[0]

(s) dM

s

=

Z

t∧τ

0

X

s

dM

s

=

Z

t

0

X

s

dM

τ

s

dla 0 ¬ t < T.

58

background image

11

Własności nawiasu skośnego

Podczas tego wykładu zajmiemy się interpretacją procesu hM i.

Niech Π = (t

0

, t

1

, . . . , t

k

) będzie podziałem [0, t] takim, że 0 = t

0

¬ t

1

¬

. . . ¬ t

k

= t. Definiujemy wówczas

V

M

Π,t

:=

k

X

i=1

(M

t

i

− M

t

i−1

)

2

.

Będziemy też czasem pisać V

Π,t

(M ) zamiast V

M

Π,t

. Pokażemy, że hM i

t

jest

granicą V

M

Π,t

przy diam(Π) 0, dlatego też hM i nazywa się często wariacją

kwadratową M .

Zacznijmy od najprostszej sytuacji martyngałów ograniczonych, tzn. ta-

kich, że sup

t

kM

t

k

< ∞.

Twierdzenie 1. Załóżmy, że M jest ograniczonym martyngałem ciągłym
Wówczas V

M

Π,t

→ hM i

t

w L

2

(Ω) dla t ¬ T , gdy diam(Π) 0.

Dowód. Możemy założyć, rozpatrując zamiast M proces M −M

0

, że M

0

= 0,

bo V

Π,t

(M − M

0

) = V

Π,t

(M ) oraz hM − M

0

i = hM i ((M − M

0

)

2

− hM i =

(M

2

− hM i) 2M M

0

+ M

2

0

jest martyngałem, czyli, z jednoznaczności h·i,

mamy hM − M

0

i = hM i).

Niech Π

n

= (0 = t

(n)
0

¬ t

(n)
1

¬ . . . ¬ t

(n)
k

n

= t) będzie ciągiem podziałów

[0, t] takim, że diam(Π

n

) 0.

Połóżmy C = sup

s¬T

kM

s

k

. Liczymy

M

2

t

=

k

n

X

k=1

(M

t

(n)
k

− M

t

(n)
k−1

)

2

=

X

k

(M

t

(n)
k

− M

t

(n)
k−1

)

2

+ 2

X

k<j

(M

t

(n)
k

− M

t

(n)
k−1

)(M

t

(n)
j

− M

t

(n)
j−1

)

= V

M

Π

n

,t

+ 2

X

j

(M

t

(n)
j

− M

t

(n)
j−1

)M

t

(n)
j−1

= V

M

Π

n

,t

+ 2N

n

(t).

Niech

X

n

(s) :=

k

n

X

j=1

M

t

(n)
j−1

1

(t

(n)
j−1

,t

(n)
j

]

∈ E,

wówczas N

n

(t) =

R

t

0

X

n

(s) dM

s

. Z ciągłości M dostajemy X

n

(s) → M

s

dla

wszystkich s ¬ t. Ponadto |X

n

| ¬ C, stąd |X

n

− M |

2

¬ 4C

2

i na mocy

twierdzenia Lebesgue’a o zbieżności zmajoryzowanej,

E

Z

t

0

|X

n

− M |

2

dhM i

s

0.

59

background image

Zatem X

n

→ M w L

2

t

(M ), czyli N

n

R

M dM w M

2,c
t

, to znaczy N

n

(t)

R

t

0

M

s

dM

s

w L

2

(Ω). Wykazaliśmy zatem, iż

V

M

Π

n

,t

= M

2

t

2N

n

(t) → M

2

t

2

Z

M dM w L

2

(Ω).

Proces Y := M

2

2

R

M dM jest ciągły, Y

0

= 0 oraz M

2

−Y = 2

R

M dM jest

martyngałem. By zakończyć dowód, że Y = hM i musimy wykazać monoto-
niczność trajektorii Y . Wybierzmy s < t i rozpatrzmy taki ciąg podziałów
Π

n

odcinka [0, t], że s jest jednym z punktów każdego z podziałów. Wówczas

Π

n

można też traktować jako ciąg podziałów [0, s] i określić V

M

Π

n

,s

. Mamy

Y

s

L

2

←− V

M

Π

n

,s

¬ V

M

Π

n

,t

L

2

−→ Y

t

,

czyli proces Y ma trajektorie monotoniczne.

Uwaga 2. W szczególności przedstawiony dowód pokazuje, że dla martyn-
gału jednostajnie ograniczonego M , takiego, że M

0

= 0, zachodzi M

2

=

2

R

M dM + hM i.

By uogólnić Twierdzenie 1 na przypadek martyngałów całkowalnych z

kwadratem będziemy potrzebowali dwóch faktów.

Lemat 3. Niech (ξ

n

) będzie ciągiem zmiennych losowych, a (A

k

) wstępu-

jącym ciągiem zdarzeń takim, że P(

S

A

k

) = 1. Załóżmy, że dla wszystkich

k, zmienne ξ

n

1

A

k

zbiegają według prawdopodobieństwa (przy n → ∞) do

zmiennej η

k

. Wówczas ξ

n

zbiega według prawdopodobieństwa do zmiennej η

takiej, że η

1

A

k

= η

k

p.n. dla k = 1, 2, . . ..

Dowód. Dla k ¬ l mamy η

l

1

A

k

= η

k

p.n., gdyż pewien podciąg ξ

n

s

1

A

l

→ η

l

p.n., a zatem ξ

n

s

1

A

l

= ξ

n

s

1

A

l

1

A

k

→ η

l

1

A

k

p.n. (czyli również wg P). Stąd

istnieje zmienna losowa η taka, że η

1

A

k

= η

k

p.n..

Zauważmy, że P(A

c
k

) ¬ ε/2 dla dużego k oraz przy ustalonym k, P(

n

1

A

k

η

k

| ­ ε) ¬ ε/2 dla dużych n, stąd

P(

n

− η| ­ ε) ¬ P(A

c
k

) + P(

n

1

A

k

− η

1

A

k

| ­ ε) ¬ ε

dla dostatecznie dużych n.

Kolejny lemat pokazuje, że przy pewnych prostych założeniach można

ze zbieżności według prawdopodobieństwa wyprowadzić zbieżność w L

1

.

Lemat 4. Załóżmy, że ξ

n

­ 0, ξ

n

→ ξ według P oraz dla wszystkich n,

Eξ

n

= Eξ < ∞. Wówczas ξ

n

→ ξ w L

1

.

60

background image

Dowód. Mamy

E|ξ − ξ

n

| = E(|ξ − ξ

n

| − (ξ − ξ

n

)) = 2E(ξ − ξ

n

)

1

{ξ­ξ

n

}

¬

ε

2

+ 2E(ξ − ξ

n

)

1

{ξ­ξ

n

+

ε
4

}

¬

ε

2

+ 2Eξ1

{ξ­ξ

n

+

ε
4

}

.

Na mocy zbieżności według prawdopodobieństwa, lim

n→∞

P(ξ ­ ξ

n

+ε/4) =

0. Ponadto E|ξ| = Eξ < ∞, zatem {ξ} jest jednostajnie całkowalna , czyli
|Eξ1

A

| ¬ ε/2 dla odpowiednio małego P(A). Stąd Eξ1

{ξ­ξ

n

+ε/4}

¬ ε/2 dla

dużych n, a więc E|ξ − ξ

n

| ¬ ε.

Twierdzenie 5. Załóżmy, że M ∈ M

2,c
T

, wówczas dla t < T , V

M

Π,t

→ hM i

t

w L

1

(Ω), gdy diam(Π) 0.

Dowód. Jak poprzednio możemy zakładać, że M

0

= 0. Ustalmy ciąg podzia-

łów Π

n

taki, że diam(Π

n

) 0.

Istnieje ciąg momentów zatrzymania τ

k

% T taki, że M

τ

k

jest jednostaj-

nie ograniczony (np. τ

k

= inf{t : |M

t

| ¬ k}). Na mocy Twierdzenia 1, dla

ustalonego k, mamy przy n → ∞

V

Π

n

,t

(M

τ

k

)

L

2

−→ hM

τ

k

i

t

= hM i

τ

k

t

.

Stąd

1

{t¬τ

k

}

V

Π

n

,t

(M ) =

1

{t¬τ

k

}

V

Π

n

,t

(M

τ

k

)

L

2

−→

1

{t¬τ

k

}

hM i

τ

k

t

=

1

{t¬τ

k

}

hM i

t

.

Zbieżność w L

2

implikuje zbieżność według prawdopodobieństwa, zatem mo-

żemy stosować Lemat 3 do ξ

n

= V

Π

n

,t

(M ) i A

k

= {t ¬ τ

k

}, by otrzymać

V

Π

n

,t

(M ) → hM i

t

według P. Mamy jednak

EhM i

t

= EM

2

t

= E[V

Π

n

,t

(M ) + 2

X

j

M

t

(n)
j−1

(M

t

(n)
j

− M

t

(n)
j−1

)] = EV

Π

n

,t

(M ),

a zatem na mocy Lematu 4, V

Π

n

,t

(M ) → hM i

t

w L

1

.

Dla martyngałów lokalnych zachodzi zbliżone twierdzenie, tylko zbież-

ność w L

1

musimy zastąpić zbieżnością według prawdopodobieństwa.

Wniosek 6. Załóżmy, że M ∈ M

c
loc

, wówczas dla t < T , V

M

Π,t

→ hM i

t

według prawdopodobieństwa, gdy diam(Π) 0.

61

background image

Dowód. Bez straty ogólności możemy założyć, że M

0

= 0, wówczas M ∈

M

2,c
loc

. Niech Π

n

będą podziałami [0, t] o średnicy zbieżnej do zera oraz τ

k

%

T takie, że M

τ

k

∈ M

2,c

. Na podstawie Twierdzenia 5 otrzymujemy, że dla

ustalonego k,

V

Π

n

,t

(M

τ

k

)

L

1

−→ hM

τ

k

i = hM i

τ

k

.

Stąd

V

Π

n

,t

(M )

1

k

­t}

= V

Π

n

,t

(M

τ

k

)

1

k

­t}

L

1

−→ hM i

τ

k

1

k

­t}

= hM i

1

k

­t}

.

Teza wynika z Lematu 3.

Nawias skośny określa się nie tylko dla pojedynczego martyngału, ale też

i dla pary martyngałów.

Definicja 7. Nawiasem skośnym dwóch ciągłych martyngałów lokalnych M
i N nazywamy proces hM, N i zdefiniowany wzorem

hM, N i =

1

4

[hM + N i − hM − N i].

Fakt 8. a) Załóżmy, że M, N ∈ M

2,c
T

, wówczas hM, N i to jedyny pro-

ces o trajektoriach ciągłych mających wahanie skończone na [0, T ] taki, że
hM, N i

0

= 0 oraz M N − hM, N i jest martyngałem na [0, T ].

b) Załóżmy, że M, N ∈ M

c
loc

, wówczas hM, N i to jedyny proces o trajek-

toriach ciągłych mających wahanie skończone na [0, t] dla t < T taki, że
hM, N i

0

= 0 oraz M N − hM, N i jest martyngałem lokalnym na [0, T ).

Dowód. Jednoznaczność dowodzimy jak dla hM i, zaś wymienione własności
wynikają z tożsamości

M N − hM, N i =

1

4

h

(M + N )

2

− hM + N i

(M − N )

2

− hM − N i

i

.

Fakt 9. Niech Π

n

= (t

(n)
0

, t

(n)
1

, . . . , t

(n)
k

n

) będzie ciągiem podziałów [0, t] takim,

że 0 = t

(n)
0

¬ t

(n)
1

¬ . . . ¬ t

(n)
k

n

= t oraz diam(Π

n

) 0.

a) Jeśli M, N ∈ M

2,c
T

, to dla t < T ,

k

n

X

k=0

(M

t

(n)
k+1

− M

t

(n)
k

)(N

t

(n)
k+1

− N

t

(n)
k

)

L

1

−→ hM, N i

t

.

62

background image

b) Jeśli M, N ∈ M

2,c
loc

, to dla t < T ,

k

n

X

k=0

(M

t

(n)
k+1

− M

t

(n)
k

)(N

t

(n)
k+1

− N

t

(n)
k

)

P

−→ hM, N i

t

.

Dowód. Wystarczy zauważyć, że

(M

t

−M

s

)(N

t

−N

s

) =

1

4

[((M

t

+N

t

)(M

s

+N

s

))

2

((M

t

−N

t

)(M

s

−N

s

))

2

]

i skorzystać z Twierdzenia 1 i Wniosku 6.

Fakt 10. a) hM, M i = hM i = h−M i,
b) hM, N i
= hN, M i,
c) hM − M

0

, N i = hM, N − N

0

i = hM − M

0

, N − N

0

i = hM, N i,

d) (N, M ) → hM, N i jest przekształceniem dwuliniowym,
e) hM

τ

, N

τ

i = hM

τ

, N i = hM, N

τ

i = hM, N i

τ

,

f ) Jeśli M ∈ M

2,c
loc

, X, Y ∈ Λ

2

T

(M ) oraz N

1

=

R

X dM , N

2

=

R

Y dM , to

hN

1

, N

2

i =

R

XY dhM i.

Dowód. Punkty a), b) i c) wynikają natychmiast z definicji, punkt d) z
Wniosku 6. To, że hM

τ

, N

τ

i = hM, N i

τ

dowodzimy jak w Fakcie 5 (wy-

korzystując Fakt 8). Pozostałe równości w e) wynikają z Faktu 9. By wy-
kazać f) wystarczy wykazać, że h

R

XdM i =

R

X

2

dhM i. Poprzez własność

e) i lokalizacje można sprowadzić to do przypadku gdy M ∈ M

2,c
T

oraz

X ∈ L

2

T

(M ). Z twierdzenia o zatrzymaniu całki można wtedy wykazać, że

h

R

XdM i −

R

X

2

dhM i jest martyngałem (zob. dowód Wniosku 3).

12

Dalsze własności całki stochastycznej

Zacznijmy od wersji stochastycznej twierdzenia Lebesgue’a o zbieżności zma-
joryzowanej.

Twierdzenie 1. Załóżmy, że M ∈ M

2,c
loc

oraz X

n

są procesami prognozo-

walnymi takimi, że lim

n→∞

X

n,t

(ω) = X

t

(ω) dla wszystkich t < T, ω ∈ .

Jeśli dla wszystkich t < T i ω ∈ , |X

n,t

(ω)| ¬ Y

t

(ω) dla pewnego procesu

Y ∈ Λ

2

T

(M ), to X

n

, X ∈ Λ

2

T

(M ) oraz

Z

t

0

X

n

dM

P

−→

Z

t

0

XdM przy n → ∞.

63

background image

Dowód. Proces X jest prognozowalny jako granica procesów prognozowal-
nych. Ponadto dla t < T ,

Z

t

0

X

2

s

dhM i

s

,

Z

t

0

X

2

n,s

dhM i

s

¬

Z

t

0

Y

2

s

dhM i

s

< ∞ p.n.,

więc X

n

, X ∈ Λ

2

T

(M ). Bez straty ogólności możemy też założyć, że M

0

= 0.

Niech τ

k

% T takie, że M

τ

k

∈ M

2,c
T

oraz

1

[0

k

]

Y ∈ L

2

T

(M

τ

k

). Ponie-

waż

1

[0

k

]

X

n

¬

1

[0

k

]

Y , więc

1

[0

k

]

X

n

∈ L

2

T

(M

τ

k

). Z twierdzenia Lebes-

gue’a o zbieżności zmajoryzowanej łatwo wykazać, że

1

[0

k

]

X

n

1

[0

k

]

X

w L

2

T

(M

τ

k

). Stąd dla ustalonego k,

Z

t∧τ

k

0

X

n

dM =

Z

t

0

1

[0

k

]

X

n

dM

τ

k

L

2

(Ω)

−→

Z

t

0

1

[0

k

]

XdM

τ

k

=

Z

t∧τ

k

0

XdM,

czyli

1

k

­t}

Z

t

0

X

n

dM

L

2

−→

1

k

­t}

Z

t

0

XdM przy n → ∞.

Zbieżność w L

2

implikuje zbieżność według prawdopodobieństwa, by zakoń-

czyć dowód wystarczy skorzystać z Lematu 11.3.

Definicja 2. Mówimy, że proces X jest lokalnie ograniczony, jeśli istnieją
momenty zatrzymania τ

n

% T takie, że procesy X

τ

n

− X

0

są ograniczone.

Uwaga 3. Każdy proces ciągły, adaptowalny jest lokalnie ograniczony.

Kolejne twierdzenie podaje wzór na całkowanie przez podstawienie.

Twierdzenie 4. a) Niech N ∈ M

2,c
T

, X ∈ L

2

T

(N ), Y - proces prognozo-

walny ograniczony oraz M =

R

XdN . Wówczas Y ∈ L

2

T

(M ), XY ∈ L

2

T

(N )

oraz

R

Y dM =

R

XY dN .

b) Niech N ∈ M

c
loc

, X ∈ Λ

2

T

(N ), Y - proces prognozowalny lokalnie ogra-

niczony oraz M =

R

XdN . Wówczas Y ∈ Λ

2

T

(M ), XY ∈ Λ

2

T

(N ) oraz

R

Y dM =

R

XY dN .

Dowód. a) Załóżmy wpierw, że Y jest procesem elementarnym postaci

Y = ξ

0

1

{0}

+

n−1

X

j=0

ξ

j

1

(t

j

,t

j+1

]

,

64

background image

gdzie 0 = t

0

< t

1

< . . . < t

k

< T , zaś ξ

k

są ograniczonymi zmiennymi

F

t

k

-mierzalnymi. Wówczas

Z

t

0

Y dM =

X

j

ξ

j

(M

t

j+1

∧t

− M

t

j

∧t

) =

X

j

ξ

j

(

Z

t

0

1

[0,t

j+1

]

XdN −

Z

t

0

1

[0,t

j

]

XdN )

=

X

j

ξ

j

Z

t

0

1

(t

j

,t

j+1

]

XdN =

X

j

Z

t

0

ξ

j

1

(t

j

,t

j+1

]

XdN

=

Z

t

0

X

j

ξ

j

1

(t

j

,t

j+1

]

XdN =

Z

t

0

Y XdN.

Jeśli Y jest dowolnym ograniczonym procesem prognozowalnym, to

E

Z

T

0

Y

2

s

dhM i

s

¬ kY k

2

E

Z

T

0

dhM i

s

= kY k

2

EhM i

T

= kY k

2

EM

2

T

< ∞,

więc Y ∈ L

2

T

(M ). Nietrudno też sprawdzić, że XY ∈ L

2

T

(N ). Możemy

znaleźć procesy elementarne Y

n

zbieżne do Y w L

2

T

(M ), co więcej możemy

założyć, że kY

n

k

¬ kY k

. Zauważmy, że

kXY − XY

n

k

2
L

2
T

(N )

= E

Z

T

0

(XY − XY

n

)

2
s

dhN i

s

= E

Z

T

0

(Y − Y

n

)

2
s

X

2

s

dhN i

s

= E

Z

T

0

(Y − Y

n

)

2
s

dhM i

s

0 = kY − Y

n

k

2
L

2
T

(M )

,

więc Y

n

X → Y X w L

2

T

(N ). Stąd dla t ¬ T ,

Z

t

0

XY dN

L

2

←−

Z

t

0

XY

n

dN =

Z

Y

n

dM

L

2

−→

Z

t

0

Y dM.

b) Mamy

R

t

0

Y

0

dM = Y

0

M

t

= Y

0

R

t

0

XdN =

R

t

0

Y

0

XdN , zatem rozpatru-

jąc Y − Y

0

zamiast Y możemy zakładać,że Y

0

= 0. Niech τ

n

% T takie, że

Y

τ

n

jest ograniczone, N

τ

n

∈ M

2,c
T

oraz X

1

[0

n

]

∈ L

2

T

(N

τ

n

). Zauważmy, że

M

τ

n

= (

Z

XdN )

τ

n

=

Z

X

1

[0

n

]

dN

τ

n

,

zatem na mocy części a),

(

Z

Y dM )

τ

n

=

Z

Y

1

[0

n

]

dM

τ

n

=

Z

Y

1

[0

n

]

X

1

[0

n

]

dN

τ

n

=

Z

XY

1

[0

n

]

dN

τ

n

= (

Z

XY dN )

τ

n

.

Biorąc n → ∞ dostajemy tezę.

65

background image

Sformułujemy teraz pierwsze twierdzenie o całkowaniu przez części.

Twierdzenie 5. Niech M, N ∈ M

c
loc

, wówczas

M

t

N

t

= M

0

N

0

+

Z

t

0

M

s

dN

s

+

Z

t

0

N

s

dM

s

+ hM, N i

t

.

(4)

Stosując twierdzenie do M = N dostajemy natychmiast.

Wniosek 6. Jeśli M ∈ M

c
loc

, to

Z

t

0

M

s

dM

s

=

1

2

(M

2

t

− M

2

0

)

1

2

hM i

t

.

Wniosek 7. Niech X, Y ∈ Λ

2

T

, M =

R

XdW oraz N =

R

Y dW , wówczas

M

t

N

t

=

Z

t

0

M

s

dN

s

+

Z

t

0

N

s

dM

s

+ hM, N i

t

=

Z

t

0

M

s

Y

s

dW

s

+

Z

t

0

N

s

X

s

dW

s

+

Z

t

0

X

s

Y

s

ds.

Dowód. Pierwsza równość wynika z Twierdzenia 5, druga z Twierdzenia 4
oraz tego, że hM, N i =

R

XY ds.

Dowód Twierdzenia 5. Całki

R

M dN i

R

N dM są dobrze określone, gdyż

procesy M i N są ciągłe, zatem lokalnie ograniczone.

Możemy założyć, iż M

0

= N

0

= 0, gdyż hM, N i = hM − N

0

, N − N

0

i,

Z

M dN =

Z

M d(N − N

0

) =

Z

(M − M

0

)d(N − N

0

) +

Z

M

0

d(N − N

0

)

=

Z

(M − M

0

)d(N − N

0

) + M

0

(N − N

0

),

zatem

Z

t

0

M dN +

Z

t

0

N dM =

Z

t

0

(M − M

0

)d(N − N

0

) +

Z

t

0

(N − M

0

)d(M − M

0

)

+ M

0

N

t

+ N

0

M

t

2N

0

M

0

.

Wystarczy udowodnić, że teza zachodzi dla M = N , tzn.

M

2

t

= 2

Z

t

0

M

s

dM

s

+ hM i

t

dla M ∈ M

c
loc

, M

0

= 0.

(5)

Jeśli bowiem zastosujemy (5) dla M + N i M − N , odejmiemy stronami i
podzielimy przez 4, to dostaniemy (4).

66

background image

Wiemy (zob Uwaga 11.11), że (5) zachodzi przy dodatkowym założeniu

ograniczoności M . W ogólnym przypadku określamy

τ

n

:= inf{t > 0 : |M

t

| ­ n} ∧ T,

wtedy τ

n

% T . Ponadto M

τ

n

jest ograniczonym martyngałem lokalnym,

zatem ograniczonym martyngałem, więc

(M

2

)

τ

n

= (M

τ

n

)

2

= 2

Z

M

τ

n

dM

τ

n

+ hM

τ

n

i

= 2

Z

M

τ

n

1

[0

n

]

dM + hM i

τ

n

= 2

Z

M

1

[0

n

]

dM + hM i

τ

n

= (2

Z

M dM + hM i)

τ

n

.

Przechodząc z n → ∞ dostajemy (5).

Definicja 8. Przez V

c

oznaczamy procesy ciągłe, adaptowalne, których tra-

jektorie mają wahanie skończone na każdym przedziale [0, t] dla t < T .

Udowodnimy teraz kolejne twierdzenie o całkowaniu przez części.

Fakt 9. Załóżmy, że M ∈ M

c
loc

, A ∈ V

c

, wówczas

M

t

A

t

= M

0

A

0

+

Z

t

0

A

s

dM

s

+

Z

t

0

M

s

dA

s

.

Dowód. Jak w dowodzie Twierdzenia 5 możemy założyć, że M

0

= A

0

= 0.

Załóżmy wpierw, że M i N są ograniczone. Zauważmy, że

M

t

A

t

=

n

X

j=1

(M

tj/n

− M

t(j−1)/n

)

n

X

k=1

(A

tk/n

− A

t(k−1)/n

=

n

X

j=1

(M

tj/n

− M

t(j−1)/n

)(A

tj/n

− A

t(j−1)/n

)

+

n

X

j=1

M

t(j−1)/n

(A

tj/n

− A

t(j−1)/n

) +

n

X

j=1

(M

tj/n

− M

t(j−1)/n

)A

t(j−1)/n

= I

n

+ II

n

+ III

n

.

Składnik II

n

dąży prawie na pewno do

R

t

0

M dA (definicja całki Riemanna-

Stieltjesa). Nietrudno sprawdzić, że procesy elementarne

A

n

=

n

X

j=1

A

t(j−1)/n

1

(t(j−1)/n,tj/n]

67

background image

zbiegają w L

2

t

(M ) do A, stąd III

n

=

R

t

0

A

n

dM zbiega w L

2

do

R

t

0

AdM .

Zauważmy też, że

|I

n

|

2

¬

n

X

j=1

(M

tj/n

− M

t(j−1)/n

)

2

n

X

j=1

(A

tj/n

− A

t(j−1)/n

)

2

pierwszy składnik powyżej dąży do hM i

t

w L

2

(w szczególności jest więc

ograniczony w L

2

), drugi dąży do zera p.n. (proces A jest ciągły i ma ogra-

niczone wahanie na [0, t]), stąd I

n

dąży do 0 według prawdopodobieństwa.

Zatem

M

t

A

t

= I

n

+ II

n

+ III

n

P

−→

Z

t

0

M dA +

Z

t

0

AdM.

Jeśli M i A nie są ograniczone, to określamy

τ

n

= inf{t > 0 : |M

t

| ­ n} ∧ inf{t > 0 : |A

t

| ­ n} ∧ T.

Mamy |A

τ

n

| ¬ n, |M

τ

n

| ¬ n, więc z poprzednio rozważonego przypadku

(M A)

τ

n

=

Z

A

τ

n

dM

τ

n

+

Z

M

τ

n

dA

τ

n

= (

Z

AdM +

Z

M dA)

τ

n

,

przechodząc z n → ∞ dostajemy tezę.

Ostatnie twierdzenie o całkowaniu przez części jest nietrudną konsekwen-

cją definicji całki Riemanna-Stieltjesa.

Fakt 10. Załóżmy, że A, B ∈ V

c

, wówczas

A

t

B

t

= A

0

B

0

+

Z

t

0

A

s

dB

s

+

Z

t

0

B

s

dA

s

.

Definicja 11. Proces Z = (Z

t

)

t<T

nazywamy ciągłym semimartyngałem,

jeśli da się przedstawić w postaci Z = Z

0

+ M + A, gdzie Z

0

jest zmienną

F

0

-mierzalna, M ∈ M

2
loc

, A ∈ V

c

oraz A

0

= M

0

= 0.

Uwaga 12. Rozkład semimartyngału jest jednoznaczny (modulo procesy
nieodróżnialne).

Dowód. Jeśli Z = Z

0

+ M + A = Z

0

+ M

0

+ A

0

, to M − M

0

= A

0

− A jest

ciągłym martyngałem lokalnym, startującym z zera o ograniczonym wahaniu
na [0, t] dla t < T , zatem jest stale równy 0.

68

background image

Przykłady.

Proces Itˆ

o, tzn. proces postaci Z = Z

0

+

R

XdW +

R

Y ds, gdzie X ∈ Λ

2

T

, Y

prognozowalny taki, że

R

t

0

|Y

s

|ds < ∞ p.n. dla t < T jest semimartyngałem.

Z twierdzenia Dooba-Meyera wynika, że kwadrat martyngału jest semimar-
tyngałem.

Definicja 13. Jeśli Z = Z

0

+ M + A jest ciągłym semimartyngałem, to

określamy

R

XdZ :=

R

XdM +

R

XdA, gdzie pierwsza całka to całka stocha-

styczna, a druga całka Stieltjesa.

Twierdzenie 14. Jeśli Z = Z

0

+ M + A oraz Z

0

= Z

0

0

+ M

0

+ A

0

są ciągłymi

semimartyngałami, to ZZ

0

też jest semimartyngałem oraz

ZZ

0

= Z

0

Z

0

0

+

Z

ZdZ

0

+

Z

Z

0

dZ + hM, M

0

i.

Dowód. Mamy ZZ

0

= Z

0

Z

0

0

+ M M

0

+ M A

0

+ AM

0

+ AA

0

i stosujemy twier-

dzenia o całkowaniu przez części (Twierdzenie 12.5, Fakty 12.9 i 12.10).

13

Wzór Itˆ

o

Podczas tego wykładu udowodnimy fundamentalne twierdzenie dla anali-
zy stochastycznej. Pokazuje ono, że klasa semimartyngałów ciągłych jest
zamknięta ze względu na funkcje gładkie oraz podaje wzór na różniczkę
stochastyczną df (X).

Twierdzenie 1 (Wzór Itˆ

o). Załóżmy, że Z = Z

0

+ M + A jest ciągłym

semimartyngałem, f funkcją klasy C

2

na R. Wówczas f (Z) też jest semi-

martyngałem oraz

f (Z

t

) = f (Z

0

) +

Z

t

0

f

0

(Z

s

)dZ

s

+

1

2

Z

t

0

f

00

(Z

s

)dhM i

s

.

(6)

Dowód. Wszystkie całki w (6) są dobrze zdefiniowane, bo procesy f

0

(Z

s

) i

f

00

(Z

s

) są ciągłe, zatem f

0

(Z

s

) Λ

2

T

(M ) oraz f

00

(Z

s

) jest całkowalne wzglę-

dem hM i.

Dowód wzóru Itˆ

o będzie polegał na redukcji (6) do coraz prostszych

przypadków.

i) Możemy założyć, że zmienna Z

0

jest ograniczona.

Istotnie połóżmy Z

(n)

0

:= (Z

0

∧ n) ∨ −n oraz Z

(n)

:= Z

(n)

0

+ M + A.

Zauważmy, że

R

XdZ =

R

XdZ

(n)

, więc, jeśli wiemy, iż (6) zachodzi, gdy Z

0

69

background image

ograniczone, to

f (Z

(n)

t

) = f (Z

(n)

0

) +

Z

t

0

f

0

(Z

(n)

s

)dZ

s

+

1

2

Z

t

0

f

00

(Z

(n)

s

)dhM i

s

.

(7)

Mamy

|f

0

(Z

(n)

s

)| ¬ sup

n

|f

0

(Z

(n)

s

)| := Y

s

,

proces Y jest prognozowalny jako supremum procesów prognozowalnych,
ponadto

sup

n

sup

s¬t

|Z

(n)

s

| ¬ |Z

0

| + sup

s¬t

|M

s

| + sup

s¬t

|A

s

| < ∞ p.n..

Zatem z ciągłości f

0

, sup

s¬t

|Y

s

| < ∞ p.n., skąd Y ∈ Λ

2

T

(M ). Z twierdzenia

Lebesgue’a o zbieżności zmajoryzowanej dla całek stochastycznych,

Z

t

0

f

0

(Z

(n)

s

)dM

s

P

−→

Z

t

0

f

0

(Z

s

)dM

s

ponadto z twierdzenia Lebesgue’a dla zwykłej całki,

Z

t

0

f

0

(Z

(n)

s

)dA

s

p.n.

−→

Z

t

0

f

0

(Z

s

)dA

s

.

Podobnie sup

n

sup

s¬t

|f

00

(Z

(n)

s

)| < ∞ p.n. i ponownie stosując twierdzenie

Lebesgue’a dostajemy

Z

t

0

f

00

(Z

(n)

s

)dhM i

s

p.n.

−→

Z

t

0

f

00

(Z

s

)dhM i

s

.

Oczywiście f (Z

(n)

t

) → f (Z

t

) p.n., więc możemy przejść w (7) z n do , by

dostać (6).

ii) Możemy założyć że Z ograniczony.

Istotnie niech Z semimartyngał taki, że Z

0

ograniczony, połóżmy

τ

n

:= inf{t > 0 : |Z

t

| ­ n} ∧ T,

wówczas Z

(n)

:= Z

0

+ M

τ

n

+ A

τ

n

jest ciągłym ograniczonym semimartyn-

gałem oraz Z

(n)

t

→ Z

t

p.n.. Jeśli (6) zachodzi w przypadku ograniczonym,

70

background image

to

f (Z

(n)

t

) = f (Z

0

) +

Z

t

0

f

0

(Z

(n)

s

)dZ

(n)

s

+

1

2

Z

t

0

f

00

(Z

(n)

s

)dhM

τ

n

i

s

= f (Z

0

) +

Z

t∧τ

n

0

f

0

(Z

(n)

s

)

1

[0

n

]

dZ

s

+

1

2

Z

t∧τ

n

0

f

00

(Z

(n)

s

)

1

[0

n

]

dhM i

τ

n

s

= f (Z

0

) +

Z

t∧τ

n

0

f

0

(Z

s

)

1

[0

n

]

dZ

s

+

1

2

Z

t∧τ

n

0

f

00

(Z

s

)

1

[0

n

]

dhM i

s

= f (Z

0

) +

Z

t∧τ

n

0

f

0

(Z

s

)dZ

s

+

1

2

Z

t∧τ

n

0

f

00

(Z

s

)dhM i

s

.

Biorąc n → ∞ dostajemu (6).

iii) Możemy założyć że Z ograniczony, a f jest wielomianem.

Możemy zakładać, że kZk

¬ C < ∞. Jeśli f ∈ C

2

, to istnieje ciąg

wielomianów f

n

taki, że

|f

n

(x) − f (x)|, |f

0

n

(x) − f

0

(x)|, |f

00

n

(x) − f

00

(x)| ¬

1

n

dla x ∈ [−C, C].

Wtedy f

n

(Z

s

) → f (Z

s

), f

0

n

(Z

s

) → f

0

(Z

s

), f

00

n

(Z

s

) → f

00

(Z

s

) jednostajnie

oraz |f

0

n

(Z

s

)| ¬ sup

n

sup

|x|¬C

|f

0

n

(x)| ¬ sup

|x|¬C

|f

0

(x)| + 1 < ∞, więc z

twierdzenia Lebesgue’a o zbieżności zmajoryzowanej,

f (Z

s

) ← f

n

(Z

s

) = f

n

(Z

0

) +

Z

t

0

f

0

n

(Z

s

)dZ

s

+

1

2

Z

t

0

f

00

n

(Z

s

)dhM i

s

→ f (Z

0

) +

Z

t

0

f

0

(Z

s

)dZ

s

+

1

2

Z

t

0

f

00

(Z

s

)dhM i

s

.

iv) Z liniowości obu stron (6) wystarczy zatem rozpatrywać przypadek Z
ograniczonych oraz f (x) = x

n

. Pokażemy ten wzór przez indukcję po n.

Dla n = 0 teza jest oczywista. Załóżmy więc, że (6) zachodzi dla f (x) =

x

n

pokażemy go dla g(x) = xf (x). Zauważmy, że g

0

(x) = f (x) + xf

0

(x) oraz

g

00

(x) = 2f

0

(x) + xf

00

(x). Ze wzoru na całkowanie przez części,

g(Z

t

) = Z

t

f (Z

t

) = Z

0

f (Z

0

) +

Z

t

0

Z

s

df (Z)

s

+

Z

t

0

f (Z)dZ

s

+

D

Z

f

0

(Z)dM, M

E

t

= g(Z

t

) +

Z

t

0

(Z

s

f

0

(Z

s

)dZ

s

+

1

2

Z

s

f

00

(Z

s

)dhM i

s

) +

Z

t

0

f (Z)dZ

s

+

Z

t

0

f

0

(Z

s

)dhM i

s

= g(Z

t

) +

Z

t

0

g

0

(Z

t

)dZ

t

+

1

2

Z

t

0

g

00

(Z

t

)dhM i

s

.

71

background image

Wniosek 2. Dla f ∈ C

2

(R),

f (W

t

) = f (0) +

Z

t

0

f

0

(W

s

)dW

s

+

1

2

Z

t

0

f

00

(W

s

)ds.

W podobny sposób jak w przypadku jednowymiarowym możemy udo-

wodnić wielowymiarową wersję twierdzenia Itˆ

o.

Twierdzenie 3. Załóżmy, że f : R

d

R jest funkcją klasy C

2

oraz Z =

(Z

(1)

, . . . , Z

(d)

), gdzie Z

(i)

= Z

(i)

0

+M

(i)

+A

(i)

są ciągłymi semimartyngałami

dla i = 1, . . . , d. Wówczas f (Z) jest semimartyngałem oraz

f (Z

t

) = f (Z

0

) +

d

X

i=1

Z

t

0

∂f

∂x

i

(Z

s

)dZ

(i)

s

+

1

2

d

X

i,j=1

Z

t

0

∂f

∂x

i

∂x

j

(Z

s

)dhM

(i)

, M

(j)

i

s

.

Twierdzenie 4. Załóżmy, że M jest ciągłym martyngałem lokalnym ta-
kim, że M

0

= 0 oraz M

2

t

− t jest martyngałem lokalnym. Wówczas M jest

procesem Wienera.

Dowód. Musimy wykazać, że dla s < t, M

t

− M

s

jest niezależne od F

s

oraz

ma rozkład N (0, t − s). W tym celu wystarczy wykazać, że

E(e

ih(M

t

−M

s

)

|F

s

) = e

1
2

(t−s)h

2

dla t > s ­ 0, h ∈ R.

(8)

Itotnie (8) implikuje, że Ee

ih(M

t

−M

s

)

= exp(

1
2

(t − s)h

2

) dla h ∈ R, czyli

M

t

− M

s

∼ N (0, t − s). Ponadto dla dowolnej F

s

-mierzalnej zmiennej η oraz

h

1

, h

2

R,

Ee

ih

1

(M

t

−M

s

)+ih

2

η

= E[e

ih

2

η

E(e

ih

1

(M

t

−M

s

)

|F

s

)]

= E[e

ih

2

η

e

1
2

(t−s)h

2
1

] = Ee

ih

2

η

Ee

ih

1

(M

t

−M

s

)

.

Zatem M

t

− M

s

jest niezależne od zmiennych F

s

-mierzalnych, czyli jest

niezależne od F

s

.

Zastosujmy wzór Itˆ

o dla f (x) = e

ihx

(wzór Itˆ

o zachodzi też dla funkcji

zespolonych, wystarczy dodać odpowiednie równości dla części rzeczywistej
i urojonej),

e

ihM

t

= f (M

t

) = f (M

0

) +

Z

t

0

f

0

(M

u

)dM

u

+

1

2

Z

t

0

f

00

(M

u

)dhM i

u

= 1 + ih

Z

t

0

e

ihM

u

dM

u

h

2

2

Z

t

0

e

ihM

u

du

= e

ihM

s

+ ih

Z

t

s

e

ihM

u

dM

u

h

2

2

Z

t

s

e

ihM

u

du.

72

background image

Niech N :=

R

t

0

e

ihM

dM , wówczas N jest martyngałem lokalnym oraz z nie-

równości Dooba,

E sup

0¬s¬t

N

2

s

¬ 4E

Z

t

0

|e

ihM

u

|

2

du = 4t,

czyli N jest na każdym przedziale skończonym majoryzowany przez zmienną
całkowalną, zatem jest martyngałem. Ustalmy A ∈ F

s

, wtedy

E[e

ihM

t

1

A

] = E[e

ihM

s

1

A

] + E[(N

t

− N

s

)

1

A

]

h

2

2

E[

Z

t

s

e

ihM

u

du

1

A

]

= E[e

ihM

s

1

A

]

h

2

2

Z

t

s

E[e

ihM

u

1

A

]du.

Zdefiniujmy g(u) = E[e

ihM

s+u

1

A

], wtedy

g(t − s) = g(0)

h

2

2

Z

t

s

g(u − s)du,

czyli

g(r) = g(0)

h

2

2

Z

r

0

g(u)du.

Funkcja g jest ciągła, a zatem z powyższego wzoru jest różniczkowalna i
spełnia równanie różniczkowe

g

0

(r) =

h

2

2

g(r)

Zatem g(r) = g(0) exp(

1
2

h

2

r) dla r ­ 0, czyli

E[e

ihM

t

1

A

] = E[e

ihM

s

1

A

]e

1
2

h

2

(t−s)

= E[e

ihM

s

1
2

h

2

(t−s)

1

A

],

stąd E(e

ihM

t

|F

s

) = exp(ihM

s

1
2

h

2

(t − s)) p.n. i

E(e

ih(M

t

−M

s

)

|F

s

) = e

−ihM

s

E(e

ihM

t

|F

s

) = e

1
2

h

2

(t−s)

.

Uwaga 5. Równoważnie Twierdzenie Levy’go można sformułować w na-
stępujący sposób:
Jeśli M ∈ M

c
loc

oraz hM i = t, to M − M

0

jest procesem Wienera.

Uwaga 6. Założenie ciągłości M jest fundamentalne. Jeśli położymy M

t

=

N

t

− t, gdzie N jest procesem Poissona z parametrem 1, to M

2

t

− t jest

martyngałem, a oczywiście M nie jest procesem Wienera.

Można też udowodnić wielowymiarową wersję twierdzenia Levy’ego.

73

background image

Twierdzenie 7. Załóżmy, że M

(1)

, . . . , M

(d)

są ciągłymi martyngałami lo-

kalnymi takim, że M

(i)

0

= 0 oraz M

(i)

t

M

(j)

t

−δ

i,j

t są martyngałami lokalnymi

dla 1 ¬ i, j ¬ d. Wówczas M = (M

(1)

, . . . , M

(d)

) jest d-wymiarowym proce-

sem Wienera.

13.1

*Charakteryzacja procesu Wienera za pomocą martyn-
gałów wykładniczych

Twierdzenie 8. Załóżmy, że M jest ciągły, adaptowalny oraz M

0

= 0.

Wówczas M jest procesem Wienera wtedy i tylko wtedy gdy dla wszystkich
λ ∈
R, exp(λM

t

− λ

2

t/2) jest martyngałem lokalnym.

Dowód. To, że exp(λW

t

− λ

2

t/2) jest martyngałem jest prostym i dobrze

znanym faktem. Wystarczy więc udowodnić implikację ””.

Określmy τ

n

:= inf{t > 0 : |M

t

| ­ n} ∧ n, wówczas τ

n

% ∞ oraz dla

wszystkich λ proces X

t

(λ) = exp(λM

t∧τ

n

− λ

2

t ∧ τ

n

/2) jest ograniczonym

martyngałem lokalnym (z dołu przez 0, z góry przez e

|λ|n

), a więc martyn-

gałem. Stąd

E[X

t

(λ)

1

A

] = E[X

s

(λ)

1

A

],

dla s < t, A ∈ F

s

.

Zauważmy, że X

t

(0) = 1 oraz

|

dX

t

(λ)

| = |X

t

(λ)(M

t∧τ

n

− λt ∧ τ

n

)| ¬ e

λ

0

n

(n + λ

0

n),

dla |λ| ¬ λ

0

.

Stąd z Twierdzenia Lebesque’a o zbieżności zmajoryzowanej dla t < s, A ∈
F

s

,

E[X

t

(λ)(M

t∧τ

n

− λt ∧ τ

n

)

1

A

] = lim

h→0

E[

1

h

(X

t

(λ + h) − X

t

(λ))

1

A

]

= lim

h→0

E[

1

h

(X

s

(λ + h) − X

s

(λ))

1

A

] = E[X

s

(λ)(M

s∧τ

n

− λs ∧ τ

n

)

1

A

].

Biorąc λ = 0 dostajemy E[M

t∧τ

n

1

A

] = E[M

s∧τ

n

1

A

], czyli M

τ

n

jest martyn-

gałem, a więc M ∈ M

2,c
loc

.

By skorzystać z twierdzenia Levy’ego i zakończyć dowód musimy jeszcze

wykazać, że M

2

t

− t ∈ M

2,c
loc

. Szacujemy dla |λ| ¬ λ

0

,

|

d

2

X

t

(λ)

2

| = |X

t

(λ)[(M

t∧τ

n

− t ∧ τ

n

)

2

− t ∧ τ

n

]| ¬ e

λ

0

n

[(n + λ

0

n)

2

+ n],

skąd w podobny sposób jak dla pierwszych pochodnych dowodzimy, że dla
t < s, A ∈ F

s

,

E[X

t

(λ)((M

t∧τ

n

−λt∧τ

n

)

2

−t∧τ

n

)

1

A

] = E[X

s

(λ)((M

s∧τ

n

−λs∧τ

n

)

2

−s∧τ

n

)

1

A

].

74

background image

Podstawiając λ = 0 dostajemy

E[(M

2

t∧τ

n

− t ∧ τ

n

)

1

A

] = E[(M

2

s∧τ

n

− s ∧ τ

n

)

1

A

],

czyli (M

2

t

− t)

τ

n

jest martyngałem, więc M

2

t

− t ∈ M

2,c
loc

.

14

Stochastyczne Równania Różniczkowe

14.1

Jednorodne równania stochastyczne

Definicja 1. Załóżmy, że b, σ : R R są funkcjami ciągłymi, a ξ zmienną
losową F

s

-mierzalną. Mówimy, że proces X = (X

t

)

t∈[s,T )

rozwiązuje jedno-

rodne równanie stochastyczne

dX

t

= b(X

t

)dt + σ(X

t

)dW

t

,

X

s

= ξ,

(9)

jeśli

X

t

= ξ +

Z

t

s

b(X

r

)dr +

Z

t

s

σ(X

r

)dW

r

,

t ∈ [s, T ).

Uwaga 2. Przyjeliśmy, że b i σ są funkcjami ciągłymi, by uniknąć proble-
mów związanych z mierzalnością i lokalną ograniczonością procesów b(X

r

)

i σ(X

r

). Rozważa się jednak również stochastyczne równania różniczkowe z

nieciągłymi współczynnikami.

Uwaga 3. Wprowadzając nowy proces ˜

X

t

:= X

t+s

, t ∈ [0, T −s) oraz filtra-

cję ˜

F

t

:= F

t+s

zamieniamy równanie różniczkowe (9) na podobne równanie

dla ˜

X z warunkiem początkowym ˜

X

0

= ξ.

Definicja 4. Proces X rozwiązujący równanie (9) nazywamy dyfuzją star-
tująca z ξ. Funkcję σ nazywamy

współczynnikiem dyfuzji, a funkcję b

współczynnikiem dryfu.

Przypomnijmy, że funkcja f : R R jest lipschitzowska ze stałą L, jeśli

|f (x) − f (y)| ¬ L|x − y| dla wszystkich x, y. Lipschitzowskość implikuje też,
że

|f (x)| ¬ |f (0)| + L|x| ¬ ˜

L

p

1 + x

2

gdzie można przyjąć np. ˜

L = 2 max{|f (0)|, L}.

Twierdzenie 5. Załóżmy, że funkcje b i σ są lipschitzowskie na R, wówczas
równanie stochastyczne
(9) ma co najwyżej jedno rozwiązanie (z dokładno-
ścią do nierozróżnialności).

75

background image

Dowód. Bez straty ogólności możemy zakładać, że s = 0 oraz σ, b są lip-
schitzowskie z tą samą stałą L.

Załóżmy, że X

t

i Y

t

są rozwiązaniami, wówczas

X

t

− Y

t

=

Z

t

0

(b(X

r

) − b(Y

r

))dr +

Z

t

0

(σ(X

r

) − σ(Y

r

))dW

r

.

Krok I. Załóżmy dodatkowo, że funkcja u 7→ E|X

u

−Y

u

|

2

jest skończona

i ograniczona na przedziałach [0, t], t < T .

Mamy

E(X

t

− Y

t

)

2

¬ 2E

Z

t

0

(b(X

r

) − b(Y

r

))dr

2

+ 2E

Z

t

0

(σ(X

r

) − σ(Y

r

)dW

r

2

= I + II.

Z warunku Lipschitza i nierówności Schwarza

I ¬ 2L

2

E

Z

t

0

|X

r

− Y

r

|dr

2

¬ 2L

2

t

Z

t

0

E(X

r

− Y

r

)

2

dr.

By oszacować II zauważmy, że (X

r

) − σ(Y

r

)| ¬ L|X

r

− Y

r

|, więc σ(X

r

)

σ(Y

r

) ∈ L

2

t

. Stąd

II = 2E

Z

t

0

(σ(X

r

) − σ(Y

r

))

2

¬ 2L

2

Z

t

0

E(X

r

− Y

r

)

2

dr.

Ustalmy t

0

< T , wówczas z powyższych oszacowań wynika, że

E(X

t

− Y

t

)

2

¬ C

Z

t

0

E(X

r

− Y

r

)

2

dr

dla t ¬ t

0

,

gdzie C = C(t

0

) = 2L

2

(t

0

+ 1). Iterując powyższą nierówność dostajemy dla

t ¬ t

0

,

E(X

t

− Y

t

)

2

¬ C

Z

t

0

E(X

r

1

− Y

r

1

)

2

dr

1

¬ C

2

Z

t

0

Z

r

1

0

E(X

r

2

− Y

r

2

)

2

dr

2

¬ . . . ¬ C

k

Z

t

0

Z

r

1

0

· · ·

Z

r

k−1

0

E(X

r

k

− Y

r

k

)

2

dr

k

. . . dr

1

¬ C

k

sup

r¬t

E(X

r

− Y

r

)

2

Z

t

0

Z

r

1

0

· · ·

Z

r

k−1

0

dr

k

. . . dr

1

= C

k

sup

r¬t

E(X

r

− Y

r

)

2

t

k

k!

k7→∞

−→ 0.

76

background image

Stąd dla wszystkich t < T , E(X

t

− Y

t

)

2

= 0, czyli X

t

= Y

t

p.n., a więc z

ciągłości obu procesów, X i Y są nieodróżnialne.

Krok II. X i Y dowolne. Określmy

τ

n

:= inf{t ­ s : |X

t

| + |Y

t

| ­ n}

i zauważmy, że |X

t

|

1

(0

n

]

, |X

0

t

|

1

(0

n

]

¬ n. Ponieważ w zerze oba procesy

się pokrywają, więc |X

τ

n

t

− Y

τ

n

t

| ¬ 2n, stąd (X

τ

n

t

) − σ(Y

τ

n

t

)| ¬ 2Ln i

σ(X

τ

n

) − σ(Y

τ

n

) ∈ L

2

t

dla t < T . Mamy

X

t∧τ

n

− Y

t∧τ

n

=

Z

t∧τ

n

0

(b(X

r

) − b(Y

r

))dr +

Z

t∧τ

n

0

(σ(X

r

) − σ(Y

r

))dW

r

=

Z

t∧τ

n

0

(b(X

τ

n

r

) − b(Y

τ

n

r

))dr +

Z

t∧τ

n

0

(σ(X

τ

n

r

) − σ(Y

τ

n

r

))dW

r

.

Naśladując rozumowanie z kroku I dostajemy X

t∧τ

n

= Y

t∧τ

n

p.n., przecho-

dząc z n → ∞ mamy X

t

= Y

t

p.n..

Twierdzenie 6. Załóżmy, że funkcje b i σ są lipschitzowskie na R oraz
Eξ

2

< ∞, wówczas równanie stochastyczne (9) ma dokładnie jedno roz-

wiązanie X = (X

t

)

t­s

. Co więcej EX

2

t

< ∞ oraz funkcja t → EX

2

t

jest

ograniczona na przedziałach ograniczonych.

Dowód. Jak w poprzednim twierdzeniu zakładamy, że s = 0. Jednoznacz-
ność rozwiązania już znamy. By wykazać jego istnienie posłużymy się kon-

strukcją z użyciem metody kolejnych przybliżeń. Określamy X

(0)

t

(ω) := ξ(ω)

oraz indukcyjnie

X

(n)

t

:= ξ +

Z

t

0

b(X

(n−1)

r

)dr +

Z

t

0

σ(X

(n−1)

r

)dW

r

.

(10)

Definicja jest poprawna (tzn. całki są dobrze określone), gdyż X

(n)

t

są proce-

sami ciągłymi, adaptowalnymi. Ponadto indukcyjnie pokazujemy, że funkcja

r → E|X

(n)

r

|

2

jest ograniczona na przedziałach skończonych:

E|X

(n)

t

|

2

¬ 3

h

Eξ

2

+ E

Z

t

0

|b(X

(n−1)

r

)|dr

2

+ E

Z

t

0

σ(X

(n−1)

r

)dW

r

2

i

¬ 3

h

Eξ

2

+ tE

Z

t

0

|b(X

(n−1)

r

)|

2

dr + E

Z

t

0

(X

(n−1)

r

)|

2

dr

i

¬ 3

h

Eξ

2

+ ˜

L

2

(1 + t) sup

0¬r¬t

E|X

(n−1)

r

|

2

i

.

Zatem X

(n)

∈ L

2

t

, a więc również σ(X

(n)

) ∈ L

2

t

.

77

background image

Zauważmy, że wobec nierówności (a + b)

2

¬ 2a

2

+ 2b

2

i niezależności ξ i

W

t

, dla t ¬ t

0

zachodzi

E|X

(1)

t

− X

(0)

t

|

2

= E

Z

t

0

b(ξ)dr +

Z

t

0

σ(ξ)dW

r

2

= E(b(ξ)t + σ(ξ)W

t

)

2

¬ 2t

2

Eb(ξ)

2

+ 2Eσ(ξ)

2

EW

2

t

) ¬ 2 ˜

L

2

(1 + Eξ

2

)(t + t

2

) ¬ C,

gdzie C = C(t

0

) = 2 ˜

L

2

(1 + Eξ

2

)(t

0

+ t

2

0

). Podobnie szacujemy dla t ¬ t

0

,

E|X

(n+1)

t

− X

(n)

t

|

2

= E

h

Z

t

0

(b(X

(n)

r

) − b(X

(n−1)

r

))dr +

Z

t

0

(σ(X

(n)

r

) − σ(X

(n−1)

r

))dW

r

i

2

¬ 2E

h

Z

t

0

|b(X

(n)

r

) − b(X

(n−1)

r

)|dr

i

2

+ 2E

h

Z

t

0

(σ(X

(n)

r

) − σ(X

(n−1)

r

))dW

r

i

2

¬ 2E

h

Z

t

0

L|X

(n)

r

− X

(n−1)

r

|dr

i

2

+ 2E

Z

t

0

(X

(n)

r

) − σ(X

(n−1)

r

)|

2

dr

¬ 2L

2

(t + 1)E

Z

t

0

|X

(n)

r

− X

(n−1)

r

|

2

dr ¬ C

1

Z

t

0

E|X

(n)

r

− X

(n−1)

r

|

2

dr,

gdzie C

1

= C

1

(t

0

) = 2L

2

(t

0

+ 1). Iterując to szacowanie dostajemy

E|X

(n+1)

t

− X

(n)

t

|

2

¬ C

2

1

Z

t

0

Z

r

1

0

E|X

(n−1)

r

2

− X

(n−2)

r

2

|

2

dr

2

dr

1

¬ · · · ¬ C

n

1

Z

t

0

Z

r

1

0

· · ·

Z

r

n−1

0

E|X

(1)

r

n

− X

(0)

r

n

|

2

dr

n

. . . dr

1

¬ C

n

1

C

Z

t

0

Z

r

1

0

· · ·

Z

r

n−1

0

dr

n

. . . dr

1

= CC

n

1

t

n

n!

,

Pokazaliśmy zatem, że kX

(n+1)

t

− X

(n)

t

k

2

L

2

¬ CC

n

1

t

n

n!

dla t ¬ t

0

. Ponieważ

szereg

P

n

(CC

n

1

t

n

n!

)

1/2

jest zbieżny, więc (X

(n)

t

)

0

jest ciągiem Cauchy’ego

w L

2

, czyli jest zbieżny. Z uwagi na jednostajność szacowań wykazaliśmy

istnienie X

t

takiego, że

X

(n)

t

→ X

t

w L

2

jednostajnie na przedziałach ograniczonych.

Stąd też wynika, że t 7→ EX

2

t

jest ograniczona na przedziałach ograniczo-

nych.

Wykażemy teraz, że X

(n)

t

z prawdopodobieństwem 1 zbiega do X

t

niemal

jednostajnie. Zauważmy, że dla t

0

< ∞

P

sup

t¬t

0

|X

(n+1)

t

− X

(n)

t

| ­

1

2

n

¬ P

sup

t¬t

0

Z

t

0

|b(X

(n)

r

) − b(X

(n−1)

r

)|dr ­

1

2

n+1

+ P

sup

t¬t

0

|

Z

t

0

(σ(X

(n)

r

) − σ(X

(n−1)

r

))dW

r

| ­

1

2

n+1

= I + II.

78

background image

Mamy

I ¬ P

Z

t

0

0

|b(X

(n)

r

) − b(X

(n−1)

r

)|dr ­

1

2

n+1

¬ 4

n+1

E

Z

t

0

0

|b(X

(n)

r

) − b(X

(n−1)

r

)|dr

2

¬ 4

n+1

L

2

E

Z

t

0

0

|X

(n)

r

− X

(n−1)

r

|dr

2

¬ 4

n+1

L

2

t

0

E

Z

t

0

0

|X

(n)

r

− X

(n−1)

r

|

2

dr

¬ 4

n+1

L

2

t

0

Z

t

0

0

CC

n−1

1

r

n−1

(n − 1)!

dr = 4

n+1

L

2

CC

n−1

1

t

n+1
0

1

n!

.

Z nierównośći Dooba dla martyngału

R

(σ(X

(n)

) − σ(X

(n−1)

))dW dostajemy

II ¬ 4

n+1

E sup

t¬t

0



Z

t

0

(σ(X

(n)

r

) − σ(X

(n−1)

r

))dW

r



2

¬ 4

n+2

E



Z

t

0

0

(σ(X

(n)

r

) − σ(X

(n−1)

r

))dW

r



2

= 4

n+2

E

Z

t

0

0

(σ(X

(n)

r

) − σ(X

(n−1)

r

))

2

dr ¬ 4

n+2

L

2

E

Z

t

0

0

|X

(n)

r

− X

(n−1)

r

|

2

dr

¬ 4

n+2

L

2

CC

n−1

1

t

n
0

1

n!

.

Przyjmując

A

n

:=

n

sup

t¬t

0

|X

(n+1)

t

− X

(n)

t

| ­

1

2

n

o

dostajemy

X

n

P(A

n

) ¬

X

n

4

n+1

(4 + t

0

)L

2

CC

n−1

1

t

n
0

1

n!

< ∞,

więc P(lim sup A

n

) = 0. Zatem dla t

0

< ∞ X

(n)

zbiega jednostajnie na [0, t

0

]

z prawdopodobieństwem 1, czyli z prawdopodobieństwem 1 zbiega niemal
jednostajnie. Ewentualnie modyfikując X i X

(n)

na zbiorze miary zero wi-

dzimy, że X jest granicą niemal jednostajną X

(n)

, czyli X ma trajektorie

ciągłe.

Ze zbieżności X

(n)

r

do X

r

w L

2

jednostajnej na [0, t] oraz lipschitzow-

skości b i σ łatwo wynika zbieżność w L

2

,

R

t

0

b(X

(n)

r

)dr i

R

t

0

σ(X

(n)

r

)dr do

odpowiednio

R

t

0

b(X

r

)dr i

R

t

0

σ(X

r

)dW

r

, zatem możemy przejść w (10) do

granicy by otrzymać dla ustalonego t < T

X

t

:= ξ +

Z

t

0

b(X

r

)dr +

Z

t

0

σ(X

r

)dW

r

p.n.

79

background image

Oba procesy X i ξ +

R

b(X)dr +

R

σ(X)dW są ciągłe, zatem są nierozróż-

nialne.

Przykład 1. Stosując wzór Itˆ

o łatwo sprawdzić, że proces X

t

= ξ exp(λW

t

λ

2

2

t) jest rozwiązaniem równania

dX

t

= λX

t

dW

t

,

X

0

= ξ.

Jest to jedyne rozwiązanie tego równania, gdyż b = 0 oraz σ(x) = λx
funkcjami lipschitzowskimi.

Przykład 2. Proces

X

t

= e

bt

xi + s

Z

t

0

e

b(t−s)

dW

s

jest rozwiązaniem równania

dX

t

= bX

t

dt + s

2

dW

t

,

X

0

= ξ.

Jest to jedyne rozwiązanie, gdyż funkcje b(x) = bx oraz σ(x) = s

2

są lip-

schitzowskie. Jeśli b < 0 oraz ξ ma rozkład N (0, −

1

2b

s

2

), to proces X jest

stacjonarny (proces Ornsteina-Uhlenbecka).

14.2

Równania niejednorodne

Często współczynniki równania zależą nie tylko od x, ale i od czasu.

Definicja 7. Załóżmy, że b, σ : R

2

R są funkcjami ciągłymi, a ξ zmienną

losową F

s

-mierzalną. Mówimy, że proces X = (X

t

)

t∈[s,T )

rozwiązuje rów-

nanie stochastyczne

dX

t

= b(t, X

t

)dt + σ(t, X

t

)dW

t

,

X

s

= ξ,

(11)

jeśli

X

t

= ξ +

Z

t

s

b(r, X

r

)dr +

Z

t

s

σ(r, X

r

)dW

r

,

t ∈ [s, T ).

Dla równania niejednorodnego naturalne są następujące warunki Lip-

schitza

|b(t, x) − b(t, y)| ¬ L|x − y|,

|b(t, x)| ¬ ˜

L

p

1 + x

2

,

(t, x) − σ(t, y)| ¬ L|x − y|,

(t, x)| ¬ ˜

L

p

1 + x

2

.

80

background image

Twierdzenie 8. Załóżmy, że funkcje b i σ spełniają warunki lipschitza.
Wówczas dla dowolnej zmiennej ξ, F

s

-mierzalnej takiej, że Eξ

2

< ∞ istnieje

dokładnie jedno rozwiązanie (11). Co więcej rozwiązanie to daje się otrzymać
metodą kolejnych przybliżeń jak w przypadku jednorodnym.

Przykład 3. Równanie

dX

t

= σ(t)X

t

dW

t

,

X

0

= ξ.

(12)

spełnia założenia twierdzenia, jeśli sup

t

(t)| < ∞. By znaleźć jego rozwią-

zanie sformułujmy ogólniejszy fakt.

Fakt 9. Załóżmy, że M jest ciągłym martyngałem lokalnym, zaś Z

0

zmienną

F

0

-mierzalną. Wówczas proces Z

t

= exp(M

t

1
2

hM i

t

) jest martyngałem

lokalnym takim, że dZ

t

= Z

t

dM

t

, tzn. Z

t

= Z

0

+

R

t

0

Z

s

dM

s

.

Dowód. Z wzoru Itˆ

o dla semimartyngału X

t

= M

t

1
2

hM i

t

dostajemy

dZ

t

= d(Z

0

e

X

t

) = Z

0

e

X

t

dX

t

+

1

2

Z

0

e

X

t

dhM i

t

= Z

0

e

X

t

dM

t

= Z

t

dM

t

.

Proces Z jest martyngałem lokalnym na mocy konstrukcji całki stochastycz-
nej.

Wracając do Przykładu 3 zauważamy, że M

t

=

R

t

0

σ(s)dW

s

jest martyn-

gałem lokalnym, więc rozwiązanie równania (12) ma postać

X

t

= ξ exp(M

t

1

2

hM i

t

) = ξ exp(

Z

t

0

σ(s)dW

s

1

2

Z

t

0

σ(s)

2

ds).

Przykład 4. Rozpatrzmy niejednorodne równanie liniowe postaci

dY

t

= b(t)Y

t

dt + σ(t)Y

t

dW

t

,

X

0

= ξ.

Współczynniki b(t, y) = b(t)y i σ(t, y) = σ(t)y spełniają warunki lipschit-
za, jeśli sup

t

|b(t)|, sup

t

(t)| < ∞. By znaleźć rozwiązanie załóżmy, że jest

postaci X

t

= g(t)Y

t

, gdzie dY

t

= σ(t)Y

t

dW

t

, Y

0

= ξ, postać Y znamy z

Przykładu 3. Wówczas, z dwuwymiarowego wzoru Itˆ

o

dX

t

= g

0

(t)Y

t

dt + g(t)dY

t

= g

0

(t)Y

t

dt + σ(t)X

t

dW

t

.

Wystarczy więc rozwiązać równanie

g

0

(t) = σ(t)g(t),

g(0) = 1

by dostać

X

t

= Y

t

g(t) = ξ exp(

Z

t

0

σ(s)dW

s

1

2

Z

t

0

σ(s)

2

ds +

Z

t

0

σ(s)ds).

81

background image

14.3

Przypadek wielowymiarowy

Zanim sformułujemy odpowiednik wcześniejszych wyników dla przypadku
wielowymiarowego wprowadzimy wygodne ustalenia notacyjne.

Definicja 10. Niech W = (W

(1)

, . . . , W

(d)

) będzie d-wymiarowym procesem

Wienera. Dla X = [X

(i,j)

]

1¬i¬m,1¬j¬d

macierzy m × d złożonej z procesów

z Λ

2

T

określamy m-wymiarowy proces

M

t

= (M

(1)

t

, . . . , M

(m)

t

) =

Z

t

0

X

s

dW

s

,

0 ¬ t < T

wzorem

M

(i)

t

=

d

X

j=1

Z

t

0

X

(i,j)

s

dW

(j)

s

,

1 ¬ i ¬ m.

Przy powyżej wprowadzonej notacji możemy zdefiniować wielowymiaro-

we równania stochastyczne.

Definicja 11. Załóżmy, że b : R

m

R

m

, σ : R

m

R

m×d

są funkcjami

ciągłymi, W = (W

(1)

, . . . , W

(d)

) jest d-wymiarowym procesem Wienera, a

ξ = (ξ

1

, . . . , ξ

m

), m-wymiarowym, F

s

-mierzalnym wektorem losowym. Mó-

wimy, że m-wymiarowy proces X = (X

(1)

t

, . . . , X

(m)

t

)

t∈[s,T )

rozwiązuje jed-

norodne wielowymiarowe równanie stochastyczne

dX

t

= b(X

t

)dt + σ(X

t

)dW

t

,

X

s

= ξ,

jeśli

X

t

= ξ +

Z

t

s

b(X

r

)dr +

Z

t

s

σ(X

r

)dW

r

,

t ∈ [s, T ).

Tak jak w przypadku jednowymiarowym dowodzimy:

Twierdzenie 12. Załóżmy, że ξ = (ξ

1

, . . . , ξ

m

) jest m-wymiarowym, F

s

-

mierzalnym wektorem losowym takim, że Eξ

2

j

< ∞ dla 1 ¬ j ¬ m, b : R

m

R

m

, σ : R

m

R

d×m

są funkcjami lipschitzowskimi oraz W jest d-wymiarowym

procesem Wienera. Wówczas równanie

dX

t

= b(X

t

)dt + σ(X

t

)dW

t

,

X

s

= ξ

ma dokładnie jedno rozwiązanie X = (X

(1)

t

, . . . , X

(m)

t

)

t­s

. Ponadto

E sup

s¬t¬u

E|X

(i)

t

|

2

< ∞

dla u < ∞.

82

background image

14.4

Generator procesu dyfuzji.

W tej części zakładamy, że b = (b

i

)

i¬m

: R

m

R

m

, σ = (σ

i,j

)

i¬m,j¬d

: R

m

R

m×d

są funkcjami ciągłymi, zaś W = (W

(1)

, . . . , W

(d)

) jest d-wymiarowym

procesem Wienera

Definicja 13. Generatorem m-wymiarowego procesu dyfuzji spełniającego
stochastyczne równanie różniczkowe

dX

t

= b(X

t

)dt + σ(X

t

)dW

t

nazywamy operator różniczkowy drugiego rzędu dany wzorem

Lf (x) =

n

X

i=1

b

i

(x)

∂f

∂x

i

(x) +

1

2

n

X

i=1

d

X

j=1

σ

i,j

(x)

2

f

∂x

i

∂x

j

(x),

f ∈ C

2

(R

m

).

Definicja ta jest motywowana przez poniższy prosty, ale bardzo ważny

fakt.

Fakt 14. Załóżmy, że L jest generatorem procesu dyfuzji spełniającego rów-
nanie dX

t

= b(X

t

)dt+σ(X

t

)dW

t

. Wówczas dla dowolnej funkcji f ∈ C

2

(R

m

)

takiej, że f (X

0

) jest całkowalne, proces M

f

t

:= f (X

t

)

R

t

0

Lf (X

s

)ds jest cią-

głym martyngałem lokalnym. Ponadto, jeśli f ma dodatkowo nośnik zwarty,
to M

f

t

jest martyngałem.

Dowód. Ze wzoru Itˆ

o łatwo sprawdzić, że

M

f

t

= f (X

0

) +

n

X

i=1

d

X

j=1

Z

t

0

σ

i,j

(X

t

)

∂f

∂x

i

(X

t

)dW

(j)

t

∈ M

c
loc

.

Jeśli f ∈ C

2

zw

(R

m

), to funkcje σ

i,j

(x)

∂f

∂x

i

(x) są ciągłe i mają nośnik zwarty

w R

m

, więc są ograniczone, zatem procesy σ

i,j

(X

t

)

∂f

∂x

i

(X

t

) należą do L

2

T

dla dowolnego T < ∞, więc M

f

t

jest martyngałem (a nawet martyngałem

całkowalnym z kwadratem).

Uwaga 15. Założenie o zwartym nośniku f można w wielu przykładach
istotnie osłabić. Załóżmy, że współczynniki b i σ są lipschitzowskie oraz
X

0

∈ L

2

. Wówczas jak wiemy X

t

jest w L

2

oraz sup

t¬T

EX

2

t

< ∞ dla

T < ∞. Stąd nietrudno sprawdzić (używając lipschitzowskości σ

i,j

, że jeśli

pochodne f są ograniczone, to σ

i,j

(X

t

)

∂f

∂x

i

(X

t

) ∈ L

2

T

dla T < inf ty, zatem

M

f

t

jest martyngałem.

83

background image

Przykłady

Generatorem d-wymiarowego procesu Wienera jest operator Lf =

1
2

4f .

Jeśli X = (X

1

, . . . , X

d

) spełnia

dX

(

t

i) = bX

(i)

t

dt + σdW

(i)

t

,

i = 1, . . . , m

(m-wymiarowy proces Ornsteina-Uhlenbecka), to Lf (x) = bhx, ∇f (x)i +

1
2

σ

2

4f .

Wykład zakończymy przykładem pokazującym związek między stocha-

stycznymi równaniami różniczkowymi a równaniami cząstkowymi. Dokładna
analiza takich związków jest ważną dziedziną łączącą rozumowania anali-
tyczne i probabilistyczne. Nieco więcej na ten temat można się będzie do-
wiedzieć na przedmiocie Procesy Stochastyczne.

Przykład

Dla x ∈ R

m

niech X

x

t

będzie rozwiązaniem równania stochastycznego

dX

x

t

= b(X

x

t

)dt + σ(X

x

t

)dW

t

,

X

0

t

= x,

zaś L odpowiadającym mu generatorem. Załóżmy, że D jest obszarem ogra-
niczonym oraz f spełnia równanie cząstkowe

Lf (x) = 0, x ∈ D,

f (x) = h(x)x ∈ ∂D.

Załóżmy dodatkowo, że f daje się rozszerzyć do funkcji klasy C

2

na pew-

nym otoczeniu D. Wówczas f się rozszerza też do funkcji klasy C

2

zw

(R

m

).

Wybierzmy x ∈ D i określmy

τ = inf{t > 0 : X

x

t

/

∈ D}.

Wiemy, że proces M

t

= f (X

x

t

)

R

t

0

Lf (X

x

s

)ds jest martyngałem, zatem

martyngałem jest również M

t∧τ

, ale

M

t∧τ

= f (X

x

t∧τ

)

Z

∧τ

0

tLf (X

x

s

)ds = f (X

x

t∧τ

),

w szczegóności

Ef (X

x

t∧τ

) = EM

t∧τ

= EM

0

= f (x).

Jeśli dodatkowo τ < ∞ p.n. (to założenie jest spełnione np. dla procesu
Wienera), to z twierdzenia Lebesgue’a o zbieżności zmajoryzowanej

f (x) = Ef (X

x

t∧τ

) Ef (X

x

τ

) = Eh(X

x

τ

).

84

background image

Otrzynaliśmy więc stochastyczną reprezentację rozwiązania eliptycznego rów-
nania cząstkowego.

Podobne rozumowanie pokazuje, że (przy pewnych dodatkowych założe-

niach) rozwiązanie równania

Lf (x) = g(x), x ∈ D,

f (x) = h(x)x ∈ ∂D

ma postać

f (x) = Eh(X

x

τ

) = E

Z

τ

0

g(X

x

s

)ds,

x ∈ D.

15

Twierdzenie Girsanowa

W czasie tego wykładu przyjmujemy jak zwykle, że (Ω, F , P) jest ustaloną
przestrzenią probabilistyczną. Będziemy konstruowali inne miary probabili-
styczne na przestrzeni (Ω, F ) względem których proces Wienera z dryfem
ma taki rozkład jak zwykły proces Wienera. Przez EX będziemy rozumieli
zawsze wartość oczekiwaną względem P, wartość oczekiwaną X względem
innej miary Q będziemy oznaczać E

Q

X. Zauważmy, że jeśli dQ = ZdP, tzn.

Q(A) =

R

A

ZdP, to

E

Q

X =

Z

XdQ =

Z

XZdP = E(XZ).

15.1

Przypadek Dyskretny

Załóżmy, że zmienne Z

1

, Z

2

, . . . , Z

n

są niezależne i mają standardowy roz-

kład normalny N (0, 1). Wprowadźmy nową miarę Q na ((Ω, F) wzorem
dQ = exp(

P

n
i
=1

µ

i

Z

i

1
2

P

n
i
=1

µ

2

i

)dP, tzn.

Q(A) =

Z

A

exp(

n

X

i=1

µ

i

Z

i

(ω)

1

2

n

X

i=1

µ

2
i

)dP(ω)

dla A ∈ F .

Zauważmy, że

Q(Ω) = E exp(

n

X

i=1

µ

i

Z

i

1

2

n

X

i=1

µ

2
i

) =

n

Y

i=1

E exp(µ

i

Z

i

1

2

µ

2
i

) = 1,

85

background image

więc Q jest miarą probabilistyczną na (Ω, F). Ponadto dla dowolnego zbioru
Γ ∈ B(R

n

),

Q((Z

1

, . . . , Z

n

) Γ) = E exp(

n

X

i=1

µ

i

Z

i

1

2

n

X

i=1

µ

2
i

)

1

{(Z

1

,...,Z

n

)Γ}

=

1

(2π)

n/2

Z

Γ

e

P

n

i=1

µ

i

z

i

1
2

P

n

i=1

µ

2
i

e

1
2

P

n

i=1

z

2

i

dz

1

. . . dz

n

=

1

(2π)

n/2

Z

Γ

e

1
2

P

n

i=1

(z

i

−µ

i

)

2

dz

1

. . . dz

n

.

Zatem względem miary Q zmienne Z

i

− µ

i

są niezależne oraz mają rozkład

N (0, 1).

Definiując S

k

= X

1

+ . . . + X

k

widzimy, że względem Q zmienne (S

k

P

k
i
=1

µ

i

)

k¬n

są sumami niezależnych standardowych zmiennych normalnych

(czyli mają ten sam rozkład co (S

k

)

k

względem P). Podczas dalszej części

wykładu pokażemy, że można podobny fakt sformułować w przypadku cią-
głym, gdy S

k

zastąpimy procesem Wienera, a sumy

P

k
i
=1

µ

i

całką

R

t

0

Y

s

ds.

15.2

Twierdzenie Girsanowa dla procesu Wienera

Załóżmy, że T < ∞, proces Y = (Y

t

)

t<T

jest prognozowalny oraz

R

T

0

Y

2

t

< ∞

p.n., wówczas Y ∈ Λ

2

T

, proces M

t

=

R

Y dW jest martyngałem lokalnym na

[0, T ) oraz hM i =

R

Y

2

dt. Co więcej można też określić wartość M i Z w

punkcie T . Zatem jak wiemy (zob. Fakt 9) proces

Z

t

:= exp(M

t

1

2

hM i

t

) = exp(

Z

t

0

Y

s

dW

s

1

2

Z

t

0

Y

2

s

ds)

jest martyngałem lokalnym na [0, T ]

Lemat 1. Jeśli M jest ciągłym martyngałem lokalnym na [0, T ], to proces
Z

t

= exp(M

t

1
2

hM i

t

) jest martyngałem na przedziale skończonym [0, T ]

wtedy i tylko wtedy, gdy EZ

T

= 1.

Dowód. Implikacja ”” jest oczywista, bo EZ

T

= EZ

0

= 1. Wystarczy więc

udowodnić ””.

Wiemy, że Z jest nieujemnym martyngałem lokalnym, zatem jest nad-

martyngałem. Ustalmy t ∈ [0, T ], wówczas Z

t

­ E(Z

T

|F

t

) p.n.. Ponadto

1 = EZ

0

­ EZ

t

­ EZ

T

, czyli, jeśli EZ

T

= 1, to EZ

t

= 1 i

E(Z

t

E(Z

T

|F

t

)) = EZ

t

EZ

T

= 0,

a więc Z

t

= E(Z

T

|F

t

) p.n..

86

background image

Twierdzenie 2. Załóżmy, że T < ∞, proces Y jest prognozowalny oraz

R

T

0

Y

2

s

ds < ∞¿. Niech Z

t

= exp(

R

t

0

Y

s

dW

s

1
2

R

t

0

Y

2

s

ds), wówczas, jeśli

EZ

T

= 1 (czyli Z jest martyngałem na [0, T ]), to proces

V

t

= W

t

Z

t

0

Y

s

ds,

t ∈ [0, T ]

jest procesem Wienera względem wyjściowej filtracji na zmodyfikowanej prze-
strzeni propabilistycznej
(Ω, F , Q

T

), gdzie dQ

T

= Z

T

dP, tzn.

Q

T

(A) =

Z

A

Z

T

dP,

A ∈ F .

Dowód. Zmienna Z

T

jest nieujemna i EZ

T

= 1, więc Q

T

jest miarą proba-

bilistyczną. Zauważmy też, że jeśli P(A) = 0, to Q

T

(A) = 0, czyli zdarzenia,

które zachodzą P prawie na pewno, zachodzą też Q

T

prawie na pewno. Pro-

ces V jest ciągły, adaptowalny względem F

t

oraz V

0

= 0. Wystarczy zatem

wykazać, że dla λ ∈ R, proces U

t

= U

t

(λ) =:= exp(λV

t

1
2

λ

2

t) jest martyn-

gałem lokalnym względem Q

T

. Zauważmy, że

U

t

Z

t

= exp(λV

t

1

2

λ

2

t) exp(

Z

t

0

Y

s

dW

s

Z

t

0

Y

2

s

ds)

= exp(λW

t

+

Z

t

0

Y

s

dW

s

1

2

Z

t

0

(2λY

s

+ λ

2

+ Y

2

s

)ds)

= exp(

Z

t

0

(λ + Y

s

)dW

s

1

2

Z

t

0

(λ + Y

s

)

2

ds) = exp(N

t

1

2

hN i

t

),

gdzie N =

R

(λ + Y )dW ∈ M

c
loc

. Zatem proces U Z jest martyngałem lokal-

nym względem P, czyli istnieją τ

n

% T takie, że U

τ

n

Z

τ

n

jest martyngałem.

Ustalmy n, wtedy dla dowolnego ograniczonego momentu zatrzymania τ ,

E

Q

T

U

0

= E(U

0

Z

T

) = E(U

0

E(Z

T

|F

0

)) = E(U

0

Z

0

) = E(U

τ

n

∧τ

Z

τ

n

∧τ

)

= E(U

τ

n

∧τ

E(Z

T

|F

τ

n

∧τ

) = E(U

τ

n

∧τ

Z

T

) = E

Q

T

U

τ

n

∧τ

,

zatem z twierdzenia odwrotnego do twierdzenia Dooba wynika, że U

τ

n

jest

martyngałem względem Q

T

, czyli U jest Q

T

-martyngałem lokalnym.

W pewnych zastosowaniach wygodnie jest mieć miarę względem której

proces W −

R

Y ds jest procesem Wienera na całej półprostej [0, ∞).

Twierdzenie 3. Załóżmy, że Y ∈ Λ

2

, zaś proces Z

t

i miary Q

T

dla T < ∞

są jak poprzednio. Wówczas, jeśli EZ

t

= 1 dla wszystkich t (czyli Z jest

martyngałem na [0, ∞)), to istnieje dokładnie jedna miara probabilistyczna

Q na (Ω, F

W

) taka, że Q(A) = Q

T

(A) dla A ∈ F

W

T

i T < ∞. Proces

V = W −

R

Y ds jest względem Q procesem Wienera na [0, ∞).

87

background image

Szkic Dowodu.. Na zbiorach postaci A = {(W

t

1

, W

t

2

, . . . , W

t

k

) Γ}, 0 ¬

t

1

¬ t

2

¬ . . . ¬ t

k

¬ T , Γ ∈ B(R

k

) kładziemy Q(A); = Q

T

(A). Otrzymujemy

w ten sposób zgodną rodzinę miar probabilistycznych i na mocy twierdzenia
Kołmogorowa Q przedłuża się w spośób jednoznaczny do miary na F

W

.

Uwaga 4. O ile miara Q

T

jest absolutnie ciągła względem P (tzn. Q

T

(A) =

0, jeśli P(A) = 0), to miara Q zadana przez ostatnie twierdzenie taka być
nie musi. Istotnie określmy Y

t

≡ µ 6= 0, czyli V

t

= W

t

− µt. Niech

A := : lim sup

1

t

W

t

(ω) = 0},

B := : lim sup

1

t

V

t

(ω) = 0} = : lim sup

1

t

W

t

(ω) = µ}.

Wówczas z mocnego prawa wielkich liczb dla proceseu Wienera P(A) = 1
oraz P(B) = 0, z drugiej strony Q(B) = 1, zatem miary P i Q są wzajemnie
singularne na F

W

, mimo, że po odbcięciu do F

W

T

dla T < ∞ są względem

siebie absolutnie ciągłe. Można pokazać, że albsolutna ciągłość Q względem
P wiąże się z jednostajną całkowalnością martyngału Z.

Naturalne jest pytanie kiedy spełnione są założenia twierdzenia Girsano-

wa, czyli kiedy Z jest martyngałem. Użyteczne jest następujące kryterium.

Twierdzenie 5 (Kryterium Nowikowa). Jeśli Y jest procesem prognozo-
walnym spełniającym warunek
E exp(

1
2

R

T

0

Y

2

s

ds) < ∞, to spełnione są zało-

żenia twierdzenia Girsanowa, tzn. proces Z = exp(

R

Y dW −

1
2

R

Y

2

dt) jest

martyngałem na [0, T ].

Kryterium Nowikowa jest konsekwencją silniejszego twierdzenia.

Twierdzenie 6. Załóżmy, że M jest ciągłym martyngałem lokalnym ta-
kim, że dla wszystkich t,
E exp(

1
2

hM i

t

) < ∞. Niech Z

t

= exp(M

t

1
2

hM i),

wówczas EZ

t

= 1 dla wszystkich t, czyli Z jest martyngałem.

Twierdzenie Girsanowa można sformułować też w przypadku wielowy-

miarowym.

Twierdzenie 7. Załóżmy, że Y = (Y

(1)

, . . . , Y

(d)

) proces d-wymiarowy

taki, że Y

(j)

Λ

2

T

oraz T < ∞. Niech W = (W

(1)

, . . . , W

(d)

) będzie d-

wymiarowym procesem Wienera oraz

Z

t

= exp(

d

X

i=1

Z

Y

(i)

s

dW

(i)

t

1

2

Z

t

0

|Y

s

|

2

ds).

88

background image

Wówczas, jeśli EZ

T

= 1 (czyli Z

t

jest martyngałem na [0, T ]), to proces

V

t

= W

t

Z

t

0

Y

s

ds = (W

(1)

t

Z

t

0

Y

(1)

ds, . . . , W

(d)

t

Z

t

0

Y

(d)

s

ds)

jest procesem Wienera na [0, T ] względem miary probabilistycznej Q

t

takiej,

że dQ

T

= Z

T

dP.

Kryterium Nowikowa w przypadku d-wymiarowym ma postać

Twierdzenie 8. Jeśli Y jest d-wymiarowym procesem prognozowalnym speł-
niającym warunek
E exp(

1
2

R

T

0

|Y

s

|

2

ds) < ∞, to spełnione są założenia twier-

dzenia Girsanowa.

A

Wybrane Fakty z z Rachunku Prawdopodobień-
stwa i Analizy Matematycznej

W części tej zebraliśmy kilka stwierdzeń, na które się wcześniej powoływali-
śmy. Fakty te, choć nieco mniej standardowe, są zwykle dowodzone w czasie
kursowych wykładów z analizy matematycznej i rachunku prawdopodobień-
stwa.

Definicja 1. Rodzinę S podzbiorów zbioru X nazywamy π-układem, jeśli
dla dowolnych A, B ∈ S, zbiór A ∩ B ∈ S.

Definicja 2. Rodzinę A podzbiorów zbioru X nazywamy λ-układem, jeśli
spełnione są następujące waruki
(i) X ∈ A.
(ii) Jeśli A, B ∈ A i A ⊂ B, to B \ A ∈ A.
(iii) Jeśli A

i

∈ A dla i = 1, 2, . . . oraz A

1

⊂ A

2

⊂ . . ., to

S


i
=1

A

i

∈ A.

Uwaga 3. Rodzina podzbiorów X jest σ-ciałem wtedy i tylko wtedy, gdy
jest π- i λ-układem.

Twierdzenie 4 (O π- i λ- układach). Jeśli A jest λ-układem zawierającym
π-układ S, to A zawiera również σ-ciało σ
(S) generowane przez S.

Twierdzenie 5 (Caratheodory’ego o przedłużaniu miary). Załóżmy, że A
jest ciałem podzbiorów X, a µ

0

skończenie addytywną funkcją z A w R

+

.

Wówczas µ

0

przedłuża się do miary µ na σ-ciele σ(A) wtedy i tylko wtedy,

gdy µ

0

jest ciągła w ∅, tzn

jeśli (A

n

)


n
=1

⊂ A, A

1

⊃ A

2

⊃ . . . oraz

\

n=1

A

n

= ∅, to lim

n→∞

µ

0

(A

n

) = 0.

(C)

89

background image

B

Dowody wybranych twierdzeń

B.1

Twierdzenie Kołmogorowa o istnieniu procesu

Dowód Twierdzenia 2.8. W dowodzie wykorzystamy twierdzenie Carathe-
odory’ego o przedłużaniu miary (zob. Twierdzenie A.5). Niech A oznacza al-
gebrę zbiorów cylindrycznych. Dla C = {x : (x

t

1

, . . . , x

t

n

) ∈ A}, A ∈ B(R

n

)

połóżmy µ

0

(C) = µ

t

1

,...,t

n

(A). Zauważmy, że

• z warunków zgodności wynika, że µ

0

jest dobrze zdefiniowane, tzn.

µ

0

(C) nie zależy od wyboru t

1

, . . . , t

n

i A reprezentujących C.

µ

0

jest skończenie addytywna. Istotnie jeśli C

1

, . . . , C

k

∈ A, to można

dobrać odpowiednio duży zbiór indeksów t

1

, . . . , t

n

∈ T taki, że zbiory

C

1

, . . . , C

k

zależą tylko od t

1

, . . . , t

n

, tzn.

C

i

= {x : (x

t

1

, . . . , x

t

n

) ∈ A

i

}, A

i

∈ B(R

n

).

Załóżmy, że zbiory zbiory C

1

, . . . , C

k

są rozłączne. Wówczas zbiory

A

1

, . . . , A

k

są również rozłączne, a zatem

µ

0

k

[

i=0

C

i

= µ

t

1

,...,t

n

k

[

i=0

A

i

=

k

X

i=0

µ

t

1

,...,t

n

(A

i

) =

k

X

i=0

µ

0

(C

i

).

By zakończyć dowód musimy wykazać warunek (C) z twierdzenia Cara-

theodory’ego, czyli

jeśli C

n

∈ A, C

1

⊃ C

2

⊃ . . . , µ

0

(C

n

) ­ ε > 0, to

\

n=1

C

n

6= ∅.

Każda miara µ na (R

n

, B(R

n

)) jest regularna (zob. Twierdzenie A.?), tzn.

dla dowolnego A ∈ B(R

n

),

µ(A) = sup(K) : K ⊂ A, K zwarte}.

Zbiory C

n

są cylindryczne, czyli zależą tylko od skończonego zbioru in-

deksów. Możemy założyć, że te zbiory indeksów rosną, co więcej (ewentualnie
powtarzając zbiory C

i

lub dodając indeksy) możemy zakładać, że istnieje

ciąg t

1

, t

2

, . . . taki, że

C

n

= {x : (x

t

1

, . . . , x

t

n

) ∈ A

n

} dla pewnego A

n

∈ B(R

n

).

90

background image

Na mocy regularności miary µ

t

1

,...,t

n

, istnieją zbiory zwarte K

n

⊂ A

n

takie,

że

µ

t

1

,...,t

n

(A

n

\ K

n

) ¬

ε

2

n+1

, n = 1, 2, . . . .

Oznaczając D

n

= {x : (x

t

1

, . . . , x

t

n

) ∈ K

n

}, mamy µ

0

(C

n

\ D

n

) ¬ 2

−n−1

ε.

Niech

e

D

n

= D

1

∩ . . . ∩ D

n

= {x : (x

t

1

, . . . , x

t

n

)

f

K

n

}, gdzie

f

K

n

= (K

1

× R

n−1

) (K

2

× R

n−2

) ∩ . . . ∩ (K

n−1

× R) ∩ K

n

.

Ponieważ C

n

\

e

D

n

=

S

n
k
=1

(C

n

\ D

k

)

S

n
k
=1

(C

k

\ D

k

), więc

µ

0

(C

n

\

e

D

n

) ¬

n

X

k=0

µ

0

(C

k

\ D

k

) ¬

X

k=1

2

−k−1

ε ¬

ε

2

.

Zatem µ

0

(

e

D

n

) ­ µ

0

(C

n

)−µ

0

(C

n

\

e

D

n

) ­ ε−

ε
2

> 0 i w szczególności

e

D

n

6= .

Niech x

(n)

e

D

n

, wówczas

(x

(n)
t

1

, . . . , x

(n)
t

k

) ∈ K

k

, k = 1, . . . , n.

Zbiory K

k

są zwarte, co implikuje, że dla dowolnego k, ciąg (x

(n)
t

k

)

n=1

jest

ograniczony. Za pomocą metody przekątniowej możemy wybrać podciąg (n

i

)

taki, że lim

i→∞

x

(n

i

)

t

k

= x

t

k

dla k = 1, 2, . . .. Ale wówczas, z domkniętości

K

k

,

(x


t

1

, . . . , x


t

k

) = lim

n

i

→∞

(x

(n

i

)

t

1

, . . . , x

(n

i

)

t

k

) ∈ K

k

.

Określmy y ∈ R

T

wzorem

y

t

=

(

x

t

dla t ∈ {t

1

, t

2

, . . .},

0

dla t /

∈ {t

1

, t

2

, . . .}.

Wówczas y ∈

T


n
=1

C

n

, czyli

T


n
=1

C

n

6= , co chcieliśmy dowieść.

Wiemy zatem, że na Ω = R

T

istnieje miara probabilistyczna µ rozsze-

rzająca µ

0

. Wtedy dla t

1

, . . . , t

n

∈ T oraz A ∈ B(R

n

) mamy

µ({x : (x

t

1

, . . . , x

t

n

) ∈ A}) = µ

t

1

,...,t

n

(A).

Zatem na przestrzeni probabilistycznej (R

T

, B(R

T

), µ) wystarczy zdefinio-

wać proces X wzorem X

t

(x) = x

t

.

91

background image

B.2

Twierdzenie o ciągłej modyfikacji

Dowód Twierdzenia 3.14. Ustalmy γ ∈ (0, β/α) i niech

D = {t ∈ [a, b] : t = 2

−n

k, n = 1, 2, . . . , k ∈ Z}

oznacza zbiór liczb dwójkowo wymiernych z [a, b]. Wówczas

D =

[

n=0

D

n

, gdzie D

n

= {t ∈ [a, b] : t = 2

−n

k, k ∈ Z}.

Na mocy nierówności Czebyszewa,

P(|X

t

− X

s

| ­ ε) ¬ ε

−α

E|X

t

− X

s

|

α

¬ Cε

−α

|t − s|

1+β

,

w szczególności

P


X

k+1

2n

− X

k

2n


­ 2

−γn

¬ C2

−n(1+β−αγ)

.

Zatem, dla ustalonego n,

P

max

k

2n

<

k+1

2n

¬b


X

k+1

2n

− X

k

2n


­2

−γn

¬

X

k

2n

<

k+1

2n

¬b

P


X

k+1

2n

− X

k

2n


­ 2

−γn

¬ 2

n

(b − a)C2

−n(1+β−αγ)

= C(b − a)2

−n(β−αγ)

.

Zdefiniujmy A = lim sup A

n

, gdzie

A

n

=

n

max

2

−n

k<2

−n

(k+1)¬b


X

k+1

2n

− X

k

2n


­ 2

−γn

o

.

Nierówność γα < β implikuje, że

X

n=1

P(A

n

) ¬

X

n=1

C(b − a)2

−n(β−αγ)

< ∞.

zatem, na mocy lematu Borela-Cantelliego, P(A) = 0, czyli P(B) = 1, gdzie

B = Ω\A =

n

ω :

n

0

(ω)

n­n

0

(ω)

2

−n

k<2

−n

(k+1)¬b


X

k+1

2n

−X

k

2n


< 2

−γn

)

o

.

Załóżmy, że ω ∈ B, pokażemy wpierw, indukcyjnie po m, że

n­n

0

(ω)

m­n

s,t∈D

m

|s − t| ¬ 2

−n

⇒ |X

s

(ω) − X

t

(ω)| ¬ 2

m

X

j=n

2

−γj

. (13)

92

background image

Dla m = n, jeśli |s − t| ¬ 2

−n

, to możemy przyjąć, że s =

k

2

n

, t =

k+1

2

n

i

|X

s

− X

t

| = |X

k+1

2n

− X

k

2n

| < 2

−γn

na mocy definicji B.

Załóżmy zatem, że (13) jest udowodnione dla m = n, n + 1, . . . , M − 1,

pokażemy, że zachodzi również dla m = M . Niech s, t ∈ D

M

, s < t, możemy

założyć, że |s − t| > 2

−M

, bo inaczej działa argument przedstawiony w

pierwszym kroku indukcji. Połóżmy

˜

s = min{u ∈ D

M −1

, u > s}, ˜

t = max{u ∈ D

M −1

, u < t},

wówczas s ¬ ˜

s ¬ ˜

t ¬ t, czyli |˜

s − ˜

t| ¬ |s − t| ¬ 2

−n

. Stąd, wobec założenia

indukcyjnego, |X

˜

s

(ω) − X

˜

t

(ω)| ¬ 2

P

M −1
j=n

2

−γj

. Ponadto, |s − ˜

s| ¬ 2

−M

,

|t − ˜

t| ¬ 2

−M

, czyli

|X

s

(ω) − X

t

(ω)| ¬ |X

˜

s

(ω) − X

˜

t

(ω)| + |X

˜

s

(ω) − X

s

(ω)| + |X

t

(ω) − X

˜

t

(ω)|

¬ 2

M −1

X

j=n

2

−γj

+ 2

−γM

+ 2

−γM

= 2

M

X

j=n

2

−γj

,

co kończy dowód (13).

Wiemy zatem, że dla ω ∈ B,

s, t ∈ D, |s − t| ¬ 2

−n

, n ­ n

0

(ω) ⇒ |X

s

(ω) − X

t

(ω)| ¬ 2

X

j=n

2

−γj

= C

γ

2

−γn

,

gdzie C

γ

jest stałą zależną tylko od γ. Weźmy teraz dowolne s, t ∈ D takie,

że |s − t| ¬ 2

−n

0

(ω)

, wówczas istnieje n ­ n

0

(ω) spełniające 2

−n−1

< |s − t| ¬

2

−n

i

|X

s

(ω) − X

t

(ω)| ¬ C

γ

2

−γn

¬ 2

γ

C

γ

|s − t|

γ

.

W końcu, dla dowolnych s, t ∈ D, możemy dobrać ciąg s = s

0

< s

1

< . . . <

s

k

= t, k ¬ 2

n

0

(ω)

(b − a) taki, że s

i

∈ D, |s

i+1

− s

i

| ¬ 2

−n

0

(ω)

i otrzymamy

|X

s

(ω) − X

t

(ω)| ¬

k

X

i=1

|X

s

i

(ω) − X

s

i+1

(ω)| ¬

k

X

i=1

2

γ

˜

C

γ

|s

i

− s

i−1

|

γ

¬ (b − a)2

n

0

(ω)

2

γ

˜

C

γ

|t − s|

γ

.

Udowodniliśmy zatem, że dla ω ∈ B, funkcja t → X

t

(ω) jest h¨

olderowsko

ciągła na D, w szczególności jest jednostajnie ciągła i w każdym punkcie z
[a, b] ma granicę. Połóżmy

e

X

t

(ω) =

(

lim

s→t,s∈D

X

s

(ω)

dla ω ∈ B

0

dla ω /

∈ B.

93

background image

Wówczas wszystkie trajektorie

e

X są ciągłe (a nawet h¨

olderowsko ciągłe z wy-

kładnikiem γ). Z nierówności Czebyszewa łatwo wynika, że dla dowolnego
ciągu (t

n

) ⊂ D, zbieżnego do t ∈ [a, b], X

t

n

→ X

t

według prawdopodobień-

stwa. Z drugiej strony X

t

n

e

X

t

p.n., a więc również według prawdopodo-

bieństwa. Z jednoznaczności granicy wynika, że

e

X

t

= X

t

p.n., czyli proces

e

X jest modyfikacją X.

Na koniec zauważmy, że trajektorie

e

X są h¨

olderowsko ciągłe z wykład-

nikiem γ, a skoro wiemy, ze wszystkie ciągłe modyfikacje X są nierozróż-
nialne, to wszystkie ciągłe modyfikacje X mają, z prawdopodobieństwem 1,

olderowsko ciągłe trajektorie z dowolnym wykładnikiem γ <

α
β

.

B.3

Rozkład Dooba-Meyera

Proces (M

t

, F

t

) jest ciągłym martyngałem wtedy i tylko wtedy, gdy proces

(M

arctgt

, F

arctgt

) jest ciągłym martyngałem, zatem bez straty ogólności bę-

dziemy zakładać, że T < ∞. Przypomnijmy też, że (F

t

)

0¬t¬T

jest ustaloną

filtracją spełniającą zwykłe warunki.

Dla procesu X = (X

t

)

t∈[0,T ]

i podziału Π = (0 = t

0

< t

1

< . . . < t

n

= T )

odcinka [0, T ] określamy proces V

X

Π

= (V

X

Π,t

)

t∈[0,T ]

wzorem

V

X

Π,t

=

n−1

X

i=0

(X

t∧t

i+1

− X

t∧t

i

)

2

.

Będziemy też czasem dla wygody pisać V

Π,t

(X) zamiast V

X

Π,t

.

Idea dowodu twierdzenia Dooba-Meyera polega na wykazaniu, że hM, M i

można określić jako granicę V

X

Π,t

przy diam(Π) 0. Dowód rozbijemy na

kilka lematów.

Lemat 1. Dla M ∈ M

2,c
T

proces (M

2

t

− V

M

Π,t

)

t∈[0,T ]

jest ciągłym martynga-

łem.

Dowód. Niech t

i

¬ s < t ¬ t

i+1

dla pewnego i ¬ n − 1. Wówczas

V

M

Π,t

−V

M

Π,s

= (M

t

−M

t

i

)

2

(M

s

−M

t

i

)

2

= (M

t

−M

s

)

2

+2(M

t

−M

s

)(M

s

−M

t

i

),

stąd

E(V

M

Π,t

− V

M

Π,s

|F

s

) = E((M

t

− M

s

)

2

|F

s

) 2(M

s

− M

t

i

)E((M

t

− M

s

)|F

s

)

= E(M

2

t

|F

s

) 2M

s

E(M

t

|F

s

) + M

2

s

= E(M

2

t

|F

s

) − M

2

s

= E(M

2

t

− M

2

s

|F

s

).

94

background image

Lemat 2. Załóżmy, że M = (M

t

)

0¬t¬T

jest ciągłym, jednostajnie ograni-

czonym martyngałem. Wówczas dla dowolnego podziału Π,

E(V

M

Π,t

)

2

¬ 48 sup

t

kM

t

k

4

< ∞.

Dowód. Mamy

(V

M

Π,t

)

2

= (

n

X

k=1

(M

t

k

− M

t

k−1

)

2

)

2

=

n

X

k=1

(M

t

k

− M

t

k−1

)

4

+ 2

n−1

X

k=1

(M

t

k

− M

t

k−1

)

2

n

X

j=k+1

(M

t

j

− M

t

j−1

)

2

=

n

X

k=1

(M

t

k

− M

t

k−1

)

4

+ 2

n−1

X

k=1

(V

M

Π,t

k

− V

M

Π,t

k−1

)(V

M

Π,T

− V

M

Π,t

k

).

Z poprzedniego lematu mamy E(V

M

Π,T

− V

M

Π,t

k

|F

t

k

) = E((M

T

− M

t

k

)

2

|F

t

k

),

zatem

E(V

M

Π,t

)

2

=

n

X

k=1

E(M

t

k

− M

t

k−1

)

4

+ 2

n−1

X

k=1

E[(V

M

Π,t

k

− V

M

Π,t

k−1

)(V

M

Π,T

− V

M

Π,t

k

)]

=

n

X

k=1

E(M

t

k

− M

t

k−1

)

4

+ 2

n−1

X

k=1

E[(V

M

Π,t

k

− V

M

Π,t

k−1

)(M

T

− M

t

k

)

2

]

¬ E(max

k

(M

t

k

− M

t

k−1

)

2

+ 2 max

k

(M

T

− M

t

k

)

2

)V

M

Π,T

¬ 12C

2

EV

2

Π,T

= 12C

2

E(M

T

− M

0

)

2

¬ 48C

4

,

gdzie C = sup

t

kM

t

k

.

Lemat 3. Załóżmy, że M = (M

t

)

0¬t¬T

jest ciągłym, jednostajnie ograni-

czonym martyngałem. Wówczas istnieje N ∈ M

2,c
T

taki, że M

2

− V

M

Π

zbiega

do N w M

2,c
T

, gdy diam(Π) 0.

Dowód. Wystarczy udowodnić zbieżność (przy diam(Π) 0) M

2

T

− V

M

Π,T

w

L

2

(Ω), czyli zbieżność V

M

Π,T

w L

2

(Ω).

Niech Π i Π

0

będą podziałami [0, T ], zaś ΠΠ

0

podziałem wyznaczonym

przez wszystkie punkty z Π i Π

0

. Na mocy Lematu 1 proces X = V

M

Π

− V

M

Π

0

jest martyngałem, więc

E|V

M

Π,T

− V

M

Π

0

,T

|

2

= E(X

2

T

− X

2

0

) = EV

ΠΠ

0

,T

(X),

95

background image

gdzie ostatnia równość wynika stąd, że X

2

− V

ΠΠ

0

(X) jest martyngałem

(znów stosujemy Lemat 1). Ponieważ (x + y)

2

¬ 2(x

2

+ y

2

), więc

V

ΠΠ

0

,T

(X) ¬ 2(V

ΠΠ

0

,T

(V

M

Π

) + V

ΠΠ

0

,T

(V

M

Π

0

).

Wystarczy więc udowodnić, że

EV

ΠΠ

0

,T

(V

M

Π

) 0, jeśli diam(Π) + diam(Π

0

) 0.

(14)

Załóżmy, że s

k

i s

k+1

są kolejnymi punktami podziału ΠΠ

0

, a t

l

, t

l+1

kolejnymi punktami z Π takimi, że t

l

¬ s

k

< s

k+1

¬ t

l+1

, wówczas

V

M

Π

0

,s

k+1

− V

M

Π

0

,s

k

= (M

s

k+1

− M

t

l

)

2

(M

s

k

− M

t

l

)

2

= (M

s

k+1

− M

s

k

)(M

s

k+1

− M

s

k

+ 2M

t

l

).

Stąd

V

ΠΠ

0

,T

(V

M

Π

0

) ¬ max

k

|M

s

k+1

− M

s

k

+ 2M

t

l

|

2

V

M

ΠΠ

0

,T

i z nierówności Schwarza

EV

ΠΠ

0

,T

(V

M

Π

0

) ¬ (E max

k

|M

s

k+1

− M

s

k

+ 2M

t

l

|

4

)

1/2

(E(V

M

ΠΠ

0

,T

)

2

)

1/2

.

Pierwszy składnik dąży do zera, gdy diam(Π) + diam(Π

0

) 0 na mocy

ciągłości i ograniczoności M (stosujemy twierdzenie Lebesgue’a o zbieżno-
ści zmiajoryzowanej), drugi na mocy poprzedniego lematu jest ograniczony
przez wielkość zależną tylko od M . Zatem spełnione jest (14).

Dowód Twierdzenia 8.1. Przypomnijmy, że zakładamy iż T < ∞.

Przypadek I Martyngał M jest jednostajnie ograniczony.

Niech Y = M

2

− N , gdzie N jest procesem zadanym przez Lemat 3.

Wówczas M

2

− Y jest ciągłym martyngałem oraz dla t ¬ T , Y

t

jest granicą

w L

2

(Ω) zmiennych V

M

Π,t

przy diam(Π) 0, stąd Y

0

= 0 p.n.. Ustalmy

s < t ¬ T i niech Π

n

będzie ciągiem podziałów [0, T ] zawierających punkty t

i s o średnicy dążącej do zera. Przechodząc do podciągów możemy zakładać,
że V

M

Π

n

,t

→ Y

t

i V

M

Π

n

,s

→ Y

s

p.n., ale V

Π

n

,s

¬ Π

n

, t, więc Y

t

¬ Y

s

p.n.. Z

ciągłości Y ma z prawdopodobieństwem 1 trajektorie niemalejące, czyli Y
jest szukanym procesem hM i.

Przypadek II M ∈ M

2,c
T

i M

0

= 0.

Wybierzmy ciąg momentów zatrzymania τ

n

% T taki, że M

τ

n

jest

jednostajnie ograniczonym martyngałem (np. τ

n

:= inf{t ­ 0 : |M

t

| ­

n} ∧ T ). Niech Y

n

= hM

τ

n

i oraz N

n

= |M

τ

n

|

2

− Y

n

. Ponieważ dla m ­ n,

96

background image

Y

τ

n

m

= hM

τ

m

i

τ

n

= h(M

τ

m

)

τ

n

i = Y

n

, więc da się określić taki proces ciągły

(Y

t

)

0¬t<T

, że Y

τ

n

= Y

n

p.n.. Wówczas Y

t

= Y

n,t

dla t ¬ τ

n

, więc Y jest

niemalejący i Y

0

= 0. Zauważmy, że EY

2

t

= E(M

τ

n

t

)

2

¬ EM

2

T

, więc z twier-

dzenia Lebesgue’a o zbieżności monotonicznej Y

T

:= lim

t→T

Y

t

istnieje i jest

całkowalne. Widzimy, że N

n,t

→ M

2

t

− Y

2

t

p.n. dla t ¬ T . Ponadto na mocy

nierówności Dooba

E sup

n

N

n,t

¬ E sup

n

(M

τ

n

t

)

2

+ EY

n,t

¬ 4EM

2

T

+ EM

2

T

< ∞,

zatem (N

n,t

)

n

jest jednostajnie całkowalny, czyli N

n,t

zbiega w L

1

, więc

X

2

− Y

2

jest martyngałem, czyli Y = hM i.

Przypadek III M ∈ M

2,c
T

dowolne.

Wówczas M − M

0

∈ M

2,c
T

, na mocy przypadku II istnieje hM − M

0

i. Ale

M

2

− hM − M

0

i = (M − M

0

)

2

− hM − M

0

i + 2M

0

M − M

2

0

jest martyngałem,

zatem hM i = hM − M

0

i.

Literatura

[1] P. Billingsley, Prawdopodobieństwo i miara, PWN, Warszawa 1987.

[2] G.M. Fichtenholz, Rachunek różniczkowy i całkowy, tom III, PWN, War-

szawa 1985.

[3] J. Jakubowski, R. Sztencel, Wstęp do teorii prawdopodobieństwa, wyd

II, Script, Warszawa 2001

[4] S. Łojasiewicz, Wstęp do teorii funkcji rzeczywistych, PWN, Warszawa

1973.

[5] W. Rudin, Podstawy analizy matematycznej, PWN, Warszawa 1976.

97


Wyszukiwarka

Podobne podstrony:
Latała R Wstęp do Analizy Stochastycznej
Wstęp do analizy stochastycznej Rafał Latala
Barthes Wstep do analizy strukturalnej opowiadan
I, A Wstęp do analizy finansowej
01 wstęp do analizy skrypt
J Chadzynski Wstep do analizy zespolonej id
Wstęp do analizy matematycznej, zadania
Gewert M, Skoczylas Z Wstęp do analizy i algebry Teoria, przykłady, zadania wyd 2
Barthes R Wstęp do analizy strukturalnej opowiadań
Barthes, Wstęp do analizy strukturalnej opowiadań
Roland Barthes Wstęp Do Analizy Strukturalnej Opowiadania 2
J R Taylor Wstęp do analizy błędu pomiarowego
Barthes Wstep do analizy strukturalnej opowiadan
Roland Barthes Wstęp Do Analizy Strukturalnej Opowiadania
wyk3 wstęp do analizy rentgenowskiej
Kamil Kłeczek, Totalitarne ideologie i systemy państwowe Wstęp do analizy porównawczej

więcej podobnych podstron