Latała R Wstęp do Analizy Stochastycznej


Wstęp do Analizy Stochastycznej
Rafał Latała
6 września 2010
Poniższy tekst zawiera notatki do wykładów ze Wstępu do Analizy Sto-
chastycznej, prowadzonego w semestrze wiosennym 2010 roku. Gwiazdkami
oznaczono paragrafy dla których zabrakło czasu w trakcie wykładów (być
może niektóre z nich były omówione podczas ćwiczeń) i których znajomość
nie będzie wymagana podczas egzaminu, choć mile widziana.
U Czytelnika zakłada się znajomość podstawowych faktów z zakresu kur-
sowego wykładu z rachunku prawdopodobieństwa. Wszystkie potrzebne wia-
domości można znalezć w podręcznikach [1] i [3].
Autor przeprasza za wszystkie nieścisłości i omyłki mogące się pojawić w
tekście i jednocześnie zwraca się z prośbą do Czytelników, którzy zauważyli
błędy lub mają jakieś inne uwagi na temat notatek o ich zakomunikowanie
osobiste lub wysłanie na adres emailowyrlatala@mimuw.edu.plz poda-
niem wersji notatek (daty), której dotyczą.
Dziękuje panom Krzesimirowi Arodziowi, Tomaszowi Badowskiemu, Ma-
rianowi Kędzierskiemu i Radomirowi Mastelorzowi za zauważenie literówek
w notatkach.
1
1 Podstawowe Definicje. Proces Wienera.
Zaczniemy od podania ważnych definicji używanych podczas całego wykła-
du.
Definicja 1. Niech (&!, F, P) będzie przestrzenią probabilistyczną, (E, E)
przestrzenią mierzalną, zaś T dowolnym zbiorem. Procesem stochastycznym
o wartościach w E, określonym na zbiorze T , nazywamy rodzinę zmiennych
losowych X = (Xt)t"T , przyjmujących wartości w zbiorze E.
Uwaga 2. W zasadzie w czasie całego wykładu T będzie podzbiorem R
(najczęściej przedziałem, niekoniecznie ograniczonym), zaś E = R lub Rd.
Parametr t można wówczas interpretować jako czas.
Definicja 3. Trajektorią procesu X nazywamy funkcję (losową!) t
Xt(), określoną na zbiorze T o wartościach w E.
Definicja 4. Powiemy, że proces X = (Xt)t"T , T " R ma przyrosty
niezależne jeśli dla dowolnych indeksów t0 t1 . . . tn ze zbioru T ,
zmienne losowe Xt0, Xt1 - Xt0, Xt2 - Xt1, . . . , Xtn - Xtn-1 są niezależne.
Definicja 5. Mówimy, że proces stochastyczny (Xt)t 0 ma przyrosty sta-
cjonarne, jeśli rozkład Xt - Xs zależy tylko od t - s, czyli
"t>s 0 Xt - Xs <" Xt-s - X0.
1.1 Proces Wienera (Ruch Browna)
Definicja 6. Procesem Wienera (Ruchem Browna) nazywamy proces sto-
chastyczny W = (Wt)t 0 taki, że
W0 = 0 p.n.; (W0)
W ma przyrosty niezależne; (W1)
Dla 0 s < t zmienna Wt - Ws ma rozkład normalny N (0, t - s); (W2)
Trajektorie W są ciągłe z prawdopodobieństwem 1. (W3)
Uwaga 7. Warunek (W3) oznacza, że istnieje zbiór A taki, że P(A) = 1
oraz dla wszystkich  " A, t Wt() jest funkcją ciągłą na [0, "). Czasami
w definicji procesu Wienera zakłada się, że wszystkie trajektorie są ciągłe
oraz W0 a" 0.
2
1.2 *Konstrukcja Procesu Wienera*
Podczas następnych wykładów podamy dość abstrakcyjną konstrukcję pro-
cesu Wienera opartą o ogólniejsze twierdzenia dotyczące istnienia i ciągłości
trajektorii procesów stochastycznych. W tym paragrafie jedynie naszkicuje-
my alternatywną, bardziej bezpośrednią konstrukcję.
Najpierw zdefiniujemy pewne dwa ważne układy funkcji.
Definicja 8. Niech I(0) = {1}, I(n) = {1, . . . , 2n-1}, n = 1, 2, . . .. Układem
Haara nazywamy rodzinę funkcji (hn,k)k"I(n),n=0,1,... określonych na [0, 1]
wzorami h0,1(t) a" 1 oraz dla k " I(n), n 1,
ńł
n-1
ł 2
2 dla (2k - 2)2-n t < (2k - 1)2-n
ł
n-1
hn,k(t) =
2
-2 dla (2k - 1)2-n t < 2k 2-n
ł
ół
0 w pozostałych przypadkach.
Definicja 9. Przy oznaczeniach poprzedniej definicji układem Schaudera
nazywamy rodzinę funkcji (Sn,k)n=0,1,...,k"I(n) określonych na [0, 1] wzorem

t
Sn,k(t) = hn,k(s)ds.
0
Fakt 10. a) Układ Haara jest bazą ortonormalną przestrzeni L2[0, 1].
b) Dla ustalonego n 1, funkcje (Sn,k)k"I(n) mają nośniki o rozłącznych
wnętrzach oraz Sn,k " = 2-(n+1)/2.
Uwaga 11. Układ Haara jest bazą Schaudera w przestrzeniach Lp[0, 1],
1 p < ". Po dodaniu funkcji stale równej 1, układ Schaudera staje się
bazą Schaudera przestrzeni C[0, 1].
Fakt 12. Dla dowolnych t, s " [0, 1] mamy
"

Sn,k(t)Sn,k(s) = min{t, s}.
n=0
k"I(n)
Niech (gn,k)k"I(n),n=0,1,... będzie rodziną niezależnych zmiennych loso-
wych o rozkładzie N (0, 1) i
n

Wt(n)() = gm,k()Sm,k(t).
m=0
k"I(m)
Twierdzenie 13. Dla prawie wszystkich  " &! ciąg funkcji (Wt(n)()) zbie-
ga jednostajnie na [0, 1] do pewnej funkcji ciągłej Wt(). Jeśli określimy np.
Wt() = 0 dla pozostałych , to tak zdefiniowany proces stochastyczny jest
procesem Wienera na [0, 1].
3
Uwaga 14. Mając dany proces Wienera (Wt)t"[0,1] nietrudno skonstruować
proces Wienera na całej prostej. Można np. sprawdzić, że ((1 + t)W 1 -
1+t
W1)t 0 jest takim procesem.
1.3 Charakteryzacje procesu Wienera
Najpierw podamy twierdzenie, które znacznie ułatwia sprawdzanie, że dany
proces jest procesem Wienera. Musimy wpierw podać ważną definicję.
Definicja 15. Proces X = (Xt)t"T nazywamy gaussowskim, jeśli wszystkie
skończenie wymiarowe rozkłady X są gaussowskie, tzn. wektor (Xt1, . . . , Xtn)
ma rozkład gaussowski dla dowolnych t1, . . . , tn " T .
Przykłady
1. Xt = f(t)g, gdzie f : T R dowolne oraz g <" N (0, 1).
2. Proces Wienera (Wt)t 0.
3. Most Browna Xt = Wt - tW1, 0 t 1.
Twierdzenie 16. Proces (Xt)t 0 jest procesem Wienera wtedy i tylko wte-
dy, gdy jest procesem gaussowskim, o ciągłych trajektoriach p.n. takim, że
EXt = 0 oraz Cov(Xt, Xs) = min{t, s}.
Dowód. !: Mamy EXt = E(Xt - X0) = 0 oraz Var(Xt) = Var(Xt - X0) =
t na mocy (W0) i (W2). Ponadto z niezależności przyrostów, dla t > s,
Cov(Xt, Xs) = Cov(Xt - Xs, Xs) + Var(Xs) = 0 + s = min{t, s}.
!: Zauważmy, że Var(X0) = 0 = EX0, więc spełniony jest warunek
(W0). Dla t > s, zmienna Wt - Ws ma rozkład normalny ze średnią 0 i
wariancją Var(Xt - Xs) = Var(Xt) + Var(Xs) - 2Cov(Xt, Xs) = t - s, więc
zachodzi (W2). By sprawdzić niezależność przyrostów ustalmy 0 t0 t1
. . . tn. Zauważmy, że wektor (Xt0, Xt1 - Xt0, Xt2 - Xt1, . . . , Xtn - Xtn-1)
ma rozkład gaussowski, więc jego współrzędne są niezależne wtedy i tylko
wtedy, gdy są nieskorelowane. Mamy jednak dla s1 s2 s3 s4,
Cov(Xs1, Xs3 - Xs2) = Cov(Xs1, Xs3) - Cov(Xs1, Xs2) = s1 - s1 = 0
oraz
Cov(Xs2 -Xs1, Xs4 -Xs3) = Cov(Xs2, Xs4 -Xs3)-Cov(Xs1, Xs4 -Xs3) = 0.
4
Kolejne twierdzenie pokazuje, że (z dokładnością do drobnych technicz-
nych założeń oraz normalizacji) proces Wienera jest jedynym procesem o
ciągłych trajektoriach oraz niezależnych i stacjonarnych przyrostach.
Twierdzenie 17. Załóżmy, że proces (Xt)t 0 spełnia warunki (W0), (W1),
(W3) (z W zastąpionym przez X) oraz
X ma przyrosty stacjonarne; (W2a)
EX1 = 0, Var(X1) = 1; (W2b)
4
EXt < " dla wszystkich t > 0. (W2c)
Wówczas Xt jest procesem Wienera.
Dowód. Określmy dla t 0, a(t) = EXt oraz b(t) = Var(Xt). Zauważmy, że
na mocy niezależności i stacjonarności przyrostów,
b(t + s) = Var(Xt+s - Xt + Xt) = Var(Xt+s - Xt) + Var(Xt)
= Var(Xs) + Var(Xt) = b(t) + b(s).
Ponadto oczywiście b(t) 0, zatem funkcja b(t) jest addytywna i niema-
lejąca na [0, "), więc b(t) = ct dla pewnego c 0, co wobec (W2b) daje
Var(Xt) = b(t) = t. Analogicznie sprawdzamy, że a(t + s) = a(t) + a(s),
wiemy też, że a(0) = 0, stąd dowodzimy, że EXt = a(t) = 0 dla t wy-
miernych. Wezmy t > 0 i wybierzmy dążący do t ciąg liczb wymiernych
2 2
(tn). Na mocy (W2c), EXt < ", wiemy też, że EXtn = Var(Xtn) = tn,
zatem (E|Xtn - Xt|2)1/2 M dla pewnej stałej M. Z ciągłości trajekto-
rii Xtn Xt prawie na pewno, czyli również według prawdopodobieństwa.
Zatem dla  > 0,
|EXt| = |EXt - EXtn| E|Xt - Xtn|  + E|Xt - Xtn|
{|Xt-Xtn | }
 + (E|Xt - Xtn|2)1/2P(|Xt - Xtn| )1/2
 + MP(|Xt - Xtn| )1/2 2
dla dostatecznie dużych n. Stąd EXt = 0. Wykazaliśmy zatem, że Xt ma
średnią zero i wariancję t.
Ustalmy t > s 0, chcemy pokazać, że Xt - Xs ma rozkład normalny
N (0, t - s). Zauważmy, że
n

Xt - Xs = Yn,k, gdzie Yn,k = Xs+k(t-s)/n - Xs+(k-1)(t-s)/n.
k=1
5
Zmienne (Yn,k)1 k n tworzą układ trójkątny, możemy więc skorzystać z
n
Centralnego Twierdzenia Granicznego i wykazać, że Yn,k zbiega do
k=1
N (0, t - s) według rozkładu. Mamy
n n

EYn,k = 0, Var(Yn,k) = t - s,
k=1 k=1
wystarczy więc sprawdzić warunek Lindeberga. Dla  > 0,
n n


Ln() = E|Yn,k|2 E |Yn,k|2
{|Yn,k| } {maxk n |Yn,k| }
k=1 k=1
n
2 1/2 1/2

E |Yn,k|2 P max |Yn,k|  .
k n
k=1
Zauważmy, że zmienne (Yn,k) dla ustalonego n są niezależne i mają średnią
zero, zatem
n
4

E(Xt - Xs)4 = E Yn,k = EYn,k1Yn,k2Yn,k3Yn,k4
k=1 1 k1,k2,k3,k4 n
n

4 2 2
= EYn,k + 6 EYn,kEYn,l
k=1 1 kn n
2

4 2 2
EYn,k + 2 EYn,kEYn,l = E |Yn,k|2 .
k=1 1 kZ ciągłości trajektorii X wynika, że P(maxk n |Yn,k| ) 0 przy n ",
zatem limn" Ln() = 0.
Uwaga 18. Warunek (W2c) nie jest konieczny - zob. Twierdzenie 5 z
paragrafu 13.1 książki [3].
Okazuje się, że również nie trzeba zakładać skończoności wariancji ani
nawet istnienia wartości średniej W1 - warunek (W2b) ma charakter czysto
normalizacyjny. Dokładniej zachodzi następujące twierdzenie.
Twierdzenie 19. Załóżmy, że proces stochastyczny X = (Xt)t 0 spełnia
warunki (W0),(W1),(W2a) i (W3). Wówczas istnieją stałe a, b " R i proces
Wienera W takie, że Xt = aWt + bt dla wszystkich t 0.
6
1.4 Nieróżniczkowalność trajektorii
Trajektorie procesu Wienera mają wiele ciekawych własności, część z nich
poznamy pózniej. W tym paragrafie pokażemy, że mimo iż są ciągłe, to z
prawdopodobieństwem 1 nie są różniczkowalne w żadnym punkcie.
Twierdzenie 20. Prawie wszystkie trajektorie procesu Wienera (Wt)t 0 są
funkcjami nieróżniczkowalnymi w żadnym punkcie, tzn.

P "t0 0 t Wt() jest różniczkowalne w t0 = 0.
Dowód. Najpierw pokażemy nieróżniczkowalność trajektorii na [0, 1), tzn.

P "t0"[0,1) t Wt() jest różniczkowalne w t0 = 0.
Zauważmy, że jeśli funkcja f : [0, 1] R jest różniczkowalna w t0 " [0, 1)
oraz |f (t0)| < M, to |f(t) - f(t0)| M|t - t0| dla t dostatecznie bliskich
t0. Zatem, jeśli j/n t0 < (j + 1)/n, to dla dostatecznie dużych n,


j + 1 j j + 1 j 1 1

f
- f f - f(t0) + f(t0) - f M + ,
n n n n n n

j + 2 j + 1 j + 2 j + 1 2 1

f -f f -f(t0) + f(t0)-f M +

n n n n n n
oraz

j + 3 j + 2 j + 3 j + 2 3 2

f -f f -f(t0) + f(t0)-f M + .

n n n n n n
Stąd, jeśli funkcja f jest różniczkowalna w jakimś punkcie przedziału [0, 1),
to


j + k + 1 j + k 5M
"M<" "m<" "n m "0 j n-3 "k=0,1,2 - f .
f
n n n
Czyli

P "t0"[0,1) t Wt() jest różniczkowalne w t0

" " " n-3 2



5M

P W - W
j+k+1 j+k
n n n
n=m
M=1 m=1 j=0 k=0

" " " n-3 2



5M

P W - W .
j+k+1 j+k
n n n
n=m
M=1 m=1 j=0 k=0
7
Z niezależności przyrostów dostajemy

2 2



5M 5M

P W - W = P W - W
j+k+1 j+k j+k+1 j+k
n n n n n n
k=0 k=0
3 3
5M 1 5M

"
= P W 1 = P |W1|
n
n n n
"

3 3
5M/ n
1 2 1 10M
= " e-x /2dx " " .
"
n
2Ą -5M/ n 2Ą
Zatem

n-3 2
n-3


5M 1000M3 1000M3

P W - W " ,
j+k+1 j+k
n n n n3/2 n
j=0 k=0 j=0
czyli

" n-3 2



5M

P W - W = 0
j+k+1 j+k
n n n
n=m
j=0 k=0
i

P "t0"[0,1) t Wt() jest różniczkowalne w t0 = 0.

Nieznacznie modyfikując poprzedni dowód (albo używając faktu, że Wt =
-1/2
T WtT też jest procesem Wienera oraz w oczywisty sposób nieróżnicz-

kowalność W na [0, 1) jest równoważna nieróżniczkowalności W na [0, T ))
dostajemy, że dla T < ",

P "t0"[0,T ) t Wt() jest różniczkowalne w t0 = 0.
By zakończyć dowód wystarczy zauważyć, że

P "t0>0 t Wt() jest różniczkowalne w t0

= lim P "t0"[0,N) t Wt() jest różniczkowalne w t0 = 0.
N"
Uwaga 21. Dokładna analiza przedstawionego dowodu pokazuje, że nie wy-
kazaliśmy mierzalności zdarzenia {"t0 t Wt() jest różniczkowalne w t0},
a jedynie to, że jest ono podzbiorem pewnego zdarzenia miary zero. By
uniknąć kłopotów technicznych podobnego rodzaju, wygodnie jest przyjąć,
że przestrzeń probabilistyczna (&!, F, P) jest zupełna, tzn. dowolny podzbiór
zbioru miary zero jest mierzalny (każdą przestrzeń probabilistyczną można
rozszerzyć do przestrzeni zupełnej).
8
2 Rozkłady Procesów Stochastycznych
Podczas tego wykładu zdefiniujemy rozkład procesu stochastycznego, w
szczególności powiemy jakie zdarzenia określone przez proces są mierzalne.
Udowodnimy, że rozkład procesu jest wyznaczony przez rozkłady skończenie
wymiarowe. Sformułujemy też warunki, które muszą być spełnione, by ist-
niał proces stochastyczny o zadanych rozkładach skończenie wymiarowych.
Przypomnijmy, że jeśli X jest zmienną losową o wartościach w przestrze-
ni (E, E), to rozkładem X jest miara probabilistyczna na (E, E) zadana
wzorem
X(A) = P(X " A), A " E.
2.1 -ciało zbiorów cylindrycznych
Proces X = (Xt)t"T możemy traktować jako zmienną losową o wartościach
w RT . Jakie podzbiory RT są wówczas na pewno mierzalne?
Definicja 1. Zbiory postaci

x " RT : (xt1, . . . , xtn) " A , t1, . . . , tn " T, A " B(Rn)
nazywamy zbiorami cylindrycznymi. Przez B(RT ) będziemy oznaczać naj-
mniejsze -ciało zawierające zbiory cylindryczne i będziemy je nazywać -
ciałem zbiorów cylindrycznych.
Uwaga 2. Zauważmy, że
B(RT ) = ({x " RT : xt " A}, t " T, A " B(R)).
Przykłady
1. Zbiory {x: xt > xs}, {x: xt1 > 0, xt2 - xt1 > 0, . . . , xtn - xtn-1 > 0}
oraz {x: "t xs} należą do B(R[0,")).
2. Zbiór {x: supt"T |xt| 1} nie należy do B(RT ), gdy T jest nieprzeli-
czalny, podobnie {x: t xt ciągłe} nie należy do B(RT ), gdy T jest
niezdegenerowanym przedziałem.
Definicja 3. Rozkładem procesu X = (Xt)t"T nazywamy miarę probabili-
styczną X na B(RT ) daną wzorem
X(C) = P((Xt)t"T " C), C " B(RT ).
9
Uwaga 4. Załóżmy, że T jest przedziałem (skończonym lub nie). Na prze-
strzeni funkcji ciagłych C(T ) rozważmy topologię zbieżności niemal jedno-
stajnej. Wówczas B(RT ) )" C(T ) = B(C(T )), co oznacza, że jeśli proces
X = (Xt)t"T ma ciągłe trajektorie, to X wyznacza rozkład probabilistycz-
ny na przestrzeni funkcji ciągłych (C(T ), B(C(T ))). W szczególności proces
Wienera wyznacza pewien rozkład probabilistyczny na C[0, ").
2.2 Warunki zgodności. Twierdzenie Kołmogorowa o istnie-
niu procesu
Najprostsze zbiory z B(RT ), to zbiory cylindryczne. Miary takich zbiorów
to rozkłady skończenie wymiarowe procesu.
Definicja 5. Dla procesu (Xt)t"T o wartościach w R i t1, . . . , tn " T okre-
ślamy miarę t1,...,tn na Rn wzorem
t1,...,tn(A) = P((Xt1, . . . , Xtn) " A), A " B(Rn).
Rodzinę miar {t1,...,tn : t1, . . . , tn " T parami różne} nazywamy rodziną skoń-
czenie wymiarowych rozkładów procesu X.
Fakt 6. Załóżmy, że X = (Xt)t"T i Y = (Yt)t"T są procesami o tych samych
skończenie wymiarowych rozkładach, czyli
P((Xt1, . . . , Xtn) " A) = P((Yt1, . . . , Ytn) " A)
dla wszystkich t1, . . . , tn " T, A " B(Rn). Wówczas X i Y mają ten sam
rozkład, tzn.
P(X " C) = P(Y " C) dla wszystkich C " B(RT ).
Dowód. Rodzina zbiorów cylindrycznych A tworzy Ą-układ, a rodzina C
zbiorów C takich, że P(X " C) = P(Y " C), jest -układem zawierają-
cym A. Zatem z twierdzenia o Ą- i - układach, C zawiera również -ciało
generowane przez A, czyli B(RT ).
Definicja 7. Powiemy, że rodzina skończenie wymiarowych rozkładów
{t1,...,tn : t1, . . . , tn " T parami różne}
spełnia warunki zgodności, jeśli zachodzą następujące warunki:
10
i) Dla dowolnych t1, t2, . . . , tn " T , dowolnej permutacji (i1, . . . , in) liczb
(1, . . . , n) oraz zbiorów A1, A2, . . . , An " B(R),
ti1 ,...,tin (Ai1 Ai2 . . . Ain) = t1,...,tn(A1 A2 . . . An).
ii) Dla dowolnych t1, t2, . . . , tn+1 " T oraz A1, A2, . . . , An " B(R),
t1,...,tn,tn+1(A1 A2 . . . An R) = t1,...,tn(A1 A2 . . . An).
Oczywiście rodzina rozkładów skończenie wymiarowych dowolnego pro-
cesu stochastycznego spełnia warunki zgodności. Okazuje się, że są to jedyne
warunki jakie należy nałożyć na taką rodzinę.
Twierdzenie 8. Załóżmy, że dana jest rodzina skończenie wymiarowych
rozkładów (t1,...,tn) spełniająca warunki zgodności. Wówczas istnieje proces
(Xt)t"T mający skończenie wymiarowe rozkłady równe (t1,...,tn).
Nie będziemy przedstawiać technicznego dowodu powyższego twierdze-
nia - wszystkich zainteresowanych odsyłamy do Dodatku B. W zamian sfor-
mułujemy użyteczny wniosek.
Wniosek 9. Załóżmy, że T " R oraz dana jest rodzina rozkładów skończe-
nie wymiarowych {t1,...,tn : t1 < t2 < . . . < tn, t1, . . . , tn " T } spełniająca
warunek
t1,...,tn(A1 . . . Ak-1 R Ak+1 . . . An)
= t1,...tk-1,tk+1,...,tn(A1 . . . Ak-1 Ak+1 . . . An).
dla wszystkich t1 < t2 < . . . < tn, n 2, 1 k n oraz zbiorów borelow-
skich A1, . . . , An. Wówczas istnieje proces (Xt)t"T taki, że (Xt1, . . . , Xtn)
ma rozkład t1,...,tn dla t1 < t2 < . . . < tn.
Dowód. Dla t1, . . . , tn " T parami różnych istnieje permutacja (i1, . . . , in)
liczb (1, . . . , n) taka, że ti1 < ti2 < . . . < tin. Możemy więc określić t1,...,tn ja-
ko rozkład wektora (Y1, . . . , Yn) takiego, że (Yi1, . . . , Yin) ma rozkład ti1 ,...,tin .
Można sprawdzić, że tak określona rodzina miar (t1,...,tn) spełnia warunki
zgodności.
Przykłady
1. Jeśli (t)t"T jest dowolną rodziną rozkładów na R, to istnieje rodzina
niezależnych zmiennych losowych (Xt)t"T taka, że Xt ma rozkład t.
Używamy tu twierdzenia o istnieniu dla t1,...,tn = t1 " . . . " tn.
11
2. Istnieje proces spełniający warunki (W0)-(W2) definicji procesu Wie-
nera. Istotnie dla 0 = t0 t1 < t2 < . . . < tn kładziemy
n


t1,...,tn <" X1, X1 + X2, . . . , Xk ,
k=1
gdzie X1, . . . , Xn są niezależnymi zmiennymi losowymi Xk <" N (0, tk -
tk-1). Warunki zgodności wynikają wówczas stąd, iż jeśli Y1, Y2 są
2 2 2
niezależne i Yi <" N (0, i ) dla i = 1, 2, to Y1 + Y2 <" N (0, 1 + 2).
Uwaga 10. Dla uproszczenia zakładaliśmy podczas tego wykładu, że pro-
ces Xt ma wartości rzeczywiste. Nic się zmieni (poza oczywistymi drobnymi
zmianami definicji) dla procesów o wartościach w Rd. Czasem jednak za-
chodzi potrzeba rozpatrywania procesów o wartościach w ogólniejszej prze-
strzeni E. warto więc zauważyć, że
" w Fakcie 6 nie wykorzystywaliśmy żadnych własności przestrzeni E,
" w dowodzie Twierdzenia 8 wykorzystuje się regularność miar na En
-tu wystarczy założyć, że E jest -zwartą przestrzenią metryczną, tzn.
E jest przeliczalną sumą zbiorów zwartych lub dodać warunek regu-
larności rozpatrywanych miar.
3 Ciągłość trajektorii
Wiemy już kiedy istnieje proces o zadanych skończenie wymiarowych rozkła-
dach. Nasuwa się pytanie  kiedy taki proces ma ciągłe trajektorie? Zanim
jednak zastanowimy się nad odpowiedzią wprowadzimy dwa ważne sposoby
porównywania procesów.
3.1 Procesy stochastycznie równoważne i nierozróżnialne
Definicja 11. Niech X = (Xt)t"T oraz Y = (Yt)t"T będą dwoma procesa-
mi stochastycznymi, określonymi na tej samej przestrzeni probabilistycznej.
Powiemy, że:
a) X jest modyfikacją Y (lub X jest stochastycznie równoważny Y ), jeśli
"t"T P(Xt = Yt) = 1.
b) X i Y są nierozróżnialne, jeśli
P("t"T Xt = Yt) = 1.
12
Zauważmy, że procesy nierozróżnialne są oczywiście stochastycznie rów-
noważne. Ponadto dwa procesy stochastycznie równoważne mają ten sam
rozkład. Poniższy przykład pokazuje, że z rozkładu procesu nie można wnio-
skować o własnościach trajektorii.
Przykład
Niech Z 0 będzie dowolną zmienną losową o rozkładzie bezatomowym
tzn. P(Z = z) = 0 dla wszystkich z " R. Zdefiniujmy dwa procesy na
T = [0, "):

0 dla t = Z()

Xt a" 0 oraz Yt() =
1 dla t = Z().
Wówczas Y jest modyfikacją X, bo P(Xt = Yt) = P(Z = t) = 0. Zauważ-

my jednak, że wszystkie trajektorie Y są nieciągłe, czyli w szczególności
P("t =0 Xt = Yt) = 0, a zatem procesy X i Y nie są nierozróżnialne.
Fakt 12. Załóżmy, że T jest przedziałem oraz procesy X = (Xt)t"T i
Y = (Yt)t"T mają prawostronnie ciągłe trajektorie. Wówczas, jeśli X jest
modyfikacją Y , to Xi Y są nierozróżnialne.
Dowód. Wybierzmy przeliczalny podzbiór T0 " T , gęsty w T , zawierający
dodatkowo sup T , jeśli T jest przedziałem prawostronnie domkniętym. Niech
A = {"t"T0 Xt = Yt},
wówczas P(A) = 1, jako przeliczalne przecięcie zbiorów pełnej miary. Po-
nadto, jeśli  " A, to dla dowolnego t " T ,
Xt() = lim Xs() = lim Ys() = Yt(),
st+,s"T0 st+,s"T0
czyli
P("t"T Xt = Yt) P(A) = 1.
3.2 Twierdzenie o ciągłej modyfikacji
Najważniejsze twierdzenie tego wykładu podaje kryterium istnienia mody-
fikacji procesu, która ma ciągłe trajektorie. Zanim sformułujemy dokładny
wynik przypomnijmy definicję hlderowskości.
13
Definicja 13. Funkcja f : [a, b] R jest hlderowsko ciągła z wykładnikiem
ł, jeśli dla pewnej stałej C < ",
|f(s) - f(t)| C|t - s|ł dla wszystkich s, t " [a, b].
Twierdzenie 14. Załóżmy, że X = (Xt)t"[a,b] jest procesem takim, że
"t,s"[a,b] E|Xt - Xs|ą C|t - s|1+ (1)

dla pewnych stałych dodatnich ą, , C. Wówczas istnieje proces X = (Xt)t"[a,b],
będący modyfikacją procesu X, którego wszystkie trajektorie są ciągłe. Co
więcej trajektorie każdej modyfikacji X o ciągłych trajektoriach są, z praw-

dopodobieństwem 1, hlderowsko ciągłe z dowolnym wykładnikiem ł < .
ą
Zainteresownych dowodem odsyłamy do Dodatku B.
Wniosek 15. Twierdzenie 14 jest prawdziwe, gdy przedział [a, b] zastąpi-
my nieskończonym przedziałem, o ile hlderowskość trajektorii zastąpimy
lokalną hlderowskością (tzn. hlderowskością na każdym przedziale skoń-
czonym). Co więcej, wystarczy, by warunek (1) zachodził dla |s - t| ,
gdzie  jest ustaloną liczbą dodatnią.
Dowód. Przedział nieskończony T można zapisać jako przeliczalną sumę
przedziałów [an, an+1], długości nie większej od . Z Twierdzenia 14 wynika
(n)

istnienie modyfikacji Xt procesu X na przedziale [an, an+1], o ciągłych tra-

(n+1)
(n) 
jektoriach. Niech An = {Xan+1 = Xan+1 }, wówczas A = An ma miarę
n
zero. Możemy więc położyć:

(n)

Xt () dla t " [an, an+1],  " A
/

Xt() =
0 dla  " A.
Wniosek 16. Istnieje proces Wienera, tzn. proces spełniający warunki (W0)-
(W3).
"
4
Dowód. Mamy E|Ws - Wt|4 = E| t - sW1|4 = (s - t)2EW1 = 3(s - t)2 i
możemy zastosować Wniosek 15 z  = 1, ą = 4 i C = 3.
Wniosek 17. Prawie wszystkie trajektorie procesu Wienera są lokalnie Hlderowsko
ciągłe z dowolnym parametrem ł < 1/2.
14
p
Dowód. Mamy E|Ws - Wt|p = (s - t)p/2EW1 = Cp(s - t)p/2 dla dowolnego
p < ". Stosując twierdzenie 14 z  = p/2-1, ą = p dostajemy Hlderowską
1
ciągłość trajektorii z dowolnym ł < -1. Biorąc p " dostajemy tezę.
2 p
Uwaga 18. Prawie wszystkie trajektorie procesu Wienera nie są jednostaj-
nie ciągłe na [0, "), nie mogą więc być globalnie Hlderowskie z żadnym
wykładnikiem.
Uwaga 19. Założenia  > 0 nie można opuścić  wystarczy rozważyć
proces Poissona (tzn. proces (Nt)t 0 o prawostronnie ciaglych trajektoriach,
startujący z zera, o przyrostach niezależnych taki, że Nt - Ns ma rozkład
Poissona z parametrem (t - s)  zob. np. Rozdział 23 w [1]) dla którego
E|Nt - Ns| = |t - s|, a oczywiście proces Poissona przyjmuje wartości
całkowite, więc nie ma modyfikacji o ciągłych trajektoriach.
3.3 Inne rodzaje ciągłości procesów
W tym wykładzie koncentrowaliśmy uwagę nad procesami o trajektoriach
ciągłych. Warto jednak wspomnieć o innych formach ciągłości procesów sto-
chastycznych.
Definicja 20. Niech X = (Xt)t"T będzie procesem stochastycznym. Mówi-
my, że
a) proces X jest stochastycznie ciągły, jeśli
P
tn t ! Xtn Xt.
b) proces X jest ciągły wg p-tego momentu (ciągły w Lp), jeśli
tn t ! E|Xtn - Xt|p 0.
Uwaga 21. Nietrudno wykazać, że zarówno ciągłość trajektorii jaki i cią-
głość wg p-tego momentu implikują ciągłość stochastyczną procesu. Z pozo-
stałych czterech implikacji między powyższymi pojęciami ciągłości procesu
żadna nie jest prawdziwa bez dodatkowych założeń.
4 Filtracje, Momenty Zatrzymania
Celem tego wykładu jest pokazanie jak zmodyfikować definicje omawiane
podczas kursowego wykładu z rachunku prawdopodobieństwa z przypadku
czasu dyskretnego na czas ciągły.
Będziemy zakładać, że T jest lewostronnie domkniętym przedziałem (ty-
powo T = [0, ")), choć większość definicji i wyników można uogólnić na
szerszą klasę zbiorów.
15
4.1 Filtracje
Definicja 1. Filtracją (Ft)t"T przestrzeni probabilistycznej (&!, F, P) nazy-
wamy rosnący rodzinę -ciał zawartych w F, tzn. Ft " Fs dla t s, t, s "
T .
Zdarzenia z -ciała Ft możemy interpretować jako zdarzenia obserwo-
walne do chwili t.
Definicja 2. Niech X = (Xt)t"T będzie procesem stochastycznym. Filtra-
X
cją generowaną przez X nazywamy rodzinę (Ft )t"T daną wzorem FtX =
(Xs : s t).
Fakt 3. Proces Xt ma przyrosty niezależne wtedy i tylko wtedy, gdy dla
dowolnych t < s, t, s " T przyrost Xs - Xt jest niezależny od -ciała FtX.
Dowód. !: Rodzina zdarzeń A niezależnych od Xs - Xt tworzy -układ,
ponadto, z niezależności przyrostów X, zawiera Ą-układ zdarzeń postaci
{Xt1 " A1, . . . , Xtn " An} dla t1 < . . . < tn t.
!: Ustalmy t1 < . . . < tn oraz zbiory borelowskie A1, . . . , An. Zdarzenie
{Xt1 " A1, Xt2 - Xt1 " A2, . . . , Xtn-1 - Xtn-2 " An-1} należy do -ciała
FtX , więc jest niezależne od zmiennej Xtn - Xtn-1. Stąd
n-1
P(Xt1 " A1, Xt2 - Xt1 " A2, . . . , Xtn - Xtn-1 " An)
= P(Xt1 " A1, . . . , Xtn-1 - Xtn-2 " An-1)P(Xtn - Xtn-1 " An).
Iterując to rozumowanie pokazujemy, że
P(Xt1 "A1, Xt2 - Xt1 " A2, . . . , Xtn - Xtn-1 " An)
= P(Xt1 " A1)P(Xt2 - Xt1 " A2, ) P(Xtn - Xtn-1 " An).
Definicja 4. Proces X = (Xt) nazywamy zgodnym z filtracją (Ft)t"T lub
Ft-adaptowalnym, jeśli dla wszystkich t " T , Xt jest Ft mierzalne.
Uwaga 5. Oczywiście proces X jest zgodny z filtracją (Ft)t"T wtedy i tylko
X
wtedy, gdy Ft " Ft dla t " T . W szczególności każdy proces X jest zgodny
z filtracją przez siebie generowaną.
16
4.2 Momenty Zatrzymania
Definicja 6. Momentem zatrzymania (momentem Markowa, czasem za-
trzymania) względem filtracji (Ft)t"T nazywamy zmienną losową o warto-
ściach w T *" {"} taką, że { t} " Ft dla wszystkich t " T .
Moment zatrzymania to strategia przerwania eksperymentu losowego
(np. zakończenia udziału w pewnej grze losowej) taka, że decyzję o prze-
rwaniu do chwili t podejmujemy tylko na podstawie obserwacji dostępnych
w tym czasie.
Przykład. Dla zbioru A " R i procesu stochastycznego (Xt)t"T określmy
A = inf{t " T : Xt " A}.
Jeśli (Xt)t"T jest Ft-adaptowalnym procesem o ciągłych trajektoriach, zaś A
zbiorem domkniętym, to A jest momentem zatrzymania względem filtracji
(Ft).
Dowód. Niech T0 " T będzie gęstym podzbiorem T zawierającym lewy ko-
niec. Z domkniętości zbioru A i ciągłości X dostajemy dla t " T
"

{A t} = {"s t Xs " A} = {Xs " A1/n} " Ft,
n=1 s t,s"T0
gdzie
A := {x " Rn : d(x, A) < } (-otoczka zbioru A).
Uwaga 7. Jeśli w powyższym przykładzie A będzie zbiorem otwartym, to
A nie musi być momentem zatrzymania względem filtracji (Ft)t"T , ale musi
być momentem zatrzymania względem filtracji (Ft+)t"T , gdzie dla t < sup T

Ft+ := Fs,
s>t
a jeśli t jest największym elementem T , to kładziemy Ft+ = Ft.
Powyższa uwaga motywuje poniższą definicję, która ma nieco techniczny
charakter, ale jest powszechnie używana w teorii procesów.
Definicja 8. Filtrację (Ft)t"T nazywamy prawostronnie ciągłą, jeśli Ft+ =
Ft dla wszystkich t " T . Mówimy, że filtracja (Ft)t"T spełnia zwykłe wa-
runki, jeśli
a) jest prawostronnie ciągła,
b) dla wszystkich t, Ft zawiera wszystkie zbiory miary zero, tzn. jeśli A " F,
P(A) = 0, to A " Ft.
17
Definicja 9. Niech  będzie momentem zatrzymania względem filtracji (Ft)t"T .
Definiujemy -ciało zdarzeń obserwowalnych do chwili  wzorem


F := A " F" :=  Ft : "t"T A )" { t} " Ft .
t"T
Fakt 10. a) Zbiór F jest -ciałem.
b) Jeśli  , to F " F.
c) Zmienna losowa  jest F mierzalna.
Dowód. a) Zbiór &! " F , bo &! )" { t} = { t} " Ft. Jeśli A " F , to
A )" { t} = { t} \ (A )" { t}) " Ft, czyli A " F . Jeśli An " F ,

to ( An) )" { t} = (An )" { t}) " Ft, czyli An " F .
n n n
b) Wezmy A " F , wówczas dla t " T , A )" { t} = A )" { t} )" {
t} " Ft, czyli A " F.
c) Wystarczy pokazać, że { s} " F , ale { s} )" { t} = {
s '" t} " Fs'"t " Ft.
Fakt 11. Załóżmy, że  i  są momentami zatrzymania. Wówczas F'" =
F )" F oraz zdarzenia { < }, { < }, { }, { }, { = } należą
do F'".
Dowód. Zauważmy, że  '"  jest momentem zatrzymania oraz  '"   i
 '"  , zatem na mocy Faktu 10 dostajemy F '" " F )" F. Na odwrót,
jeśli A " F )" F, to A )" { '"  t} = A )" ({ t} *" { t}) = (A )" {
t}) *" (A )" { t}) " Ft, czyli A " F'". Dalszą część faktu pozostawiamy
do udowodnienia na ćwiczeniach.
Okazuje się, że adaptowalność procesu nie gwarantuje np. mierzalności
zmiennych X dla wszystkich momentów zatrzymania . Dlatego wprowa-
dzimy jeszcze jedną techniczną definicję.
Definicja 12. Proces X = (Xt)t"T nazywamy progresywnie mierzalnym
względem filtracji (Ft)t"T , jeśli dla każdego t " T , funkcja (s, ) Xs()
traktowana jako funkcja ze zbioru T )" (-", t] &! w R jest mierzalna wzglę-
dem -algebry B(T )" (-", t]) " Ft. Równoważnie
"t"T "A"B(R) {(s, ) " T &!: s t, Xs() " A} " B(T )" (-", t]) " Ft.
Fakt 13. Załóżmy, że T jest przedziałem oraz dany jest proces X = (Xt)t"T
oraz filtracja (Ft)t"T .
a) Jeśli proces X jest progresywnie mierzalny względem (Ft), to jest Ft-
adaptowalny.
b) Jeśli proces X jest Ft-adaptowalny oraz ma prawostronnie ciągłe trajek-
torie, to jest progresywnie mierzalny względem (Ft).
18
Dowód. a) Zbiór { : Xt() " A} jest przekrojem zbioru {(s, ) " T
&!: s t, Xs() " A}, a zatem należy do Ft.
(n)
b) Ustalmy t " T i połóżmy dla s " T , s t, Xs := Xt-2-n , gdzie k
k
jest liczbą całkowitą taką, że t - 2-n(k + 1) < s t - 2-nk. Wówczas
(n)
{(s, ) "T &!: s t, Xs () " A}
"


k + 1 k
= T )" t - , t - { : Xt- k () " A}
2n
2n 2n
k=0
" B(T )" (-", t]) " Ft.
(n)
Zatem funkcja Xs (), s " T )" (-", t],  " &! jest B(T )" (-", t]) " Ft mie-
(n)
rzalna. Wobec prawostronnej ciągłości X mamy Xs() = limn" Xs (),
zatem funkcja Xs(), s " T )" (-", t],  " &! jest B(T )" (-", t]) " Ft mie-
rzalna jako granica funkcji mierzalnych.
Jeśli  jest momentem zatrzymania, a X = (Xt)t"T procesem, to zmien-
na X jest dobrze zdefiniowana tylko na zbiorze { < "}. Musimy zatem
określić co mamy na myśli mówiąc, że zmienna X jest mierzalna.
Definicja 14. Mówimy, że zmienna losowa X określona na zbiorze A jest
mierzalna względem -ciała G zawierającego A, jeśli { " A: X(w) " B} "
G dla dowolnego zbioru borelowskiego B.
Fakt 15. Załóżmy, że X = (Xt)t"T jest procesem progresywnie mierzal-
nym względem filtracji (Ft)t"T , a  jest momentem zatrzymania. Wówczas
zmienna losowa X określona na zbiorze { < "} " F jest F mierzalna.
Ponadto proces zatrzymany w chwili , X := (Xt'" )t"T jest progresywnie
mierzalny.
Dowód. Odwzorowanie
(s, ) (() '" s, ): T )" (-", t] &! T )" (-", t] &!
jest mierzalne względem -ciała B(T )" (-", t]) " Ft). Jeśli złożymy je z
odwzorowaniem
(s, ) Xs() mierzalnym z (T )" (-", t] &!, B(T )" (-", t]) " Ft) w R,
to otrzymamy odwzorowanie
(s, ) X ()'"s() mierzalne z (T )"(-", t]&!, B(T )"(-", t])"Ft) w R.
19
Stąd wynika progresywna mierzalność procesu X . By zakończyć dowód
zauważmy, że
{X " A} )" { t} = {X '"t " A} )" { t} " Ft
na mocy progresywnej mierzalności (a właściwie adaptowalności) X .
5 Martyngały z czasem ciągłym
Jak podczas poprzedniego wykładu, jeśli nie powiemy inaczej, zakładamy,
że T jest lewostronnie domkniętym przedziałem.
5.1 Definicje i przykłady
Definicja 1. Mówimy, że (Xt)t"T jest martyngałem (odp. podmartyn-
gałem, nadmartyngałem) względem filtracji (Ft)t"T lub, że (Xt, Ft)t"T jest
martyngałem (odp. podmartyngałem, nadmartyngałem), jeśli
a) dla wszystkich t " T , Xt jest Ft adaptowalny i E|Xt| < ",
b) dla dowolnych s, t " T, s < t, E(Xt|Fs) = Xs p.n. (odp. dla podmar-
tyngału i dla nadmartyngału).
Przykład 1. Jeśli X jest całkowalną zmienną losową, a Ft dowolną filtracją
to Xt := E(X|Ft) jest martyngałem.
Sprawdzamy dla t > s
E(Xt|Fs) = E(E(X|Ft)|Fs) = E(X|Fs) = X p.n..
W
Przykład 2. (Wt)t 0 jest martyngałem względem naturalnej filtracji Ft =
(Ws : s t).
Istotnie dla t > s mamy z niezależności przyrostów
E(Wt|Fs) = E(Ws|Fs) + E(Wt - Ws|Fs) = Ws + E(Wt - Ws) = Ws p.n..
Przykład 3. (Wt2)t 0 jest podmartyngałem, a (Wt2 - t)t 0 martyngałem
W
względem naturalnej filtracji Ft = (Ws : s t).
Liczymy dla t > s
2
E(Wt2|Fs) = E(Ws |Fs) + E(2Ws(Wt - Ws)|Fs) + E((Wt - Ws)2|Fs)
2 2
= Ws + 2WsE(Wt - Ws) + E(Wt - Ws)2 = Ws + t - s p.n..
Uwaga 2. W ostatnich dwu przykładach filtrację (FtW ) można zastąpić
W
filtracją (Ft+).
20
Fakt 3. Załóżmy, że (Xt, Ft) jest martyngałem (odp. podmartyngałem), zaś
f : R R funkcją wypukłą (odp. wypukłą i niemalejącą) taką, że E|f(Xt)| <
" dla wszystkich t. Wówczas (f(Xt), Ft) jest podmartyngałem.
Dowód. Z nierówności Jensena mamy E(f(Xt)|Fs) f(E(Xt|Fs)) p.n., a
ostatnia zmienna jest równa f(Xs) w przypadku martyngału i nie mniejsza
niż f(Xs) dla podmartyngału.
Przypomnijmy definicję funkcji harmonicznych.
Definicja 4. Funkcję f : Rn R nazywamy podharmoniczną (odp. harmo-
niczną, nadharmoniczną) jeśli

1
n
"x"R "r 0 f(x) f(x + ry)d(y) (odp. =, ),
|Sn-1|
Sn-1

gdzie (y) jest miarą powierzchniową na sferze, a |Sn-1| = d(y) =
Sn-1
2Ąn/2((n/2))-1.
Uwaga 5. Funkcja gładka jest harmoniczna (odp. pod-,nad-) wtedy i tylko
wtedy, gdy "f = 0 (odp. , ). Dla n = 1 warunek podharmoniczności jest
równoważny wypukłości. Funkcja f(x) = - ln |x - x0| jest nadharmoniczna
na R2, a funkcja f(x) = |x - x0|2-d nadharmoniczna na Rd dla d > 2.
Fakt 6. Niech Wt = (Wt(1), . . . , Wt(d)) będzie d-wymiarowym procesem Wie-
W
nera, Ft = (Ws : s t), zaś f : Rd R funkcją harmoniczną (odp. nad-,
pod-) taką, że E|f(Wt)| < " dla t 0. Wówczas (f(Wt), FtW ) jest martyn-
gałem (odp. nad-, pod-).
Dowód. Liczymy dla t > s,
E(f(Wt)|Fs) = E(f(Ws + (Wt - Ws))|Fs)

|x|2
2(t-s)
= (2Ą(t - s))-d/2 f(Ws + x)e- dx
d
R

"
r2
2(t-s)
= (2Ą(t - s))-d/2 rd-1e- f(Ws + y)d(y) dr
0 Sd-1

"
r2
2(t-s)
= (2Ą(t - s))-d/2|Sd-1|f(Ws) rd-1e- dr
0

"
r2
2
= (2Ą)-d/2|Sd-1| rd-1e- drf(Ws) = cdf(Ws) p.n..
0
By zauważyć, że cd = 1 przeprowadzamy albo bezpośredni rachunek, albo
podstawiamy powyżej f a" 1.
21
5.2 Nierówności maksymalne
Zacznijmy od przypomnienia podstawowego lematu dla martyngałów z cza-
sem dyskretnym, pochodzącego od Dooba.
Lemat 7. Załóżmy, że (Xn, Fn)0 1 N jest martyngałem (odp. nad-, pod-),
zaś 0   N dwoma momentami zatrzymania. Wówczas
E(X|F ) = X p.n. (odp. , ).
Dowód. Musimy pokazać, że dla A " F , EX = EX . Połóżmy Ak :=
A A
A )" { = k} dla k = 0, 1, . . . , N. Mamy
-1 N

(X-X ) = (X-Xk) = (Xi+1-Xi) = (Xi+1-Xi) ,
Ak Ak Ak
Ak)"{>i}
i=k i=k
zatem
N

E[(X - X ) ] = E[(Xi+1 - Xi) ] = 0,
Ak
Ak)"{>i}
i=k
gdyż Ak )" { > i} " Fi. Stąd
N

E[(X - X ) ] = E[(X - X ) ] = 0.
A Ak
k=0
Uwaga 8. Lemat 7 nie jest prawdziwy, jeśli nie założymy ograniczono-
n
ści momentów zatrzymania, np. biorąc Xn = n, gdzie n niezależne
k=1
zmienne losowe takie, że P(n = ą1) = 1/2, Fn = (1, . . . , n),  = 0,
 = inf{n: Xn = 1} widzimy, że EX = 0 = 1 = EX.

Lemat 9. Niech (Xn, Fn)0 n N będzie podmartyngałem, wówczas dla wszyst-
kich  0 mamy

+
a) P max Xn  EXN EXN ,
{max0 n N Xn }
0 n N

+
b) P min Xn - EXN - EX0 EXN - EX0.
{min0 n N Xn>-}
0 n N
22
Dowód. a) Niech  := inf{n: Xn }, z lematu 7 dostajemy (wobec  '"N
N)
EXN EX '"N = EX + EXN
{max0 n N Xn } {max0 n N Xn<}
P( max Xn ) + EXN
{max0 n N Xn<}
0 n N
i po przeniesieniu wartości oczekiwanych na jedną stronę dostajemy postu-
lowaną nierówność.
b) Definiujemy  := inf{n: Xn -}, z lematu 7 dostajemy (wobec
 '" N 0)
EX0 EX '"N = EX + EXN
{min0 n N Xn -} {min0 n N Xn>-}
-P( min Xn -) + EXN
{min0 n N Xn>-}
0 n N
i znów wystarczy pogrupować wartości oczekiwane.
Wniosek 10. Jeśli (Xn, Fn)0 n N jest martyngałem, bądz nieujemnym
podmartyngałem, to

a) "p 1 " 0 pP max |Xn|  E|XN|p,
0 n N
p
p
b) "p>1 E|XN |p E max |Xn|p E|XN |p.
0 n N p - 1
Dowód. a) Funkcja f(t) = |t|p jest wypukła, niemalejąca na R+, stąd na
mocy Faktu 3 |Xn|p jest nieujemnym podmartyngałem, zatem z Lematu 9
mamy

pP max |Xn|  E|XN |p E|XN |p.
{max0 n N |Xn|p p}
0 n N
b) Niech X" := max0 n N |Xn|, z rachunku przeprowadzonego powyżej
P(X" ) E|XN | .
{X" }
Stosując kolejno wzór na całkowanie przez części, twierdzenie Fubiniego i
nierówność Hldera dostajemy

" "
E max |Xn|p = p p-1P(X" )d p p-2E|XN | d
{X" }
0 n N
0 0

X"
p
= pE|XN | p-2d E|XN |(X")p-1
p - 1
0
p
(E|XN |p)1/p(E(X")p)(p-1)/p.
p - 1
23
Jeśli E|XN |p < ", to E|Xn|p E|XN |p < " dla 0 n N oraz E(X")p
N
E |Xn|p < ". Dzieląc więc otrzymaną poprzednio nierówność stronami
n=0
przez (E(X")p)(p-1)/p dostajemy
p
(E(X")p)1/p (E|XN |p)1/p.
p - 1
Udowodnimy teraz nierówność maksymalną Dooba w przypadku cią-
głym.
Twierdzenie 11. Załóżmy, że (Xt, Ft)t"T martyngałem lub nieujemnym
podmartyngałem, o prawostronnie ciągłych trajektoriach. Wówczas

a) "p 1 " 0 pP sup |Xt|  sup E|Xt|p,
t"T t"T
p
p
b) "p>1 sup E|Xt|p E sup |Xt|p sup E|Xt|p.
p - 1
t"T t"T t"T
Uwaga 12. Oczywiście jeśli T zawiera element maksymalny tmax, to przy
założeniach twierdzenia supt"T E|Xt|p = E|Xtmax|p.
Dowód. Jeśli D jest skończonym podzbiorem T , to na podstawie Wniosku
10 dostajemy

pP sup |Xt|  sup E|Xt|p sup E|Xt|p.
t"D t"D t"T
Niech T0 będzie gęstym podzbiorem T zawierającym prawy koniec T (o
ile taki istnieje), zaś Dn wstępującym ciągiem skończonych podzbiorów T0


takim, że Dn = T0. Wówczas dla dowolnego  > 0 dostajemy na mocy
n
prawostronnej ciągłości

   
pP sup |Xt| >  = pP sup |Xt| > 
t"T t"T0

 
= lim pP sup |Xt| >  sup E|Xt|p.
n"
t"Dn t"T

Biorąc ciąg n  dostajemy postulowaną w a) nierówność. Nierówność z
punktu b) wynika z Wniosku 10 w podobny sposób.
24
Uwaga 13. Punkt b) twierdzenia 11 nie zachodzi dla p = 1  można
skonstruować martyngał dla którego supt E|Xt| < ", ale E supt |Xt| = ".
Zachodzi jednak (przy założeniach Twierdzenia 11) nierówność

e
E sup |Xt| 1 + sup E|Xt| ln+ |Xt| .
e - 1
t"T t"T
Wniosek 14. Dla dowolnych u, s > 0 zachodzi

u2
2s
P sup Wt u e- .
0 t s
2t
Dowód. Ustalmy  > 0, wówczas Mt := exp(Wt - ) jest martyngałem
2
W
względem filtracji Ft generowanej przez proces Wienera. Stąd na mocy
Twierdzenia 11 a) i nieujemności Mt dostajemy

2s
2
P sup Wt u P sup Mt eu-
0 t s 0 t s
2s 2s 2s
e-u+ 2 sup E|Mt| = e-u+ 2 EM0 = e-u+ 2 .
0 t s
Zatem

2s u2
2s
P sup Wt u inf e-u+ 2 = e- .
>0
0 t s
6 Twierdzenia o zbieżności martyngałów
6.1 Przejścia w dół przez przedział
Definicja 1. Załóżmy, że I " R, f : I R oraz ą < . Jeśli I jest skoń-
czone, to określamy
1 := inf{t " I : f(t) } oraz 1 := inf{t " I : t > 1, f(t) ą}
i dalej indukcyjnie dla i = 1, 2, . . .
i+1 := inf{t " I : t > i, f(t) } oraz i+1 := inf{t " I : t > i+1, f(t) ą}.
oraz definiujemy
DI(f, [ą, ]) := sup{j : j < "} (" 0
25
W przypadku, gdy I jest nieskończone kładziemy
DI(f, [ą, ]) := sup{DF (f, [ą, ]): F " T skończone}.
Wielkość DI(f, [ą, ]) nazywamy liczbą przejść w dół funkcji f przez prze-
dział [ą, ].
Przypomnijmy fakt z rachunku prawdopodobieństwa wiążący skończo-
ność liczby przejść ciągu przez przedział z istnieniem granicy
Lemat 2. Ciąg liczbowy xn jest zbieżny do pewnej, niekoniecznie skończonej
granicy wtedy i tylko wtedy, gdy DN((xn), [ą, ]) < " dla dowolnych liczb
wymiernych ą < .
Następny lemat jest niewielką modyfikacją poprzedniego.
Lemat 3. Jeśli f : [a, b) R, b " jest prawostronnie ciągłą funkcją taką,
że D[a,b))"Q(f, [ą, ]) < " dla dowolnych liczb wymiernych ą < , to istnieje
(niekoniecznie skończona) granica limtb f(t).
Dowód. Załóżmy, że postulowana granica nie istnieje, wtedy można znalezć
liczby wymierne ą,  takie, że
lim inf f(t) < ą <  < lim inf f(t).
tb tb
Stąd wynika, że istnieje rosnący ciąg liczb wymiernych tn z przedziału [a, b)
taki, że f(t2k-1)  oraz f(t2k) ą. Przyjmując I = {t1, t2, . . .} widzimy,
że D[a,b))"Q(f, [ą, ]) DI(f, [ą, ]) = ".
Lemat 4. Załóżmy, że X = (Xt)t"T jest podmartyngałem względem pewnej
filtracji, a F jest przeliczalnym podzbiorem T , wówczas
E(Xt - )+
EDF (X, [ą, ]) sup .
 - ą
t"F
Dowód. Stosując twierdzenie Lebesgue a o zbieżności monotonicznej widzi-
my, że wystarczy udowodnić lemat dla skończonych zbiorów F , dla uprosz-
czenia notacji możemy oczywiście przyjąć, że F = {1, 2, . . . , N}. Zauważmy,
że (przy oznaczeniach jak w Definicji 1)
ńł
ł - Xi  - ą gdy i < ",
Xi
ł
Xi'"N -Xi'"N = Xi - XN  - XN -(XN - )+ gdy i < i = ",
ł
ół
XN - XN = 0 gdy i = ".
26
Zatem
N

(Xi'"N - Xi'"N ) ( - ą)DF (X, [ą, ]) - (XN - )+.
i=1
Na mocy Lematu 7, EXi'"N EXi'"N , więc
N

0 E (Xi'"N - Xi'"N ) E( - ą)DF (X, [ą, ]) - E(XN - )+.
i=1
6.2 Zbieżność prawie na pewno
Przypomnijmy twierdzenie dotyczące zbieżności podmartyngałów z czasem
dyskretnym:
Twierdzenie 5. Załóżmy, że (Xn)n"N jest podmartyngałem względem pew-
+
nej filtracji takim, że supn"N EXn < " (lub nadmartyngałem takim, że
-
supn"N EXn < "), wówczas X = limn" Xn istnieje i jest skończona p.n.,
ponadto E|X| < ".
Sformułujemy teraz odpowiednik powyższego twierdzenia dla czasu cią-
głego.
Twierdzenie 6. Załóżmy, że (Xt)t"[a,b), b " jest podmartyngałem o pra-
+
wostronnie ciągłych trajektoriach takim, że supt"[a,b) EXt < ". Wówczas
X = limtb Xt istnieje i jest skończony p.n., ponadto E|X| < ".
Dowód. Dla ustalonego ą <  na podstawie Lematu 4 mamy
1
ED[a,b))"Q(Xt, [ą, ]) sup E(Xt - )+ < ",
 - ą
t"[a,b)
zatem P(D[a,b))"Q(Xt, [ą, ]) = ") = 0. Niech

A := {D[a,b))"Q(Xt, [ą, ]) < "},
ą,"Q,ą<
wówczas P(A) = 1, bo A jest przecięciem przeliczalnej liczby zbiorów pełnej
miary. Jeśli  " A, to D[a,b))"Q(Xt(), [ą, ]) < " dla dowolnych liczb wy-
miernych ą < , czyli na podstawie Lematu 3 granica X() := limtb Xt()
27
+
istnieje (choć apriori może być nieskończona). Zauważmy, że E|Xt| = 2EXt -
+
EXt 2EXt - EX0, zatem supt"[a,b) E|Xt| < ". Z Lematu Fatou
E|X| = E lim |Xt| lim inf E|Xt| sup E|Xt| < ",
t"
tb
t
czyli zmienna X jest całkowalna, a więc w szczególności skończona p.n..
Wniosek 7. Załóżmy, że (Xt)t 0 jest niedodatnim podmartyngałem (lub
nieujemnym nadmartyngałem) o prawostronnie ciągłych trajektoriach, wów-
czas X = limt" Xt istnieje i jest skończony p.n., ponadto E|X| < ".
6.3 Jednostajna całkowalność
Definicja 8. Rodzinę zmiennych losowych (Xi)i"I nazywamy jednostajnie
całkowalną, jeśli
lim sup E|Xi| = 0.
{|Xi|>C}
C"
i"I
Fakt 9. Rodzina zmiennych losowych (Xi)i"I jest jednostajnie całkowalna
wtedy i tylko wtedy, gdy spełnione są następujące dwa warunki
a) supi"I E|Xi| < ",
b) ">0">0 P(A)  ! supi"I E|Xi| .
A
Dowód. !: Ustalmy  > 0 i dobierzmy C takie, że supi"I E|Xi|
{|Xi|>C}
/2. Wówczas
"i"I E|Xi| C + E|Xi| C + /2 < "
{|Xi|>C}

oraz, jeśli P(A) <  := , to
2C

E|Xi| CP(A) + E|Xi| C + = .
A {|Xi|>C}
2
!: Niech ą := supi"I E|Xi| oraz  > 0 będzie takie, że supi"I E|Xi|
A
 dla P(A) . Wówczas, jeśli C = ą/, to P(|Xi| > C) < ą/C =  dla
dowolnego i " I, czyli supi"I E|Xi| .
{|Xi|>C}
Przykłady rodzin jednostajnie całkowalnych
1. Rodzina jednoelementowa {Y } taka, że E|Y | < ".
Istotnie limC" E|Y | = 0.
{|Y |>C}
2. Rodzina wspólnie ograniczona przez zmienną całkowalną tzn. rodzina
(Xi)i"I taka, że "i"I|Xi| Y oraz EY < ".
28
Wynika to z Faktu 9, poprzedniego przykładu i oczywistej obserwację
E|Xi| E|Y | .
A A
3. Rodzina uśrednień ustalonej całkowalnej zmiennej losowej, tzn. rodzi-
na postaci (E(X|Fi))i"I, gdzie E|X| < ", zaś (Fi)i"I dowolna rodzina -
podciał F.
Na podstawie nierówności Jensena E|Xi| = E|E(X|Fi)| E|X|, a zatem
E|Xi| E|X| E|X|
P(|Xi| C)  dla C .
C C 
Zbiór {|Xi| > C} " Fi, więc z nierówności Jensena
E|Xi| = E|E(X |Fi)| EE(|X| |Fi)
{|Xi|>C} {|Xi|>C} {|Xi|>C}
E(|X| ) ,
{|Xi|>C}
jeśli tylko dobierzemy odpowiednio małe  korzystając z jednostajnej całko-
walności {|X|}.
Fakt 10. Załóżmy, że 1 p < ", a Xn są zmiennymi losowymi takimi,
że rodzina (|Xn|p)" jest jednostajnie całkowalna. Wówczas Xn zbiega do
n=1
zmiennej X w Lp wtedy i tylko wtedy, gdy Xn zbiega do X według prawdo-
podobieństwa.
Dowód. Wystarczy udowodnić, że zbieżność Xn według prawdopodobień-
stwa implikuje zbieżność w Lp, bo przeciwna implikacja jest zawsze praw-
P
dziwa. Załóżmy więc, że Xn X, wówczas dla pewnego podciągu nk, Xnk
zbiega do X p.n., stąd na mocy Lematu Fatou
E|X|p = E lim |Xnk|p lim inf E|Xnk|p sup E|Xn|p < ".
n
Zatem rodzina {|Xn|p : n = 1, 2, . . .} *" {|X|p} jest jednostajnie całkowalna.
Ustalmy  > 0 i dobierzmy  > 0 tak by dla P(A) <  zachodziło E|Xn|p
A
 oraz E|X|p . Mamy
A
E|Xn - X|p p + E|Xn - X|p
{|Xn-X|>}
p + 2pE|Xn|p + 2pE|X|p ,
{|Xn-X|>} {|Xn-X|>}
P
a ponieważ Xn X, więc P(|Xn - X| > ) <  dla dużych n, czyli
E|Xn - X|p p + 2p+1 dla dostatecznie dużych n.
29
Wniosek 11. Jeśli rodzina (Xn)" jest jednostajnie całkowalna oraz Xn
n=1
zbiega prawie na pewno do zmiennej X, to limn" EXn = EX dla
A A
wszystkich zdarzeń A.
Dowód. Stosujemy Fakt 10 i oczywiste szacowanie |EXn - EX |
A A
E|Xn - X|.
Jesteśmy teraz gotowi do dowodu ciągłej wersji Lematu 7.
Twierdzenie 12. a) Załóżmy, że T jest przedziałem, a (Xt)t"T martyn-
gałem prawostronnie ciągłym, zaś  i  czasami zatrzymania takimi, że
  tmax oraz tmax " T . Wówczas E(X |F) = X p.n..
b) Jeśli (Xt)0 t " jest prawostronnie ciągłym martyngałem z ostatnim ele-
mentem X" to dla dowolnych dwu czasów zatrzymania  , E(X |F) =
X p.n.
Dowód. Udowodnimy część a) (część b) można za pomocą zmiany czasu
sprowadzić do a)). Zdefiniujmy

k k+1 k
tmax - dla () " (tmax - , tmax - ], k = 0, 1, . . . , n2
n n n
n() :=
tmax - n dla () tmax - n
oraz

k k+1 k
tmax - dla () " (tmax - , tmax - ], k = 0, 1, . . . , n2
n n n
n() := .
tmax - n dla () tmax - n
Wówczas n n tmax są ograniczonymi czasami zatrzymania przyjmu-
jącymi jedynie skończenie wiele wartości. Zatem na mocy Lematu 7 mamy
E(Xn|Fn) = Xn p.n., E(Xtmax|Fn) = Xn p.n. oraz E(Xtmax|Fn) = Xn
p.n., w szczególności więc rodziny (Xn)" oraz (Xn)" są jednostaj-
n=1 n=1
nie całkowalne. Ponieważ n + oraz n +, więc z prawostronnej
ciągłości X oraz Faktu 10 Xn X , Xn X p.n. i w L1. Wezmy
A " F " Fn, wówczas
EX = lim EXn = lim EXn = EX ,
A A A A
n" n"
co oznacza, że E(X |F) = X p.n..
Wniosek 13. Załóżmy, że T jest przedziałem, a (Mt)t"T jest prawostronnie
ciągłym martyngałem względem (Ft)t"T . Wówczas dla dowolnego momentu
zatrzymania  proces M = (M '"t)t"T jest martyngałem zarówno względem
(F '"t)t"T , jak i (Ft)t"T .
30
Dowód. Niech s < t oraz s, t " T , wówczas  '" s  '" t t, więc z
Twierdzenia 12 mamy E(M'"t|F'"s) = M'"s p.n., czyli (M'"t, F '"t)t"T
jest martyngałem.
By udowodnić drugą część ustalmy s < t oraz A " Fs. Nietrudno spraw-
dzić, że A)"{ > s} " F'"s, zatem z poprzednio udowodnionej części wniosku
mamy
EM'"t = EM'"s .
A)"{>s} A)"{>s}
Ponadto
EM '"t A)"{ s} = EM = EM'"s .
A)"{ s} A)"{ s}
Dodając powyższe tożsamości stronami otrzymujemy EM'"t = EM'"s
A A
dla A " Fs, zatem (M'"t, Ft)t"T jest martyngałem.
6.4 Zbieżność martyngałów w Lp
Zacznijmy od warunków zbieżności martyngałów z czasem ciągłym w L1.
Twierdzenie 14. Załóżmy, że (Xt)t"[a,b), b " jest prawostronnie ciągłym
martyngałem. Wówczas następujące warunki są równoważne:
a) Rodzina (Xt)t"[a,b) jest jednostajnie całkowalna.
b) Istnieje całkowalna zmienna losowa Xb taka, że Xt zbiega do Xb w L1
tzn. limtb E|Xt - Xb| = 0.
c) Istnieje całkowalna zmienna losowa Xb mierzalna względem -ciała Fb :=

( Ft) taka, że Xt = E(Xb|Ft) dla t " [a, b).
t"[a,b)
W przypadku, gdy zachodzą warunki (a)-(c), to Xb = limtb Xt p.n..
Dowód. a)!b): Xt jest jednostajnie całkowalny, więc supt E|Xt| < ", czyli
wobec Twierdzenia 6 istnieje zmienna całkowalna Xb taka, że Xt Xb p.n.
przy t b. Z jednostajnej całkowalności i Lematu 10 wynika zbieżność w
L1.
b)!c): Dla pewnego podciągu tk b, Xtk Xb p.n., stąd możemy
zakładać, że zmienna Xb jest Fb mierzalna. Ustalmy t i A " Ft, wówczas dla
s t
EXt = EXs EXb , s ".
A A A
Zatem Xt = E(Xb|Ft) p.n..
c)!a) wiemy, że rodzina uśrednień ustalonej zmiennej jest jednostajnie
całkowalna.
Ostatnia część twiedzenia wynika z dowodu implikacji a)!b).
31
Twierdzenie 15. Załóżmy, że (Xt)t"[a,b) jest prawostronnie ciągłym mar-
tyngałem. Wówczas następujące warunki są równoważne:
a) supt"[a,b) E|Xt|p < ".
b) Rodzina (|Xt|p)t"[a,b) jest jednostajnie całkowalna.
c) Istnieje zmienna losowa Xb " Lp taka, że Xt zbiega do Xb w Lp tzn.
limtb E|Xt - Xb|p = 0.

d) Istnieje losowa Xb " Lp mierzalna względem Fb := ( Ft) taka, że
t"[a,b)
Xt = E(Xb|Ft) dla t " [a, b).
W przypadku, gdy zachodzą warunki (a)-(d), to Xb = limtb Xt p.n..
Dowód. a)!b): Na podstawie Twierdzenia 11 wiemy, że E supt"[a,b) |Xt|p
p
(p-1)p supt"[a,b) E|Xt|p < ". Pozostałe implikacje dowodzimy jak w dowo-
dzie Twierdzenia 14.
6.5 *Regularność trajektorii
W wielu twierdzeniach zakłada się, iż (Xt) jest prawostronnie ciągłym pod-
martyngałem. Oczywiście modyfikacja podmartyngału jest podmartyngałem
 problem jest tylko z mierzalnością, ale znika on, gdy filtracja spełnia zwy-
kłe warunki. Naturalnie jest więc zapytać kiedy dany podmartyngał możemy
zmodyfikować tak, by stał się prawostronnie ciągły.
Następny lemat jest prostą modyfikacją Lematu 2, więc przytoczymy go
bez dowodu.
Lemat 16. Jeśli f : [a, b] )" Q R jest funkcją ograniczoną taką, że dla
dowolnych liczb wymiernych ą <  , D[a,b])"Q(f, [ą, ]) < ", to granice
"t"[a,b) f(t+) := lim f(s) i "t"(a,b] f(t-) := lim f(s)
st+,s"Q st-,s"Q
istnieją i są skończone.
Będziemy też wykorzystywać prosty fakt.
Fakt 17. Załóżmy, że (Xn)n 0 jest podmartyngałem z czasem odwróconym o
wartościach średnich ograniczonych z dołu, tzn. a := limn-" EXn > -".
Wówczas rodzina (Xn)n 0 jest jednostajnie całkowalna.
Dowód. Ustalmy  > 0 i dobierzmy k takie, że EXk a + /2, wówczas
EXk - /2 EXn EXk dla n k. Zatem dla takich n, z własności
32
podmartyngału
E|Xn| = EXn - EXn
{|Xn|>C} {Xn>C} {Xn<-C}
= EXn + EXn - EXn
{Xn>C} {Xn -C}

EXk + EXk - EXk +
{Xn>C} {Xn -C}
2
 
= EXk - EXk + E|Xk| + .
{Xn>C} {Xn<-C} {|Xn|>C}
2 2
+
+
Mamy E|Xn| = 2EXn - EXn 2EX0 - a, więc ą := supn E|Xn| < ".
Zatem
E|Xn| ą ą
P(|Xn| > C) dla C := ,
C C 
czyli, wobec jednostajnej całkowalności rodziny jednoelementowej, dla odpo-
wiednio małego  > 0, E|Xk| /2, a więc E|Xn|  dla
{|Xn|>C} {|Xn|>C}
n k i odpowiednio dużego C. Ponieważ rodzina {Xk+1, Xk+2, . . . , X0} jest
skończona, a zatem i jednostajnie całkowalna, więc dla dużych C i wszyst-
kich n 0, E|Xn| .
{|Xn|>C}
Twierdzenie 18. Załóżmy, że T jest przedziałem, a (Xt)t"T podmartynga-
łem (lub nadmartyngałem). Wówczas istnieje zbiór A taki, że P(A) = 1 oraz
dla wszystkich  " A i t " T poza odpowiednio lewym i prawym końcami T
granice
Xt+() = lim Xs() oraz Xt-() = lim Xs()
st+,s"Q st-,s"Q
istnieją i są skończone.
Dowód. Bez straty ogólności możemy zakładać, że Xt jest podmartyngałem.
Ponieważ możemy znalezć niemalejący ciąg przedziałów [an, bn] taki, że T =

[an, bn], więc dowód wystarczy przeprowadzić w przypadku T = [a, b].
n
Zauważmy, że
sup ]Ex(Xt - )+ = E(Xb - )+ < ",
t"[a,b]
zatem z Lematu 4 dostajemy
"ą< P(D[a,b])"Q(Xt, [ą, ]) = ") = 0.
Ponadto, na mocy Lematu 9, dla dowolnego  > 0
+ +
P( sup Xt ) sup EXt = EXb < "
t"[a,b])"Q t"[a,b])"Q
33
oraz
+ +
P( inf Xt -) sup EXt - EXa = EXb - EXa < ".
t"[a,b])"Q
t"[a,b])"Q
Stąd
P(-" < inf Xt sup Xt < ") = 1.
t"[a,b])"Q
t"[a,b])"Q
Niech

A := {D[a,b])"Q(Xn, [ą, ]) < "} )" { sup |Xt| < "},
t"[a,b])"Q
ą,beta"Q,ą<
wtedy P(A) = 1. By wykazać, że zbiór A ma postulowane własności wystar-
czy skorzystać z Lematu 16.
Definicja 19. Funkcję f : T R określoną na przedziale T nazywamy
PCLG (często również używa się pochodzącej z francuskiego nazwy cadlag)
jeśli jest prawostronnie ciągła i w każdym punkcie T (poza ewentualnie le-
wym końcem) ma skończone lewostronne granice.
Twierdzenie 20. Załóżmy, że T jest przedziałem, a X = (Xt)t"T jest pod-
martyngałem (odp. nadmartyngałem) względem filtracji (Ft)t"T spełniają-
cej zwykłe warunki. Wówczas X ma prawostronnie ciągłą modyfikację wte-
dy i tylko wtedy gdy funkcja t EXt jest prawostronnie ciągła. Co wię-
cej, jeśli taka modyfikacja istnieje, to istnieje również modyfikacja PCLG
i Ft-adaptowalna będąca podmartyngałem (odp. nadmartyngałem) względem
(Ft)t"T .
Dowód. ! Wystarczy rozpatrzeć przypadek podmartyngału oraz T = [a, b].
Na mocy Twierdzenia 18 istnieje A takie, że P(A) = 1 oraz dla wszystkich
 " A granice limst+,s"Q Xs, t " [a, b) oraz limst-,s"Q Xs, t " (a, b]
istnieją i są skończone. Połóżmy

limst+,s"Q Xs()  " A
Xt+() :=
0  " A
/
Niech tn t+, ponieważ EXtn EXa, więc (Xtn)n jest jednostajnie całko-
walny jako podmartyngał z czasem odwróconym (Fakt 17). Wezmy A " Ft,
wówczas
EXt EXtn EXt+ przy n ",
A A A
stąd Xt+ = E(Xt+|Ft) Xt p.n.. Co więcej
E(Xt+ - Xt) = lim EXtn - EXt = 0
n"
34
na mocy prawostronnej ciągłości t EXt, czyli Xt+ = Xt p.n., a zatem
Xt+ jest szukaną modyfikacją X.
!: Zauważmy, że jeśli Xt prawostronnie ciągły, to Xt+ = Xt, biorąc tn
t+ i wykorzystując jednostajną całkowalność (Xtn)n (Fakt 17) dostajemy
EXt = EXt+ = limn" EXtn.
7 Całka Stieltjesa
Podstawowy problem jakim się zajmiemy podczas najbliższych wykładów

t t
polega na ścisłym zdefiniowaniu całek f(s)dWs, XsdWs lub ogólniej
0 0

t
XsdYs, gdzie f(s) jest  porządną funkcją, a Xs, Ys są  porządnymi
0
procesami stochastycznymi.
Najprostsze podejście polega na zdefiniowaniu osobno całki dla każdej

s
trajektorii, tzn. określeniu dla ustalonego  " &!, Ys()dXs(). Sposób
0
takiej konstrukcji daje całka Stieltjesa, uogólniająca całkę Riemanna.
7.1 Całka Riemanna-Stieltjesa
W tej części podamy tylko podstawowe fakty i definicje, bez dowodów. Wię-
cej informacji oraz kompletne dowody można znalezć w [4, 5] i [2].
Definicja 1. Podziałem przedziału [a, b] nazywamy niemalejący ciąg liczb
 = (t0, t1, . . . , tk) taki, że a = t0 t1 . . . tk = b. Średnicę podziału 
definiujemy wzorem diam( ): = maxi |ti+1 - ti|.
Mówimy, że podział  jest podpodziałem  (ozn.  z" ) jeśli wszystkie
punkty  są punktami  .
Ciąg n = (tn, . . . , tn ) nazywamy normalnym ciągiem podziałów, jeśli
0 kn
n"
diam( n) - 0 oraz n+1 z" n.

b
Definicja 2. Niech f, g : [a, b] R. Powiemy że g df istnieje oraz, że g
a
jest całkowalna względem f, jeśli dla dowolnego normalnego ciągu podzia-
łów n = (tn, . . . , tn ) oraz punktów sn, . . . , sn takich, że tk sk tk
0 kn 0 kn-1 j j j+1
istnieje skończona granica
kn

lim g(sk )[f(tk) - f(tk )],
j-1 j j-1
n"
j=1
która nie zależy od wybranego ciągu punktów i podziałów. Granicę tą ozna-

b
czamy g(t) df(t) i nazywamy całką Riemanna-Stjeltjesa.
a
35

b
Uwaga 3. Można udowodnić, że całka g df istnieje oraz jest równa S,
a
jeśli dla dowolnego  > 0 istnieje  > 0 taka, że dla dowolnego podziału
n = (tn, . . . , tn ) o średnicy nie większej niż  oraz punktów sn, . . . , sn
0 kn 0 kn-1
takich, że tk sk tk ,
j j j+1
kn



S - g(sk )[f(tk) - f(tk )] .

j-1 j j-1
j=1
Uwaga 4. i) W przypadku f(t) = t całka Riemanna-Stieltjesa jest całką
Riemanna.
ii) Jeśli f " C1[a, b], to f(tn ) - f(tn) = f (Śn) dla pewnego tn+1
j+1 j j j

b
Śn tn, stąd można prosto udowodnić, że w tym przypadku g(t) df(t) =
j j a

b
g(t)f (t) dt.
a
Wprost z definicji natychmiast wynika.
Fakt 5. i) Jeśli g1 i g2 są całkowalne względem f, to dla dowolnych liczb c1
i c2 funkcja c1g1 + c2g2 jest całkowalna względem f oraz

b b b
(c1g1 + c2g2)df = c1 g1df + c2 g2df.
a a a
ii) Jeśli g jest całkowalna względem f1 i f2, to dla dowolnych liczb c1 i c2, g
jest całkowalna względem c1f1 + c2f2 oraz

b b b
gd(c1f1 + c2f2) = c1 gdf1 + c2 gdf2.
a a a

b c
Uwaga 6. Może się zdarzyć, że dla a < b < c całki gdf i gdf istnieją, a
a b

c c
całka gdf nie istnieje. Jeśli jednak wszystkie trzy całki istnieją, to gdf =
a a

b c
gdf + gdf.
a b
Oczywiście naturalnie jest zapytać dla jakich funkcji f i g istnieje całka

gdf. By odpowiedzieć na to pytanie musimy zdefiniować funkcje o wahaniu
skończonym.
Definicja 7. Jeśli f : [a, b] R, to liczbę
n

Wah[a,b](f): = sup sup |f(ti) - f(ti-1)|
n"N a=t0<...i=1
nazywamy wahaniem funkcji f w przedziale [a, b]. Mówimy, że f ma wa-
hanie skończone na [a, b], jeśli Wah[a,b](f) < ".
36
Oczywiście 0 Wah[a,b](f) " Wahanie jest addytywną funkcją prze-
działu, tzn. Wah[a,c](f) = Wah[a,b](f) + Wah[b,c](f) dla a < b < c.
Przykłady.
Funkcje lipschitzowskie, funkcje monotoniczne mają wahanie skończone na
ograniczonych przedziałach.
Kombinacja liniowa funkcji o wahaniu skończonym ma wahanie skończone.
1
Funkcja f(x) = x sin(x) oraz f(0) = 0 jest ciągła, ale nie ma wahania
skończonego na [0, 1].
Twierdzenie 8. Jeżeli f, g : [a, b] R, przy czym g jest ciągła, a f ma

b
wahanie skończone, to g df istnieje.
a
Twierdzenie to można odwrócić.

b
Twierdzenie 9. Jeśli całka Riemanna-Stieltjesa gdf istnieje dla dowol-
a
nej funkcji ciągłej g, to funkcja f ma wahanie skończone na [a, b].
7.2 Całka Lebesgue a-Stieltjesa
Fakt 10. Jeśli f ma wahanie skończone na [a, b], to istnieją funkcje nie-
malejące f1, f2 takie, że f1(a) = f2(a) = 0 oraz f(t) = f(a) + f1(t) - f2(t).
Co więcej f ma w każdym punkcie granice jednostrone. Ponadto jeśli f jest
ciągła (odp. prawostronnie ciągła), to f1 i f2 można wybrać ciągłe (odp.
prawostronnie ciągłe).
1
Szkic dowodu. Określamy f1(t) = (Wah[a,t](f) + f(t) - f(a)) oraz f2(t) =
2
1
(Wah[a,t](f) - f(t) + f(a)).
2
Definicja 11. Załóżmy, że f jest prawostronnie ciągłą funkcją na [a, b] o
wahaniu skończonym. Niech f1 i f2 będą prawostronnie ciągłymi funkcjami
niemalejącymi takimi, że f1(a) = f2(a) = 0 oraz f(t) = f(a) + f1(t) -
f2(t). Istnieją wtedy skończone miary borelowskie 1 i 2 na [a, b] takie, że
i[a, t] = fi(t) dla i = 1, 2. Dla ograniczonych funkcji mierzalnych g na [a, b]
określamy całkę Lebesgue a-Stieltjesa g względem f wzorem

gdf = gd1 - gd2.
[a,b]
Uwaga 12. Można wykazać, że dla funkcji ciągłych g całki Riemanna-
Stieltjesa i Lebesgue a-Stieltjesa g względem f są sobie równe.
37
7.3 Nieskończone wahanie ciągłych martyngałów
Niestety proces Wienera ma z prawdopodobieństwem jeden nieskończone
wahanie na każdym przedziale. Prawdziwy jest znacznie ogólniejszy fakt.
Twierdzenie 13. Załóżmy, że (Mt)t"[a,b] jest ciągłym martyngałem oraz
A = { : Mt() ma wahanie skończone na [a,b]}. Wówczas Mt ma z praw-
dopodobieństwem 1 trajektorie stałe na A, tzn.
P("t"[a,b] Mt = Ma ) = 1.
A A
Dowód. Załóżmy najpierw, że istnieje stała C < " taka, że Wah[a,b](Mt)
C oraz supt"[a,b] |Mt| C. Ustalmy 0 u b - a i rozpatrzmy zmienne
losowe
n-1

Xn = (Ma+(k+1)u/n - Ma+ku/n)2.
k=0
Zauważmy, że dla s < t,
2
EMsMt = EE(MsMt|Fs) = E(MsE(Mt|Fs)) = EMs ,
stąd
n-1

2 2 2 2
EXn = E(Ma+(k+1)u/n - Ma+ku/n) = EMa+u - EMa .
k=0
Zauważmy, że
n-1

|Xn| sup |Ma+(k+1)u/n - Ma+ku/n| |Ma+(k+1)u/n - Ma+ku/n|
0 k n-1
k=0
sup |Mt - Ms|Wah[a,b](Mt),
|s-t| u/n
stąd |Xn| 2C2 oraz, z ciągłości M, limn" Xn = 0. Zatem z twierdzenia
2
Lebesgue a o zbieżności zmajoryzowanej limn" EXn = 0, czyli EMa+u =
2
EMa . Zauważmy jednak, że
2
EMa+u = EE((Ma + (Ma+u - Ma))2|Fa)
2
= EMa + E(Ma+u - Ma)2 + 2E[MaE((Ma+u - Ma)Fa)
2
= EMa + E(Ma+u - Ma)2.
Stąd Ma+u = Ma p.n., czyli Mt = Ma p.n dla dowolnego t " [a, b]. Z ciągłości
M wynika, że P("t Mt = Ma) = 1.
38
W przypadku ogólnym zdefiniujmy ciąg czasów zatrzymania
n = inf{t a: sup |Ms| n} '" inf{t a: Wah[0,t] n},
a s t
wówczas martyngał Mn spełnia założenia pierwszej części dowodu (z C =
n), więc Mn ma stałe trajektorie p.n.. Wystarczy zauważyć, że dla  " A,
n() = " dla dostatecznie dużych n.
8 Całka izometryczna względem procesu Wienera
Podczas kolejnych wykładów zdefiniujemy całkę względem procesu Wienera
- zaczniemy od całkowania funkcji deterministycznych, by pózniej przejść do
konstrukcji izometrycznej całki stochastycznej Ito.
Konstrukcja całki stochastycznej ma pewne podobieństwa do konstruk-
cji całki Lebesgue a. Najpierw określa się, w naturalny sposób, całki naj-
prostszych funkcji/procesów (funkcje schodkowe, procesy elementarne), póz-
niej pokazuje się własności tak określonej całki (oparte na liczeniu drugich
momentów), które pozwalają uogólnić definicję na bardziej złożone funk-
cje/procesy.
Należy zwrócić uwagę, że całkę stochastyczną definiujemy globalnie na
całej przestrzeni probabilistycznej, a nie dla każdej trajektorii z osobna.

t
Dla uproszczenia notacji będziemy definiowali całki XsdWs. Całkę
0

t
XsdWs dla 0 < u < t można wówczas określić na kilka sposobów - albo
u
w naturalny sposób uogólniając odpowiednie definicje albo np. jako całkę

t
Xs (s)dWs.
[u,")
0
Będziemy zakładać, że 0 < T " oraz Ft jest filtracją spełniającą
zwykłe warunki taką, że Wt jest Ft mierzalne oraz Ws - Wt jest niezależne
W
od Ft dla s t (za Ft można przyjąć uzupełnienie Ft+).
8.1 Całka Paleya-Wienera
Definiowanie całki stochastycznej względem procesu Wienera zaczniemy od
najprostszego przypadku funkcji deterministycznych.
Dla funkcji schodkowej postaci
k

h = ąi , 0 = t0 < t1 < . . . < tk = t, ąi " R,
(ti-1,ti]
i=1
określamy

k
t

I(h) = h(s) dWs := ąi(W (ti) - W (ti-1)).
0
i=1
39
Z podstawowych własności procesu Wienera natychmiast otrzymujemy
następujące własności przekształcenia I:
Fakt 1. Przy powyżej wprowadzonych oznaczeniach mamy
i) EI(h) = 0,

t
ii) EI(h)2 = h2(s) ds,
0

t
iii) I(h) ma rozkład normalny N (0, h2(s) ds),
0
iii) I(c1h1 + c2h2) = c1I(h1) + c2I(h2) dla c1, c2 " R.
Oznaczając przez E1 zbiór funkcji schodkowych na [a, b] widzimy, że
przekształcenie I definiuje liniową izometrię L2([0, t]) " E1 L2(&!). Po-
nieważ funkcje schodkowe są gęste w L2 izometrię w jednoznaczny sposób
możemy rozszerzyć na całe L2([0, t]).
Definicja 2. Rozszerzenie powyższej izometrii do izometrii na L2([0, t]) na-

t
zywamy całką Paleya-Wienera z funkcji h i oznaczamy h(s) dWs.
0
Fakt 3. Dla dowolnej funkcji h " L2([0, t]),

t
i) E( h(s) dWs) = 0,
0

t t t
ii) Var( h(s) dWs) = E( h(s) dWs)2 = h2(s) ds,
0 0 0

t t
iii) h(s) dWs ma rozkład normalny N (0, h2(s) ds).
0 0
Można też udowodnić następujące proste własności całki Paleya-Wienera
Fakt 4. i) Jeżeli h " C1([0, t]), to

t t
h(s) dWs = h(t)Wt - h (s)Ws ds.
0 0
Ponadto dla dowolnego h " L2[0, t]

t t
ii) E| h(s) dWs|p = E|W1|p( h2(s) ds)p/2
0 0
oraz

u t
iii) h(s)dWs = h(s) (s)ds p.n. dla dowolnych 0 < u < t.
[0,u]
0 0
8.2 Procesy elementarne
Starając się przenieść konstrukcję Paleya-Wienera na przypadek całki z pro-
cesów, musimy określić stochastyczny odpowiednik funkcji schodkowych - są
to tak zwane procesy elementarne.
Definicja 5. Powiemy, że proces X = (Xt)t"[0,T ) należy do E - rodziny
procesów elementarnych ( elementarnych procesów prognozowalnych), jeśli
X jest postaci
n

Xt = 0 + k-1 (t), (2)
{0} (tk-1,tk]
k=1
40
gdzie 0 = t0 < t1 < . . . < tm < T , zaś k są ograniczonymi zmiennymi
losowymi, Ftk-mierzalnymi.
Oczywiście E jest przestrzenią liniową.
Definicja 6. Dla X " E definiujemy proces


t
I(X) = (I(X)t)t T = Xs dWs
t T
0
wzorem
m

I(X)t := k-1(Wtk'"t - Wtk-1'"t).
k=1
Uwaga 7. Definicja jest poprawna, tzn. nie zależy od reprezentacji X " E.

t
Fakt 8. Jeśli X jest procesem elementarnym, to I(X) = ( Xs dWs)t T
0
jest martyngałem względem (Ft)0 t T , o ciągłych trajektoriach takim, że
I(X)0 = 0 oraz

2 T
T
2
E Xs dWs = E Xs ds.

0 0
Dowód. Przyjmijmy, że Xt jest postaci (2). Ciągłość trajektorii i I(X)0 = 0
wynika natychmiast z określenia I(X). Jeżeli tj t tj+1, to zmienna
I(X)t = 0(Wt1 - Wt0) + 1(Wt2 - Wt1) + . . . + j(Wt - Wtj )
jest Ft mierzalna. Ponadto I(X)t = I(X)tm dla tm t T .
Sprawdzimy teraz, że I(X) jest martyngałem, czyli dla s < t T mamy
E(I(X)t|Fs) = I(X)s. Wystarczy pokazać to dla tj s < t tj+1, ale
wtedy
E(I(X)t - I(X)s|Fs) = E(j(Wt - Ws)|Fs) = jE(Wt - Ws|Fs) = 0,
wykorzystujemy tu założenie, że j jest Ftj " Fs mierzalne. By zakończyć
dowód liczymy
EI(X)2
T
m

2
= E[k-1(Wtk - Wtk-1)2] + 2 E[k-1j-1(Wtk - Wtk-1)(Wtj - Wtj-1)]
k=1 j= I1 + I2.
41
Wykorzystując mierzalność j oraz niezależność przyrostów procesu Wienera
mamy

T

2 2 2
I1 = E[k-1E((Wtk-Wtk-1)2|Ftk-1)] = Ek-1(tk-tk-1) = E Xs ds
0
k k
oraz

I2 = 2 E[(k-1j-1E((Wtk - Wtk-1)(Wtj - Wtj-1)|Ftk-1)]
j
= 2 E[k-1j-1(Wtj - Wtj-1)E(Wtk - Wtk-1|Ftk-1)] = 0,
jbo E(Wtk - Wtk-1) = 0.
Uwaga 9. Jedyne własności procesu Wienera jakie wykorzystywaliśmy
w dowodzie, to E(Wt - Ws|Fs) = 0 oraz E((Wt - Ws)2|Fs) = t - s dla
0 s < t. Własności te można formalnie wyprowadzić z faktu, że procesy
(Wt) i (Wt2 - t) są martyngałami względem (Ft).
8.3 Martyngały ciągłe, całkowalne z kwadratem
Definicja 10. Przez M2,c oznaczamy przestrzeń martyngałów M = (Mt)0 t T
T
2
względem filtracji (Ft)t"[0,T ] o trajektoriach ciągłych takich, że EMT < ".
Uwaga 11. i) Jeśli M " M2,c, to z nierówności Jensena wynika, że EMt2
T
2
EMT < ", więc (Mt2)0 t T jest podmartyngałem.
ii) Przestrzeń M2,c można utożsamić z przestrzenią martyngałów ciągłych
T
(Mt)0 tgranicę p.n. Mt przy t T (zob. Twierdzenie 6.15 dla p = 2).
iii) Z nierówności Dooba wynika, że dla M = (Mt) " M2,c,
T
2
E sup Mt2 4EMT .
t T
Fakt 12. Przestrzeń M2,c jest przestrzenią Hilberta (tzn. zupełną przestrze-
T
nią euklidesową) z iloczynem skalarnym
(M, N) = (M, N)T = EMT NT , M, N " M2,c
T
oraz normą

2
M T = (M, M)T = EMT = MT L2(&!).
42
Uwaga 13. i) Przy rozważaniach dotyczących całki stochastycznej utoż-
samiamy procesy nieodróżnialne. Formalnie rzecz biorąc elementy M2,c to
T
klasy abstrakcji martyngałów ciągłych względem relacji nieodróżnialności.
ii) Przekształcenie M MT jest izometrycznym włożeniem przestrzeni
M2,c w L2(&!, F, P).
T
Dowód Faktu. Oczywiście M2,c jest przestrzenią liniową, zaś (M, N) jest
T
2
iloczynem skalarnym, bo jeśli (M, M) = 0, to EMT = 0, czyli MT = 0 p.n.,
co z własności martygału implikuje, że Mt = 0 p.n., więc z ciągłości M,
P("t T Mt = 0) = 1.
Musimy jeszcze udowodnić zupełność. Niech M(n) = (Mt(n)) " M2,c
T
będzie ciągiem Cauchy ego, czyli
(n) (m)
M(n) - M(m) 2 = E(MT - MT )2 0 dla m, n ".
T
(n)
Wówczas MT jest ciągiem Cauchy ego w L2(&!, FT , P), zatem z zupełności
(n)
L2 istnieje całkowalna z kwadratem zmienna MT taka, że E|MT -MT |2 0
przy n ".

Możemy położyć Mt := E(MT |Ft), ale taka definicja nie gwarantuje

ciągłości M. Udowodnimy, że można znalezć martyngał M, który jest ciągłą

modyfikację M.
Zauważmy, że na mocy nierówności Dooba,
(n) (m)
E sup(Mt(n) - Mt(m))2 4E|MT - MT |2,
t T
więc możemy wybrać podciąg nk taki, że
"l>k E sup(Mt(nk) - Mt(nl))2 8-k.
t T
Wówczas

P sup |Mt(nk) - Mt(nk+1)| 2-k 2-k.
t T
Zatem, jeśli określimy
Ak := {sup |Mt(nk) - Mt(nk+1)| 2-k},
t T

to P(Ak) < ", czyli na mocy lematu Borela-Cantelli, P(lim sup Ak) = 0.
k
Jeśli  " lim sup Ak, to  " Ak dla k k0 = k0(), czyli supt T |Mt(nk)-
/ /
Mt(nk+1)| 2-k dla k k0. Ciąg (Mtnk())0 t T jest zatem zbieżny jedno-
stajnie na [0, T ] do pewnej funkcji Mt(). Kładziemy dodatkowo M() = 0
dla  " lim sup Ak.
43
(nk)
Z ciągłości M(nk) wynika ciągłość M. Ponieważ MT MT w L2
(nk)
więc również w L1, czyli Mt(nk) = E(MT |Ft) E(MT |Ft) w L1, a że

Mt(nk) Mt p.n., więc Mt = E(MT |Ft) = Mt p.n., czyli (Mt)0 t T jest
martyngałem ciągłym.
8.4 Całka izometryczna Ito. Procesy prognozowalne
Każdemu procesowi elementarnemu X przyporządkowaliśmy martyngał cią-
gły I(X), co więcej przekształcenie I
L2([0, T ] &!, B([0, T ]) " F,  " P) ! E -I M2,c

T
jest liniową izometrią. Przekształcenie I możemy więc rozszerzyć do liniowej
izometrii (którą też będziemy oznaczać literą I) z E w M2,c, gdzie E oznacza
T
domknięcie przestrzeni procesów elementarnych w L2([0, T ] &!, B([0, T ]) "
F,  " P).
Definicja 14. Tak zdefiniowane przekształcenie I przyporządkowujące każ-
demu procesowi X = (Xt)0 t T z przestrzeni E ciągły, całkowalny z kwa-
dratem martyngał I(X) nazywamy izometryczną całką stochastyczną Ito z
procesu X i oznaczamy

t
I(X)t =: XsdWs, 0 t T.
0
Oczywiście natychmiast powstaje pytanie jak wygląda przestrzeń E, czyli
jakie procesy stochastyczne umiemy całkować.
Definicja 15. -ciało zbiorów prognozowalnych P, to -ciało podzbiorów
[0, T ) &! generowane przez zbiory postaci {0} A, (s, t] A, s < t < T ,
A " Fs.
Proces X = (Xt)0 tX : [0, T ) &! R jest mierzalny względem P.
Z definicji natychmiast wynika, że Xt() = () (t) jest progno-
A
(u,v]
zowalny, jeśli A " Fu oraz u v < T
Ponieważ każdą ograniczoną zmienną , Fu mierzalną można aproksy-

mować jednostajnie przez zmienne postaci ai , Ai " Fu, więc proces
Ai
() (t) jest prognozowalny dla dowolnej ograniczonej zmiennej , Fu
(u,v]
mierzalnej. Stąd jest on także prognozowalny dla dowolnej zmiennej  nie-
ujemnej Fu mierzalnej, a zatem dla dowolnej Fu mierzalnej zmiennej .
44
Zatem dowolny proces Y " E jest prognozowalny, czyli E " L2([0, T )
&!, P,  " P), stąd
E " L2([0, T ) &!, P,  " P).
W szczególności każdy proces z E jest nieodróznialny od procesu prognozo-
walnego. Okazuje się, że zachodzi również odwrotne zawieranie.
Fakt 16. Mamy E = L2([0, T ) &!, P,  " P).
Dowód. Wobec poprzednich rozważań musimy tylko pokazać, że E " L2([0, T )
&!, P,  " P). Rozważymy dwa przypadki.
Przypadek I: T < ".
Najpierw pokażemy, że jeśli  " P, to " E. W tym celu określmy

A := { " P : " E} oraz

B := {{0} A: A " F0} *" {(u, v] A: 0 u < v < T, A " Fu}.
Aatwo sprawdzić, że B jest Ą-układem, ponadto jeśli  " B, to " E " E,

a zatem B " A. Co więcej A jest -układem dla T < ", bo
i)  = [0, T ) &! " A, czyli = 1 " E, gdyż biorąc ciąg Tn T ,

L2
otrzymujemy E + = - " E.
{0}&! (0,Tn]&! [0,Tn]&! [0,T )&!
ii) 1, 2 " A, 1 " 2, = - " E z liniowości E, czyli
2\1 2 1
2 \ 1 " A.

L2

iii) n " A wstępujący, wówczas - " E, czyli n " A.
n
n
Zatem dla T < ", z twierdzenia o Ą, - ukladach A " (B) = P.
n
Dalej, jeśli i " P, ai " R, to ai " E (z liniowości). Ponadto
i
i=1

funkcje proste ai są gęste w L2([0, T ) &!, P,  " P), czyli E =
i
i n
L2([0, T ) &!, P,  " P).
Przypadek II: T = ".
(n)
Niech X " L2([0, ") &!, P,  " P) oraz Xt () := Xt() (t, ).
[0,n)&!
Wówczas X(n) prognozowalne, należace do L2([0, n) &!, P,  " P), zatem
X(n) " E na mocy przypadku I.
Ponadto X(n) X w L2([0, ") &!,  " P) (tw. Lebesgue a o zbieżności
zmajoryzowanej), czyli X " E.

t
Określiliśmy zatem XsdWs dla procesów prognozowalnych całkowal-
0
nych z kwadratem względem miary  " P na [0, T ) &!. Od tej pory przyj-
mujemy następujące oznaczenie
LT = L2([0, T ) &!, P,  " P)
2


T
2
= X = (Xt)0 t0
45
Dobrze by było jeszcze wiedzieć, że klasa procesów prognozowalnych jest
dostatecznie duża, wynika to z następującego faktu:
Fakt 17. Jeśli X = (Xt)t"[0,T ) jest procesem adaptowalnym i lewostronnie
ciągłym, to X jest prognozowalny.
Dowód. Dla T < " określmy
2n-1

(n)
Xt := X0 + X ,
k-1 k-1 k
{0}
T ( T, T ]
2n 2n 2n
k=1
zaś w przypadku T = " niech
n2n

(n)
Xt := X0 + X .
k-1 k-1 k
{0}
( , ]
2n 2n 2n
k=1
Aatwo zauważyć, że procesy X(n) są prognozowalne oraz z lewostronnej cią-
(n)
głości X wynika, że Xt Xt punktowo. Prognozowalność X wynika z
faktu, że granica punktowa ciągu funkcji mierzalnych jest mierzalna.
Uwaga 18. Można udowodnić, że dla (Ft)-adaptowalnego procesu X =

T
2
(Xt)t"[0,T ) takiego, że E Xs ds < " istnieje proces prognozowalny Y taki,
0
że Xt() = Yt() dla  " P prawie wszystkich (t, ) " [0, T ) &!. Pozwala

to określić XdW dla procesów adaptowalnych z L2([0, T ) &!).
9 Własności całki izometrycznej. Uogólnienie de-
finicji całki stochastycznej
9.1 Twierdzenie o zatrzymaniu całki stochastycznej
Zacznijmy od prostej obserwacji.
Fakt 1. Jeśli X " L2 , to dla dowolnego u < T , X " L2 i
[0,u]
T T

t t'"u
(s)Xs dWs = Xs dWs dla 0 t T.
[0,u]
0 0
Dowód. Funkcja (t, ) (t) jest deterministyczna, więc prognozowal-
[0,u]
na, zatem proces X jest prognozowalny jako iloczyn procesów progno-
[0,u]
zowalnych, więc X " L2 .
[0,u]
T
46

Jeśli X jest procesem elementarnym postaci X = 0 + k ,
{0} k (tk-1,tk]

to X = 0 + k " E oraz
[0,u] {0} k (tk-1'"u,tk'"u]

t t'"u

(s)Xs dWs = k(Wtk'"u'"t - Wtk-1'"u'"t) = Xs dWs.
[0,u]
0 0
Dla X " L2 wezmy X(n) " E takie, że X(n) X w L2 . Wówczas
T T
oczywiście również X(n) X w L2 . Stąd
[0,u] [0,u]
T

t t t'"u t
(n) (n)
Xs (s)dWs ! Xs [0,u](s)dWs = Xs dWs XsdWs.
[0,u]
0 0 0 0
Uogólnieniem faktu jest ważne twierdzenie o zatrzymaniu całki stocha-
stycznej.
Twierdzenie 2. Niech X " L2 oraz  będzie momentem zatrzymania.
T
Wówczas X " L2 oraz
[0,]
T

t t'"
(s)Xs dWs = Xs dWs dla 0 t T. (3)
[0,]
0 0
Dowód. Biorąc  '" T zamiast T możemy zakładać, że  T p.n..
Proces (t) jest lewostronnie ciągły i adaptowalny, a zatem jest pro-
[0,]
gnozowalny, czyli X jest prognozowalny (iloczyn funkcji mierzalnych
[0, ]
jest funkcją mierzalną). Stąd X " L2 .
[0,]
T
Wzór (3) udowodnimy w trzech krokach.
Krok 1. X " E,  przyjmuje skończenie wiele wartości.
Ewentualnie powiększając ciąg ti możemy zakładać, że  przyjmuje war-
m-1
tości 0 = t0 t1 . . . tm T oraz X = 0 + k .
{0} (tk,tk+1]
k=0
Mamy
m m k-1


(t) = (t) = (t) +
[0,] { =tk} [0,tk] { =tk} (tj,tj+1] {=tk} {0}
k=0 k=0 j=0
m-1 m

= (t) + (t)
&! {0} {=tk} (tj,tj+1]
j=0 k=j+1
m-1

= (t) + (t),
&! {0} { >tj} (tj,tj+1]
j=0
47
zatem
m-1

(t)X = 0 (t) + j (t),
[0,] {0} { >tj} (tj,tj+1]
j=0
czyli (t)X " E. Liczymy
[0,]

m-1
t

(s)Xs dWs = j (Wtj+1'"t - Wtj'"t)
[0, ] {>tj}
0
j=0
m-1 k-1

= j (Wtj+1'"t - Wtj'"t)
{=tk}
j=0 k=j+1
m k-1

= j(Wtj+1'"t - Wtj'"t)
{=tk}
k=1 j=0

m
t'"tk t'"

= Xs dWs = Xs dWs.
{=tk}
0 0
k=1
Krok 2.  dowolne oraz X " E.
Wezmy ciąg momentów zatrzymania n przyjmujących skończenie wiele
wartości taki, że n . Na mocy kroku 1, para (n, X) spełnia (3). Z

t'"n t'"
ciągłości trajektorii całki stochastycznej, Xs dWs Xs dWs p.n..
0 0
Mamy

2 2
t t t
E (s)Xs dWs - (s)Xs dWs = E (s)Xs dWs
[0,n] [0,] (,n]
0 0 0

t
2
= E (s)Xs ds 0.
(,n]
0
2
Zbieżność wynika z twierdzenia Lebesgue a, gdyż proces (s)Xs dąży
(,n]
2
punktowo do zera i jest majoryzowany przez Xs . Stąd

t'" t'"n t t
p.n. L2(&!)
X dW !- X dW = X dW - X dW,
[0,n] [0,]
0 0 0 0
czyli spełnione jest (3).
Krok 3.  oraz X " L2 dowolne.
T
Wezmy X(n) " E takie, że X(n) X w L2 . Z kroku 2, para (, X(n))
T
spełnia (3). Mamy

2 2
t'" T
(n)
E (Xs - Xs ) dWs E (X - X(n)) dW
0 0

T
(n)
= E (X - Xs )2 ds 0,
0
48
gdzie pierwsza nierówność wynika z nierówności Jensena oraz Twierdzenia

Dooba 6.12 dla martyngału ( (X - X(n)) dW ). Ponadto

2
t t
(n) (n)
E (s)(Xs - Xs ) dWs = E (s)(Xs - Xs )2 ds
[0,] [0,]
0 0

T
(n)
E (Xs - Xs )2 ds 0.
0
Stąd

t'" t'" t t
L2(&!) L2(&!)
(n) (n)
Xs dWs !- Xs dWs = Xs dWs - Xs dWs,
[0, ] [0,]
0 0 0 0
czyli (3) spełnione jest i w tym przypadku.

t t
Wniosek 3. Dla X " L2 , proces M := (( X dW )2 - X2 ds)t T jest
T 0 0
martyngałem.
Dla X a" 1 otrzymujemy znany fakt, że Wt2 - t jest martyngałem.
Dowód wniosku oparty jest na następującej prostej obserwacji.
Fakt 4. Załóżmy, że M jest adaptowalnym, prawostronnie ciągłym proce-
sem takim, że M0 = 0 i dla wszystkich t, E|Mt| < ". Wówczas M jest
martyngałem wtedy i tylko wtedy gdy EM = 0 dla wszystkich ograniczonych
momentów zatrzymania .
Dowód. !: Z Twierdzenia Dooba 6.12, EM = EM0 = 0.
!: Musimy pokazać, że dla s < t, E(Mt|Fs) = Ms p.n., czyli EMt =
A
EMs dla wszystkich A " Fs. Określmy
A

s dla  " A
 :=
t dla  " A.
Jak łatwo sprawdzić  jest momentem zatrzymania, stąd
0 = EM = EMs + EMt = EMs - EMt ,
A Ac A A
gdzie ostatnia równość wynika z faktu, że
EMt = EMt - EMt = 0 - EMt .
Ac A A
49

2,c
Dowód Wniosku. Jak wiemy X dW " MT , czyli M jest ciągły, adapto-
walny i całkowalny oraz M0 = 0. Dla ograniczonego momentu zatrzymania
 T otrzymujemy na mocy twierdzenia o zatrzymaniu całki stochastycznej

2 2
 T T 
2 2
E X dW = E X dW = E (s)Xs ds = E Xs ds.
[0, ] [0, ]
0 0 0 0
Zatem

2
 
2
EM = E X dW - Xs ds = 0.
0 0
9.2 Uogólnienie definicji całki stochastycznej
Definicja 5. Dla T " określamy przestrzeń procesów prognozowalnych,
lokalnie całkowalnych z kwadratem


t
2
2 = (Xt)tT
0
Zatem proces prognozowalny X należy do przestrzeni 2 wtedy i tylko
T
wtedy, gdy


t
2
P "t0
Przestrzeń 2 jest liniowa, ale nie jest przestrzenią Hilberta. Na 2 moż-
T T
na wprowadzić metrykę przestrzeni Frecheta generowaną przez ciąg metryk
euklidesowych.
Definicja 6. Jeśli X = (Xt)t"I jest procesem stochastycznym, a  mo-

mentem zatrzymania, to X = (Xt )t"I - proces X zatrzymany w chwili 
definiujemy wzorem

Xt := Xt'" .
Lemat 7. Dla X " 2 określmy
T


t
2
n := inf t 0 : Xs ds n '" T '" n, n = 1, 2, . . . .
0
Wówczas (n) jest rosnącym ciagiem momentów zatrzymania, n T p.n.
Ponadto dla wszystkich n, X " L2 .
[0,n]
T
50
Dowód. n jest momentem zatrzymania jako moment dojścia przez adapto-

t
2
walny proces ciągły Xs ds do zbioru domkniętego [n, "). Z założenia o
0

2
skończoności Xs ds wynika, że n T p.n..
Proces X jest prognozowalny jako iloczyn procesów prognozowal-
[0,n]
nych, ponadto na mocy nierówności Schwarza i definicji n,

2 2
T n n
2
E (s)Xs ds = E Xs ds E n Xs ds n2 < ".
[0,n]
0 0 0
Załóżmy, że mamy dany rosnący ciąg momentów zatrzymania n T

t
p.n. taki, że X " L2 dla wszystkich n. Niech Mn(t) := X dW .
[0,n] [0,n]
T 0
n
Lemat 8. Dla m n, procesy Mm i Mn są nierozróżnialne, czyli
P("t T , Mm(t '" n) = Mn(t)) = 1.
Dowód. Na mocy twierdzenia o zatrzymaniu całki stochastycznej dla usta-
lonego t T ,

n'"t t
Mm(n '" t) = X dW = X dW
[0,m] [0,n] [0,m]
0 0

t
= X dW = Mn(t).
[0,n]
0

Zatem Mm jest modyfikacją Mn. Teza lematu wynika z ciągłości obu proce-
sów.
Definicja 9. Niech X " 2 oraz n będzie rosnącym do T ciągiem momen-
T
tów zatrzymania takich, że X " L2 dla wszystkich n. Całką stocha-
[0,n]
T

t
styczną X dW dla X " 2 oznaczamy taki proces (Mt)tT 0

t'"n t
że Mtn = X dW = X dW dla n = 1, 2, . . ..
[0,n]
0 0
Fakt 10. Proces M zdefiniowany powyżej jest jest ciągły i jednoznacznie
określony w klasie procesów nieodróżnialnych.
Dowód. Na mocy Lematu 8 dla każdego m > n istnieje zbiór Nn,m taki,
że P(Nn,m) = 0 oraz dla  " Nn,m zachodzi Mn(t, ) = Mm(t '" n(), )

dla wszystkich t < T . Niech N := Nn,m, wówczas P(N) = 0 oraz dla
m>n
 " N, t n() ciąg (Mm(t, ))m n jest stały. Zatem możemy (i musimy)
/
położyć M(t, ) := Mn(t, ) dla t n().
51

Fakt 11. Definicja X dW nie zależy od wyboru ciągu n dla X " 2 .
T
Dokładniej, jeśli n, n - momenty zatrzymania, n T , n T , X "
[0,n]
L2 i X " L2 oraz M, M zdefiniowane za pomocą n, n odpowiednio,
[0,n]
T T
to procesy M i M są nierozróżnialne.
Dowód. Mamy

t t
Mt'"n = X dW, Mt'"n = X dW.
[0,n] [0, ]
0 0
Na mocy twierdzenia o zatrzymaniu całki stochastycznej,

t
Mt'"n'"n = X dW = Mt'"n'"n.
[0,n] [0, ]
n
0
Ponadto n '" n T , więc t '" n '" n = t dla n n() i stąd Mt = Mt
p.n., a że są to procesy ciągłe, to są nierozróżnialne.
Definicja 12. Jeżeli dla procesu adaptowalnego M = (Mt)tmomentów zatrzymania n T taki, że Mn jest martyngałem, to M na-
zywamy martyngałem lokalnym. Jeśli dodatkowo Mn " M2,c, to mówimy,
T
że M jest ciągłym martyngałem lokalnym całkowalnym z kwadratem. Kla-
sę takich procesów oznaczamy M2,c (M2,c jeśli wartość T jest jasna z
T,loc loc
kontekstu).
Uwaga 13. M " Mc wtedy i tylko wtedy, gdy M - M0 " M2,c , gdzie
T,loc T,loc
Mc oznacza rodzinę ciągłych martyngałów lokalnych.
T,loc

Fakt 14. Załóżmy, że M = XdW dla X " T . Wówczas
2
i) M jest procesem ciągłym, M0 = 0,
ii) M " M2,c ,
T,loc

iii) Przekształcenie X XdW jest liniowe.
Dowód. Punkty i), ii) wynikają z definicji. By udowodnić iii) wezmy X, Y "
2 Istnieją wówczas momenty zatrzymania n T i n T takie, że
T
X " L2 oraz Y " L2 . Przyjmując n := n '" n T otrzymu-
[0,n] [0,n]
T T
jemy X, Y " L2 , a zatem (aX + bY ) " L2 dla dowolnych
[0,n] [0,n] [0,n]
T T

t'"n
a, b " R. Stąd na mocy definicji otrzymujemy, że (aX + bY ) dW =
0

t'"n t'"n
a X dW + b Y dW i biorąc granicę n ", (aX + bY ) dW =
0
0
a XdW + b Y dW.
Sformułujemy teraz uogólnienie twierdzenia o zatrzymaniu całki stocha-
stycznej.
52
Fakt 15. Jeśli X " 2 , to dla dowolnego momentu zatrzymania , X "
[0, ]
T
2 oraz
T

t'" t
X dW = X dW.
[0, ]
0 0
Dowód. Proces X jest prognozowalny jako iloczyn procesów prognozo-
[0, ]
walnych i majoryzowany przez X, stąd X " 2 . Proces X " 2 , więc
[0, ]
T T
istnieje ciąg n T taki, że X " L2 . Wtedy też X " L2 .
[0,n] [0,n] [0, ]
T T
Niech

M := X dW, N := X dW.
[0,]
Na mocy definicji,

t t
Mt'"n = X, dW, Nt'"n = X dW.
[0,n] [0,n] [0, ]
0 0
Z udowodnionego wcześniej twierdzenia 2 o zatrzymaniu całki izometrycznej,

t
Mt'"'"n = X dW = Nt'"n.
[0, ] [0,n]
0
Biorąc n " dostajemy Mt = Mt'" = Nt, czyli M = N.

Uwaga 16. Martyngał lokalny M = X dW dla X " 2 nie musi być
T

t
2
martyngałem, Mt nie musi być nawet całkowalne. Ale, jeśli E Xs ds < "
0
dla wszystkich t < T , to M jest martyngałem, bo możemy przyjąć n = tn,
gdzie tn jest ciągiem rosnącym zbieżnym do T i wtedy Mt'"n = Mt'"tn "
M2,c.
T

Mimo, że w przypadku ogólnym X dW nie musi być martyngałem, to
zachodzi dla tego procesu nierówność Dooba.
Twierdzenie 17 (Nierówność Dooba). Dla dowolnego procesu X " T oraz
2
momentu zatrzymania  T ,

2
t 
2
E sup X dW 4E Xs ds.
t< 0 0
Dowód. Wezmy n T takie, że X " L2 . Mamy
[0,n]
T

2 2 2
t'"n t t'"
E sup X dW = E sup X dW = E sup X dW
[0,n] [0,n]
t< 0 t< 0 t
2
t
= E sup X dW
[0, ] [0,n]
t T 0
53
( X " M2,c, więc t < T można zamienić na t T ). Na mocy
[0,] [0,n]
T
nierówności Dooba dla martyngałów,

2 2
t T
E sup X dW 4E X dW
[0,T ] [0,n] [0,] [0,n]
t T 0 0

T  '"n 
2 2
= 4E ( Xs)2 ds = 4E Xs ds 4E Xs ds.
[0,] [0,n]
0 0 0
Wykazaliśmy zatem, że

2
t'"n 
2
E sup X dW 4E Xs ds.
t< 0 0
Ponieważ

2 2 2
t'"n t t
sup X dW = sup X dW sup X dW ,
t< 0 t< '"n 0 t< 0
więc teza wynika z twierdzenia Lebesgue a o zbieżności monotonicznej.
10 Całka względem ciągłych martyngałów

Podczas wcześniejszych wykładów zdefiniowaliśmy całkę XdW . Okazuje

się, że bez większych trudności definicję tę daje się uogólnić na XdM, gdzie
M jest ciągłym martyngałem (a nawet ciągłym martyngałem lokalnym).
Podczas tego i kolejnych wykładów zakładamy, że T " oraz (Ft)t"[0,T ]
jest filtracją spełniającą zwykłe warunki.
10.1 Rozkład Dooba-Meyera
Podstawą konstrukcji całki stochastycznej względem procesu Wienera jest
to, że Wt i Wt2 - t są martyngałami. Okazuje się, że dla dowolnego całkowal-
nego z kwadratem ciągłego martyngału M znajdzie się proces niemalejący
X taki, że M2 - X jest martyngałem.
Twierdzenie 1 (rozkład Dooba-Meyera). Dla M " M2,c istnieje pro-
T
ces M = ( M t)0 t T o trajektoriach ciągłych, niemalejących taki, że
M 0 = 0 oraz (Mt2 - M t)0 t T jest martyngałem. Co więcej proces M
jest wyznaczony jednoznacznie.
Udowodnimy jednoznaczność rozkładu, dowód istnienia znajduje się w
Dodatku B.
54
Dowód Jednoznaczności. Załóżmy, że Mt2 - Yt i Mt2 - Zt dwa martyngały
o ciągłych trajektoriach oraz Yt, Zt niemalejące, ciągłe. Trajektorie procesu
Yt-Zt mają wahanie skończone, ponadto Yt-Zt = (Mt2-Zt)-(Mt2-Yt) jest
martyngałem ciągłym. Stąd, na podstawie twierdzenia 7.13 Y - Z a" 0.
Przykłady.
Dla procesu Wienera W t = t.

t
2
Ogólniej, Wniosek 3 implikuje, że Xs dWs t = Xs ds dla X " L2 .
0 T
10.2 Całka izometryczna
Ponieważ dla wszystkich , t M t() jest niemalejące, zatem ma wa-
hanie skończone, czyli można określić skończoną miarę d M t() na [0, T ].
Z uwagi na ciągłość M miara ta jest bezatomowa. Następna definicja jest
naturalnym uogólnieniem definicji dla procesu Wienera.
Definicja 2. Dla procesu elementarnego X postaci
m-1

X = 0 + k ,
{0} (tk,tk+1]
k=0
gdzie 0 = t0 t1 t2 . . . tm < T , k ograniczone, Ftk- mierzalne oraz
M " M2,c określamy
T

m-1
t

X dM := k(Mtk+1'"t - Mtk'"t) dla 0 t T.
0
k=0
Definiujemy też dla M " M2,c
T


T
2
L2 (M) = X = (Xt)tT
0

Fakt 3. Niech M " M2,c oraz X " E. Wówczas I(X) := X dM " M2,c,
T
I(X)0 = 0 oraz

2
T T
2
I(X) 2 = E Xs dMs = E Xs d M s = X 2 .
T
L2 (M)
T
0 0
Dowód. Ciągłość I(X), warunek I(X)0 = 0 oraz to, że I(X)t " L2 dla
wszystkich t są oczywiste. Dla tj t tj+1 mamy
I(X)t = 0(Mt1 - Mt0) + 1(Mt2 - Mt1) + . . . + j(Mt - Mtj ).
55
Dla tj t s tj+1 otrzymujemy zatem
E(I(X)s|Ft) - I(X)t = E(j(Ms - Mt)|Ft) = j(E(Ms|Ft) - Mt) = 0,
czyli I(X) jest martyngałem. Ponadto
m-1

2
EI(X)2 = E[k(Mtk+1 - Mtk)2]
T
k=0

+ 2 E[k-1j-1(Mtk - Mtk-1)(Mtj - Mtj-1)] = I + II.
jZauważmy, że dla s < t,
2
E((Mt - Ms)2|Fs) = E(Mt2 - M t|Fs) + E( M t|Fs) - 2MsE(Mt|Fs) + Ms
2 2
= Ms - M s + E( M t|Fs) - Ms = E( M t - M s|Fs).
Stąd

2 2
I = E[kE((Mtk+1 - Mtk)2|Ftk)] = E[kE( M tk+1 - M tk|Ftk)]
k k

tk+1 T

2 2 2
= E k( M tk+1 - M tk) = E k d M s = E Xs d M s.
tk 0
k k
Ponadto

II = 2 E[k-1j-1(Mtj - Mtj-1)E(Mtk - Mtk-1|Ftk-1)] = 0.
jTak jak dla procesu Wienera dowodzimy, że domknięcie E w przestrzeni
L2([0, T ) &!, d M " P) jest równe E = L2 (M). Izometrię I(X) możemy
T
przedłużyć do E, w ten sposób otrzymujemy izometryczną definicję całki

I(X) = X dM dla X " L2 (M). Mamy zatem następujący fakt.
T
Fakt 4. Niech M " M2,c. Wówczas
T

a) Dla X " L2 (M) proces XdM " M2,c oraz
T T

2 2
T T

2
XdM = E XsdMs = E Xs d M s = X L2 .

(M)
T
M2,c
0 0
T

b) Jeśli X, Y " L2 (M), to aX + bY " L2 (M) dla a, b " R oraz (aX +
T T

bY )dM = a XdM + b Y dM.
56
10.3 Uogólnienie definicji całki
Zacznijmy od prostego faktu.
Fakt 5. Załóżmy, że M " M2,c, wówczas dla dowolnego momentu zatrzy-
T
mania , M " M2,c oraz M = M  .
T
Dowód. Wiemy, że M jest ciągłym martyngałem. Na mocy nierówności
Jensena
 2 2
E|MT |2 = EM'"T = E[E(MT |F'"T )]2 EMT ,
zatem M " M2,c. Proces M  startuje z zera, ma trajektorie ciągłe, po-
T
nadto (M )2 - M  = (M2 - M ) jest martyngałem, więc M  spełnia
wszystkie warunki definicji M .
Możemy uogólnić rozkład Dooba-Meyera na przypadek ciągłych martyn-
gałów lokalnych.
Wniosek 6. Załóżmy, że M " Mc , wówczas istnieje dokładnie jeden
loc
proces M = ( M t)0 t M 0 = 0 oraz M2 - M " Mc .
loc
Dowód. Istnienie. Niech n będzie rosnącym do T ciągiem momentów
zatrzymania takim, że Mn " M2,c. Określmy Yn := Mn , wówczas dla
T
n m

Ymn = Mm n = (Mm)n = Mn'"m = Mn = Yn.
n
Stąd istnieje proces ciągły Y = (Yt)0 tY0 = Yn,0 = 0, ponadto Y ma trajektorie niemalejące oraz
n
(M2 - Y )n = (Mn)2 - Y = (Mn)2 - Mn " Mc,
zatem M2 - Y jest ciągłym martyngałem lokalnym na [0, T ).
Ż
Jednoznaczność. Niech Y i Y procesy ciągłe o niemalejących trajek-
Ż Ż
toriach takie, że Y0 = Y0 = 0 oraz M2 - Y i M2 - Y są martyngałami
lokalnymi. Wówczas istnieją momenty zatrzymania n T i n T takie,
Ż
Ż
Ż
że (M2 - Y )n oraz (M2 - Y )n są martyngałami. Biorąc n = n '" n T
Ż
Ż
Ż
dostajemy martyngały (M2 - Y )n = ((M2 - Y )n)n oraz (M2 - Y )n =
Ż
Ż Ż
((M2 - Y )n)n, proces (Y - Y )n jest więc martyngałem o ograniczonym
n n
Ż
wahaniu, czyli jest stały, zatem Y = Y . Przechodząc z n " otrzy-
Ż
mujemy Y = Y .
Podbnie jak dla procesu Wienera dowodzimy twierdzenie o zatrzymaniu
całki stochastycznej względem martyngałów całkowalnych z kwadratem.
57
Twierdzenie 7. Załóżmy, że M " M2,c, X " L2 (M) oraz  będzie mo-
T T
mentem zatrzymania. Wówczas X " L2 (M), X " L2 (M ) oraz
[0,]
T T

t t'" t

(s)Xs dMs = Xs dMs = XsdMs dla 0 t T.
[0, ]
0 0 0
Definicja 8. Dla T ", M " Mc określamy przestrzeń procesów pro-
loc
gnozowalnych, lokalnie całkowalnych z kwadratem względem M


t
2
2 (M) = (Xt)tT
0

Ponieważ XdM = Xd(M - M0) oraz M - M0 = M , więc bez
straty ogólności przy uogólnianiu definicji całki będziemy zakładać, że M0 =
0.
Definicja 9. Niech M = (Mt)tloc
2 (M) oraz n będzie rosnącym do T ciągiem momentów zatrzymania ta-
T
kich, że Mn " M2,c i X " L2 (Mn) dla wszystkich n. Całką stocha-
[0,n]
T T

t
styczną X dM nazywamy taki proces (Nt)t0

t
X dMn dla n = 1, 2, . . ..
[0,n]
0
Nietrudno udowodnić (naśladując dowód dla całki względem procesu

Wienera), że całka X dM dla M " Mc i X " 2 (M) jest zdefiniowana
loc T
poprawnie i jednoznacznie (z dokładnością do nieodróżnialności procesów)
oraz nie zależy od wyboru ciągu momentów zatrzymania n.

Następujący fakt przedstawia podstawowe własności XdM.
Fakt 10. Niech M, N " Mc . Wówczas
loc
a) Dla X " 2 (M) proces XdM " Mc .
T loc

b) Jeśli X, Y " 2 (M), to aX + bY " 2 (M) dla a, b " R oraz (aX +
T T

bY )dM = a XdM + b Y dM.
c) Jeśli X " 2 (M) )" 2 (N) oraz a, b " R, to X " 2 (aM + bN) oraz
T T T

Xd(aM + bN) = a XdM + b XdN.
Można również sformułować twierdzenie o zatrzymaniu całki stocha-
stycznej w ogólnym przypadku.
Twierdzenie 11. Załóżmy, że M " Mc , X " 2 (M) oraz  będzie mo-
loc T
mentem zatrzymania. Wówczas X " 2 (M), X " 2 (M ) oraz
[0,]
T T

t t'" t

(s) dMs = Xs dMs = XsdMs dla 0 t < T.
[0,]
0 0 0
58
11 Własności nawiasu skośnego
Podczas tego wykładu zajmiemy się interpretacją procesu M .
Niech  = (t0, t1, . . . , tk) będzie podziałem [0, t] takim, że 0 = t0 t1
. . . tk = t. Definiujemy wówczas
k

M
V ,t := (Mti - Mti-1)2.
i=1
M
Będziemy też czasem pisać V ,t(M) zamiast V ,t. Pokażemy, że M t jest
M
granicą V ,t przy diam( ) 0, dlatego też M nazywa się często wariacją
kwadratową M.
Zacznijmy od najprostszej sytuacji martyngałów ograniczonych, tzn. ta-
kich, że supt Mt " < ".
Twierdzenie 1. Załóżmy, że M jest ograniczonym martyngałem ciągłym
M
Wówczas V ,t M t w L2(&!) dla t T , gdy diam( ) 0.
Dowód. Możemy założyć, rozpatrując zamiast M proces M -M0, że M0 = 0,
bo V ,t(M - M0) = V ,t(M) oraz M - M0 = M ((M - M0)2 - M =
2
(M2 - M ) - 2MM0 + M0 jest martyngałem, czyli, z jednoznaczności ,
mamy M - M0 = M ).
Niech n = (0 = t(n) t(n) . . . t(n) = t) będzie ciągiem podziałów
0 1 kn
[0, t] takim, że diam( n) 0.
Połóżmy C = sups T Ms ". Liczymy
kn
2

Mt2 = (Mt - Mt )
(n) (n)
k k-1
k=1

= (M - M )2 + 2 (M - M )(M - M )
t(n) t(n) t(n) t(n) t(n) t(n)
k k-1 k k-1 j j-1
k k
M M
= V n,t + 2 (M - M )M = V n,t + 2Nn(t).
t(n) t(n) t(n)
j j-1 j-1
j
Niech
kn

Xn(s) := M " E,
t(n) (t(n) ,t(n)]
j-1 j-1 j
j=1

t
wówczas Nn(t) = Xn(s) dMs. Z ciągłości M dostajemy Xn(s) Ms dla
0
wszystkich s t. Ponadto |Xn| C, stąd |Xn - M|2 4C2 i na mocy
twierdzenia Lebesgue a o zbieżności zmajoryzowanej,

t
E |Xn - M|2 d M s 0.
0
59

Zatem Xn M w L2(M), czyli Nn M dM w M2,c, to znaczy Nn(t)
t t

t
Ms dMs w L2(&!). Wykazaliśmy zatem, iż
0

M
V n,t = Mt2 - 2Nn(t) Mt2 - 2 M dM w L2(&!).

Proces Y := M2-2 M dM jest ciągły, Y0 = 0 oraz M2-Y = 2 M dM jest
martyngałem. By zakończyć dowód, że Y = M musimy wykazać monoto-
niczność trajektorii Y . Wybierzmy s < t i rozpatrzmy taki ciąg podziałów
n odcinka [0, t], że s jest jednym z punktów każdego z podziałów. Wówczas
M
n można też traktować jako ciąg podziałów [0, s] i określić V n,s. Mamy
L2 M M L2
Ys !- V n,s V n,t - Yt,
czyli proces Y ma trajektorie monotoniczne.
Uwaga 2. W szczególności przedstawiony dowód pokazuje, że dla martyn-
gału jednostajnie ograniczonego M, takiego, że M0 = 0, zachodzi M2 =

2 M dM + M .
By uogólnić Twierdzenie 1 na przypadek martyngałów całkowalnych z
kwadratem będziemy potrzebowali dwóch faktów.
Lemat 3. Niech (n) będzie ciągiem zmiennych losowych, a (Ak) wstępu-

jącym ciągiem zdarzeń takim, że P( Ak) = 1. Załóżmy, że dla wszystkich
k, zmienne n zbiegają według prawdopodobieństwa (przy n ") do
Ak
zmiennej k. Wówczas n zbiega według prawdopodobieństwa do zmiennej 
takiej, że  = k p.n. dla k = 1, 2, . . ..
Ak
Dowód. Dla k l mamy l = k p.n., gdyż pewien podciąg ns l
Ak Al
p.n., a zatem ns = ns l p.n. (czyli również wg P). Stąd
Al Al Ak Ak
istnieje zmienna losowa  taka, że  = k p.n..
Ak
Zauważmy, że P(Ac ) /2 dla dużego k oraz przy ustalonym k, P(|n -
Ak
k
k| ) /2 dla dużych n, stąd
P(|n - | ) P(Ac ) + P(|n -  | ) 
Ak Ak
k
dla dostatecznie dużych n.
Kolejny lemat pokazuje, że przy pewnych prostych założeniach można
ze zbieżności według prawdopodobieństwa wyprowadzić zbieżność w L1.
Lemat 4. Załóżmy, że n 0, n  według P oraz dla wszystkich n,
En = E < ". Wówczas n  w L1.
60
Dowód. Mamy
E| - n| = E(| - n| - ( - n)) = 2E( - n)
{ n}
 
 
+ 2E( - n) + 2E .
{ n+ } { n+ }
4 4
2 2
Na mocy zbieżności według prawdopodobieństwa, limn" P( n+/4) =
0. Ponadto E|| = E < ", zatem {} jest jednostajnie całkowalna , czyli
|E | /2 dla odpowiednio małego P(A). Stąd E /2 dla
A
{ n+/4}
dużych n, a więc E| - n| .
M
Twierdzenie 5. Załóżmy, że M " M2,c, wówczas dla t < T , V ,t M t
T
w L1(&!), gdy diam( ) 0.
Dowód. Jak poprzednio możemy zakładać, że M0 = 0. Ustalmy ciąg podzia-
łów n taki, że diam( n) 0.
Istnieje ciąg momentów zatrzymania k T taki, że Mk jest jednostaj-
nie ograniczony (np. k = inf{t: |Mt| k}). Na mocy Twierdzenia 1, dla
ustalonego k, mamy przy n "
L2
V n,t(Mk) - Mk t = M k.
t
Stąd
L2
V n,t(M) = V n,t(Mk) - M k = M t.
{t k} {t k} {t k} {t k}
t
Zbieżność w L2 implikuje zbieżność według prawdopodobieństwa, zatem mo-
żemy stosować Lemat 3 do n = V n,t(M) i Ak = {t k}, by otrzymać
V n,t(M) M t według P. Mamy jednak

E M t = EMt2 = E[V n,t(M) + 2 Mt (Mt - Mt )] = EV n,t(M),
(n) (n) (n)
j-1 j j-1
j
a zatem na mocy Lematu 4, V n,t(M) M t w L1.
Dla martyngałów lokalnych zachodzi zbliżone twierdzenie, tylko zbież-
ność w L1 musimy zastąpić zbieżnością według prawdopodobieństwa.
M
Wniosek 6. Załóżmy, że M " Mc , wówczas dla t < T , V ,t M t
loc
według prawdopodobieństwa, gdy diam( ) 0.
61
Dowód. Bez straty ogólności możemy założyć, że M0 = 0, wówczas M "
M2,c. Niech n będą podziałami [0, t] o średnicy zbieżnej do zera oraz k
loc
T takie, że Mk " M2,c. Na podstawie Twierdzenia 5 otrzymujemy, że dla
ustalonego k,
L1
V n,t(Mk) - Mk = M k.
Stąd
L1
V n,t(M) = V n,t(Mk) - M k = M .
{k t} {k t} {k t} {k t}
Teza wynika z Lematu 3.
Nawias skośny określa się nie tylko dla pojedynczego martyngału, ale też
i dla pary martyngałów.
Definicja 7. Nawiasem skośnym dwóch ciągłych martyngałów lokalnych M
i N nazywamy proces M, N zdefiniowany wzorem
1
M, N = [ M + N - M - N ].
4
Fakt 8. a) Załóżmy, że M, N " M2,c, wówczas M, N to jedyny pro-
T
ces o trajektoriach ciągłych mających wahanie skończone na [0, T ] taki, że
M, N 0 = 0 oraz MN - M, N jest martyngałem na [0, T ].
b) Załóżmy, że M, N " Mc , wówczas M, N to jedyny proces o trajek-
loc
toriach ciągłych mających wahanie skończone na [0, t] dla t < T taki, że
M, N 0 = 0 oraz MN - M, N jest martyngałem lokalnym na [0, T ).
Dowód. Jednoznaczność dowodzimy jak dla M , zaś wymienione własności
wynikają z tożsamości

1
MN - M, N = (M + N)2 - M + N - (M - N)2 - M - N .
4
Fakt 9. Niech n = (t(n), t(n), . . . , t(n)) będzie ciągiem podziałów [0, t] takim,
0 1 kn
że 0 = t(n) t(n) . . . t(n) = t oraz diam( n) 0.
0 1 kn
a) Jeśli M, N " M2,c, to dla t < T ,
T
kn

L1
(M - M )(N - N ) - M, N t.
t(n) t(n) t(n) t(n)
k+1 k k+1 k
k=0
62
b) Jeśli M, N " M2,c, to dla t < T ,
loc
kn

(Mt - Mt )(Nt - Nt ) -P M, N t.

(n) (n) (n) (n)
k+1 k k+1 k
k=0
Dowód. Wystarczy zauważyć, że
1
(Mt-Ms)(Nt-Ns) = [((Mt+Nt)-(Ms+Ns))2-((Mt-Nt)-(Ms-Ns))2]
4
i skorzystać z Twierdzenia 1 i Wniosku 6.
Fakt 10. a) M, M = M = -M ,
b) M, N = N, M ,
c) M - M0, N = M, N - N0 = M - M0, N - N0 = M, N ,
d) (N, M) M, N jest przekształceniem dwuliniowym,
e) M , N = M , N = M, N = M, N  ,

f) Jeśli M " M2,c, X, Y " 2 (M) oraz N1 = X dM, N2 = Y dM, to
loc T

N1, N2 = XY d M .
Dowód. Punkty a), b) i c) wynikają natychmiast z definicji, punkt d) z
Wniosku 6. To, że M , N = M, N  dowodzimy jak w Fakcie 5 (wy-
korzystując Fakt 8). Pozostałe równości w e) wynikają z Faktu 9. By wy-

kazać f) wystarczy wykazać, że XdM = X2d M . Poprzez własność
e) i lokalizacje można sprowadzić to do przypadku gdy M " M2,c oraz
T
X " L2 (M). Z twierdzenia o zatrzymaniu całki można wtedy wykazać, że
T

XdM - X2d M jest martyngałem (zob. dowód Wniosku 3).
12 Dalsze własności całki stochastycznej
Zacznijmy od wersji stochastycznej twierdzenia Lebesgue a o zbieżności zma-
joryzowanej.
Twierdzenie 1. Załóżmy, że M " M2,c oraz Xn są procesami prognozo-
loc
walnymi takimi, że limn" Xn,t() = Xt() dla wszystkich t < T,  " &!.
Jeśli dla wszystkich t < T i  " &!, |Xn,t()| Yt() dla pewnego procesu
Y " 2 (M), to Xn, X " 2 (M) oraz
T T

t t
XndM -P XdM przy n ".

0 0
63
Dowód. Proces X jest prognozowalny jako granica procesów prognozowal-
nych. Ponadto dla t < T ,

t t t
2 2
Xs d M s, Xn,sd M s Ys2d M s < " p.n.,
0 0 0
więc Xn, X " 2 (M). Bez straty ogólności możemy też założyć, że M0 = 0.
T
Niech k T takie, że Mk " M2,c oraz Y " L2 (Mk). Ponie-
[0,k]
T T
waż Xn Y , więc Xn " L2 (Mk). Z twierdzenia Lebes-
[0,k] [0,k] [0,k]
T
gue a o zbieżności zmajoryzowanej łatwo wykazać, że Xn X
[0,k] [0,k]
w L2 (Mk). Stąd dla ustalonego k,
T

t'"k t t t'"k
L2(&!)
XndM = XndMk - XdMk = XdM,
[0,k] [0,k]
0 0 0 0
czyli

t t
L2
XndM - XdM przy n ".
{k t} {k t}
0 0
Zbieżność w L2 implikuje zbieżność według prawdopodobieństwa, by zakoń-
czyć dowód wystarczy skorzystać z Lematu 11.3.
Definicja 2. Mówimy, że proces X jest lokalnie ograniczony, jeśli istnieją
momenty zatrzymania n T takie, że procesy Xn - X0 są ograniczone.
Uwaga 3. Każdy proces ciągły, adaptowalny jest lokalnie ograniczony.
Kolejne twierdzenie podaje wzór na całkowanie przez podstawienie.
Twierdzenie 4. a) Niech N " M2,c, X " L2 (N), Y - proces prognozo-
T T

walny ograniczony oraz M = XdN. Wówczas Y " L2 (M), XY " L2 (N)
T T

oraz Y dM = XY dN.
b) Niech N " Mc , X " 2 (N), Y - proces prognozowalny lokalnie ogra-
loc T

niczony oraz M = XdN. Wówczas Y " 2 (M), XY " 2 (N) oraz
T T

Y dM = XY dN.
Dowód. a) Załóżmy wpierw, że Y jest procesem elementarnym postaci
n-1

Y = 0 + j ,
{0} (tj,tj+1]
j=0
64
gdzie 0 = t0 < t1 < . . . < tk < T , zaś k są ograniczonymi zmiennymi
Ftk-mierzalnymi. Wówczas

t t t

Y dM = j(Mtj+1'"t - Mtj'"t) = j( XdN - XdN)
[0,tj+1] [0,tj]
0 0 0
j j

t t

= j XdN = j XdN
(tj,tj+1] (tj,tj+1]
0 0
j j

t t

= j XdN = Y XdN.
(tj,tj+1]
0 0
j
Jeśli Y jest dowolnym ograniczonym procesem prognozowalnym, to

T T
2
E Ys2d M s Y 2 E d M s = Y 2 E M T = Y 2 EMT < ",
" " "
0 0
więc Y " L2 (M). Nietrudno też sprawdzić, że XY " L2 (N). Możemy
T T
znalezć procesy elementarne Yn zbieżne do Y w L2 (M), co więcej możemy
T
założyć, że Yn " Y ". Zauważmy, że

T T
2
XY - XYn 2 = E (XY - XYn)2d N s = E (Y - Yn)2Xs d N s
s s
L2 (N)
T
0 0

T
= E (Y - Yn)2d M s 0 = Y - Yn 2 ,
s
L2 (M)
T
0
więc YnX Y X w L2 (N). Stąd dla t T ,
T

t
L2 t L2 t
XY dN !- XYndN = YndM - Y dM.
0 0 0

t t t
b) Mamy Y0dM = Y0Mt = Y0 0 XdN = Y0XdN, zatem rozpatru-
0 0
jąc Y - Y0 zamiast Y możemy zakładać,że Y0 = 0. Niech n T takie, że
n
Y jest ograniczone, Nn " M2,c oraz X " L2 (Nn). Zauważmy, że
[0,n]
T T

Mn = ( XdN)n = X dNn,
[0,n]
zatem na mocy części a),

( Y dM)n = Y dMn = Y X dNn
[0,n] [0,n] [0,n]

= XY dNn = ( XY dN)n.
[0,n]
Biorąc n " dostajemy tezę.
65
Sformułujemy teraz pierwsze twierdzenie o całkowaniu przez części.
Twierdzenie 5. Niech M, N " Mc , wówczas
loc

t t
MtNt = M0N0 + MsdNs + NsdMs + M, N t. (4)
0 0
Stosując twierdzenie do M = N dostajemy natychmiast.
Wniosek 6. Jeśli M " Mc , to
loc

t
1 1
2
MsdMs = (Mt2 - M0 ) - M t.
2 2
0

Wniosek 7. Niech X, Y " 2 , M = XdW oraz N = Y dW , wówczas
T

t t
MtNt = MsdNs + NsdMs + M, N t
0 0

t t t
= MsYsdWs + NsXsdWs + XsYsds.
0 0 0
Dowód. Pierwsza równość wynika z Twierdzenia 5, druga z Twierdzenia 4

oraz tego, że M, N = XY ds.

Dowód Twierdzenia 5. Całki MdN i NdM są dobrze określone, gdyż
procesy M i N są ciągłe, zatem lokalnie ograniczone.
Możemy założyć, iż M0 = N0 = 0, gdyż M, N = M - N0, N - N0 ,

MdN = Md(N - N0) = (M - M0)d(N - N0) + M0d(N - N0)

= (M - M0)d(N - N0) + M0(N - N0),
zatem

t t t t
MdN + NdM = (M - M0)d(N - N0) + (N - M0)d(M - M0)
0 0 0 0
+ M0Nt + N0Mt - 2N0M0.
Wystarczy udowodnić, że teza zachodzi dla M = N, tzn.

t
Mt2 = 2 MsdMs + M t dla M " Mc , M0 = 0. (5)
loc
0
Jeśli bowiem zastosujemy (5) dla M + N i M - N, odejmiemy stronami i
podzielimy przez 4, to dostaniemy (4).
66
Wiemy (zob Uwaga 11.11), że (5) zachodzi przy dodatkowym założeniu
ograniczoności M. W ogólnym przypadku określamy
n := inf{t > 0: |Mt| n} '" T,
wtedy n T . Ponadto Mn jest ograniczonym martyngałem lokalnym,
zatem ograniczonym martyngałem, więc

(M2)n = (Mn)2 = 2 MndMn + Mn

= 2 Mn dM + M n = 2 M dM + M n
[0,n] [0,n]

= (2 MdM + M )n.
Przechodząc z n " dostajemy (5).
Definicja 8. Przez Vc oznaczamy procesy ciągłe, adaptowalne, których tra-
jektorie mają wahanie skończone na każdym przedziale [0, t] dla t < T .
Udowodnimy teraz kolejne twierdzenie o całkowaniu przez części.
Fakt 9. Załóżmy, że M " Mc , A " Vc, wówczas
loc

t t
MtAt = M0A0 + AsdMs + MsdAs.
0 0
Dowód. Jak w dowodzie Twierdzenia 5 możemy założyć, że M0 = A0 = 0.
Załóżmy wpierw, że M i N są ograniczone. Zauważmy, że
n n

MtAt = (Mtj/n - Mt(j-1)/n) (Atk/n - At(k-1)/n
j=1 k=1
n

= (Mtj/n - Mt(j-1)/n)(Atj/n - At(j-1)/n)
j=1
n n

+ Mt(j-1)/n(Atj/n - At(j-1)/n) + (Mtj/n - Mt(j-1)/n)At(j-1)/n
j=1 j=1
= In + IIn + IIIn.

t
Składnik IIn dąży prawie na pewno do MdA (definicja całki Riemanna-
0
Stieltjesa). Nietrudno sprawdzić, że procesy elementarne
n

An = At(j-1)/n
(t(j-1)/n,tj/n]
j=1
67

t t
zbiegają w L2(M) do A, stąd IIIn = AndM zbiega w L2 do AdM.
t
0 0
Zauważmy też, że
n n

|In|2 (Mtj/n - Mt(j-1)/n)2 (Atj/n - At(j-1)/n)2
j=1 j=1
pierwszy składnik powyżej dąży do M t w L2 (w szczególności jest więc
ograniczony w L2), drugi dąży do zera p.n. (proces A jest ciągły i ma ogra-
niczone wahanie na [0, t]), stąd In dąży do 0 według prawdopodobieństwa.
Zatem

t t
MtAt = In + IIn + IIIn -P MdA + AdM.

0 0
Jeśli M i A nie są ograniczone, to określamy
n = inf{t > 0: |Mt| n} '" inf{t > 0: |At| n} '" T.
Mamy |An| n, |Mn| n, więc z poprzednio rozważonego przypadku

(MA)n = AndMn + MndAn = ( AdM + MdA)n,
przechodząc z n " dostajemy tezę.
Ostatnie twierdzenie o całkowaniu przez części jest nietrudną konsekwen-
cją definicji całki Riemanna-Stieltjesa.
Fakt 10. Załóżmy, że A, B " Vc, wówczas

t t
AtBt = A0B0 + AsdBs + BsdAs.
0 0
Definicja 11. Proces Z = (Zt)tjeśli da się przedstawić w postaci Z = Z0 + M + A, gdzie Z0 jest zmienną
F0-mierzalna, M " M2 , A " Vc oraz A0 = M0 = 0.
loc
Uwaga 12. Rozkład semimartyngału jest jednoznaczny (modulo procesy
nieodróżnialne).
Dowód. Jeśli Z = Z0 + M + A = Z0 + M + A , to M - M = A - A jest
ciągłym martyngałem lokalnym, startującym z zera o ograniczonym wahaniu
na [0, t] dla t < T , zatem jest stale równy 0.
68
Przykłady.

Proces It, tzn. proces postaci Z = Z0 + XdW + Y ds, gdzie X " 2 , Y
T

t
prognozowalny taki, że |Ys|ds < " p.n. dla t < T jest semimartyngałem.
0
Z twierdzenia Dooba-Meyera wynika, że kwadrat martyngału jest semimar-
tyngałem.
Definicja 13. Jeśli Z = Z0 + M + A jest ciągłym semimartyngałem, to

określamy XdZ := XdM + XdA, gdzie pierwsza całka to całka stocha-
styczna, a druga całka Stieltjesa.

Twierdzenie 14. Jeśli Z = Z0 +M +A oraz Z = Z0 +M +A są ciągłymi
semimartyngałami, to ZZ też jest semimartyngałem oraz


ZZ = Z0Z0 + ZdZ + Z dZ + M, M .

Dowód. Mamy ZZ = Z0Z0 + MM + MA + AM + AA i stosujemy twier-
dzenia o całkowaniu przez części (Twierdzenie 12.5, Fakty 12.9 i 12.10).
13 Wzór It
Podczas tego wykładu udowodnimy fundamentalne twierdzenie dla anali-
zy stochastycznej. Pokazuje ono, że klasa semimartyngałów ciągłych jest
zamknięta ze względu na funkcje gładkie oraz podaje wzór na różniczkę
stochastyczną df(X).
Twierdzenie 1 (Wzór It). Załóżmy, że Z = Z0 + M + A jest ciągłym
semimartyngałem, f funkcją klasy C2 na R. Wówczas f(Z) też jest semi-
martyngałem oraz

t t
1
f(Zt) = f(Z0) + f (Zs)dZs + f (Zs)d M s. (6)
2
0 0
Dowód. Wszystkie całki w (6) są dobrze zdefiniowane, bo procesy f (Zs) i
f (Zs) są ciągłe, zatem f (Zs) " 2 (M) oraz f (Zs) jest całkowalne wzglę-
T
dem M .
Dowód wzóru It będzie polegał na redukcji (6) do coraz prostszych
przypadków.
i) Możemy założyć, że zmienna Z0 jest ograniczona.
(n) (n)
Istotnie połóżmy Z0 := (Z0 '" n) (" -n oraz Z(n) := Z0 + M + A.

Zauważmy, że XdZ = XdZ(n), więc, jeśli wiemy, iż (6) zachodzi, gdy Z0
69
ograniczone, to

t t
1
(n) (n)
(n) (n)
f(Zt ) = f(Z0 ) + f (Zs )dZs + f (Zs )d M s. (7)
2
0 0
Mamy
(n) (n)
|f (Zs )| sup |f (Zs )| := Ys,
n
proces Y jest prognozowalny jako supremum procesów prognozowalnych,
ponadto
(n)
sup sup |Zs | |Z0| + sup |Ms| + sup |As| < " p.n..
n
s t s t s t
Zatem z ciągłości f , sups t |Ys| < " p.n., skąd Y " 2 (M). Z twierdzenia
T
Lebesgue a o zbieżności zmajoryzowanej dla całek stochastycznych,

t t
(n)
f (Zs )dMs -P f (Zs)dMs

0 0
ponadto z twierdzenia Lebesgue a dla zwykłej całki,

t t
p.n.
(n)
f (Zs )dAs - f (Zs)dAs.
0 0
(n)
Podobnie supn sups t |f (Zs )| < " p.n. i ponownie stosując twierdzenie
Lebesgue a dostajemy

t t
p.n.
(n)
f (Zs )d M s - f (Zs)d M s.
0 0
(n)
Oczywiście f(Zt ) f(Zt) p.n., więc możemy przejść w (7) z n do ", by
dostać (6).
ii) Możemy założyć że Z ograniczony.
Istotnie niech Z semimartyngał taki, że Z0 ograniczony, połóżmy
n := inf{t > 0: |Zt| n} '" T,
wówczas Z(n) := Z0 + Mn + An jest ciągłym ograniczonym semimartyn-
(n)
gałem oraz Zt Zt p.n.. Jeśli (6) zachodzi w przypadku ograniczonym,
70
to

t t
1
(n)
(n) (n) (n)
f(Zt ) = f(Z0) + f (Zs )dZs + f (Zs )d Mn s
2
0 0

t'"n t'"n
1
(n) (n)
= f(Z0) + f (Zs ) dZs + f (Zs ) d M n
[0,n] [0,n] s
2
0
0
t'"n t'"n
1
= f(Z0) + f (Zs) dZs + f (Zs) d M s
[0,n] [0,n]
2
0 0

t'"n t'"n
1
= f(Z0) + f (Zs)dZs + f (Zs)d M s.
2
0 0
Biorąc n " dostajemu (6).
iii) Możemy założyć że Z ograniczony, a f jest wielomianem.
Możemy zakładać, że Z " C < ". Jeśli f " C2, to istnieje ciąg
wielomianów fn taki, że
1

|fn(x) - f(x)|, |fn(x) - f (x)|, |fn(x) - f (x)| dla x " [-C, C].
n

Wtedy fn(Zs) f(Zs), fn(Zs) f (Zs), fn(Zs) f (Zs) jednostajnie

oraz |fn(Zs)| supn sup|x| C |fn(x)| sup|x| C |f (x)| + 1 < ", więc z
twierdzenia Lebesgue a o zbieżności zmajoryzowanej,

t t
1

f(Zs) ! fn(Zs) = fn(Z0) + fn(Zs)dZs + fn(Zs)d M s
2
0 0

t t
1
f(Z0) + f (Zs)dZs + f (Zs)d M s.
2
0 0
iv) Z liniowości obu stron (6) wystarczy zatem rozpatrywać przypadek Z
ograniczonych oraz f(x) = xn. Pokażemy ten wzór przez indukcję po n.
Dla n = 0 teza jest oczywista. Załóżmy więc, że (6) zachodzi dla f(x) =
xn pokażemy go dla g(x) = xf(x). Zauważmy, że g (x) = f(x) + xf (x) oraz
g (x) = 2f (x) + xf (x). Ze wzoru na całkowanie przez części,

t t
g(Zt) = Ztf(Zt) = Z0f(Z0) + Zsdf(Z)s + f(Z)dZs
0 0


+ f (Z)dM, M
t

t t
1
= g(Zt) + (Zsf (Zs)dZs + Zsf (Zs)d M s) + f(Z)dZs
2
0 0

t
+ f (Zs)d M s
0

t t
1
= g(Zt) + g (Zt)dZt + g (Zt)d M s.
2
0 0
71
Wniosek 2. Dla f " C2(R),

t t
1
f(Wt) = f(0) + f (Ws)dWs + f (Ws)ds.
2
0 0
W podobny sposób jak w przypadku jednowymiarowym możemy udo-
wodnić wielowymiarową wersję twierdzenia It.
Twierdzenie 3. Załóżmy, że f : Rd R jest funkcją klasy C2 oraz Z =
(i)
(Z(1), . . . , Z(d)), gdzie Z(i) = Z0 +M(i)+A(i) są ciągłymi semimartyngałami
dla i = 1, . . . , d. Wówczas f(Z) jest semimartyngałem oraz

d d
t t

"f 1 "f
(i)
f(Zt) = f(Z0) + (Zs)dZs + (Zs)d M(i), M(j) s.
"xi 2 "xi"xj
0 0
i=1 i,j=1
Twierdzenie 4. Załóżmy, że M jest ciągłym martyngałem lokalnym ta-
kim, że M0 = 0 oraz Mt2 - t jest martyngałem lokalnym. Wówczas M jest
procesem Wienera.
Dowód. Musimy wykazać, że dla s < t, Mt - Ms jest niezależne od Fs oraz
ma rozkład N (0, t - s). W tym celu wystarczy wykazać, że
1
2
E(eih(Mt-Ms)|Fs) = e- (t-s)h2 dla t > s 0, h " R. (8)
Itotnie (8) implikuje, że Eeih(Mt-Ms) = exp(-1(t-s)h2) dla h " R, czyli
2
Mt - Ms <" N (0, t - s). Ponadto dla dowolnej Fs-mierzalnej zmiennej  oraz
h1, h2 " R,
Eeih1(Mt-Ms)+ih2 = E[eih2E(eih1(Mt-Ms)|Fs)]
1
1
2
= E[eih2e- (t-s)h2] = Eeih2Eeih1(Mt-Ms).
Zatem Mt - Ms jest niezależne od zmiennych Fs-mierzalnych, czyli jest
niezależne od Fs.
Zastosujmy wzór It dla f(x) = eihx (wzór It zachodzi też dla funkcji
zespolonych, wystarczy dodać odpowiednie równości dla części rzeczywistej
i urojonej),

t t
1
eihMt = f(Mt) = f(M0) + f (Mu)dMu + f (Mu)d M u
2
0 0

t
h2 t
= 1 + ih eihMudMu - eihMudu
2
0 0

t
h2 t
= eihMs + ih eihMudMu - eihMudu.
2
s s
72

t
Niech N := eihM dM, wówczas N jest martyngałem lokalnym oraz z nie-
0
równości Dooba,

t
2
E sup Ns 4E |eihMu|2du = 4t,
0 s t 0
czyli N jest na każdym przedziale skończonym majoryzowany przez zmienną
całkowalną, zatem jest martyngałem. Ustalmy A " Fs, wtedy

h2 t
E[eihMt ] = E[eihMs ] + E[(Nt - Ns) ] - E[ eihMudu ]
A A A A
2
s

h2 t
= E[eihMs ] - E[eihMu ]du.
A A
2
s
Zdefiniujmy g(u) = E[eihMs+u ], wtedy
A

h2 t
g(t - s) = g(0) - g(u - s)du,
2
s
czyli

h2 r
g(r) = g(0) - g(u)du.
2
0
Funkcja g jest ciągła, a zatem z powyższego wzoru jest różniczkowalna i
spełnia równanie różniczkowe
h2
g (r) = - g(r)
2
Zatem g(r) = g(0) exp(-1h2r) dla r 0, czyli
2
1 1
2 2
E[eihMt ] = E[eihMs ]e- h2(t-s) = E[eihMs- h2(t-s) A],
A A
1
stąd E(eihMt|Fs) = exp(ihMs - h2(t - s)) p.n. i
2
1
2
E(eih(Mt-Ms)|Fs) = e-ihMsE(eihMt|Fs) = e- h2(t-s).
Uwaga 5. Równoważnie Twierdzenie Levy go można sformułować w na-
stępujący sposób:
Jeśli M " Mc oraz M = t, to M - M0 jest procesem Wienera.
loc
Uwaga 6. Założenie ciągłości M jest fundamentalne. Jeśli położymy Mt =
Nt - t, gdzie N jest procesem Poissona z parametrem 1, to Mt2 - t jest
martyngałem, a oczywiście M nie jest procesem Wienera.
Można też udowodnić wielowymiarową wersję twierdzenia Levy ego.
73
Twierdzenie 7. Załóżmy, że M(1), . . . , M(d) są ciągłymi martyngałami lo-
(i)
kalnymi takim, że M0 = 0 oraz Mt(i)Mt(j) -i,jt są martyngałami lokalnymi
dla 1 i, j d. Wówczas M = (M(1), . . . , M(d)) jest d-wymiarowym proce-
sem Wienera.
13.1 *Charakteryzacja procesu Wienera za pomocą martyn-
gałów wykładniczych
Twierdzenie 8. Załóżmy, że M jest ciągły, adaptowalny oraz M0 = 0.
Wówczas M jest procesem Wienera wtedy i tylko wtedy gdy dla wszystkich
 " R, exp(Mt - 2t/2) jest martyngałem lokalnym.
Dowód. To, że exp(Wt - 2t/2) jest martyngałem jest prostym i dobrze
znanym faktem. Wystarczy więc udowodnić implikację  ! .
Określmy n := inf{t > 0: |Mt| n} '" n, wówczas n " oraz dla
wszystkich  proces Xt() = exp(Mt'"n - 2t '" n/2) jest ograniczonym
martyngałem lokalnym (z dołu przez 0, z góry przez e||n), a więc martyn-
gałem. Stąd
E[Xt() ] = E[Xs() ], dla s < t, A " Fs.
A A
Zauważmy, że Xt(0) = 1 oraz
dXt()
| | = |Xt()(Mt'"n - t '" n)| e0n(n + 0n), dla || 0.
d
Stąd z Twierdzenia Lebesque a o zbieżności zmajoryzowanej dla t < s, A "
Fs,
1
E[Xt()(Mt'"n - t '" n) ] = lim E[ (Xt( + h) - Xt()) ]
A A
h0 h
1
= lim E[ (Xs( + h) - Xs()) ] = E[Xs()(Ms'"n - s '" n) ].
A A
h0 h
Biorąc  = 0 dostajemy E[Mt'"n ] = E[Ms'"n ], czyli Mn jest martyn-
A A
gałem, a więc M " M2,c.
loc
By skorzystać z twierdzenia Levy ego i zakończyć dowód musimy jeszcze
wykazać, że Mt2 - t " M2,c. Szacujemy dla || 0,
loc
d2Xt()
| | = |Xt()[(Mt'"n - t '" n)2 - t '" n]| e0n[(n + 0n)2 + n],
d2
skąd w podobny sposób jak dla pierwszych pochodnych dowodzimy, że dla
t < s, A " Fs,
E[Xt()((Mt'"n-t'"n)2-t'"n) ] = E[Xs()((Ms'"n-s'"n)2-s'"n) ].
A A
74
Podstawiając  = 0 dostajemy
2 2
E[(Mt'"n - t '" n) ] = E[(Ms'"n - s '" n) ],
A A
czyli (Mt2 - t)n jest martyngałem, więc Mt2 - t " M2,c.
loc
14 Stochastyczne Równania Różniczkowe
14.1 Jednorodne równania stochastyczne
Definicja 1. Załóżmy, że b,  : R R są funkcjami ciągłymi, a  zmienną
losową Fs-mierzalną. Mówimy, że proces X = (Xt)t"[s,T ) rozwiązuje jedno-
rodne równanie stochastyczne
dXt = b(Xt)dt + (Xt)dWt, Xs = , (9)
jeśli

t t
Xt =  + b(Xr)dr + (Xr)dWr, t " [s, T ).
s s
Uwaga 2. Przyjeliśmy, że b i  są funkcjami ciągłymi, by uniknąć proble-
mów związanych z mierzalnością i lokalną ograniczonością procesów b(Xr)
i (Xr). Rozważa się jednak również stochastyczne równania różniczkowe z
nieciągłymi współczynnikami.

Uwaga 3. Wprowadzając nowy proces Xt := Xt+s, t " [0, T -s) oraz filtra-

cję Ft := Ft+s zamieniamy równanie różniczkowe (9) na podobne równanie
 
dla X z warunkiem początkowym X0 = .
Definicja 4. Proces X rozwiązujący równanie (9) nazywamy dyfuzją star-
tująca z . Funkcję  nazywamy współczynnikiem dyfuzji, a funkcję b
współczynnikiem dryfu.
Przypomnijmy, że funkcja f : R R jest lipschitzowska ze stałą L, jeśli
|f(x) - f(y)| L|x - y| dla wszystkich x, y. Lipschitzowskość implikuje też,
że


|f(x)| |f(0)| + L|x| L 1 + x2

gdzie można przyjąć np. L = 2 max{|f(0)|, L}.
Twierdzenie 5. Załóżmy, że funkcje b i  są lipschitzowskie na R, wówczas
równanie stochastyczne (9) ma co najwyżej jedno rozwiązanie (z dokładno-
ścią do nierozróżnialności).
75
Dowód. Bez straty ogólności możemy zakładać, że s = 0 oraz , b są lip-
schitzowskie z tą samą stałą L.
Załóżmy, że Xt i Yt są rozwiązaniami, wówczas

t t
Xt - Yt = (b(Xr) - b(Yr))dr + ((Xr) - (Yr))dWr.
0 0
Krok I. Załóżmy dodatkowo, że funkcja u E|Xu-Yu|2 jest skończona
i ograniczona na przedziałach [0, t], t < T .
Mamy

2 2
t t
E(Xt - Yt)2 2E (b(Xr) - b(Yr))dr + 2E ((Xr) - (Yr)dWr
0 0
= I + II.
Z warunku Lipschitza i nierówności Schwarza

2
t t
I 2L2E |Xr - Yr|dr 2L2t E(Xr - Yr)2dr.
0 0
By oszacować II zauważmy, że |(Xr) - (Yr)| L|Xr - Yr|, więc (Xr) -
(Yr) " L2. Stąd
t

t t
II = 2E ((Xr) - (Yr))2 2L2 E(Xr - Yr)2dr.
0 0
Ustalmy t0 < T , wówczas z powyższych oszacowań wynika, że

t
E(Xt - Yt)2 C E(Xr - Yr)2dr dla t t0,
0
gdzie C = C(t0) = 2L2(t0 + 1). Iterując powyższą nierówność dostajemy dla
t t0,

t t r1
E(Xt - Yt)2 C E(Xr1 - Yr1)2dr1 C2 E(Xr2 - Yr2)2dr2
0 0 0

t r1 rk-1
. . . Ck E(Xrk - Yrk)2drk . . . dr1
0 0 0

t r1 rk-1
Ck sup E(Xr - Yr)2 drk . . . dr1
r t 0 0 0
tk
= Ck sup E(Xr - Yr)2 k " 0.
-
k!
r t
76
Stąd dla wszystkich t < T , E(Xt - Yt)2 = 0, czyli Xt = Yt p.n., a więc z
ciągłości obu procesów, X i Y są nieodróżnialne.
Krok II. X i Y dowolne. Określmy
n := inf{t s: |Xt| + |Yt| n}

i zauważmy, że |Xt| , |Xt| n. Ponieważ w zerze oba procesy
(0,n] (0,n]
n n
się pokrywają, więc |Xt - Ytn| 2n, stąd |(Xt ) - (Ytn)| 2Ln i
n
(Xn) - (Y ) " L2 dla t < T . Mamy
t

t'"n t'"n
Xt'"n - Yt'"n = (b(Xr) - b(Yr))dr + ((Xr) - (Yr))dWr
0 0

t'"n t'"n
 
= (b(Xrn) - b(Yrn))dr + ((Xrn) - (Yrn))dWr.
0 0
Naśladując rozumowanie z kroku I dostajemy Xt'"n = Yt'"n p.n., przecho-
dząc z n " mamy Xt = Yt p.n..
Twierdzenie 6. Załóżmy, że funkcje b i  są lipschitzowskie na R oraz
E2 < ", wówczas równanie stochastyczne (9) ma dokładnie jedno roz-
2 2
wiązanie X = (Xt)t s. Co więcej EXt < " oraz funkcja t EXt jest
ograniczona na przedziałach ograniczonych.
Dowód. Jak w poprzednim twierdzeniu zakładamy, że s = 0. Jednoznacz-
ność rozwiązania już znamy. By wykazać jego istnienie posłużymy się kon-
(0)
strukcją z użyciem metody kolejnych przybliżeń. Określamy Xt () := ()
oraz indukcyjnie

t t
(n)
(n-1) (n-1)
Xt :=  + b(Xr )dr + (Xr )dWr. (10)
0 0
(n)
Definicja jest poprawna (tzn. całki są dobrze określone), gdyż Xt są proce-
sami ciągłymi, adaptowalnymi. Ponadto indukcyjnie pokazujemy, że funkcja
(n)
r E|Xr |2 jest ograniczona na przedziałach skończonych:

2 2
t t
(n)
(n-1) (n-1)
E|Xt |2 3 E2 + E |b(Xr )|dr + E (Xr )dWr
0 0


t t
(n-1) (n-1)
3 E2 + tE |b(Xr )|2dr + E |(Xr )|2dr
0 0

(n-1)

3 E2 + L2(1 + t) sup E|Xr |2 .
0 r t
Zatem X(n) " L2, a więc również (X(n)) " L2.
t t
77
Zauważmy, że wobec nierówności (a + b)2 2a2 + 2b2 i niezależności  i
Wt, dla t t0 zachodzi

2
t t
(1) (0)
E|Xt - Xt |2 = E b()dr + ()dWr = E(b()t + ()Wt)2
0 0

2t2Eb()2 + 2E()2EWt2) 2L2(1 + E2)(t + t2) C,

gdzie C = C(t0) = 2L2(1 + E2)(t0 + t2). Podobnie szacujemy dla t t0,
0
(n+1) (n)
E|Xt - Xt |2

2
t t
(n) (n-1) (n) (n-1)
= E (b(Xr ) - b(Xr ))dr + ((Xr ) - (Xr ))dWr
0 0

2 2
t t
(n) (n-1) (n) (n-1)
2E |b(Xr ) - b(Xr )|dr + 2E ((Xr ) - (Xr ))dWr
0
0
2
t t
(n) (n-1) (n) (n-1)
2E L|Xr - Xr |dr + 2E |(Xr ) - (Xr )|2dr
0 0

t t
(n) (n-1) (n) (n-1)
2L2(t + 1)E |Xr - Xr |2dr C1 E|Xr - Xr |2dr,
0 0
gdzie C1 = C1(t0) = 2L2(t0 + 1). Iterując to szacowanie dostajemy

t r1
(n+1) (n)
2 (n-1) (n-2)
E|Xt - Xt |2 C1 E|Xr2 - Xr2 |2dr2dr1
0 0

t r1 rn-1
n (1) (0)
C1 E|Xrn - Xrn |2drn . . . dr1
0 0 0

t r1 rn-1
tn
n n
C1 C drn . . . dr1 = CC1 ,
n!
0 0 0
(n+1) (n)
n
Pokazaliśmy zatem, że Xt - Xt 2 CC1 tn dla t t0. Ponieważ
L2
n!

(n)
n
szereg (CC1 tn )1/2 jest zbieżny, więc (Xt )n 0 jest ciągiem Cauchy ego
n
n!
w L2, czyli jest zbieżny. Z uwagi na jednostajność szacowań wykazaliśmy
istnienie Xt takiego, że
(n)
Xt Xt w L2 jednostajnie na przedziałach ograniczonych.
2
Stąd też wynika, że t EXt jest ograniczona na przedziałach ograniczo-
nych.
(n)
Wykażemy teraz, że Xt z prawdopodobieństwem 1 zbiega do Xt niemal
jednostajnie. Zauważmy, że dla t0 < "


t
1 1
(n+1) (n)
(n) (n-1)
P sup|Xt - Xt | P sup |b(Xr ) - b(Xr )|dr
2n 2n+1
t t0 t t0 0


t
1
(n) (n-1)
+ P sup | ((Xr ) - (Xr ))dWr| = I + II.
2n+1
t t0 0
78
Mamy


t0
1
(n) (n-1)
I P |b(Xr ) - b(Xr )|dr
2n+1
0

2
t0
(n) (n-1)
4n+1E |b(Xr ) - b(Xr )|dr
0

2
t0 t0
(n) (n-1) (n) (n-1)
4n+1L2E |Xr - Xr |dr 4n+1L2t0E |Xr - Xr |2dr
0 0

t0
rn-1 1
n-1 n-1
4n+1L2t0 CC1 dr = 4n+1L2CC1 tn+1 .
0
(n - 1)! n!
0

Z nierównośći Dooba dla martyngału ((X(n))-(X(n-1)))dW dostajemy

2
t

(n) (n-1)
II 4n+1E sup ((Xr ) - (Xr ))dWr

t t0 0

2
t0
(n) (n-1)
4n+2E ((Xr ) - (Xr ))dWr

0

t0 t0
(n) (n-1) (n) (n-1)
= 4n+2E ((Xr ) - (Xr ))2dr 4n+2L2E |Xr - Xr |2dr
0 0
1
n-1
4n+2L2CC1 tn .
0
n!
Przyjmując

1
(n+1) (n)
An := sup |Xt - Xt |
2n
t t0
dostajemy

1
n-1
P(An) 4n+1(4 + t0)L2CC1 tn < ",
0
n!
n n
więc P(lim sup An) = 0. Zatem dla t0 < " X(n) zbiega jednostajnie na [0, t0]
z prawdopodobieństwem 1, czyli z prawdopodobieństwem 1 zbiega niemal
jednostajnie. Ewentualnie modyfikując X i X(n) na zbiorze miary zero wi-
dzimy, że X jest granicą niemal jednostajną X(n), czyli X ma trajektorie
ciągłe.
(n)
Ze zbieżności Xr do Xr w L2 jednostajnej na [0, t] oraz lipschitzow-

(n) (n)
t t
skości b i  łatwo wynika zbieżność w L2, b(Xr )dr i (Xr )dr do
0 0

t t
odpowiednio b(Xr)dr i (Xr)dWr, zatem możemy przejść w (10) do
0 0
granicy by otrzymać dla ustalonego t < T

t t
Xt :=  + b(Xr)dr + (Xr)dWr p.n.
0 0
79

Oba procesy X i  + b(X)dr + (X)dW są ciągłe, zatem są nierozróż-
nialne.
Przykład 1. Stosując wzór It łatwo sprawdzić, że proces Xt =  exp(Wt-
2
t) jest rozwiązaniem równania
2
dXt = XtdWt, X0 = .
Jest to jedyne rozwiązanie tego równania, gdyż b = 0 oraz (x) = x są
funkcjami lipschitzowskimi.
Przykład 2. Proces

t
Xt = ebtxi + s eb(t-s)dWs
0
jest rozwiązaniem równania
dXt = bXtdt + s2dWt, X0 = .
Jest to jedyne rozwiązanie, gdyż funkcje b(x) = bx oraz (x) = s2 są lip-
1
schitzowskie. Jeśli b < 0 oraz  ma rozkład N (0, - s2), to proces X jest
2b
stacjonarny (proces Ornsteina-Uhlenbecka).
14.2 Równania niejednorodne
Często współczynniki równania zależą nie tylko od x, ale i od czasu.
Definicja 7. Załóżmy, że b,  : R2 R są funkcjami ciągłymi, a  zmienną
losową Fs-mierzalną. Mówimy, że proces X = (Xt)t"[s,T ) rozwiązuje rów-
nanie stochastyczne
dXt = b(t, Xt)dt + (t, Xt)dWt, Xs = , (11)
jeśli

t t
Xt =  + b(r, Xr)dr + (r, Xr)dWr, t " [s, T ).
s s
Dla równania niejednorodnego naturalne są następujące warunki Lip-
schitza


|b(t, x) - b(t, y)| L|x - y|, |b(t, x)| L 1 + x2,


|(t, x) - (t, y)| L|x - y|, |(t, x)| L 1 + x2.
80
Twierdzenie 8. Załóżmy, że funkcje b i  spełniają warunki lipschitza.
Wówczas dla dowolnej zmiennej , Fs-mierzalnej takiej, że E2 < " istnieje
dokładnie jedno rozwiązanie (11). Co więcej rozwiązanie to daje się otrzymać
metodą kolejnych przybliżeń jak w przypadku jednorodnym.
Przykład 3. Równanie
dXt = (t)XtdWt, X0 = . (12)
spełnia założenia twierdzenia, jeśli supt |(t)| < ". By znalezć jego rozwią-
zanie sformułujmy ogólniejszy fakt.
Fakt 9. Załóżmy, że M jest ciągłym martyngałem lokalnym, zaś Z0 zmienną
1
F0-mierzalną. Wówczas proces Zt = exp(Mt - M t) jest martyngałem
2

t
lokalnym takim, że dZt = ZtdMt, tzn. Zt = Z0 + ZsdMs.
0
1
Dowód. Z wzoru It dla semimartyngału Xt = Mt - M t dostajemy
2
1
dZt = d(Z0eXt) = Z0eXtdXt + Z0eXtd M t = Z0eXtdMt = ZtdMt.
2
Proces Z jest martyngałem lokalnym na mocy konstrukcji całki stochastycz-
nej.

t
Wracając do Przykładu 3 zauważamy, że Mt = (s)dWs jest martyn-
0
gałem lokalnym, więc rozwiązanie równania (12) ma postać

t t
1 1
Xt =  exp(Mt - M t) =  exp( (s)dWs - (s)2ds).
2 2
0 0
Przykład 4. Rozpatrzmy niejednorodne równanie liniowe postaci
dYt = b(t)Ytdt + (t)YtdWt, X0 = .
Współczynniki b(t, y) = b(t)y i (t, y) = (t)y spełniają warunki lipschit-
za, jeśli supt |b(t)|, supt |(t)| < ". By znalezć rozwiązanie załóżmy, że jest
postaci Xt = g(t)Yt, gdzie dYt = (t)YtdWt, Y0 = , postać Y znamy z
Przykładu 3. Wówczas, z dwuwymiarowego wzoru It
dXt = g (t)Ytdt + g(t)dYt = g (t)Ytdt + (t)XtdWt.
Wystarczy więc rozwiązać równanie
g (t) = (t)g(t), g(0) = 1
by dostać

t t t
1
Xt = Ytg(t) =  exp( (s)dWs - (s)2ds + (s)ds).
2
0 0 0
81
14.3 Przypadek wielowymiarowy
Zanim sformułujemy odpowiednik wcześniejszych wyników dla przypadku
wielowymiarowego wprowadzimy wygodne ustalenia notacyjne.
(1) (d)
Definicja 10. Niech W = (W , . . . , W ) będzie d-wymiarowym procesem
Wienera. Dla X = [X(i,j)]1 i m,1 j d macierzy m d złożonej z procesów
z 2 określamy m-wymiarowy proces
T

t
Mt = (Mt(1), . . . , Mt(m)) = XsdWs, 0 t < T
0
wzorem

d
t

(i,j) (j)
Mt(i) = Xs dWs , 1 i m.
0
j=1
Przy powyżej wprowadzonej notacji możemy zdefiniować wielowymiaro-
we równania stochastyczne.
Definicja 11. Załóżmy, że b: Rm Rm,  : Rm Rmd są funkcjami
(1) (d)
ciągłymi, W = (W , . . . , W ) jest d-wymiarowym procesem Wienera, a
 = (1, . . . , m), m-wymiarowym, Fs-mierzalnym wektorem losowym. Mó-
(1) (m)
wimy, że m-wymiarowy proces X = (Xt , . . . , Xt )t"[s,T ) rozwiązuje jed-
norodne wielowymiarowe równanie stochastyczne
dXt = b(Xt)dt + (Xt)dWt, Xs = ,
jeśli

t t
Xt =  + b(Xr)dr + (Xr)dWr, t " [s, T ).
s s
Tak jak w przypadku jednowymiarowym dowodzimy:
Twierdzenie 12. Załóżmy, że  = (1, . . . , m) jest m-wymiarowym, Fs-
2
mierzalnym wektorem losowym takim, że Ej < " dla 1 j m, b: Rm
Rm,  : Rm Rdm są funkcjami lipschitzowskimi oraz W jest d-wymiarowym
procesem Wienera. Wówczas równanie
dXt = b(Xt)dt + (Xt)dWt, Xs = 
(1) (m)
ma dokładnie jedno rozwiązanie X = (Xt , . . . , Xt )t s. Ponadto
(i)
E sup E|Xt |2 < " dla u < ".
s t u
82
14.4 Generator procesu dyfuzji.
W tej części zakładamy, że b = (bi)i m : Rm Rm,  = (i,j)i m,j d : Rm
(1) (d)
Rmd są funkcjami ciągłymi, zaś W = (W , . . . , W ) jest d-wymiarowym
procesem Wienera
Definicja 13. Generatorem m-wymiarowego procesu dyfuzji spełniającego
stochastyczne równanie różniczkowe
dXt = b(Xt)dt + (Xt)dWt
nazywamy operator różniczkowy drugiego rzędu dany wzorem
n n d

"f 1 "2f
Lf(x) = bi(x) (x) + i,j(x) (x), f " C2(Rm).
"xi 2 "xi"xj
i=1 i=1 j=1
Definicja ta jest motywowana przez poniższy prosty, ale bardzo ważny
fakt.
Fakt 14. Załóżmy, że L jest generatorem procesu dyfuzji spełniającego rów-
nanie dXt = b(Xt)dt+(Xt)dWt. Wówczas dla dowolnej funkcji f " C2(Rm)

t
takiej, że f(X0) jest całkowalne, proces Mtf := f(Xt)- Lf(Xs)ds jest cią-
0
głym martyngałem lokalnym. Ponadto, jeśli f ma dodatkowo nośnik zwarty,
to Mtf jest martyngałem.
Dowód. Ze wzoru It łatwo sprawdzić, że

n d
t

"f
Mtf = f(X0) + i,j(Xt) (Xt)dWt(j) " Mc .
loc
"xi
0
i=1 j=1
"f
2
Jeśli f " Czw(Rm), to funkcje i,j(x)"xi (x) są ciągłe i mają nośnik zwarty
"f
w Rm, więc są ograniczone, zatem procesy i,j(Xt)"xi (Xt) należą do L2
T
dla dowolnego T < ", więc Mtf jest martyngałem (a nawet martyngałem
całkowalnym z kwadratem).
Uwaga 15. Założenie o zwartym nośniku f można w wielu przykładach
istotnie osłabić. Załóżmy, że współczynniki b i  są lipschitzowskie oraz
2
X0 " L2. Wówczas jak wiemy Xt jest w L2 oraz supt T EXt < " dla
T < ". Stąd nietrudno sprawdzić (używając lipschitzowskości i,j, że jeśli
"f
pochodne f są ograniczone, to i,j(Xt)"xi (Xt) " L2 dla T < infty, zatem
T
Mtf jest martyngałem.
83
Przykłady
1
Generatorem d-wymiarowego procesu Wienera jest operator Lf = f.
2
Jeśli X = (X1, . . . , Xd) spełnia
( (i)
dXt i) = bXt dt + dWt(i), i = 1, . . . , m
(m-wymiarowy proces Ornsteina-Uhlenbecka), to Lf(x) = b x, "f(x) +
1
2 f.
2
Wykład zakończymy przykładem pokazującym związek między stocha-
stycznymi równaniami różniczkowymi a równaniami cząstkowymi. Dokładna
analiza takich związków jest ważną dziedziną łączącą rozumowania anali-
tyczne i probabilistyczne. Nieco więcej na ten temat można się będzie do-
wiedzieć na przedmiocie Procesy Stochastyczne.
Przykład
x
Dla x " Rm niech Xt będzie rozwiązaniem równania stochastycznego
x x x 0
dXt = b(Xt )dt + (Xt )dWt, Xt = x,
zaś L odpowiadającym mu generatorem. Załóżmy, że D jest obszarem ogra-
niczonym oraz f spełnia równanie cząstkowe
Lf(x) = 0, x " D, f(x) = h(x)x " "D.
Załóżmy dodatkowo, że f daje się rozszerzyć do funkcji klasy C2 na pew-
2
nym otoczeniu D. Wówczas f się rozszerza też do funkcji klasy Czw(Rm).
Wybierzmy x " D i określmy
x
 = inf{t > 0: Xt " D}.
/

t
x x
Wiemy, że proces Mt = f(Xt ) - Lf(Xs )ds jest martyngałem, zatem
0
martyngałem jest również Mt'" , ale

'"
x x x
Mt'" = f(Xt'" ) - tLf(Xs )ds = f(Xt'" ),
0
w szczegóności
x
Ef(Xt'" ) = EMt'" = EM0 = f(x).
Jeśli dodatkowo  < " p.n. (to założenie jest spełnione np. dla procesu
Wienera), to z twierdzenia Lebesgue a o zbieżności zmajoryzowanej
x x x
f(x) = Ef(Xt'" ) Ef(X ) = Eh(X ).
84
Otrzynaliśmy więc stochastyczną reprezentację rozwiązania eliptycznego rów-
nania cząstkowego.
Podobne rozumowanie pokazuje, że (przy pewnych dodatkowych założe-
niach) rozwiązanie równania
Lf(x) = g(x), x " D, f(x) = h(x)x " "D
ma postać


x x
f(x) = Eh(X ) = E g(Xs )ds, x " D.
0
15 Twierdzenie Girsanowa
W czasie tego wykładu przyjmujemy jak zwykle, że (&!, F, P) jest ustaloną
przestrzenią probabilistyczną. Będziemy konstruowali inne miary probabili-
styczne na przestrzeni (&!, F) względem których proces Wienera z dryfem
ma taki rozkład jak zwykły proces Wienera. Przez EX będziemy rozumieli
zawsze wartość oczekiwaną względem P, wartość oczekiwaną X względem
innej miary Q będziemy oznaczać EQX. Zauważmy, że jeśli dQ = ZdP, tzn.

Q(A) = ZdP, to
A

EQX = XdQ = XZdP = E(XZ).
15.1 Przypadek Dyskretny
Załóżmy, że zmienne Z1, Z2, . . . , Zn są niezależne i mają standardowy roz-
kład normalny N (0, 1). Wprowadzmy nową miarę Q na ((&!, F) wzorem
n n
1
dQ = exp( iZi - 2)dP, tzn.
i=1 i=1 i
2

n n

1
Q(A) = exp( iZi() - 2)dP() dla A " F.
i
2
A
i=1 i=1
Zauważmy, że
n n n

1 1
Q(&!) = E exp( iZi - 2) = E exp(iZi - 2) = 1,
i i
2 2
i=1 i=1 i=1
85
więc Q jest miarą probabilistyczną na (&!, F). Ponadto dla dowolnego zbioru
 " B(Rn),
n n

1
Q((Z1, . . . , Zn) " ) = E exp( iZi - 2)
i {(Z1,...,Zn)"}
2
i=1 i=1

n 1 n 1 n 2
1
izi- 2 zi
i
i=1 2 i=1 2
= e e- i=1
dz1 . . . dzn
(2Ą)n/2


n
1
1
(zi-i)2
2
= e- i=1
dz1 . . . dzn.
(2Ą)n/2

Zatem względem miary Q zmienne Zi - i są niezależne oraz mają rozkład
N (0, 1).
Definiując Sk = X1 + . . . + Xk widzimy, że względem Q zmienne (Sk -
k
i)k n są sumami niezależnych standardowych zmiennych normalnych
i=1
(czyli mają ten sam rozkład co (Sk)k względem P). Podczas dalszej części
wykładu pokażemy, że można podobny fakt sformułować w przypadku cią-

k
t
głym, gdy Sk zastąpimy procesem Wienera, a sumy i całką Ysds.
i=1
0
15.2 Twierdzenie Girsanowa dla procesu Wienera

T
Załóżmy, że T < ", proces Y = (Yt)t0

p.n., wówczas Y " 2 , proces Mt = Y dW jest martyngałem lokalnym na
T

2
[0, T ) oraz M = Y dt. Co więcej można też określić wartość M i Z w
punkcie T . Zatem jak wiemy (zob. Fakt 9) proces

t t
1 1
Zt := exp(Mt - M t) = exp( YsdWs - Ys2ds)
2 2
0 0
jest martyngałem lokalnym na [0, T ]
Lemat 1. Jeśli M jest ciągłym martyngałem lokalnym na [0, T ], to proces
1
Zt = exp(Mt - M t) jest martyngałem na przedziale skończonym [0, T ]
2
wtedy i tylko wtedy, gdy EZT = 1.
Dowód. Implikacja  ! jest oczywista, bo EZT = EZ0 = 1. Wystarczy więc
udowodnić  ! .
Wiemy, że Z jest nieujemnym martyngałem lokalnym, zatem jest nad-
martyngałem. Ustalmy t " [0, T ], wówczas Zt E(ZT |Ft) p.n.. Ponadto
1 = EZ0 EZt EZT , czyli, jeśli EZT = 1, to EZt = 1 i
E(Zt - E(ZT |Ft)) = EZt - EZT = 0,
a więc Zt = E(ZT |Ft) p.n..
86
Twierdzenie 2. Załóżmy, że T < ", proces Y jest prognozowalny oraz

T t t
1
Ys2ds < "ż. Niech Zt = exp( YsdWs - Ys2ds), wówczas, jeśli
0 0 2 0
EZT = 1 (czyli Z jest martyngałem na [0, T ]), to proces

t
Vt = Wt - Ysds, t " [0, T ]
0
jest procesem Wienera względem wyjściowej filtracji na zmodyfikowanej prze-
strzeni propabilistycznej (&!, F, QT ), gdzie dQT = ZT dP, tzn.

QT (A) = ZT dP, A " F.
A
Dowód. Zmienna ZT jest nieujemna i EZT = 1, więc QT jest miarą proba-
bilistyczną. Zauważmy też, że jeśli P(A) = 0, to QT (A) = 0, czyli zdarzenia,
które zachodzą P prawie na pewno, zachodzą też QT prawie na pewno. Pro-
ces V jest ciągły, adaptowalny względem Ft oraz V0 = 0. Wystarczy zatem
1
wykazać, że dla  " R, proces Ut = Ut() =:= exp(Vt - 2t) jest martyn-
2
gałem lokalnym względem QT . Zauważmy, że

t t
1
UtZt = exp(Vt - 2t) exp( YsdWs - Ys2ds)
2
0 0

t t
1
= exp(Wt + YsdWs - (2Ys + 2 + Ys2)ds)
2
0 0

t t
1 1
= exp( ( + Ys)dWs - ( + Ys)2ds) = exp(Nt - N t),
2 2
0 0

gdzie N = ( + Y )dW " Mc . Zatem proces UZ jest martyngałem lokal-
loc
nym względem P, czyli istnieją n T takie, że UnZn jest martyngałem.
Ustalmy n, wtedy dla dowolnego ograniczonego momentu zatrzymania ,
EQT U0 = E(U0ZT ) = E(U0E(ZT |F0)) = E(U0Z0) = E(Un'" Zn'" )
= E(Un'" E(ZT |Fn'" ) = E(Un'" ZT ) = EQT Un'" ,
zatem z twierdzenia odwrotnego do twierdzenia Dooba wynika, że Un jest
martyngałem względem QT , czyli U jest QT -martyngałem lokalnym.
W pewnych zastosowaniach wygodnie jest mieć miarę względem której

proces W - Y ds jest procesem Wienera na całej półprostej [0, ").
Twierdzenie 3. Załóżmy, że Y " 2 , zaś proces Zt i miary QT dla T < "
"
są jak poprzednio. Wówczas, jeśli EZt = 1 dla wszystkich t (czyli Z jest
martyngałem na [0, ")), to istnieje dokładnie jedna miara probabilistyczna
W W
Q na (&!, F" ) taka, że Q(A) = QT (A) dla A " FT i T < ". Proces

V = W - Y ds jest względem Q procesem Wienera na [0, ").
87
Szkic Dowodu.. Na zbiorach postaci A = {(Wt1, Wt2, . . . , Wtk) " }, 0
t1 t2 . . . tk T ,  " B(Rk) kładziemy Q(A); = QT (A). Otrzymujemy
w ten sposób zgodną rodzinę miar probabilistycznych i na mocy twierdzenia
W
Kołmogorowa Q przedłuża się w spośób jednoznaczny do miary na F" .
Uwaga 4. O ile miara QT jest absolutnie ciągła względem P (tzn. QT (A) =
0, jeśli P(A) = 0), to miara Q zadana przez ostatnie twierdzenie taka być
nie musi. Istotnie określmy Yt a" = 0, czyli Vt = Wt - t. Niech

1
A := { : lim sup Wt() = 0},
t
1 1
B := { : lim sup Vt() = 0} = { : lim sup Wt() = }.
t t
Wówczas z mocnego prawa wielkich liczb dla proceseu Wienera P(A) = 1
oraz P(B) = 0, z drugiej strony Q(B) = 1, zatem miary P i Q są wzajemnie
W W
singularne na F" , mimo, że po odbcięciu do FT dla T < " są względem
siebie absolutnie ciągłe. Można pokazać, że albsolutna ciągłość Q względem
P wiąże się z jednostajną całkowalnością martyngału Z.
Naturalne jest pytanie kiedy spełnione są założenia twierdzenia Girsano-
wa, czyli kiedy Z jest martyngałem. Użyteczne jest następujące kryterium.
Twierdzenie 5 (Kryterium Nowikowa). Jeśli Y jest procesem prognozo-

walnym spełniającym warunek E exp(1 T Ys2ds) < ", to spełnione są zało-
2 0

1 2
żenia twierdzenia Girsanowa, tzn. proces Z = exp( Y dW - Y dt) jest
2
martyngałem na [0, T ].
Kryterium Nowikowa jest konsekwencją silniejszego twierdzenia.
Twierdzenie 6. Załóżmy, że M jest ciągłym martyngałem lokalnym ta-
1
kim, że dla wszystkich t, E exp(1 M t) < ". Niech Zt = exp(Mt - M ),
2 2
wówczas EZt = 1 dla wszystkich t, czyli Z jest martyngałem.
Twierdzenie Girsanowa można sformułować też w przypadku wielowy-
miarowym.
(1) (d)
Twierdzenie 7. Załóżmy, że Y = (Y , . . . , Y ) proces d-wymiarowy
(j) (1) (d)
taki, że Y " 2 oraz T < ". Niech W = (W , . . . , W ) będzie d-
T
wymiarowym procesem Wienera oraz

d
t

1
Zt = exp( Ys(i)dWt(i) - |Ys|2ds).
2
0
i=1
88
Wówczas, jeśli EZT = 1 (czyli Zt jest martyngałem na [0, T ]), to proces

t t t
(1)
Vt = Wt - Ysds = (Wt(1) - Y ds, . . . , Wt(d) - Ys(d)ds)
0 0 0
jest procesem Wienera na [0, T ] względem miary probabilistycznej Qt takiej,
że dQT = ZT dP.
Kryterium Nowikowa w przypadku d-wymiarowym ma postać
Twierdzenie 8. Jeśli Y jest d-wymiarowym procesem prognozowalnym speł-

niającym warunek E exp(1 T |Ys|2ds) < ", to spełnione są założenia twier-
2 0
dzenia Girsanowa.
A Wybrane Fakty z z Rachunku Prawdopodobień-
stwa i Analizy Matematycznej
W części tej zebraliśmy kilka stwierdzeń, na które się wcześniej powoływali-
śmy. Fakty te, choć nieco mniej standardowe, są zwykle dowodzone w czasie
kursowych wykładów z analizy matematycznej i rachunku prawdopodobień-
stwa.
Definicja 1. Rodzinę S podzbiorów zbioru X nazywamy Ą-układem, jeśli
dla dowolnych A, B " S, zbiór A )" B " S.
Definicja 2. Rodzinę A podzbiorów zbioru X nazywamy -układem, jeśli
spełnione są następujące waruki
(i) X " A.
(ii) Jeśli A, B " A i A " B, to B \ A " A.
"
(iii) Jeśli Ai " A dla i = 1, 2, . . . oraz A1 " A2 " . . ., to Ai " A.
i=1
Uwaga 3. Rodzina podzbiorów X jest -ciałem wtedy i tylko wtedy, gdy
jest Ą- i -układem.
Twierdzenie 4 (O Ą- i - układach). Jeśli A jest -układem zawierającym
Ą-układ S, to A zawiera również -ciało (S) generowane przez S.
Twierdzenie 5 (Caratheodory ego o przedłużaniu miary). Załóżmy, że A
jest ciałem podzbiorów X, a 0 skończenie addytywną funkcją z A w R+.
Wówczas 0 przedłuża się do miary na -ciele (A) wtedy i tylko wtedy,
gdy 0 jest ciągła w ", tzn
"

jeśli (An)" " A, A1 " A2 " . . . oraz An = ", to lim 0(An) = 0.
n=1
n"
n=1
(C)
89
B Dowody wybranych twierdzeń
B.1 Twierdzenie Kołmogorowa o istnieniu procesu
Dowód Twierdzenia 2.8. W dowodzie wykorzystamy twierdzenie Carathe-
odory ego o przedłużaniu miary (zob. Twierdzenie A.5). Niech A oznacza al-
gebrę zbiorów cylindrycznych. Dla C = {x: (xt1, . . . , xtn) " A}, A " B(Rn)
połóżmy 0(C) = t1,...,tn(A). Zauważmy, że
" z warunków zgodności wynika, że 0 jest dobrze zdefiniowane, tzn.
0(C) nie zależy od wyboru t1, . . . , tn i A reprezentujących C.
" 0 jest skończenie addytywna. Istotnie jeśli C1, . . . , Ck " A, to można
dobrać odpowiednio duży zbiór indeksów t1, . . . , tn " T taki, że zbiory
C1, . . . , Ck zależą tylko od t1, . . . , tn, tzn.
Ci = {x: (xt1, . . . , xtn) " Ai}, Ai " B(Rn).
Załóżmy, że zbiory zbiory C1, . . . , Ck są rozłączne. Wówczas zbiory
A1, . . . , Ak są również rozłączne, a zatem
k k k k


0 Ci = t1,...,tn Ai = t1,...,tn(Ai) = 0(Ci).
i=0 i=0 i=0 i=0
By zakończyć dowód musimy wykazać warunek (C) z twierdzenia Cara-
theodory ego, czyli
"

jeśli Cn " A, C1 " C2 " . . . , 0(Cn)  > 0, to Cn = ".

n=1
Każda miara na (Rn, B(Rn)) jest regularna (zob. Twierdzenie A.?), tzn.
dla dowolnego A " B(Rn),
(A) = sup{(K): K " A, K zwarte}.
Zbiory Cn są cylindryczne, czyli zależą tylko od skończonego zbioru in-
deksów. Możemy założyć, że te zbiory indeksów rosną, co więcej (ewentualnie
powtarzając zbiory Ci lub dodając indeksy) możemy zakładać, że istnieje
ciąg t1, t2, . . . taki, że
Cn = {x: (xt1, . . . , xtn) " An} dla pewnego An " B(Rn).
90
Na mocy regularności miary t1,...,tn, istnieją zbiory zwarte Kn " An takie,
że

t1,...,tn(An \ Kn) , n = 1, 2, . . . .
2n+1
Oznaczając Dn = {x : (xt1, . . . , xtn) " Kn}, mamy 0(Cn \ Dn) 2-n-1.
Niech

Dn = D1 )" . . . )" Dn = {x : (xt1, . . . , xtn) " Kn}, gdzie

Kn = (K1 Rn-1) )" (K2 Rn-2) )" . . . )" (Kn-1 R) )" Kn.
n n

Ponieważ Cn \ Dn = (Cn \ Dk) " (Ck \ Dk), więc
k=1 k=1
n "



0(Cn \ Dn) 0(Ck \ Dk) 2-k-1 .
2
k=0 k=1


Zatem 0(Dn) 0(Cn)-0(Cn \Dn) - > 0 i w szczególności Dn = ".

2

Niech x(n) " Dn, wówczas
(x(n), . . . , x(n)) " Kk, k = 1, . . . , n.
t1 tk
Zbiory Kk są zwarte, co implikuje, że dla dowolnego k, ciąg (x(n))" jest
tk n=1
ograniczony. Za pomocą metody przekątniowej możemy wybrać podciąg (ni)
taki, że limi" x(ni) = x" dla k = 1, 2, . . .. Ale wówczas, z domkniętości
tk tk
Kk,
(x", . . . , x") = lim (x(ni), . . . , x(ni)) " Kk.
t1 tk ni" t1 tk
Określmy y " RT wzorem

x" dla t " {t1, t2, . . .},
t
yt =
0 dla t " {t1, t2, . . .}.
/
" "
Wówczas y " Cn, czyli Cn = ", co chcieliśmy dowieść.

n=1 n=1
Wiemy zatem, że na &! = RT istnieje miara probabilistyczna rozsze-
rzająca 0. Wtedy dla t1, . . . , tn " T oraz A " B(Rn) mamy
({x: (xt1, . . . , xtn) " A}) = t1,...,tn(A).
Zatem na przestrzeni probabilistycznej (RT , B(RT ), ) wystarczy zdefinio-
wać proces X wzorem Xt(x) = xt.
91
B.2 Twierdzenie o ciągłej modyfikacji
Dowód Twierdzenia 3.14. Ustalmy ł " (0, /ą) i niech
D = {t " [a, b]: t = 2-nk, n = 1, 2, . . . , k " Z}
oznacza zbiór liczb dwójkowo wymiernych z [a, b]. Wówczas
"

D = Dn, gdzie Dn = {t " [a, b]: t = 2-nk, k " Z}.
n=0
Na mocy nierówności Czebyszewa,
P(|Xt - Xs| ) -ąE|Xt - Xs|ą C-ą|t - s|1+,
w szczególności



P X - X 2-łn C2-n(1+-ął).
k+1 k
2n 2n
Zatem, dla ustalonego n,





P max X - X 2-łn P X - X 2-łn
k+1 k k+1 k
k k+1
2n 2n 2n 2n
a < b
k k+1
2n 2n
a < b
2n 2n
2n(b - a)C2-n(1+-ął) = C(b - a)2-n(-ął).
Zdefiniujmy A = lim sup An, gdzie



An = max X - X 2-łn .
k+1 k
2n 2n
a 2-nk<2-n(k+1) b
Nierówność łą <  implikuje, że
" "

P(An) C(b - a)2-n(-ął) < ".
n=1 n=1
zatem, na mocy lematu Borela-Cantelliego, P(A) = 0, czyli P(B) = 1, gdzie



B = &!\A =  : "n0()"n n0()"a 2-n X -X < 2-łn) .
k+1 k
k<2-n(k+1) b
2n 2n
Załóżmy, że  " B, pokażemy wpierw, indukcyjnie po m, że
m

"n n0()"m n"s,t"Dm |s - t| 2-n ! |Xs() - Xt()| 2 2-łj. (13)
j=n
92
k k+1
Dla m = n, jeśli |s - t| 2-n, to możemy przyjąć, że s = , t = i
2n 2n
|Xs - Xt| = |X - X | < 2-łn na mocy definicji B.
k+1 k
2n 2n
Załóżmy zatem, że (13) jest udowodnione dla m = n, n + 1, . . . , M - 1,
pokażemy, że zachodzi również dla m = M. Niech s, t " DM , s < t, możemy
założyć, że |s - t| > 2-M , bo inaczej działa argument przedstawiony w
pierwszym kroku indukcji. Połóżmy

s = min{u " DM-1, u > s}, t = max{u " DM-1, u < t},

 
wówczas s s t t, czyli |s - t| |s - t| 2-n. Stąd, wobec założenia
 
M-1
indukcyjnego, |Xs() - Xt()| 2 2-łj. Ponadto, |s - s| 2-M ,

 
j=n

|t - t| 2-M , czyli
|Xs() - Xt()| |Xs() - Xt()| + |Xs() - Xs()| + |Xt() - Xt()|
   
M-1 M

2 2-łj + 2-łM + 2-łM = 2 2-łj,
j=n j=n
co kończy dowód (13).
Wiemy zatem, że dla  " B,
"

s, t " D, |s - t| 2-n, n n0() ! |Xs() - Xt()| 2 2-łj = Cł2-łn,
j=n
gdzie Cł jest stałą zależną tylko od ł. Wezmy teraz dowolne s, t " D takie,
że |s-t| 2-n0(), wówczas istnieje n n0() spełniające 2-n-1 < |s-t|
2-n i
|Xs() - Xt()| Cł2-łn 2łCł|s - t|ł.
W końcu, dla dowolnych s, t " D, możemy dobrać ciąg s = s0 < s1 < . . . <
sk = t, k 2n0()(b - a) taki, że si " D, |si+1 - si| 2-n0() i otrzymamy
k k


|Xs() - Xt()| |Xsi() - Xsi+1()| 2łCł|si - si-1|ł
i=1 i=1

(b - a)2n0()2łCł|t - s|ł.
Udowodniliśmy zatem, że dla  " B, funkcja t Xt() jest hlderowsko
ciągła na D, w szczególności jest jednostajnie ciągła i w każdym punkcie z
[a, b] ma granicę. Połóżmy

limst,s"D Xs() dla  " B

Xt() =
0 dla  " B.
/
93

Wówczas wszystkie trajektorie X są ciągłe (a nawet hlderowsko ciągłe z wy-
kładnikiem ł). Z nierówności Czebyszewa łatwo wynika, że dla dowolnego
ciągu (tn) " D, zbieżnego do t " [a, b], Xtn Xt według prawdopodobień-

stwa. Z drugiej strony Xtn Xt p.n., a więc również według prawdopodo-

bieństwa. Z jednoznaczności granicy wynika, że Xt = Xt p.n., czyli proces

X jest modyfikacją X.

Na koniec zauważmy, że trajektorie X są hlderowsko ciągłe z wykład-
nikiem ł, a skoro wiemy, ze wszystkie ciągłe modyfikacje X są nierozróż-
nialne, to wszystkie ciągłe modyfikacje X mają, z prawdopodobieństwem 1,
ą
hlderowsko ciągłe trajektorie z dowolnym wykładnikiem ł < .

B.3 Rozkład Dooba-Meyera
Proces (Mt, Ft) jest ciągłym martyngałem wtedy i tylko wtedy, gdy proces
(Marctgt, Farctgt) jest ciągłym martyngałem, zatem bez straty ogólności bę-
dziemy zakładać, że T < ". Przypomnijmy też, że (Ft)0 t T jest ustaloną
filtracją spełniającą zwykłe warunki.
Dla procesu X = (Xt)t"[0,T ] i podziału  = (0 = t0 < t1 < . . . < tn = T )
X X
odcinka [0, T ] określamy proces V  = (V ,t)t"[0,T ] wzorem
n-1

X
V ,t = (Xt'"ti+1 - Xt'"ti)2.
i=0
X
Będziemy też czasem dla wygody pisać V ,t(X) zamiast V ,t.
Idea dowodu twierdzenia Dooba-Meyera polega na wykazaniu, że M, M
X
można określić jako granicę V ,t przy diam( ) 0. Dowód rozbijemy na
kilka lematów.
M
Lemat 1. Dla M " M2,c proces (Mt2 - V ,t)t"[0,T ] jest ciągłym martynga-
T
łem.
Dowód. Niech ti s < t ti+1 dla pewnego i n - 1. Wówczas
M M
V ,t-V ,s = (Mt-Mti)2-(Ms-Mti)2 = (Mt-Ms)2+2(Mt-Ms)(Ms-Mti),
stąd
M M
E(V ,t - V ,s|Fs) = E((Mt - Ms)2|Fs) - 2(Ms - Mti)E((Mt - Ms)|Fs)
2 2
= E(Mt2|Fs) - 2MsE(Mt|Fs) + Ms = E(Mt2|Fs) - Ms
2
= E(Mt2 - Ms |Fs).
94
Lemat 2. Załóżmy, że M = (Mt)0 t T jest ciągłym, jednostajnie ograni-
czonym martyngałem. Wówczas dla dowolnego podziału ,
M
E(V ,t)2 48 sup Mt 4 < ".
"
t
Dowód. Mamy
n

M
(V ,t)2 = ( (Mtk - Mtk-1)2)2
k=1
n n-1 n

= (Mtk - Mtk-1)4 + 2 (Mtk - Mtk-1)2 (Mtj - Mtj-1)2
k=1 k=1 j=k+1
n n-1

M M M M
= (Mtk - Mtk-1)4 + 2 (V ,tk - V ,tk-1)(V ,T - V ,tk).
k=1 k=1
M M
Z poprzedniego lematu mamy E(V ,T - V ,tk|Ftk) = E((MT - Mtk)2|Ftk),
zatem
n n-1

M M M M M
E(V ,t)2 = E(Mtk - Mtk-1)4 + 2 E[(V ,tk - V ,tk-1)(V ,T - V ,tk)]
k=1 k=1
n n-1

M M
= E(Mtk - Mtk-1)4 + 2 E[(V ,tk - V ,tk-1)(MT - Mtk)2]
k=1 k=1
M
E(max(Mtk - Mtk-1)2 + 2 max(MT - Mtk)2)V ,T
k k
2
12C2EV ,T = 12C2E(MT - M0)2 48C4,
gdzie C = supt Mt ".
Lemat 3. Załóżmy, że M = (Mt)0 t T jest ciągłym, jednostajnie ograni-
M
czonym martyngałem. Wówczas istnieje N " M2,c taki, że M2 - V  zbiega
T
do N w M2,c, gdy diam( ) 0.
T
2 M
Dowód. Wystarczy udowodnić zbieżność (przy diam( ) 0) MT - V ,T w
M
L2(&!), czyli zbieżność V ,T w L2(&!).
Niech  i  będą podziałami [0, T ], zaś   podziałem wyznaczonym
M M
przez wszystkie punkty z  i  . Na mocy Lematu 1 proces X = V  - V 

jest martyngałem, więc
M M 2 2

E|V ,T - V  ,T |2 = E(XT - X0 ) = EV   ,T (X),

95

gdzie ostatnia równość wynika stąd, że X2 - V   (X) jest martyngałem
(znów stosujemy Lemat 1). Ponieważ (x + y)2 2(x2 + y2), więc
M M

V   ,T (X) 2(V   ,T (V  ) + V   ,T (V  ).

Wystarczy więc udowodnić, że
M

EV   ,T (V  ) 0, jeśli diam( ) + diam(  ) 0. (14)
Załóżmy, że sk i sk+1 są kolejnymi punktami podziału   , a tl, tl+1
kolejnymi punktami z  takimi, że tl sk < sk+1 tl+1, wówczas
M M
V  ,sk+1 - V  ,sk = (Msk+1 - Mtl)2 - (Msk - Mtl)2

= (Msk+1 - Msk)(Msk+1 - Msk + 2Mtl).
Stąd
M M

V   ,T (V  ) max |Msk+1 - Msk + 2Mtl|2V   ,T

k
i z nierówności Schwarza
M M

EV   ,T (V  ) (E max |Msk+1 - Msk + 2Mtl|4)1/2(E(V   ,T )2)1/2.

k
Pierwszy składnik dąży do zera, gdy diam( ) + diam(  ) 0 na mocy
ciągłości i ograniczoności M (stosujemy twierdzenie Lebesgue a o zbieżno-
ści zmiajoryzowanej), drugi na mocy poprzedniego lematu jest ograniczony
przez wielkość zależną tylko od M. Zatem spełnione jest (14).
Dowód Twierdzenia 8.1. Przypomnijmy, że zakładamy iż T < ".
Przypadek I Martyngał M jest jednostajnie ograniczony.
Niech Y = M2 - N, gdzie N jest procesem zadanym przez Lemat 3.
Wówczas M2 - Y jest ciągłym martyngałem oraz dla t T , Yt jest granicą
M
w L2(&!) zmiennych V ,t przy diam( ) 0, stąd Y0 = 0 p.n.. Ustalmy
s < t T i niech n będzie ciągiem podziałów [0, T ] zawierających punkty t
i s o średnicy dążącej do zera. Przechodząc do podciągów możemy zakładać,
M M
że V n,t Yt i V n,s Ys p.n., ale V n,s n, t, więc Yt Ys p.n.. Z
ciągłości Y ma z prawdopodobieństwem 1 trajektorie niemalejące, czyli Y
jest szukanym procesem M .
Przypadek II M " M2,c i M0 = 0.
T
Wybierzmy ciąg momentów zatrzymania n T taki, że Mn jest
jednostajnie ograniczonym martyngałem (np. n := inf{t 0: |Mt|
n} '" T ). Niech Yn = Mn oraz Nn = |Mn|2 - Yn. Ponieważ dla m n,
96

Ymn = Mm n = (Mm)n = Yn, więc da się określić taki proces ciągły
n
(Yt)0 t2
niemalejący i Y0 = 0. Zauważmy, że EYt2 = E(Mtn)2 EMT , więc z twier-
dzenia Lebesgue a o zbieżności monotonicznej YT := limtT Yt istnieje i jest
całkowalne. Widzimy, że Nn,t Mt2 - Yt2 p.n. dla t T . Ponadto na mocy
nierówności Dooba
2 2
E sup Nn,t E sup(Mtn)2 + EYn,t 4EMT + EMT < ",
n n
zatem (Nn,t)n jest jednostajnie całkowalny, czyli Nn,t zbiega w L1, więc
2
X2 - Y jest martyngałem, czyli Y = M .
Przypadek III M " M2,c dowolne.
T
Wówczas M - M0 " M2,c, na mocy przypadku II istnieje M - M0 . Ale
T
2
M2 - M - M0 = (M -M0)2 - M - M0 + 2M0M - M0 jest martyngałem,
zatem M = M - M0 .
Literatura
[1] P. Billingsley, Prawdopodobieństwo i miara, PWN, Warszawa 1987.
[2] G.M. Fichtenholz, Rachunek różniczkowy i całkowy, tom III, PWN, War-
szawa 1985.
[3] J. Jakubowski, R. Sztencel, Wstęp do teorii prawdopodobieństwa, wyd
II, Script, Warszawa 2001
[4] S. Aojasiewicz, Wstęp do teorii funkcji rzeczywistych, PWN, Warszawa
1973.
[5] W. Rudin, Podstawy analizy matematycznej, PWN, Warszawa 1976.
97


Wyszukiwarka

Podobne podstrony:
J Chądzyński Wstęp do analizy zespolonej
Barthes, Wstęp do analizy strukturalnej opowiadań
Wstęp do analizy matematycznej test 2
Wstęp do analizy zespolonej
Wstęp do analizy technicznej
Przyczynek do analizy polozenia
10 Wstep do prawoznawstwa
Wstęp do pakietu algebry komputerowej Maple
2006 06 Wstęp do Scrum [Inzynieria Oprogramowania]
Wstęp do magii
Renesans Wstęp do epoki Podłoże społeczno polityczne ~5C5
Wstęp do psychopatologii
BT Wstęp do Pierwszego Listu św Piotra apostoła

więcej podobnych podstron