Rachunek Prawdopodobienstwa


1
Szkice do wykładu z Rachunku prawdopodobieństwa I i II
dr Jarosław Kotowicz
29 pazdziernika 2003
1
Copyright J.Kotowicz
Spis treści
1 Konieczne wiadomości z analizy 6
1.1 Funkcje beta i gama Eulera . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Funkcje borelowskie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Liczenie całek za pomocą residuów . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2 Podstawy teorii miary i całki Lebesgue a 8
2.1  - ciało i miara . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 Całka Lebesgue a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3 Podstawy rachuneku prawdopodobieństwa 13
3.1 Częstotliwość występowania zjawisk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.2 Aksjomatyka rachunku prawdopodobieństwa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.3 Prawdopodobieństwo warunkowe i całkowite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.4 Wzór Beyasa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.5 Zdarzenia niezależne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.6 Zdarzenie zależne. Współczynnik korelacji zdarzeń . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.7 Prawdopodobieństwo geometryczne. Paradoks Bertranda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.8 Schemat Bernoulliego i jego uogólnienia. Schematy urnowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.9 Lemat Borela - Cantelliego . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4 Zmienna losowa jednowymiarowa 19
4.1 Zmienna losowa i rozkład prawdopodobieństwa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.1.1 Dystrybuanta zmiennej losowej i rozkładu oraz jej własności . . . . . . . . . . . . . . . . . . . . . . . . 20
4.1.2 Ciągłe, dyskretne i osobliwe zmienne losowe oraz rozkłady . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.1.3 Przekształcenia zmiennej losowej . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.1.4 Dystrybuanta, a gęstość . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.2 Wartość oczekiwana zmiennej losowej i inne parametry liczbowe . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.3 Parametry pozycyjne rozkładów . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.4 Przykłady jednowymiarowych rozkładów . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.4.1 Rozkłady dyskretne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.4.2 Rozkłady ciągłe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.5 Nierówność dla zmiennych losowych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.6 Niezależne zmienne losowe  po raz pierwszy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
5 Funkcje tworzące 29
6 Zbieżności zmiennych losowych 30
6.1 Rodzaje zbieżności zmiennych losowych i ich wzajemne zależności . . . . . . . . . . . . . . . . . . . . . . . . . 30
6.2 Prawo 0  1 Kołmogorowa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
6.3 Nierówności typu Czebyszewa dla sum zmiennych losowych . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
6.4 Zbieżności szeregów zmiennych losowych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
6.5 Prawa wielkich liczb . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2
6.6 Twierdzenie Moivre a - Laplace a  lokalne i globalne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
7 Zmienna losowa wielowymiarowa 36
7.1 Dystrybuanta zmiennej losowej . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
7.2 Rozkłady ciągłe i dyskretne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
7.3 Rozkłady brzegowe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
7.4 Niezależne zmienne losowe  po raz drugi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
7.5 Kowariancja i współczynnik korelacji zmiennych losowych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
7.6 Macierz kowariancji i korelacji zmiennych losowych . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
8 Zbieżność rozkładów. Warunkowa wartość oczekiwana 40
8.1 Zbieżność rozkładów . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
8.2 Warunkowa wartość oczekiwana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
9 Funkcja charakterystyczna 44
10 Centralne twierdzenie graniczne 46
11 Aańcuchy Markowa 48
12 Martyngały 51
13 Zadania uzupełniające i rozszerzające materiał wykładu 55
13.1 Zadania do rozdziału I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
13.2 Zadania do rozdziału II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
13.3 Zadania do rozdziału III . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
13.4 Zadania do rozdziału IV . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
13.5 Zadania do rozdziału V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
13.6 Zadania do rozdziału VI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
13.7 Zadania do rozdziału VII . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
13.8 Zadania do rozdziału VIII . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
13.9 Zadania do rozdziału IX . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
13.10Zadania do rozdziału X . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
13.11Zadania do rozdziału XI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
13.12Zadania do rozdziału XII . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
14 Zadania z egzaminów z lat poprzednich 59
14.1 Egzamin w semestrze zimowym roku akademickim 2000/2001 . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
14.1.1 Termin pierwszy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
14.1.2 Termin poprawkowy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
14.2 Egzamin w semestrze letnim roku akademickim 2000/2001 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
14.2.1 Termin pierwszy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
14.2.2 Termin poprawkowy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
14.3 Egzamin w semestrze zimowym roku akademickim 2001/2002 . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
14.3.1 Termin pierwszy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
14.3.2 Termin poprawkowy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
14.4 Egzamin w semestrze letnim roku akademickim 2001/2002 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
14.4.1 Termin pierwszy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
14.4.2 Termin poprawkowy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
14.5 Egzamin w semestrze zimowym roku akademickim 2002/2003 . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
14.5.1 Termin pierwszy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
14.5.2 Termin poprawkowy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3
15 Literatura 65
4
Wstęp
Chcę jescze raz podkreślić, że Szkice nie są skończone. Nie należy ich traktować jako wykładów. Trzeba na nie patrzeć jako na
przewodnik i pewnego rodzaju uprządkowanie wiadmości zdobytych przez Państwa na wykłada przeze mnie prowadzonych.
Szkice nie zawierają żadnych dowodów, które podawane są na wykładzie.
Wykład Rachunek prawdopodobieństwa I obejmuje materiał do rozdziału Zmienne losowej wielowymiarowe.
Pojawiły się pierwsze zadania uzupełnijące, utrwalające i rozszerzające materiał wykładu. Następnych można spodziewać
się po kolejnych wykładach.
Materiał dwóch ostatnich rozdziałów być może będzie zrealizowany, lecz nie wiadomo czy będzie i ewentualnie w jakim
zakresie w trakcie prowadzonego przeze mnie wykładu Rachunek prawdopodobieństwa II.
5
Rozdział 1
Konieczne wiadomości z analizy
1.1 Funkcje beta i gama Eulera
Definicja 1.1 Funkcję dla p > 0
+"

def
(p) = xp-1e-xdx (1.1)
0
nazywamy funkcją gamma (całką Eulera II rodzaju)
Definicja 1.2 Funkcję dla p, q > 0
1
def
(p, q) = xp-1(1 - x)q-1dx (1.2)
0
nazywamy funkcją beta (całką Eulera I rodzaju)
Lemat 1.1 Niech p > 0. Wówczas
(p + 1) = p(p) (1.3)
(1) = 1 (1.4)
(n + 1) = n! (1.5)
Lemat 1.2 Niech p, q > 0. Wówczas
(p, q) = (q, p) (1.6)
q - 1
(p, q) = (p, q - 1) (1.7)
p + q - 1
1
(p, 1) = (1.8)
p
n - 1 (n - 1)!
(p, n) = (p, n - 1) = (p, 1) (1.9)
p + n - 1 (p + n - 1) . . . (p + 1)
(n - 1)!(m - 1)! (n)(m)
(m, n) = = (1.10)
(m + n - 1)! (m + n)
1.2 Funkcje borelowskie
Niech n, m " N.
Definicja 1.3 Funkcję  : Rn Rm nazywamy borelowską wtedy i tylko wtedy, gdy
"A"B(Rm -1(A) " B(Rn) (1.11)
)
6
1.3 Liczenie całek za pomocą residuów
Twierdzenie 1.1 Niech
+"

I = R(x)eiaxdx.
-"
Jeżeli
1. a > 0
2. R(x) jest funkcją wymierną.
3. R(z) nie posiada biegunów na osi rzeczywistej.
4. lim R(z) = 0.
|z|+"
Wtedy

I = 2Ąi Resz(R(z)eiaz), (1.12)
z"O+(z)
gdzie O+(z) jest zbiorem punktów osobliwych funkcji R(z)eiaz o dodatniej części urojonej.
Gdy a < 0 to sumujemy po punktach osobliwych o ujemnej części urojonej.
7
Rozdział 2
Podstawy teorii miary i całki Lebesgue a
2.1  - ciało i miara
Niech &! = " oraz Ł " 2&!.

Definicja 2.1 Rodzinę zbiorów Ł nazywamy  - ciałem podzbiorów &! wtedy i tylko wtedy, gdy
&! " Ł (2.1)
"

"{A :n"N}"Ł Ai " Ł (2.2)
n
i=1
"A,B"ŁA \ B " Ł (2.3)
Uwaga 2.1  - ciało jest to rodzina podzbiorów zamknięta na przeliczalą ilość działań teoriomnogościowych (sumy, iloczynu,
różnicy).
Wniosek 2.1 Zachodzą następujące własności dla  - ciała
" " Ł (2.4)
"A"ŁA " Ł (2.5)
"A,B"ŁA *" B " Ł (2.6)
"A,B"ŁA )" B " Ł (2.7)
"

"{A :n"N}"Ł Ai " Ł (2.8)
n
i=1
Przyklad 2.1 Najprostszymi  - ciałami są rodziny {", &!}i 2&!, czyli zbiór wszystkich podzbiorów zbioru &!.
Niech " = H " 2&!.

Definicja 2.2  - ciałem generowanym przez rodzinę H nazywamy najmniejsze  - ciało zawierające rodzinę H. Oznaczamy
je przez a(H).
Niech Ł " 2&! będzie  - ciałem. Niech : Ł R.
Uwaga 2.2 Symbol R oznacza rozszerzony zbiór liczb rzeczywistych.
Uwaga 2.3 W naszym przypadku zakładamy, że przeciwdziedzina zawiera tylko jedną z nieskończoności.
Definicja 2.3 Funkcję nazywamy miarą wtedy i tylko wtedy, gdy
"A"Ł(A) 0 (2.9)
" "

"{A :n 1}"Ł{An : n 1} - parami rozłączny ! ( An = (An) (2.10)
n
n=1 n=1
8
Uwaga 2.4 Własność (2.9), to nieujemność miary, zaś własność (2.10) to  - addytywność miary.
Definicja 2.4 Miarę nazywamy
skończona ! "A"Ł(A) < +" (2.11)
probabilistyczną ! (&!) = 1 (2.12)
Uwaga 2.5 Warunek (2.11) można zastąpić następującym
(&!) < +" (2.13)
Uwaga 2.6 Każda miara skończona i niezerowa wyznacza miarę probabilistyczną. Wystarczy zdefiniować nową miarę wzorem
(A)
def
P (A) = . (2.14)
(&!)
Przyklad 2.2 Jeżeli zbiór &! jest skończony, to za miarę można wziązć miarę liczącą (ilość elementów zbioru).Wtedy P
będzie znanym ze szkoły średniej prawdopodobieństwem.
Przyklad 2.3 Jeżeli zbiór &! = [a, b], gdzie a < b, to za miaręmożna wziązć długość. W tym przypadku Ł = B([a, b]).
Uwaga 2.7 Przez B(A), gdzie A ą" Rn dla pewnego n " N oznaczamy  - ciało zbiorów borelowskich tzn. najmniejsze
 - ciało zawierające wszystkie zbiory otwarte.
Uwaga 2.8 Można udowodnic następujące twierdzenie dla zbiorów borelowskich
Twierdzenie 2.1 Zachodzi następująca równość
B(R) = a{] - ", a] : a " R}, (2.15)
gdzie symbol a oznacza najmniejsze  - ciało zawierające tę rodzinę.
Uwaga 2.9 Tutaj mogą być wzięte inne półproste.
Definicja 2.5 Trójkę (&!, Ł, ) nazywamy przestrzenią z miarą. Jeżeli jest miarą probabilistyczną, to nazywamy tę trójkę
przestrzenia probabilistyczną, a miarę nazywamy prawdopodobieństwem.
Niech &! = " oraz " = Ł " 2&!.

Definicja 2.6 Rodzinę Ł nazywamy Ą - układem wtedy i tylko wtedy, gdy
"A,B"ŁA )" B " Ł (2.16)
Definicja 2.7 Rodzinę Ł nazywamy  - układem wtedy i tylko wtedy, gdy
&! " Ł (2.17)
"A,B"ŁA " B ! B \ A " Ł (2.18)
"

"{A :n 1}"Ł{An : n 1}- wstępujący ! An " Ł (2.19)
n
n=1
Twierdzenie 2.2 Rodzina Ł będąca jednocześnie Ą - układem i  - układem jest  - ciałem.
Twierdzenie 2.3 (Lemat o  - i Ą - układach) Jeżeli rodzina Ł będąca  - układem zawiera Ą - układ F, to zawiera
a(F) ( - ciało generowane przez F).
9
2.2 Całka Lebesgue a
Niech (&!, Ł, ) przestrzeń mierzalna z miarą
Definicja 2.8 Zbiór A nazywamy Ł - mierzalnym wtedy i tylko wtedy, gdy A " Ł.
Definicja 2.9 Funkcję f: &! R nazywamy Ł - mierzalną wtedy i tylko wtedy, gdy
"a"R {x : f(x) > a} " Ł (2.20)
Twierdzenie 2.4 Niech B(R) = a(H), gdzie H ą" 2R. Wówczas funkcja f: &! R jest Ł - mierzalna wtedy i tylko wtedy,
gdy
"B"Hf-1(B) " H. (2.21)
Niech f: &! R.
Definicja 2.10
f+ def max(f, 0) '" f- def max(-f, 0) (2.22)
= =
Stwierdzenie 2.1
f = f+ - f- '" |f| = f+ + f- (2.23)
Twierdzenie 2.5 (Własności funkcji mierzalnych)
f jest Ł - mierzalna ! |f| jest Ł - mierzalna (2.24)
f, g są Ł - mierzalne ! max(f, g), min(f, g), f + g, fg, f+, f- są Ł - mierzalne (2.25)
{fn : n 1} są Ł - mierzalne ! sup fn, inf fn, lim sup fn, lim inf fn są Ł - mierzalne (2.26)
n"N n"
n"N n"
{fn : n 1} są Ł - mierzalne '" fn - zbieżny ! lim fn jest Ł - mierzalna. (2.27)
n"
Definicja 2.11 Funkcję f: &! R nazywamy prostą wtedy i tylko wtedy, gdy
card f(&!) < 5!0. (2.28)
Zbiór funkcji prostych oznaczamy PS.
Definicja 2.12
PS+ def {s " PS : s 0} (2.29)
=
Definicja 2.13 Funkcję charakterystyczną zbioru definiujemy następująco

1 dla x " A
def
A(x) = (2.30)
0 dla x " A
/
Twierdzenie 2.6 Funkcja jest funkcją prostą wtedy i tylko wtedy, gdy jest skończoną kombinacją liniową funkcji charakte-
rystycznych.
Twierdzenie 2.7 (Twierdzenie o aproksymacji funkcjami prostymi) Niech f będzie funkcją określoną na zbiorze &!.
Istnieje wówczas ciąg (sn) " PS taki, że dla dowolnego x " &! zachodzi lim sn(x) = f(x). Jeżeli f jest funkcją Ł - mierzalną
n"
to (sn) można dobrać tak, aby wszystkie funkcje sn były Ł - mierzalne. Jeżeli f jest funkcją nieujemną, to ciąg można dobrać
tak, aby był monotonicznie rosnący.
Definicja 2.14 Niech (&!, Ł, ) będzie przestrzenią mierzalną z miara i f będzie funkcją Ł - mierzalną. Całkę Lebesgue a
określamy rekurencyjnie

def
f = A ! fd = (A) (2.31)
&!

n n

0 f = ckA ! fd = ck(Ak) (2.32)
k
&!
k=1 k=1

0 f ! fd = sup sd (2.33)
PS+ s f
&! &!

f = f+ - f- '" ( f+d < " (" f-d < ") ! fd = f+d - f-d (2.34)
&! &! &! &! &!
10
Uwaga 2.10 Definicję powyższą całki można sformułować dla dowolnego E " Ł zamiast całej przestrzeni &!.
Definicja 2.15 Mówimy, że funkcja Ł - mierzalna f jest całkowalna wtedy i tylko wtedy, gdy

f+d < " '" f-d < ". (2.35)
&! &!
Piszemy f " L(&!, Ł, ).
Uwaga 2.11 Definicję powyższą całki można sformułować dla dowolnego E " Ł zamiast całej przestrzeni &!.
Twierdzenie 2.8 Funkcja Ł - mierzalna f jest całkowalna wtedy i tylko wtedy, gdy

|f|d < " (2.36)
&!
Definicja 2.16 Niech p 1. Funkcja Ł - mierzalna f jest całkowalna z p - tą potęgą wtedy i tylko wtedy, gdy

|f|pd < " (2.37)
&!
Piszemy f " Lp(&!, Ł, ).
Twierdzenie 2.9 (Własności całki) Niech f i g są funkcjami Ł - mierzalnymi.
f ograniczona '" (&!) < " ! f " L(&!, Ł, ) (2.38)

"x"&!a f(x) b '" (&!) < " ! a(&!) fd < b(&!) (2.39)
&!

f, g " L(&!, Ł, ) '" "x"&!f(x) g(x) ! fd gd (2.40)
&! &!

f " L(&!, Ł, ) ! "c"Rcf " L(&!, Ł, ) '" cfd = c fd (2.41)
&! &!

E " Ł '" (E) = 0 ! fd (2.42)
E
f " L(&!, Ł, ) '" E " Ł ! f " L(E, Ł, ) (2.43)

"

f 0 '" "{A :n 1}"Ł{An : n 1} - parami rozłączne ! fd = fd (2.44)
"
n
An n=1 An
n=1

"

f " L(&!, Ł, ) '" "{A :n 1}"Ł{An : n 1} - parami rozłączne ! fd = fd (2.45)
"
n
An n=1 An
n=1
Twierdzenie 2.10 (Lebesgue a o zbieżności monotonicznej) Niech {fn : n 1} będzie niemalejącym ciągiem funkcji
nieujemnych i Ł - mierzalnych. Wówczas

lim fnd = lim fnd (2.46)
n" n"
&! &!
Twierdzenie 2.11 (Lemat Fatou) Niech {fn : n 1} będzie ciągiem funkcji nieujemnych i Ł - mierzalnych. Wówczas

lim inf fnd lim inf fnd (2.47)
n" n"
&! &!
Twierdzenie 2.12 (Lebesgue a o zbieżności ograniczonej) Niech {fn : n 1} będzie ciągiem funkcji Ł - mierzalnych.
Jeżeli istnieje funkcja g " L(&!, Ł, ) taka, że dla dowolnego n " N zachodzi prawie wszędzie |fn| g, to

lim fnd = lim fnd (2.48)
n" n"
&! &!
Definicja 2.17 Mówimy, że własność zachodzi prawie wszędzie (względem miary ) wtedy i tylko wtedy, gdy zbiór tych
elementów, gdzie ta własność nie zachodzi ma miarę zero.
11
Niech &!i = " oraz (&!i, Łi, i) będą przestrzeniami mierzalnymi z miarami skończonymi i dla i = 1, 2.

Twierdzenie 2.13 (O istnieniu i jednoznaczności miary produktowej) Jeżeli miary i dla i = 1, 2 są skończone, to
istnieje jedyna miara skończona 1 " 2 na a(Ł1 Ł2) taka, że
"A "Ł1"A "Ł21 " 2(A1 A2) = 1(A1)2(A2) (2.49)
1 2
Niech (X, Ł, ) będzie przestrzenią produktową z miarą produktową dla przestrzeni (&!i, Łi, i) z miarami skończonymi
dla i = 1, 2. Niech f: &! R będzie funkcją Ł - mierzalną.
Całki postaci
ł ł

ł
fx d2łł d1 (2.50)
1
&!1 &!2
ł ł

2
ł
fx d1łł d2 (2.51)
&!2 &!1
nazywamy całkami iterowanymi funkcji f, a całkę

fd (2.52)
&!
całka podwójną.
Twierdzenie 2.14 (Fubiniego I) Niech f będzie funkcją nieujemną. Wówczas

(i) &!1 x1 fx d2 jest Ł1 - mierzalne,
1
&!2

2
(ii) &!2 x2 fx d1 jest Ł2 - mierzalne oraz
&!1
ł ł ł ł

2
ł ł
fx d2łł d1 = fd = fx d1łł d2 (2.53)
1
&!1 &!2 &! &!2 &!1
Twierdzenie 2.15 (Fubiniego II) Niech f " L(&!, Ł, ). Wówczas
(i) dla prawie wszystkich x1 względem miary 1 na &!1 fx jest Ł2 - mierzalna oraz fx " L(&!2, Ł2, 2) odwzorowanie
1 1

&!1 x1 fx d2 jest klasy L(&!1, Ł1, 1),
1
&!2
2 2
(ii) dla prawie wszystkich x2 względem miary 2 na &!2 fx jest Ł1 - mierzalna oraz fx " L(&!1, Ł1, 1) odwzorowanie

2
&!2 x2 fx d1 jest klasy L(&!2, Ł2, 2)
&!1
oraz
ł ł ł ł

2
ł ł
fx d2łł d1 = fd = fx d1łł d2 (2.54)
1
&!1 &!2 &! &!2 &!1
Wniosek 2.2 Jeżeli jedna z całek iterowanych dla funkcji |f| jest skończona, to funkcja f " L(&!, Ł, ), a więc można
zmieniać kolejność całkowania w całkach iterowanych i są one równe całce podwójnej.
12
Rozdział 3
Podstawy rachuneku prawdopodobieństwa
3.1 Częstotliwość występowania zjawisk
3.2 Aksjomatyka rachunku prawdopodobieństwa
Niech (&!, Ł, P ) będzie przestrzenią probabilistyczną.
Uwaga 3.1 Każdy zbiór Ł - mierzalny nazywamy zdarzeniem.
Twierdzenie 3.1 Własności prawdopodobieństwa
P (") = 0 (3.1)
"A,B"ŁA " B ! P (A) P (B) (3.2)
"A,B"ŁA " B ! P (B \ A) P (B) - P (A) (3.3)
"A"ŁP (A ) = 1 - P (A) (3.4)
"A,B"ŁP (A )" B) = P (A) + P (B) - P (A )" B) (3.5)

n n i

"n"N"{A ,...,An}"ŁP ( Ak) = (-1)i-1 P Ak (3.6)
1 l
k=1 i=1 1 k1<...
" "

"{A :n 1}"ŁP An P (An) (3.7)
n
n=1 n=1

"

"{A :n 1}"Ł{An : n 1}- wstępujący ! P An = lim P (An) (3.8)
n
n"
n=1

"

"{A :n 1}"Ł{An : n 1}- zstępujący ! P An = lim P (An) (3.9)
n
n"
n=1
Uwaga 3.2 Równość (3.6) nazywamy prawem włączania i wyłącznia, zaś równości (3.8) i (3.9) ciągłości prawdopodobień-
stwa odpowiednio z dołu i góry.
1
Przyklad 3.1 Niech &! = {O, R} , Ł = 2&! oraz P będzie określone następująco: P (") = 0, P ({O}) = P ({R}) = .
2
Wówczas ({O, R} , Ł, P ) jest przestrzenią probabilistyczną
Przyklad 3.2 Niech &! = [0, 1], Ł = B([0, 1]) oraz P będzie miarą generowaną przez długość odcinka.
Wówczas ([0, 1], B([0, 1]), P ) jest przestrzenią probabilistyczną
Uwaga 3.3 Nie są prawdziwe następujące implikacje
P (A) = 0 ! A = " (3.10)
P (A) = 1 ! A = &! (3.11)

1
Przyklad 3.3 Dla przestrzeni z przykładu (3.2) określamy zbiory A = , B = Q )" [0, 1] C = C - zbiór Cantora. Wówczas
2
P (A) = P (B) = P (C) = 0.
13
3.3 Prawdopodobieństwo warunkowe i całkowite
Niech (&!, Ł, P ) będzie przestrzenią probabilistyczną.
Definicja 3.1 Niech A, B " Ł. Załóżmy, że P (B) = 0. Prawdopodobieństwem warunkowym zajścia zdarzenia A pod warun-

kiem, że zaszło zdarzenie B (piszemy P (A/B)) nazywamy liczbę
P (A )" B)
def
P (A/B) = (3.12)
P (B)
Niech card I 5!0.
Definicja 3.2 Co najwyżej przeliczalną rodzinę zbiorów {Ai : i " I} " Ł nazywamy układem zupełnym (zdarzeń) wtedy i
tylko wtedy, gdy

Ai = &! (3.13)
i"I
"i,j"Ii = j ! Ai )" Aj = " (3.14)

"i"IP (Ai) = 0 (3.15)

Uwaga 3.4 Zbiór I nazywamy zbiorem indeksów rodziny {Ai : i " I}.
Twierdzenie 3.2 (Prawdopodobieństwo całkowite) Niech {Ai : i " I} " Ł będzie układem zupełnym. Wówczas dla
dowolnego zdarzenia A

P (A) = P (A/Ai)P (Ai) (3.16)
i"I
3.4 Wzór Beyasa
Niech (&!, Ł, P ) będzie przestrzenią probabilistyczną. Niech card I 5!0.
Twierdzenie 3.3 (Wzór Bayesa) Niech {Ai : i " I} " Ł będzie układem zupełnym. Wówczas dla dowolnego zdarzenia A
o niezerowym prawdopodobieństwie i dowolnego i0 " I
P (A/Ai )P (Ai )
0 0

P (Ai /A) = (3.17)
0
P (A/Ai)P (Ai)
i"I
3.5 Zdarzenia niezależne
Niech (&!, Ł, P ) będzie ustaloną przestrzenią probabilistyczną.
Definicja 3.3 Mówimy, że zdarzenia A, B z tej przestrzeni są niezależne wtedy i tylko wtedy, gdy
P (A )" B) = P (A) P (B) (3.18)
Stwierdzenie 3.1 Niech A, B " Ł oraz P (B) = 0. Zdarzenia A, B są niezależne wtedy i tylko wtedy, gdy

P (A/B) = P (A) (3.19)
Dany jest układ zdarzeń {A1, . . . , An} " Ł.
Definicja 3.4 Mówimy, że zdarzenia A1, . . . , An są niezależne zespołowo wtedy i tylko wtedy, gdy

k k

"1 k n"1 i <...1 l l
l=1 l=1
Definicja 3.5 Mówimy, że zdarzenia A1, . . . , An są parami niezależne wtedy i tylko wtedy, gdy
"1 i14
Wniosek 3.1 Jeżeli zdarzenia są niezależne zespołowo, to są niezależne parami.
Definicja 3.6 Mówimy, że zdarzenia A1, . . . , An są niezależne wtedy i tylko wtedy, gdy

n n

P Ak = P (Ak) (3.22)
k=1 k=1
Uwaga 3.5 Często w literaturze nie wyróżnia się zdarzeń niezależnych dla n 3 i zdarzenia niezależne zespołowo nazywa
się zdarzeniami niezależnymi. W tym wykładzie wprowadzamy takie rozróżnienie.
Uwaga 3.6 W przypadku n = 2 wszystkie pojęcia przez nas wprowadzone są identyczne.
Wniosek 3.2 Jeżeli zdarzenia są niezależne zespołowo, to są niezależne.
Przyklad 3.4 Niech &! = [0, 1]2 oraz Ł = B([0, 1]2). Określamy zdarzenia następująco:

1
def def
A a" B = {(x, y) : x > y} )" [0, 1]2 '" C = (x, y) : x < )" [0, 1]2 (3.23)
2
Wówczas P (A )" B )" C) = P (A)P (B)P (C), ale układ nie jest układem zdarzeń niezależnych i parami niezaleznych.
Przyklad 3.5 Na czworościennej kostce (czworościan foremny) napisano na trzech ścianach dokładnie jeden raz jedną z
liczb 1, 2 i 3, zaś na czwartej ścianie je wszystkie. Określamy zdarzenia Ai - wyrzucono liczbę i. Zdarzenia A1, A2, A3 są
parami niezależne, ale nie są niezależne zespołowo.
Twierdzenie 3.4 Istnieje układ zdarzeń parami niezależnych, który nie jest układem zdarzeń niezależnych, a więc i nie jest
układem zdarzeń niezależnych zespołowo.
Definicja 3.7 Dany jest układ zdarzeń {An : n 1} " Ł. Mówimy, że układ zdarzeń jest niezależny (inaczej układ zdarzeń
{An : n 1} jest układem zdarzeń niezależnych) wtedy i tylko wtedy, gdy dowolny skończony jego podukład jest układem
zdarzeń niezależnych zespołowo.
Definicja 3.8 Dany jest układ zdarzeń {An : n 1} " Ł. Mówimy, że układ zdarzeń jest układem zdarzeń parami niezależ-
nych wtedy i tylko wtedy, gdy dowolny zdarzeń o różnych indeksach są one niezależne.
Twierdzenie 3.5 Zdarzenia rozłączne A i B są niezależne wtedy i tylko wtedy, gdy P (A) = 0 lub P (B) = 0.
Twierdzenie 3.6 Niech card I 5!0. Niech A " Ł oraz {Ai : i " I} " Ł i zdarzenia {Ai : i " I} są parami rozłączne.

Wtedy, o ile dla dowolnego i " I niezależne są zdarzenia A i Ai, to niezależne są zdarzenia A, Ai.
i"I
Twierdzenie 3.7 Oznaczymy A0 a" A oraz A1 a" A . Następujące warunki są równoważne
A1, . . . , An niezależne zespołowo (3.24)
1 n
"{ ,...,n}"{1,...,n}{0,1}B1 = A , . . . , Bn = A niezależne zespołowo (3.25)
1 n
1

n n

k k
"{ ,...,n}"{1,...,n}{0,1}P A = P (A ) (3.26)
k k
1
k=1 k=1
Wniosek 3.3 Niech {A1, . . . , An} " Ł będzie układem zdarzeń niezależnych zespołowo. Wówczas

n n n

P Ak = 1 - P A = 1 - (1 - P (Ak)) (3.27)
k
k=1 k=1 k=1
Definicja 3.9 Niech {śi: i " I} będzie rodziną zbiorów zdarzeń tzn. każde śi jest zbiorem zdarzeń. śi dla i " I są niezależne
wtedy i tylko wtedy, gdy

"J"I"j"J"A "śj card J < 5!0 ! P ( Aj) = P (Aj) (3.28)
j
j"J j"J
15
3.6 Zdarzenie zależne. Współczynnik korelacji zdarzeń
Niech (&!, Ł, P ) będzie ustaloną przestrzenią probabilistyczną.
Definicja 3.10 Mówimy, że zdarzenia A, B są zależne wtedy i tylko wtedy, gdy
P (A )" B) = P (A) P (B) (3.29)

Inaczej mówimy, że nie są niezależne.
Definicja 3.11 Niech A, B " Ł oraz P (A), P (B) "]0, 1[. Współczynnikiem korelacji zdarzeń A i B nazywamy liczbę wyra-
żoną wzorem
P (A )" B) - P (A)P (B)
def
(A, B) = (3.30)
P (A)P (A )P (B)P (B )
Twierdzenie 3.8 Niech A, B " Ł oraz P (A), P (B) "]0, 1[. Wtedy
(A, B) = (B, A) (3.31)
(A , B) = (A, B ) = -(A, B) (3.32)
(A , B ) = (A, B) (3.33)
(A, B) = 0 ! A, B niezależne (3.34)
(A, A) = 1 '" (A, A ) = -1 (3.35)
(A, B) = 1 ! P (A) = P (A )" B) = P (B) (a" P (A B) = 0) (3.36)
(A, B) = -1 ! P (A )" B) = 0 (3.37)
|(A, B)| 1 (3.38)
3.7 Prawdopodobieństwo geometryczne. Paradoks Bertranda
Definicja 3.12 Niech &! będzie takie, że card &! = 5!0 oraz miech Ł = 2&!. Przyporządkujmy dowolnemu elementowi  " &!

nieujemną liczbę p następująco P ({}) = p, gdzie p = 1. Wówczas (&!, Ł, P ) jest przestrzenią probabilistyczną
"&!
przeliczalną.
Uwaga 3.7 Takie przyporządkowanie jest możliwe wyłącznie dla zbioru przeliczalnego. Jest to uogólnienie prawdopodobień-
stwa ze zbioru skończonego.
W przypadku zbiorów nieprzeliczalnych dochodzi trudność z określeniem przestrzeni, jak i miary probabilistycznej na tej
przestrzeni.
Przyklad 3.6 (Paradoks Bertranda) Dane jest koło o promieniu r > 0, Na kole wybieramy losowo cięciwę. Jakie jest
prawdopodobieństwo, że będzie miała ona długość większą od długości boku trójkąta równobocznego wpisanego w brzeg tego
koła (okrąg) ?
Rozważyć następujące wybory:
(i) położenie środka cięciwy na kole;
(ii) ustalony kierunek cięciwy;
(iii) ustalony jeden z końców cięciwy.
3.8 Schemat Bernoulliego i jego uogólnienia. Schematy urnowe
Niech (&!, Ł, P ) będzie przestrzenią probabilistyczną. Istniej miara probabilistyczna  prawdopodobieństwo w przestrzeni
produktowej (&!n, a(Łn), Pn), gdzie Xn jest n krotnym produktem kartezjańskim X, zaś a(Łn) jest najmniejszym  -
ciałem podzbiorów &!n zawierającym Łn.
16
Twierdzenie 3.9 (Schemat Bernoulliego) Jeżeli przeprowadzono n jednakowych i niezależnych prób, gdzie zdarzenie A
mogło pojawić się w pojedynczej próbie z prawdopodobieństwem p, to prawdopodobieństwo że zaszło ono dokładnie w k próbach
(0 k n) wynosi

n
pk(1 - p)n-k (3.39)
k
Uwaga 3.8 n identycznych prób będziemy nazywać serią (długości n).
Twierdzenie 3.10 (Uogólniony schemat Bernoulliego) Jeżeli przeprowadzono n jednakowych i niezależnych prób, gdzie
w pojedynczej próbie mogły pojawić się dokładnie jedno ze zdarzeń A1, . . . , Ar z prawdopodobieństwem równym odpowiednio
r

p1, . . . pr, gdzie pi = 1, to prawdopodobieństwo że każde zdarzenie Ai zaszło dokładnie ni - razy (0 ni n), gdzie
i=1
"

i = 1, . . . , r i ni = n wynosi
i=r
r

n!
i
pn (3.40)
i
n1! nr!
i=1
Twierdzenie 3.11 (Zagadnienie Poissona) Przeprowadzamy ciąg serii doświadczeń według schematu Bernoulliego tak,
aby w poszczególnych seriach liczb doświadczeń wzrastała do nieskończoności, a jednocześnie prawdopodobieństwo sukcesu pn
dążyło do zera, przy czym npn =  było stałe. Jeżeli oznaczymy przez An,k zdarzenie, że w n - tej serii otrzymano dokładnie
k sukcesów, to
k
lim P (An,k) = e- (3.41)
n"
k!
Twierdzenie 3.12 (Zagadnienie Pascala) Jeżeli przeprowadzono n prób według schematu Bernoulliego, to prawdopodo-
bieństwo że do uzyskania k sukcesów będzie potrzebnych dokładnie n prób wynosi

n - 1
pk(1 - p)n-k (3.42)
k - 1
Twierdzenie 3.13 (Schemat urnowy Pólya) Z urny o b białych i c czarnych kulach losujemy jedną kulę, którą zwracamy
do urny wykonując jeszcze dokładnie jedną z czynności
(i) dodajemy do urny s kul tego samego koloru, co wylosowana kula;
(ii) wyjmujemy z urny s kul tego samego koloru, co wylosowana kula;
(iii) nic nie robimy.
Obliczyć prawdopodobieństwo, że postępując tak n razy wylosujemy dokładnie k razy kulę białą. Kiedy rozwiązanie ma
niezerowe prawdopodobieństwo (dla jakich liczb b, c, s, n i k) ?
3.9 Lemat Borela - Cantelliego
Niech (&!, Ł, P ) będzie przestrzenią probabilistyczną oraz niech {An : n 1} " Ł.
Definicja 3.13 Granicą górną ciągu {An : n 1} (oznaczaną lim sup An) nazywamy zbiór równy
n"
" "

lim sup An def Am (3.43)
=
n"
n=1 m=n
Granicą dolną ciągu {An : n 1} (oznaczaną lim inf An) nazywamy zbiór równy
n"
" "

lim inf An def Am (3.44)
=
n"
n=1 m=n
Lemat 3.1 (Własności granic górnej i dolnej ciągu zbiorów.)

""&!  " lim sup An ! "(n )"RN(nk)-rosnący '" "k"N " An (3.45)
k k
n"

""&!  " lim inf An ! "k"N"N n k " An (3.46)
n"
17

lim sup An = lim inf A (3.47)
n
n"
n"

lim inf An = lim sup A (3.48)
n
n"
n"
Twierdzenie 3.14 (Lemat Borela - Cantelliego)
"

P (An) < +" ! P (lim sup An) = 0 (3.49)
n"
n=1
"

{An : n 1}-układ niezależny '" P (An) = +" ! P (lim sup An) = 1 (3.50)
n"
n=1
18
Rozdział 4
Zmienna losowa jednowymiarowa
4.1 Zmienna losowa i rozkład prawdopodobieństwa
Niech (&!, Ł, P ) będzie przestrzenią probabilistyczną. Rozważmy (R, B(R)), gdzie B(R) jest rodzina zbiorów borelowskich.
Definicja 4.1 Jednowymiarową zmienną losową nazywamy każde odwzorowanie X: &! R takie, że
"B"B(R)X-1(B) " Ł. (4.1)
Uwaga 4.1 Zmienna losowa jest to funkcja Ł - mierzalna.
Uwaga 4.2 Zmienna losowa, to nie zmienna, ale funkcja.
Twierdzenie 4.1 Odwzorowanie X : &! R jest zmienną losową wtedy i tylko wtedy, gdy
"t"RX-1((-", t]) " Ł. (4.2)
Uwaga 4.3 Jest to konsekwencja twierdzeń 2.1 i 2.4.
Uwaga 4.4 Warunek (4.2) można zapisać w postaci
"t"R{ " &! : X() t} " Ł.
Definicja 4.2 Niech (&!, Ł, P ) będzie przestrzenią probabilistyczną, zaś X będzie jednowymiarową zmienną losową. Mówimy,
że zbiór WX jest zbiorem wartości zmiennej losowej X wtedy i tylko wtedy, gdy
"A"RA )" WX = " ! P ({ : X() " A}) = 0. (4.3)

Uwaga 4.5 Zbiór ŁX def A " Ł : "B"B(R)A = X-1(B) jest  - ciałem.
=
Definicja 4.3  - ciałem generowanym przez jednowymiarową zmienną losową X, oznaczam przez (X), nazywamy naj-
mniejsze  - ciało podzbiorów &! zawarte w Ł, dla którego zachodzi warunek
"A"B(R)X-1(A) " (X). (4.4)
Uwaga 4.6 Definicję ta można wypowiedzieć następująco:
 - ciałem generowanym przez jednowymiarową zmienną losową nazywamy najmniesze  - ciało H takie, że zmienna ta jest
H - mierzalna.
Twierdzenie 4.2

(X) = X-1(B) : B " B(R) (4.5)
Definicja 4.4 Rozkładem prawdopodobieństwa zmiennej losowej X nazywamy indukowane odwzorowanie X : R R takie,
że
"B"B(R)X(B) = P (X-1(B)), (4.6)
które jest nieujemny, przeliczalnie addytywne oraz spełnia warunek X(R) = 1.
19
Uwaga 4.7 Będziemy pomijać indeks X, jeżli będzie wiadomo o jakiej zmiennej mówimy.
Uwaga 4.8 Często zamiast mówić o konkretnej zmiennej losowej bedziemy mówili o rozkładach prawdopodobieństwa.
Definicja 4.5 Mówimy, że : R R jest rozkładem prawdopodobieństwa na R wtedy i tylko wtedy, gdy (R, B(R), ) jest
przestrzenią probablistyczną.
4.1.1 Dystrybuanta zmiennej losowej i rozkładu oraz jej własności
Niech (&!, Ł, P ) będzie przestrzenią probabilistyczną i X będzie jednowymiarową zmienną losową określoną na tej przestrzeni.
Uwaga 4.9 Będziemy uzywać następujacego oznaczenia
{X t} a" { " &! : X() t}.
Definicja 4.6 Dystrybuantą jednowymiarowej zmienne losowej nazywamy funkcję FX: R R określoną wzorem
def
FX(t) = P ({X t}) (4.7)
Twierdzenie 4.3 (Własności dystrybuanty) Niech F będzie dystrybuantą jednowymiarowej zmiennej losowej X. Wów-
czas
(i) F jest funkcją niemalejącą.
(ii) F jest funkcją prawostronnie ciągłą.
(iii) lim F (x) = 1.
x+"
(iv) lim F (x) = 0.
x-"
Wniosek 4.1 Dystrybuanta ma co najwyżej przeliczalną ilość punktów nieciągłości.
Twierdzenie 4.4 Jeżeli funkcja F spełnia warunki (i) (iv) twierdzenia (4.3), to jest dystrybuantą pewnego rozkładu.
Uwaga 4.10 Powyższe twierdzenie jest bez dowodu.
Definicja 4.7 Dystrybuantą rozkładu prawdopodobieństwa na R nazywamy funkcję F : R R, określoną zależnością
def
F(t) = ((-", t]). (4.8)
4.1.2 Ciągłe, dyskretne i osobliwe zmienne losowe oraz rozkłady
Niech (&!, Ł, P ) będzie przestrzenią probabilistyczną i X będzie jednowymiarową zmienną losową określoną na tej przestrzeni.
Definicja 4.8 Mówimy, że zmienna losowa X ma rozkład ciągły wtedy i tylko wtedy, gdy istnieje funkcja mierzalna w sensie
Lebesgue a i całkowalna f: R R taka, że

t
"t"RF (t) = f(r)dr. (4.9)
-"
Funkcję f nazywamy gęstością zmiennej losowej.
Definicja 4.9 Funkcję f: R R nazywamy mierzalna w sensie Lebesgue a wtedy i tylko wtedy, gdy
"B"B(R)f-1(B) " ŁL, (4.10)
gdzie ŁL jest  - ciałem zbiorów mierzalnych w sensie Lebesgue a tzn. takich,  dla których możemy zmierzyć ich długość .
Definicja 4.10 Zmienną losową nazywamy dyskretną wtedy i tylko wtedy, gdy jej zbiór wartości jest co najwyżej przeliczalny.
Definicja 4.11 Mówimy, że jednowymiarowa zmienna losowa ma rozkład osobliwy (względem miary Lebesgue a) wtedy i
tylko wtedy, gdy nie jest dyskretna, a pochodna dystrybuanty prawie wszędzie równa jest zero.
Uwaga 4.11  prawie wszędzie oznacza poza zbiorem z  - ciała ŁL, którego długość jest równa zeru.
20
Przyklad 4.1 Niech C będzie zbiorem Cantora. Niech

0 dla r 0
F (r) = .
1 dla r > 1
Jeżeli wyrzucaliśmy z odcinka jego środek to określamy na nim wartość F(r) jako średnią arytmetyczną wartości  na pra-
1 2 1
wo i lewo na nim (np. na odcinku ] , [ wynosi ona . Otrzymana funkcja jest ciągła, niemalejąca oraz granica w plus
3 3 2
nieskończoności wynosi 1, zaś w minus nieskończoności 0. Jest ona dytrybuanta rozkładu Cantora.
Twierdzenie 4.5 (Lebesgue a) Każdą dystrybuanta jednowymiarowej zmiennej losowej X można jednoznacznie przedsta-
wić jako kombinację wypukłą dystrybuant rozkładu dyskretnego, ciągłego i osobliwego tzn.
"a,b,c 0"F ,Fc,Fda + b + c = 1 ! F = a Fo + b Fc + c Fd, (4.11)
o
gdzie Fo - dystrybuanta rozkładu osobliwego, Fc - dystrybuanta rozkładu ciągłego, zaś Fd - dystrybuanta rozkładu dyskretnego.
Uwaga 4.12 Powyższe twierdzenie jest bez dowodu.
Uwaga 4.13 Analogicznie jak dla zmiennych losowych określamy rozkłady prawdopodobieństwa ciągłe i dyskretne.
Definicja 4.12 Jeżeli istnieje funkcja f: R R mierzalna w sensie miary i całkowalna względem tej miary taka, że

t
F(t) = f(x)d(x), (4.12)
-"
to rozkład prawdopodobieństwa nazywamy ciągłym. Funkcje f nazywamy gęstością rozkładu.
Uwaga 4.14 Należy podkreślić, że całka wystepujaca we wzorze 4.12, to nie jest całka liczona tylko względem zmiennej x,
ale względem miary (x).
Definicja 4.13 Rozkład prawdopodobieństwa na R nazywamy dyskretnym wtedy i tylko wtedy, gdy istnieje zbiór co najwyżej
przeliczalny S " R dla którego (S) = 1.
4.1.3 Przekształcenia zmiennej losowej
Niech (&!, Ł, P ) będzie przestrzenią probabilistyczną i X będzie jednowymiarową zmienną losową określoną na tej przestrzeni.
Lemat 4.1 Niech X będzie jednowymiarową zmienną losową o dystrybuancie F. Niech Y=aX+b, gdzie a " R \ {0} oraz
b " R, ma dystrybuantę G. Wówczas


r-b
F dla a > 0
a
G(r) = (4.13)
r-b r-b
1 - F - P { : X() = } dla a < 0
a a
Wniosek 4.2 Jeżeli spełnione są założenia lematu (4.1) oraz zmienna losowa X ma rozkład ciągły, to wówczas


r-b
F dla a > 0
a

G(r) = (4.14)
r-b
1 - F dla a < 0
a
Wniosek 4.3 Jeżeli spełnione są założenia lematu (4.1) oraz f jest gęstością zmiennej losowej X, zaś g zmiennej losowej Y,
to
1 r - b
g(r) = f( ) (4.15)
|a| a
Twierdzenie 4.6 Jeżeli zmienna losowa X ma rozkład ciągły o gęstości f i X(&!) "]a, b[, funkcja  :]a, b[ R jest funkcją
klasy C1(]a, b[) oraz  (x) = 0 dla dowolnego x "]a, b[, to zmienna losowa Y = (X) ma rozkład ciągły o gęstości

g(y) = f(-1(y))|(-1(y)) |(]a,b[)(y) (4.16)
21
n

Twierdzenie 4.7 Niech zmienna losowa X ma rozkład ciągły o gęstości f. Niech X(&!) " I = [ak, bk], gdzie dla dowolnych
k=1
1 k < l n zachodzi ]ak, bk[)"]al, bl[= ". Niech funkcja  : I R będzie funkcją klasy C1(]ak, bk[) oraz  (x) = 0 dla

dowolnego x "]ak, bk[ i dowolnego 1 k n, to zmienna losowa Y = (X) ma rozkład ciągły o gęstości
n

g(y) = f(-1(y))|(-1(y)) |(]a ,bk[)(y) (4.17)
k
k=1
def
1
Przyklad 4.2 Niech f = I[-1,1], Funkcja ta jest gęstością. Niech Ć(r) = r2. Oznaczmy przez g gęstość zmiennej losowej
2
Y = Ć(X). Wtedy
" " 1
g(y) = (f(- y) + f( y)) I[0,1](y).
"
2 y
4.1.4 Dystrybuanta, a gęstość

Lemat 4.2 Niech F : R R będzie niemalejącą i prawostronnie ciągłą. Jeżeli F istnieje prawie wszędzie, to dla dowolnych
a i b

b

F (s)ds F (b) - F (a) (4.18)
a
Wniosek 4.4 Jeżeli F spełnia założenia lematu 4.2, a ponadto
lim F (t) = 1 '" lim F (t) = 0,
t" t-"
to

t "

F (t) F (t) '" F (t) 1 - F (t) (4.19)
-" t

"

Twierdzenie 4.8 Jeżeli F jest dystrybuantą, F istnieje prawie wszędzie oraz F (t) = 1, to F jest gęstością rozkładu
-"
o dystrybuancie F .
4.2 Wartość oczekiwana zmiennej losowej i inne parametry liczbowe
Niech (&!, Ł, P ) będzie przestrzenią probabilistyczną.
Uwaga 4.15 Niech r " R+. Wprowadzimy następujące oznaczenia

|X|rdP < +" ! X " Lr(&!, Ł, P ) a" Lr(&!). (4.20)
&!
Całkę występującą we wzorze (4.20) będziemy rozumieli w sposób następujący
ńł
|x|rf(x)dx X ma rozkład ciągły o gęstości f
ł

ł
R
|X|rdP = " (4.21)

ł
ół |xn|rpk X ma rozkład dyskretny o zbiorze wartości WX,
&!
n=1
gdzie pk = P ({ : X() = xk}).
Definicja 4.14 Niech dla jednowymiarowej zmiennej losowej X zachodzi X " L1(&!, Ł, P ). Wówczas wartością oczekiwaną
zmiennej losowej X nazywamy liczbę

def
E(X) = XdP (4.22)
&!
Twierdzenie 4.9 (Własności wartości oczekiwanej) Niech X i Y będą jednowymiarowymi zmiennymi losowymi. Za-
łóżmy, że istnieją wartości oczekiwane X i Y. Wtedy
(i) Jeżeli X 0, to E(X) 0
(ii) |E(X)| E(|X|)
22
(iii) Dla dowolnych a, b " R istnieje wartość oczekiwana zmiennej losowej aX + bY i wyraża się ona wzorem
E(aX + bY ) = aE(X) + bE(Y ) (4.23)
(iv) (Lemat Fatou) Dla dowolnego ciągu nieujemnych zmiennych losowych {Xn: n 1}
E(lim inf Xn) lim inf E(Xn) (4.24)
n" n"
(v) (Twierdzenie Lebesgue a - Beppo Leviego) Dla dowolnego niemalejącego ciągu nieujemnych zmiennych losowych
{Xn: n 1} zachodzi
E( lim Xn) = lim E(Xn) (4.25)
n" n"
(vi) (Twierdzenie Lebesgue a o zbieżności zmajoryzowanej) Jeżeli dla ciągu zmiennych losowych {Xn: n 1} istnieje
całkowalna zmienna losowa Z taka ,że
"n"N|Xn| Z,
to spełniona jest równość (4.25)
Wniosek 4.5 Jeżeli dla zmiennych losowych Xi (i = 1, . . . , n) istnieją ich wartości oczekiwane, to
E(X1 + . . . + Xn) = E(X1) + . . . + E(Xn) (4.26)
Wniosek 4.6 Jeśli zmienna losowa X ma rozkład dyskretny o zbiorze wartości WX, to wartość oczekiwana zmiennej losowej

(X) istnieje wtedy i tylko wtedy, gdy szereg |(x)|P ({x}) jest zbieżny. Ponadto wartość oczekiwana wyraża się wzorem
x"WX

E((X)) = (x)P ({x}) (4.27)
x"WX
Przyklad 4.3 Zmienna losowa o gęstości1
1 1
f(r) = (4.28)
Ą 1 + r2
nie posiada wartości oczekiwanej.
Przed podaniem uogólnienia wartośc oczekiwanej sformułujmy następujący lemat

Lemat 4.3 Niech R r 1 oraz q " [1, r]. Wtedy jeżeli jest skończona całka |X|rdP , to jest skończona całka |X|qdP .
&! &!
Uwaga 4.16 Pojęcie wartości oczekiwanej można uogólnić zastępując warunek całkowalności innym.
Definicja 4.15 Niech R r 1, zaś a liczbą rzeczywistą, X jednowymiarową zmienną losową. Niech zmienna losowa X
będzie całkowalna z r - tą potęgą.2
(i) Momentem zwykłym rzędu r względem liczby a zmiennej losowej X nazywamy liczbę równą

def
E((X - a)r) = (X - a)rdP, (4.29)
&!
o ile wyrażenie występujące pod całką jest określone.3
(ii) Momentem absolutnym rzędu r względem liczby a zmiennej losowej X nazywamy liczbę równą

def
E(|X - a|r) = |X - a|rdP (4.30)
&!
(iii) Jeżeli a = 0, to są to momenty zwykłe lub absolutne rzędu r.
(iv) Jeżeli a = E(X) otrzymujemy momenty centralne rzędu r zwykłe i absolutne.
1
Jest to rozkład Cauchy ego
2
Nie trzeba zakładać, że całkowalna z r - tą potęgą jest zmienna X - a na podstawie lematu 4.3 i z faktu, że funkcja stała jest całkowalna
względem miary probabilistycznej.
3
Jest ono zawsze określone, gdy r " N.
23
Definicja 4.16 Niech X " L2(&!). Liczbę D2(X) równą
def
D2(X) = E((X - E(X))2) (4.31)
nazywamy wariancją zmiennej losowej X.
Wniosek 4.7 Niech X " L2(&!). Wtedy D2(X) = E(X2) - (E(X))2.
Twierdzenie 4.10 Niech X " L2(&!). Wówczas4
D2(X) 0 (4.32)
"a"R D2(aX) = a2D2(X) (4.33)
"a"R D2(X + a) = D2(X) (4.34)
D2(X) = 0 ! "a"RP ({ : X() = a}) = 1 (4.35)
Wniosek 4.8 Niech X " L2(&!). Wtedy

|E(X)| E(X2) (4.36)
Wniosek 4.9 Niech X " L2(&!). Wtedy
D2(X) = inf E((X - a)2) (4.37)
a"R
Definicja 4.17 Niech X " L2(&!). Odchyleniem standardowym zmiennej losowej X nazywamy liczbę równą

(X) a" D(X) = D2(X) (4.38)
Definicja 4.18 Niech X " L1(&!). Odchyleniem przeciętnym zmiennej losowej X nazywamy liczbę równą

def
d(X) = |X - E(X)|dP (4.39)
&!
Definicja 4.19 Niech X " L2(&!) oraz E(X) = 0. Współczynnikiem zmienności zmiennej losowej X nazywamy liczbę równą

D(X)
X def (4.40)
=
E(X)
Definicja 4.20 Niech EX " L3(&!) oraz D2(X) = 0. Współczynnikiem asymetrii (skośności) zmiennej losowej X nazywamy

liczbę równą
E((X
def - E(X))3)
ł(X) = (4.41)
((X))3
Definicja 4.21 Niech X " L1(&!) oraz 0 = E(X). Wskaznikiem nierównomierności zmiennej losowej X nazywamy liczbę

równą
d(X)
def
H(X) = (4.42)
E(X)
4.3 Parametry pozycyjne rozkładów
Definicja 4.22 Niech p "]0, 1[. Kwantylem rzędu p nazywamy liczbę xp taką, że
P ({ : X() xp}) p '" P ({ : X() xp}) 1 - p (4.43)
1
Definicja 4.23 Medianą nazywamy kwantyl rzędu i oznaczamy ją Me.
2
Definicja 4.24 Modą (dominantą) nazywamy w przypadku rozkładu dyskretnego wartość zmiennej losowej o największym
prawdopodobieństwie, zaś w przypadku rozkładu ciągłego każde maksimum lokalne gęstości.
Oznaczamy ją Mo.
Definicja 4.25 Odchyleniem ćwiartkowym5 nazywamy liczbę
x 3 - x 1
def
4 4
Q = (4.44)
2
4
Równoważność warunku 4.35 zostanie pokazana pózniej.
5
Jest to parametr liczbowy
24
4.4 Przykłady jednowymiarowych rozkładów
4.4.1 Rozkłady dyskretne
Przyklad 4.4 (Rozkład jednopunktowy)
WX = {x1} i P ({x1}) = 1. (4.45)
E(X) = x1 D2(X) = 0
Przyklad 4.5 (Rozkład dwupunktowy) Niech p "]0, 1[.
WX = {x1, x2} , x1 = x2, P ({x1}) = p, P ({x2}) = 1 - p. (4.46)

W szczególnym przypadku, gdy x1 = 0, zaś x2 = 1 taki rozkład nazywamy rozkładem zero - jedynkowym.
E(X) = px1 + (1 - p)x2 D2(X) = p(1 - p)(x1 - x2)2
Uwaga 4.17 Jeżeli zbiór wartości dyskretnego rozkładu X jest podzbiorem zbioru liczb naturalnych, to przyjmujemy nastę-
pujące oznaczenie

P ({ : X() = k}) dla k " WX
pk ozn (4.47)
=
0 dla k " WX
/
Przyklad 4.6 (Rozkład dwumianowy (Bernoulliego) z parametrami n i p) Niech p " [0, 1] oraz n " N.

n
WX = {0, 1, . . . , n} , pk = pk(1 - p)n-k (4.48)
k
E(X) = np D2(X) = np(1 - p)
Przyklad 4.7 (Rozkład Poissona z parametrem ) Niech  " R+.
k
WX = {0} *" N, pk = e- (4.49)
k!
E(X) =  D2(X) = 
Przyklad 4.8 (Rozkład geometryczny z parametrem p) Niech p "]0, 1[.
WX = N, pk = p(1 - p)k-1. (4.50)
1-p
1
E(X) = D2(X) =
p p2
Przyklad 4.9 (Rozkład ujemny dwumianowy z parametrami p,ą) Niech p "]0, 1[ oraz ą > 0.

ą + k - 1
WX = {0} *" N, pk = pą(1 - p)k. (4.51)
k
ą(1-p) ą(1-p)
E(X) = D2(X) =
p p2
Przyklad 4.10 (Rozkład Pascala z parametrem p6)

l - 1
WX = {k, k + 1, . . .} , pl = pk(1 - p)l-k. (4.52)
k - 1
Lub inaczej

l + k - 1
WX = {0} *" N, pl = pk(1 - p)l. (4.53)
k - 1
k(1-p) k(1-p)
E(X) = D2(X) =
p p2
Przyklad 4.11 (Rozkład hipergeometryczny z parametrami a, b, n) Niech a + b > n oraz a n i b n.
a
b
k n-k
WX = {0, 1, . . . , n} , pk = a+b . (4.54)
n
abn(a+b-n)
an
E(X) = D2(X) =
a+b (a+b)2(a+b-1)
25
4.4.2 Rozkłady ciągłe
Przyklad 4.12 (Rozkład równomierny na odcinku ]a, b[ ) Niech a, b " R oraz a < b

1
dla r "]a, b[
def
b-1
f(r) = (4.55)
0 dla r "]a, b[
/
(b-a)2
a+b
E(X) = D2(X) =
2 12
Przyklad 4.13 (Rozkład wykładniczy z parametrem ) Niech  " R+

def e-r dla r > 0
f(r) = e-r]0,"[(r) a" (4.56)
0 dla r 0
1 1
E(X) = D2(X) =
 2
Przyklad 4.14 (Rozkład Laplace a z parametrem ) Niech  " R+
1
def
f(r) = e-|r| (4.57)
2
2
E(X) = 0 D2(X) =
2
Przyklad 4.15 (Rozkład Cauchy ego z parametrami a, b) Niech a " R oraz b " R+
1 b
def
f(r) = (4.58)
Ą b2 + (r - a)2
Nie posiada wartości oczekiwanej, a więc i wariancji.
Przyklad 4.16 (Rozkład normalny (Gaussa) z parametrami m, ) Niech m " R oraz  " R+

1 (r - m)2
def
"
f(r) = exp - (4.59)
22
2Ą
E(X) = m D2(X) = 2
Przyklad 4.17 (Rozkład gamma z parametrami b, p.) Niech b, p " R+
bp
def
f(r) = xp-1e-br]0,+"[(r) (4.60)
(p)
p p
E(X) = D2(X) =
b b2
Przyklad 4.18 (Rozkład beta z parametrami p, q) Niech p, q " R+
1
def
f(r) = xp-1(1 - x)q-1[0,1](r) (4.61)
(p, q)
p pq
E(X) = D2(X) =
p+q (p+q)2(p+q+1)
4.5 Nierówność dla zmiennych losowych
Twierdzenie 4.11 (Nierówność Schwarza) Niech X, Y " L2(&!). Wówczas zmienna losowa XY " L1(&!) oraz

2
E(|XY |) E(X2)E(Y ) (4.62)
Wniosek 4.10 Niech X, Y " L2(&!). Wówczas

2
|E(XY )| E(X2)E(Y ) (4.63)
Twierdzenie 4.12 (Nierówność Jensena) Niech X " L1(&!). Wówczas dla dowolnej funkcji wypukłej Ć: R R takiej,
że Ć(X) " L1(&!) zachodzi
Ć(E(X)) E(Ć(X)) (4.64)
26
Twierdzenie 4.13 (Nierówność Hldera) Niech R p > 1 oraz R q > 1 oraz p-1 + q-1 = 1. Niech X " Lp(&!) oraz
Y " Lq(&!). Wówczas zmienna losowa XY " L1(&!) oraz
1 1
p q
E(|XY |) (E(|X|p)) (E(|Y |q)) (4.65)
Twierdzenie 4.14 (Nierówność Czebyszewa) Niech zmienna losowa X będzie nieujemna.7 Wówczas
E(X)
">0P ({ : X() }) (4.66)

Definicja 4.26 Dana jest zmienna losowa X. Supremum istotnym zmiennej losowej nazywamy
def
esssup X = inf sup {|X()} (4.67)
E"Ł:P (E)=0
"&!\E
Uwaga 4.18 Warunek definicji 4.67 może być zapisany następująco
def
esssup X = inf {FX(t) = 1} (4.68)
t"R
Twierdzenie 4.15 (Uogólniona nierówność Czebyszewa) Niech Ć: R R będzie dodatnią funkcją borelowską. Jeżeli
Ć(X) " L1(&!) to wówczas:
(i) Jeżeli Ć jest niemalejąca, to
E(Ć(X)) - Ć() E(Ć(X))
">0 P ({ : X() }) (4.69)
esssup Ć(X) Ć()
(ii) Jeżeli Ć jest parzysta i niemalejąca na [0, +"[, to
E(Ć(X)) - Ć() E(Ć(X))
">0 P ({ : |X()| }) (4.70)
esssup Ć(X) Ć()
Uwaga 4.19 Można osłabić założenia o funkcji Ć w twierdzeniu 4.15(ii) następująco
Jeżeli Ć: R R jest funkcją nieujemną, parzystą, Ć a" 0 oraz niemalejącą na ]0, +"[, to
E(g(X)) - g() E(Ć(X))
">0Ć() > 0 ! P ({ : |X()| }) (4.71)
esssup Ć(X) Ć()
Wniosek 4.11 (Nierówność Markowa) Niech R p > 0. Wówczas o ile X " Lp(&!), to
E(|X|p)
">0P ({ : |X()| }) (4.72)
p
Wniosek 4.12 (Nierówność Czebyszewa - Bienaym) O ile X " L2(&!), to
D2(X)
">0P ({ : |X() - E(X)| }) (4.73)
2
Wniosek 4.13 (Nierówność wykładnicza Czebyszewa) O ile dla pewnego p > 0 jest epX " L1(&!), to
eX)
""[0,p]">0P ({ : X() }) (4.74)
e
4.6 Niezależne zmienne losowe  po raz pierwszy
Dana jest przestrzeń probabilistyczna (&!, Ł, P ) oraz jednowymiarowe zmienne losowe X1, . . . , Xn określone na niej.
Definicja 4.27 Mówimy, że zmienne losowe X1, . . . , Xn są niezależne wtedy i tylko wtedy, gdy
n

"{A ,...,An}"B(R)P ({ : Xi() " Ai '" i = 1, . . . , n}) = P ({ : Xi() " Ai}) (4.75)
1
i=1
7
Obejmuje też przypadek  trywialny , gdy jest nieskończona wartość oczekiwana
27
Twierdzenie 4.16 Dla zmiennych losowych X1, . . . , Xn następujące warunki są równoważne
(i) zmienne są niezależne,
(ii) (X ,...,Xn) = X " . . . " X ,
1 1 n
Twierdzenie 4.17 Dyskretne zmienne losowe X1, . . . , Xn są niezależne wtedy i tylko wtedy, gdy
n

"(a ,...,an)"(WX1 ...WXn ){1,...,n}P ({ : Xi() = xi '" i = 1, . . . , n}) = P ({ : Xi() = xi}) (4.76)
1
i=1
Definicja 4.28 Zmienne losowe (Xą)ą" określone na tej samej przestrzeni probabilistycznej nazywamy niezależnymi wtedy
i tylko wtedy, gdy dla każdego skończonego ciągu indeksów i1, . . . , in, gdzie i " N, zmienne losowe Xi , . . . , Xi są niezależne.
1 n
28
Rozdział 5
Funkcje tworzące
Definicja 5.1 Niech dany będzie ciąg liczbowy (an). Funkcja tworzącą ciągu (an) nazywamy szereg potęgowy
"

def
T (s) = ansn,
n=1
o ile ma on niezerowy promień zbieżności.

n
Uwaga 5.1 Promień zbieżności szeregu potęgowego jest niezerowy wtedy i tylko wtedy, gdy lim sup |an| < +".
n"
Niech dana będzie przestrzeń probabilistyczna (&!, Ł, P ). Niech dyskretna zmienna losowa X, dla której WX ą" {0} *" N,
będzie określona na tej przestrzeni. Przyjmijmy oznaczenia
pk ozn P ({ : X() = k})
=
oraz
"

qk ozn P ({ : X() > k}) = pn.
=
n=k+1
Definicja 5.2 Funkcję tworzącą ciągu (pn) nazywamy funkcją tworzącą prawdopodobieństwa i oznaczamy ją P (s).
Funkcję tworzącą ciągu (qn) nazywamy funkcją tworzącą reszt (ogonów) i oznaczamy ją Q(s).
Uwaga 5.2 Zauważmy, że P (s) = E(sX).
Lemat 5.1 P (1) = 1
Twierdzenie 5.1 Niech X " L1(&!). Wówczas
(i) Q(s) jest bezwzględnie zbieżny dla |s| 1

(ii) P (s) jest bezwzględnie zbieżny dla |s| 1
(iii) E(X) = Q(1)

(iv) E(X) = P (1)
1-P (s)
Twierdzenie 5.2 (i) Jeżeli |s| < 1, to Q(s) =
1-s
(ii) Jeżeli X " L1(&!), to dla |s| 1 mamy (1 - s)Q(s) = 1 - P (s).

Twierdzenie 5.3 Jeżeli X " L1(&!), to P (s) = Q(s) - (1 - s)Q (s).
(2)
Twierdzenie 5.4 Jeżeli X " L2(&!), to P (s) = 2Q (s) + (1 - s)Q(2)(s).
Wniosek 5.1 Jeżeli X " L2(&!), to
(2)
D2(X) = P (1) + P (1) - (P (1))2 = 2Q (1) + Q(1) - (Q(1))2.
29
Rozdział 6
Zbieżności zmiennych losowych
6.1 Rodzaje zbieżności zmiennych losowych i ich wzajemne zależności
Niech (&!, Ł, P ) będzie przestrzenią probabilistyczną oraz {Xn : n 1} ciągiem zmiennych losowych określonych na tej
przestrzeni.
Definicja 6.1 Mówimy, że ciąg {Xn : n 1} zmiennych losowych jest zbieżny do zmiennej losowej X
(i) prawie na pewna wtedy i tylko wtedy, gdy

P { : lim Xn() = X()} = 1 (6.1)
n"
p.n.
oznaczamy Xn - X;
(ii) według prawdopodobieństwa wtedy i tylko wtedy, gdy
">0 lim P ({ : |Xn() - X()| > }) = 0 (6.2)
n"
oznaczamy Xn -P X;

(iii) według p - tego momentu dla 0 < p < +" wtedy i tylko wtedy, gdy
X " Lp(&!) '" "n"NXn " Lp(&!) '" lim E(|Xn - X|p) = 0 (6.3)
n"
Lp
oznaczamy Xn - X.
p.n. p.n.
Twierdzenie 6.1 Niech Xn - X oraz Yn - Y . Wówczas
p.n
(i) dla dowolnych a, b " R zachodzi aXn + bYn - aX + bY
p.n
(ii) XnYn - XY
p.n
1 1
(iii) jeśli P ({ : X() = 0}) = 1, to {:X() =0} Xn -

X
Twierdzenie 6.2 Następujące warunki są równoważne
p.n.
Xn - X (6.4)

"

">0 lim P { : |Xk() - X()| } = 1 (6.5)
n"
k=n
"

">0 lim P { : |Xk() - X()| > } = 0 (6.6)
n"
łk=n ł
"

ł
">0 lim P { : |Xk() - Xl()| }łł = 1 (6.7)
n"
k,l n
30
Wniosek 6.1 Jeśli
"

">0 P ({ : |Xn() - X()| > }) < ",
n=1
p.n.
to Xn - X.
p.n.
Wniosek 6.2 Jeśli Xn - X, to Xn -P X.

Lp Lp
Twierdzenie 6.3 Jeśli Xn - X, to Xn -P X. Gdy dodatkowo "K"n 1|Xn| K, to jeśli Xn -P X, to Xn - X.

p.n.
Twierdzenie 6.4 Niech Xn - X i niech istnieje R p > 0 oraz zmienna losowa Z taka, że
(i) "n"N|Xn|p Zp
(ii) E(Zp) < +".
Lp
Wtedy Xn - X.
Lp Lq
Twierdzenie 6.5 Niech p 1 oraz Xn - X. Wtedy dla dowolnego q " [1, p] zachodzi Xn - X.
Przyklad 6.1 Niech dany będzie ciąg {An : n 1} zdarzeń niezależnych takich, że
"

(i) P (An) = +",
n=1
(ii) lim P (An) = 0.
n"
Wtedy dla ciągu zmiennych losowych (Xn = A ) zachodzi
n
Lp
(1) Xn - 0;
(2) Xn -P 0

p.n.
oraz nie zachodzi Xn - 0.
1
Przyklad 6.2 Niech &! =]0, 1] i An def]0, ] dla n " N. Wtedy dla ciągu zmiennych losowych (Xn = 2nA ) zachodzi
=
n
n
p.n.
(1) Xn - 0;
(2) Xn -P 0

Lp
oraz nie zachodzi Xn - 0.
p.n.
Twierdzenie 6.6 (Twierdzenie Riesza) Jeśli Xn -P X, to, to istnieje podciąg (Xn ) taki, że Xn - X.

k k
Twierdzenie 6.7 Ciąg zmiennych losowych jest zbieżny według prawdopodobieństwa wtedy i tylko wtedy, gdy każdy jego
podciąg zawiera podciąg zbieżny prawie na pewno.
Wniosek 6.3 Niech Xn -P X, f będzie funkcją ciągłą na zbiorze A oraz P ({ : X() " A}) = 1, to f(Xn) -P f(X)

Twierdzenie 6.8 Niech Xn -P X oraz Yn -P Y . Wówczas

(i) dla dowolnych a, b " R zachodzi aXn + bYn -P aX + bY

(ii) XnYn -P XY

1
(iii) jeśli P ({ : X() = 0}) = 1, to {:X() =0} Xn -P 1

X
Twierdzenie 6.9 Następujące warunki są równoważne
Xn -P X (6.8)


|Xn - X|p
"p>0 lim E = 0 (6.9)
n"
1 + |Xn - X|p

|Xn - X|p
"p>0 lim E = 0 (6.10)
n"
1 + |Xn - X|p
6.2 Prawo 0  1 Kołmogorowa
Niech dana będzie przestrzeń probabilistyczna (&!, Ł, P ). Rozpatrzmy ciąg  - ciał {Łn : n 1}
31
Definicja 6.2

"

Łn," def a Łn (6.11)
=
k=n
 - ciałem ogonowym lub resztowym nazywamy  - ciało Ł" równe
"

Ł" def Łn," (6.12)
=
n=1
Wniosek 6.4
Łn," " Łn+1," (6.13)
Twierdzenie 6.10 (Prawo 0  1 Kołmogorowa) Jeżeli  - ciała Łn n " N są niezależne oraz A " Ł", to wówczas
P (A) = 0 albo P (A) = 1.
"

Wniosek 6.5 Dany jest ciąg {Xn : n 1} niezależnych zmiennych losowych. Wówczas szereg Xn jest zbieżny bądz
n=1
rozbieżny prawie na pewno (z prawdopodobieństwem 1).
6.3 Nierówności typu Czebyszewa dla sum zmiennych losowych
Niech (&!, Ł, P ) będzie ustalona przestrzenią probabilistyczną, a {Xn : n 1} będzie niezależnym ciągiem zmiennych losowych
określonych na tej przestrzeni.
n

Sn ozn Xk.
=
k=1
Twierdzenie 6.11 (Nierówność Lvy ego - Ottavianiego) Niech X1, . . . , Xn będą niezależnymi zmiennymi losowymi.
Wówczas



">0P { : max |Si()| > } 3 max P { : |Si()| > } (6.14)
1 i n 1 i n 3
Jeżeli ponadto zmienne losowe mają rozkład symetryczny1, to

">0P { : max |Si()| > } 2P ({ : |Sn()| > }) (6.15)
1 i n
Twierdzenie 6.12 (Nierówność Kołmogorowa) Niech X1, . . . , Xn będą niezależnymi zmiennymi losowymi o zerowej
wartości oczekiwanej i skończonym drugim momencie. Wówczas

2
E(Sn)
">0P { : max |Si()| } (6.16)
1 i n 2
6.4 Zbieżności szeregów zmiennych losowych
Niech dany będzie ciąg {Xn : n 1} niezależnych zmiennych losowych określonych na tej samej przestrzeni probabilistycznej
(&!, Ł, P ).
Twierdzenie 6.13 (O dwóch szeregach) Niech każda ze zmiennych losowych Xn posiada skończony moment rzędu dwa.
" " "

Jeżeli szeregi E(Xn) i D2(Xn) są zbieżne, to szereg Xn jest zbieżny prawie na pewno.
n=1 n=1 n=1
Niech c > 0. Wprowadzmy oznaczenie

X dla |X| c
Xc ozn
=
0 dla |X| > c
1
Zmienna losowa X ma rozkład symetryczny wtedy i tylko wtedy, gdy X i -X mają ten sam rozkład
32
"

Twierdzenie 6.14 (O trzech szeregach) Warunkiem koniecznym zbieżności prawie na pewna szeregu Xn niezależ-
n=1
nych zmiennych losowych jest zbieżność dla każdego c > 0 szeregów
" " "

c c
E(Xn) D2(Xn) P ({ : |Xn()| > c}) . (6.17)
n=1 n=1 n=1
Warunkiem dostatecznym jest zbieżność tych szeregów przy pewnym c > 0.
"

Twierdzenie 6.15 (Lvy ego) Szereg Xn niezależnych zmiennych losowych jest zbieżny prawie na pewna wtedy i tylko
n=1
wtedy, gdy jest on zbieżny według prawdopodobieństwa.
6.5 Prawa wielkich liczb
Niech {Xn : n 1} będzie ciągiem zmiennych losowych posiadających wartość oczekiwaną. Wprowadzmy oznaczenie
n

Sn = Xk.
k=1
Definicja 6.3 Mówimy, że ciąg zmiennych losowych {Xn : n 1} spełnia mocne prawo wielkich liczb (MPWL) wtedy i tylko
wtedy, gdy
Sn - E(Sn)
p.n.
- 0. (6.18)
n
Mówimy, że ciąg zmiennych losowych {Xn : n 1} spełnia słabe prawo wielkich liczb (SPWL) wtedy i tylko wtedy, gdy
Sn - E(Sn)
P
- 0. (6.19)
n
Definicja 6.4 Niech dane będą zmienne losowe X, Y okreslone na tej samej przestrzeni probabilistycznej (&!, Ł, P ) spełniające
warunek X, Y, XY " L1(&!). Mówimy, że zmienne losowe X i Y sa nieskorelowane wtedy i tylko wtedy, gdy
E(XY ) - E(X)E(Y ) = 0. (6.20)
Powyższy warunek można zapisać w postaci
E((X - E(X))(Y - E(Y ))) = 0. (6.21)
Wniosek 6.6 Jeżeli zmienne losowe sa niezależne, to sa nieskorelowane.
Twierdzenie 6.16 Niech ciąg zmiennych losowych {Xn : n 1} posiadających drugi moment spełnia jeden z warunków
D2(Sn)
(i) lim = 0
n2
n"
(ii) zmienne losowe Xn są parami nieskorelowane i mają wspólnie ograniczoną wariancję.
Wówczas ciąg {Xn : n 1} spełnia SPWL.
Uwaga 6.1 Założenie (ii) w twierdzeniu 6.16 można osłabić wymagając aby
D2(Xn) Cną, ą "]0, 1[. (6.22)
Twierdzenie 6.17 (Słabe prawo wielkich liczb Bernoulliego) Jeżeli przez Sn oznaczymy liczbę sukcesów w schemacie
Bernoulliego n prób z prawdopodobieństwem sukcesu w pojedynczej próbie równym p, to

Sn()

">0 lim P  : - p >  = 0 (6.23)

n"
n
Lemat 6.1 (Twierdzenie Toeplitza) Niech {an : n 1} będzie ciągiem licz nieujemnych i niech ciąg {bn : n 1} będzie
n

ciągiem rosnącym liczb dodatnich określonych następująco bn def ak. Wówczas jeżeli ciąg (xn) jest ciągiem zbieżnym o
=
k=1
granicy równej x, to
n

1
lim akxk = x. (6.24)
n"
bn k=1
33
Lemat 6.2 (Twierdzenie Kroneckera) Niech {bn : n 1} będzie rosnącym ciągiem liczb dodatnich rozbieżnym do nie-
"

skończoności, a {xn : n 1} ciągiem liczb rzeczywistych takim, że szereg xn jest zbieżnym. Wtedy
n=1
n

1
lim bkxk = 0. (6.25)
n"
bn k=1
"

yn yn y1+...+yn
W szczególności jeśli bn = n oraz xn = zachodzi Jeżeli szereg jest zbieżny, to lim = 0.
n n n
n"
n=1
Twierdzenie 6.18 (Kołmogorowa) Niech {Xn : n 1} będzie ciągiem niezależnych zmiennych losowych dla których
istnieje moment rzędu dwa. Niech {bn : n 1} będzie rosnącym ciągiem liczb dodatnich takich, że lim bn = +" i
n"
"

D2(Xn)
< +". Wtedy
b2
n
n=1
Sn - E(Sn)
lim = 0 p.n. (6.26)
n"
bn
"

D2(Xn)
W szczególności, jeżeli < +", to ciąg {Xn : n 1} spełnia MPWL.
n2
n=1
Niech {Xn : n 1} będzie ciągiem zmiennych losowych posiadających wartość oczekiwaną. Wprowadzmy oznaczenie
n

Sn = Xk.
k=1
Lemat 6.3 Niech X będzie nieujemną zmienna losową. Wtedy
" "

P ({ : X() k}) E(X) 1 + P ({ : X() k}) (6.27)
n=1 n=1
Wniosek 6.7 Jeżeli nieujemna zmienna losowa X posiada skończona wartość oczekiwaną, to
"

P ({ : X() k}) < +".
n=1
Wniosek 6.8 Jeżeli dla nieujemnej zmiennej losowej X zachodzi
"

P ({ : X() k}) < +",
n=1
to posiada ona skończoną wartość oczekiwaną.
Twierdzenie 6.19 (MPWL Kołmogorowa) Niech {Xn : n 1} będzie ciągiem niezależnych zmiennych losowych o
jednakowych rozkładach i posiadających wartość oczekiwaną. Wtedy ciąg {Xn : n 1} spełnia MPWL.
Twierdzenie 6.20 (Chinczyna) Ciąg {Xn : n 1} zmiennych losowych parami niezależnych o jednakowym rozkładzie i
skończonej wartości spełnia SPWL.
6.6 Twierdzenie Moivre a - Laplace a  lokalne i globalne
Będziemy rozważać schemat n prób Bernoulliego z prawdopodobieństwem sukcesu w pojedynczej próbie równym p (praw-
dopodobieństwo porażki oznaczymy q) oraz ilością sukcesów równą k.
Przyjmijmy następujące oznaczenia

n
B(k, n, p) = pkqn-1 (6.28)
k
1
ozn
h = (6.29)
"
npq
k ozn k - np (6.30)
=
k
xk ozn a" kh. (6.31)
=
"
npq
34
Mamy wtedy
n - k = nq - k (6.32)
k
= 1 + xkqh (6.33)
np
n - k
= 1 - xkph. (6.34)
nq
1
Twierdzenie 6.21 (Moivre a - Laplace a lokalne) Jeżeli h|xk| max {p, q} , to
2
x2
1 k
2
B(k, n, p) = " e- eR(n,k), (6.35)
2Ąnpq
przy czym
3 1 1
|R(n, k)| |xk|h + |xk|3h + . (6.36)
4 3 3n
W szczególności jeżeli n i k zbiegają do nieskończoności w taki sposób, że hx3 zbiega do zera, to R(n, k) również zbiega do
k
zera.
Przyjmijmy oznaczenie
h
ozn
xaą h = xa ą .
2
2
Przez Ś będziemy oznaczać dystrybuantę rozkładu normalnego N(0, 1).
1
Twierdzenie 6.22 (Moivre a - Laplace a globalne) Jeżeli h max {|xa|, |xb|} |xk| max {p, q} , to
2

P ({ : a Sn() b}) = Ś(xb+ 1 ) - Ś(xa- 1 ) eD(n,a,b), (6.37)
2 2
gdzie

5 1 1 h2
|D(n, a, b)| max |xk|h + |xk|3h + + . (6.38)
k"{a,b} 4 3 3n 8

W szczególności jeżeli n zbiega do nieskończoności, zaś a i b zmieniają się tak, że max x3h, x3h zbiega do zera, to D(n, a, b)
a b
również zbiega do zera oraz
P ({ : a Sn() b}) <" Ś(xb+ 1 ) - Ś(xa- 1 ) (6.39)
2 2
P ({ : a Sn() b}) <" Ś(xb) - Ś(xa) (6.40)
35
Rozdział 7
Zmienna losowa wielowymiarowa
Uwaga 7.1 Pojęcie wielowymiarowej zmiennej losowej jest zupełnie analogiczne, jak zmiennej losowej jednowymiarowej. Ze
względu na to, że zmienne losowe wielowymiarowe są wprowadzane w trakcie wykładu Rachunek prawdopodobieństwa II
przytaczane są jeszcze raz praktycznie te same pojęcia.
Niech (&!, Ł, P ) będzie ustaloną przestrzenią probabilistyczną. Niech ponadto n " N.
Definicja 7.1 Zmienną losową n - wymiarową nazywamy każde odwzorowanie mierzalne X z (&!, Ł) w (Rn, B(Rn)) tzn.
"A"B(Rn X-1(A) " Ł (7.1)
)
Lemat 7.1 Jeżeli odwzorowanie X : &! Rn spełniające warunek
"t ,...,tn"RX-1((-", t1] . . . (-", t1]) " Ł (7.2)
1
jest n - wymiarową zmienną losową.
Twierdzenie 7.1 Niech X będzie n - wymiarową zmienną losową, zaś  : Rn Rm będzie funkcją borelowską. Wtedy (X)
jest m - wymiarową zmienną losową.
Definicja 7.2 Rozkładem prawdopodobieństwa na Rn nazywamy każdą miarę probabilistyczną na B(Rn).
Definicja 7.3 Rozkładem prawdopodobieństwa n - wymiarowej zmiennej losowej X nazywamy rozkład prawdopodobieństwa
X określony na B(Rn) zależnością
def
"B"B(Rn X(B) = P (X-1(B)) (7.3)
)
Uwaga 7.2 Oznaczamy
P (X-1(B)) = P ({ : X() " B}) = P ({X " B}).
7.1 Dystrybuanta zmiennej losowej
Niech (&!, Ł, P ) będzie ustaloną przestrzenią probabilistyczną. Niech ponadto n " N.
Definicja 7.4 Dystrybuantą rozkładu prawdopodobieństwa na Rn nazywamy funkcję F : Rn R, określoną zależnością
def
F(t1, . . . , tn) = ((-", t1] . . . (-", tn]). (7.4)
Uwaga 7.3 Jeżeli X jest rozkładem n - wymiarowej zmiennej losowej X, to dystrybuantę F będziemy nazywać dystry-
X
buantą zmiennej losowej X i oznaczać przez FX. Wtedy
F (t1, . . . , tn) = P ({X1 t1 '" . . . '" Xn tn}) (7.5)
X
Uwaga 7.4 W literaturze spotyka się również definicję dystrybuanty rozkładu z przedziałami otwartymi.
36
Twierdzenie 7.2 Dystrybuanta F rozkładu prawdopodobieństwa na Rn ma następujące własności:
(i) F jest niemalejąca względem każdego argumentu.
(ii) lim F (x1, . . . , xn) = 0
inf xi-"
1 i n
(iii) lim F (x1, . . . , xn) = 1
inf xi+"
1 i n
(iv) F jest prawostronnie ciągła względem każdego argumentu
(v) Zachodzi
n

k

k=1
"1 k nxk yk ! (-1) F(U()) 0, (7.6)
"{0,1}{1,...,n}
gdzie
U() = (1x1 + (1 - 1)y1, . . . , nxn + (1 - n)yn).
Twierdzenie 7.3 Jeżeli i  są rozkładami prawdopodobieństwa na Rn i F = F, to dla dowolnego zbioru A " B(Rn)
zachodzi (A) = (A).
Twierdzenie 7.4 Jeżeli funkcja F spełnia warunki twierdzenia 7.2, to istnieje taki rozkład prawdopodobieństwa na Rn,
że F = F
7.2 Rozkłady ciągłe i dyskretne
Niech (&!, Ł, P ) będzie ustaloną przestrzenią probabilistyczną. Niech ponadto n " N.
Definicja 7.5 Jeżeli jest rozkładem prawdopodobieństwa na Rn i dla pewnej funkcji f : Rn R całkowalnej w sensie
Lebesgue a mamy

"A"B(Rn (A) = f(x)dm(x), (7.7)
)
A
to f nazywamy gęstością rozkładu .
Definicja 7.6 Jeżeli dla rozkładu prawdopodobieństwa na Rn istnieje gęstość, to taki rozkład nazywamy ciągłym.
Twierdzenie 7.5 Niech f będzie gęstością rozkładu prawdopodobieństwa na Rn. Wtedy

(i) f(x)dm(x) = (Rn) = 1.
Rn
(ii) f 0 p.w.
(iii) Gęstość jest wyznaczona jednoznacznie z dokładnością do zbiorów miary Lebesgue a zero.
Ponadto każda funkcja f : Rn R spełniająca warunki (i) i (ii) jest gęstością.
Definicja 7.7 Rozkład na Rn nazywamy dyskretnym wtedy i tylko wtedy, gdy istnieje zbiór co najwyżej przeliczalny S " Rn
dla którego (S) = 1.
7.3 Rozkłady brzegowe
Lemat 7.2 Niech będzie rozkładem prawdopodobieństwa na Rn. Określmy dla dowolnego B " B(R) i 1 j n funkcję
def
j(B) = (R . . . R B R . . . R). (7.8)

j
Wtedy j jest rozkładem prawdopodobieństwa na R.
Definicja 7.8 Funkcję j występującą w lemacie 7.2 nazywamy jednowymiarowym rozkładem brzegowym.
Twierdzenie 7.6 Rozkład prawdopodobieństwa na Rn jest dyskretny wtedy i tylko wtedy, gdy dla każdego 1 j n
rozkład j jest dyskretny.
37
Twierdzenie 7.7 Jeżeli rozkład prawdopodobieństwa na Rn jest ciągły, to wszystkie jednowymiarowe rozkłady brzegowe
są ciągłe.
Przyklad 7.1 Niech A = {(x, y) : x = y} )" [0, 1]2. Niech będzie rozkładem prawdopodobieństwa na R2 określonym nastę-
pująco P (A) = 1. Wówczas rozkłady brzegowe są ciągłe, lecz nie jest rozkładem ciągłym.
Lemat 7.3 Niech będzie rozkładem prawdopodobieństwa na Rn. Niech 1 k n i niech 1 i1 < . . . ik n będzie
k - wyrazowym ciągiem indeksów. Określmy dla dowolnych Bi " B(R) dla i = 1, . . . k
def
i ,...,ik(B1 . . . Bk) = (R . . . R B R . . . R B R . . . R). (7.9)
1

i1 ik
Wtedy i ,...,ik jest rozkładem prawdopodobieństwa na Rk.
1
Definicja 7.9 Funkcję i ,...,ik występującą w lemacie 7.3 nazywamy k - wymiarowym rozkładem brzegowym.
1
7.4 Niezależne zmienne losowe  po raz drugi
Dana jest przestrzeń probabilistyczna (&!, Ł, P ) oraz jednowymiarowe zmienne losowe X1, . . . , Xn określone na niej.
Twierdzenie 7.8 Dla zmiennych losowych X1, . . . , Xn następujące warunki są równoważne
(i) zmienne są niezależne,
(ii) dla dowolnego t1, . . . , tn " R
n

F(X ,...,Xn)(t1, . . . , tn) = FX (ti).
1 i
i=1
Twierdzenie 7.9 Niech dane będą zmienne losowe X1, . . . , Xn o rozkładach ciągłych z gęstościami równymi odpowiednio
g1, . . . , gn. Zmienne losowe są niezależne wtedy i tylko wtedy, gdy (X ,...,Xn) jest rozkładem ciągłym o gęstości
1
n

g(x1, . . . , xn) = gi(xi) (7.10)
i=1
Twierdzenie 7.10 Niech {Ht: t " T }, Ht " H będzie rodziną niezależnych  - ciał i niech zbiór T będzie sumą parami
rozłącznych zbiorów Ti, gdzie i " I. Wtedy niezależna jest rodzina  - ciał


Gi def a Ht i " I.
=
t"Ti
Twierdzenie 7.11 Załóżmy, że zmienne losowe X1,1, . . . , X1,k , . . . , Xn,1 . . . , Xn,k są niezależne. Wówczas zmienne losowe
1 n
Yj = j(Xj,1, . . . Xj,k ), gdzie j = 1, . . . , n i j  funkcje borelowskie takie, że Yj są dobrze zdefiniowane, są niezależne.
j
Twierdzenie 7.12 Niech dane będą niezależne zmienne losowe X1, . . . , Xn, dla których istnieją wartości oczekiwane. Wów-
czas istnieje wartość oczekiwana ich iloczynu oraz
n

E(X1 . . . Xn) = E(Xi). (7.11)
i=1
7.5 Kowariancja i współczynnik korelacji zmiennych losowych
Definicja 7.10 Niech zmienne losowe X i Y będą całkowalne. Załóżmy, że ich iloczyn jest zmienną losową całkowalną.
Wówczas kowariancją zmiennych losowych X i Y nazywamy liczbę równą
def
cov(X, Y ) = E((X - E(X))(Y - E(Y ))) (7.12)
Wniosek 7.1 Jeżeli spełnione są założenia definicji 7.10, to
cov(X, Y ) = E(XY ) - E(X)E(Y ) (7.13)
38
Definicja 7.11 Niech spełnione są założenia definicji 7.10 wówczas mówimy, że zmienne losowe X i Y są nieskorelowane
wtedy i tylko wtedy, gdy cov(X, Y ) = 0.
Uwaga 7.5 Zmienne nieskorelowane nie są tym samym, co zmienne niezależne.
Wniosek 7.2 Zmienne losowe niezależne posiadające drugi moment są nieskorelowane.
Przyklad 7.2 Niech X " N(0, 1) oraz Y = X2. Wówczas zmienne losowe X i Y są zależne i nieskorelowane.
Wniosek 7.3 Niech zmienne losowe X1, . . . , Xn maja skończony drugi moment oraz są niezależne, to wówczas
n n

D2( Xi) = D2(Xi) (7.14)
i=1 i=1
1 2
Wniosek 7.4 Niech E(X2) < +" i E(Y ) < +", to kowariancja zmiennych losowych X i Y istnieje oraz

| cov(X, Y )| D2(X)D2(Y ) (7.15)
2
Definicja 7.12 Niech E(X2) < +" i E(Y ) < +" oraz D2(X) > 0 oraz D2(Y ) > 0. Współczynnikiem korelacji zmiennych
losowych X i Y nazywamy liczbę (X, Y ) równą
cov(X, Y )
def
(X, Y ) = (7.16)
D2(X)D2(Y )
Twierdzenie 7.13 Niech zmienne losowe X1, . . . , Xn maja skończony drugi moment. Wówczas istnieje wariancja sumy
oraz
n n

D2( Xi) = D2(Xi) + 2 cov(Xi, Xj) (7.17)
i=1 i=1 1 iWniosek 7.5 Niech zmienne losowe X1, . . . , Xn maja skończony drugi moment oraz są parami nieskorelowane. Wówczas
n n

D2( Xi) = D2(Xi) (7.18)
i=1 i=1
7.6 Macierz kowariancji i korelacji zmiennych losowych
2
Definicja 7.13 Niech E(Xi ) < +" dla i = 1, . . . , n. Macierz
Q = (cov(Xi, Xj))i,j=1,...,n
nazywamy macierzą kowariancji n - wymiarowej zmiennej losowe (X1, . . . , Xn).
2
Definicja 7.14 Niech E(Xi ) < +" oraz D2(Xi) = 0 dla i = 1, . . . , n. Macierz

Q = ((Xi, Xj))i,j=1,...,n
nazywamy macierzą korelacji n - wymiarowej zmiennej losowe (X1, . . . , Xn).
Twierdzenie 7.14 Dla dowolnej n - wymiarowej zmiennej losowej macierz kowariancji, o ile istnieje, ma własności
(i) jest symetryczne;
(ii) jest nieujemnie określona tzn.
n

"(t ,...,tn)"Rn titjQi,j 0 (7.19)
1
k=1
(iii) jeśli jej rząd jest równy k i k < n, to istnieje n - k równań liniowych wiążących zmienne losowe X1, . . . , Xn
1
Dowód po nierówności Cauchy ego - Schwarza
39
Rozdział 8
Zbieżność rozkładów. Warunkowa wartość
oczekiwana
8.1 Zbieżność rozkładów
Niech E = R lub E = Rn.
Definicja 8.1 Rodzinę {t : t " T } rozkładów prawdopodobieństwa na (E, B(E)) nazywamy jędrną wtedy i tylko wtedy, gdy
">0"K"EK- zwarty "t"T t(K) > 1 -  (8.1)
Definicja 8.2 Niech {n : n 1} będzie ciągiem rozkładów prawdopodobieństwa na (E, B(E)). Mówimy, że ciąg ten jest
słabo zbieżny do rozkładu wtedy i tylko wtedy, gdy dla dowolnej funkcji f: E R ciągłej i ograniczonej

lim fdn = fd (8.2)
n"
E E

Oznaczamy wtedy n - .
Definicja 8.3 Mówimy, że ciąg zmiennych losowych {Xn : n 1} o rozkładach prawdopodobieństwa {n : n 1} jest
sł D
zbieżny według rozkładu do zmiennej losowej X o rozkładzie wtedy i tylko wtedy, gdy n - . Piszemy wtedy Xn - X.
D
Wniosek 8.1 Niech {Xn : n 1} dany będzie ciąg zmiennych losowych. Wówczas Xn - X wtedy i tylko wtedy, gdy dla
dowolnej funkcji f: E R ciągłej i ograniczonej zachodzi równość lim E(f(Xn)) = E(f(X)).
n"
Uwaga 8.1 Jeżeli zbiór F jest domknięty, to dla dowolnego  > istnieje funkcja f jednostajnie ciągła i ograniczona taka, że
F f F , gdzie F def {x " F : (F, x) < }
=

Twierdzenie 8.1 Niech {n : n 1} będzie ciągiem rozkładów prawdopodobieństw na (E, B(E)). Następujące warunki są
równoważne

(i) n -

(ii) Dla dowolnej funkcji f: E R jednostajnie ciągłej i ograniczonej lim fdn = fd
E E
n"
(iii) dla dowolnego zbioru domkniętego F lim sup n(F ) (F )
n"
(iv) dla dowolnego zbioru otwartego G lim inf n(G) (G)
n"
(v) dla dowolnego zbioru A takiego, że ("A) = 01 zachodzi lim n(A) = (A)
n"
Niech E = R lub E = Rn.
Twierdzenie 8.2 Jeżeli i  są rozkładami prawdopodobieństwa na przestrzeni (E, B(E)) i dla dowolnej funkcji ciągłej i
ograniczonej f

fd = fd,
E E
to (A) = (A) dla dowolnego A " B(A).
1
"A = Cl A \ Int A
40
Wniosek 8.2 Granicę słabo zbieżnego ciągu rozkładów jest wyznaczona jednoznacznie.
Uwaga 8.2 Niech h: E E1 i Dh będzie zbiorem punktów nieciągłości funkcji h.
D D
Twierdzenie 8.3 Jeżeli odwzorowanie h: E E1 jest mierzalne i Xn - X oraz X(Dh) = 0, to h(Xn) - h(X).

Twierdzenie 8.4 n - wtedy i tylko wtedy, gdy każdy podciąg (n ) zawiera podciąg (n ) słabo zbieżny do .
k kl
Definicja 8.4 Mówimy, że ciąg dystrybuant {Fn : n 1} jest słabo zbieżny do dystrybuanty F wtedy i tylko wtedy, gdy w

każdym punkcie x ciągłości dystrybuanty F mamy lim Fn(x) = F (x). Oznaczamy Fn - F .
n"
Twierdzenie 8.5 Niech {n : n 1} będą rozkładami prawdopodobieństwa na (R, B(R)) i niech {Fn : n 1} będzie
odpowiadającym im ciągiem dystrybuant. Wówczas
sł sł
n - ! Fn - F (8.3)
Lemat 8.1 Niech {Fn : n 1} będzie ciągiem dystrybuant, zaś F funkcją, a D zbiorem gęstym w R. Jeżeli lim Fn(t) = F (t)
n"
dla wszystkich t " D, to lim Fn(t) = F (t) we wszystkich punktach ciągłości funkcji F .
n"
Definicja 8.5 Funkcję nieujemną F spełniającą warunki
(i) F jest funkcją niemalejącą
(ii) F jest funkcją prawostronnie ciągłą
(iii) lim F (x) - lim F (x) = p 1
x-" x+"
nazywamy dystrybuantą ułomną.
Lemat 8.2 Każdy ciąg dystrybuant zawiera podciąg słabo zbieżny do dystrybuanty ułomnej.
Lemat 8.3 Każdy jędrny ciąg rozkładów prawdopodobieństwa na (R, B(R)) zawiera podciąg słabo zbieżny.
Twierdzenie 8.6 (Prochorowa) Rodzina rozkładów prawdopodobieństw {ą : ą " I} na (R, B(R)) jest jędrna wtedy i tylko
wtedy, gdy z każdego ciągu elementów tej rodziny można wybrać podciąg słabo zbieżny do pewnego rozkładu prawdopodobień-
stwa.
8.2 Warunkowa wartość oczekiwana
Niech (&!, Ł, P ) będzie ustaloną przestrzenią probabilistyczną. Niech A " Ł. Jeżeli P (A) > 0, to PA def P (|A) jest rozkładem
=
prawdopodobieństwa.
Definicja 8.6 Niech X będzie zmienną losową posiadającą skończoną wartość oczekiwaną. Warunkową wartość oczekiwaną
dla zmiennej losowej X pod warunkiem że zaszło zdarzenie A nazywamy liczbę określoną wzorem

def
E(X|A) = XdPA (8.4)
A
Twierdzenie 8.7 Niech P (A) > 0 i niech X będzie zmienna losowa o skończonej wartości oczekiwanej. Wtedy

1
E(X|A) = XdP. (8.5)
P (A)
A
Twierdzenie 8.8 Niech {An : n " I} będzie co najwyżej przeliczalnym układem zupełnym zdarzeń. Jeżeli zmienna losowa
X jest całkowalna, to

E(X) = E(X|Ai)P (Ai) (8.6)
i"I
Definicja 8.7 Niech {An : n " I} będzie co najwyżej przeliczalnym układem zupełnym zdarzeń i H = a({Ai : i " I}). Niech
zmienna losowa X posiada skończoną wartość oczekiwaną. Warunkową wartością oczekiwaną X pod warunkiem  - ciała
Hnazywamy zmienną losową, oznaczaną E(X|H), zadaną przez równość

E(X|H) = E(X|Ai)A (8.7)
i
i"I
41
Uwaga 8.3 Zauważmy, że H " Ł.
Twierdzenie 8.9 Przy założeniach definicji warunkowa wartość oczekiwana E(X|H) spełnia warunki
(i) E(X|H) jest H - mierzalna2,

(ii) Dla dowolnego B " H zachodzi równość XdP = E(X|H)dP .
B B
Niech H " Ł będzie dowolnym  - ciałem.
Definicja 8.8 Niech zmienna losowa X posiada skończoną wartość oczekiwaną. Warunkową wartością oczekiwaną X pod
warunkiem H nazywamy zmienną losową E(X|H) spełniającą warunki
(i) E(X|H) jest H - mierzalna,

(ii) Dla dowolnego B " H zachodzi równość XdP = E(X|H)dP .
B B
Twierdzenie 8.10 Dla dowolnego  - ciała H i dowolnej zmiennej losowej posiadającą skończoną wartość oczekiwaną
istnieje warunkowa wartość oczekiwana (X pod warunkiem H). Jest ona wyznaczona jednoznacznie z dokładnością do zdarzeń
o prawdopodobieństwie zerowym tj. jeżeli Y1 i Y2 spełniają warunki definicji, to Y1 = Y2 p.n.
Twierdzenie 8.11 Niech X, X1, X2 będą zmiennymi losowymi o skończonej wartości oczekiwanej. Wtedy
(i) Jeżeli X jest H - mierzalna, to E(X|H) = X p.n.;
(ii) Jeżeli X 0, to E(X|H) 0 p.n.;
(iii) |E(X|H)| E(|X||H) p.n.;
(iv) E(ąX1 + X2|H) = ąE(X1|H) + E(X2|H) p.n.;
(v) Jeżeli dla ciągu {Xn : n 1} zmiennych losowych posiadających skończoną wartość oczekiwaną mamy Xn X, to
E(Xn|H) E(X|H) p.n.;
(vi) Jeżeli H1 " H2 " Ł, to E(X|H1) = E(E(X|H2)|H1)E(E(X|H1)|H2) p.n.;
(vii) E(X) = E(E(X|H));
(viii) Jeżeli H i (X) są niezależne, to E(X|H) = E(X) p.n.;
(ix) Jeżeli Y jest ograniczoną zmienną losową H - mierzalną, to E(XY |H) = Y E(X|H) p.n..
Zadanie 8.1 Udowodnić, że dla funkcji  wypukłej na R istnieją dwa ciągi liczbowe (an) i (bn) takie, że
(x) = sup {anx + bn} (8.8)
n"N
Stwierdzenie 8.1 (Nierówność Jensena) Jeżeli funkcja Ć: R R jest wypukła, zmienne losowe X i Ć(X) mają skoń-
czoną wartość oczekiwaną, to
Ć(E(X|H)) E(Ć(X)|H) p.n. (8.9)
Lemat 8.4 Niech Y będzie zmienną losową o wartościach w Rn, a X zmienną losową (Y ) - mierzalną. Wówczas istnieje
funkcja borelowska h: Rn R taka, że X = h(Y ).
Uwaga 8.4 Jeżeli zmienna losowa X posiada skończoną wartość oczekiwaną, zaś Y jest zmienną losową o wartościach w
Rn, to będziemy oznaczać
ozn
E(X|Y ) = E(X|(Y )). (8.10)
Twierdzenie 8.12 Jeżeli zmienna losowa X ma skończoną wartość oczekiwaną, a Y jest zmienną losową o wartościach w
Rn, to istnieje funkcja borelowska h: Rn R taka, że E(X|Y ) = h(Y ).
Definicja 8.9 Warunkową wartością oczekiwaną zmiennej losowej X pod warunkiem { : Y () = y} a" {Y = y}, oznaczaną
E(X|Y = y), nazywamy liczbę h(y), gdzie h jest funkcją występującą w twierdzeniu 8.12.
Definicja 8.10 Prawdopodobieństwem warunkowym zdarzenia A " Ł pod warunkiem Y = y, oznaczanym przez P (A|Y = y)
nazywamy wielkość E(A|Y = y).
Analogicznie można też rozważać P (X " A|Y = y).
2
Zmienna losowa X jest H - mierzalna wtedy i tylko wtedy, gdy dla dowolnego zbioru borelowskiego B mamy X-1(B) " H
42
Twierdzenie 8.13 Jeżeli (X, Y ) ma rozkład ciągły o gęstości g, to

ńł

g(x,Y )dx
ł
B

ł
dla g(x, Y )dx = 0

g(x,Y )dx
P (X " B|Y ) = R R
(8.11)

ł
ół 0 dla g(x, Y )dx = 0
R

ńł

ł
R
Ć(x)g(x,Y )dx
ł
dla g(x, Y )dx = 0

g(x,Y )dx
E(Ć(X)|Y ) = R R
(8.12)

ł
ół 0 dla g(x, Y )dx = 0
R
dla takich funkcji borelowskich Ć, że zmienna losowa Ć(X) posiada skończoną wartość oczekiwaną
Uwaga 8.5 Przy założeniach poprzedniego twierdzenia funkcję
ńł

g(x,y)
ł
dla g(x, y)dx = 0

ł
g(x,y)dx
def
R R

fX|Y (x|y) = (8.13)
ł
0 dla g(x, y)dx = 0
ół
R
będziemy nazywać warunkową wartością X pod warunkiem Y .
43
Rozdział 9
Funkcja charakterystyczna
Niech (&!, Ł, P ) będzie przestrzenią probabilistyczną, zaś X jednowymiarową zmienną.
Definicja 9.1 Funkcją charakterystyczną zmiennej losowej X nazywamy funkcję ĆX: R C zadaną wzorem
def
ĆX(t) = E(eitX) a" E(cos(tX)) + iE(sin(tX)), t " R. (9.1)
Uwaga 9.1 Ponieważ |eitX| = 1 więc funkcja charakterystyczna jest dobrze określona dla dowolnej zmiennej losowej X.
Twierdzenie 9.1 Niech ĆX będzie funkcją charakterystyczną zmiennej losowej X. Wtedy
(i) ĆX(0) = 1
(ii) |ĆX(t)| 1 dla dowolnego t " R
(iii) ĆX(t) = ĆX(-t) dla dowolnego t " R
(iv) ĆX jest jednostajnie ciągła, a więc ciągła.
Wniosek 9.1 Funkcja charakterystyczna rozkładu jest rzeczywista wtedy i tylko wtedy, gdy jest rozkładem symetrycznym.
Definicja 9.2 Funkcję : R C nazywamy dodatnio określoną wtedy i tylko wtedy, gdy

"n"N"t ,...,tn"R"z ,...,zn"C (tk - tn)zkzl 0 (9.2)
1 1
1 k,l n
Twierdzenie 9.2 (Bochnera) Funkcja Ć: R C jest funkcją charakterystyczną pewnego rozkładu prawdopodobieństwa
wtedy i tylko wtedy, gdy jest ciągła, dodatnio określona i Ć(0) = 1.
Twierdzenie 9.3 Niech n " N. Jeżeli E(|X|n) < +", to n - ta pochodna funkcji charakterystycznej Ć(n) istnieje i jest
X
jednostajnie ciągła, a ponadto
Ć(n)(0) = inE(Xn) (9.3)
X
o
Uwaga 9.2 Używać będziemy symbolu Landaua (x), co znaczy
o
(x)
lim = 0.
x0
x
Wniosek 9.2 Niech n " N. Jeżeli E(|X|n) < +", to
n

(it)k
Ć( t) = E(Xk) + o(tn) (9.4)
X
k!
k=1
Lemat 9.1 Jeżeli ciąg rozkładów prawdopodobieństwa na (R, B(R)) będzie słabo zbieżny, to ciąg odpowiadających mu funkcji
charakterystycznych jest zbieżny punktowo.
Twierdzenie 9.4 Jeżeli dwa rozkłady prawdopodobieństwa na (R, B(R)) mają równe funkcje charakterystyczne, to są sobie
równe.
44
Lemat 9.2 Niech Y = aX + b wtedy Y (t) = eitb(at) dla dowolnego t " R.
Twierdzenie 9.5 Jeżeli X i Y są niezależnymi zmiennymi losowymi, to
ĆX+Y = ĆX ĆY (9.5)
Uwaga 9.3 W dowodzie wykorzystaliśmy fakt, że jeżeli zmienne losowe są niezależne, to wartość oczekiwana ich iloczynu
jest równa iloczynowi ich wartości oczekiwanych z tym, że dowodziliśmy tylko dla zmiennych losowych rzeczywistych, a to są
zmienne losowe zespolone. Trzeba więc pokazać to dla zmiennych losowych zespolonych.
Lemat 9.3 Jeżeli jest rozkładem prawdopodobieństwa z funkcja charakterystyczną Ć, to dla każdego u > 0 zachodzi
u
2 2 1
- , 1 - (1 - Ć(s))ds (9.6)
u u u
-u
Twierdzenie 9.6 Niech {n : n 1} będzie ciągiem rozkładów prawdopodobieństwa na (R, B(R)). Jeżeli ciąg {Ćn : n 1}
funkcji charakterystycznych tych rozkładów jest zbieżny punktowo do funkcji Ć ciągłej w zerze, to ciąg {n : n 1} jest
jędrny.
Twierdzenie 9.7 (Lvy ego - Cramra) Niech {n : n 1} będzie ciągiem rozkładów prawdopodobieństwa na (R, B(R))
i niech {Ćn : n 1} będzie ciągiem ich funkcji charakterystycznych. Jeżeli lim Ćn(t) = Ć(t) dla wszystkich t " R i funkcja
n"

Ć jest ciągła w zerze, to Ć jest funkcją charakterystyczną pewnego rozkładu i n - .
Twierdzenie 9.8 (Lvy ego) Jeżeli  jest funkcją charakterystyczną zmiennej losowej X o dystrybuancie F , to dla do-
wolnych a < b takich, że dystrybuanta F jest ciągła w punktach a i b zachodzi
T
1 e-ita - e-itb
F (b) - F (a) = lim Ć(t)dt (9.7)
T " 2Ą it
-T
Twierdzenie 9.9 Niech X będzie ciągłą zmienna losową o gęstości f i funkcji charakterystycznej . Jeżeli funkcja charak-
terystyczna  jest całkowalna, to

1
f(r) = e-itr(t)dt (9.8)
2Ą
R
Twierdzenie 9.10 Niech X będzie dyskretną zmienna losową przyjmującą wartości całkowite z funkcją charakterystyczną
. Wówczas
Ą
1
"k"Zpk = e-itk(t)dt (9.9)
2Ą
-Ą
Uwaga 9.4 Przy obliczaniu funkcji charakterystycznej lub gęstości wykorzystujemy często twierdzenie bądz jego warianty o
residuach.
45
Rozdział 10
Centralne twierdzenie graniczne
Niech (&!, Ł, P ) będzie przestrzenia probabilistyczną, a {Xn : n 1} ciągiem niezależnych zmiennych losowych określonych
na niej.
Twierdzenie 10.1 Jeżeli zmienne losowe w ciągu {Xn : n 1} posiadają ten sam rozkład oraz E(X1) = 0 i D2(X1) = 1,
to
X1 + . . . + Xn D
" - N(0, 1). (10.1)
n
Będziemy rozważać ciąg podwójny  tablicę zmiennych losowych {Xn,k : n " N '" 1 k n} a" (Xn,k)n"N,1 k n.
Definicja 10.1 Mówimy, że ciąg {Xn,k : n " N '" 1 k n} jest schematem serii wtedy i tylko wtedy, gdy dla dowolnego n
ciąg {Xn,k : 1 k n} jest ciągiem zmiennych niezależnych.
Jeżeli dodatkowo mamy spełnione warunki
(i) dla dowolnego n i k zachodzi E(Xn,k) = 0
n

(ii) dla dowolnego n zachodzi D2(Xn,k) = 1,
k=1
to schemat serii nazywamy znormalizowanym.1
n

Uwaga 10.1 Będziemy oznaczać s2 ozn D2(Xn,k).
=
n
k=1
Uwaga 10.2 Niech {Xn : n 1} będzie ciągiem niezależnych zmiennych losowych o tym samym rozkładzie posiadających
"
moment rzędu dwa. Wówczas określając dla dowolnego k = 1, . . . , n zmienne losowe Xn,k def Xk , gdzie 2 = D2(X1)
=
 n
otrzymujemy schemat serii. Jeżeli dodatkowo dla dowolnego n 1 jest E(Xn) = 0, to otrzymujemy znormalizowany schemat
serii.
Definicja 10.2 Mówimy, że schemat serii {Xn,k : n " N '" 1 k n} spełnia warunek Lindeberga wtedy i tylko wtedy, gdy
2
"n"N"1 k nE(Xn,k) < +" (10.2)
n

1
"r>0 lim E((Xn,k - E(Xn,k)))2{:|X ()-E(Xn,k)|>rsn}) = 0 (10.3)
n,k
n"
s2
n
k=1
Uwaga 10.3 W przypadku znormalizowanego schematu serii warunek Lindeberga (10.3) ma postać
n

2
"r>0 lim E(Xn,k{:|X ()|>r}) = 0 (10.4)
n,k
n"
k=1
Definicja 10.3 Mówimy, że schemat serii {Xn,k : n " N '" 1 k n} spełnia warunek Lapunowa wtedy i tylko wtedy, gdy
">0"n"N"1 k nE(|Xn,k|2+) < +" (10.5)
n

1
lim E(|Xn,k - E(Xn, k)|2+) = 0 (10.6)
n"
s2+
n
k=1
1
Należy zauważyć, że w znormalizowanym schemacie serii występuje niejawne założenie, a mianowicie dla dowolnego n 1 i 1 k n istnieje
drugi moment zmiennych losowych Xn,k.
46
Twierdzenie 10.2 Jeżeli znormalizowany schemat serii spełnia warunek Lindeberga, to
(i) lim max D2(Xn,k) = 0
n" 1 k n
(ii) "r>0 lim max P ({ : |Xn,k()| > r}) = 0.
n"
1 k n
Twierdzenie 10.3 Jeżeli ciąg serii spełnia warunek Lapunowa, to spełnia warunek Lindeberga.
Twierdzenie 10.4 Niech {Xn : n 1} będzie ciągiem niezależnych zmiennych losowych o tym samym rozkładzie posia-
"k
dających zerową wartość oczekiwaną i jednostkową wariancję. Niech Xn,k def X dla k = 1, . . . , n. Wówczas schemat serii
=
n
{Xn,k : n 1 '" 1 k n} spełnia warunek Lindeberga.
Twierdzenie 10.5 Niech {Xn : n 1} będzie ciągiem niezależnych zmiennych losowych jednostajnie ograniczonych2 posia-
n

dających drugi moment oraz lim D2(Xn) = +". Niech Xn,k def Xk dla k = 1, . . . , n. Wtedy schemat serii {Xn,k : n
=
n"
k=1
1 '" 1 k n} spełnia warunek Lindeberga.
Twierdzenie 10.6 (Lindeberga - Lvy ego) Niech znormalizowany schemat serii {Xn,k : n " N '" 1 k n} spełnia
n

D
warunek Lindeberga wtedy. Wtedy Xn,k - N(0, 1)
k=1
Uwaga 10.4 W dowodzie posługujemy się następującymi faktami
"x"[- 1 1 |ex - 1 - x| x2 (10.8)
, ]
2 2

x2
"x"R eix - 1 - ix (10.9)
2


x2 |x|3

"x"R eix - 1 - ix + (10.10)

2 6
"n"N"1 k n"{a ,...,an,b1,...,bn}"C
1
n

|ak| 1 '" |bk| 1 ! |a1 . . . an - b1 . . . bn| |ak - bk| (10.11)
k=1
Twierdzenie 10.7 (Fellera) Niech znormalizowany schemat serii {Xn,k : n " N '" 1 k n} spełnia warunki
n

D
(i) Xn,k - N(0, 1)
k=1
(ii) lim max D2(Xn,k) = 0,
n"
1 k n
wtedy schemat serii spełnia warunek Lindeberga.
2
Mówimy, że ciąg zmiennych {Xn : n 1} jest jednostajnie ograniczony wtedy i tylko wtedy, gdy
"M>0"n"N""&!|Xn()| M. (10.7)
47
Rozdział 11
Aańcuchy Markowa
Niech (&!, Ł, P ) będzie przestrzenią probabilistyczną, S co najwyżej przeliczalnym zbiorem, zaś {Xn : n 0} ciągiem
zmiennych losowych o wartościach w S.
Definicja 11.1 Ciąg zmiennych losowych {Xn : n 0} nazywamy łańcuchem Markowa wtedy i tylko wtedy, gdy
"n"N"{s ,...,sn}"S P ({ : Xn() = sn}|{ : Xk() = sk '" k = 0, . . . n - 1}) =
0
P ({ : Xn() = sn}|{ : Xn-1() = sn-1}), (11.1)
o ile P ({ : Xk() = sk '" k = 0, . . . n - 1}) > 0.
Uwaga 11.1 Elementy zbioru S nazywamy stanami. Ponieważ zbiór S jest co najwyżej przeliczalny więc jego elementy
można ustawić w ciąg (tzn. zadać porządek liniowy) numerując kolejnymi liczbami naturalnymi i zerem. W związku z tym
stany sk będziemy utożsamiać (oznaczać) z jego indeksem.
Definicja 11.2 Macierz P = [pij]i,j"S nazywamy macierzą przejścia na S (macierzą stochastyczną) wtedy i tylko wtedy, gdy
"i,j"Spij 0 (11.2)

"i"S pij = 1. (11.3)
j"S
Definicja 11.3 Niech ciąg zmiennych losowych {Xn : n 0} będzie łańcuchem Markowa.
Rozkład zmiennej losowej X0 nazywamy rozkładem początkowym.
Aańcuch Markowa nazywamy jednorodnym (w czasie) wtedy i tylko wtedy, gdy istnieje macierz P = [pij]i,j"S będąca dla
każdego n macierzą przejścia w n - tym kroku.
Twierdzenie 11.1 Dla każdego rozkładu prawdopodobieństwa na S i macierzy przejścia P na S istnieje na pewnej prze-
strzeni probabilistycznej łańcuch Markowa o rozkładzie początkowym i macierzy przejścia P.
Będziemy rozważać od tej pory jednorodne łańcuchy Markowa {Xn : n 0} o zbiorze stanów S i macierzy przejścia P.
Twierdzenie 11.2 Niech ciąg zmiennych losowych {Xn : n 0} będzie jednorodnym łańcuchem Markowa. Wówczas o ile
odpowiednie prawdopodobieństwa są niezerowe, to
"n,m"N"{s ,...,sn}"S P ({ : Xk() = sk '" k = 1, . . . n}|{ : X0() = s0}) =
0
= P ({ : Xm+k() = sk '" k = 1, . . . n}|{ : X0() = s0}); (11.4)
"n,m"N"{s ,s1}"S P ({ : Xn+m() = s1}|{ : Xm() = s0}) =
0
P ({ : Xn() = s1}|{ : X0() = s0}); (11.5)
"n,m"N"{s ,...,sm,t1,...,tn}"S P ({ : Xk() = sk '" Xm+l() = tlk = 1, . . . m '" l = 1, . . . , n}|{ : X0() = s0}) =
0
= P ({ : Xk() = sk '" k = 1, . . . m}|{ : X0() = s0})
P ({ : Xl() = tl '" l = 1, . . . n}|{ : X0() = sm}); (11.6)
A " (Xn, Xn+1, . . .) ! P (A|X0, X1, . . . , Xn) = P (A|Xn). (11.7)
48
Definicja 11.4 Niech P będzie macierzą przejścia dla jednorodnego łańcucha Markowa. Wówczas macierz przejścia w n
krokach P(n) = [pij(n)]i,j"S zdefiniowana jest następująco
def
"l"Npij(n) = P ({ : Xl+n() = sj}|{ : Xl() = si}), (11.8)
o ile P ({ : Xl() = si}) > 0.
Twierdzenie 11.3 Niech P będzie macierzą przejścia dla jednorodnego łańcucha Markowa. Wówczas P(n) = Pn.
Wniosek 11.1 (Równania Chapmana - Kołmogorowa)
"k,l"NP (k)P (l) = P (k + l). (11.9)
Inaczej możemy to zapisać w następującej postaci

"k,l"N"s ,sj"Spij(k + l) = pim(k)pmj(l). (11.10)
i
m
Definicja 11.5 (Klasyfikacja stanów) Mówimy, że stan sk jest osiągalny ze stanu sj (oznaczamy sj sk) wtedy i tylko
wtedy, gdy
"n"Npjk(n) > 0. (11.11)
Mówimy, że stany sk i sj się komunikują (oznaczamy sj "! sk) wtedy i tylko wtedy, gdy stan sk jest osiągalny ze stanu
sj i stan sj jest osiągalny ze stanu sk.
Mówimy, że stany sk jest nieistotny wtedy i tylko wtedy, gdy istnieje stan sj taki, że stan sj jest osiągalny ze stanu sk i
stan sk nie jest osiągalny ze stanu sj.
Mówimy, że zbiór stanów C jest zamknięty wtedy i tylko wtedy, gdy żaden stan spoza C nie da się osiągnąć wychodząc z
dowolnego stanu w C.
Pojedynczy stan sk tworzący zbiór zamknięty nazywamy stanem pochłaniającym.
Aańcuch Markowa nazywamy nieprzywiedlnym wtedy i tylko wtedy, gdy wszystkie stany się komunikują.
Twierdzenie 11.4
"s ,sj,sk"Ssi sj '" sj sk ! si sk. (11.12)
i
Wniosek 11.2
"s ,sj,sk"Ssi "! sj '" sj "! sk ! si "! sk. (11.13)
i
Oznaczmy przez Fkj prawdopodobieństwo, że łańcuch wychodząc ze stanu sk dotrze kiedykolwiek do stanu sj tzn.
"

Fkj def P ( { : Xn() = sj}|{ : X0() = sk}), (11.14)
=
n=1
zaś przez fkj(n) prawdopodobieństwo, że łańcuch wychodząc ze stanu sk dotrze do stanu sj po raz pierwszy w n - tym kroku
tzn.
def
fkj(n) = P ({ : Xl() = sj '" Xn = sj l = 1, . . . , n - 1}|{ : X0() = sk}). (11.15)

wtedy
"

Fkj = fkj(n). (11.16)
n=1
Lemat 11.1
n n

"n"N"{s ,sk}"Spkj(n) = fkj(m)pjj(n - m) = fkj(n - m)pjj(m), (11.17)
j
m=1 m=1
gdzie pkj(0) = kj.
Definicja 11.6 Niech sj " S.
Stan sj nazywamy powracającym wtedy i tylko wtedy, gdy Fjj = 1.
Stan sj nazywamy chwilowym wtedy i tylko wtedy, gdy Fjj < 1
49
Definicja 11.7 Zmienną losową Nj (być może przyjmującą również wartość +") zdefiniowaną równością
"

Nj = {:X ()=sj} (11.18)
n
n=1
nazywamy zmienną liczącą ile razy proces przebywa w stanie sj.
Twierdzenie 11.5 Stan sj jest powracający wtedy i tylko wtedy, gdy
P ({ : Nj() = +"}|{ : X0() = sj}) = 1. (11.19)
Stan sj jest chwilowy wtedy i tylko wtedy, gdy
P ({ : Nj() < +"}|{ : X0() = sj}) = 1. (11.20)
Definicja 11.8 Średnim czasem przebywania łańcucha Markowa w stanie sj nazywamy wielkość
"

Pj def pjj(n). (11.21)
=
n=1
Następujący lemat uzasadnia tę definicję.
Lemat 11.2
Pj = E(Nj|X0 = sj). (11.22)
Twierdzenie 11.6 Stan sj jest powracający wtedy i tylko wtedy, gdy Pj = +".
Stan sj jest chwilowy wtedy i tylko wtedy, gdy Pj < +".
"

Lemat 11.3 Jeżeli stan sj jest stanem chwilowym, to dla każdego stanu si pij(n) < +", a więc lim pij(n) = 0.
n"
n=1
Twierdzenie 11.7 W nieprzywiedlnym łańcuchu Markowa wszystkie stany są tego samego typu.
Definicja 11.9 Nieprzywiedlny łańcuch Markowa nazywamy powracającym (chwilowym) wtedy i tylko wtedy, gdy jeden ze
stanów, a więc i wszystkie, jest powracający (odpowiednio chwilowy).
Wniosek 11.3 W nieprzywiedlnym i powracającym łańcuchu Markowa mamy
"s "SP ({ : "n"NXn() = sj}) = 1, (11.23)
j
niezależnie od rozkładu początkowego X0.
Twierdzenie 11.8 Przestrzeń stanów S łańcucha Markowa można jednoznacznie przedstawić w postaci
S = T *" S1 *" S2 *" . . . , (11.24)
gdzie T jest zbiorem stanów chwilowych, a Si są nieprzywiedlnymi zamkniętymi zbiorami stanów powracających.
50
Rozdział 12
Martyngały
Niech (&!, Ł, P ) będzie ustaloną przestrzenią probabilistyczną. Niech T ą" N *" {0}. Niech {Ht : t " T } " 2&! będzie rodziną
 - ciał taką, że Ht ą" Ł dla dowolnego t " T .
Definicja 12.1 Filtracją nazywamy niemalejącą (względem inkluzji) rodzinę  - ciał {Ht : t " T } " 2&!.
Definicja 12.2 Niech {Ht : t " T } będzie filtracją. Rodzina zmiennych losowych {Xt : t " T } jest adoptowana do filtracji
{Ht : t " T } wtedy i tylko wtedy, gdy dla dowolnego t " T zmienna losowa Xt jest Ht - mierzalna.
Definicja 12.3 Niech {Ht : t " T } będzie filtracją. Momentem stopu względem filtracji {Ht : t " T } nazywamy zmienną
losową : &! T *" {+"} wtedy i tylko wtedy, gdy dla dowolnego t " T zachodzi { : () t} " Ht.1
Lemat 12.1 Zmienna losowa : &! T *" {+"} jest momentem stopu względem filtracji {Ht : t " T } wtedy i tylko wtedy,
gdy { : () = t} " Ht dla każdego t " T .
Lemat 12.2 Niech zmienne losowe 1, 2: &! T *" {+"} będą momentami stopu względem filtracji {Ht : t " T }. Wtedy
momentami stopu względem tej filtracji są również zmienne 1 '" 2 a" min(1, 2) oraz 1 (" 2 a" max(1, 2).
Uwaga 12.1 Przyjmiemy następujące oznaczenia
ozn ozn
inf " = +" '" sup " = -". (12.1)
Twierdzenie 12.1 Jeżeli rodzina zmiennych losowych {Xt : t " T } jest adoptowana do filtracji {Ht : t " T }, to chwila
pierwszej wizyty w zbiorze B " B(R) zdefiniowana następująco
def
B() = inf{t " T : Xt() " B} (12.2)
jest momentem stopu.
Definicja 12.4 Jeżeli  jest momentem stopu względem filtracji {Ht : t " T }. Definiujemy rodzinę podzbiorów Ł następująco
H def {A " H : "t"T A )" { : () t} " Ht} (12.3)
=
Twierdzenie 12.2 Jeżeli , 1, 2 są momentami stopu względem filtracji {Ht : t " T }, to
(i) H jest  - ciałem
(ii) jeżeli  = t, to H = Ht
(iii) A " H wtedy i tylko wtedy, gdy A " H oraz dla dowolnego t " T zachodzi A )" { : () = t} " Ht
(iv) Jeżeli 1 2, to H " H .
1 2
Twierdzenie 12.3 Jeżeli  jest momentem stopu względem filtracji {Ht : t " T }, zaś {Xt : t " T } jest ciągiem zmiennych
losowych adoptowanym do tej filtracji, to
(i) zmienna losowa  jest H - mierzalna
(ii) Zmienna losowa X jest H - mierzalna na zbiorze { : () < +"}.
1
Należy zwrócić uwagę, że w naszym wykładzie zmienna losowa była zdefiniowana, jako funkcja o wartościach rzeczywistych.
51
Uwaga 12.2 Zmienna losowa X w twierdzeniu 12.3(ii) zdefiniowana jest następująco
def
""&!X () = X()() (12.4)
Definicja 12.5 Niech dany będzie ciąg {Xn : n 1}. Niech  będzie zmienną losową o wartościach naturalnych. Sumą
losową ciągu zmiennych losowych {Xn : n 1} względem zmiennej losowej  nazywamy zmienną losową S postaci
()

def
""ŁS() = Xn (12.5)
n=1
Twierdzenie 12.4 (Tożsamość Walda) Jeżeli {Xn : n " N} jest ciągiem niezależnych zmiennych losowych o jednakowym
rozkładzie i dla których istnieje skończona wartość oczekiwana, zaś  jest momentem stopu względem filtracji {Hn : n " N},

n

gdzie Hn def a Xk i E() < +", to
=
k=1
E(S ) = E() E(X1) (12.6)
Definicja 12.6 Rodzinę {(Xt, Ht) : t " T '" "t"T E(|Xt|) < +"} nazywamy
martyngałem wtedy i tylko wtedy, gdy
"s,t"T s t ! E(Xt|Hs) = Xs. (12.7)
nadmartyngałem wtedy i tylko wtedy, gdy
"s,t"T s t ! E(Xt|Hs) Xs. (12.8)
podmartyngałem wtedy i tylko wtedy, gdy rodzina {(-Xt, Ht) : t " T } jest nadmartyngałem.
Twierdzenie 12.5 (i) Rodzina {(Xt, Ht) : t " T '" "t"T E(|Xt|) < +"} jest martyngałem wtedy i tylko wtedy, gdy

"s,t"T "A"H s t ! XsdP = XtdP (12.9)
s
A A
(ii) Rodzina {(Xt, Ht) : t " T '" "t"T E(|Xt|) < +"} jest nadmartyngałem wtedy i tylko wtedy, gdy

"s,t"T "A"H s t ! XsdP XtdP (12.10)
s
A A
(ii) Rodzina {(Xt, Ht) : t " T '" "t"T E(|Xt|) < +"} jest podmartyngałem wtedy i tylko wtedy, gdy

"s,t"T "A"H s t ! XsdP XtdP (12.11)
s
A A
Definicja 12.7 Niech rodzina {(Xt, Ht) : t " N'""t"NE(|Xt|) < +"} będzie martyngałem, zaś  momentem stopu względem
filtracji {Ht : t " T '"} ciągiem zatrzymanym nazywamy parę
X = (Xn'" Hn) (12.12)
Twierdzenie 12.6 Ciąg zatrzymany X względem momentu stopu  i martyngału {(Xt, Ht) : t " N '" "t"NE(|Xt|) < +"}
jest martyngałem.
Uwaga 12.3 Analogiczne twierdzenie (i oczywiście definicję) o ciągu zatrzymanym można sformułować dla nadmartyngału.
Definicja 12.8 Niech X będzie zmienną losową taką, ze E(|X|) < +", {Hn : n " N} filtracją i niech Xn = E(X|Hn) dla
n " N. Wówczas {(Xn, Hn) : n " N} nazywamy martyngałem prawostronnie domkniętym.2
Definicja 12.9 Mówimy, że ciąg zmiennych losowych {Xn : n " N *" {0}} jest prognozowalny względem filtracji {Hn : n "
N *" {0}} wtedy i tylko wtedy, gdy dla dowolnego n 0 zmienną losową Xn jest Hn-1 - mierzalną.
Uwaga 12.4 Przyjmujemy, że H-1 def {", &!}.
=
2
Należy udowodnić, że faktycznie jest to martyngał
52
Definicja 12.10 Niech {(Xn, Hn) : n " N*"{0}'""n"N*"{0}E(|Xn|) < +"} będzie martyngałem, zaś ciąg zmiennych losowych
{Vn : n " N*"{0}} będzie ograniczonym i prognozowalnym względem filtracji {Hn : n " N*"{0}}. Transformatą martyngałową
ciągu {Xn : n " N *" {0} przez ciąg {Vn : n " N *" {0}} nazywamy ciąg zmiennych losowych {Zn : n 0} zdefiniowanych
następująco
Zn def V0X0 + V1(X1 - X0) + . . . + Vn(Xn - Xn-1) (12.13)
=
Twierdzenie 12.7 Niech będą spełnione założenia definicji 12.10 transformaty martyngałowej. Wówczas {(Zn, Hn) : n "
N *" {0}} jest martyngałem.
Twierdzenie 12.8 (Dooba) Niech {(Xn, Hn) : n " N *" {0}} będzie nadmartyngałem i niech 1 2 będą ograniczonymi
momentami stopu. Wtedy {(X , H ) : i = 1, 2} jest nadmartyngałem.
i i
Wniosek 12.1 Niech {(Xn, Hn) : n " N *" {0}} będzie martyngałem i niech 1 2 będą ograniczonymi momentami stopu.
Wtedy {(X , H ) : i = 1, 2} jest martyngałem.
i i
Twierdzenie 12.9 (Dooba) Niech {(Xn, Hn) : n " N *" {0}} będzie martyngałem i niech 1 i 2 będą skończonymi p.n.
momentami stopu takimi, że
E(|X |) < +" i = 1, 2 (12.14)
i
lim inf E(|Xn|{ ()>n} = 0 i = 1, 2 (12.15)
i
n"
Wtedy E(X |H ) = X p.n. na zbiorze ({ : 2() 1()}).
2 1 1
Wniosek 12.2 Niech spełnione będą założenia twierdzenia 12.9. Jeżeli P ({ : 2() 1()}) = 1, to E(X |H ) = X
2 1 1
p.n., a więc {(X , H ) : i = 1, 2} jest martyngałem.
i i
Wniosek 12.3 Jeżeli istnieje stała K taka, że P ({ : 1() =}) = P ({ : 2() =}) = 1, to spełnione są założenia twier-
dzenia 12.9. Jeżeli ponadto P ({ : 2() 1()}) = 1, to E(X1) = E(X = E(X = E(Xn).
1 2
Wniosek 12.4 Jeżeli ciąg zmiennych losowych z martyngału {(Xn, Hn) : n " N *" {0}} jest p.n. jednostajnie ograniczonym,
to spełnione są założenia twierdzenia 12.9.
Wniosek 12.5 Jeżeli 1 = 1 i 2 spełnia założenia twierdzenia 12.9, to E(X ) = E(X1).
2
Twierdzenie 12.10 Niech {(Xn, Hn) : n " N} będzie martyngałem (podmartyngałem) dla którego istniej stała C, że dla
dowolnych n " N
E(|Xn+1 - Xn| |Hn ) C,
i niech  będzie momentem stopu posiadającym skończoną wartość oczekiwaną. Wtedy E(|X |) < +" i E(X ) = E(X1)
(odpowiednio E(X ) E(X1)).
Niech a, b " R oraz a < b. Niech {xn : n 0} " R.
[a,b]
Definicja 12.11 Ciąg {n : n 0} zdefiniowany rekurencyjnie
[a,b]
0 = inf {xn < a}
n 0

[a,b] [a,b]
1 = inf n > 0 '" xn > b
n 0
. . .

[a,b] [a,b]
2k = inf n > 2k-1 '" xn < a
n 0

[a,b] [a,b]
2k+1 = inf n > 2k '" xn > b
n 0
nazywamy ciągiem przejść w górę ciągu {xn : n 1} przez przedział [a, b].
53
[a,b]
Definicja 12.12 Niech {n : n 0} będzie ciągiem przejść w górę ciągu {xn : n 1} przez przedział [a, b]. Aączną liczbę
przejść w górę ciągu {xn : n 1} przez przedział [a, b] nazywamy liczbę
ńł
[a,b] [a,b]
ł
sup 2k-1 < +" dla 1 < +"
[a,b]
k 1
U(x ) def (12.16)
=
n
ół
[a,b]
0 dla 1 = +"
Lemat 12.3 Ciąg liczbowy {xn : n 0} jest zbieżny w szerszym sensie3 wtedy i tylko wtedy, gdy dla wszystkich par liczb
[a,b]
wymiernych (a, b), gdzie a < b zachodzi U(x ) < +"
n
[a,b] [a,b]
b
Niech (Xn) będzie ciągiem (skończonym lub nieskończonym) zmiennych losowych. Wtedy U(X ) a" Ua i n a" n są
n
ciągami zmiennych losowych mogących przyjmować wartość +".
Twierdzenie 12.11 Jeśli ciąg zmiennych losowych {Xn : n 1} jest adoptowany do filtracji {Hn : n 1}, to k są
momentami stopu względem filtracji {Hn : n 1}.4
Lemat 12.4 Niech {(Xn, Hn) : 1 n m} będzie nadmartyngałem. Wtedy dla a < b
1
b
E(Ua) < E((Xm - a)-) (12.17)
b - a
-
Twierdzenie 12.12 Niech {(Xn, Hn) : n 0} będzie nadmartyngałem i niech sup E(Xn ) < +". Wtedy ciąg {Xn : n 0}
n
jest zbieżny prawie na pewno do zmiennej losowej całkowalnej.
Wniosek 12.6 Każdy nadmartyngał nieujemny jest zbieżny.
Uwaga 12.5 Dla nadmartyngału mamy
-
sup E(Xn ) < +" ! sup E(|Xn|) < +" (12.18)
n n
Twierdzenie 12.13 Niech {Un : n 1} będzie ciągiem Bernoulliego i Hn = (U1, . . . , Un). Niech
ną2
1
2
Zn def eą(U +...Un)- .
=
Wtedy {(Zn, Hn) : n 1} jest nadmartyngałem.
Twierdzenie 12.14 (Nierówność Hardy ego - Littlewooda) Niech {Un : n 1} będzie ciągiem Bernoulliego. Wtedy
|U1 + . . . + Un|
lim sup " 1 p.n. (12.19)
n" 2n ln n
Twierdzenie 12.15 (Nierówność maksymalna dla podmartyngałów) Niech {(Xk, Hk) : 1 k n} będzie podmar-
tyngałem. Wtedy

+
"r>0rP ({ : max Xk() r}) XndP E(Xn ) E(|Xn|) (12.20)
1 k n
{: max Xk() r}
1 k n
Lemat 12.5 Niech {(Xk, Hk) : 1 k n} będzie martyngałem, zaś funkcja f: R R będzie wypukła takie, że zmienne
losowe {f(Xk) : 1 k n} są całkowalne. Wtedy {(f(Xk), Hk) : 1 k n} jest podmartyngałem.
Wniosek 12.7 Niech {(Xk, Hk) : 1 k n} będzie martyngałem. Wtedy
1
"r>0P ({ : max |Xk|() r}) E(|Xn|) (12.21)
1 k n r
Wniosek 12.8 (Nierówność Kołmogorowa) Niech {(Xk, Hk) : 1 k n} będzie martyngałem. Niech ponadto Xk =
Y1 + . . . Yk dla k = 1, . . . , n, gdzie Yk są niezależnymi zmiennymi losowymi o zerowej wartości oczekiwanej, dla których
istnieje skończony drugi moment. Wtedy
n

1
2
"r>0P ({ : max |Y1 + . . . + Yk|() r}) E(Yk ) (12.22)
1 k n r2
k=1
3
Przyjmujemy następującą definicję ciągu liczbowego zbieżnego w szerszym sensie Ciąg liczbowy {xn : n 0} jest zbieżny w szerszym sensie
wtedy i tylko wtedy, gdy jest zbieżny bądz rozbieżny do nieskończoności. Równoważne jest to stwierdzeniu, że lim inf xn = lim sup xn.
n"
n"
4
Jest to tak zwana k - ta wizyta w przedziale [a, b].
54
Rozdział 13
Zadania uzupełniające i rozszerzające
materiał wykładu
13.1 Zadania do rozdziału I
13.2 Zadania do rozdziału II
Zadanie 13.1 Udowodnić, że przekrój dowolnej ilości  - ciał jest  - ciałem.
Zadanie 13.2 Udowodnić, że  - ciało generowane przez rodzinę H jest przekrojem wszystkich  - ciał zawierających rodzinę
H.
Zadanie 13.3 Policzyć z definicji całki Lebesgue a z następujących funkcji
" f(x) = Q(x).
"

" f(x) = [2n,2n+1](x)
n=1
" funkcji Dirichleta
ńł
+" dla x " Q
ł
"
" f(x) = 2 dla x = 2
ół
0 w pozostałych przypadkach
ńł
0 dla x > 0
ł
" f(x) = 5 dla 1- < x 0
ół
1 dla x -1

[x] dla x " -3, 3
" f(x) =
0 w pozostałych przypadkach
Zadanie 13.4 Policzyć całki Lebesgue a konstruując ciąg funkcji prostych aproksymujących daną funkcję

[x] dla x 0
" f(x) =
0 dla x < 0

x dla x " 0, 1
" f(x) =
0 dla x " 0, 1
/

x2 dla x " 0, 2
" f(x) =
0 dla x " 0, 2
/

1
dla x 1
x2
" f(x) =
0 dla x < 1
Zadanie 13.5 Policzyć całkę Lebesgue a funkcji f(x) = -x3 dla x " 0, 1 .
Zadanie 13.6 Czy jest całkowalna w sensie Lebesgue a funkcja f(x) = -x3 dla x " R.
55
13.3 Zadania do rozdziału III
Zadanie 13.7 Niech
k

"1 k n-1, P ( Al) > 0. (13.1)
l=1
Udowodnić, że
n n-1 n-2

P ( Al) = P (An/ Al) P (An-1/ Al) . . . P (A2/A1) P (A1). (13.2)
l=1 l=1 l=1
W czterech następnych zadaniach mamy &! =]0, 1], a P jest miarą na ]0,1] generowaną przez długość (tzn. mamy doczy-
nienia z przestrzenią probabilistyczną (]0, 1], B(]0, 1]), PL)).
2
Zadanie 13.8 Podać przykład zdarzeń niezależnych A1, A2 takich, że P (A1) = P (A2) = .
3
1
Zadanie 13.9 Podać przykład zdarzeń niezależnych A1, A2, A3 takich, że P (A1) = P (A2) = P (A3) = .
2
1
Zadanie 13.10 Podać przykład zdarzeń niezależnych A1, A2, . . . , An takich, że P (A1) = P (A2) = . . . = P (A3) = .
2
Zadanie 13.11 Podać przykład nieskończonego przeliczalnego układu zdarzeń niezależnych.
Zadanie 13.12 Czy prawdziwe jest zdanie: Jeśli dwa zdarzenia wykluczają się, to są one zależne ?. Odpowiedz uzasadnij
tzn. w przypadku pozytywnej, przeprowadz dowód zaś w przypadku negatywnej podaj kontrprzykład, ponadto podaj w tym
przypadku, o ile istnieją, warunki wystarczające, aby zdanie było prawdzie.
13.4 Zadania do rozdziału IV
Zadanie 13.13 Zmienna losowa X ma rozkład jednostajny na (-1, 1). Wyznaczyć gęstość zmiennej losowej Y = |X|.
Zadanie 13.14 Podać przykład dystrybuanty takiej, że zbiór punktów nieciągłości jest gęsty w R.
Zadanie 13.15 Mówimy, że zmienna losowa X ma rozkład symetryczny, jeśli zmienna -X posiada ten sam rozkład. Wyrazić
własność symetryczności ciągłej zmiennej losowej za pomocą jej dystrybuanty oraz gęstości.
Zadanie 13.16 Udowodnić, że jeśli X jest zmienną losową nieujemną, to

+" +"
E(X) = (1 - FX(t))dt = P ({ : X() > t}) dt, (13.3)
0 0
przy czym istnienie jednej ze stron implikuje istnienie drugiej i równość całek.
Zadanie 13.17 Niech zmienna losowa X ma rozkład wykładniczy z parametrem 1, zaś [] oznacza część całkowitą. Wyznaczyć
prawdopodobieństwo zdarzenia A = { : [X()] " N *" {0}}.
13.5 Zadania do rozdziału V
Zadanie 13.18 Przeprowadzono n niezależnych doświadczeń o prawdopodobieństwie sukcesu w k - tym doświadczeniu rów-

n

nym pk, k = 0, 1, . . . , n. Rozpatrujemy funkcję g(s) = 1 - (pks + qk) (1 - s)-1. Dowieść, że współczynnik przy sm w
k=1
funkcji g jest równy prawdopodobieństwu uzyskania więcej niż m sukcesów, m = 0, 1, . . . , n - 1.
Zadanie 13.19 Rozpatrujemy schemat Bernoulliego z ilością doświadczeń n i prawdopodobieństwem sukcesu w pojedynczym
doświadczeniu p. Dowieść, że współczynnik przy sk w funkcji g(s) = (1 - (ps + q)n) (1 - s)-1 jest równy prawdopodobieństwu
uzyskania więcej niż k sukcesów, k = 0, 1, . . . , n - 1.
Zadanie 13.20 Wyznaczyć rozkład zmiennej losowej X o wartościach całkowitych nieujemnych, jeśli jej funkcja tworząca
prawdopodobieństwa zadana jest wzorem
56
1-4ą2 1
" g(s) = , |ą| < ;
(1-4ą2)s2-4s+4 2
2s
" g(s) = ;
18-27s+13s2-2s3
"
cosh  s
" g(s) = ;
cosh 
Wskazówka: Rozłożyć na ułamki proste.
13.6 Zadania do rozdziału VI
Zadanie 13.21 Udowodnić, że jeżeli ciąg {Xn : n 1} zmiennych losowych posiadających drugi moment spełnia warunki
(i) D2(Xn) C < +" dla dowolnego n 1
(ii) zmienna losowa Xn zależy jedynie od Xn-1 i Xn+1,
to ciąg {Xn : n 1} spełnia SPWL.
Zadanie 13.22 Udowodnić, że jeżeli Xa i xb są stałe, to

Sn() - np
P { : xa xb} <" Ś(xb+ 1 ) - Ś(xa- 1 ) (13.4)
"
2 2
npq
13.7 Zadania do rozdziału VII
Zadanie 13.23 Niech X i Y będą zmiennymi losowymi niezależnymi o jednakowym rozkładzie wykładniczym z parametrem
. Znalezć gęstość układu (U, V ), gdzie U = max(X, Y ) i V = min(X, Y ).
Zadanie 13.24 Niech F (x, y) będzie dystrybuanta wielowymiarowej zmiennej losowej (X, Y ), zaś G(x, y) dystrybuanta wie-
lowymiarowej zmiennej losowej (max(X, Y ), min(X, Y )). Wyrazić G(x, y) przez F (x, y).
Zadanie 13.25 Niech zmienne losowe X i Y będą niezależne i mają jednakowe rozkłady wykładnicze z parametrem  = 1,
X
i niech Z = X + Y , V = . Znalezć:
X+Y
" gęstość zmiennej Z;
" gęstość zmiennej V .
Czy zmienne Z i V są niezależne ?
Zadanie 13.26 Niech dwuwymiarowa zmienna losowa (X, Y ) ma gęstość

1
(1 + xy(x2 - y2)) dla |x| < 1, |y| < 1
4
f(x, y) = .
0 dla pozostałych (x, y)
Wykazać, że gęstość zmienne losowe X+Y spełnia związek fX+Y (x) = fX(x)fY (x). Czy zmienne losowe X i Y są niezależne ?
Zadanie 13.27 Niech wielowymiarowa zmienna losowa (X, Y ) ma gęstość
1 2 2
f(x, y) = " exp[- (x2 + xy + y2)] + exp[- (x2 - xy + y2)].
3 3
2Ą 3
Wyznaczyć:
" wartość oczekiwaną i wariancję rozkładu brzegowego X;
" wartość oczekiwaną i wariancję rozkładu brzegowego Y ;
" współczynnik korelacji zmiennych X + Y i X - Y ;
" współczynnik korelacji zmiennych X i Y ;
" Czy zmienne są niezależne ?
57
13.8 Zadania do rozdziału VIII
13.9 Zadania do rozdziału IX
13.10 Zadania do rozdziału X
13.11 Zadania do rozdziału XI
13.12 Zadania do rozdziału XII
58
Rozdział 14
Zadania z egzaminów z lat poprzednich
14.1 Egzamin w semestrze zimowym roku akademickim 2000/2001
14.1.1 Termin pierwszy
IIIr.  studia magisterskie
1. Na stacji oczekiwało na pociąg k pasażerów. Pociąg, który przyjechał (i na który wszyscy ci pasażerowie czekali)
składał się z n wagonów (n k). Pasażerowie zajmowali miejsca losowo. Obliczyć prawdopodobieństwo zdarzenia, że
do każdego wagonu wsiadł przynajmniej jeden pasażer. 3pkt/20pkt
2. Boki trójkąta numerujemy cyframi 1, 2, 3. Każdy wierzchołek zaliczamy tylko do jednego z boków przyległych. Przez
punkt O leżący wewnątrz trójkąta prowadzona jest prosta l w losowo wybranym kierunku. Niech Ai oznacza zdarzenie,
że prosta l przecina bok i, i = 1, 2, 3. Wyznaczyć sumę P (A1) + P (A2) + P (A3). 3pkt/20pkt
3. Tort podzielono na trzy części. Obliczyć prawdopodobieństwo, że każde dwie spośród nich ważą razem więcej niż
trzecia ? 4pkt/20pkt
4. Spośród ogólnej liczby n studentów, odpowiednio nk studentów studiuje na latach k = 1, 2, 3, 4, 5. Losujemy dwóch
studentów: X i Y . Student Y studiuje na wyższym roku niż student X. Jakie jest prawdopodobieństwo, że Y jest
studentem 3 - go roku ? 4pkt/20pkt
1
5. Wyznaczyć gęstość prawdopodobieństwa zmiennej losowej Y = X2, gdzie zmienna losowa X " N(0, 1). 3pkt/20pkt
2
6. Podać przykład dystrybuanty takiej, że zbiór punktów nieciągłości jest gęsty w R. 3pkt/20pkt
IIr.  matematyka finansowa
1. Rzucamy n kostek do gry. Obliczyć prawdopodobieństwo zdarzenia, że suma wyrzuconych oczek będzie nie mniejsza
niż 6n - 2. 3pkt/20pkt
2. Pewna choroba występuje u 1% ogółu ludności. Przygotowano test do jej wykrywania. Test daje wynik pozytywny u
98% chorych i 5% osób zdrowych. Wybrano losowo osobę i jej test dał wynik pozytywny. Obliczyć prawdopodobieństwo,
że osoba jest chora. 3pkt/20pkt
3. Losowo wybrano dwie dodatnie liczby x i y takie, że każda z nich jest nie większa od 2. Znalezć prawdopodobieństwo
y
tego, że iloczyn xy będzie nie większy niż 1, a iloraz nie większy niż 2. 4pkt/20pkt
x
4. 3 nierozróżnialne kule wrzucamy do 4 urn. Zmienna losowa X przyjmuje wartości równe ilości urn pustych. Wyznaczyć:
rozkład zmiennej losowej, wartość oczekiwaną, wariancję, odchylenie przeciętne, mode i medianę. 4pkt/20pkt
5. Niech zmienna losowa nieujemna  o wartościach całkowitych ma rozkład P ({ : () = k}) = pk, k = 0, 1, 2, . . ..
"

Oznaczmy h(s) = qjsj, gdzie qj = P ({ : () > j}). Wyrazić h(s) za pomocą funkcji tworzącej prawdopodobień-
j=0
stwa f(s) zmiennej losowej . 3pkt/20pkt
59
"

6. Dana jest przestrzeń probabilistyczna (&!, Ł, P ) i zdarzenia {An : n 1} " Ł. Udowodnić, że jeśli P (An) < ", to
n=1
" "

P ( An) = 0 3pkt/20pkt
m=1 n=m
14.1.2 Termin poprawkowy
IIIr.  studia magisterskie
1. W urnie znajduje się n jednakowych kul z numerami od 1 do n. Kule losujemy po jednej bez zwracania. Obliczyć
prawdopodobieństwo, że przynajmniej raz numer kuli będzie się zgadzał z numerem losowania. 3pkt/20pkt
2. Grupa składająca się z 2n osób, o takiej samej liczbie mężczyzn i kobiet, siada losowo wokół okrągłego stołu. Obliczyć
prawdopodobieństwo zdarzenia, że żadne dwie osoby tej samej płci nie będą siedziały obok siebie. 3pkt/20pkt
3. Dany jest odcinek 0, L i punkt r należący do tego odcinka. Z odcinka losujemy dwa punkty x1, x2. Zmienna losowa X
przyjmuje wartość 1, gdy punkt r znajduje się miedzy wylosowanymi punktami oraz 0 w przeciwnym wypadku. Podać
rozkład X. 4pkt/20pkt
4. Wiadomo, że 1 osoba na 38 spośród przekraczających (pewną) granicę przemyca narkotyki. Specjalnie wytresowany
pies zatrzymuje co 27 osobę spośród nie przemycających narkotyków i przepuszcza (nie zatrzymuje) co 9 osobę spośród
przemycających narkotyki. Jakie jest prawdopodobieństwo, że osoba, która przeszła przez granicę nie zatrzymana przez
psa jest przemytnikiem narkotyków? 4pkt/20pkt
5. Zmienna losowa X ma rozkład jednostajny na (-1, 1). Wyznaczyć gęstość zmiennej losowej Y = |X|. 3pkt/20pkt
6. Podać przykład dystrybuanty takiej, że zbiór punktów nieciągłości jest gęsty w R. 3pkt/20pkt
IIr.  matematyka finansowa
1. Zmienna losowa X " N(2, 4). Obliczyć prawdopodobieństwo zdarzenia { : -1 X() 1} wiedząc, że zaszło
zdarzenie { : 0 X() < 3}. 3pkt/20pkt
2. Każda z N + 1 urn zawiera N kul. Urna o numerze k (k = 0, 1, . . . , N) zawiera k białych i N - k czarnych kul. Z losowo
wybranej urny losujemy n razy po jednej kuli ze zwracaniem. Jakie jest prawdopodobieństwo, że wszystkie wylosowane
kule będą białe ? 3pkt/20pkt
3. Z prostokąta o bokach długości a i b, gdzie a < b losujemy punkt. Zmienna losowa X przyjmuje wartości równe
odległości punktu od najbliższego krótszego boku. Wyznaczyć rozkład zmiennej losowej X. 4pkt/20pkt
4. Pociągi kolejki elektrycznej odjeżdżają ze stacji co 5 minut. Zakładając, że rozkład czasu przybycia pasażera na stację
jest jednostajny, obliczyć wartość oczekiwaną, wariancję, odchylenie przeciętne i standardowe czasu oczekiwania na
pociąg. 4pkt/20pkt
5. Niech zmienna losowa nieujemna  o wartościach całkowitych ma rozkład P ({ : () = k}) = pk, k = 0, 1, 2, . . ..
"

Oznaczmy h(s) = qjsj, gdzie qj = P ({ : () j}). Wyrazić h(s) za pomocą funkcji tworzącej prawdopodobień-
j=0
stwa f(s) zmiennej losowej . 3pkt/20pkt
"

6. Dana jest przestrzeń probabilistyczna (&!, Ł, P ) i zdarzenia {An : n 1} " Ł. Udowodnić, że jeśli P (An) < ", to
n=1
" "

P ( An) = 0 3pkt/20pkt
m=1 n=m
14.2 Egzamin w semestrze letnim roku akademickim 2000/2001
14.2.1 Termin pierwszy
IIIr.  studia magisterskie
60

4 1
dla x 1 '" y x2
3x2y2 x
1. Dwuwymiarowa zmienna losowa (X, Y ) ma rozkład o gęstości f(x, y) = . Wyznaczyć
0 w p.p
jej dytrybuantę. 4pkt/20pkt
2. Pokazać, że jeśli ciąg (Xn) jest zbieżny według prawdopodobieństwa do zmiennej losowej X, to dla dowolnego  > 0
zachodzi lim P ({ : |Xn() - Xm()| > }) = 0. 4pkt/20pkt
n,m"
3. Niech X1, X2, . . . , Xn będą niezależnymi zmiennymi losowymi o jednakowym rozkładzie. Wykazać, że jeśli zmienna
1
"
losowa X1 ma rozkład normalny N(0, 1) to zmienna losowa Y = (X1 + . . . + Xn) ma taki sam rozkład. 4pkt/20pkt
n
4. Ciąg zmiennych losowych (Xn) ma jednakową wartość oczekiwaną i ograniczone wariancje. Czy dla niego zachodzi
SPWL, jeżli wszystkie kowariancje są ujemne ? 4pkt/20pkt
5. Rzucamy n razy prawidłową monetą. Jak duże musi być N, aby z prawdopodobieństwem 0,9 liczba wyrzuconych orłów
była zawarta pomiędzy 0, 48n a 0, 52n ? 4pkt/20pkt
IIr.  matematyka finansowa

1
x dla 0 x 1 '" 0 y
x
1. Wyznaczyć dystrybuante zmiennej losowej (X, Y ) o gęstości f(x, y) = . Udowodnić, że
0 w p.p.
zmienne losowej X i Y są zależne. 4pkt/20pkt
1 1
"
2. Układ zmiennych losowych (X, Y, Z) ma gęstość f(x, y, z) = exp[- (6x2 + 4(y - 1)2 + (z + 2)2 - (y - 1)(z + 2)]
12
4Ą 6Ą
Wyznaczyć macierz kowariancji. 4pkt/20pkt

2-|x|
dla |x| 2
4
3. Wyznaczyć funkcję charakterystyczną zmiennej losowej X o gęstości f(x) = . 4pkt/20pkt
0 dla |x| > 2
1
4. Niech dla dowolnego n " N zachodzi P ({ : Xn() = 2-n}) = P ({ : Xn() = 0}) = . Korzystając z twierdzenia o
2
"

dwóch szeregach zbadać zbieżność szeregu zmiennych losowych Xn. 4pkt/20pkt
n=1
5. Kupiono 500 ton węgla z pewnej kopalni, której węgiel zawiera przeciętnie 4% miału. Korzystając z twierdzenia Mo-
ivre a - Laplace a obliczyć prawdopodobieństwo że kupiony węgiel zawiera co najwyżej 30 ton miału ? 4pkt/20pkt
14.2.2 Termin poprawkowy
14.3 Egzamin w semestrze zimowym roku akademickim 2001/2002
14.3.1 Termin pierwszy
IIIr.  studia magisterskie
1. Z kuli o promieniu R losowo wybieramy n punktów. Obliczyć prawdopodobieństwo zdarzenia, że co najwyżej jeden z
R
wybranych punktów leży w odległości większej niż od środka kuli. 5pkt/30pkt
2
2. Boki kwadratu numerujemy cyframi 1, 2, 3, 4. Każdy wierzchołek zaliczamy tylko do jednego z boków przyległych.
Przez punkt O leżący wewnątrz kwadratu prowadzona jest prosta l w losowo wybranym kierunku. Niech Ai oznacza
zdarzenie, że prosta l przecina bok i, i = 1, 2, 3, 4. Wyznaczyć sumę P (A1) + P (A2) + P (A3) + P (A4). 5pkt/30pkt
3. Udowodnić, że rozkład wykładniczy z parametrem  > 0 ma własność
Dla dowolnych liczb a, b > 0 P ({ : X() a + b}/{ : X() a}) = P ({ : X() b}). 5pkt/30pkt
Ą Ą
4. Niech zm. los. X ma rozkład równomierny na odcinku ] - , [. Wyznaczyć gęstość zm. los. Y = | sin X|. 5pkt/30pkt
2 2

1
x dla x "]0, 1] '" y "]0, ]
x
5. Wyznaczyć dystrybuantę zm. los. (X, Y ) o gęstości f(x, y) = . 5pkt/30pkt
0 w p.p.
61
6. Gracz A otrzymuje informacje wyrażającą się poprzez tak albo nie, i oznajmia ją graczowi B. W podobny sposób B
przekazuje informację C, a następnie C przekazuje ją D. Każdy z czterech graczy mówi prawdę w jednym przypadku
na trzy. Jakie jest prawdopodobieństwo, że gracz A powiedział prawdę, jeśli wiadomo, że gracz D ujawnił prawdziwy
wynik ? 5pkt/30pkt
IIr.  matematyka finansowa
1. W koło wpisany jest kwadrat. Obliczyć prawdopodobieństwo, że z pięciu punktów rozmieszczonych losowo w kole jeden
znajdzie się w kwadracie, a pozostałe po jednym w każdym z czterech wycinków koła. 5pkt/30pkt
2. 3 nierozróżnialne kule wrzucamy do 4 urn. Zmienna losowa X przyjmuje wartości równe ilości urn pustych. Wyznaczyć
rozkład zmiennej losowej i wartość oczekiwaną. 5pkt/30pkt

Ą
3. Zmienna losowa X ma rozkład jednostajny na przedziale -Ą , . Wyznaczyć gęstość prawdopodobieństwa zmiennej
2 2
losowej Y = sin X. 5pkt/30pkt

1
x dla x "]0, 1] '" y "]0, ]
x
4. Dwuwymiarowa zmienna losowa (X, Y ), ma gęstość określoną wzorem f(x, y) = . Czy
0 w p.p.
zmienne losowe X i Y są niezależne? 5pkt/30pkt
1
5. Układ zmiennych losowych (X, Y, Z) ma gęstość f(x, y, z) = C exp[- (2x2 + y2 + 3z2 - 2xy - 2yz + 4xz)]. Wyznaczyć
2
stałą C i macierz kowariancji. 5pkt/30pkt
6. Udowodnić, że dla dowolnych zdarzeń A, B prawdziwa jest nierówność P (A )" B) 1 - P (A ) - P (B ). 5pkt/30pkt
14.3.2 Termin poprawkowy
IIIr.  studia magisterskie
1. Obliczyć prawdopodobieństwo zdarzenia, że liczba wybrana losowo z ciągu liczb naturalnych nie jest podzielna ani
przez 2 i ani przez 3; 5pkt/30pkt
2. Niech zdarzenia A i B spełniają warunki 0 < P (A) < 1 oraz P (B) > 0. Udowodnić, że jeżeli P (A|B) - P (A) = a, to
P (B)
P (B|A) - P (B|A ) = a . 5pkt/30pkt
P (A)P (A )
3. Tort podzielono na trzy części. Obliczyć prawdopodobieństwo, że każde dwie spośród nich ważą razem więcej niż
trzecia ? 5pkt/30pkt
4. Czy można dobrać stałe a, b tak aby funkcja f(x) = a arctg x + b była dystrybuantą pewnego rozkładu ? Jeśli tak, to
je podać wraz z uzasadnieniem. 5pkt/30pkt
5. Udowodnić, że jeżeli E(X2) < +", to dla dowolnej a " R zachodzi równość D2(X) = inf E((X - a)2). 5pkt/30pkt
a"R
6. Rzucamy 5 razy monetą. Niech zmienna losowa X przyjmuje wartości równe ilości wyrzuconych orłów, zaś zmienna
losowa Y długości najdłuższej serii orłów. Wyznaczyć rozkład zmiennej losowej (X, Y ). 5pkt/30pkt
IIr.  matematyka finansowa

4
dla 1 < x < y < "
xy3
1. Dwuwymiarowa zmienna losowa (X, Y ) ma gęstość zadaną wzorem f(x, y) = . Wyznaczyć
0 w p.p.
dystrybuantę tego rozkładu. 5pkt/30pkt
2. W urnie znajduje się 5 kul białych i 6 czarnych. Losujemy jedną kulę, zwracamy ją do urny i dokładamy 5 kul koloru
wylosowanego. Określamy zmienną losową X jako stosunek liczby kul białych do liczby kul w urnie po dołożeniu.
Wyznaczyć rozkład i obliczyć wartość oczekiwana. 5pkt/30pkt
ł łł
4 0 -1
ł śł
3. Dana jest macierz kowariancji trójwymiarowego rozkładu normalnego 0 4 0 ł
. Podać wzór na gęstość zmien-
ł
-1 0 4
nej losowej (X, Y, Z), jeżeli E(X) = 2, E(Y ) = 0 i E(Z) = -2 5pkt/30pkt
62
4. Losowo wybrano dwie dodatnie liczby x i y takie, że każda z nich jest nie większa od 2. Znalezć prawdopodobieństwo
y
tego, że iloczyn xy będzie nie większy niż 1, a iloraz nie większy niż 2. 5pkt/30pkt
x
5. Wyznaczyć gęstość zmiennej losowej Y = ln X, jeżeli zmienna losowa X posiada rozkład wykładniczy z parametrem
 = 1. 5pkt/30pkt
6. Udowodnić, że jeżeli E(X2) < +", to dla dowolnej a " R zachodzi równość D2(X) = inf E((X - a)2). 5pkt/30pkt
a"R
14.4 Egzamin w semestrze letnim roku akademickim 2001/2002
14.4.1 Termin pierwszy
1. Kupiono 500 ton węgla z pewnej kopalni, której węgiel zawiera przeciętnie 4% miału. Z jakim prawdopodobieństwem
możemy sądzić, że kupiony węgiel zawiera co najwyżej 30 ton miału ? Obliczenia przeprowadzić korzystając z nierów-
ności Czebyszewa. 5pkt/30pkt
2. Niech dany będzie ciąg {Xn : n 1} niezależnych zmiennych losowych spełniający warunki P ({ : Xn() = n + 1}) =
1 1
= P ({ : Xn() = -(n + 1)}) oraz P ({ : Xn() = 0}) = 1 - . Udowodnić, że spełnia on
2(n+1) ln(n+1) (n+1) ln(n+1)
SPWL i nie spełnia on MWPL. 5pkt/30pkt
3. Mając daną funkcję charakterystyczną znalezć rozkład zmiennej losowej Ć(t) = cos2 t; 5pkt/30pkt
4. Niech X1, X2, . . . , Xn będą niezależnymi zmiennymi losowymi o jednakowym rozkładzie. Wykazać, że jeśli zmienna
losowa Xk ma rozkład Poissona z parametrem k to zmienna losowa Y = X1 + . . . + Xn ma rozkład Poissona z
parametrem  = 1 + . . . + n. 5pkt/30pkt
5. Rzucamy n razy prawidłową monetą. Jak duże musi być n, aby z prawdopodobieństwem 0,9 liczba wyrzuconych orłów
była zawarta pomiędzy 0, 48n a 0, 52n ? 5pkt/30pkt
ł ł
1 0 0 0
ł ł
1 1
0 0
ł ł
2 2
6. Przeprowadzić klasyfikacje stanów łańcucha Markowa o macierzy przejścia P = ł ł . 5pkt/30pkt
1 3
ł łł
0 0
4 4
1 1 1 1
4 4 4 4
14.4.2 Termin poprawkowy
s
1. Mając daną funkcję tworzącą g(s) = wyznaczyć rozkład prwdopodobieństwa zmiennej losowej. 5pkt/25pkt
2-s
2. Wykazać, że dla ciągu {Xn : n 1} zmiennych losowych parami nieskoroelowanych, których wariancje spełniają
"
warunek D2(Xn) C n dla n " N i C > 0 spełnia SPWL. 5pkt/25pkt
3. Wykazać, że jeżeli zmienne losowe X, Y, Z są niezależne, to są parami niezależne. Czy twierdzenie odwrotne jest praw-
dziwe ? Jeżeli nie to podaj kontrprzykład. 5pkt/25pkt
4. Wyznaczyć korzystając wyłacznie z funkcji charakterystycznej k - ty moment zwykły rozkładu Laplace a o gęstości
f(x) = e-|x|. 5pkt/25pkt
5. Rzucamy n razy sześcieną kostką do gry. Jak duże musi być n, aby z prawdopodobieństwem 0,9 liczba wyrzuconych
oczek, które są liczbami podzielnymi przez 2, była zawarta pomiędzy 0, 47n a 0, 53n ? 5pkt/25pkt
14.5 Egzamin w semestrze zimowym roku akademickim 2002/2003
14.5.1 Termin pierwszy
1. (4pt/32pkt) Niech P1, . . . , Pm prawdopodobieństwami określonymi na tym samym  - ciele Ł podzbiorów &! (tzn. każde
Pi spełnia aksjomaty prawdopodobieństwa). Niech dane będą liczby nieujemne a1, . . . , am o własności a1 +. . .+am = 1.
def
Udowodnić, że funkcja P = a1 P1 + . . . + am Pm jest prawdopodobieństwem na Ł.
63
2. (4pt/32pkt) Dokonujemy n doświadczeń rzucając w r - tym doświadczeniu 2r-1 monetami, gdzie 1 r n. Obliczyć
prawdopodobieństwo, że chociaż w jednym doświadczeniu otrzymamy same orły.
3. (4pt/32pkt) Wybieramy losowo punkt z odcinak [0, 1]. Wyznaczyć dystrybuantę i gęstość zmiennej losowej, której
wartości są ilorazem długości odcinka krótszego przez dłuższy. Obliczyć prawdopodobieństwo, że wartość tego iloraz
1
ten nie przekroczy .
4
4. (4pt/32pkt) Niech  > 0 oraz zmienna losowa X ma rozkład jednostajny na odcinku ]0, 1[. Udowodnić, że zmienna
1
losowa Y = - ln X ma rozkład wykładniczy z parametrem .

5. (4pt/32pkt) Niech zmienna losowa X ma rozkład Poissona z parametrem . Wyznaczyć funkcję tworzącą prawdopo-
dobieństwa.
6. (4pt/32pkt) Udowodnić, że
ł ł
"

p.n.
ł
Xn - X ! ">0 lim P { : |Xk() - Xl()| }łł = 1.
n"
k,l n
"
1
7. (4pt/32pkt) Niech {Xn : n 2} będzie ciągiem niezależnych zmiennych losowych takich, że P ({Xn() = ą n}) =
n
2
i P ({Xn() = 0}) = 1 - . Udowodnić, że spełnia on MPWL ?
n
8. (4pt/32pkt) Rzucamy n razy prawidłową monetą. Jak duże musi być n, aby z prawdopodobieństwem 0,9 liczba
wyrzuconych orłów była zawarta pomiędzy 0, 47n a 0, 53n ?
14.5.2 Termin poprawkowy
1. (4pkt/36pkt) Niech dana będzie przestrzeń probabilistyczna (&!, Ł, P ). Niech B " Ł będzie takie, że P (B) > 0.
def
Udowodnić, że funkcja PB: Ł A PB(A) = P (A|B) jest prawdopodobieństwem.
2. (4pkt/36pkt) Bateria z trzech dział oddała salwę i dwa pociski trafiły w cel. Obliczyć prawdopodobieństwo zdarzenia,
że pocisk wystrzelony z pierwszego działa trafił w cel, jeśli prawdopodobieństwo trafienia w cel z pierwszego, drugiego
i trzeciego działa wynoszą odpowiednio p1 = 0, 4, p2 = 0, 3 i p3 = 0, 5.
3. (4pkt/36pkt) Na odcinku o długości jednostkowej wybrano losowo dwa punkty. Jakie jest prawdopodobieństwo, że
odległości pomiędzy nimi jest nie mniejsza od r, gdzie 0 r 1 ?
4. (4pkt/36pkt) Czy prawdziwe jest zdanie: Jeśli dwa zdarzenia wykluczają się, to są one zależne ?. Odpowiedz uzasadnij
tzn. w przypadku pozytywnej, przeprowadz dowód zaś w przypadku negatywnej podaj kontrprzykład, ponadto podaj
w tym przypadku, o ile istnieją, warunki wystarczające, aby zdanie było prawdzie.
5. (4pkt/36pkt) Niech  > 0 oraz zmienna losowa X ma rozkład jednostajny na odcinku ]0, 1[. Udowodnić, że zmienna
1
losowa Y = - ln(1 - X) ma rozkład wykładniczy z parametrem 

6. (4pkt/36pkt) Wzynaczyć rozkład zmiennej losowej jeżeli jej funkcja tworząca prawdopodobieństwa wyraża się wzorem
8
f(s) = .
9-s2
1
7. (8pkt(4+4)/36pkt) Prawdopodobieństwo sukcesu w każdej próbie równe jest . Karzystają raz z nierówności Czeby-
4
szewa, a drugi z twierdzenia Moivre a - Laplace a oszacować prawdopodobieństwo tego, że w 800 niezależnych próbach
ilość sukcesów bedzie większa niż 150 , a mniejsza niz 250.
8. (4pkt/36pkt) Niech dany będzie ciąg {Xn|n 1} niezależnych zmiennych losowych o rozkładzie zadanymi równościa-
1 1
mi P ({Xn() = ąn}) = , P ({Xn() = 0}) = 1 - , gdzie ą,  > 0. Przy jakiej zależności miedzy parametrami
2ną ną
ą,  spełnia on MPWL?
64
Rozdział 15
Literatura
Literatura podstawowa:
1. P. Billingsley, Prawdopodobieństwo i miara, PWN, Warszawa 1987
2. W. Feller, Wstęp do rachunku prawdopodobieństwa, PWN, Warszawa 1981
3. M. Fisz, Rachunek prawdopodobieństwa i statystyka matematyczna, PWN, Warszawa 1967
4. J. Jakubowski, R. Sztencel, Wstęp do rachunku prawdopodobieństwa, Script, Warszawa 2001
5. J. Jakubowski, R. Sztencel, Rachunek prawdopodobieństwa dla (prawie) każdego, Script, Warszawa 2002
6. L. T. Kubik, Rachunek prawdopodobieństwa, PWN, Warszawa 1981
7. A. Płocki, Rachunek prawdopodobieństwa dla nauczycieli, PWN, Warszawa 1981
Literatura uzupełniająca:
1. I.J. Dinner i in., Rachunek prawdopodobieństwa w zadaniach i problemach, PWN, Warszawa 1979
2. T. Gersternkorn, T. Śródka, Kombinatoryka i rachunek prawdopodobieństwa, PWN, Warszawa 1983
3. W. Krysicki i in., Rachunek prawdopodobieństwa i statystyka matematyczna w zadaniach, PWN, Warszawa 1986
4. J. Stojanow i in., Zbiór zadań z rachunku prawdopodobieństwa, PWN, Warszaw 1991
5. Statystyka zbiór zadań, PWE, Warszawa 1995
65
Skorowidz
 - układ, 9 mierzalna, 9
Ą - układ, 9 prosta, 10
 - ciało, 8 tworząca
generowane ciągu liczbowego, 28
przez rodzinę podzbiorów, 8 prawdopodobieństw, 28
przez zmienną losową, 19 reszt, 28
ogonowe, 31
gęstość
rozkładu, 36
całka
zmiennej losowej, 20
Lebesgue a, 10
granica
całka Eulera
dolna ciągu zbiorów, 17
I rodzaju, zob. funkcja, beta
górna ciągu zbiorów, 17
II rodzaju, zob. funkcja, gamma
ciąg
kowariancji zmiennych losowych, 37
przejść w górę, 52
kwantyl
ciąg dystrybuant
rzedu p, 24
słabo zbieżny, 40
ciąg prognozowalny, 51
lemat
ciąg rozkładów prawdopodobieństwa
Borela - Cantelliego, 18
słabo zbieżny, 39
Fatou, 11
ciąg zatrzymany, 51
o  - i Ą - układach, 9
ciąg zmiennych losowych
łańcuch Markowa, 47
zbieżny według rozkładu, 39
chwilowy, 49
ciągłości prawdopodobieństwa
jednorodny, 47
z dołu, 13
nieprzywiedlny, 48
z góry, 13 powracający, 49
macierz
dominanta, zob. moda
korelacji, 38
dystrybuanta
kowariancji, 38
rozkładu prawdopodobieństwa, 20
przejścia, 47
ułomna, 40
n krokach, 48
zmiennej losowej
stochastyczna, zob. macierz, przejścia
jednowymiarowej, 20
martyngał, 51
filtracja, 50
prawostronnie domkniety, 51
funkcja
mediana, 24
beta, 6
miara, 8
borelowska, 6
probabilistyczna, 9
całkowalna, 10 skończona, 9
z p - tą potęgą, 11 moda, 24
charakterystyczna, 43 moment
charakterystyczna zbioru, 10 absolutny rzędu r wzgledem liczby, 23
dodatnio określona, 43 centralny rzędu r, 23
gamma, 6 zwykły rzędu r, 23
66
moment stopu dwupunktowy, 24
względem filtracji, 50 gamma, 26
Gaussa, zob. rozkład, normalny
nadmartyngał, 51
geometryczny, 25
nierówność
hipergeometryczny, 25
Czebyszewa, 26
jednopunktowy, 24
Hldera, 26
Laplace a, 25
Hardy ego - Littlewooda, 53
normalny, 26
Jensena, 26
Pascala, 25
dla warukowej wartości oczekiwanej, 41
początkowy, 47
Kołmogorowa, 31, 53
Poissona, 25
Lvy ego - Ottavianiego, 31
prawdopodobieństwa
maksymalna dla podmartyngałów, 53
zmiennej losowej, 19
Schwarza, 26
równomierny, 25
ujemny dwumianowy, 25
odchylenie
wykładniczy, 25
ćwiartkowe, 24
rozkład prawdopodobieństwa
przeciętne zmiennej losowej, 23
ciągły, 20
standardowe zmiennej losowej, 23
dyskretny, 20
podmartyngał, 51
schemat
prawdopodobieństwo
Bernoulliego, 17
całkowite, 14
uogólniony, 17
warunkowe, 14
serii, 45
prawie wszędzie, 11
znormalizowany, 45
prawo
urnowy Pólya, 17
włączania i wyłącznia, 13
SPWL
prawo 0  1 Kołmogorowa, 31
Bernoulliego, 32
prawo wielkich liczb
stan, 47
moce, 32
chwilowy, 48
słabe, 32
nieistotny, 48
przestrzeń
osiągalny, 48
z miarą, 9
pochłaniający, 48
równania
powracający, 48
Chapmana - Kołmogorowa, 48
stany
rodzian
komunikujące się, 48
rozkładów prawdopodobieństwa
średni czas przebywania w stanie, 49
jędrna, 39
tożsamość
rodzina zmiennych losowych
Walda, 51
adoptowana do filtracji, 50
transformata
rodziny zdarzeń
martyngałowa, 52
niezależnych, 15
twierdzenie
rozkład
Bochnera, 43
Bernoulliego, 24
beta, 26 Chinczyna, 33
brzegowy Dooba, 52
jednowymiarowy, 36 Fellera, 46
wielowymiarowy, 37 Fubiniego I, 12
Cauchy ego, 26 Fubiniego II, 12
ciągły, zob. zmienna losowa, ciągła Kołmogorowa, 33
dwumianowy, zob. rozkład Bernoulliego Lvy ego, 32, 44
67
Lvy ego - Cramra, 44 prawie na pewno, 29
Lebesgue a, 20 wdług p - tego momentu, 29
o zbieżności monotonicznej, 11 wedłu prawdopodobieństwa, 29
o zbieżności ograniczonej, 11 zbiory borelowskie, 9
Lindeberga - Lvy ego, 46 zdarzenia
Moivre a - Laplace a (dwa) niezależne, 14
globalne, 34 niezależne, zob. układ, zdarzeń niezależnych
lokalne, 34 parami, zob. układ, zdarzeń niezależnych, parami
o aproksymacji funkcjami prostymi, 10 niezależne zespołowo, zob. układ, zdarzeń niezależnych,
o całkowaniu za pomocą residuów, 7 zespołowo
o dwóch szeregach, 31 zależne, 16
o istnieniu i jednoznaczności miary produktowej, 11 zmienna losowa
o trzech szeregach, 32 ciągła, 20
Prochorowa, 40 dyskretna, 20
Riesza, 30 jednowymiarowa, 19
Toeplitza, 32 osobliwa względem miary Lebesgue a, 20
twierdzenie Kroneckera, 33 wielowymiarowa, 35
zmienne losowe
układ
nieskorelowane, 32, 38
zupełny zdarzeń, 14
niezależne, 27
zdarzeń niezależnych, 15
parami, 14
zespołowo, 14
wariancja
zmiennej losowej, 23
wartość oczekiwana
zmiennej losowej, 22
warunek
Lapunowa, 45
Lindeberga, 45
warunkowa wartośc oczekiwana, 40
wskaznik
nierównomiernosci zmiennej losowej, 24
współczynnik
asymetrii zmiennej losowej, 24
korelacji, 38
zdarzeń, 16
zmienności zmiennej losowej, 23
wzór
Bayesa, 14
zagadnienie
Pascala, 17
Poissona, 17
zbiór
Cantora, 20
mierzalny, 9
stanów
zamknięty, 48
wartości zmiennej losowej, 19
zbieżność ciągu zmiennych losowych
68


Wyszukiwarka

Podobne podstrony:
Rachunek prawdopodobieństwa teoria
Rachunek Prawdop Bolt sciaga p8
jurlewicz,rachunek prawdopodobieństwa,całki potrójne zadania
Lipińska K, Jagiełło D, Maj R Rachunek prawdopodobienstwa i statystyka
Rachunek prawdopodobienstwa
07 1 Rachunek prawdopodobieństwa pojęcia wstępne
Rachunek prawdopodobieństwa
eBooks PL Rachunek Prawdopodobienstwa I Statystyka Mat Wojciech Kordecki (osiol NET) www!OSIOLEK!c
Rachunek prawdopodobieństwa
Rachunek prawdopodobieństwa zadania
Teoria1 Elementarny rachunek prawdopodobienstwa

więcej podobnych podstron