Geometia i Algebra Liniowa


Geometria i Algebra Liniowa
(dla I-go roku informatyki WMIM UW)
Leszek Plaskota
Instytut Matematyki Stosowanej i Mechaniki
Uniwersytet Warszawski
styczeń 2009
ii
Spis treści
1 Grupy i ciala, liczby zespolone 3
1.1 Podstawowe struktury algebraiczne . . . . . . . . . . . . . . . 3
1.1.1 Grupa . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.2 Cialo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Cialo liczb zespolonych . . . . . . . . . . . . . . . . . . . . . . 6
1.2.1 Definicja . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.2 Postać trygonometryczna . . . . . . . . . . . . . . . . . 7
1.2.3 Wzór de Moivre a . . . . . . . . . . . . . . . . . . . . . 8
1.2.4 Pierwiastki z jedynki . . . . . . . . . . . . . . . . . . . 9
1.2.5 Sprzeżenie . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3 Wielomiany . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.1 Algorytm Hornera . . . . . . . . . . . . . . . . . . . . 10
1.3.2 Zasadnicze twierdzenie algebry . . . . . . . . . . . . . 10
2 Macierze liczbowe 13
2.1 Podstawowe definicje . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.1 Macierze szczególnych formatów . . . . . . . . . . . . . 13
2.1.2 Podzial blokowy . . . . . . . . . . . . . . . . . . . . . . 14
2.2 Dzialania na macierzach . . . . . . . . . . . . . . . . . . . . . 14
2.2.1 Podstawowe dzialania . . . . . . . . . . . . . . . . . . . 14
2.2.2 Mnożenie macierzy . . . . . . . . . . . . . . . . . . . . 15
2.2.3 Mnożenie macierzy w postaci blokowej . . . . . . . . . 17
2.3 Dalsze oznaczenia . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3.1 Macierze trójkatne i jednostkowe . . . . . . . . . . . . 18
2.3.2 Uklad równań jako równanie macierzowe . . . . . . . . 19
2.4 Macierze nieosobliwe . . . . . . . . . . . . . . . . . . . . . . . 19
2.4.1 Grupa macierzy nieosobliwych . . . . . . . . . . . . . . 19
2.4.2 Warunek nieosobliwości macierzy . . . . . . . . . . . . 21
iii
iv SPIS TREŚCI
2.4.3 Permutacje . . . . . . . . . . . . . . . . . . . . . . . . 21
3 Normy wektorów i macierzy 25
3.1 Ogólna definicja normy . . . . . . . . . . . . . . . . . . . . . . 25
3.2 Normy wektorów . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.1 Normy p-te . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.2 Pożyteczne (nie)równości . . . . . . . . . . . . . . . . . 27
3.3 Normy macierzy . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3.1 Normy p-te . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3.2 Pożyteczne (nie)równości . . . . . . . . . . . . . . . . . 29
3.3.3 Norma Frobeniusa . . . . . . . . . . . . . . . . . . . . 31
4 Przestrzenie liniowe 35
4.1 Przestrzenie i podprzestrzenie . . . . . . . . . . . . . . . . . . 35
4.1.1 Definicja i podstawowe wlasności . . . . . . . . . . . . 35
4.1.2 Podprzestrzenie liniowe . . . . . . . . . . . . . . . . . . 36
4.2 Baza i wymiar przestrzeni . . . . . . . . . . . . . . . . . . . . 37
4.2.1 Liniowa (nie)zależność . . . . . . . . . . . . . . . . . . 37
4.2.2 Baza i wymiar, twierdzenie Steinitza . . . . . . . . . . 39
4.2.3 Przyklady . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.3 Sumy i sumy proste . . . . . . . . . . . . . . . . . . . . . . . . 41
4.3.1 Suma (prosta) dwóch podprzestrzeni . . . . . . . . . . 41
4.3.2 Suma (prosta) w ogólnym przypadku . . . . . . . . . . 43
4.4 Izomorfizm przestrzeni . . . . . . . . . . . . . . . . . . . . . . 44
4.5 Warstwy modulo Y . . . . . . . . . . . . . . . . . . . . . . . . 45
4.5.1 Definicja . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.5.2 Przestrzeń warstw . . . . . . . . . . . . . . . . . . . . . 46
5 Obraz, rzad i jadro macierzy 49
5.1 Obraz i rzad macierzy . . . . . . . . . . . . . . . . . . . . . . 49
5.1.1 Rzad kolumnowy i rzad wierszowy . . . . . . . . . . . . 49
5.1.2 Rzad macierzy . . . . . . . . . . . . . . . . . . . . . . 50
5.2 Przestrzeń zerowa (jadro) macierzy . . . . . . . . . . . . . . . 51
5.3 Rozklad wzgledem obrazu i jadra . . . . . . . . . . . . . . . . 52
6 Funkcjonaly liniowe 55
6.1 Funkcjonaly . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
6.1.1 Definicja i przyklady . . . . . . . . . . . . . . . . . . . 55
SPIS TREŚCI v
6.1.2 Przestrzeń sprzeżona . . . . . . . . . . . . . . . . . . . 56
6.2 Refleksywność . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
""
6.2.1 Równość X i X . . . . . . . . . . . . . . . . . . . . . 57
6.2.2 Przyklady . . . . . . . . . . . . . . . . . . . . . . . . . 58
6.3 Rozszerzenie rachunku macierzy . . . . . . . . . . . . . . . . . 59
6.3.1 Macierze wektorów i funkcjonalów . . . . . . . . . . . . 59
6.3.2 Postać macierzowa izomorfizmów . . . . . . . . . . . . 60
7 Uklady równań liniowych 63
7.1 Zbiór rozwiazań . . . . . . . . . . . . . . . . . . . . . . . . . . 63
7.1.1 Twierdzenie Kroneckera-Capelliego . . . . . . . . . . . 63
7.1.2 Zbiór rozwiazań jako warstwa . . . . . . . . . . . . . . 64
7.1.3 Uklady nieosobliwe . . . . . . . . . . . . . . . . . . . . 65
7.2 Efektywna metoda rozwiazania . . . . . . . . . . . . . . . . . 65
7.2.1 Ogólny schemat . . . . . . . . . . . . . . . . . . . . . . 66
7.2.2 Eliminacja Gaussa . . . . . . . . . . . . . . . . . . . . 66
7.2.3 Konstrukcja rozwiazania ogólnego . . . . . . . . . . . . 68
7.3 Interpretacja macierzowa eliminacji . . . . . . . . . . . . . . . 69
7.3.1 Analiza operacji elementarnych . . . . . . . . . . . . . 69
7.3.2 Rozklad trójkatno-trójkatny macierzy . . . . . . . . . . 71
7.4 Eliminacja bez przestawień . . . . . . . . . . . . . . . . . . . . 72
8 Przeksztalcenia liniowe 75
8.1 Podstawowe pojecia i wlasności . . . . . . . . . . . . . . . . . 75
8.1.1 Obraz, jadro i rzad przeksztalcenia . . . . . . . . . . . 75
8.1.2 Przyklady . . . . . . . . . . . . . . . . . . . . . . . . . 77
8.1.3 Różnowartościowość . . . . . . . . . . . . . . . . . . . 77
8.1.4 Przestrzeń przeksztalceń liniowych . . . . . . . . . . . 78
8.2 Macierz przeksztalcenia liniowego . . . . . . . . . . . . . . . . 78
8.2.1 Definicja . . . . . . . . . . . . . . . . . . . . . . . . . . 78
8.2.2 Izomorfizm Lin(X , Y) i Km,n . . . . . . . . . . . . . . 79
8.3 Dalsze wlasności macierzy przeksztalceń . . . . . . . . . . . . 80
8.3.1 Obraz i jadro przeksztalcenia/macierzy . . . . . . . . . 80
8.3.2 Zmiana bazy . . . . . . . . . . . . . . . . . . . . . . . 80
8.3.3 Zlożenie przeksztalceń . . . . . . . . . . . . . . . . . . 81
vi SPIS TREŚCI
9 Wyznacznik macierzy 83
9.1 Definicja i pierwsze wlasności . . . . . . . . . . . . . . . . . . 83
9.2 Wyznacznik a operacje elementarne . . . . . . . . . . . . . . . 84
9.2.1 Permutacja kolumn . . . . . . . . . . . . . . . . . . . . 84
9.2.2 Kombinacja liniowa kolumn . . . . . . . . . . . . . . . 86
9.3 Dalsze wlasności wyznaczników . . . . . . . . . . . . . . . . . 87
9.3.1 Wyznacznik iloczynu macierzy . . . . . . . . . . . . . . 87
9.3.2 Wyznacznik macierzy nieosobliwej i transponowanej . . 88
9.4 Definicja kombinatoryczna wyznacznika . . . . . . . . . . . . . 89
9.5 Wzory Cramera . . . . . . . . . . . . . . . . . . . . . . . . . . 90
10 Formy dwuliniowe i kwadratowe 93
10.1 Formy dwuliniowe . . . . . . . . . . . . . . . . . . . . . . . . . 93
10.1.1 Definicja i przyklady . . . . . . . . . . . . . . . . . . . 93
10.1.2 Macierz formy dwuliniowej . . . . . . . . . . . . . . . . 94
10.2 Twierdzenie Sylwester a . . . . . . . . . . . . . . . . . . . . . 96
10.3 Formy kwadratowe . . . . . . . . . . . . . . . . . . . . . . . . 97
10.3.1 Określoność formy kwadratowej . . . . . . . . . . . . . 97
10.3.2 Kryterium Sylwester a . . . . . . . . . . . . . . . . . . 98
11 Przestrzenie Euklidesowe 101
11.1 Definicja, iloczyn skalarny i norma . . . . . . . . . . . . . . . 101
11.2 Rzut prostopadly . . . . . . . . . . . . . . . . . . . . . . . . . 102
11.2.1 Zadanie aproksymacji . . . . . . . . . . . . . . . . . . . 102
11.2.2 Twierdzenie o rzucie prostopadlym . . . . . . . . . . . 103
11.3 Uklady ortogonalne . . . . . . . . . . . . . . . . . . . . . . . . 104
11.3.1 Macierz Grama . . . . . . . . . . . . . . . . . . . . . . 104
11.3.2 Ortogonalizacja Grama-Schmidta . . . . . . . . . . . . 105
11.3.3 Rozklad ortogonalno-trójkatny macierzy . . . . . . . . 107
Nota autora
Niniejszy skrypt zostal napisany z myśla o studentach pierwszego roku in-
formatyki na Wydziale Matematyki, Informatyki i Mechaniki Uniwersytetu
Warszawskiego, uczeszczajacych na semestralny wyklad pt.  Geometria z
algebra liniowa . Skrypt powstawal równolegle z prowadzonym wykladem, a
stad zawiera treści przekazywane na wykladzie i praktycznie tylko te treści.
Powinien wiec, i takie bylo moje zamierzenie, stanowić dla studentów pod-
stawowy przewodnik po w/w wykladzie.
Skrypt ma swoja historie. W swoim czasie prof. Andrzej Kielbasiń-
ski prowadzil na tym samym wydziale i także dla studentów informatyki
wyklad pt.  Algebra liniowa i jej metody obliczeniowe . Pozostalościa po
tym wykladzie sa, m.in., obszerne odreczne notatki prowadzacego. Notatki
te wydaly mi sie (i nie tylko mi) na tyle cenne, że staly sie podstawa do przy-
gotowania bieżacego wykladu. Ponieważ, w wyniku reformy studiów, wyklad
zostal ograniczony do jednego semestru, material musial być z konieczności
mocno skrócony. Jednak duch wykladu i w szczególności oryginalna notacja
wprowadzona przez prof. Kielbasińskiego pozostaly, mam nadzieje, niezmie-
nione.
Skrypt ma dynamiczny charakter i jest na bieżaco poprawiany i modyfi-
kowany.
Leszek Plaskota
Warszawa, styczeń 2009
1
2 SPIS TREŚCI
Rozdzial 1
Grupy i ciala, liczby zespolone
Dla ustalenia uwagi, bedziemy używać nastepujacych oznaczeń:
N = { 1, 2, 3, . . . } - liczby naturalne,
Z = { 0, ą1, ą2, . . . } - liczby calkowite,
m
W = : m " Z, n " N - liczby wymierne,
n
R = W - liczby rzeczywiste,
C = { (a, b) : a, b " R } - liczby zespolone.
Dwuargumentowym dzialaniem wewnetrznym  ć% w zbiorze X nazywamy
dowolna funkcje z iloczynu kartezjańskiego X X w X. Wynik takiego
dzialania na parze (x, y) bedziemy oznaczać przez x ć% y.
1.1 Podstawowe struktury algebraiczne
Zaczniemy od przedstawienia abstrakcyjnych definicji grupy i ciala.
1.1.1 Grupa
Definicja 1.1 Zbiór (niepusty) G wraz z wewnetrznym dzialaniem dwuargu-
mentowym  ć% jest grupa jeśli spelnione sa nastepujace warunki (aksjomaty
grupy):
3
4 ROZDZIAL 1. GRUPY I CIALA, LICZBY ZESPOLONE
(i) "a, b, c " G (a ć% b) ć% c = a ć% (b ć% c)
(laczność dzialania)
(ii) "e " G "a " G a ć% e = a = e ć% a
(istnienie elementu neutralnego)
(iii) "a " G "a " G a ć% a = e = a ć% a
(istnienie elementów przeciwnych/odwrotnych)
Jeśli ponadto
(iv) "a, b " G a ć% b = b ć% a
to grupe nazywamy przemienna (lub abelowa).
Grupe bedziemy oznaczać przez {G, ć%}.
Zauważmy, że już z aksjomatów grupy wynika, iż element neutralny jest
wyznaczony jednoznacznie. Rzeczywiście, zalóżmy, że istnieja dwa elementy
neutralne, e1 i e2. Wtedy, z warunku (ii) wynika, że e1 = e1 ć% e2 = e2.
Podobnie, istnieje tylko jeden element odwrotny dla każdego a " G. Jeśli
bowiem istnialyby dwa odwrotne, a 1 i a 2, to mielibyśmy
a 1 = e ć% a 1 = (a 2 ć% a) ć% a 1 = a 2 ć% (a ć% a 1) = a 2 ć% e = a 2,
przy czym skorzystaliśmy kolejno z wlasności (ii), (iii), (i) i ponownie (iii) i
(ii).
Latwo też pokazać, że w grupie {G, ć%} równania
a ć% x = b oraz y ć% c = d
dla a, b, c, d " G maja jednoznaczne rozwiazania. W uzasadnieniu, ograni-
czymy sie tylko do pierwszego równania. Latwo sprawdzić, że x = a ć% b jest
rozwiazaniem. Z drugiej strony, jeśli x jest rozwiazaniem to a ć%(ać%x) = a ć%b,
czyli x = a ć% b.
Przykladami grup sa:
" {Z, +}, gdzie elementem neutralnym jest e = 0, a elementem przeciw-
nym do a do a jest -a.
" {W \ {0}, "}, gdzie e = 1 a a = a-1 jest odwrotnościa a.
1.1. PODSTAWOWE STRUKTURY ALGEBRAICZNE 5
" Grupa obrotów plaszczyzny wokól poczatku ukladu wspólrzednych,
gdzie elementem neutralnym jest obrót o kat zerowy, a elementem od-
wrotnym do obrotu o kat ą jest obrót o kat -ą.
Zwróćmy uwage na istotność wyjecia zera w drugim przykladzie. Ponieważ
0 nie ma elementu odwrotnego, {W, "} nie jest grupa. Nie sa też grupami
np. {N, "} (nie ma elementów odwrotnych) oraz {R, -} (nie ma laczności
oraz elementu neutralnego).
1.1.2 Cialo
Definicja 1.2 Cialem (a ściślej, cialem przemiennym) nazywamy (co naj-
mniej dwuelementowy) zbiór K z dwoma dwuargumentowymi dzialaniami we-
wnetrznymi, dodawaniem  + i mnożeniem  " , spelniajace nastepujace wa-
runki (aksjomaty ciala):
(i) {K, +} jest grupa przemienna (w której element neutralny oznaczamy
przez 0, a element przeciwny do a przez -a),
(ii) {K \ {0}, "} jest grupa przemienna (w której element neutralny ozna-
czamy przez 1, a odwrotny do a przez a-1),
(iii) "a, b, c " K a " (b + c) = a " b + a " c
1
(mnożenie jest rozdzielne wzgledem dodawania).
Bezpośrednio z definicji ciala można pokazać nastepujace ogólne wlasności
(uzasadnienie pozostawiamy jako proste ćwiczenie):
1. 0 = 1,

2. "a " K 0 " a = 0 = a " 0,
3. "a " K (-1) " a = -a,
4. jeśli a " b = 0 to a = 0 lub b = 0,
5. jeśli a = 0 i b = 0 to (a " b)-1 = b-1 " a-1,

1
Przyjmujemy konwencje, że w wyrażeniach w których wystepuja i dodawania i
mnożenia najpierw wykonujemy mnożenia.
6 ROZDZIAL 1. GRUPY I CIALA, LICZBY ZESPOLONE
dla dowolnych a, b " K.
W ciele możemy formalnie zdefiniować odejmowanie i dzielenie, mianowi-
cie
a - b := a + (-b) "a, b " K,
a/b := a " b-1 "a " K, b " K \ {0}.
Przykladem ciala sa liczby rzeczywiste R z naturalnymi dzialaniami do-
dawania i mnożenia. Cialem jest też zbiór liczb
"
{ a + b 2 : a, b " W } " R
z tymi samymi dzialaniami.
1.2 Cialo liczb zespolonych
Ważnym przykladem ciala jest cialo liczb zespolonych, któremu poświecimy
ta cześć wykladu.
1.2.1 Definicja
Definicja 1.3 Cialo liczb zespolonych to zbiór par uporzadkowanych
C := R R = { (a, b) : a, b " R }
z dzialaniami dodawania i mnożenia zdefiniowanymi jako:
(a, b) + (c, d) = (a + c, b + d),
(a, b) " (c, d) = (a " c - b " d, a " d + b " c),
2
dla dowolnych a, b, c, d " R.
Formalne sprawdzenie, że C ze zdefiniowanymi dzialaniami jest cialem
pozostawiamy czytelnikowi. Tu zauważymy tylko, że elementem neutralnym
2
Zauważmy, że znaki dodawania i mnożenia wystepuja tu w dwóch znaczeniach, jako
dzialania na liczbach rzeczywistych oraz jako dzialania na liczbach zespolonych. Z kon-
tekstu zawsze wiadomo w jakim znaczeniu te dzialania sa użyte.
1.2. CIALO LICZB ZESPOLONYCH 7
dodawania jest (0, 0), a mnożenia (1, 0). Elementem przeciwnym do (a, b)
jest -(a, b) = (-a, -b), a odwrotnym do (a, b) = (0, 0) jest

a -b
(a, b)-1 = , .
a2 + b2 a2 + b2
Zdefiniujemy mnożenie liczby zespolonej przez rzeczywista w nastepujacy
(naturalny) sposób. Niech z = (a, b) " C i c " R. Wtedy
c " (a, b) = (a, b) " c = (c " a, c " b).
Przyjmujac ta konwencje, mamy
(a, b) = a " (1, 0) + b " (0, 1).
W końcu, utożsamiajac liczbe zespolona (a, 0) z liczba rzeczywista a, oraz
wprowadzajac dodatkowo oznaczenie
1 := (0, 1)
otrzymujemy
(a, b) = a + 1 " b. (1.1)
a = z nazywa sie cześcia rzeczywista, a b = z cześcia urojona liczby ze-
spolonej. Sama liczbe zespolona 1 nazywamy jednostka urojona. Zauważmy,
że
12 = (-1, 0) = -1.
1.2.2 Postać trygonometryczna
Postać (1.1) jest najbardziej rozpowszechniona. Czesto wygodnie jest użyć
również postaci trygonometrycznej, która jest konsekwencja interpretacji
liczby zespolonej (a, b) jako punktu na plaszczyznie (tzw. plaszczyznie ze-
spolonej) o wspólrzednych a i b. Dokladniej, przyjmujac
"
|z| := a2 + b2
oraz kat Ć tak, że
b a
sin Ć = , cos Ć = ,
|z| |z|
8 ROZDZIAL 1. GRUPY I CIALA, LICZBY ZESPOLONE
otrzymujemy
z = |z|(cos Ć + 1 sin Ć). (1.2)
Jest to wlaśnie postać trygonometryczna. Liczbe rzeczywista |z| nazywamy
modulem liczby zespolonej z, a Ć jej argumentem, Ć = argz.
Jeśli z = 0 i zalożymy, że Ć " [0, 2Ą) to postać trygonometryczna jest

wyznaczona jednoznacznie. Piszemy wtedy Ć = Argz.
1.2.3 Wzór de Moivre a
Niech z = |z|(cos Ć + 1 sin Ć), w = |w|(cos  + 1 sin ) beda dwoma liczbami
zespolonymi. Wtedy
w " z = |w||z| ((cos Ć cos  - sin Ć sin ) + 1(sin Ć cos  + sin  cos Ć))
= |w||z| (cos(Ć + ) + 1 sin(Ć + )) ,
a stad
|w " z| = |w||z| oraz arg(w " z) = argw + argz.
Wlaśnie w tych równościach przejawia sie wygoda postaci trygonometrycznej.
W szczególności mamy bowiem z2 = |z|2(cos 2Ć + 1 sin 2Ć) i postepujac dalej
indukcyjnie otrzymujemy wzór de Moivre a. Mianowicie, dla dowolnej liczby
zespolonej z w postaci trygonometrycznej (1.2) mamy
zn = |z|n(cos(nĆ) + 1 sin(nĆ)), n = 0, 1, 2, . . . (1.3)
Latwo zauważyć, że wzór (1.3) jest prawdziwy również dla n = -1, a stad
dla wszystkich calkowitych n. Przyjmujac za z1/n szczególne rozwiazanie
równania wn = z, mianowicie
z1/n = |z|1/n (cos(Ć/n) + 1 sin(Ć/n)) ,
gdzie Ć = Argz, uogólniamy (1.3) dla wszystkich wykladników wymiernych.
Stosujac dalej argument z przejściem granicznym (każda liczba rzeczywi-
sta jest granica ciagu liczb wymiernych) otrzymujemy w końcu nastepujacy
uogólniony wzór de Moivre a:
"a " R za = |z|a (cos(aĆ) + 1 sin(aĆ)) .
Prostym wnioskiem z ostatniego wzoru jest równanie
z = |z| " Ć,
1.2. CIALO LICZB ZESPOLONYCH 9
gdzie  = cos 1 + 1 sin 1 = 0, 540302 . . . + 1 " 0, 84147 . . . " C. Jest to
uogólnienie na przypadek liczb zespolonych wzoru x = |x| " sgn(x) znanego
z przypadku liczb rzeczywistych.
1.2.4 Pierwiastki z jedynki
Rozpatrzmy rozwiazania równania
zn = 1
dla dowolnej naturalej n. W dziedzinie rzeczywistej pierwiastkiem jest 1
jeśli n jest nieparzyste, albo 1 i (-1) jeśli n jest parzyste. W dziedzi-
nie zespolonej mamy zawsze n pierwiastków. Rzeczywiście, ponieważ 1 =
cos(2kĄ) + 1 sin(2kĄ), ze wzoru de Moivre a dostajemy, że wszyskie pier-
wiastki wyrażaja sie wzorami
2kĄ 2kĄ
zk := cos + 1 sin , k = 0, 1, 2, . . . , n - 1.
n n
Zauważmy, że zj leża na okregu jednostkowym plaszczyzny zespolonej. Zbiór
G = {zk : k = 0, 1, . . . , n - 1} ze zwyklym mnożeniem liczb zespolonych
tworzy grupe z elementem neutralnym z0 = 1.
1.2.5 Sprzeżenie
Liczbe sprzeżona do z = a + 1b definiujemy jako
z := a - 1b.
Zauważmy, że z = z oraz z " z = |z|2. Mamy też
z + z z - z
= z i = z.
2 21
I jeszcze jedna ważna wlasność sprzeżenia. Jeśli " {+, -, ", /} to
w z = w z.
Stosujac indukcje, można ten wzór uogólnić w nastepujacy sposób. Jeśli
f(u1, u2, . . . , us) jest wyrażeniem arytmetycznym, gdzie uj sa stalymi lub
zmiennymi zespolonymi, to
f(u1, u2, . . . , us) = f(u1, u2, . . . , us).
10 ROZDZIAL 1. GRUPY I CIALA, LICZBY ZESPOLONE
1.3 Wielomiany
Definicja 1.4 Wielomianem p nad cialem K nazywamy funkcje zmiennej z
o wartościach w ciele K dana wzorem
n
p(z) := ajzj = a0 + a1z + + anzn,
j=0
gdzie aj " K, 0 d" j d" n, an = 0, sa wspólczynnikami wielomianu. Liczbe n

nazywamy stopniem wielomianu i oznaczamy
n = deg p.
(Przyjmujemy przy tym, że deg 0 = -".)
1.3.1 Algorytm Hornera
n
Każdy wielomian p(z) = akzk stopnia n e" 1 o wspólczynnikach zespo-
k=0
lonych można podzielić przez dwumian z -  otrzymujac
p(z) = q(z)(z - ) + ,
gdzie deg q = n - 1, a  " C. Dodatkowo, jeśli p ma wspólczynniki rzeczy-
wiste i  " R, to q ma również wspólczynniki rzeczywiste i  " R.
Iloraz q oraz reszte  z dzielenia można otrzymać stosujac algorytm Hor-
nera:
{ bn := an;
for k := n - 1 downto 0 do bk := ak +  " bk+1;
}
n
Wtedy q(z) = bkzk-1 oraz reszta  = b0.
k=1
1.3.2 Zasadnicze twierdzenie algebry
Dla wielomianów zespolonych prawdziwe jest nastepujace ważne twierdzenie.
Twierdzenie 1.1 (Zasadnicze Twierdzenie Algebry)
Każdy wielomian zespolony p stopnia co najmniej pierwszego ma pierwiastek
zespolony, tzn. równanie p(z) = 0 ma rozwiazanie.
1.3. WIELOMIANY 11
Twierdzenie 1.1 mówi, że liczby zespolone C sa cialem algebraicznie do-
mknietym. (Przypomnijmy, że liczby rzeczywiste R nie sa algebraicznie do-
mkniete, bo np. równanie x2 + 1 = 0 nie ma rozwiazań w R.)
Konsekwencja algebraicznej domknietości C jest faktoryzacja (rozklad)
wielomianu zespolonego na czynniki pierwszego stopnia. Dokladniej, sto-
sujac n-krotnie zasadnicze twierdzenie algebry oraz fakt, że jeśli  jest pier-
wiastkiem wielomianu p to reszta z dzielenia p przez ( - ) jest zerowa,
otrzymujemy rozklad
p(z) = an(z - z1)(z - z2) (z - zn), (1.4)
gdzie zj, 1 d" j d" n, sa pierwiastkami p. Zakladajac, że tylko m pierwiastków
jest parami różnych (1 d" m d" n), możemy równoważnie napisać, że
1 2 m
p(z) = an(z - u1)s (z - u2)s (z - um)s ,
m
gdzie ui = uj o ile i = j, oraz sj = n. Przy tym zapisie, sj nazywamy

j=1
krotnościa pierwiastka uj.
Zalóżmy teraz, że wspólczynniki wielomianu p sa rzeczywiste, aj " R,
0 d" j d" n. Zalóżmy też, że p() = 0 i  " R. Wtedy  =  i
/
n n n
j
p() = aj = ajj = ajj = 0 = 0,
j=0 j=0 j=0
tzn. jeśli  jest pierwiastkiem to także liczba sprzeżona  jest pierwiastkiem;
obie wystepuja w rozwinieciu (1.4). Ale
(z - )(z - ) = z2 - z( + ) +  = z2 - 2z  + ||2
jest trójmianem kwadratowym o wspólczynnikach rzeczywistych. Stad wnio-
sek, że wielomian rzeczywisty daje sie rozlożyć na iloczyn czynników stopnia
co najwyżej drugiego.
12 ROZDZIAL 1. GRUPY I CIALA, LICZBY ZESPOLONE
Rozdzial 2
Macierze liczbowe
2.1 Podstawowe definicje
Macierza (nad cialem K) nazywamy tablice prostokatna
ł łł
a1,1 a1,2 . . . a1,n
ł
a2,1 a2,2 . . . a2,n śł
ł śł
A = ,
ł śł
. . .
. . .
ł ł
. . .
am,1 am,2 . . . am,n
gdzie ai,j " K, 1 d" i d" m, 1 d" j d" n. Bedziemy mówić, że A jest macierza
formatu mn, tzn. macierza o m wierszach i n kolumnach. Zbiór wszystkich
takich macierzy oznaczamy przez Km,n.
2.1.1 Macierze szczególnych formatów
" n n Macierze kwadratowe Kn,n.
" m 1 Macierze jednokolumnowe nazywane wektorami.
Zbiór wektorów oznaczamy przez Km,1 = Km,
ł łł
a1
ł śł
a2
ł śł
Km A = (ai,1) = a = = (ai)m = .
ł śł
.
i=1
.
ł ł
.
am
13
14 ROZDZIAL 2. MACIERZE LICZBOWE
" 1 n Macierze jednowierszowe nazywane funkcjonalami.
Zbiór funkcjonalów oznaczamy przez K1,n = KnT (albo KnH),
KnT A = (a1,j) = aT = T = (aj)n = [a1, . . . , an] .
j=1
" 1 1 Macierze jednoelementowe, utożsamiane z K, tzn. K1,1 = K.
2.1.2 Podzial blokowy
Czesto wygodnie jest przedstawić macierz w postaci blokowej, która w ogó-
lności wyglada nastepujaco:
ł łł
A1,1 . . . A1,t
ł śł
. .
. .
A = " Km,n, (2.1)
ł ł
. .
As,1 . . . As,t
s t
p
gdzie Ap,q " Km ,nq, 1 d" p d" s, 1 d" q d" t, mp = m, nq = n.
p=1 q=1
Na postać blokowa można patrzyć jak na macierz, której elementami
sa macierze. Z drugiej strony, macierz liczbowa można interpretować jako
macierz w postaci blokowej z blokami formatu 1 1.
Ważne szczególne przypadki to podzial kolumnowy macierzy,
ł łł
a1,j
ł śł
a2,j
ł śł
A = [a1, a2, . . . , an] , gdzie aj = , 1 d" j d" n,
ł śł
.
.
ł ł
.
am,j
oraz podzial wierszowy macierzy,
ł łł
T
1
ł śł
T
2
ł śł
A = , gdzie T = [ai,1, ai,2, . . . , ai,n] , 1 d" i d" m.
ł śł
.
i
.
ł ł
.
T
m
2.2 Dzialania na macierzach
2.2.1 Podstawowe dzialania
Możemy na macierzach wykonywać różne dzialania. Podstawowe z nich to:
2.2. DZIALANIA NA MACIERZACH 15
u " K, A " Km,n =! B = u " A " Km,n, bi,j = u " ai,j
(mnożenie macierzy przez liczbe)
A, B " Km,n =! C = A + B " Km,n, ci,j = ai,j + bi,j
(dodawanie macierzy)
A " Km,n =! B = AT " Kn,m, bj,i = ai,j (transpozycja macierzy)
A " Cm,n =! B = AH " Kn,m, bj,i = ai,j (sprzeżenie hermitowskie)
A " Cm,n =! B = |A| " Cm,n, bi,j = |ai,j| (modul macierzy)
W szczególności, mamy też dla u, v " K " C, A, B " Cm,n,
(u " A ą v " B)H = u " AH ą v " BH,
T H
AT = A = AH .
Zauważmy, że macierze formatu m n z dzialaniem dodawania sa grupa
przemienna, przy czym elementem neutralnym jest macierz zerowa (gdzie
ai,j = 0 "i, j), a przeciwna do (ai,j) jest macierz (-ai,j).
Jeśli macierze dane sa w postaci blokowej (2.1) to:
B = u " A =! Bp,q = u " Ap,q
C = A + B =! Cp,q = Ap,q + Bp,q
B = AT =! Bp,q = AT
q,p
B = AH =! Bp,q = AH
q,p
2.2.2 Mnożenie macierzy
Jeśli A " Km,l i B " Kl,n to
C = A " B " Km,n,
gdzie
l
ci,j = ai,k " bk,j, 1 d" i d" m, 1 d" j d" n.
k=1
16 ROZDZIAL 2. MACIERZE LICZBOWE
Zauważmy, że mnożenie A " B jest wykonalne wtedy i tylko wtedy gdy
liczba kolumn macierzy A jest równa liczbie wierszy macierzy B. Jeśli A jest
w postaci wierszowej, a B kolumnowej,
ł łł
T
1
ł śł
.
.
A = , B = b1, . . . , bl ,
ł ł
.
T
m
to ci,j = T " bj "i, j.
i
Podstawowe wlasności mnożenia macierzy sa nastepujace. (Zakladamy,
że macierze sa odpowiednich formatów tak, że dzialania sa wykonalne.)
(A + B) " C = A " C + B " C
C " (A + B) = C " A + C " B
(rozdzielność mnożenia wzgledem dodawania)
u " (A " B) = (u " A) " B = A " (u " B) = (A " B) " u (u " K)
(A " B) " C = A " (B " C) (laczność mnożenia)
Dowody tych wlasności polegaja na zwyklym sprawdzeniu. Dlatego, dla
przykladu, pokażemy tu jedynie laczność. Niech macierze A, B, C beda odpo-
wiednio formatów mk, kl, ln. (Zauważmy, że tylko wtedy odpowiednie
mnożenia sa wykonalne.) Mamy
l l k
((A " B) " C)i,j = (A " B)i,scs,j = ai,tbt,s cs,j
s=1 s=1 t=1
k l k
= ai,t bt,scs,j = ai,t(B " C)t,j
t=1 s=1 t=1
= (A " (B " C))i,j .
Mamy też
(A " B)T = BT " AT , (A " B)H = BH " AH.
Rzeczywiście,
l
(A " B)H = (A " B)j,i = aj,kbk,i
i,j
k=1
2.2. DZIALANIA NA MACIERZACH 17
l l
= aj,kbk,i = bk,iaj,k
k=1 k=1
l
= BH AH = BH " AH .
i,k k,j i,j
k=1
2.2.3 Mnożenie macierzy w postaci blokowej
Jeśli macierze sa podane w postaci blokowej to można je mnożyć  blok-po-
bloku (tak jak w przypadku bloków 11) o ile formaty odpowiednich bloków
sa zgodne. Dokladniej, jeśli A = (Ai,k), B = (Bk,j), 1 d" i d" m, 1 d" k d" l,
1 d" j d" n, oraz dla wszystkich i, j, k liczba kolumn bloku Ai,k macierzy A
jest równa liczbie wierszy bloku Bk,j macierzy B to iloczyn
C = A " B = (Ci,j) ,
1 d" i d" m, 1 d" j d" n, gdzie
l
Ci,j = Ai,k " Bk,n.
k=1
Pokażemy to na przykladzie. Niech
ł łł
ł łł
B1,1 B1,2
A1,1 A1,2 A1,3 A1,4
ł
B2,1 B2,2 śł
ł ł śł
A = A2,1 A2,2 A2,3 A2,4 ł , B = .
ł
B3,1 B3,2 ł
A3,1 A3,2 A3,3 A3,4
B4,1 B4,2
Wtedy
ł łł
C1,1 C1,2
ł
C = C2,1 C2,2 ł ,
C3,1 C3,2
gdzie
C1,1 = A1,1 " B1,1 + A1,2 " B2,1 + A1,3 " B3,1 + A1,4 " B4,1,
C1,2 = A1,1 " B1,2 + A1,2 " B2,2 + A1,3 " B3,2 + A1,4 " B4,2,
C2,1 = A2,1 " B1,1 + A2,2 " B2,1 + A2,3 " B3,1 + A2,4 " B4,1,
C2,2 = A2,1 " B1,2 + A2,2 " B2,2 + A2,3 " B3,2 + A2,4 " B4,2,
C3,1 = A3,1 " B1,1 + A3,2 " B2,1 + A3,3 " B3,1 + A3,4 " B4,1,
C3,2 = A3,1 " B1,2 + A3,2 " B2,2 + A3,3 " B3,2 + A3,4 " B4,2,
18 ROZDZIAL 2. MACIERZE LICZBOWE
o ile formaty bloków Ai,k i Bk,j sa zgodnie.
Bardzo ważnym przypadkiem szczególnym mnożenia blokowego jest
A " B = A " b1, b2, . . . , bl
= A " b1, A " b2, . . . , A " bl .
Zwróćmy jeszcze uwage na fakt, że jeśli a " Km oraz b " Kn to
C = a " bT " Km,n
jest macierza formatu m n, nazywana iloczynem wewnetrznym wektorów.
Jeśli natomiast wektory sa tych samych formatów, a, b " Kn, to
c = aT " b = bT " a " K
jest liczba, nazywana iloczynem zewnetrznym. W przypadku a, b " Cn defi-
niujemy również iloczyn skalarny wektorów jako liczbe zespolona
g = bH " a " C.
2.3 Dalsze oznaczenia
2.3.1 Macierze trójkatne i jednostkowe
Wyróżnimy nastepujace podzbiory macierzy formatu m n (niekoniecznie
kwadratowych):
TRIUm,n = { A " Km,n : "i > j ai,j = 0 } ,
TRILm,n = { A " Km,n : "i < j ai,j = 0 } ,
DIAGm,n = { A " Km,n : "i = j ai,j = 0 } .

Sa to odpowiednio macierze trójkatne górne, trójkatne dolne i diagonalne.
Zauważmy, że każdy z tych podzbiorów macierzy stanowi grupe ze wzgledu
na dzialanie dodawania macierzy (sa to podgrupy {Km,n, +}), oraz
DIAGm,n = TRIUm,n )" TRILm,n.
2.4. MACIERZE NIEOSOBLIWE 19
Ponieważ macierze diagonalne D " DIAGm,n maja elementy niezerowe
jedynie na glównej diagonali, powiedzmy di, 1 d" i d" min(m, n), bedziemy
pisać
D = diag d1, d2, . . . , dmin(m,n) .
Szczególnie ważnymi macierzami diagonalnymi sa (kwadratowe) macierze
jednostkowe
In = diagn(1, 1, . . . , 1) " Kn,n.
n
Jeśli A " Km,n to
Im " A = A = A " In,
co oznacza, że Im i In sa elementami neutralnymi mnożenia (odpowiednio
lewostronnym i prawostronnym).
2.3.2 Uklad równań jako równanie macierzowe
Rozpatrzmy nastepujacy uklad równań:
ńł
ł a1,1x1 + a1,2x2 + + a1,nxn = b1
ł
ł
ł
a2,1x1 + a2,2x2 + + a2,nxn = b2
. (2.2)
. . . .
. . . .
ł
. . . .
ł
ł
ół
am,1x1 + am,2x2 + + am,nxn = bm
Mówimy, że jest to uklad m równań liniowych z n niewiadomymi. Liczby
ai,j " K nazywamy i wspólczynnikami ukladu, bi wyrazami wolnymi, a xj to
niewiadome.
Oznaczmy
A = (ai,j) " Km,n, b = (bi) " Km, x = (xj) " Kn.
Wtedy uklad (2.2) możemy równoważnie zapisać po prostu jako równanie
macierzowe
A " x = b.
2.4 Macierze nieosobliwe
2.4.1 Grupa macierzy nieosobliwych
W zbiorze Kn,n mnożenie macierzy jest dzialaniem wewnetrznym. Ponadto,
jak wcześniej zauważyliśmy, mnożenie jest laczne, a macierz jednostkowa
20 ROZDZIAL 2. MACIERZE LICZBOWE
In = diag(1, . . . , 1) " Kn,n jest elementem neutralnym mnożenia,
"A " Kn,n A " In = A = In " A.
(Przypomnijmy, że element neutralny, jeśli istnieje, jest tylko jeden.) Natu-
ralnym staje sie teraz pytanie, czy istnieja elementy odwrotne. Niestety, nie
zawsze. Na przyklad, latwo sprawdzić, że (niezerowa) macierz
1 -2
-2 4
nie ma odwrotności (zarówno lewostronnej jak i prawostronnej). Z drugiej
strony, wiele macierzy niezerowych maja odwrotności. Na przyklad, macierze
1 0 1 0
A = oraz B =
-1 2 1/2 1/2
stanowia pare macierzy do siebie wzajemnie odwrotnych, A"B = I2 = B "A,
tak, że możemy napisać B = A-1 i A = B-1. (Przypomnijmy, że element
odwrotny, jeśli istnieje, jest wyznaczony jednoznacznie.)
Definicja 2.1 Macierz kwadratowa A " Kn,n dla której istnieje macierz od-
wrotna A-1 " Kn,n nazywamy odwracalna albo nieosobliwa. Macierz, która
nie posiada macierzy odwrotnej nazywamy osobliwa.
Zwróćmy uwage na fakt, że pojecie macierzy (nie)osobliwej przysluguje
jedynie macierzy kwadratowej.
Iloczyn macierzy nieosobliwych jest macierza nieosobliwa. Rzeczywiście,
jeśli A, B " Kn,n to sprawdzamy bezpośrednio, że odwrotnościa C = A " B
jest macierz
C-1 = B-1 " A-1.
Stad wniosek, że
zbiór macierzy nieosobliwych formatu n n z dzialaniem
mnożenia macierzy jest grupa (nieprzemienna).
2.4. MACIERZE NIEOSOBLIWE 21
2.4.2 Warunek nieosobliwości macierzy
Twierdzenie 2.1 Aby macierz A " Kn,n byla nieosobliwa potrzeba i wy-
starcza, aby dla każdego b " Kn uklad równań A " x = b mial jednoznaczne
rozwiazanie x " Kn.
Dowód. (Konieczność.) Jesli A jest nieosobliwa to latwo sprawdzić, że
x = A-1 " b jest rozwiazaniem. Z drugiej strony, jeśli x jest rozwiazaniem,
A " x = b, to A-1 " (A " x) = A-1 " b, czyli x = A-1 " b jest rozwiazaniem
jednoznacznym.
(Dostateczność.) Uklady równań A" bj = ej, gdzie ej jest j-tym wersorem,
ej = [0, . . . , 0, 1, 0, . . . , 0]T ,
(gdzie jedynka stoi na j-tym miejscu) maja jednoznaczne rozwiazania bj,
1 d" j d" n. Biorac B = [ b1, b2, . . . , bn] mamy
A " B = [A " b1, . . . , A " bn] = [e1, . . . , en] = In.
Pozostaje jeszcze pokazać, że B"A = In. Rzeczywiście, mamy (A"B)"A = A,
czyli A " (B " A) = A. Rozwiazaniem równania A " Z = A jest Z = In, a
ponieważ z zalożenia rozwiazanie to jest jednoznaczne to B " A = In. Stad
B = A-1, co kończy dowód.
Jednym z ważnych wniosków z tego twierdzenie jest nastepujacy.
Wniosek 2.1 Macierz trójkatna (górna lub dolna) T " Kn,n jest nieosobliwa
wtedy i tylko wtedy gdy wszystkie elementy na glównej diagonali sa niezerowe.
Rzeczywiście, wystarczy sprawdzić jednoznaczna rozwiazywalność odpo-
wiedniego ukladu równań. Dodajmy, że macierz odwrotna do trójkatnej
dolnej (górnej), jeśli istnieje, jest też trójkatna dolna (górna).
2.4.3 Permutacje
Niech p = [p(1), p(2), . . . , p(n)] " Perm(n) bedzie permutacja n elementowa.
Odpowiadajaca tej permutacji macierz P = (pi,j) " Kn,n zdefiniowana jako
1 gdy j = p(i),
pi,j =
0 gdy j = p(i),

22 ROZDZIAL 2. MACIERZE LICZBOWE
nazywamy macierza permutacji. Na przyklad, jeśli p = [3, 1, 4, 2] " Perm(4)
to
ł łł
0 0 1 0
ł śł
1 0 0 0
ł śł
P = .
ł ł
0 0 0 1
0 1 0 0
Równoważnie, macierz kwadratowa P jest macierza permutacji wtedy i tylko
wtedy gdy w każdym wierszu i w każdej kolumnie wystepuje dokladnie jedna
jedynka, a pozostale elementy sa zerami.
Latwo sprawdzić, że permutacje n-elementowe Perm(n) tworza grupe ze
wzgledu na ich zlożenie,
(q ć% p)(i) = q(p(i)) 1 d" i d" n.
Elementem neutralnym jest permutacja identycznościowa id(i) = i "i, a ele-
mentem odwrotnym do p jest permutacja odwrotna p zdefiniowana równościa
p (p(i)) = i "i.
Podobnie, macierze permutacji tworza grupe ze wzgledu na mnożenie
macierzy, przy czym
P (q ć% p) = P (p) " P (q).
Rzeczywiście, (P (q ć% p))i,j = 1 w.t.w. gdy q(p(i)) = j. Z drugiej strony,
(P (p) " P (q))i,j = 1 w.t.w gdy (P (q))p(i),j = 1, czyli znów q(p(i)) = j.
Podobnie pokazujemy, że
P (p ) = (P (p))-1 = (P (p))T .
Zauważmy jeszcze, że jeśli P = P (p), p " Perm(n), to
ł łł ł łł
x1 xp(1)
ł śł ł śł
. .
. .
P " = ,
ł ł ł ł
. .
xn xp(n)
czyli mnożenie wektora z lewej strony przez macierz permutacji skutkuje
zamiana kolejności wspólrzednych. Podobnie,
ł łł ł łł
T
T
p(1)
1
ł śł ł śł
. .
. .
P " =
ł ł ł ł
. .
T T
n
p(n)
2.4. MACIERZE NIEOSOBLIWE 23
powoduje przestawienie wierszy macierzy zgodnie z p. Ponieważ
T T
T
A " P = (A " P )T = P " AT ,
dochodzimy do wniosku, że
A " P permutuje kolumny A zgodnie z p ,
T
A " P permutuje kolumny A zgodnie z p.
24 ROZDZIAL 2. MACIERZE LICZBOWE
Rozdzial 3
Normy wektorów i macierzy
W tym rozdziale zakladamy, że
K ą" C.
3.1 Ogólna definicja normy
Niech  : Km,n [0, +") bedzie przeksztalceniem spelniajacym warunki:
(i) "A " Km,n (A) = 0 !! A = 0,
(ii) "A " Km,n "u " K (u " A) = |u| (A),
(iii) "A, B " Km,n (A + B) d" (A) + (B)
(nierówność trójkata albo subaddytywność).
Każde takie przeksztalcenie  nazywamy norma w Km,n i oznaczamy
(A) = A .
Norma jest miara  wielkości macierzy. Dlatego
A - B
uznajemy za miare odleglości miedzy macierzami A i B.
Powiemy, że norma jest monotoniczna gdy warunek |A| d" |B| (tzn. gdy
|ai,j| d" |bi,j| "i, j) implikuje A d" B . Jeśli norma w Kn,n spelnia
A " B d" A B , "A, B " Kn,n,
to mówimy, że norma jest submultiplikatywna.
25
26 ROZDZIAL 3. NORMY WEKTORÓW I MACIERZY
3.2 Normy wektorów
3.2.1 Normy p-te
Wektory w Kn sa szczególnymi macierzami. W tym przypadku, ważnymi
przykladami norm sa normy Schura, zdefiniowane dla danej p, 1 d" p d" ",
jako
1/p
n
x = |xi|p dla 1 d" p < ",
p
i=1
x = max |xi|.
"
1d"id"n
Nietrudno zauważyć, że x = limp" x , "x " Kn.
" p
Warunki (i) i (ii) normy sa trywialnie spelnione przez normy Schura.
Warunek (iii) latwo sprawdzić dla p = 1, ". Dla p = 1 mamy bowiem
n n n
x + y = |xi + yi| d" |xi| + |yi| = x + y ,
1 1 1
i=1 i=1 i=1
a dla p = "
x + y = max |xi + yi| d" max |xi| + max |yi| = x + y .
" " "
1d"id"n 1d"id"n 1d"id"n
(W obu przypadkach zastosowaliśmy nierówność trójkata |u + v| d" |u| + |v|
dla liczb zespolonych u i v.) Dla innych wartości p warunek (iii) jest dużo
trudniej pokazać. Dlatego ograniczymy sie tu jedynie do przypadku p = 2.
Lemat 3.1 (Nierówność Schwarza)
Dla dowolnych u, v " Kn mamy
|uH " v| d" u v .
2 2
Dowód. Dla t " K mamy
2
0 d" u + v " t = (u + v " t)H (u + v " t)
2
Ż Ż
= uH " u + t t " vH " v + uH " v " t + vH " u " t
2 2
= u + |t|2 v + |t| |uH " v| (+) + -(+) ,
2 2
gdzie t = |t| , uH " v = |uH " v| ,  = cos 1 + 1 sin 1.
3.2. NORMY WEKTORÓW 27
Biorac teraz  = - mamy
2 2
0 d" u + 2|t| |uH " v| + |t|2 v ,
2 2
a biorac  = Ą -  mamy
2 2
0 d" u - 2|t| |uH " v| + |t|2 v .
2 2
Stad dla dowolnej  " R otrzymujemy
2 2
0 d" u + 2|uH " v| + 2 v .
2 2
Ponieważ prawa strona ostatniej nierówności jest, jako funkcja , trójmianem
kwadratowym o wartościach nieujemnych, to
2 2
0 e" " = 4 |u " v|2 - u v ,
2 2
co implikuje |uH " v| d" u v i kończy dowód.
2 2
Na podstawie nierówności Schwarza mamy teraz
2 2 2
u + v = u + v + uH " v + vH " u
2 2 2
2 2
= u + v + 2 (uH " v)
2 2
2 2
d" u + v + 2|uH " v|
2 2
2 2
d" u + v + 2 u v
2 2
2 2
= ( u + v )2 ,
2 2
czyli nierówność trójkata dla .
2
3.2.2 Pożyteczne (nie)równości
Nietrudno pokazać nastepujace nierówności laczace normy p-te Schura dla
p = 1, 2, ". Mianowicie, dla każdego u " Kn mamy
u d" u d" n u ,
" 1 "
"
u d" u d" n u ,
" 2 "
"
u d" u d" n u ,
2 1 2
28 ROZDZIAL 3. NORMY WEKTORÓW I MACIERZY
przy czym ostatnia z tych nierówności jest konsekwencja nierówności Schwa-
rza,
1/2 1/2
n n n n
"
u = |ui| = |ui| |1| d" |ui|2 12 = n u .
1 2
i=1 i=1 i=1 i=1
Dodatkowo zauważamy, że nierówności tych nie można poprawić. Na przy-
klad, dla pierwszego wersora e1 mamy e1 = 1 "p, a dla 1 = [1, 1, . . . , 1] "
p
"
Kn mamy 1 = n 1 = n 1 .
1 2 "
Kula jednostkowa w Kn (ze wzgledu na norme ) nazywamy zbiór
wektorów
K = { u " Kn : u d" 1} .
Z podanych powyżej nierówności wynika w szczególności, że
K1 " K2 " K",
gdzie Kp jest kula jednostkowa w normie p-tej Schura.
Zauważmy jeszcze, że normy p-te sa monotoniczne oraz, że dla dowolnej
macierzy permutacji P " Kn,n i wektora x " Kn
P " x = x ,
p p
tzn. norma p-ta wektora jest niezmiennicza ze wzgledu na przestawienia
kolejności jego wspólrzednych.
3.3 Normy macierzy
3.3.1 Normy p-te
Normy p-te macierzy sa definiowane (indukowane) przez normy p-te wek-
torów w nastepujacy sposób:
A " x p
A = sup
p
x
0 =x"Kn p
= sup { A " x : x " Kn, x = 1} .
p p
Zauważmy, że używamy tego samego oznaczenia dla norm wektora jak i ma-
cierzy. Jest to uzasadnione, gdyż norma p-ta macierzy jest uogólnieniem
3.3. NORMY MACIERZY 29
normy p-tej wektora. Dla A = [u1, . . . , um]T " Km,1 = Km mamy bowiem
m
A = sup|t|=1 A " t = ( |ui|p)1/p. (Tutaj t " K!)
p p
i=1
Wprost z definicji wynika, że normy indukowane macierzy spelniaja wa-
runek zgodności (z norma wektorowa), tzn.
"A " Km,n "x " Kn A " x d" A x .
p p p
Normy te sa również submultiplikatywne,
"A " Km,l "B " Kl,n A " B d" A B .
p p p
Rzeczywiście, dla x " Kl mamy
(A " B) " x = A " (B " x) d" A B " x p
p p p
d" A B x ,
p p p
skad
(A " B) " x p
sup d" A B .
p p
x p
x = 0
Dla macierzy permutacji P " Km,m i Q " Kn,n mamy
P " A " QT = A ,
p p
co oznacza, że przestawienie kolumn i wierszy macierzy nie zmienia jej p-
tej normy. Rzeczywiście, ponieważ przestawienie wspólrzednych nie zmienia
normy p-tej wektora, mamy
P " A " QT " x p A " QT " x p A " y p
sup = sup = sup .
x p QT " x p y = 0 y p
x = 0 x = 0
3.3.2 Pożyteczne (nie)równości
Dla niektórych p, norme można wyrazić w sposób pozwalajacy ja latwo ob-
liczyć.
Lemat 3.2 Dla dowolnej macierzy A = (ai,j) " Km,n
(a) A = max1d"id"m n |ai,j|,
"
j=1
(b) A = max1d"jd"n m |ai,j|.
1
i=1
30 ROZDZIAL 3. NORMY WEKTORÓW I MACIERZY
Dowód. (a) Dla x = [x1, . . . , xn]T " Kn mamy
n n
A " x = max ai,j xj d" max |ai,j| |xj|
"
1d"id"m 1d"id"m
j=1 j=1
n
d" x max |ai,j| .
"
1d"id"m
j=1
j
Z drugiej strony, wezmy x" = (x") taki, że x" = - , 1 d" j d" n, gdzie j
j j
j
jest argumentem liczby as,j, tzn. as,j = |as,j| , a s jest tym indeksem i,
n
dla którego suma |ai,j| jest najwieksza. Wtedy x" = 1 oraz
"
j=1
n n n
j j
A " x" e" as,j x" = |as,j| - = |as,j|,
"
j
j=1 j=1 j=1
a stad A e" max1d"id"m n |ai,j|.
"
j=1
(b) Dla dowolnego x mamy
m n m n
A " x = ai,j xj d" |ai,j| |xj|
1
i=1 j=1 i=1 j=1
n m m
= |xj| |ai,j| d" max |ai,j| x .
1
1d"jd"n
j=1 i=1 i=1
Z drugiej strony, dla x" takiego, że x" = 0 dla j = s, x" = 1 dla j = s, gdzie

j j
m
s jest tym indeksem j dla którego suma |ai,j| jest najwieksza, mamy
i=1
m
x" = 1 oraz A " x = |ai,s|, a stad A e" max1d"jd"n m |ai,j|.
1 1 1
i=1 i=1
Z powyższego lematu latwo widać, że
AT = AH = A ,
" " 1
AT = AH = A .
1 1 "
Szczególna role odgrywa norma druga , ze wzgledów, które beda jasne
2
pózniej. Niestety, nie wyraża sie ona w tak prosty sposób jak i .
1 "
W odróżnieniu od tych ostatnich, norma druga ma jednak dodatkowa ważna
wlasność; mianowicie, dla dowolnej A " Km,n
AT = AH = A .
2 2 2
3.3. NORMY MACIERZY 31
Równość ta wynika bezpośrednio z faktu, że
A = sup sup yH " A " z ,
2
z y
gdzie suprema wziete sa po z " Kn i y " Km takich, że z = 1 = y .
2 2
Rzeczywiście, dla dowolnych y i z o jednostkowych normach mamy
|yH " A " z| d" y A " z = A " z d" A ,
2 2 2 2
przy czym w pierwszej nierówności zastosowaliśmy nierówność Schwarza. Z
drugiej strony, dla z o jednostkowej normie i takiego, że A " z = 0 mamy

2
A " z (A " z)H " A " z
2
A " z = = d" sup yH " A " z ,
2
A " z 2 A " z 2
y =1
2
gdzie podstawiliśmy y = A " z/ A " z .
2
3.3.3 Norma Frobeniusa
Norme Frobeniusa (albo Euklidesowa) macierzy A " Km,n definiujemy jako
1/2
m n
A = |ai,j|2 .
F
i=1 j=1
Zaleta normy jest jej latwa  obliczalność , natomiast wada, że nie jest
F
to norma indukowana przez żadna norme wektorowa.
Zwiazek miedzy norma Frobeniusa i norma druga pokazuje nastepujacy
lemat.
Lemat 3.3 Dla dowolnej A " Km,n mamy
A d" A d" min(m, n) A .
2 F 2
Dowód. Wykorzystujac nierówność Schwarza, dla dowolnego x " Kn o
jednostkowej normie drugiej mamy
2 2
m n m n
2
A " x = ai,j xj d" |ai,j| |xj|
2
i=1 j=1 i=1 j=1
m n n
2
d" |ai,j|2 |xj|2 = A ,
F
i=1 j=1 j=1
32 ROZDZIAL 3. NORMY WEKTORÓW I MACIERZY
a stad A d" A .
2 F
Z drugiej strony, przedstawiajac A jako
A = [a1, a2, . . . , an] , aj " Km,
mamy A e" A " ej = aj , gdzie ej jest j-tym wersorem. Stad
2 2 2
n
1 1
2 2 2
A e" aj = A ,
2 2 F
n n
j=1
"
czyli A d" n A . Ale również
F 2
" "
A = AT d" m AT = m A ,
F F 2 2
co kończy dowód.
Zauważymy jeszcze jedna wlasność norm p-tych macierzy. Niech macierz
A bedzie dana w postaci blokowej,
A = [A1, A2, . . . , As] .
Wtedy
s
Ak = sup Ak " xk = sup Aj " xj
p p
xk =1
p xk =1,xj= 0,j=k

p
j=1
p
d" sup A " x = A .
p p
x =1
p
Podobnie, jeśli
ł łł
A1
ł śł
A2
ł śł
A =
ł śł
.
.
ł ł
.
At
to
t
p p
Ak = sup Ak " x d" sup Aj " x p
p p p
x =1 x =1
p p
j=1
p p
= sup A " x = A .
p p
x =1
p
3.3. NORMY MACIERZY 33
Stad dostajemy wniosek, że jeśli A jest w postaci blokowej to dla każdego
bloku Ai,j mamy
Ai,j d" A , 1 d" p d" ".
p p
Oczywiście, ta wlasność zachodzi również dla normy Frobeniusa.
34 ROZDZIAL 3. NORMY WEKTORÓW I MACIERZY
Rozdzial 4
Przestrzenie liniowe
4.1 Przestrzenie i podprzestrzenie
4.1.1 Definicja i podstawowe wlasności
Niech X z dzialaniem dodawania  + bedzie grupa przemienna (abelowa).
Oznaczmy przez 0 element neutralny tej grupy, a przez (-a) element prze-
ciwny do a " X . Zalózmy ponadto, że w X zdefiniowane jest dzialanie
 " mnożenia przez skalary, czyli elementy pewnego ciala K, które spelnia
1
nastepujace warunki:
(i) "a " X "ą " K ą " a = a " ą " X
(ii) "a " X 1 " a = a (gdzie 1 jest jedynka w K)
(iii) "a, b " X "ą,  " K
(ą + ) " a = ą " a +  " a
ą " (a + b) = ą " a + ą " b
(ą " ) " a = ą " ( " a).
Definicja 4.1 Zbiór X z dzialaniami o wyżej wymienionych wlasnościach
nazywamy przestrzenia liniowa nad cialem K i oznaczamy X|K (albo po prostu
X ).
1
Zauważmy, że symbolu  " używamy zarówno do oznaczenia mnożenia skalaru przez
element z grupy jak i mnożenia skalaru przez skalar. Podobnie  + oznacza zarówno
dodawanie w ciele K jak i w grupie X . Nie prowadzi to jednak do niejednoznaczności, bo
z kontekstu zawsze wiadomo o jakie dzialanie chodzi.
35
36 ROZDZIAL 4. PRZESTRZENIE LINIOWE
Podamy kilka elementarnych wlasności przestrzeni liniowych:
" "a " X 0 " a = 0
" "a " X (-1) " a = -a
" "ą " K "a " X [ ą " a = 0 !! (ą = 0) lub (a = 0) ]
Pierwsza wlasność wynika z równości 0 " a = (0 + 0) " a = 0 " a + 0 " a, a
druga z równości 0 = 0 " a = (1 + (-1)) " a = a + (-1) " a. Implikacja w
lewa strone w ostatniej wlasności jest oczywista. Aby pokazać implikacje w
prawa strone zalóżmy, że ą " 0 = 0 i ą = 0. Wtedy

a = 1 " a = (ą-1 " ą) " a = ą-1 " (ą " a) = ą-1 " 0 = 0.
Elementy przestrzeni liniowej X|K nazywamy zwykle wektorami, odwolu-
jac sie do odpowiedniej interpretacji geometrycznej.
Przykladami przestrzeni liniowych sa Rn , Cn , Cn , Km,n. We wszyst-
|R |R |C |K
kich tych przykladach mnożenie wektora przez skalar zdefiniowane jest w
naturalny sposób  wyraz po wyrazie . Przestrzeń liniowa nad R (albo nad
C) tworza też wielomiany stopnia co najwyżej (n - 1) o wspólczynnikach
n n
rzeczywistych (albo zespolonych). Oznaczamy ja przez P|R (albo P|C).
4.1.2 Podprzestrzenie liniowe
Definicja 4.2 Niech X|K bedzie przestrzenia liniowa. Niepusty podzbiór Y ą"
X nazywamy podprzestrzenia (liniowa) przestrzeni X|K, gdy Y jest prze-
strzenia liniowa nad K (z dzialaniami jak w X ). Piszemy przy tym
Y|K ą" X|K.
Twierdzenie 4.1 Na to, aby Y|K ą" X|K potrzeba i wystarcza, że:
(i) "a, b " Y a + b " Y
(ii) "ą " K "a " Y ą " a " Y.
Dowód. (i) i (ii) oznaczaja, że dodawanie wektorów i mnożenie ich przez
skalar nie wyprowadzaja poza zbiór Y. Pozostale warunki bycia podprze-
strzenia sa w sposób oczywisty spelnione, bo sa one spelnione w X .
Szczególnymi przykladami podprzestrzeni sa Y = X (podprzestrzeń nie-
wlaściwa) oraz Y = {0} (podprzestrzeń zerowa).
4.2. BAZA I WYMIAR PRZESTRZENI 37
Twierdzenie 4.2 Cześć wspólna dowolnej rodziny podprzestrzeni przestrze-
ni liniowej X|K jest też podprzestrzenia X|K.
Dowód. Niech {Yj}j"J, gdzie J jest (być może nieskończonym) zbiorem
indeksów, bedzie dowolna rodzina podprzestrzeni. Oznaczmy
Y = Yj.
j"J
Wobec twierdzenia 4.1 wystarczy pokazać, że dzialania dodawania i mnożenia
przez skalar nie wyprowadzaja poza zbiór Y. Rzeczywiście, warunek a, b " Y
oznacza, że a, b " Yj dla wszystkich j " J, a stad również a + b " Yj. W
konsekwencji a + b " )"j"JYj = Y. Podobne uzasadnienie dla mnożenia przez
skalar omijamy.
Ważnymi przykladami podprzestrzni liniowych przestrzeni macierzy Km,n
|K
n
sa TRILm,n, TRIUm,n oraz DIAGm,n. Podprzestrzeniami liniowymi w P|K sa
k
P|K z k d" n, albo wielomiany w których zmienna wystepuje tylko w potegach
parzystych. (Przyjmujemy przy tym, że -", czyli stopień wielomianu zero-
wego, jest liczba parzysta.)
4.2 Baza i wymiar przestrzeni
4.2.1 Liniowa (nie)zależność
Niech {bj}n " X oraz i {ąj}n " K. Element
j=1 j=1
n
b = ąj " bj
j=1
nazywamy kombinacja liniowa elementów {bj}, przy czym liczby {ąj} sa
wspólczynnikami tej kombinacji.
Zauważmy, że
n
B = span(b1, b2, . . . , bn) := ąj " bj : {ąj}n " K ,
j=1
j=1
czyli zbiór wszystkich kombinacji liniowych danych elementów {bj}, jest pod-
przestrzenia przestrzeni X|K. Mówimy, że B jest rozpieta na elementach
b1, . . . , bn.
38 ROZDZIAL 4. PRZESTRZENIE LINIOWE
Definicja 4.3 Uklad {bj}n " X jest liniowo zależny jeśli istnieje uklad
j=1
skalarów {ąj}n " K zawierajacy liczby niezerowe, dla którego
j=1
n
ąj " bj = 0.
j=1
Definicja 4.4 Uklad {bj}n " X jest liniowo niezależny jeśli nie jest li-
j=1
niowo zależny, tzn. gdy dla dowolnych skalarów {ąj}n z równości
j=1
n
ąj " bj = 0
j=1
wynika, że ąj = 0, 1 d" j d" n.
Latwo zauważyć, że dowolny (niepusty) poduklad ukladu liniowo nie-
zależnego jest ukladem liniowo niezależnym. Z drugiej strony, jeśli uklad ma
poduklad liniowo zależny to uklad wyjściowy jest liniowo zależny.
Rozpatrzmy dowolny uklad {bj}n . Jeśli jest on liniowo zależny to ist-
j=1
n
nieja {ąj}n takie, że dla pewnego s mamy ąs = 0 oraz ąj " bj = 0.

j=1 j=1
Wtedy
n
ąj
bs = - " bj,
ąs
s =j=1
czyli bs " span (b1, . . . , bs-1, bs+1, . . . , bn), a stad
span(b1, . . . , bs, . . . , bn) = span(b1, . . . , bs-1, bs+1, . . . , bn).
Można tak postepować dalej otrzymujac w końcu uklad liniowo niezależny
rozpinajacy ta sama przestrzeń co {bj}n . (Ponieważ uklad wyjściowy jest
j=1
skończony, proces  wyjmowania kolejnych wektorów musi sie skończyć po
co najwyżej n krokach.)
Wniosek 4.1 Z każdego ukladu wektorów (b1, . . . , bn) można wyja ć poduklad
(bj(1), . . . , bj(k)), 1 d" j(1) < < j(k) d" n (0 d" k d" n) taki, że jest on
liniowo niezależny oraz
span(b1, . . . , bn) = span(bj(1), . . . , bj(k)).
4.2. BAZA I WYMIAR PRZESTRZENI 39
4.2.2 Baza i wymiar, twierdzenie Steinitza
Definicja 4.5 Uklad {bj}n nazywamy baza przestrzeni Y|K ą" X|K gdy:
j=1
(i) jest on liniowo niezależny,
(ii) Y = span(b1, b2, . . . , bn).
Mamy nastepujace ważne twierdzenie.
Twierdzenie 4.3 Każda przestrzeń liniowa Y|K ma baze. Ponadto, wszyst-
kie bazy sa równoliczne.
Twierdzenie to prowadzi do nastepujacej definicji.
Definicja 4.6 Liczbe elementów bazy danej przestrzeni Y|K nazywamy jej
wymiarem i oznaczamy dim(Y|K).
Dowód twierdzenia 4.3 o istnieniu i równoliczności baz udowodnimy te-
raz jedynie w przypadku przestrzeni rozpietych na ukladach skończonych.
Zauważmy najpierw, że z Wniosku 4.1 natychmiast wynika, iż takie prze-
strzenie maja baze. Dowód równoliczności baz opiera sie na nastepujacym
bardzo pożytecznym twierdzeniu.
Twierdzenie 4.4 (Steinitza o wymianie)
Niech
span(b1, . . . , bn) ą" span(c1, . . . , cm) = X ,
przy czym uklad {bj}n jest liniowo niezależny. Wtedy n d" m oraz n ele-
j=1
mentów ukladu {cj}n można wymienić na {bj}n otrzymujac uklad rozpi-
j=1 j=1
najacy X .
Dowód. (Indukcja wzgledem n.)
Dla n = 0 teza jest oczywista. Zalózmy, że teza zachodzi dla n-1. Wtedy
n - 1 d" m oraz
X = span(b1, . . . , bn-1, cn, cn+1, . . . , cm).
40 ROZDZIAL 4. PRZESTRZENIE LINIOWE
(Zakladamy bez zmniejszenia ogólności, że wymieniliśmy n-1 poczatkowych
elementów ukladu {cj}m .) Ponieważ bn " X to można go przedstawić w
j=1
postaci kombinacji liniowej
n-1 m
bn = ąj " bj + j " cj.
j=1 j=n
Zauważmy, że istnieje s, n d" s d" m, taka, że s = 0, bo w przeciwnym

przypadku bn bylby liniowo zależny od b1, . . . , bn-1. Stad n d" m oraz
m
bn n-1 ąj j
cs = - " bj - " cj,
s j=1 s s
s =j=n
tzn. cs jest liniowa kombinacja wektorów b1, . . . , bn, cn, . . . , cs-1, cs+1, . . . , cm.
Wymieniajac cs na bn dostajemy
X = span(c1, . . . , cm) = span(b1, . . . , bn-1, cn, . . . , cm)
= span(b1, . . . , bn-1, bn, cn+1, . . . , cm).
To kończy dowód.
Biorac teraz dwie bazy, (b1, . . . , bn) oraz (c1, . . . , cm), tej samej przestrzeni
Y|K i stosujac twierdzenie Steinitza otrzymujemy z jednej strony n d" m, a z
drugiej m d" n. Stad m = n, czyli bazy sa równoliczne.
Z twierdzenia Steinitza można latwo wywnioskować nastepujace wlasno-
ści. (Poniżej zakladamy, że dim(X|K) < ".)
1. Każdy uklad liniowo niezależny w X można uzupelnić do bazy w X .
2. Jeśli Y|K ą" X|K to dim(Y|K) d" dim(X|K).
3. Niech Y|K ą" X|K. Wtedy
Y = X !! dim(Y|K) = dim(X|K).
4.2.3 Przyklady
Podamy teraz kilka przykladów przestrzeni i ich baz.
4.3. SUMY I SUMY PROSTE 41
"
Km = span(e1, e2, . . . , em),
|K
gdzie ej = [0, . . . , 0, 1, 0, . . . , 0]T jest j-tym wersorem (jedynka na j-tej
wspólrzednej). Stad dim(Km ) = m.
|K
"
Km,n = span(Ei,j : 1 d" i d" m, 1 d" j d" n),
|K
gdzie
1 i = p, j = q,
(Ei,j)p,q =
0 wpp.
Stad dim(Km,n) = m n.
|K
"
"
Cm,n = span(Ei,j, 1 Ei,j : 1 d" i d" m, 1 d" j d" n) (1 = -1).
|R
Stad dim(Cm,n) = 2 m n.
|R
"
n
P|R = span(1, t, t2, . . . , tn-1)
n
i dim(P|R) = n.
4.3 Sumy i sumy proste
4.3.1 Suma (prosta) dwóch podprzestrzeni
Niech Y i Z beda podprzestrzeniami X . Definiujemy iloczyn tych podprze-
strzeni jako
S = Y )" Z := {x " X : x " Y i x " Z},
oraz sume jako
T = Y + Z := {y + z : y " Y, z " Z}.
Zauważmy, że suma podprzestrzeni nie jest zwykla suma teoriomnogościowa.
Oczywiście, zarówno iloczyn S jak i suma T sa podprzestrzeniami X .
42 ROZDZIAL 4. PRZESTRZENIE LINIOWE
Definicja 4.7 Jeśli iloczyn Y )" Z = {0} to sume Y + Z nazywamy suma
prosta i oznaczamy
T = Y " Z.
Podamy teraz kilka wlasności wymiarów sum i sum prostych.
(W1)
0 d" dim(Y )" Z) d" min (dim(Y), dim(Z))
(W2)
max (dim(Y), dim(Z)) d" dim(Y + Z)
d" min (dim(X ), dim(Y) + dim(Z))
(W3)
dim(Y + Z) = dim(Y) + dim(Z) - dim(Y )" Z)
(W4)
dim(Y " Z) = dim(Y) + dim(Z)
Wlasność (W1) jak i lewa strona (W2) wynikaja po prostu z zawierania sie
odpowiednich podprzestrzeni, a prawa strona w (W2) z faktu, że Y + Z ą" X
oraz, że suma teoriomnogościowa baz w Y i Z rozpina Y + Z.
Ponieważ (W4) wynika bezpośrednio z (W3), dla pelności dowodu wy-
starczy pokazać (W3). W tym celu bierzemy baze (b1, . . . , bu) w Y )" Z, a
nastepnie uzupelniamy ja do bazy (b1, . . . , bu, yu+1, . . . , ys) w Y oraz do bazy
(b1, . . . , bu, zu+1, . . . , zt) w Z. Jasne jest, że
span(yu+1, . . . , ys) )" span(zu+1, . . . , zt) = {0},
bo inaczej wspólny element niezerowy bylby w Y )" Z, a wówczas uklad
(b1, . . . , bu, yu+1, . . . , ys) nie bylby liniowo niezależny.
Uklad (b1, . . . , bu, yu+1, . . . , ys, zu+1, . . . , zt) jest wiec liniowo niezależny i
rozpina Y + Z, a wiec jest też baza tej przestrzeni. Dlatego
dim(Y + Z) = u + (s - u) + (t - u) = s + t - u
= dim(Y) + dim(Z) - dim(Y )" Z).
4.3. SUMY I SUMY PROSTE 43
4.3.2 Suma (prosta) w ogólnym przypadku
Uogólnimy pojecia sumy i sumy prostej na dowolna, ale skończona, liczbe
podprzestrzeni. Niech Yj, 1 d" j d" s, beda podprzestrzeniami X . Sume tych
podprzestrzeni definujemy jako
s
Y = Y1 + Y2 + + Ys = Yj
j=1
:= {y1 + + ys : yj " Yj, 1 d" j d" s}.
Definicja 4.8 Jeśli dla każdego t, 1 d" t d" s,
s
Yt )" Yj = {0}
t =j=1
s
to sume Y1 + + Ys = Yj nazywamy suma prosta i oznaczamy
j=1
s
Y1 " " Ys = Yj.
j=1
Twierdzenie 4.5 Jeśli Y = "s Yj to każdy wektor y " Y ma jednoznaczne
j=1
przedstawienie w postaci
y = y1 + y2 + + ys, yj " Yj, 1 d" j d" s.
Dowód. (Indukcja wzgledem s.)
Dla s = 1 twierdzenie jest w oczywisty sposób prawdziwe. Zalóżmy, że
jest ono prawdziwe dla s - 1. Niech
y = y1 + + ys = y1 + + ys.
Wtedy
s-1
Ys ys - ys = (yj - yj) " Y1 + + Ys-1,
j=1
a ponieważ Y1 " " Ys-1 " Ys to ys = ys i y1 + + ys-1 = y1 + + ys-1.
Wobec tego, że Y1 " " Ys-1, co wynika wprost z definicji sumy prostej,
możemy teraz skorzystać z zalożenia indukcyjnego, aby wywnioskować, że
yj = yj dla 1 d" j d" s - 1. To kończy dowód.
44 ROZDZIAL 4. PRZESTRZENIE LINIOWE
Zauważmy, że jeśli Y = Y1 " " Ys to suma teoriomnogościowa baz w
Yj, 1 d" j d" s, jest baza Y. W szczególnym przypadku, gdy (b1, . . . , bn) jest
baza X to
X = span(b1) " " span(bn).
Ponadto, każdemu wektorowi x " X można jednoznacznie przyporzadkować
wspólczynniki ąj, 1 d" j d" n, takie, że
n
x = ąj " bj.
j=1
4.4 Izomorfizm przestrzeni
Definicja 4.9 Przestrzeń X|K jest izomorficzna z Y|K (obie przestrzenie nad
tym samym cialem) gdy istnieje wzajemnie jednoznaczne (różnowartościowe
i  na ) odwzorowanie
f : X Y
zachowujace kombinacje liniowe, tzn. "x1, x2 " X "ą1, ą2 " K
f(ą " x1 + ą2 " x2) = ą1 " f(x1) + ą2 " f(x2).
Odwzorowanie f nazywamy izomorfizmem.
Zauważmy, że jeśli f : X Y jest izomorfizmem to f(0) = 0 (bo f(0) =
f(0 + 0) = f(0) + f(0)). Izomorfizm zachowuje też liniowa (nie)zależność
s
wektorów, co wynika z faktu, że warunek ąj"f(bj) = 0 jest równoważny
j=1
s s
f( ąj " bj) = 0, czyli ąj " bj = 0. Stad mamy prosty wnio-
j=1 j=1
sek, że izomorfizm f przeprowadza baze (b1, . . . , bn) przestrzeni X na baze
(f(b1), . . . , f(bn)) przestrzeni Y.
Ponadto mamy:
(i) każda przestrzeń jest izomorficzna ze soba,
(ii) jeśli X jest izomorficzna z Y to Y jest izomorficzna z X ,
(iii) jeśli X jest izomorficzna z Y oraz Y jest izomorficzna z Z to X jest
izomorficzna z Z.
4.5. WARSTWY MODULO Y 45
Aby pokazać (i) wystarczy zauważyć, że przeksztalcenie identycznościowe w
X ustala izomorfizm X z X . Dla (ii) wykażemy, że odwzorowanie odwrotne
f-1 : Y X ustala izomorfizm Y z X . Rzeczywiście, jeśli y1, y2 " Y to
istnieja x1, x2 " X takie, że y1 = f(x1) i y2 = f(x2). Stad
f-1(ą1 " y1 + ą2 " y2)
= f-1(ą1 " f(x1) + ą2 " f(x2)) = f-1(f(ą1 " x1 + ą2 " x2))
= ą1 " x1 + ą2 " x2 = ą1 " f-1(y1) + ą2 " f-1(y2).
W końcu, aby pokazać (iii) zauważmy, że jeśli f i g sa odpowiednio izomor-
fizmami X w Y oraz Y w Z to zlożenie h() := g(f()) jest izomorfizmem X
w Z. Rzeczywiście,
h(ą1 " x1 + ą2 " x2)
= g(f(ą1 " x1 + ą2 " x2)) = g(ą1 " f(x1) + ą2 " f(x2))
= ą1 " g(f(x1)) + ą2 " g(f(x2)) = ą1 " h(x1) + ą2 " h(x2).
Wlasności (i)-(iii) pokazuja, że relacja  bycia przestrzeniami izomorficz-
nymi jest zwrotna, symetryczna i przechodnia, a wiec jest relacja równowa-
żności. Stad, zbiór wszystkich przestrzeni liniowych nad ustalonym cialem
można podzielić na rozlaczne podzbiory bedace klasami abstrakcji tej relacji.
Do tej samej klasy należa przestrzenie wzajemnie izomorficzne.
Wniosek 4.2 Każda przestrzeń liniowa X|K wymiaru n jest izomorficzna z
Kn .
|K
Rzeczywiście, wybierajac dowolna baze (b1, . . . , bn) w X|K i definiujac
odwzorowanie f : X Y jako
n n
f ąj " bj := ąj " ej
j=1 j=1
(gdzie ej jest j-tym wersorem) otrzymujemy izomorfizm przestrzeni X|K w
Kn .
|K
4.5 Warstwy modulo Y
4.5.1 Definicja
Niech Y bedzie podprzestrzenia przestrzeni X i niech x0 " X .
46 ROZDZIAL 4. PRZESTRZENIE LINIOWE
Definicja 4.10 Zbiór wektorów
W (x0, Y) := { x0 + y : y " Y }
nazywamy warstwa modulo Y przez x0 (albo hiperplaszczyzna równolegla do
Y przez punkt x0).
Zauważmy, że jeśli x1 -x2 " Y to warstwy W (x1, Y) i W (x2, Y) zawieraja
te same wektory. Rzeczywisście, jeśli x = x1 + y " W (x1, Y) to x = x2 +
((x1 - x2) + y) " W (x2, Y). Podobnie, jeśli x " W (x2, Y) to x " W (x1, Y).
Z drugiej strony, jeśli x " W (x1, Y) )" W (x2, Y) to x = x1 + y1 = x2 + y2
dla pewnych y1, y2 " Y. Stad x1 - x2 = y2 - y1 " Y i w konsekwencji
W (x1, Y) = W (x2, Y).
Na podstawie powyższej analizy możemy stwierdzić, że dwie warstwy,
W (x1, Y) i W (x2, Y), sa sobie równe (gdy x1 - x2 " Y) albo rozlaczne (gdy
x1 - x2 " Y). Dlatego warstwy W (x1, Y) i W (x2, Y) takie, że x1 - x2 " Y
/
bedziemy utożsamiać.
Trywialnymi przykladami warstw sa W (x0, X ) = X oraz W (x0, {0}) =
{x0}.
4.5.2 Przestrzeń warstw
W zbiorze wszystkich warstw modulo Y (Y ą" X ) wprowadzimy dzialania
dodawania warstw i mnożenia przez skalar ą " K w nastepujacy sposób:
(i) W (x1, Y) + W (x2, Y) := W (x1 + x2, Y),
(ii) ą " W (x, Y) := W (ą " x, Y).
Dzialania te sa dobrze zdefiniowane, bo jeśli
W (x1, Y) = W (x 1, Y) i W (x2, Y) = W (x 2, Y)
to x1 - x 1 " Y i x2 - x 2 " Y, a stad (x1 - x 1) + (x2 - x 2) " Y, czyli
W (x1 + x2, Y) = W (x 1 + x 2, Y). Podobnie, jeśli W (x, Y) = W (x , Y) to
ą " x - ą " x = ą " (x - x ) " Y, czyli W (ą " x, Y) = W (ą " x , Y).
Latwo sprawdzić, że zbiór warstw modulo Y z powyżej zdefiniowanymi
dzialaniami jest przestrzenia liniowa nad K. Aby znalezć baze tej przestrzeni,
zapiszemy X jako sume prosta X = Y " Z (gdzie Z jest oczywiście wyzna-
czona niejednoznacznie) i wezmiemy dowolna baze (z1, z2, . . . , zk) w Z (gdzie
4.5. WARSTWY MODULO Y 47
k = dim(Z)). Okazuje sie, że przestrzeń warstw jest izomorficzna z Z, a
uklad
(W (z1, Y), . . . , W (zk, Y))
jest jej baza. Aby sie o tym przekonać, wystarczy pokazać, że odwzorowanie
f(z) = W (z, Y), z " Z,
jest izomorfizmem. Rzeczywiście, z definicji dodawania warstw i mnożenia
przez skalar wynika, że f zachowuje kombinacje liniowe. Jest ono również
różnowartościowe, bo jeśli f(z1) = f(z2) to z1 - z2 " Y, a ponieważ Y i Z
tworza sume prosta to z1-z2 = 0 i z1 = z2. W końcu, f jest przeksztalceniem
 na , bo dla dowolnej warstwy W (x, Y), x " X , mamy W (x, Y) = f(z), gdzie
z pochodzi z (jednoznacznego) rozkladu x = y + z, y " Y, z " Z.
W szczególności pokazaliśmy również, że przestrzeń warstw modulo Y ma
wymiar dim(X ) - dim(Y).
Na przyklad, jeśli Y = X to przestrzeń warstw jest izomorficza z prze-
strzenia zerowa, a jeśli Y = {0} to jest ona izomorficzna z X .
48 ROZDZIAL 4. PRZESTRZENIE LINIOWE
Rozdzial 5
Obraz, rzad i jadro macierzy
5.1 Obraz i rzad macierzy
5.1.1 Rzad kolumnowy i rzad wierszowy
Niech A " Km,n bedzie dana w postaci blokowej,
A = [a1, a2, . . . , an], aj " Km, 1 d" j d" n.
Obraz macierzy A definiujemy jako
R(A) := { A " x : x " Kn } = span(a1, a2 . . . , an) ą" Km.
Dalej, rzad kolumnowy macierzy A definiujemy jako
rzk(A) := dim (R(A)) .
Oczywiście, 0 d" rzk(A) d" min(m, n). Przedstawiajac z kolei A jako wektory-
wiersze (funkcjonaly),
ł łł
T
1
ł śł
.
.
A = ,
ł ł
.
T
m
definiujemy rzad wierszowy macierzy A jako
rzw(A) = dim R(AT ) = dim (span(1, 2, . . . , n)) .
Podobnie jak dla rzedu kolumnowego, 0 d" rzw(A) d" min(m, n).
49
50 ROZDZIAL 5. OBRAZ, RZAD I JADRO MACIERZY
5.1.2 Rzad macierzy
Mamy nastepujace ważne twierdzenie.
Twierdzenie 5.1 Dla dowolnej macierzy A " Km,n
rzk(A) = rzw(A).
Dowód. Oznaczmy
k = rzk(A) oraz w = rzw(A).
Zauważmy najpierw, że permutacja kolumn macierzy nie zmienia ani jej
rzedu kolumnowego (bo to tylko zmiana kolejności wektorów) ani jej rzedu
wierszowego (bo to tylko przenumerowanie wspólrzednych, identyczne dla
każdego z wektorów). Podobnie rzedów nie zmienia permutacja wierszy.
Dokonajmy wiec, dla uproszczenia, takiej permutacji kolumn, a potem
wierszy, aby otrzymana macierz byla postaci
= AI AII ,
gdzie AI " Km,k, AII " Km,n-k, rzk(AI) = k, oraz
A1
AI = ,
A2
1 1
przy czym A1 " Kw ,k, A2 " Km-w ,k, w1 := rzw(AI) = rzw(A1). Oczywiście
w1 d" w,
bo wiersze A1 sa  obcietymi wierszami .
Ponieważ wektory-wiersze macierzy A2 sa liniowo zależne od wektorów-
1
wierszy macierzy A1 to istnieje macierz B " Kw ,m-w1 taka, że AT = AT "
2 1
B (gdzie kolejne kolumny B sa wspólczynnikami odpowiednich kombinacji
liniowych), czyli A2 = BT " A1. Dla dowolnego x " Kk mamy wiec
A1 " x A1 " x
AI " x = = .
A2 " x BT " A1 " x
Stad, A1 " x = 0 wtedy i tylko wtedy gdy AI " x = 0, a ponieważ kolumny
macierzy AI sa liniowo niezależne, oznacza to także liniowa niezależność ko-
lumn macierzy A1. A jeśli tak to ich liczba k nie może przekroczyć w1, czyli
wymiaru przestrzeni do której należa.
5.2. PRZESTRZEC ZEROWA (JADRO) MACIERZY 51
Otrzymaliśmy wiec, że
rzk(A) = rzk() = k d" w1 d" w = rzw() = rzw(A).
Przeprowadzajac podobne rozumowanie dla macierzy AT otrzymujemy
rzw(A) d" rzk(A), a stad ostatecznie rzw(A) = rzk(A), co należalo pokazać.
Na podstawie twierdzenia 5.1 poprawna jest nastepujaca definicja rzedu
macierzy.
Definicja 5.1 Rzedem macierzy A nazywamy liczbe
rz(A) := rzk(A) = rzw(A).
5.2 Przestrzeń zerowa (jadro) macierzy
Dla A " Km,n zbiór
N (A) := x " Kn : A " x = 0
nazywamy jadrem macierzy A.
Niech k = rz(A). Zalóżmy, że kolumny macierzy A zostaly tak przesta-
wione, że otrzymana macierz ma postać
= AI AII ,
gdzie AI " Km,k, AII " Km,n-k, oraz rz(AI) = rz() (= rz(A)). Jeśli
tak to kolumny macierzy AII sa liniowo zależne od kolumn macierzy AI.
W konsekwencji AII = AI " B dla pewnej B " Kk,n-k. Zalóżmy teraz, że
x " N (). Przedstawiajac x w postaci
xI
x = ,
xII
xI " Kk, xII " Kn-k, mamy
xI
0 = " x = AI AII = AI " xI + AII " xII
xII
= AI " xI + AI " B " xII = AI " (xI + B " xII).
52 ROZDZIAL 5. OBRAZ, RZAD I JADRO MACIERZY
Ostatnie wyrażenie jest liniowa kombinacja kolumn macierzy AI, a ponieważ
kolumny te sa liniowo niezależne to kombinacja ta daje wektor zerowy tylko
wtedy gdy xI + B " xII = 0, czyli xI = -B " xII. Stad
-B " xII
N () = : xII " Kn-k
xII
-B
= " xII : xII " Kn-k .
In-k
Przedstawiajac B kolumnowo, B = [ b1, . . . , bn-k], otrzymujemy ostatecznie
-B
- b1 , . . . , - bn-k ,
N () = R = span
In-k
e1 en-k
gdzie jak zwykle ej " Kn-k jest j-tym wersorem. Ponieważ e1, . . . , en-k sa
liniowo niezależne to liniowo niezależne sa też wektory w powyższym  span .
Stad dim(N ()) = n - k = n - rz(A). Wobec równości dim(N ()) =
dim(N (A)) (bo permutacja kolumn skutkuje jedynie przestawieniem wspól-
rzednych w jadrze) dostajemy nastepujacy wniosek.
Wniosek 5.1 Dla dowolnej macierzy A " Km,n
dim(N (A)) + dim(R(A)) = n.
5.3 Rozklad wzgledem obrazu i jadra
Zatrzymajmy sie na chwile na przypadku gdy K ą" C. Ponieważ wtedy
n n
aj " xj = aj " xj
j=1 j=1
(gdzie sprzeżenie wektora oznacza sprzeżenie  po wspólrzednych ) to wektory
(a1, . . . , an) oraz (a1, . . . , an) sa jednocześnie albo liniowo niezależne, albo
liniowo zależne. Stad rz(A) = rz(A) (gdzie znów sprzeżenie macierzy oznacza
sprzeżenie  po wspólrzednych ). W konsekwencji,
T
rz(AH) = rz(A ) = rz(AT ) = rz(A).
5.3. ROZKLAD WZGLEDEM OBRAZU I JADRA 53
Latwo można też wywnioskować inna wlasność; mianowicie, jeśli
A = B " C,
A " Km,n, B " Km,k, C " Kk,n, to
rz(A) d" min(rz(B), rz(C)).
Rzeczywiście, równość A = B "C oznacza, że kolumny macierzy A sa liniowa
kombinacja kolumn macierzy B, a stad R(A) ą" R(B) i w konsekwencji
rz(A) d" rz(B). Biorac z kolei transpozycje mamy AT = CT " BT i to samo
rozumowanie daje R(AT ) ą" R(CT ) oraz
rz(A) = rz(AT ) d" rz(CT ) = rz(C).
Na koniec jeszcze jedno istotne twierdzenie.
Twierdzenie 5.2 Niech K ą" C i A " Km,n. Wtedy
Km = R(A) " N (AH)
Kn = R(AH) " N (A).
Dowód. Wystarczy pokazać pierwsza z tych równości. W tym celu naj-
pierw uzasadnimy, że suma jest suma prosta. Rzeczywiście, jeśli y " R(A) )"
N (AH) to AH " y = 0 oraz istnieje x " Kn taki, że A " x = y. Stad
2
y = yH " y = (A " x)H " y = xH " (AH " y) = 0,
2
czyli y = 0 i suma podprzestrzeni jest prosta.
Pozostaje pokazać, że wymiar sumy prostej wynosi m. Korzystajac z
wniosku 5.1 mamy bowiem
dim R(A) " N (AH) = dim (R(A)) + dim N (AH)
= dim (R(A)) + m - dim R(AH)
= dim (R(A)) + [m - dim (R(A))]
= m.
54 ROZDZIAL 5. OBRAZ, RZAD I JADRO MACIERZY
Rozdzial 6
Funkcjonaly liniowe
6.1 Funkcjonaly
6.1.1 Definicja i przyklady
Niech X|K bedzie przestrzenia liniowa, dim(X|K) < ".
Definicja 6.1 Odwzorowanie
s : X K
nazywamy funkcjonalem (liniowym) na X|K gdy dla dowolnych a, b " X i
ą,  " K
s(a " ą + b " ) = s(a) " ą + s(b) " .
"
Zbiór wszystkich funkcjonalów (liniowych) na X|K oznaczamy przez X .
Podamy teraz kilka przykladów funkcjonalów.
W przestrzeni wektorów Kn funkcjonalami sa przeksztalcenia postaci
|K
s(x) = T " x, "x " Kn,
gdzie " Kn jest ustalonym wektorem. (Tu wyjaśnia sie tajemnica nazwania
wcześniej funkcjonalem macierzy jednowierszowej.)
W przestrzeni macierzy Km,n funkcjonalami sa np. s1(A) = a2,3, s2(A) =
|K
min(m,n)
tr(A) := aj,j (jest to ślad macierzy), przy czym A = (ai,j) " Km,n.
j=1
55
56 ROZDZIAL 6. FUNKCJONALY LINIOWE
n
W przestrzeni wielomianów P|R funkcjonalami sa np. s1(p) = p(2),
s2(p) = 3 " p(-1) - 7 " p(3),
1
d2p
s3(p) = = p (1), s4(p) = p(t)dt,
dt2 t=1
0
przy czym p " Pn.
6.1.2 Przestrzeń sprzeżona
"
Na zbiorze X możemy w naturalny sposób zdefiniować dodawanie funk-
"
cjonalów s1, s2 " X ,
(s1 + s2)(a) := s1(a) + s2(a), "a " X ,
"
oraz mnożenie funkcjonalu s " X przez skalar ą " K,
(ą " s)(a) := ą " s(a), "a " X .
"
Twierdzenie 6.1 Zbiór X z powyżej zdefiniowanymi dzialaniami dodawa-
nia funkcjonalów i mnożenia przez skalar jest przestrzenia liniowa nad K.
Dowód tego twierdzenia polega na bezpośrednim sprawdzeniu warunków
bycia przestrzenia liniowa. Tutaj zauważymy tylko, że elementem zerowym
"
X|K jest funkcjonal zerowy, 0"(a) = 0 "a " X , a elementem przeciwnym do
"
s " X jest funkcjonal (-s) zdefiniowany jako (-s)(a) = -s(a) "a " X .
"
Definicja 6.2 Przestrzeń X|K nazywamy przestrzenia sprzeżona do X|K.
"
Skoro X|K jest przestrzenia liniowa to możemy spytać o jej wymiar i baze.
Twierdzenie 6.2 Mamy
"
dim X|K = dim X|K .
Ponadto, jeśli uklad wektorów (a1, a2, . . . , an) jest baza X|K to uklad funk-
cjonalów (s1, s2, . . . , sn) zdefiniowany warunkami
1, j = k,
sk(aj) =
0, j = k,

"
gdzie 1 d" j, k d" n, jest baza X|K.
6.2. REFLEKSYWNOŚĆ 57
Dowód. Zauważmy najpierw, że sk sa formalnie dobrze zdefiniowanymi
n
funkcjonalami. Dla dowolnego a = aj " ąj " X mamy bowiem
j=1
n n
sk(a) = sk aj " ąj = sk(aj) " ąj = ąk.
j=1 j=1
Stad sk  zwraca k-ta wspólrzedna rozwiniecia wektora a w bazie wektorów
(a1, . . . , an).
Pokażemy najpierw liniowa niezależność funkcjonalów sk, 1 d" k d" n. W
n
tym celu zalóżmy, że liniowa kombinacja s := sk " ąk = 0". Wtedy, w
k=1
szczególności, dla każdego j mamy s(aj) = 0, a ponieważ
n n
s(aj) = sk " ąk (aj) = sk(aj) " ąk = ąj
k=1 k=1
to ąj = 0.
"
Pozostaje pokazać, że funkcjonaly sk, 1 d" k d" n, rozpinaja X . Rze-
n
"
czywiście, dla dowolnego s " X oraz a = aj " ąj " X mamy
j=1
n n
s(a) = s aj " ąj = s(aj) " ąj
j=1 j=1
n n
= j " sj(a) = j " sj (a),
j=1 j=1
n
gdzie j = s(aj). Stad s = j "sj jest kombinacja liniowa funkcjonalów
j=1
"
sj i w konsekwencji X = span(s1, . . . , sn).
6.2 Refleksywność
""
6.2.1 Równość X i X
Dla wygody wprowadzimy oznaczenie
"
s a := s(a), "s " X "a " X .
Zauważmy, że zapis s a możemy traktować jako dzialanie funkcjonalu s
na wektor a, ale też odwrotnie, jako dzialanie wektora a na funkcjonal s.
"
Ponieważ dodatkowo dla dowolnych s1, s2 " X i ą1, ą2 " K mamy
(ą1 " s1 + ą2 " s2) a = ą1 " (s1 a) + ą2 " (s2 a),
58 ROZDZIAL 6. FUNKCJONALY LINIOWE
" "" "
możemy traktować wektor a jako funkcjonal na X|K, tzn. a " X := (X )".
""
Mamy wiec X ą" X , a ponieważ na podstawie twierdzenia 6.2
" ""
dim X|K = dim X|K = dim X|K
to
""
X = X .
1
Ostatnia wlasność nazywa sie refleksywnościa.
"
Dodajmy, że jeśli (s1, . . . , sn) jest baza X sprzeżona do bazy (a1, . . . , an)
""
to też odwrotnie, (a1, . . . , an) jest baza X = X sprzeżona do (s1, . . . , sn).
Wynika to bezpośrednio z faktu, że sj ak wynosi 1 dla j = k oraz zero dla
j = k.

6.2.2 Przyklady
Podamy teraz przyklady baz i baz sprzeżonych.
Niech X|K = Kn . Baza sprzeżona do bazy (e1, . . . , en) przestrzeni wek-
|K
T T
torów Kn jest (e1 , . . . , en ). Stad w szczególności wynika że
|K
(Kn)" = (Kn)T .
W ogólnym przypadku, baza sprzeżona do dowolnej bazy (a1, . . . , an) jest
T T
(1 , . . . , n ), gdzie wektory j sa tak dobrane, że transpozycja macierzy
:= [1, . . . , n] jest lewa odwrotnościa macierzy A := [a1, . . . , an], tzn.
T " A = In. (Macierz istnieje, bo istnieje baza sprzeżona.)
n
Niech X|K = P|R. Wtedy baze sprzeżona do bazy potegowej wielomianów
(1, t, t2, . . . , tn-1) tworza funkcjonaly (s1, . . . , sn) zdefiniowane jako
1 dk-1p p(k-1)(0)
sk(p) = = , "p " Pn.
(k - 1)! dtk-1 t=0 (k - 1)!
Jeśli zaś sk(p) = p(tk), 1 d" k d" n, gdzie t1 < t2 < < tn sa ustalo-
nymi punktami, to baze sprzeżona do bazy funkcjonalów (s1, . . . , sn) tworza
wielomiany Lagrange a (l1, . . . , ln) zdefiniowane jako
n
t - ti
lj(t) = . (6.1)
tj - ti
j=i=1

1
Pokazaliśmy, że przestrzenie skończenie wymiarowe sa refleksywne. Warto dodać, że
wlasność ta w ogólności nie zachodzi dla przestrzeni nieskończenie wymiarowych.
6.3. ROZSZERZENIE RACHUNKU MACIERZY 59
Rzeczywiście, latwo sprawdzić, że
1, j = k,
sk(lj) = lj(tk) =
0, j = k.

6.3 Rozszerzenie rachunku macierzy
6.3.1 Macierze wektorów i funkcjonalów
W tym miejscu rozszerzymy nieco formalizm rachunku macierzy na macierze
nieliczbowe, których elementami sa wektory, a nawet funkcjonaly. Pomoże
nam to uprościć pewne rachunki na macierzach.
Niech X|K bedzie przestrzenia liniowa i aj " X , 1 d" j d" k. Wtedy
możemy formalnie zdefiniować macierz jednowierszowa wektorów
1,k
A = [a1, . . . , ak] " X .
ł łł
ą1
ł śł
.
.
Dla ą = " Kk definiujemy w naturalny sposób mnożenie
ł ł
.
ąk
k
A " ą := aj " ąj,
j=1
bedace skrótowym zapisem kombinacji liniowej wektorów aj.
"
Podobnie, majac dane sj " X , 1 d" j d" l, możemy zdefiniować macierz
jednokolumnowa funkcjonalów
ł łł
s1
ł śł
.
"
.
S = " (X )l,1 .
ł ł
.
sl
Dla x " X definiujemy w naturalny sposób mnożenie
ł łł
s1 x
ł śł
.
.
S x := " Kl,1.
ł ł
.
sl x
60 ROZDZIAL 6. FUNKCJONALY LINIOWE
Co wiecej, iloczyn S A możemy również w naturalny sposób zdefiniować
jako macierz
S A := (si aj) " Kl,k.
Rzeczywiście, tak wlaśnie mnożymy macierz jednowierszowa przez macierz
jednokolumnowa w przypadku macierzy liczbowych. Ponadto, dla dowolnego
ą " Kk spelnona jest równość
S (A " ą) = (S A) " ą.
Idac dalej możemy zapytać, czy ma sens mnożenie A przez S. W przy-
padku macierzy liczbowych, mnożenie wektora-wiersza przez wektor-kolumne
jest możliwe tylko wtedy gdy wektory te maja tyle samo wspólrzednych. Tak
jest też teraz. Dokladniej jeśli k = l to
k
A " S := aj " sj
j=1
i interpretujemy ten zapis jako przeksztalcenie X w X zdefiniowane wzorem
k
(A " S)(x) := A " (S x) = aj " sj x.
j=1
"
W szczególności, as dla a " X i s " X jest przeksztalceniem  zwracajacym
wektor a pomnożony przez wartość funkcjonalu s.
6.3.2 Postać macierzowa izomorfizmów
Zalóżmy teraz, że dim X|K = n oraz (a1, . . . , an) jest baza X . Niech
1,n
A = [a1, . . . , an] " X . Jasne jest, że wtedy odwzorowanie f : Kn X
zdefiniowane wzorem
f(ą) := A " ą, "ą " Kn,
jest izomorfizmem Kn w X . Ponadto, izomorfizm odwrotny f-1 : X Kn
dany jest wzorem
f-1(x) = S x, "x " X ,
6.3. ROZSZERZENIE RACHUNKU MACIERZY 61
ł łł
s1
ł śł
.
"
.
gdzie S = " (X )n,1 oraz (s1, . . . , sn) jest baza sprzeżona do bazy
ł ł
.
sn
(a1, . . . , an).
Sprawdzamy, że w tym przypadku
S A = (si aj)n = In
i,j=1
jest identycznościa w Kn, oraz że dla dowolnego x = A " ą z ą " Kn
(A " S)(x) = (A " S)(A " ą) = A " (S A) " ą = A " ą = x,
czyli A " S jest identycznościa w X .
Możemy wiec uznać, że S jest odwrotnościa A, jak również, że A jest
odwrotnościa S, tj.
S = A-1 oraz A = S-1.
62 ROZDZIAL 6. FUNKCJONALY LINIOWE
Rozdzial 7
Uklady równań liniowych
W tym rozdziale zajmiemy sie rozwiazywaniem ukladów równań liniowych
(2.2). Stosujac zapis macierzowy zadanie formulujemy nastepujaco. Dla
danej macierzy (wspólczynników) A " Km,n oraz wektora (wyrazów wol-
nych) b " Km należy znalezć wszystkie wektory (niewiadome) x spelniajace
równość
A " x = b. (7.1)
7.1 Zbiór rozwiazań
7.1.1 Twierdzenie Kroneckera-Capelliego
Mamy trzy możliwości:
(i) "x " Kn A " x = b =! uklad jest sprzeczny

(ii) "x " Kn A " x = b =! uklad jest niesprzeczny
1
(iii) !"x " Kn A " x = b =! uklad jest oznaczony
Twierdzenie 7.1 (Kroneckera-Capelliego)
Uklad A " x = b jest niesprzeczny wtedy i tylko wtedy gdy
rz(A) = rz([A, b]),
tzn. rzad macierzy A jest równy rzedowi A rozszerzonej o wektor b.
1
Symbol  !" czytamy jako  istnieje dokladnie jeden .
63
64 ROZDZIAL 7. UKLADY RÓWNAC LINIOWYCH
Dowód. Jeśli rz([A, b]) = rz(A) to wektor b należy do przestrzeni rozpietej
przez wektory-kolumny macierzy A. To zaś oznacza, że b jest liniowa kom-
binacja tych wektorów. Wspólczynniki tej kombinacji tworza rozwiazanie x
ukladu.
Z drugiej strony, jeśli istnieje x " Kn taki, że A"x = b to b jest kombinacja
liniowa wektorów-kolumn macierzy A, czyli b należy do przestrzeni rozpietej
na tych wektorach. To zaś implikuje że rz([A, b]) = rz(A) i kończy dowód.
Możemy równoważnie stwierdzić, że uklad A " x = b jest niesprzeczny
wtedy i tylko wtedy gdy b " R(A), czyli wektor wyrazów wolnych leży w
obrazie macierzy wspólczynników.
7.1.2 Zbiór rozwiazań jako warstwa
Niech
L(A, b) = { x " Kn : A " x = b }
bedzie zbiorem wszystkich rozwiazań ukladu A " x = b.
Definicja 7.1 Powiemy, że dwa uklady, A1 " x = b1 oraz A2 " x = b2, sa
równoważne gdy maja ten sam zbiór rozwiazań, tzn. gdy
L(A1, b1) = L(A2, b2).
Twierdzenie 7.2 Jeśli uklad A " x = b jest niesprzeczny to zbiór rozwiazań
L(A, b) = { x0 + y : y " N (A) } = W (x0, N (A)) ,
gdzie x0 jest dowolnym rozwiazaniem szczególnym ukladu.
Dowód. Jeśli x0 jest rozwiazaniem szczególnym i y " N (A) to
A " (x0 + y) = A " x0 + A " y = b + 0 = b,
czyli x0 + y jest też rozwiazaniem. To zaś implikuje że W (x0, N (A)) ą"
L(A, b).
Z drugiej strony, jeśli A"x = b to A"(x-x0) = b- b = 0, czyli (x-x0) "
N (A). A wiec x = x0 + (x - x0) jest z jednej strony rozwiazaniem ukladu, a
z drugiej elementem warstwy W (x0, N (A)). Stad L(A, b) ą" W (x0, N (A)).
7.2. EFEKTYWNA METODA ROZWIAZANIA 65
7.1.3 Uklady nieosobliwe
Rozpatrzmy przez chwile uklady z macierzami kwadratowymi.
Twierdzenie 7.3 Macierz kwadratowa A " Kn,n jest nieosobliwa wtedy i
tylko wtedy gdy rz(A) = n.
Dowód. Wobec nierówności
n = rz(In) = rz(A " A-1) d" min rz(A), rz(A-1)
mamy, że jeśli A jest nieosobliwa to rz(A) = n = rz(A-1). Z drugiej strony,
jeśli rz(A) = n to kolumny A sa wektorami liniowo niezależnymi. Stad
istnieje macierz X " Kn,n taka, że A " X = In. Podobnie, istnieje Y " Kn,n
T
taka, że AT " Y = In, czyli Y " A = In. Ponadto
T T T
Y = Y " In = (Y " A) " X = In " X = X,
tzn. odwrotności lewostronna i prawostronna istnieja i sa sobie równe, A-1 =
T
X = Y . To kończy dowód.
Wiemy, że jeśli macierz kwadratowa A jest nieosobliwa to rozwiazaniem
ukladu A"x = b jest x" := A-1" b i jest to jedyne rozwiazanie, tzn. uklad jest
oznaczony. Ale też odwrotnie, jeśli uklad A " x = b z macierza kwadratowa
A jest oznaczony dla pewnego b to macierz A jest nieosobliwa. Rzeczywiście,
wtedy jadro N (A) = { 0}. To znaczy, że wektory-kolumny macierzy tworza
uklad liniowo niezależny i rz(A) = n. Na podstawie twierdzenia 2.1 wnio-
skujemy że A jest nieosobliwa.
Wniosek 7.1 Niech A bedzie macierza kwadratowa. Uklad A " x = b jest
oznaczony wtedy i tylko wtedy gdy A jest nieosobliwa.
7.2 Efektywna metoda rozwiazania
Dla danej macierzy A " Km,n i wektora b " Km chcemy zbadać, czy uklad
(7.1) jest niesprzeczny, a jeśli tak to znalezć zbiór jego rozwiazań (warstwe)
L(A, b) = x0 + N (A),
gdzie N (A) = span(zs+1, zs+2, . . . , zn) i s = rz(A).
66 ROZDZIAL 7. UKLADY RÓWNAC LINIOWYCH
7.2.1 Ogólny schemat
Najpierw wyznaczymy s = rz(A) i t = rz([A, b]), a nastepnie w przypadku
s = t skonstruujemy rozwiazanie szczególne x0 oraz baze zs+1, . . . , zn jadra
N (A).
Ogólny schemat postepowania prowadzacy do postaci równania, z którego
można już stosunkowo latwo odczytać rozwiazanie jest nastepujacy. Star-
tujac z ukladu wyjściowego (7.1), który oznaczymy przez (U0), kolejno dla
k = 1, 2, . . . , s konstruujemy  prostsze i (prawie) równoważne (U0) uklady
(Uk) z macierzami A(k) tego samego formatu co A. Macierz A(s) ukladu
docelowego (Us) okaże sie trójkatna górna.
Dopuszczamy przy tym nastepujace operacje na ukladnie równań:
(i) zamiana kolejności równań (wierszy macierzy),
(ii) zamiana kolejności niewiadomych (kolumn macierzy),
(iii) dodanie do jednego z równań innego równania pomnożonego przez ska-
lar.
Zauważmy, że operacje (i) oraz (iii) prowadza do ukladów równoważnych,
zaś (ii) powoduje jedynie zmiane kolejności niewiadomych. W szczególności,
rzad macierzy ukladu nie ulega zmianie.
Schemat sprowadzania ukladu wyjściowego do postaci z macierza trój-
katna górna przy pomocy zdefiniowanych operacji, który teraz dokladniej
opiszemy, nazywamy Eliminacja Gaussa.
7.2.2 Eliminacja Gaussa
Zalóżmy, że wykonaliśmy już k przeksztalceń ukladu wyjściowego,
(U0) (U1) . . . (Uk),
gdzie 0 d" k d" s - 1, otrzymujac uklad
A(k) " x(k) = b(k)
z macierza
Rk Tk
A(k) = ,
0 Vk
7.2. EFEKTYWNA METODA ROZWIAZANIA 67
gdzie Rk " TRIUk,k jest kwadratowa i nieosobliwa macierza trójkatna górna.
Oczywiście, zalożenie to jest spelnione dla k = 0, czyli dla ukladu wyjścio-
wego, bowiem wtedy A(0) = V0 = A.
Krok (k + 1)-szy eliminacji
1. Wybieramy w Vk element różny od zera, powiedzmy vp,q = 0, k + 1 d"

p d" m, k + 1 d" q d" n. (Taki element istnieje, bo inaczej mielibyśmy
rz(A) = rz(A(k)) = k < s = rz(A).)
2. Przestawiamy wiersze (k + 1)-szy z p-tym oraz kolumny (niewiadome)
(k + 1)-sza z q-ta.
3. Dokonujemy eliminacji (k + 1)-szej niewiadomej z równań od (k + 1)-
szego do m-tego odejmujac od równania i-tego równanie (k + 1)-sze
pomnożone przez
li,k+1 := a(k) /a(k) , dla i = k + 1, k + 2, . . . , m.
i,k+1 k+1,k+1
(Tutaj a(k) oznacza element aktualnie stojacy na przecieciu i-tego wier-
i,j
sza i j-tej kolumny macierzy ukladu).
Po wykonaniu (k + 1)-szego kroku metody dostajemy uklad z macierza
A(k+1), która ma wyzerowane wspólczynniki o indeksach (i, j) dla 1 d" j d"
k + 1, j < i d" m.
Po wykonaniu s = rz(A) kroków dostajemy uklad (Us) postaci
A(s) " x(s) = b(s),
przy czym
Rs Ts
A(s) = ,
0 0
a wektor x(s) różni sie od x(0) jedynie przestawieniem (permutacja) wspól-
rzednych. Rzeczywiście, gdyby odpowiednia podmacierz Vs macierzy A(s)
byla niezerowa to mielibyśmy rz(A) = rz(A(s)) > s.
Dodajmy jeszcze, że w przypadkach s = 0 i s = min(m, n) niektóre bloki
macierzy A(s) sa puste.
68 ROZDZIAL 7. UKLADY RÓWNAC LINIOWYCH
7.2.3 Konstrukcja rozwiazania ogólnego
Przyjmujac
x(s) b(s)
I I
x(s) = , b(s) = ,
x(s) b(s)
II II
gdzie x(s), b(s) " Ks, x(s) " Kn-s, b(s) " Km-s, uklad (Us) możemy zapisać
I I II II
jako
Rs " x(s) + Ts " x(s) = b(s)
I II I
.
0 = b(s)
II
Jeśli teraz b(s) = 0 to uklad jest sprzeczny i nie ma rozwiazań. Jeśli zaś

II
b(s) = 0 to uklad (Us) redukuje sie do
II
Rs " x(s) + Ts " x(s) = b(s).
I II I
Przyjmujac x(s) = 0 otrzymujemy rozwiazanie szczególne
II
u0
x(s) = ,
0
0
gdzie u0 " Ks jest rozwiazaniem nieosobliwego ukladu
Rs " u0 = b(s)
I
z macierza trójkatna dolna Rs.
Baze jadra macierzy A(s),
N (A(s)) = N ([Rs, Ts]),
znajdujemy rozwiazujac (n - s) liniowo niezależnych rozwiazań ukladów jed-
norodnych
Rs " x(s) + Ts " x(s) = 0
I II
kladac kolejno za x(s) wersory e1, e2, . . . , en-s " Kn-s. Oznaczajac
II
Ts = [ ts+1, ts+2, . . . , tn]
otrzymujemy
uj
(s)
zj = , gdzie Rs " u(s) = - tj,
j
ej-s
7.3. INTERPRETACJA MACIERZOWA ELIMINACJI 69
s + 1 d" j d" n. Ostatecznie dostajemy
(s)
(s)
L(A(s), b(s)) = x0 + span(zs+1, . . . , zn ).
Sa to również wszystkie rozwiazania ukladu wyjściowego, z dokladnościa do
odpowiedniej permutacji wspólrzednych.
7.3 Interpretacja macierzowa eliminacji
Zobaczymy teraz jak proces eliminacji Gaussa wyglada z punktu widzenia
rachunku macierzy.
7.3.1 Analiza operacji elementarnych
Zalóżmy najpierw, dla uproszczenia, że nie musimy wykonywać przestawień
ani wierszy ani kolumn ukladu (tzn. w każdym kroku element k-ty na glównej
przekatnej jest niezerowy). Wtedy eliminacja w k-tym kroku odpowiada
mnożeniu macierzy A(k-1) z lewej strony przez macierz kwadratowa
ł łł
1
ł śł
1
ł śł
ł ... śł
ł śł
ł śł
ł 1 śł
Lk := Im - lk " eT = " Km,m,
k
ł śł
...
ł śł
-lk+1,k
ł śł
ł
.
... śł
.
ł ł
.
-lm,k 1
gdzie lk := [0, . . . , 0, lk+1,k, . . . , lm,k]T oraz
a(k-1)
i,k
li,k := , k + 1 d" i d" m. (7.2)
a(k-1)
k,k
Dlatego
A(1) = L1 " A,
A(2) = L2 " A(1) = L2 " L1 " A,

A(s) = Ls " A(s-1) = = Ls " Ls-1 " " L1 " A,
70 ROZDZIAL 7. UKLADY RÓWNAC LINIOWYCH
a stad A = (L-1 " " L-1) " A(s).
1 s
Zauważmy teraz, że
L-1 = (Im - li " eT )-1 = (Im + li " eT ).
i i i
Rzeczywiście, wobec tego, że eT " li = 0 mamy bowiem
i
(Im - li " eT ) " (Im + li " eT ) = Im - li " (eT " li) " eT = Im.
i i i i
Stad
L-1 " " L-1 = (Im + l1 " eT ) " " (Im + ls " eT )
1 s 1 s
= Im + l1 " eT + + ls " eT .
1 s
Ć Ć
Oznaczajac L := L-1 " " L-1 oraz R := A(s) otrzymujemy ostatecznie
1 s
rozklad (faktoryzacje) macierzy,
Ć Ć
A = L " R,
gdzie
L 0 R T
Ć Ć
L = " Km,m, R = " Km,n,
H I 0 0
L " TRILs,s jest kwadratowa macierza trójkatna dolna z jedynkami na
glównej przekatnej oraz R " TRIUs,s jest macierza trójkatna górna.
Ć
Dodajmy jeszcze, że wspólczynniki li,k macierzy L sa dla 1 d" k d" s,
k < i d" m, zdefiniowane przez (7.2).
Rozpatrzmy teraz ogólny przypadek, gdy dokonujemy przestawień wier-
szy i/lub kolumn macierzy. Przypomnijmy, że przestawienie wierszy i-tego z
j-tym jest równoważne pomnożeniu macierzy przez elementarna macierz per-
mutacji (transpozycje) Ti,j, natomiast pomnożenie macierzy z prawej strony
przez Ti,j jest równoważne przestawieniu kolumny i-tej z j-ta. Dlatego w
obecności przestawień dostajemy
A(1) = L1 " T1,p " A " T1,q ,
1 1
A(2) = L2 " T2,p " A(1) " T2,q = L2 " T2,p " L1 " T1,p " A " T1,q " T2,q
2 2 2 1 1 2

A(s) = Ls " Ts,p " " T2,p " L1 " T1,p " A " T1,q " T2,q " " Ts,q ,
s 2 1 1 2 s
przy czym zawsze i d" pi, j d" qj, 1 d" i, j d" s.
7.3. INTERPRETACJA MACIERZOWA ELIMINACJI 71
Zauważmy, że
T2,p " L1 " T1,p = (T2,p " L1 " T2,p ) " T2,p " T1,p .
2 1 2 2 2 1
Dalej
T2,p " L1 " T2,p = T2,p " (Im - l1 " eT ) " T2,p
2 2 2 1 2
= Im - (T2,p " l1) " (eT " T2,p )
2 1 2
= Im - l1 " eT
1
=: L(1),
1
gdzie L(1) różni sie od L1 jedynie przestawieniem wyrazów 2-go i p2-go w
1
pierwszej kolumnie. Uogólniajac to rozumowanie dostajemy
Ls " Ts,p " " T2,p " L1 " T1,p
s 2 1
= Ls " Ts,p " " L2 " L(1) " T2,p " T1,p
s 1 2 1
= Ls " Ts,p " " (T3,p " L2 " T3,p ) " (T3,p " L(1) " T3,p )
s 3 3 3 1 3
"T3,p " T2,p " T1,p
3 2 1
= Ls " Ts,p " " L3 " L(2) " L(2) " T3,p " T2,p " T1,p
s 2 1 3 2 1

= (L(s-1) " L(s-1) " " L(s-1) " L(s-1) " L(s-1)) " (Ts,p " " T1,p ).
s s-1 3 2 1 s 1
Definiujac macierze permutacji
Q-1 = QT := T1,q " " Ts,q , P := Ts,p " " T1,p ,
1 s s 1
otrzymujemy ostatecznie
Ć
A(s) = L(s-1) " " L(s-1) " P " A " QT = R,
s 1
czyli pożadany rozklad
Ć Ć
P " A " QT = L " R,
Ć Ć
L = (L(s-1))-1 " " (L(s-1))-1, R = A(s).
s
1
7.3.2 Rozklad trójkatno-trójkatny macierzy
Wynikiem naszej analizy jest nastepujace twierdzenie.
72 ROZDZIAL 7. UKLADY RÓWNAC LINIOWYCH
Twierdzenie 7.4 (o rozkladzie trójkatno-trójkatnym macierzy)
Dla dowolnej macierzy A " Km,n rzedu s istnieja (na ogól niejednoznaczne)
macierze permutacji P " Km,m i Q " Kn,n takie, że macierz = P " A " QT
ma jednoznaczny rozklad trójkatno-trójkatny
Ć Ć
= L " R,
Ć Ć Ći,i
gdzie L " Km,m, R " Km,n, l = 1 "i,
L 0 R T
Ć Ć
L = , R = ,
H I 0 0
L " TRILs,s, R " TRIUs,s.
Ć
Dowód. Istnienie rozkladu udowodniliśmy przez konstrukcje macierzy L i
Ć
R (za pomoca eliminacji Gaussa). Aby pokazać jednoznaczność, przedsta-
wimy w postaci blokowej,
A1,1 A1,2
= , A1,1 " Ks,s.
A2,1 A2,2
Ć Ć
Wtedy dla danego rozkladu = L " R mamy
A1,1 = L " R, A1,2 = L " T, A2,1 = H " R, A2,2 = H " T.
Gdyby istnial inny rozklad z macierzami L i R to mielibyśmy L " R = L " R,
czyli
-1
L-1 " L = R " R .
Po lewej stronie ostatniej równości mamy macierz trójkatna dolna z jedyn-
kami na przekatnej, a z prawej trójkatna górna. To wymusza L-1 " L =
-1
Is = R " R , czyli L = L i R = R. Jednoznaczność pozostalych bloków w
rozkladzie wynika z równości T = L-1 " A1,2 i H = A2,1 " R-1.
7.4 Eliminacja bez przestawień
Podamy teraz warunek konieczny i dostateczny na to, aby istnial rozklad
trójkatno-trójkatny oryginalnej macierzy A, a tym samym, aby eliminacja
Gaussa byla wykonalna bez przestawień wierszy i/lub kolumn.
7.4. ELIMINACJA BEZ PRZESTAWIEC 73
Twierdzenie 7.5 Aby macierz A = (ai,j) " Km,n rzedu s miala rozklad
trójkatno-trójkatny bez przestawień wierszy i/lub kolumn potrzeba i wystar-
cza, że wszystkie macierze katowe Ak = (ai,j)k " Kk,k dla k = 1, 2, . . . , s
i,j=1
sa nieosobliwe.
Ć Ć Ć Ć
Dowód. Jeśli macierz ma rozklad A = L"R to Ak = Lk"Rk jest nieosobliwa
dla 1 d" k d" s. Dowód w druga strone podamy przez indukcje po s. Dla
s = 1 twierdzenie jest oczywiste, bo wtedy a1,1 = 0 i eliminacja pierwszej

kolumny jest wykonalna. Zalóżmy, że twierdzenie jest prawdziwe dla s - 1.
Oznaczajac
As-1 a
As = ,
cT as,s
mamy z zalożenia indukcyjnego, że istnieje rozklad As-1 = L(s-1) " R(s-1) dla
pewnych nieosobliwych macierzy
L(s-1) " TRILs-1,s-1 oraz R(s-1) " TRIUs-1,s-1.
Oznaczajac
L(s-1) 0 R(s-1) b
L(s) = , R(s) = ,
gT 1
0T rs,s
i rozwiazujac równanie A(s) = L(s) " R(s) otrzymujemy
a = L(s-1) " b,
cT = gT " R(s-1) (albo (R(s-1))T " g = c),
as,s = gT " b + rs,s,
skad kolejno wyliczamy b, g i rs,s. Rozklad trójkatno-trójkatny macierzy
katowej A(s) w oczywisty sposób implikuje już rozklad calej macierzy A.
Na koniec podamy ważne klasy macierzy, dla których eliminacja Gaussa
jest możliwa bez przestawień wierszy i/lub kolumn. Sa to macierze:
(a) diagonalnie dominujace wierszami
n
WDDn,n = A = (ai,j) " Kn,n : |ai,i| > |ai,j|, 1 d" i d" n .
i =j=1
74 ROZDZIAL 7. UKLADY RÓWNAC LINIOWYCH
(b) diagonalnie dominujace kolumnami
KDDn,n = {A " Kn,n : AT " WDDn,n}.
(c) hermitowskie dodatnio określone
HPDn,n = {A " Kn,n : AH = A oraz "x = 0 xH " A " x > 0}.

(d) hermitowskie ujemnie określone
HNDn,n = {A " Kn,n : (-A) " HPDn,n}.
Aby pokazać, że w tych przypadkach przestawienie wierszy/kulumn nie
jest konieczne, wykażemy, że spelnione sa zalożenia twierdzenia 7.5.
W przypadku (a) zauważamy, że jeśli A " WDDn,n to A jest nieosobliwa,
N (A) = { 0}. Jeśli bowiem A " x = 0 i x = 0 to dla p takiego, że |xp| = x "

mamy ap,pxp + ap,jxj = 0, a stad
j=p

xj
|ap,p| d" |ap,j| d" |ap,j|,
xp j=p
j=p

co przeczy dominacji glównej diagonali macierzy. Uzasadnienie uzupelnia
obserwacja, że jeśli A " WDDn,n to również macierze katowe Ak " WDDk,k,
1 d" k d" n.
Dla przypadku (b) wystarczy zauważyć, że jesli A " KDDn,n to AT "
WDDn,n, oraz wykorzystać fakt, że nieosobliwość A jest równoważna nieoso-
bliwości AT .
W przypadku (c) (i zupelnie podobnie w (d)) zauważamy, że każda ma-
cierz A " HPDn,n jest nieosobliwa. Jeśli bowiem x = 0 i A " x = 0 to

xH " A " x = 0. Ponadto, wszystkie macierze katowe Ak " HPDk,k, bo dla
dowolnego niezerowego y " Kk mamy
H
y y
yH " Ak " y = " A " > 0.
0 0
Rozdzial 8
Przeksztalcenia liniowe
8.1 Podstawowe pojecia i wlasności
Niech X|K i Y|K beda dwiema przestrzeniami liniowymi nad tym samym
cialem K.
Definicja 8.1 Przeksztalcenie f : X Y nazywamy przeksztalceniem linio-
wym X w Y jeśli "x, y " X "ą,  " K zachodzi równość
f(x " ą + y " ) = f(x) " ą + f(y) " .
8.1.1 Obraz, jadro i rzad przeksztalcenia
Dla X1 ą" X , zbiór
f(X1) := {f(x) : x " X1}
nazywamy obrazem zbioru X1.
Jeśli X1 jest podprzestrzenia X to f(X1) jest podprzestrzenia Y. Rze-
czywiście, jeśli y1, y2 " f(X1) to dla pewnych x1, x2 " X1 mamy y1 = f(x1) i
y2 = f(x2). Stad dla dowolnych ą1, ą2 " K mamy
y1 " ą1 + y2 " ą2 = f(x1) " ą1 + f(x2) " ą2 = f(x1 " ą1 + x2 " ą2) " f(X1).
W szczególności, f(X ) oraz f({0}) = {0} sa podprzestrzeniami.
Latwo również sprawdzić, że obrazem warstwy W (x0, X1) ą" X jest war-
stwa W (f(x0), f(X1)) ą" Y. A wiec bycie podprzestrzenia, elementem zero-
wym albo warstwa sa niezmiennikami przeksztalceń liniowych.
75
76 ROZDZIAL 8. PRZEKSZTALCENIA LINIOWE
Podobnie jak dla macierzy definiujemy obraz przeksztalcenia liniowego f
im(f) := f(X ) = {f(x) : x " X } ą" Y,
jego jadro
ker(f) := {x " X : f(x) = 0} ą" X ,
oraz rzad
rank(f) := dim(im(f)).
Oczywiście, jadro jest też podprzestrzenia.
Twierdzenie 8.1 Dla dowolnego przeksztalcenia liniowego f mamy
dim (X ) = dim (im(f)) + dim (ker(f)) .
Dowód. Niech X1 bedzie tak zdefiniowane, że
X = X1 " ker(f).
Wtedy dim(X ) = dim(X1) + dim(ker(f)). Pokażemy, że dim(im(f)) =
dim(X1). W tym celu zauważmy, że każdy x " X można jednoznacznie
przedstawić jako x = x1 + x0, gdzie x1 " X1 i x0 " ker(f). Stad
im(f) = {f(x1 + x0) : x1 " X1, x0 " ker(f)} = {f(x1) : x1 " X1}.
Teraz wystarczy pokazać, że dim(X1) = dim(f(X1)). Rzeczywiście, niech
1,s
A = [x1, . . . , xs] " X
bedzie baza X1 (s = dim(X1)) oraz
B = [f(x1), . . . , f(xs)] " Y1,s.
Wtedy f(X1) = span(f(x1), . . . , f(xs)) oraz uklad {f(xj)}s jest liniowo
j=1
niezależny. Jeśli bowiem B " ą = 0 to również f(A " ą) = 0. Ponieważ
A " ą " ker(f) \ {0} to A " ą = 0 i z liniowej niezależności {xj}s dostajemy
/
j=1
ą = 0. Otrzymaliśmy, że B jest baza f(X1) i dim(f(X1)) = s = dim(X1).
8.1. PODSTAWOWE POJECIA I WLASNOŚCI 77
8.1.2 Przyklady
" Każda macierz A " Km,n może być identyfikowana z przeksztalceniem
liniowym f : Kn Km danym wzorem
f(x) = A " x, x " Kn.
Wtedy im(f) = R(A), ker(f) = N (A) oraz rank(f) = rz(A). Twier-
dzenie 8.1 sprowadza sie w tym przypadku do wniosku 5.1.
W szczególności, funkcjonaly liniowe sa przeksztalceniami liniowymi.
Wtedy A " K1,n oraz Y = K.
10 10
" Niech f : P|R P|R, f(p) = p (druga pochodna). Wtedy ker(f) =
2 8
P|R i im(f) = P|R.
10
" Jeśli zaś w poprzednim przykladzie f(p) = p - p to im(f) = P|R oraz
0
ker(f) = P|R = {0}.
8.1.3 Różnowartościowość
Twierdzenie 8.2 Na to, aby przeksztalcenie liniowe f : X Y bylo różno-
wartościowe potrzeba i wystarcza, że ker(f) = {0}.
Dowód. Jeśli f jest różnowartościowe to tylko dla x = 0 mamy f(x) = 0,
czyli ker(f) = {0}. Z drugiej strony, jeśli ker(f) = {0} i f(x1) = f(x2) = 0
to f(x1 - x2) = 0, a stad x1 - x2 = 0 i x1 = x2, co kończy dowód.
Z ostatniego twierdzenia wynika, że jeśli ker(f) = {0} to istnieje prze-
ksztalcenie  odwrotne f-1 : im(f) X takie, że "x " X f-1(f(x)) = x
oraz "y " im(f) f(f-1(y)) = y. Ponadto f-1 jest liniowe, bo jeśli y1, y2 "
im(f) to definiujac x1 = f-1(y1) i x2 = f-1(y2) mamy
f-1(y1 " ą1 + y2 " ą2) = f-1 (f(x1) " ą1 + f(x2) " ą2)
= f-1 (f(x1 " ą1 + x2 " ą2))
= x1 " ą1 + x2 " ą2
= f-1(y1) " ą1 + f-1(y2) " ą2.
Mówiac inaczej, każde różnowartościowe przeksztalcenie liniowe f : X Y
ustala izomorfizm pomiedzy X i swoim obrazem im(f) ą" Y.
78 ROZDZIAL 8. PRZEKSZTALCENIA LINIOWE
8.1.4 Przestrzeń przeksztalceń liniowych
Zbiór wszystkich przeksztalceń liniowych z X w Y tworzy przestrzeń liniowa
nad K, jeśli dzialania dodawania przeksztalceń i mnożenia przez skalar zde-
finiowane sa w naturalny sposób jako:
(ą " f)(x) = ą " f(x), (f + g)(x) = f(x) + g(x).
Przestrzeń ta oznaczamy (X Y)|K albo Lin(X , Y). Oczywiście, elementem
neutralnym (zerowym) tej przestrzeni jest przeksztalcenie zerowe, a przeciw-
nym do f jest (-f).
Podobnie jak dla funkcjonalów, dla wygody bedziemy czesto stosować
zapis
f x := f(x), "f " Lin(X , Y) "x " X .
Uwaga. Zauważmy, że wobec równości
(ą " f +  " g) x = ą " (f x) +  " (g x)
każdy wektor x " X może być traktowany jako element przestrzeni
Lin (Lin(X , Y), Y) .
Jednak w ogólności nie mamy równości pomiedzy Lin (Lin(X , Y), Y) i X ,
tak jak jest w przypadku Y = K.
8.2 Macierz przeksztalcenia liniowego
8.2.1 Definicja
Niech dim(X ) = n, dim(Y) = m. Niech
1,n
A = [x1, . . . , xn] " X , B = [y1, . . . , ym] " Y1,m
beda odpowiednio bazami X i Y. Wtedy
X = {A " a : a " Kn}, Y = {B " b : b " Km}.
Przypomnijmy, że B-1 jest wektorem funkcjonalów,
ł łł
r1
ł śł
.
.
B-1 = " (Y")m,1,
ł ł
.
rm
8.2. MACIERZ PRZEKSZTALCENIA LINIOWEGO 79
gdzie rj " Y", 1 d" j d" m, tworza baze Y" sprzeżona do B.
Niech f : X Y bedzie przeksztalceniem liniowym i y = f x. Przyj-
mujac x = A " a i y = B " b mamy
b = B-1 y = B-1 (f x)
= B-1 (f (A " a)) = B-1 f A " a
= F " a,
gdzie F " Km,n,
F = B-1 f A,
jest macierza o wyrazach fi,j = ri(f(xj)), tzn. w j-tej kolumnie macierzy F
stoja wspólczynniki rozwiniecia wektora f(xj) w bazie [y1, . . . , ym].
Definicja 8.2 Macierz liczbowa F = B-1 f A nazywamy macierza prze-
ksztalcenia f : X Y w bazach A i B odpowiednio przestrzeni X i Y.
8.2.2 Izomorfizm Lin(X , Y) i Km,n
Niech Ś : Lin(X , Y) Km,n,
Ś(f) = B-1 f A, "f " Lin(X , Y).
Odwzorowanie Ś przyporzadkowujace przeksztalceniu liniowemu jego ma-
cierz jest liniowe (zachowuje kombinacje liniowe). Jeśli bowiem Ś(f) = F i
Ś(g) = G to
Ś(ą " f +  " g) = B-1 (ą " f +  " g) A
= ą " (B-1 f A) +  " (B-1 g A)
= ą " Ś(f) +  " Ś(g).
Ponadto, latwo sprawdzić, że Ś jest wzajemnie jednoznaczne i odwzorowanie
odwrotne Ś : Km,n Lin(X , Y) wyraża sie wzorem
Ś-1(F ) = B " F " A-1, "F " Km,n.
Stad Ś jest izomorfizmem a przestrzenie Lin(X , Y) i Km,n sa izomorficzne.
Ponieważ dla przestrzeni macierzy mamy dim(Km,n) = m n, otrzymu-
jemy w szczególności wniosek, że
dim (Lin(X , Y)) = dim(X ) dim(Y).
80 ROZDZIAL 8. PRZEKSZTALCENIA LINIOWE
Przykladowa baze Lin(X , Y) tworza przeksztalcenia i,j, 1 d" i d" m, 1 d"
j d" n, dane wzorem i,j = Ś-1(Ei,j) (gdzie Ei,j ma jedynke na przecieciu
i-tego wiersza i j-tej kolumny, a poza tym zera). Dokladniej, dla x = A " a,
a = [ą1, . . . , ąn]T , mamy
fi,j x = (B " Ei,j " A-1) " A " a = B " (Ei,j " a) = (B " ei) " ąj = yi " ąj.
8.3 Dalsze wlasności macierzy przeksztalceń
8.3.1 Obraz i jadro przeksztalcenia/macierzy
Twierdzenie 8.3 Mamy
im(f) = B " R(F ) := {B " b : b " R(F )},
ker(f) = A " N (F ) := {A " a : a " N (F )}.
Dowód. Bezpośrednio sprawdzamy, że
im(f) = {f x : x " X } = {f A " a : a " Kn}
= {B " (B-1 f A) " a : a " Kn} = {B " F " a : a " Kn}
= {B " b : b " R(F )},
oraz
ker(f) = {x " X : f x = 0} = {A " a " X : f A " a = 0}
= {A " a : B " (B-1 f A) " a = 0}
= {A " a : B " F " a = 0} = {A " a : F " a = 0}
= {A " a : a " N (F )}.
Na podstawie twierdzenia 8.3 możemy powiedzieć, że B (B-1) jest izo-
morfizmem R(F ) w im(f) (im(f) w R(F )), a A (A-1) jest izomorfizmem
N (F ) w ker(f) (ker(f) w N (F )).
8.3.2 Zmiana bazy
Zastanówmy sie jak wyglada zależność pomiedzy wspólczynnikami rozwinie-
cia danego wektora x " X w dwóch różnych bazach A i B przestrzeni X .
8.3. DALSZE WLASNOŚCI MACIERZY PRZEKSZTALCEC 81
Formalnie możemy rozpatrzyć macierz przeksztalcenia identycznościowego
f = idX : X X , idX (x) = x. Zapisujac x z jednej strony jako x = A " a, a
z drugiej jako x = B " b otrzymujemy
b = B-1 A " a.
Macierz F = B-1 A " Kn,n o wspólczynnikach fi,j = ri xj nazywa sie
macierza zmiany bazy z A na B.
Oczywiście, macierz zmiany bazy jest nieosobliwa.
n
Podamy teraz charakterystyczny przyklad zmiany bazy. Niech X|K = P|R
bedzie przestrzenia wielomianów stopnia co najwyżej n - 1. Rozpatrzmy
baze potegowa A = [1, t, t2, . . . , tn-1] oraz baze B = [l1, . . . , ln], gdzie li sa
wielomianami Lagrange a zdefiniowanymi w (6.1) dla ustalonych wezlów t1 <
t2 < < tn. Wtedy funkcjonaly rk, 1 d" k d" n, tworzace macierz B-1, dane
n
sa wzorem rk(p) = p(tk) "p " P|R. Stad wspólczynniki macierzy przejścia
F = B-1 A " Kn,n wynosza fi,j = (ti)j, czyli
ł łł
1 t1 t2 tn-1
1 1
ł
1 t2 t2 tn-1 śł
ł 2 2 śł
F = .
ł śł
. . . .
. . . .
ł ł
. . . .
1 tn t2 tn-1
n n
Jest to macierz Vandermonde a. Zauważmy, że  przy okazji pokazaliśmy, iż
macierz Vandermonde a, jako macierz zmiany bazy, jest nieosobliwa.
8.3.3 Zlożenie przeksztalceń
Niech f " Lin(X , Y) i g " Lin(Y, Z). Wtedy zlożenie (superpozycja)
g ć% f : X Z,
(g ć% f)(x) = g(f(x)) "x jest też liniowe, tzn. (g ć% f) " Lin(X , Y). Rze-
czywiście,
(g ć% f)(x1 " ą1 + x2 " ą2) = g(f(x1) " ą1 + f(x2) " ą2)
= (g ć% f)(x1) " ą1 + (g ć% f)(x2)ą2.
82 ROZDZIAL 8. PRZEKSZTALCENIA LINIOWE
Twierdzenie 8.4 Niech A, B i C beda odpowiednio bazami przestrzeni X ,
Y i Z. Niech f " Lin(X , Y), g " Lin(Y, Z), a F , G beda odpowiednio
macierzami przeksztalceń f i g w podanych bazach. Wtedy macierz zlożenia
h = g ć% f " Lin(X , Z) wynosi
H = G " F.
Dowód. Rzeczywiście, mamy bowiem
H = C-1 h A = C-1 g f A
= C-1 g B " B-1 f A
= G " F.
Rozdzial 9
Wyznacznik macierzy
9.1 Definicja i pierwsze wlasności
Niech A bedzie macierza kwadratowa nad cialem K,
A = (ai,j)n " Kn,n.
i,j=1
Definicja 9.1 (przez rozwiniecie Laplace a)
Wynacznikiem macierzy kwadratowej n n nazywamy funkcje
detn : Kn,n K,
zdefiniowana rekurencyjnie w nastepujacy sposób:
(n = 1) det1(A) := det1([a1,1]) = a1,1,
n
(n e" 2) detn(A) := (-1)i+nai,n detn-1(Ai,n),
i=1
gdzie Ai,n " Kn-1.n-1 jest macierza powstala z A poprzez usuniecie z niej
i-tego wiersza i n-tej kolumny.
Zgodnie z definicja mamy
det2(A) = a1,1a2,2 - a1,2a2,1,
det3(A) = a1,1a2,2a3,3 + a1,2a2,3a3,1 + a1,3a2,1a3,2
-a1,1a2,3a3,2 - a1,2a2,1a3,3 - a1,3a2,2a3,1,
det4(A) = . . . .
83
84 ROZDZIAL 9. WYZNACZNIK MACIERZY
Wprost z definicji rekurencyjnej latwo również zauważyć, że dla macierzy
identycznościowej mamy detn(In) = 1. Ogólniej, jeśli A jest macierza rójkat-
na dolna lub trójkatna górna, A " TRILn,n *" TRIUn,n, to
n
detn(A) = ai,i.
i=1
Jeśli format macierzy jest znany lub nieistotny to dalej bedziemy dla
uproszczenia pisać det(A) zamiast detn(A).
Twierdzenie 9.1 Wyznacznik jest funkcja liniowa ze wzgledu na dowolna
kolumne macierzy, tzn.
det([a1, . . . , ap " ą + a p " ą , . . . , an])
= det([a1, . . . , ap, . . . , an]) " ą + det([a1, . . . , a p, . . . , an]) " ą ,
1 d" p d" n.
Dowód. Rzeczywiście, równość w oczywisty sposób zachodzi dla n = 1, a
dla n e" 2 wystarczy osobno rozpatrzyć dwa przypadki, p = n i 1 d" p d" n-1,
oraz skorzystać z definicji rekurencyjnej.
Z twierdzenia 9.1 mamy od razu, że det([. . . , 0, . . .]) = 0. Natomiast
stosujac twierdzenie 9.1 kolejno do każdej z kolumn macierzy otrzymujemy,
że dla dowolnej macierzy diagonalnej D = diag(ą1, ą2, . . . , ąn)
n
det(A " D) = det([a1 " ą1, . . . , an " ąn]) = det(A) ąi. (9.1)
i=1
W szczególności,
detn(ą " A) = ąn detn(A) oraz detn(-A) = (-1)n detn(A).
9.2 Wyznacznik a operacje elementarne
9.2.1 Permutacja kolumn
Twierdzenie 9.2 Przestawienie różnych kolumn macierzy zmienia znak wy-
znacznika, tzn. dla dowolnej transpozycji Tp,q, p = q,

det(A " Tp,q) = -det(A).
9.2. WYZNACZNIK A OPERACJE ELEMENTARNE 85
Dowód. (Indukcja wzgledem n.)
Dla n = 1, 2 wzór sprawdzamy bezpośrednio z definicji. Dla n e" 3 rozpatru-
jemy trzy przypadki.
(a) 1 d" p < q d" n - 1.
Korzystajac z zalożenia indukcyjnego mamy
n
detn(A " Tp,q) = (-1)i+nai,ndetn-1((A " Tp,q)i,n)
i=1
n
= - (-1)i+nai,ndetn-1(Ai,n)
i=1
= -detn(A).
(b) p = n - 1, q = n.
Stosujac dwukrotnie rozwiniecie Laplace a dostajemy
n
detn(A) = (-1)i+nai,ndetn-1(Ai,n)
i=1
n i-1
= (-1)i+nai,n (-1)k+(n-1)ak,n-1detn-2(A{i,k}{n-1,n})
i=1 k=1
n
+ (-1)(k-1)+(n-1)ak,n-1detn-2(A{i,k}{n-1,n})
k=i+1
= - (-1)i+kai,nak,n-1detn-2(A{i,k}{n-1,n})
k+ (-1)i+kai,nak,n-1detn-2(A{i,k}{n-1,n}),
igdzie A{i,k}{n-1,n} jest macierza powstala z A poprzez usuniecie wierszy i-tego
i k-tego oraz kolumn (n-1)-szej i n-tej. Wykonujac to samo dla macierzy A"
Tp,q otrzymujemy ten sam wzór, ale z odwróconymi znakami przed symbolami
sumowania.
(c) 1 d" p d" n - 2, q = n.
W tym przypadku wystarczy zauważyć, że
A " Tp,n = A " Tp,n-1 " Tn-1,n " Tp,n-1
i skorzystać dwukrotnie z (a) i raz z (b).
86 ROZDZIAL 9. WYZNACZNIK MACIERZY
Z twierdzenia 9.2 wynika w szczególności, że wyznacznik macierzy trans-
pozycji Tp,q z p = q wynosi -1.

Wyznacznik można rozwijać nie tylko wzgledem ostatniej, ale również
wzgledem dowolnej kolumny.
Twierdzenie 9.3 Dla dowolnego n e" 2 i 1 d" j d" n mamy
n
detn(A) = (-1)i+jai,j detn-1(Ai,j).
i=1
Dowód. Jeśli j = n - 1 to
detn(A) = -detn(A " Tn-1,n)
n
= - (-1)i+nai,n-1 detn-1(Ai,n-1)
i=1
n
= (-1)i+n-1ai,n-1 detn-1(Ai,n-1).
i=1
Dalej, korzystajac z prawdziwości rozwiniecia dla j = n - 1, pokazujemy
podobnie prawdziwość rozwiniecia dla j = n - 2, itd., aż do j = 1.
9.2.2 Kombinacja liniowa kolumn
Z twierdzenia 9.2 od razu otrzymujemy
det([. . . , a, . . . , a, . . .]) = 0.
Stad i z liniowości wyznacznika wzgledem dowolnej kolumny wynika, że wy-
znacznik nie ulegnie zmianie gdy do kolumny dodamy inna kolumne po-
mnożona przez skalar, tzn.
det([a1, . . . , ap-1, ap + aq " m, ap+1, . . . , an])
= det([a1, . . . , ap-1, ap, ap+1, . . . , an]).
Uogólnieniem ostatniej wlasności jest nastepujaca.
Twierdzenie 9.4 Jeśli do p-tej kolumny dodamy kombinacje liniowa pozo-
stalych kolumn to wyznacznik macierzy nie ulegnie zmianie, tzn.
det a1, . . . , ap-1, ap + aj " mj, ap+1, . . . , an
j=p

= det([a1, . . . , ap-1, ap, ap+1, . . . , an]).
9.3. DALSZE WLASNOŚCI WYZNACZNIKÓW 87
Zauważmy, że ostatnia równość można symbolicznie zapisać jako
det(A " (I + m " eT )) = det(A), o ile eT " m = 0.
p p
Wniosek 9.1 Jeśli macierz A jest osobliwa to det(A) = 0.
Dowód. Jeśli A nie jest pelnego rzedu to jedna z kolumn, powiedzmy p,
jest kombinacja liniowa pozostalych kolumn. Odejmujac od p-tej kolumny ta
kombinacje liniowa otrzymujemy macierz A o tym samym wyznaczniku co
A i o zerowej p-tej kolumnie. Stad det(A) = det(A ) = 0.
9.3 Dalsze wlasności wyznaczników
9.3.1 Wyznacznik iloczynu macierzy
Jak wiemy, każda macierz trójkatna dolna L " TRILn,n z jedynkami na
glównej przekatnej można przedstawić jako iloczyn
L = In + l1 " eT + + ln-1 " eT = (In + l1 " eT ) " " (In + ln-1eT ),
1 n-1 1 n-1
gdzie lj = [0, . . . , 0, lj+1,j, . . . , ln,j]T , 1 d" j d" n-1. Na podstawie twierdzenia
j
9.4 mamy wiec, że
det(A " L) = det(A). (9.2)
Podobnie, wyznacznik nie ulegnie zmianie gdy macierz pomnożymy z prawej
strony przez macierz trójkatna górna z jedynkami na glównej przekatnej.
Niech teraz W " TRILn,n*"TRIUn,n. Jeśli wszystkie wyrazy na przekatnej
sa niezerowe, wi,i = 0, 1 d" i d" n, to

W = W1 " diag(w1,1, . . . , wn,n),
gdzie W1 " TRILn,n *" TRIUn,n z jedynkami na glównej przekatnej. Stosujac
kolejno (9.1) i (9.2) (z macierza odpowiednio trójkatna górna albo trójkatna
dolna) dostajemy
n n
det(A " W ) = det(A " W1) wi,i = det(A) wi,i. (9.3)
i=1 i=1
Jeśli zaś wk,k = 0 dla pewnego k to W jest osobliwa, a stad osobliwa jest
n
również macierz A " W i równanie det(A " W ) = det(A) wi,i pozostaje
i=1
w mocy.
Możemy teraz pokazać nastepujace twierdzenie
88 ROZDZIAL 9. WYZNACZNIK MACIERZY
Twierdzenie 9.5 Dla dowolnych macierzy A, B " Kn,n
det(A " B) = det(A) det(B).
Dowód. Skorzystamy z twierdzenia, że dla dowolnej macierzy B istnieje
rozklad trójkatno-trójkatny P " B " QT = L " R, czyli
T
B = P " L " R " Q,
gdzie P = T1,p(1) " "Tn-1,p(n-1) i Q = T1,q(1) ". . ."Tn-1,q(n-1) sa macierzami
permutacji, L jest trójkatna dolna z jedynkami na przekatnej, a R trójkatna
górna. Jasne, że det(P ) = (-1)s, gdzie s jest liczba wlaściwych przestawień
w p (tzn. liczba tych i dla których i = p(i)), oraz podobnie det Q = (-1)t,

gdzie t jest liczba wlaściwych przestawień w q. Wykorzystujac wielokrotnie
twierdzenie 9.2 oraz wzór (9.3) otrzymujemy
T
det(A " B) = det(A " P " L " R) (-1)t
n
T
= det(A " P " L)(-1)t ri,i
i=1
n
T
= det(A " P )(-1)t ri,i
i=1
n
= det(A)(-1)s+t ri,i
i=1
= det(A) " det(B),
co należalo pokazać.
9.3.2 Wyznacznik macierzy nieosobliwej i transpono-
wanej
Jak zauważyliśmy wcześniej w dowodzie twierdzenia 9.5, rozklad macierzy
T
A = P " L " R " Q implikuje równość
n
det(A) = (-1)s+t ri,i,
i=1
która z kolei daje dwa nastepujace ważne wnioski.
9.4. DEFINICJA KOMBINATORYCZNA WYZNACZNIKA 89
Wniosek 9.2 Macierz A jest nieosobliwa, tzn. rz(A) = n, wtedy i tylko
wtedy gdy det(A) = 0.

Wniosek 9.3 Dla dowolnej macierzy kwadratowej A mamy
det(AT ) = det(A).
Ostatni wniosek oznacza, że wszystkie wlasności wyznacznika dotyczace
kolumn macierzy przysluguja również jej wierszom. W szczególności, wy-
znacznik można rozwijać wzgledem dowolnego wiersza,
n
detn(A) = (-1)i+jai,j detn-1(Ai,j).
j=1
9.4 Definicja kombinatoryczna wyznacznika
Każda macierz permutacji P " Kn,n może być rozlożona na wiele sposobów
na iloczyn transpozycji, np.
P = T1,i " T2,i " " Tn-1,i . (9.4)
1 2 n-1
Ponieważ
1, p = q (transpozycja niewlaściwa),
det(Tp,q) =
-1, p = q (transpozycja wlaściwa),

to
det(P ) = (-1)(p),
gdzie (p) = 0 gdy liczba transpozycji wlaściwych w rozkladzie (9.4) jest
parzysta, oraz (p) = 1 gdy liczba transpozycji wlaściwych w (9.4) jest
nieparzysta. Pokazaliśmy wiec nastepujace twierdzenie.
Twierdzenie 9.6 W rozkladzie macierzy permutacji na iloczyn transpozycji
liczba transpozycji wlaściwych jest zawsze parzysta, albo zawsze nieparzysta.
Parzystość lub nieparzystość permutacji jest wiec wlasnościa permutacji
(niezależna od rozkladu).
90 ROZDZIAL 9. WYZNACZNIK MACIERZY
Definicja Laplace a wyznacznika jest równoważna nastepujacej definicji
kombinatorycznej:
n
detn(A) = (-1)(p) ap(j),j,
j=1
p=[p(1),...,p(n)]
albo
n
detn(A) = (-1)(q) ai,q(i).
i=1
q=[q(1),...,q(n)]
Indukcyjny dowód równoważności tych definicji pomijamy. (Tutaj p i q sa
permutacjami ciagu [1, 2, . . . , n], przy czym p ć% q = q ć% p = Id = [1, 2, . . . , n].
Wtedy (p) = (q).)
9.5 Wzory Cramera
Pokażemy teraz, że uklady równań liniowych można, przynajmniej teoretycz-
nie, rozwiazywać za pomoca liczenia odpowiednich wyznaczników.
Definicja 9.2 Macierz C(A) := (łi,j) " Kn,n, gdzie
łi,j = (-1)i+jdetn-1(Ai,j),
nazywamy macierza komplementarna do danej macierzy A " Kn,n.
Zauważmy, że na podstawie rozwiniecia Laplace a mamy
n
detn(A), k = j,
pj,k := łi,jai,k =
0, k = j,

i=1
a stad
P = (pj,k)n = detn(A) " In = (C(A))T " A.
j,k=1
Zatem jeśli rz(A) = n to
n
(C(A))T (-1)i+jdetn-1(Aj,i)
A-1 = = .
detn(A) detn(A)
i,j=1
9.5. WZORY CRAMERA 91
Rozpatrzmy teraz uklad równań A " x = b z kwadratowa i nieosobliwa
macierza A " Kn,n. Wtedy jego rozwiazanie
(C(A))T " b
x = (xj)n = A-1 " b = ,
j=1
detn(A)
czyli
n
łi,j " bi n (-1)i+jdetn-1(Ai,j) bi
i=1 i=1
xj = = ,
detn(A) detn(A)
albo równoważnie
detn([a1, . . . , aj-1, b, aj+1, . . . , an])
xj = ,
detn([a1, . . . , aj-1, aj, aj+1, . . . , an])
dla 1 d" j d" n. Ostatnie formuly zwane sa wzorami Cramera.
Uwaga. Wzory Cramera maja dla dużych n znaczenie jedynie teoretyczne,
gdyż, jak latwo sie przekonać, koszt liczenia wyznacznika macierzy wprost
z definicji jest proporcjonalny do n! W takich przypadkach lepiej stosować
eliminacje Gaussa, której koszt obliczeniowy jest proporcjonalny do n3.
92 ROZDZIAL 9. WYZNACZNIK MACIERZY
Rozdzial 10
Formy dwuliniowe i
kwadratowe
10.1 Formy dwuliniowe
10.1.1 Definicja i przyklady
Niech X|K bedzie przestrzenia liniowa nad cialem K, dim(X|K) = n.
Definicja 10.1 Przeksztalcenie  : X X K nazywamy forma dwuli-
niowa na przestrzeni X|K jeśli
(i) "x, y1, y2 " X , "ą1, ą2 " K
(x, y1 " ą1 + y2 " ą2) = (x, y1) " ą1 + (x, y2) " ą2
(liniowość ze wzgledu na druga zmienna),
(ii) "x, y " X (x, y) = (y, x) (forma zwykla)
albo
"x, y " X (x, y) = (y, x) (forma hermitowska).
Oczywiście, o formach hermitowskich możemy mówić tylko wtedy gdy
K ą" C. Dalej, dla uproszczenia, bedziemy rozpatrywać jedynie formy her-
mitowskie.
93
94 ROZDZIAL 10. FORMY DWULINIOWE I KWADRATOWE
Zauważmy, że "x1, x2, y " X , "1, 2 " K,
(x1 " 1 + x2 " 2, y) = (y, x1 " 1 + x2 " 2)
= (y, x1) " 1 + (y, x2) " 2
= (x1, y) " 1 + (x2, y) " 2.
Dość oczywistym jest fakt, że zbiór wszystkich form dwuliniowych na X|K
jest przestrzenia liniowa nad R (ale nie nad C!) z naturalnymi dzialaniami:
(ą " )(x, y) := ą " (x, y),
(1 + 2)(x, y) := 1(x, y) + 2(x, y).
Przykladami form dwuliniowych na X|K = Kn (K ą" C) sa:
|K
n
(x, y) = xi " yi " i, gdzie i " R, 1 d" i d" n,
i=1
(x, y) = xH " A " y, gdzie A " Kn,n, A = AH,
n
a na P|R:
n
(p, q) = p(i)(ti) q(i)(ti) i, i " R, 1 d" i d" n,
i=1
1
(p, q) = p(t) q(t) (t) dt,  : R R.
0
10.1.2 Macierz formy dwuliniowej
Dalej wygodnie nam bedzie rozszerzyć dzialanie danej formy dwuliniowej
1,s 1,t
 : X X K na  : X X Ks,t w nastepujacy sposób. Niech
A = [x1, . . . , xs] i B = [y1, . . . , yt]. Wtedy
(A, B) := ((xi, yj))i,j " Ks,t.
W szczególności, macierz (A, A) = ((xi, xj))i,j jest kwadratowa i hermi-
towska, (A, A) " Hermn,n. Mamy też
" "ą " R (ą " )(A, B) = ą " (A, B),
",  ( + )(A, B) = (A, B) + (A, B).
10.1. FORMY DWULINIOWE 95
Pożyteczne beda też nastepujace wzory rachunkowe:
" b " Kt (A, B " b) = (A, B) " b,
"a " Ks (A " a, B) = aH " (A, B).
Rzeczywiście,
t t
(A, B " b) =  A, yj " j = (A, yj) " j = (A, B) " b,
j=1 j=1
gdzie b = [1, . . . , t]T , oraz
(A " a, B) = ((B, A " a))H = aH " ((B, A))H = aH " (A, B).
Uogólniajac te wzory mamy
"B " Kt,r (A, B " B) = (A, B) " B,
"A " Ks,r (A " A, B) = AH " (A, B).
Mamy bowiem
(A, B " B) = (A, [B " b1, . . . , B " br])
= [(A, B " b1), . . . , (A, B " br)]
= [(A, B) " b1, . . . , (A, B) " br]
= (A, B) " B,
gdzie B = [ b1, . . . , br], oraz
(A " A, B) = ((B, A " A))H = ((B, A) " A)H
= AH " ((B, A))H = AH " (A, B).
Definicja 10.2 Niech A = [x1, . . . , xn] bedzie baza X , a  : X X K
forma dwuliniowa na X . Macierz hermitowska
ŚA := (A, A) = ((xi, xj))n
i,j=1
nazywamy macierza formy  w bazie A.
96 ROZDZIAL 10. FORMY DWULINIOWE I KWADRATOWE
Znaczenie macierzy formy wynika z nastepujacej równości. Niech x =
A " a i y = A " b. Wtedy
(x, y) = (A " a, A " b) = aH " (A, A) " b
= aH " ŚA " b = (A-1 x)H " ŚA " (A-1 y).
Przy ustalonej bazie A, każdej formie hermitowskiej  : X X K
można przyporzadkować jej macierz ŚA = (A, A), która jest hermitowska.
Ale też odwrotnie, każda macierz hermitowska Ś definiuje forme hermitowska
zgodnie ze wzorem (x, y) = (A-1 x)H " Ś " (A-1 y). Mamy przy tym,
że jeśli ł =  +  to A = ŚA + A oraz jeśli ł = ą " , ą " R, to
A = ą " ŚA. Stad przestrzeń wszystkich form hermitowskich nad R jest
izomorficzna z przestrzenia macierzy hermitowskich nad R. W przypadku
K = C jej wymiar wynosi n2.
10.2 Twierdzenie Sylwester a
Definicja 10.3 Powiemy, że macierz A " Kn,n przystaje do macierzy B "
Kn,n gdy istnieje macierz nieosobliwa C " Kn,n taka, że
B = CH " A " C.
Niech A i B beda dwiema bazami X|K. Niech C = A-1 B " Kn,n bedzie
macierza zmiany bazy z A na B tak, że
B = A " C.
Jeśli ŚA jest macierza danej formy  : X X K w bazie A to macierz 
w bazie B można wyrazić wzorem
ŚB = (B, B) = (A " C, A " C)
= CH " (A, A) " C = CH " ŚA " C.
Stad, w klasie macierzy hermitowskich Hermn,n macierz A przystaje do B
gdy obie sa macierzami tej samej formy (ale być może w różnych bazach).
Relacja przystawania macierzy jest zwrotna (bo A = IH " A " I), syme-
tryczna (bo jeśli B = CH"A"C to A = (C-1)H"B"C-1) oraz przechodnia (bo
H H
jeśli A2 = C1 "A1 "C1 i A3 = C2 "A2 "C2 to A3 = (C1 "C2)H "A1 "(C1 "C2)).
10.3. FORMY KWADRATOWE 97
Jest to wiec relacja równoważności. A jeśli tak, to zbiór wszystkich macierzy
hermitowskich można przedstawić jako rozlaczna sume macierzy do siebie
wzajemnie przystajacych (klas abstrakcji relacji przystawania, albo jeszcze
inaczej, macierzy tej samej formy, ale w różnych bazach).
Ile jest klas abstrakcji relacji przystawania w klasie macierzy hermitow-
skich? Odpowiedz daje natepujace twierdzenie, które podajemy bez dowodu.
Twierdzenie 10.1 (Sylwester a)
Dla dowolnej macierzy hermitowskiej A = AH " Kn,n istnieje macierz nie-
osobliwa C " Kn,n taka, że
CH " A " C = diag(IĄ, -I, 0),
gdzie wymiary Ą, ,  (Ą +  +  = n) sa wyznaczone jednoznacznie.
Stad klas abstrakcji relacji przystawania jest tyle ile macierzy diagonal-
nych z elementami na diagonali kolejno 1, -1, 0, czyli
n
(n + 1)(n + 2)
(k + 1) = .
2
k=0
Z twierdzenia Sylwester a wynika również nastepujacy ważny wniosek.
Wniosek 10.1 Dla dowolnej formy dwuliniowej  : X X K istnieje
baza A w X , w której forma ma postać
Ą Ą+
(x, y) = ak " bk - ak " bk,
k=1 k=Ą+1
gdzie x = A " a, y = A " b.
10.3 Formy kwadratowe
10.3.1 Określoność formy kwadratowej
Każdej formie dwuliniowej  : X X K odpowiada forma kwadratowa
h : X R zdefiniowana wzorem
h(x) = (x, x) x " X .
98 ROZDZIAL 10. FORMY DWULINIOWE I KWADRATOWE
Jeśli dla wszystkich x = 0 mamy h(x) = (x, x) > 0 to forme kwadratowa h

(i odpowiednio forme dwuliniowa ) nazywamy dodatnio określona i piszemy
h > 0 (odpowiednio  > 0). Podobnie, forma h jest określona
" ujemnie, gdy h(x) < 0 "x = 0 (h < 0),

" niedodatnio, gdy h(x) d" 0 "x (h d" 0),
" nieujemnie, gdy h(x) e" 0 "x (h e" 0).
We wszystkich pozostalych przypadkach forma jest nieokreślona.
Z równości
h(x) = aH " ŚA " a (x = A " a)
wynika, że określoność formy jest taka sama jak określoność jej macierzy (w
dowolnej bazie!). W szczególności, stosujac notacje z twierdzenia Sylwester a
mamy:
h > 0 !! Ą = n, h e" 0 !!  = 0,
h < 0 !!  = n, h d" 0 !! Ą = 0.
10.3.2 Kryterium Sylwester a
Twierdzenie 10.2 Niech A = AH = (ai,j)n " Hermn,n oraz A(k) =
i,j=1
(ai,j)k , 1 d" k d" n, beda odpowiednimi macierzami katowymi. Wtedy
i,j=1
(i) A jest dodatnio określona !! det(A(k)) > 0 dla 1 d" k d" n,
(ii) A jest ujemnie określona !! (-1)k det(A(k)) > 0 dla 1 d" k d" n.
Dowód. Przypomnijmy (twierdzenie 7.5), że dla macierzy o nieosobliwych
macierzach katowych (a takimi sa macierze dodatnio/ujemnie określone)
można przeprowadzić eliminacje Gaussa bez przestawień wierszy/kolumn.
Dlatego A można przedstawić jako
A = L " R = L " D " LH,
gdzie L " TRILn,n, li,i = 1 "i, D = diag(r1,1, . . . , rn,n). Podstawiajac y :=
LH " x, mamy
xH " A " x = xH " L " D " LH " x = (LH " x)H " D " (LH " x)
n
= yH " D " y = |yi|2 ri,i.
i=1
10.3. FORMY KWADRATOWE 99
Stad A > 0 wtedy i tylko wtedy gdy ri,i > 0 "i, oraz A < 0 wtedy i tylko
wtedy gdy ri,i < 0 "i.
Dowód uzupelnia spostrzeżenie, że
A(k) = L(k) " R(k) = L(k) " D(k) " (L(k))H
oraz
k
det(A(k)) = |det(L(k))|2 det(D(k)) = ri,i.
i=1
100 ROZDZIAL 10. FORMY DWULINIOWE I KWADRATOWE
Rozdzial 11
Przestrzenie Euklidesowe
11.1 Definicja, iloczyn skalarny i norma
Definicja 11.1 Przestrzenia Euklidesowa nazywamy pare
X|K,  ,
gdzie X|K jest przestrzenia liniowa nad K, a  forma dwuliniowa (hermi-
towska) dodatnio określona na X|K, zwana iloczynem skalarnym.
Dla uproszczenia, bedziemy dalej pisać (x, y) zamiast (x, y) oraz (A, B)
zamiast (A, B).
Wlasności formy implikuja nastepujace wlasności iloczynu skalarnego:
(1) (x, y1 " ą1 + y2 " ą2) = (x, y1) " ą1 + (x, y2) " ą2 "x, y1, y2 " X
"ą1, ą2 " K,
(2) (x, y) = (y, x), "x, y " X
(3) (x, x) e" 0 "x " X , oraz (x, a) = 0 !! x = 0.
Zdefiniujmy ł(x) = (x, x)1/2, x " X . Wtedy funkcja ł ma nastepujace
wlasności:
(i) ł(x) e" 0 "x " X , oraz ł(x) = 0 !! x = 0.
(ii) ł(x " ą) = ł(x) " |ą| "x " X "ą " K,
(iii) ł(x + y) d" ł(x) + ł(y) "x, y " X .
101
102 ROZDZIAL 11. PRZESTRZENIE EUKLIDESOWE
Wlasności (i) oraz (ii) sa oczywiste. Aby pokazać (iii) zauważmy, że
ł(x + y)2 = (x + y, x + y) = (x, x) + (y, x) + (x, y) + (y, y)
= (x, x) + 2 (x, y) + (y, y)
oraz
(ł(x) + ł(y))2 = ((x, x)1/2 + (y, y)1/2)2
= (x, x) + 2 (x, x)1/2 (y, y)1/2 + (y, y).
Wlasność (iii) wynika teraz z nierówności
(x, y) d" | (x, y)| d" |(x, y)| d" (x, x)1/2 (y, y)1/2,
przy czym ostatnia z nich to nierówność Schwarza, która znamy już z lematu
3.1. (Co prawda, wtedy rozpatrywany byl szczególny przypadek X|K = Kn
K
i (x, y) = yH " x, ale w ogólnym przypadku dowód jest niemal identyczny.)
Wlasności (i)-(iii) sa ogólnymi warunkami normy w przestrzeni liniowej.
(Wcześniej, w rozdziale 3.1 podaliśmy te warunki dla szczególnego przypadku
X = Km,n.) Stad
x := (x, x)1/2
definiuje norme w X|K (generowana przez iloczyn skalarny (, )). Przypo-
mnijmy jeszcze raz nierówność Schwarza (w przestrzeni Euklidesowej):
|(x, y)| d" x y "x, y " X .
Dokladniejsze prześledzenie dowodu tej nierówności (patrz znów dowód le-
matu 3.1) pokazuje, że powyżej równość zachodzi wtedy i tylko wtedy gdy x
i y sa liniowo zależne.
11.2 Rzut prostopadly
11.2.1 Zadanie aproksymacji
Nastepujace twierdzenie rozwiazuje zadanie aproksymacji (przybliżania) ele-
mentów przestrzeni X elementami jej podprzestrzeni.
Twierdzenie 11.1 Niech Y ą" X bedzie podprzestrzenia. Wtedy dla każdego
x " X istnieje dokladnie jeden xY " Y taki, że dla wszystkich y " Y
y = xY =! x - xY < x - y .

11.2. RZUT PROSTOPADLY 103
1,s
Dowód. Niech s = dim(Y) i Y " X bedzie baza Y. Pokażemy, że xY
wyraża sie wzorem
xY = Y " a", gdzie a" := (Y, Y)-1 " (Y, x) " Ks. (11.1)
Rzeczywiście, jeśli y " Y i y = xY to y = Y " a dla pewnego a = a". Wtedy

2
x - y = (x - y, x - y) = ((x - xY) + (xY - y), (x - xY) + (xY - y))
2 2
= x - xY + 2 (xY - y, x - xY) + xY - y .
Wobec tego, że
(Y, xY) = (Y, Y " a") = (Y, Y) " a" = (Y, x),
mamy
(xY - y, x - xY) = (Y " (a" - a), x - xY) = (a" - a)H " (Y, x - xY) = 0.
Stad
2 2 2 2
x - y = x - xY + xY - y > x - xY .
Uwaga. Z jednoznaczności najlepszej aproksymacji wynika, że xY we wzo-
rze (11.1) nie zależy od wyboru bazy Y. Można to również latwo sprawdzić
bezpośrednio. Jeśli bowiem wezmiemy inna baze, powiedzmy Z, podprze-
strzeni Y to Y = Z " C dla pewnej nieosobliwej macierzy C, a stad
Z " (Z, Z)-1 " (Z, x) = Y " C " (Y " C, Y " C)-1 " (Y " C, x)
= Y " C " (CH " (Y, Y) " C)-1 " CH " (Y, x)
= Y " (Y, Y)-1 " (Y, x).
11.2.2 Twierdzenie o rzucie prostopadlym
Definicja 11.2 Powiemy, że dwa elementy x i y danej przestrzeni Euklide-
sowej X|K z iloczynem skalarnym (, ) sa prostopadle (albo ortogonalne), co
zapisujemy x Ą" y, gdy ich iloczyn skalarny wynosi zero, tzn.
x Ą" y !! (x, y) = 0.
104 ROZDZIAL 11. PRZESTRZENIE EUKLIDESOWE
Zauważmy, że jeśli wektory x, y " X sa prostopadle, x Ą" y, to zachodzi
równość
2 2 2
x + y = x + y , (11.2)
która odczytujemy jako (znane ze szkoly w szczególnym przypadku) twier-
dzenie Pitagorasa. Oczywiście, zachodzi również twierdzenie odwrotne,
tzn. równość (11.2) implikuje protopadlość wektorów x i y.
Najlepsza aproksymacja w podprzestrzeni Y posiada dodatkowa ważna
wlasność zwiazana z pojeciem prostopadlości.
Twierdzenie 11.2 (o rzucie prostopadlym)
Niech xY bedzie najlepsza aproksymacja elementu x " X w podprzestrzeni
Y ą" X . Wtedy
(y, x - xY) = 0 "y " Y (11.3)
tzn. x - xY jest prostopadly do podprzestrzeni Y.
Ponadto, xY jest jedynym elementem w Y spelniajacym (11.3).
Dowód. Wykorzystujac notacje z dowodu twierdzenia 11.1, dla dowolnego
y " Y mamy
(y, x - xY) = aH " (Y, x - xY) = aH " 0 = 0.
Jeśli zaś y0 = Y " a0 i dla każdego a mamy (Y " a, x - Y " a0) = 0, to
(Y, x - Y " a0) = 0, a stad
a0 = (Y, Y)-1 " (Y, x) = a"
i y0 = xY.
Ze wzgledu na twierdzenie 11.2, element xY najlepszej aproksymacji nazy-
wany jest również rzutem prostopadlym (ortogonalnym) elementu x na pod-
przestrzeń Y.
11.3 Uklady ortogonalne
11.3.1 Macierz Grama
1,s
Definicja 11.3 Niech A = [y1, y2, . . . , ys] " X . Macierz
(A, A) " Herms,s
nazywamy macierza Grama ukladu {yi}s .
i=1
11.3. UKLADY ORTOGONALNE 105
Wobec równości
2
aH " (A, A) " a = (A " a, A " a) = A " a e" 0
mamy natychmiast, że macierz Grama jest zawsze nieujemnie określona. Po-
nadto, jest ona dodatnio określona wtedy i tylko wtedy gdy uklad {yi}s
i=1
jest liniowo niezależny.
Jeśli (A, A) = diag(1, . . . , s), przy czym i = (yi, yi) > 0 "i to uklad
{yi}s nazywamy ortogonalnym. Jeśli ponadto (yi, yi) = 1 "i, czyli gdy
i=1
(A, A) = Is, to uklad ten nazywamy ortonormalnym.
Zalóżmy teraz, że uklad Y = [y1, . . . , ys] jest liniowo niezależny, oraz niech
Y = span(y1, y2, . . . , ys).
Wtedy, jak wiemy z twierdzenia 11.1, rzut prostopadly x " X na podprze-
strzeń Y wyraża sie wzorem
xY = Y " (Y, Y)-1 " (Y, x).
Wzór ten ma szczególnie prosta postać gdy baza Y tworzy uklad ortogonalny.
Wtedy
s
(yi, x)
xY = yi " .
(yi, yi)
i=1
Jeśli zaś baza tworzy uklad ortonormalny to
s
xY = yi " (yi, x).
i=1
Z tych wzgledów pożadane jest posiadanie baz ortogonalnych podprzestrzeni.
11.3.2 Ortogonalizacja Grama-Schmidta
Okazuje sie, że dowolna baze podprzestrzeni można stosunkowo latwo prze-
ksztalcić w baze ortogonalna. Sluży temu proces zwany ortogonalizacja
Grama-Schmidta.
Niech y1, y2, . . . , ys beda liniowo niezależne oraz
Yk := [y1, . . . , yk], Yk = span(y1, . . . , yk), 1 d" k d" s.
Oczywiście dim(Yk) = k "k oraz
Y1 " Y2 " " Ys ą" X .
106 ROZDZIAL 11. PRZESTRZENIE EUKLIDESOWE
Twierdzenie 11.3 (Ortogonalizacja Grama-Schmidta)
Nastepujacy proces:
{ z1 := y1;
for k := 2 to s do
zk := yk - rzut prostopadly yk na Yk-1
}
produkuje uklady ortogonalne Zk = [z1, . . . , zk] takie, że
span(z1, z2, . . . , zk) = Yk, 1 d" k d" s.
Dowód. (Indukcja wzgledem k.)
Dla k = 1 twierdzenie jest oczywiste. Niech k e" 2. Wtedy, wobec zalożenia
indukcyjnego, mamy Yk-1 = span(z1, . . . , zk-1) oraz uklad {zi}k-1 jest or-
i=1
togonalny. Jeśli teraz rk jest rzutem ortogonalnym yk na Yk-1 to z twier-
dzenia o rzucie ortogonalnym mamy, że zk = yk - rk = 0 jest prostopadly

do Yk-1, a stad uklad {zi}k jest też ortogonalny. Oczywiście, przy tym
i=1
span(z1, . . . , zk) = Yk, co kończy dowód.
Ortogonalizacje Grama-Schmidta możemy zapisać jako algorytm gene-
rujacy uklad {zi}s z ukladu {yi}s , w nastepujacy sposób:
i=1 i=1
{ z1 := y1; 1 := (z1, z1);
for k := 2 to s do
{ for j := 1 to k - 1 do cj,k := (zj, yk)/j;
k-1
zk := yk - zj " cj,k; k := (zk, zk)
j=1
}
}
Algorytm ten produkuje  po drodze wspólczynniki cj,k dla 2 d" k d" s,
1 d" j d" k - 1. Jeśli dodatkowo zdefiniujemy ck,k = 1 dla 1 d" k d" s, oraz
cj,k = 0 dla 1 d" k d" s - 1, k + 1 d" j d" s, to dostaniemy
k
yk = cj,k " zj,
j=1
czyli
Yk = Zk " Ck, gdzie Ck = (ci,j)k ,
i,j=1
11.3. UKLADY ORTOGONALNE 107
albo, po normalizacji bazy z1, . . . , zs,
Yk = k " k,
1/2 1/2
-1
gdzie k = Z " Dk , k = Dk " Ck, Dk = diag(1 , . . . , k ).
Zauważmy, że macierze Ck i k sa trójkatne górne.
11.3.3 Rozklad ortogonalno-trójkatny macierzy
Ważnym przypadkiem szczególnym jest X|K = Kn , K ą" C, ze  zwyklym
|K
iloczynem skalarnym (x, y) = yH " x. Niech
A = [a1, . . . , an] " Km,n,
gdzie
rank(A) = n d" m,
tzn. kolumny macierzy sa liniowo niezależne. Wtedy, przeprowadzajac orto-
normalizacje (czyli ortogonalizacje, a nastepnie normalizacje) kolumn macie-
rzy A otrzymujemy macierz Q " Km,n, Q = [q1, . . . , qn], której kolumny qj
tworza uklad ortonormalny,
QH " Q = In,
oraz macierz trójkatna górna R " TRIUn,n takie, że
A = Q " R.
Jest to rozklad ortogonalno-trójkatny macierzy.


Wyszukiwarka

Podobne podstrony:
Algebra liniowa z geometrią K Tartas, W Bołt
,algebra liniowa z geometrią analityczną, ILOCZYN TENSOROWY zadania
ALGEBRA LINIOWA KOLOKWIA PRZYKLADOWE
Sylabus Algebra liniowa I studia licencjackie
Algebra Liniowa (Informatyka)
Podstawy algebry liniowej
Algebra liniowa teoria
Doran Geometric Algebra & Computer Vision [sharethefiles com]
Doran New Advances in Geometric Algebra (2001) [sharethefiles com]
Algebra Liniowa Zadania(1)

więcej podobnych podstron