METODY NUMERYCZNE CZESC PIERWSZA


Sławomir Milewski Metody numeryczne  konspekt
WSTP DO METOD NUMERYCZNYCH
Metodą numeryczną nazywa się każdą metodę obliczeniową sprowadzalną do operacji
arytmetycznych dodawania, odejmowania, mnożenia i dzielenia. Są to podstawowe operacje
matematyczne, znane od wieków przez człowieka a także rozpoznawalne przez każdy
procesor komputerowy. Na fundamencie tych czterech działań liczbowych można zbudować
całą bazę obliczeniową dla mniej lub bardziej skomplikowanych zagadnień (np. obliczanie
pierwiastka kwadratowego z liczby nieujemnej, ale też operacje całkowania i różniczkowania
numerycznego). Dlatego zazwyczaj przez numerykę rozumie się dziedzinę matematyki
zajmującą się rozwiązywaniem przybliżonym zagadnień algebraicznych. I rzeczywiście,
odkąd zjawiska przyrodnicze zaczęto opisywać przy użyciu formalizmu matematycznego,
pojawiła się potrzeba rozwiązywania zadań analizy matematycznej czy algebry. Dopóki były
one nieskomplikowane, dawały się rozwiązywać analitycznie, tzn. z użyciem pewnych
przekształceń algebraicznych prowadzących do otrzymywania rozwiązań ścisłych danych
problemów. Z czasem jednak, przy powstawaniu coraz to bardziej skomplikowanych teorii
opisujących zjawiska, problemy te stawały się na tyle złożone, iż ich rozwiązywanie ścisłe
było albo bardzo czasochłonne albo też zgoła niemożliwe. Numeryka pozwalała znajdywać
przybliżone rozwiązania z żądaną dokładnością. Ich podstawową zaletą była ogólność tak
formułowanych algorytmów, tzn. w ramach danego zagadnienia nie miało znaczenia czy było
ono proste czy też bardzo skomplikowane (najwyżej wiązało się z większym nakładem pracy
obliczeniowej). Natomiast wadą była czasochłonność. Stąd prawdziwy renesans metod
numerycznych nastąpił wraz z powszechnym użyciem w pracy naukowej maszyn cyfrowych,
a w szczególności mikrokomputerów (od lat siedemdziesiątych). Dziś złożoność metody
numerycznej nie jest żadnym problemem  dziesiątki żmudnych dla człowieka operacji
arytmetycznych wykonuje komputer  o wiele ważniejsza stała się analiza otrzymanego
wyniku (gł. pod kątem jego dokładności)  tak, aby był on możliwie najbardziej wiarygodny.
Oczywiście metody numeryczne mogą służyć do rozwiązywania konkretnych zagadnień
algebraicznych (takich jak np. równania nieliniowe czy problemy własne). Na ogół jednak są
one ostatnim ogniwem w łańcuchu zwanym modelowaniem. W celu określenia zachowania
się jakiegoś zjawiska w przyrodzie (tu uwaga będzie skierowana na zagadnienia fizyczne,
czyli odwracalne), buduje się szereg jego przybliżeń zwanych modelami. Modele buduje się
przyjmując coraz to nowe założenia i hipotezy upraszczające. Z rzeczywistego systemu
fizycznego najpierw powstaje model mechaniczny, (czyli zbiór hipotez dotyczących np.
materiału, środowiska, zachowania obciążenia itd.). Jego reprezentacją matematyczną jest
model matematyczny, czyli opis jego zachowania się przy określonych warunkach
mechanicznych w postaci układu równań różniczkowych cząstkowych (na ogół). Następny w
kolejności model numeryczny polega na zamianie wielkości ciągłych na dyskretne  oznacza
przejście do układu równań algebraicznych, do rozwiązania którego służy wybrana metoda
numeryczna. Po otrzymaniu wyniku numerycznego (przybliżonego) należy przeprowadzić
analizę błędu. Należy zauważyć, iż błąd końcowy będzie obarczony błędami ze wszystkich
poprzednich etapów modelowania, a więc:
" Błędem nieuniknionym (błędem modelu),
" Błędem metody,
" Błędem numerycznym.
1
Sławomir Milewski Metody numeryczne  konspekt
Błąd modelu zwykle wiąże się z przyjęciem złych parametrów początkowych lub brzegowych
przy jego tworzeniu. Może się też okazać, iż przyjęto zbyt daleko idące uproszczenia
nieoddające dobrze warunków rzeczywistych, w jakich odbywa się dane zjawisko. Mimo tego
na ogół buduje się modele w miarę proste, a następnie przeprowadza analizę wrażliwości, tzn.
sprawdza, jak duży wpływ ma dany pojedynczy czynnik na jego funkcjonowanie.
Błąd metody wiąże się z przyjęciem mało dokładnych parametrów dla tej metody (zbyt rzadki
podział obszaru ciągłego na skończone odcinki) lub z zastosowaniem zbyt mało dokładnej
metody (mimo dokładnych parametrów). Metod numerycznych dla danego zagadnienia jest
na ogół bardzo dużo. Wybór powinien być dokonany z uwagi na przewidywaną postać
rzeczywistego zachowania się zjawiska.
Błąd numeryczny wiąże się ściśle z precyzją wykonywanych obliczeń (ręcznych  przez
człowieka, przez kalkulator, przez komputer). Wyróżnić można błąd obcięcia i błąd
zaokrągleń. Błąd obcięcia wystąpi, gdy rozwijając daną funkcję w szereg odrzucamy
nieskończoną liczbę wyrazów od pewnego miejsca, zachowując jedynie pewną początkową
ich liczbę (w kalkulatorach działaniami pierwotnymi są operacje dodawania, odejmowania,
mnożenia i dzielenia, natomiast wszystkie inne, np. obliczanie wartości funkcji
trygonometrycznych wiąże się z rozwijaniem tychże funkcji w szeregi potęgowe z daną
dokładnością obcięcia). Błąd zaokrągleń wiąże się z reprezentacją ułamków dziesiętnych
nieskończonych (należy przy tym pamiętać, iż komputer prowadzi obliczenia z właściwą dla
danego typu liczbowego precyzją, natomiast pokazywać graficznie wyniki może z
dokładnością żądaną przez użytkownika  wtedy na potrzeby formatu prezentacji zaokrągla z
daną dokładnością  tak samo jest zresztą w kalkulatorach).
Inna klasyfikacja błędu numerycznego (tu rozumianego jako dokładność) to:
" Błąd względny (bezwymiarowy),
" Błąd bezwzględny.
Przyjmując oznaczenia: x - wielkość przybliżona oraz x - wielkość ścisła, można zapisać
x - x
błąd bezwzględny  = x - x i błąd względny  = . Błąd względny jako
x
bezwymiarowy często przedstawiany jest w procentach. Podanie samej wartości x w
numeryce jest bezwartościowe  musi jej towarzyszyć jedna z powyższych dokładności, (co
zapisuje się jako: x ą  lub x(1ą  ) ).
Ważnym pojęciem w numeryce jest pojęcie cyfr znaczących. Pierwsza cyfra znacząca to
pierwsza niezerowa cyfra licząc od lewej strony ułamka dziesiętnego. W praktyce jest to
cyfra, do której można mieć  zaufanie , iż nie pochodzi z zaokrąglenia, lecz znalazła się tam
z rzeczywistych obliczeń. Np. 2345000 (4 cyfry znaczące), 2.345000 (7 cyfr znaczących),
0.023450 (5 cyfr znaczących), 0.02345 (4 cyfry znaczące) itd. Dokładność końcowa musi
mieć tyle cyfr znaczących, ile mają warunki początkowe. Oznacza to w praktyce, iż nie
można prowadzić obliczeń zachowując np. trzy miejsca po przecinku, a ostateczny wynik
podawać bezkarnie z większą niż ta dokładnością. Będzie on wtedy bezwartościowy, gdyż
błąd zaokrągleń może wkraść się nawet na pierwszą pozycję dziesiętną, zwłaszcza jeżeli w
trakcie obliczeń przeprowadzano często działania dzielenia i odejmowania, które obniżają
dokładność wyniku.
2
Sławomir Milewski Metody numeryczne  konspekt
ROZWIZYWANIE NIELINIOWYCH RÓWNAC ALGEBRAICZNYCH
Najprostszym wykorzystaniem metod numerycznych jest numeryczne rozwiązywanie równań
algebraicznych nieliniowych. Nieliniowość może być pochodzenia geometrycznego (np. w
mechanice przyjęcie teorii dużych odkształceń czy przemieszczeń) lub fizycznego (nieliniowe
związki konstytutywne, gdy materiał nie podlega liniowemu prawu sprężystości). Końcowym
efektem takiego modelowania w przestrzeni jednowymiarowej przy jednej zmiennej
niezależnej jest równanie postaci:
F(x) = 0
Tworząc w określony sposób równanie postaci:
x = f (x) ,
gdzie f (x) jest dowolną, nieliniową funkcją zmiennej x można stworzyć ciąg liczbowy
postaci
xn+1 = f (xn) (1)
rozpoczynając obliczenia od dowolnej (na ogół) liczby x0 , zwanej punktem startowym:
x0, x1 = f (x0), x2 = f (x1), x3 = f (x2), ... (2)
Graficznie proces ten polega na szukaniu punktu wspólnego dla prostej y = x oraz krzywej
y = f (x) .
Jeżeli wykona się odpowiednio dużo takich obliczeń, to przy odpowiednich warunkach, jakie
Ć
musi spełniać funkcja f (x) , proces okaże się zbieżny (do określonej liczby x ). Równanie (1)
nazywa się wtedy schematem iteracyjnym, a ciąg przybliżeń (2) procesem iteracyjnym.
Liczby potrzebnych iteracji nie da się z góry określić (będzie ona funkcją punktu startowego
oraz postaci schematu iteracyjnego). Dlatego o miejscu przerwania iteracji muszą świadczyć
dodatkowe kryteria. Formułuje się je definiując następujące nieujemne wielkości skalarne:
xn+1 - xn
(1)
" Tempo zbieżności:  = ,
xn+1
F(xn+1)
(2)
" Residuum:  = ,
F(x0)
(3)
" Ilość iteracji:  : n = ...
(1) (1) (2) (2)
Wtedy o zakończeniu obliczeń decydować będą warunki:  d" dop,  d" dop, n d" nmax .
Dwa pierwsze są niezależne od siebie i powinny być spełnione równocześnie. Trzeci jest dla
(1) (2)
nich alternatywą. Liczby (tu: bezwymiarowe) dop, dop, nmax są danymi z góry
wielkościami dopuszczalnymi.
3
Sławomir Milewski Metody numeryczne  konspekt
Przy formułowaniu powyższych kryteriów użyto wielkości względnych, (które mogą być
łatwo porównywane między sobą). Czasami wskazane jest użycie wielkości wymiarowych,
ale wtedy określenie czy liczba jest  mała czy  duża nie jest już takie oczywiste.
Malejące tempo zbieżności świadczy o zbieżności danego schematu iteracyjnego do jednej
n"
Ć
skończonej wartości (tu: xn x ). Schemat iteracyjny rozbieżny może dawać coraz większe
liczby wraz ze wzrostem liczby iteracji (rozbieżność jako  zbieżność do nieskończoności),
może oscylować pomiędzy dwiema różnymi wartościami (tzw. proces niestabilny) lub po
prostu okazać się osobliwym dla danego xn . Takie sytuacje wychwytuje tempo zbieżności,
które zamiast systematycznie maleć utrzymuje się na tym samym poziomie lub
nieograniczenie rośnie do nieskończoności.
Natomiast małość kryterium residualnego (resztkowego) świadczy o spełnieniu wyjściowego
równania algebraicznego (1). Może się bowiem zdarzyć, iż sama zbieżność procesu nie
gwarantuje zbieżności schematu do właściwego rozwiązania x ,tj. takiego, że F(x) = 0 .
Ć
Wtedy x `" x i wykaże ten fakt niezerowe residuum, natomiast tempo zbieżności będzie
mimo to maleć. Dopiero spełnienie obydwu kryteriów gwarantuje uzyskanie przybliżenia
właściwego rozwiązania wyjściowego równania (1).
Procesy iteracyjne mogą być zbieżne i rozbieżne jednostronnie (wtedy zbliżamy się lub
oddalamy od właściwego rozwiązania z jednej strony  od dołu lub od góry) lub dwustronnie
(wyniki iteracji  skaczą z jednej strony wartości ścisłej na drugą cyklicznie, przybliżając się
do niej lub oddalając). Przykłady takich procesów pokazują poniższe rysunki.
Można zauważyć pewną cechę wspólną dla funkcji prawej strony f (x) w przypadku
procesów zbieżnych i rozbieżnych. Wszystko zależy od nachylenia funkcji w pewnym
otoczeniu (przedziale a,b ), w którym poszukiwanie jest rozwiązanie. Funkcje  strome
[ ]
powodują rozbieżność schematu. Tą  stromość określa się przez kąt nachylenia wykresu do
osi x, a kryterium zbieżności wynika z warunku Lipschitza.
Twierdzenie 1
Jeżeli f (x) spełnia warunek Lipschitza:
f (x1) - f (x2) d" L x1 - x2 , 0 < L < 1, x1, x2 " a,b
[ ]
to równanie algebraiczne x = f (x) posiada co najmniej jedno rozwiązanie w przedziale
a,b .
[ ]
Twierdzenie 2
Jeżeli f (x) spełnia twierdzenie 1, to proces iteracyjny xn+1 = f (xn) jest zbieżny do
rozwiązania ścisłego równania x = f (x) dla x " a,b przy dowolnym punkcie startowym x0 .
[ ]
4
Sławomir Milewski Metody numeryczne  konspekt
y
y
xsc
xsc
x
x2 x0 x1 x3 x
x0 x2 x3 x1
Proces rozbieżny dwustronnie
Proces zbieżny dwustronnie
y
y
xsc
xsc
x
x3 x2 x1 x0
x2 x3 x1 x0 x
Proces rozbieżny jednostronnie
Proces zbieżny jednostronnie
Konsekwencją powyższych twierdzeń jest następujący wniosek: jeżeli kąt nachylenia funkcji
f (x) na pewnym przedziale x " x1, x2 jest mniejszy niż 45, to schemat iteracyjny jest
[ ]
zbieżny przy dowolnym punkcie startowym. Tangens kąta nachylenia liczymy na podstawie
ilorazu różnicowego funkcji f (x) .
O ewentualnej zbieżności lub rozbieżności decyduje schemat, a dokładniej: sposób
znajdywania funkcji prawej strony f (x) . Sposób ten stanowi podstawę klasyfikacji dalszych
metod iteracyjnych. Na ogół schemat powinien mieć zapewnioną bezwarunkową stabilność i
zbieżność.
Równanie wyjściowe: F(x) = 0 .
METODA ITERACJI PROSTEJ
x0
ż#
.
#
= f (xn)
#xn+1
5
Sławomir Milewski Metody numeryczne  konspekt
Sposób znajdywania funkcji f (x) nie jest z góry określony, może pochodzić z prostego
przekształcenia: F(x) = 0 F(x) + x = x f (x) = x . Taki schemat nie ma
zagwarantowanej zbieżności ani stabilności.
METODA ITERACJI PROSTEJ Z RELAKSACJ
Pojęcie relaksacji w numeryce oznacza ingerencję w tempo zbieżności wyniku. W metodzie
iteracji prostej można zrobić modyfikację polegającą na obróceniu wykresu funkcji f (x)
względem początku układu o taki kąt a, aby proces iteracyjny był optymalnie szybko zbieżny
w okolicy danego punktu (punkt optymalnej zbieżności). Relaksacja nie tylko poprawia
tempo zbieżności, ale również potrafi zamienić wyjściowy schemat rozbieżny na zbieżny.
Wartość kąta a należy wyznaczyć optymalizując nowo otrzymany schemat poprzez dodanie
do starego czynnika liniowego odpowiadającego za obrót (punkt optymalnej zbieżności na
ogół utożsamiany jest z punktem startowym x0 ):
x = f (x)
x +ą x = f (x) +ą x
x(1+ą) = f (x) +ą x
f (x) ą x
x = + = g(x)
1+ą 1+ą
x = g(x)
Optymalizujemy nowy schemat iteracyjny:
g '(x0) = 0
f '(x0) ą
+ = 0 (ą `" -1)
1+ą 1+ą
ą =- f '(x0)
Tak policzone ą wstawiamy do schematu x = g(x) :
f (x) f '(x0)
x =- x
1- f '(x0) 1- f '(x0)
Końcowa postać schematu iteracyjnego metody iteracji prostej z relaksacją:
x0
ż#
#
#x = f (xn) xn f '(x0) .
-
n+1
#
1- f '(x0) 1- f '(x0)
#
6
Sławomir Milewski Metody numeryczne  konspekt
METODA STYCZNYCH (NEWTONA)
Dla pewnego otoczenia h punktu x rozwijamy wartość wyjściowej funkcji F(x + h) w szereg
Taylora:
1
F(x + h) = F(x) + F '(x) " h + F ''(x) " h2 + ... H" F(x) + F '(x)" h
2
Ustalając x i podstawiając F(x + h) = 0 można obliczyć przyrost h przy uprzednim
odrzuceniu wyrazów rozwinięcia wyższych rzędem niż pierwszy (zlinearyzowany przyrost):
F(x)
h =- .
F '(x)
Dla danej pary sąsiednich przybliżeń zachodzi: xn+1 = xn + h .
Stąd po podstawieniu za h otrzymujemy schemat metody:
x0
ż#
#
#x = xn - F(xn ) .
n+1
#
F '(xn )
#
Graficznie metoda Newtona polega na budowaniu stycznych w kolejnych przybliżeniach xn
począwszy od punktu startowego oraz na szukaniu miejsc zerowych tych stycznych.
Wzór na metodę Newtona można też otrzymać stosując metodę relaksacji bezpośrednio do
wyjściowego równania F(x) = 0 .
Znana jest też modyfikacja metody dla pierwiastków wielokrotnych (jeżeli równanie
F(x) = 0 takież posiada):
x0
ż#
#
#x = xn - U (xn ) , U (x) = F(x) , U '(x) =1- F(x)" F ''(x) .
n+1
#
U '(xn ) F '(x) (F '(x))2
#
METODA SIECZNYCH
W metodzie Newtona do schematu iteracyjnego potrzebna jest znajomość pochodnej funkcji
F(x) . Aby uniknąć jej różniczkowania, można liczbową pochodną obliczać w sposób
przybliżony korzystając z wartości ilorazu różnicowego. Wtedy potrzebne są zawsze dwa
punkty wstecz, aby zbudować kolejne rozwiązanie (graficznie styczna przechodzi w sieczną),
także na samym początku obliczeń.
x0, x1
ż#
#
#x = xn - F(xn )" xn - xn-1 .
n+1
#
F(xn) - F(xn-1)
#
7
Sławomir Milewski Metody numeryczne  konspekt
METODA REGULA FALSI
Jeżeli zastosujemy metodę siecznych lub stycznych do funkcji nieregularnej, która w sposób
gwałtowny przechodzi z wypukłej na wklęsłą lub z malejącej na rosnącą, jest
niebezpieczeństwo, iż kolejne przybliżenia rozwiązania  uciekną daleko od początkowego
przedziału bez żadnych szans na powrót i na znalezienie sensownego rozwiązania. Pomocna
może się okazać pewna modyfikacja metody siecznych, gdzie jeden z punktów, na których
buduje się kolejne sieczne, jest z góry ustalony (jest to jeden z punktów startowych),
natomiast drugi z nich jest punktem zmiennym. W razie oddalenia się kolejnych przybliżeń
od obszaru startowego, w ciągu następnych iteracji nastąpi powrót w jego okolice.
x0 (punkt stały), x1
ż#
#
#x = xn - F(xn)" xn - x0
n+1
#
F(xn ) - F(x0)
#
METODA BISEKCJI (POAOWIENIA)
Metoda bisekcji należy do najstarszych i najprostszych metod iteracyjnych, oprócz
znajdywania pierwiastków równań również jest wykorzystywana przy zagadnieniach
optymalizacji funkcji. Dla wyjściowego równania F(x) = 0 szuka ona przybliżenia
rozwiązania wewnątrz przedziału x " a,b . Stąd, aby metoda zadziała, musi być gwarancja
( )
istnienia miejsca zerowego w tym przedziale: F(a)" F(b) < 0 .
a + b
Przy każdej iteracji oblicza się środek przedziału x = . Następnie sprawdza się, w
2
którym z podprzedziałów (a, x) oraz (x,b) leży miejsce zerowe i ten przedział podlega
dalszemu dzieleniu. Jeżeli F(a)" F(x) < 0 to b = x , w przeciwnym przypadku a = x . Podział
przedziału a,b niekoniecznie musi następować na dwie równe części, można go dzielić np.
( )
b - a b - x
w tzw. złotym stosunku (czyli tak, aby = ).
b - x a - x
Przykład 1
Podać schematy iteracyjne rozwiązania równania sin(x) + x2 = 2 metodami: (i) iteracji
prostej, (ii) iteracji prostej optymalnie szybko zbieżny, (iii) Newtona, (iv) siecznych, (v)
regula falsi. Zastosować tak sformułowane schematy do znalezienia dwóch kolejnych
przybliżeń rozwiązania startując z punktu x0 = -2 (dla metody siecznych i regula falsi
przyjąć drugi punkt startowy x1 =-0.5). Po każdym kroku iteracyjnym określić tempo
zbieżności oraz tempo zmiany residuum.
Wyjściowe równanie: F(x) = sin(x) + x2 - 2, F(x) = 0
Pierwiastki ścisłe równania: xsc =-1.06155, xsc =1.728466
12
8
Sławomir Milewski Metody numeryczne  konspekt
(i) metoda iteracji prostej
Z równania F(x) = 0 wyznaczamy w dowolny prosty sposób zmienną x, np.
x = sin(x) + 2 .
ż#
0
#x =-2
Schemat iteracyjny:
#
#x = sin(xn) + 2, n = 0,1, 2,...
n+1
#
Obliczenia:
Krok n = 0:
x1 = sin(x0) + 2 = sin(-2) + 2 = 1.044367
x1 - x0 -2 -1.044367
(1)
e1 == = 2.915035
x1 1.044367
F(x1) sin(1.044367) -1.0443672 - 2
(2)
e1 == = 0.609736
F(x0) sin(-2) - (-2)2 - 2
Krok n = 1:
x2 = sin(x1) + 2 = sin(1.044367) + 2 =1.692515
x2 - x1 1.044367 -1.692515
(1)
e2 == = 0.382950
x2 1.692515
F(x2) sin(1.692515) -1.6925152 - 2
(2)
e2 == = 0.043995
F(x0) sin(-2) - (-2)2 - 2
(1)
Z dokładnością e1 = 0.000002 < 10-6 otrzymano po n = 16 iteracjach wynik
x6 = 1.728466 .
(ii) metoda iteracji prostej z relaksacją
Korzystając z poprzedniego schematu metody iteracji prostej x = f (x) :
x = sin(x) + 2 , znajdujemy nowy schemat optymalnie szybko zbieżny w okolicy
punktu startowego x0 =-2 .
1 1
f (x) = sin(x) + 2 f '(x) = "cos(x)
2
sin(x) + 2
1 1 1 1
f '(x0) ="cos(x0) = "cos(-2) = -0.199234
22
sin(x0) + 2 sin(-2) + 2
1 f '(x0)
1- f '(x0) =1.199234, = 0.833866, = -0.166134
1- f '(x0) 1- f '(x0)
ż#
0
#x =-2
Schemat iteracyjny:
#
#x = 0.833866" sin(xn) + 2 + 0.166134" xn, n = 0,1, 2,...
n+1
#
9
Sławomir Milewski Metody numeryczne  konspekt
Obliczenia:
Krok n = 0:
x1 = 0.833866" sin(x0) + 2 + 0.166134" x0 =
= 0.833866" sin(-2) + 2 + 0.166134"(-2) = 0.538593
x1 - x0 -2 - 0.538593
(1)
e1 == = 4.713379
x1 0.538593
F(x1) sin(0.538593) - 0.5385932 - 2
(2)
e1 == = 0.764049
F(x0) sin(-2) - (-2)2 - 2
Krok n = 1:
x2 = 0.833866" sin(x1) + 2 + 0.166134" x1 = 1.411341
x2 - x1 1.411341- 0.538593
(1)
e2 == = 0.618382
x2 1.411341
F(x2) sin(1.411341) -1.4113412 - 2
(2)
e2 == = 0.342155
F(x0) sin(-2) - (-2)2 - 2
(1)
Z dokładnością e1 = 0.000002 < 10-6 otrzymano po n = 8 iteracjach wynik
x8 = 1.728464 .
(iii) metoda Newtona
Postać wyjściowa równania: F(x) = sin(x) + x2 - 2, F(x) = 0 .
Obliczenie pochodnej funkcji F(x) : F '(x) = cos(x) + 2x .
x0 =-2
ż#
#
2
Schemat iteracyjny:
sin(xn) + xn - 2
#
, n = 0,1, 2,...
#xn+1 = xn -
cos(xn ) + 2xn
#
Obliczenia:
(1) (
x1 =-1.188221, e1 = 0.683189 e12) = 0.116721
(1) (
x2 =-1.064728, e1 = 0.115985, e12) = 0.002854
.
...
(1) (
x4 =-1.061550, e1 <10-6, e12) < 10-8
(iv) metoda siecznych
Postać wyjściowa równania: F(x) = sin(x) + x2 - 2, F(x) = 0 .
10
Sławomir Milewski Metody numeryczne  konspekt
Schemat iteracyjny:
x0 =-2, x1 =-0.5
ż#
#
#x = xn - (sin(xn) + xn - 2)" xn-1 - xn , n = 1, 2,...
2
n+1
22
#
sin(xn-1) + xn-1 - sin(xn ) - xn
#
Obliczenia:
(1) (
x1 =-0.955962, e1 = 0.476967 e12) = 0.092554
(1) (
x2 =-1.078578, e1 = 0.113683, e12) = 0.015336
.
...
(1) (
x5 =-1.061550, e1 < 10-6, e12) <10-8
(v) metoda regula falsi
Postać wyjściowa równania: F(x) = sin(x) + x2 - 2, F(x) = 0 .
Punkt stały: x0 =-2 .
Schemat iteracyjny:
x0 =-2, x1 =-0.5
ż#
#
#x = xn - (sin(xn ) + xn - 2)" -2 - xn
2
, n =1, 2,...
n+1
2
#
3.090703- sin(xn ) - xn
#
Obliczenia:
(1) (
x1 =-0.955962, e1 = 0.476967 e12) = 0.092554
(1) (
x2 =-1.044406, e1 = 0.084684, e12) = 0.015327
.
...
( (
x7 =-1.061548, e11) <10-6, e12) < 10-6
Przykład 2
Równanie z poprzedniego zadania rozwiązać w sposób przybliżony metodą bisekcji. Przyjąć
przedział (1,3) . Rozwiązanie znalezć z dokładnością edop = 10-3 .
Postać wyjściowa równania: F(x) = sin(x) + x2 - 2, F(x) = 0 .
Początek przedziału: a0 =1, koniec przedziału: b0 = 3 .
Obliczenia zestawiono w tabeli:
11
Sławomir Milewski Metody numeryczne  konspekt
xn-1 - xn (2)
an-1 + bn-1 F(xn)" F(an-1) an
(1)
n xn = bn en = n = F(xn)
2 xn
1 2.000 -2.008497 1.000 2.000 0.500 1.090703
2 1.500 1.376490 1.500 2.000 0.333333 0.747495
3 1.750 -0.058689 1.500 1.750 0.142857 0.078514
4 1.625000 0.267533 1.625000 1.750 0.076923 0.357906
5 1.687500 0.052090 1.687500 1.750 0.037037 0.145542
6 1.718750 0.005090 1.718750 1.750 0.018182 0.034973
7 1.734375 -0.000749 1.718750 1.734375 0.009009 0.021406
8 1.726563 0.000240 1.726563 1.734375 0.004525 0.006875
9 1.730469 -0.000050 1.726563 1.730469 0.002257 0.007243
10 1.728516 -0.000001 1.726563 1.728516 0.001130 0.000178
11 1.727539 0.000023 1.727539 1.728516 0.000565 0.003350
12
Sławomir Milewski Metody numeryczne  konspekt
UKAADY RÓWNAC NIELINIOWYCH
Rozwiązywanie układów równań algebraicznych (liniowych lub nieliniowych) to najczęściej
spotykany problem algebraiczny w zagadnieniach fizyki. Stąd potrzeba opracowania aparatu
analizy takich układów, najczęściej w formie wektorowej i macierzowej. Ponieważ działania
wykonywane będą już nie na pojedynczych liczbach tylko na wielkościach macierzowych,
należy wprowadzić pojęcie normy (wektora, macierzy)  stanowiącej reprezentację tej
wielkości w postaci pojedynczej liczby rzeczywistej dodatniej.
Definicja
Norma wektorowa x z wektora x "V , gdzie V to liniowa n  wymiarowa przestrzeń
wektorowa, jest skalarem spełniającym następujące warunki:
1. x e" 0 "x"V , x = 0 ! x = 0 ,
2. ą x = ą " x "x"V , "ą"! ,
3. x + y d" x + y "x, y"V .
Najczęściej używane normy wektorowe:
1
n
Ą# 2 ń#2
1. x = xi Ą# , norma Euklidesa (średnio kwadratowa),
"
ó#
1
Ł# i=1 Ś#
2. x = max xi , norma Czebyszewa (maksimum),
2
(i)
1
n
p
Ą# p ń#
3. x = xi Ą# , p e" 1, uogólnienie dwóch powyższych przypadków ( p = 2 - norma
"
3 ó#
Ł# i=1 Ś#
Euklidesa, p =" - norma Czebyszewa).
Definicja
Norma macierzowa A z macierzy kwadratowej n n (
A= Ą# ń# ) jest skalarem
Ł#aij Ś#
nn
spełniającym następujące warunki:
1. A e" 0 , A = 0 ! A = 0 ,
2. ą A = ą " A , "ą"! ,
3. A + B d" A + B ,
4. A" B d" A " B .
Najczęściej używane normy macierzowe:
1
n n
Ą# 2 ń#2
1. A = aij , norma Euklidesa (średnio kwadratowa),
ó#"" Ą#
1
i=1 j=1
Ł#Ś#
n
2. A = max aij , norma Czebyszewa (maksimum).
"
2
(i)
j=1
13
Sławomir Milewski Metody numeryczne  konspekt
Często używane jest też pojęcie średniej normy Euklidesa. Wtedy przed pierwiastkowaniem
sumy kwadratów współrzędnych dzieli się dodatkowo tą sumę przez liczbę wyrazów n.
METODA NEWTONA  RAPHSONA
Metoda służy do rozwiązywania układów równań nieliniowych i stanowi uogólnienie metody
iteracji prostej dla wielu równań jednocześnie.
Twierdzenie 1
Niech Fi : xi " ai,bi !, i = 1, 2,..., n należy do n  wymiarowej przestrzeni euklidesowej
[ ]
!n .
Niech x= f (x) spełnia następujące warunki
1. f jest określone i ciągłe w !n ,
2. norma jakobianowa z f spełnia warunek J (x) d" L d"1,
f
"F1 "F1
Ą#ń#
...
ó#
"x1 "xn Ą#
ó#Ą#
J = ó# ... ... ... Ą#
f
ó#"F "Fn Ą#
n
ó#Ą#
...
ó#Ą#
"x1 "xn Ś#
Ł#
3. dla każdego x "!n m f (x) również należy do !n .
Wtedy dla każdego x0 "!n ciąg iteracyjny xn+1 = f (xn) jest zbieżny do jednoznacznego

rozwiązania x .
Rozważmy punkt x oraz jego bliskie otoczenie x+h. Wtedy F (x+h) = 0. Rozwijając
ostatnią wielkość wektorową w szereg Taylora otrzymuje się:
"F (x) 1 "2F (x)
F (x+h) = F (x) + h + h2 + ... = F(x) + J(x)" h + R(x) = 0
"x 2 "2 x
Linearyzując powyższy związek ze względu na h i wyliczając wektor h otrzymuje się:
-1
F (x) + J(x)" h = 0 h = -J (x)" F (x)
-1
xn+1 = xn + h xn+1 = xn - J (xn)" F (xn)
-1
Przy takim zapisie schematu konieczne byłoby odwracanie macierzy J (xn) na każdym
kroku. Aby tego uniknąć, mnoży się stronami przez J (xn) , co prowadzi do sformułowania
układu równań liniowych (rozwiązywanych analitycznie lub numerycznie).
14
Sławomir Milewski Metody numeryczne  konspekt
x0
ż#
#
#J (xn) " xn+1 = J (xn) " xn - F (xn)
Kryteria przerwania iteracji w przypadku wielowymiarowym:
xn+1 - xn (1)
(1)
1.  =d" dop ,
xn+1
F (xn+1)
(2) (2)
2.  =d" dop .
F (x0)
Najczęściej sprawdza się rozwiązanie dla dwóch rodzajów norm: dla normy maksimum, która
wychwytuje największy błąd w obszarze rozwiązania i średniej normy kwadratowej, która
mówi o średniej jakości rozwiązania.
Istnieją różne modyfikacje metody Newtona. Najprostsza polega na nie zmienianiu
wyjściowej macierzy jakobianowej, co pociąga większą liczbę kroków, niż przy oryginalnej
metodzie, ale tylko dla jednego obliczania macierzy (pomocne może być omawiane w
dalszych rozdziałach opracowania rozbicie na czynniki trójkątne). Możliwe jest też
uaktualnianie macierzy co pewną liczbę kroków, a więc tam, gdzie macierz mogła ulec
istotnej zmianie.
Inna metoda polega na dokonaniu relaksacji.
x0
ż#
.
#
#J (xn) " xn+1 = J (xn) " xn -ą " F (xn )
(najczęściej ą = 1.2,1.3,1.4 - tzw. nadrelaksacja)
W przypadku wyraznej oscylacji rozwiązania (np. wynik przechodzi z jednej na drugą stronę
osi  x ) możliwe jest wprowadzenie przyśpieszenia zbieżności iteracji metodą Aitkena.
Wprowadzając oznaczenia: xj - wartość rozwiązania na j-tym kroku, x - rozwiązanie ścisłe
można zapisać liniowy związek:
x - xn = ą(x - xn-1)
Przy założeniu, że współczynnik ą jest stały dla dwóch sąsiednich iteracji, można zapisać
układ równań dla trzech kolejnych przybliżeń rozwiązania:
x
ż# - xn = ą (x - xn-1)
#
#x - xn-1 = ą (x - xn-2)
Rozwiązując go ze względu na x otrzymuje się związek:
15
Sławomir Milewski Metody numeryczne  konspekt
2
xn-2 " xn - xn-1
x = .
xn - 2xn-1 + xn-2
Wzór należy używać osobno dla każdej zmiennej niezależnej poprawiając wartość otrzymaną
na n-tym kroku iteracji.
Przykład 1
2
ż#
#y = 2x metodą Newtona 
Rozwiązać następujący układ równań nieliniowych
#
2
#
#x + y2 = 8
Raphsona. Przyjąć wektor startowy x0 = 0, 2 2 . Po każdym kroku iteracyjnym
{ }
(1) (2)
przeprowadzać analizę błędu. Przyjąć następujące poziomy błędu: dop = 10-6, dop = 10-8 .
ż#
-
#F (x, y) = y2 2x .
1
Wektor funkcyjny: F (x, y) =
#
-
#F2(x, y) = x2 + y2 8
#
"F1 "F1
Ą#ń#
ó#Ą#
"x "y
Ą#-2 2y
ń#
ó#Ą#
Macierz jakobianowa: J (x, y) = (x, y) =
"F2 "F2 ó#2x 2yĄ# .
ó#Ą#
Ł# Ś#
ó#Ą#
"x "y
Ł#Ś#
0
Ą# ń# 0.0
Ą# ń#
Wektor startowy: x0 == .
ó# Ą#
ó#2.8284Ą#
Ł#2 2Ś# Ł# Ś#
Schemat iteracyjny: J(xn, yn)" xn+1 = J (xn, yn)" xn - F (xn, yn) xn+1 = ...
2
Ą#ń#
Ą# -2 2yn xn+1 -2 2yn xn yn - 2xn xn+1
ń# Ą# ń# Ą#ń# Ą# ń# Ą# ń#
" = " - = ...
Ą#
ó#2x 2yn Ą# ó#
yn+1Ą# ó#2x 2yn Ą# ó# yn Ą# ó# 2 + yn - 8Ś# ó# yn+1Ą#
ó#Ą#
Ł# n Ś# Ł# Ś# Ł# n Ś# Ł# Ś#2 Ł# Ś#
Ł#xn
Analiza błędów:
2
Ą# - 2xn
ń#
yn
xn+1
Ą# - xn
ń#
ó#Ą#
2 2
yn+1 Ś#
xn+1 - xn ó# - yn Ą# ? (1) (2) + yn -8Ś# ? (2)
F (xn+1) ó#Ą#
Ł# Ł#xn
(1)
 == <dop,  = = <dop
2
xn+1 xn+1 F (x0)
Ą# ń# Ą# - 2x0 ń#
y0
ó# ó# Ą#
2 2
yn+1Ą#
Ł# Ś# + y0 -8Ś#
ó#Ą#
Ł#x0
Krok n = 0 :
2
Ą#ń#
Ą# -2 2y0 x1 -2 2y0 x0 y0 - 2x0 x1
ń# Ą# ń# Ą#ń# Ą# ń# Ą# ń#
" = " - = ...
ó#2x 2y0 Ą# ó# ó#2x 2y0 Ą# ó# Ą#2Ą#
y1Ą# y0 ó# 2 + y0 -8Ś# ó# y1Ą#
Ł# 0 Ś# Ł# Ś# Ł# 0 Ś# Ł# Ś# ó#Ą# Ł# Ś#
Ł#x0
16
Sławomir Milewski Metody numeryczne  konspekt
Ą#-2.0 5.6569 x1
ń# Ą# ń# Ą#-2.0 5.6569 0.0 8.0
ń# Ą# ń# Ą# ń#
" = " -
ó#
0.0 5.6569Ą# ó# y1Ą# ó# 0.0 5.6569Ą# ó#2.8284Ą# ó#0.0Ą#
Ł#Ś# Ł# Ś# Ł#Ś# Ł# Ś# Ł# Ś#
.
Ą#-2.0 5.6569 x1 8.0 x1 4.0
ń# Ą# ń# Ą# ń# Ą# ń# Ą# ń#
" = =
ó#
0.0 5.6569Ą# ó# y1Ą# ó#16.0Ą# ó# y1 Ą# ó#2.8284Ą#
Ł#Ś# Ł# Ś# Ł# Ś# Ł# Ś# Ł# Ś#
Błędy w normie euklidesowej:
4.0 0.0 4.0
Ą# ń# Ą# ń# Ą# ń#
1
-
()
x1 - x0 e ó#2.8284Ą# ó#2.8284Ą# ó#0.0Ą# 2 4.02 + 0.02
Ł# Ś# Ł# Ś# Ł# Ś#
(1)
e e
ee == = = = 0.8165
x1 e 4.0 4.0
Ą# ń# Ą# ń# 1
()
ó#2.8284Ą# ó#2.8284Ą#2 4.02 + 2.82842
Ł# Ś# Ł# Ś#
ee
Ą#ń#
2.82842 - 2" 4.0
0.0
Ą# ń#
1
ó#Ą#
2
()
F (x1) -8.0Ś# e ó#16.0Ą# 2 0.02 +16.02
Ł#4.0 + 2.82842 Ł# Ś#
(2)
e e
ee == == = 2.0
F (x0) 8.0
Ą#ń# Ą# ń# 1
2.82842 - 2"0.0
e
8.02 + 0.02
()
ó#Ą# ó#0.0Ą#
2
2
-8.0Ś# e Ł# Ś#
e
Ł#0.0 + 2.82842
Błędy w normie maksimum:
4.0 0.0 4.0
Ą# ń# Ą# ń# Ą# ń#
-
x1 - x0 m ó#2.8284Ą# ó#2.8284Ą# ó#0.0Ą#4.0
Ł# Ś# Ł# Ś# Ł# Ś#
(1)
m m
em == = = =1.0
x1 m 4.0 4.0 4.0
Ą# ń# Ą# ń#
ó#2.8284Ą# ó#2.8284Ą#
Ł# Ś# Ł# Ś#
mm
Ą#ń#
2.82842 - 2"4.0
0.0
Ą# ń#
ó#Ą#
2 ó# Ą#
-8.0Ś# m Ł#16.0Ś# m 16.0
F (x1)
Ł#4.0 + 2.82842
(2)
m
em == == = 2.0
F (x0) 8.0 8.0
Ą#ń# Ą# ń#
2.82842 - 2"0.0
m
ó#Ą# ó#0.0Ą#
2
-
m
Ł#0.0 + 2.82842 8.0Ś# m Ł# Ś#
Sprawdzenie kryterium zbieżności:
(1) (1)
e = 0.8165 > dop = 10-6
(1) (1)
m =1.0000 > dop = 10-6
(2) (2)
e = 2.0000 > dop =10-8
(2) (2)
m = 2.0000 > dop =10-8
17
Sławomir Milewski Metody numeryczne  konspekt
Krok n = 1:
2
Ą# -2 2y1 x2 -2 2y1 x1 y1 - 2x1 x2
ń# Ą# ń# Ą# ń# Ą# ń#Ą#ń# Ą# ń#
= - = ...
Ą#
ó#2x 2y1Ą# " ó# Ą# ó#2x 2y1Ą# " ó#
y2 y1Ą# ó# 2 + y1 -8Ś# ó# y2 Ą#
ó#Ą#
Ł# 1 Ś# Ł# Ś# Ł# 1 Ś# Ł# Ś#Ł#x1 2 Ł# Ś#
Ą#-2.0 5.6569 x1 x2 2.40
ń# Ą# ń# Ą#-2.0 5.6569 4.0 0.0 8.0
ń# Ą# ń# Ą# ń# Ą# ń# Ą# ń# Ą# ń#
" = " - = = .
ó#
8.0 5.6569Ą# ó# y1Ą# ó# 8.0 5.6569Ą# ó#2.8284Ą# ó#16.0Ą# ó#16.0Ą# ó# y2 Ą# ó#2.2627 Ą#
Ł# Ś# Ł# Ś# Ł# Ś# Ł# Ś# Ł# Ś# Ł# Ś# Ł# Ś# Ł# Ś#
Błędy w normie euklidesowej:
Ą#ń#
2.26272 - 2" 2.40
2.40 4.0
Ą# ń# Ą# ń#
-
ó#Ą#
2
-
x2 - x1 e ó#2.2627Ą# ó#2.8284Ą# F (x2)
Ł# Ś# Ł# Ś# Ł#2.40 + 2.26272 8.0Ś# e
(1) (2)
e e
ee == = 0.5145, ee == = 0.6667
x2 e 2.40 F (x0) 8.0
Ą# ń# Ą# ń#
e
ó#2.2627Ą# ó#0.0Ą#
Ł# Ś# Ł# Ś#
e e
Błędy w normie maksimum:
Ą# - 2" 2.40 ń#
2.26272
2.40 4.0
Ą# ń# Ą# ń#
-
ó#Ą#
2
-
x2 - x1 m ó#2.2627Ą# ó#2.8284Ą# F (x2)
Ł# Ś# Ł# Ś# Ł#2.40 + 2.26272 8.0Ś# m = 0.3600
(1) (2)
m m
em == = 0.3622, em = =
x2 m 2.40 F (x0) 8.0
Ą# ń# Ą# ń#
m
ó#2.2627Ą# ó#0.0Ą#
Ł# Ś# Ł# Ś#
m m
Sprawdzenie kryterium zbieżności:
(1) (1)
e = 0.5145 > dop = 10-6
(1) (1)
m = 0.6667 > dop = 10-6
(2) (2)
e = 0.3622 > dop =10-8
(2) (2)
m = 0.3600 > dop =10-8
Krok n = 2 :
Ą#-2.0 4.5255 x3 x3 2.0235
ń# Ą# ń# Ą#-2.0 4.5255 2.40 0.320 5.120
ń# Ą# ń# Ą# ń# Ą# ń# Ą# ń# Ą# ń#
= - = =
ó#4.80 4.5255Ą# " ó# Ą# ó#4.80 4.5255Ą# " ó#2.2627Ą# ó#2.880Ą# ó#18.88Ą# ó# Ą# ó#2.0257 Ą#
y3 y3
Ł#Ś# Ł# Ś# Ł#Ś# Ł# Ś# Ł# Ś# Ł# Ś# Ł# Ś# Ł# Ś#
x3 - x2 ee
F (x3)
(1) (
Błędy w normie euklidesowej: ee == 0.1554, ee2) = = 0.1859
x3 ee
F (x0)
18
Sławomir Milewski Metody numeryczne  konspekt
(1) (
Błędy w normie maksimum: em = x3 - x2 m = 0.0257, em2) = F (x3) m = 0.0247
x3 mm
F (x0)
Sprawdzenie kryterium zbieżności:
(1) (1)
e = 0.1554 > dop =10-6
(1) (1)
m = 0.1859 > dop =10-6
itd.
(2) (2)
e = 0.0257 > dop = 10-8
(2) (2)
m = 0.0247 > dop = 10-8
Wyniki spełniające kryteria zbieżności otrzymano po szóstej iteracji
x6 = x6 = 2.000, y6 = 2.0000 .
{ }
Poniższe wykresy przedstawiają tempo zbieżności rozwiązania i residuum: w skali dziesiętnej
i logarytmicznej liczone dla obydwu powyżej zastosowanych norm.
Tempa zbieżności i residuum
2
1,5
1
0,5
0
123456
nr iteracji
ConEuk ConMax ResEuk ResMax
19
residuum
tempo zbieżności,
Sławomir Milewski Metody numeryczne  konspekt
Tempa zbieżności i residuum - skala logarytmiczna
2
-3 00,511,52
-8
-13
-18
-23
log(nr iteracji)
ConEuk ConMax ResEuk ResMax
Przyśpieszenie zbieżności metodą Aitkena ma sens wtedy, gdy rozwiązanie wyraznie
 skacze , przechodząc cyklicznie z jednej strony na drugą pewnej ustalonej wartości. W
przypadku powyższym wyraznie obserwowana jest zbieżność  od góry , a więc włączenie
algorytmu Aitkena nie jest uzasadnione i może popsuć dobre już rozwiązania. Od strony
formalnej jego zastosowanie będzie polegało na obliczeniu nowej, poprawionej wartości
rozwiązania po trzecim kroku iteracyjnym.
x3 2.0235
Ą# ń# Ą# ń#
Rozwiązanie uzyskane po trzecim kroku: =
ó# Ą# ó#2.0257Ą#
y3
Ł# Ś# Ł# Ś#
2
x1 " x3 - x2 4.0"2.0235 - 2.402
Poprawienie współrzędnej x3 : x3 == = 1.9985
x3 - 2x2 + x1 2.0235 - 2" 2.40 + 4.0
2
y1 " y3 - y2 2.2627 " 2.0257 - 2.82842
Poprawienie współrzędnej y3 : y3 == =1.9971
y3 - 2y2 + y1 2.0257 - 2" 2.8284 + 2.2627
Następny krok iteracyjny ( n = 3) uwzględniałby oczywiście już poprawione powyżej
wartości rozwiązania:
Ą# -2.0 3.9943 x4 -2.0 3.9943 1.9985 0.0085 3.9886 x4 2.0000
ń# Ą# ń# Ą#ń# Ą# ń# Ą# ń# Ą# ń# Ą# ń# Ą# ń#
= + = =
ó#3.9971 3.9943Ą# " ó# Ą# ó#3.9971 3.9943Ą# " ó#1.9971Ą# ó#0.0173Ą# ó#15.9827Ą# ó# Ą# ó#2.0000Ą#
y4
Ł#Ś# Ł# Ś# Ł#Ś# Ł# Ś# Ł# Ś# Ł#y4
Ś# Ł# Ś# Ł# Ś#
Wartości rozwiązania po tym kroku z dokładnością do sześciu miejsc po przecinku równają
się wynikowi ścisłemu.
20
residuum)
log(tempo zbieżności,
Sławomir Milewski Metody numeryczne  konspekt
UKAADY RÓWNAC LINIOWYCH
W metodzie Newtona  Rhapsona po linearyzacji równań należy rozwiązać układ równań
liniowych. Sposób algebraiczny (metoda Cramera) wymaga liczenia wyznaczników i jest
dość kłopotliwy. Dlatego wprowadzono szereg metod numerycznych do rozwiązywania
takich układów równań.
Rozważany będzie następujący problem algebry:
Ax = b, det(A) `" 0
A - macierz współczynników układu ( n n ),
x  wektor rozwiązań ( n1),
b  wektor prawej strony (wyrazy wolne) ( n1).
Klasyfikacja metod do rozwiązywania powyższego zagadnienia może opierać się na
własnościach macierzy współczynników. Wtedy można rozróżnić:
1. macierz symetryczną: AT = A ,
2. macierz dodatnio określoną: xT Ax > 0, "x"! ,
n
3. macierz o dużym rozmiarze: n >> 1,
4. macierz o specjalnej strukturze (np. pasmowej).
Metody rozwiązywania można podzielić wtedy na:
" metody eliminacji (polegają na odpowiednim rozkładzie macierzy A na
czynniki a następnie na wyliczeniu jednego po drugim wszystkich rozwiązań)
 są uciążliwe obliczeniowo, ale za to dają wynik ścisły, np. metoda Gaussa 
Jordana, metoda Choleskiego;
" metody iteracyjne (polegają na zastosowaniu prostych metod iteracyjnych do
każdego z równań algebraicznych z osobna, co daje w rezultacie ciąg
wektorów przybliżeń rozwiązania ścisłego), np. metoda Jacobiego, metoda
Gaussa  Seidela, metoda Richardsona;
" metody kombinowane (eliminacyjno  iteracyjne);
" metody specjalne, np. metody analizy frontalnej czy metody macierzy rzadkich
(macierz ma wiele zer, mało współczynników niezerowych, np. metoda
Thomasa).
Metody eliminacji, które zostaną omówione poniżej, polegają na rozkładzie wyjściowej
macierzy A na czynniki, tzw. czynniki trójkątne L i U: A = LU . Macierz dolnotrójkątna L
ma następującą własność: współczynniki niezerowe występują jedynie poniżej wyrazów na
`" 0, j d" i
ż#
przekątnej głównej, tj. L : lij =
#0, j > i , macierz górnotrójkątna U ma własność
(nn)
#
21
Sławomir Milewski Metody numeryczne  konspekt
odwrotną: współczynniki niezerowe położone są powyżej przekątnej głównej, tj.
0, j < i
ż#
U : uij = . Po znalezieniu tego rozkładu rozwiązuje się tzw.  pozorne układy
#
(nn)
#`" 0, j d" i
równań: krok wprzód: Ly = b oraz krok wstecz: Ux = y . Układy, dzięki swojej trójkątnej
strukturze, pozwalają na uzyskanie kolejnych rozwiązań rekurencyjnie wiersz po wierszu
zaczynając liczenie od góry (przy macierzy dolnotrójkątnej) lub od dołu (przy macierzy
górnotrójkątnej).
METODA GAUSSA  JORDANA
Ax = b, det(A) `" 0
n
"a xj = bi, i = 1, 2,..., n
ij
j=1
Wzory dla wersji eliminacji elementów pod przekątną główną i krokiem wstecz:
Ab Uy Ux = y x
( ( (k
(
aijk ) = aijk -1) - mik " akj -1)
aikk -1)
, gdzie: mik = , k =1, 2,..., n -1; i, j = k +1,..., n
(k
(
akk -1)
bi(k ) = bi(k -1) - mik "bkk -1)
n
Ą#ń#
1
xi = - aij xj Ą# " , i = n, n -1,..., 2,1
ó#b "
i
aii
j=i+1
Ł#Ś#
Wzory dla wersji eliminacji elementów nad przekątną główną i krokiem wprzód:
Ab Ly Lx = y x
( ( (k
(
aijk ) = aijk -1) - mik " akj -1)
aikk -1)
, gdzie: mik = , k = n, n -1,..., 2; i, j = k -1,...,1
(k
(
akk -1)
bi(k ) = bi(k -1) - mik "bkk -1)
i-1
Ą#ń#
1
xi = - xj Ą# " , i = 1, 2,..., n
ó#b "a Ś# aii
i ij
j=1
Ł#
Wzory dla wersji pełnej eliminacji elementów macierzy: Ab Uy Lx x
( ( (k
(
aijk ) = aijk -1) - mik " akj -1)
aikk -1)
, gdzie: mik = , k =1, 2,..., n -1; i, j = k +1,..., n
(k
(
akk -1)
bi(k ) = bi(k -1) - mik "bkk -1)
22
Sławomir Milewski Metody numeryczne  konspekt
( ( (k
(
aijk ) = aijk -1) - mik " akj -1)
aikk -1)
, gdzie: mik = , k = n, n -1,..., 2; i, j = k -1,...,1
(k
(
akk -1)
bi(k ) = bi(k -1) - mik "bkk -1)
bi
xi = , i = 1, 2,..., n
aii
W przypadku, gdy przy det(A) `" 0 , a mimo to przy obliczaniu współczynnika mik wyraz
(k
akk -1) = 0 należy odwrócić kolejność wierszy (o numerach  i oraz  k ) tablicy złożonej z
wyrazów macierzy współczynników oraz wyrazów wektora prawej strony. Można też
rozwiązywać układy równań z wieloma prawymi stronami, wtedy całą macierz prawych stron
( B = [bij ], gdzie m jest liczbą prawych stron) przetwarza się równocześnie.
(nm)
Przykład 1
Rozwiązać metodą eliminacji Gaussa  Jordana układ równań Ax = b , gdzie
1
Ą# -2 -1
ń# Ą#-6
ń#
ó#Ą# ó#19Ą#
A= 6 3 , b = .
ó#-2 Ą# ó# Ą#
ó#-1 3 10Ś# Ł#35Ą#
Ł#Ą# ó# Ś#
Zastosowana zostanie wersja pełnej eliminacji wyrazów macierzy do postaci diagonalnej. Z
wyrazów macierzy A oraz wyrazów wektora b budujemy tablicę liczb:
1 -2 -1 -6
-2 6 3 19 .
-1 3 10 35
W pierwszym kroku eliminacji podlegają elementy pod przekątną główną (z macierzy A
powstanie macierz górnotrójkątna U), kolejno  -2 ,   -1 oraz  3 . Do zerowania  -2
-2
używamy czynnika eliminacji m21 = = -2 . Jest on równy ilorazowi wyrazu, który ma się
1
wyzerować ( -2 ) przez odpowiadający mu wyraz stojący w pierwszym wierszu od góry,
który nie ulega zmianie (tu: wiersz pierwszy, wyraz  1 ). Następnie zmianie podlega każdy
wyraz w wierszu drugim (łącznie z ostatnią kolumną wyrazów wolnych) wg przepisu: nowy
wyraz równa się różnicy starego wyrazu i iloczynu współczynnika  m przez wyraz z tej
samej kolumny z wiersza górnego niezmiennego dla tego kroku (znowu wiersz pierwszy).
Stąd nowa postać wiersza drugiego:
a21 =-2 - (-2)"1 =-2 + 2 = 0 , a22 = 6 - (-2)"(-2) = 6 - 4 = 2 , a23 = 3 - (-2)"(-1) = 3 - 2 = 1,
b2 =19 - (-2)"(-6) = 19 -12 = 7 .
-1
Podobnie dla wyzerowania wyrazu a31 = -1 współczynnik m31 = =-1 a nowy zestaw
1
wyrazów:
23
Sławomir Milewski Metody numeryczne  konspekt
a31 =-1- (-1)"1 =-1+1 = 0 , a32 = 3 - (-1)"(-2) = 3- 2 = 1, a33 =10 - (-1)"(-1) = 10 -1 = 9 ,
b3 = 35 - (-1)"(-6) = 35 - 6 = 29 .
Tablica wyrazów po tym kroku wygląda następująco:
1 -2 -1 -6
0 2 1 7 .
0 1 9 29
Cały proces sprowadza się tak naprawdę do pomnożenia pierwszego równania najpierw przez
 -2 i dodaniu go do drugiego a następnie przez  -1 i dodaniu go do trzeciego.
W następnym, ostatnim  górnotrójkątnym kroku eliminacji podlega  1 (dawne  3 ).
1
Współczynnik m32 = . Teraz wierszem, którym się nie zmienia jest wiersz drugi!. Dlatego w
2
mianowniku jest  2 a nie  -2 . Postać nowego wiersza po eliminacji (wyraz pierwszy nie
ulega zmianie  można to łatwo sprawdzić, bo stoi nad nim  0 ):
1 11 17 17 51
a32 =1- "2 = 1-1 = 0 , a33 = 9 - "1 = 9 - = , b3 = 29 - "7 = 29 - = .
2 22 2 22 2
Tablica wyrazów wygląda teraz następująco:
1 -2 -1 -6
0 2 1 7 .
17 51
0 0
2 2
Ą# ń#
ó# -2 -1
Ą#
1
ó# Ą#
Postać macierzy górnotrójkątnej: U = 2 1 . Macierz dolnotrójkątną tworzy się
ó#0 Ą#
ó# Ą#
17
0 0
ó# Ą#
Ł# 2 Ś#
Ą#ń#
ó#
1 0 0 1 0 0Ą#
Ą#ń#
Ą#
ó#m 1 0Ą# ó# 1 0Ą# . Aatwo sprawdzić, iż LU = A .
następująco: L ==
21
ó#-2
ó#Ą#
Ą#
ó#Ą#
m32 1Ś# ó# 1
Ł#m31
ó#-1 1
Ą#
Ł# 2 Ś#
Teraz eliminacji podlegają wyrazy nad przekątną, kolejno  1 ,  -1 oraz  -2 . Do eliminacji
1 2 -1 2
 1 współczynnik m23 = = a do eliminacji  -1 : m13 = =- .
17 / 2 17 17 / 2 17
24
Sławomir Milewski Metody numeryczne  konspekt
Postać tablicy po przekształceniach:
1 -2 0 -3
0 2 0 4 .
17 51
0 0
2 2
-2
Ostatni krok wymaga wyzerowania  -2 . Ostatnie m12 = =-1.
2
Końcowa postać tablicy (macierz A jest teraz diagonalna):
1 0 0 1
0 2 0 4 .
17 51
0 0
2 2
Ostatnie przekształcenie polega na podzieleniu ostatniej kolumny wyrazów wolnych przez
14 51 2
odpowiednie wyrazy diagonalne (b1 = = 1, b2 = = 2, b3 = " = 3). Z własności
12 2 17
1 0 0 1
macierzy jednostkowej ( 0 1 0 2 , Ix=b x=b) wynika, iż wyrazy wolne są
0 0 1 3
poszukiwanymi rozwiązaniami wyjściowego układu, czyli:
1
Ą# ń#
ó#2Ą#
x = .
ó# Ą#
ó#Ś#
Ł#3Ą#
Przykład 2
x1 Ą# ń#
6 2 2 4 Ą# ń# 1
Ą# ń#
ó#x Ą#
ó# ó# Ą#
2
ó# Ą#
ó#-1 2 2 -3Ą#ó#-1Ą#
Ą#
Rozwiązać metodą eliminacji Gaussa  Jordana układ równań " = .
ó# Ą#
ó# Ą#ó# Ą#
0 1 1 4 x3 2
ó# Ą#
ó# Ą#ó# Ą#
1 0 2 3Ł#x4 Ś#Ł# Ś#
1
Ł# Ś#
Na podstawie układu budujemy tablicę:
25
Sławomir Milewski Metody numeryczne  konspekt
1
6 2 2 4 1
6 2 2 4
5
6 2 2 4 1
7 7 7 5
0 - - 7 7 7-
6
-1 2 2 -3 -1 0 -
3 3 3 6
.
3 3 3
33
0 1 1 4 2 0 1 1 4 2
0 0 0 5
14
1 0 2 3 1 1 5 7 5
0 - 0 0 2 2 5
3 3 3 6
7
11
Współczynniki do wyzerowania pierwszej kolumny: m21 = - , m31 = 0, m41 = , do drugiej:
66
31
m32 = , m42 = - . Dalej konieczne jest wyzerowanie wyrazu a43 = 2 . Jednak obliczenie
77
2
współczynnika m43 wymagałoby dzielenia przez zero ( m43 = ). Czy to oznacza, że
"0"
wyjściowa macierz była osobliwa? Nie, po prostu wyjściowa kolejność równań powoduje
takie ułożenie współczynników macierzy  w takim wypadku należy zamienić kolejność
wierszy  w powyższym przykładzie ulegną zamianie wiersze trzeci i czwarty. Wtedy zero
wskoczy na właściwe sobie miejsce. Natomiast osobliwość macierzy skutkowałaby w postaci
pózniejszego dzielenia przez zero w czasie obliczania wyrazów wektora rozwiązań.
Dalsze przekształcenia tablicy:
31 23
1 --
35 35
6 2 2 4 6 2 2 0 6 2 0 0
5
88
7 7 7- 7 7 7
6
00 0 0 0 0
-
15 15

3 3 3 3 3 3
5
88
0 0 2 2 0 0 2 0 - 0 0 2 0 -
7
35 35
0 0 0 5 33 0 0 0 5 0 0 0 5
33 33
14
14 14
39 13 13
- - x1 = -
35 70 70
6 0 0 0
1 0 0 0
8 88
7 x2 =
0 0 0 0 1 0 0
15 35 35
.
3
8 0 0 1 0 4 4
0 0 2 0 - - x3 = -
35 35 35
0 0 0 1
0 0 0 5
33 33 33
x4 =
14 70 70
26
Sławomir Milewski Metody numeryczne  konspekt
METODA CHOLESKIEGO
Metoda opracowana jest dla macierzy współczynników symetrycznych dodatnio określonych.
Dzięki takim własnością macierzy A jest możliwy następujący jej rozkład: A = L" LT .
Ze sprawdzeniem symetrii macierzy nie ma na ogół problemów, musi być spełniony warunek:
A = AT aij = aji, i, j = 1, 2,..., n . Natomiast badanie dodatniej określoności jest na ogół
kłopotliwe, dlatego pomocne może okazać się następujące twierdzenie:
Twierdzenie 1
Jeżeli macierz A o współczynnikach rzeczywistych jest symetryczna i ściśle dominująca na
przekątnej głównej i dodatkowo posiada wszystkie elementy diagonalne dodatnie, to macierz
A jest dodatnio określona.
Macierz nazywamy ściśle dominującą na przekątnej głównej, jeżeli:
n
aii > aij , i =1, 2,3,..., n .xx555
"
j=1
j`"i
Wzór na rozkład macierzy w metodzie Choleskiego oraz wzory na niewiadome wektory x i y:
j-1
2
ljj = ajj - , j = 1, 2,..., n
"l
jk
k =1
j-1
1
lij = (aij - "ljk ), j = 1,..., n; i = j +1,..., n
"l
ljj k =1 ik
.
i-1
1
yi = (bi - " y ), i =1,..., n
"l
lii j=1 ij j
n
Ą#ń#
1
xi = yi - lji " xj Ą# " , i = n,...,1
ó# "
lii
j=i+1
Ł#Ś#
Przykład 3
4
Ą# -2 0
ń# Ą#-6
ń#
ó# ó# Ą#
Rozwiązać układ równań Ax = b , gdzie A= 5 -2Ą# , b = 3 metodą eliminacji
ó#-2 Ą# ó# Ą#
ó# -2 5 8
Ą# ó# Ą#
0
Ł# Ś# Ł# Ś#
Choleskiego.
Aby zastosować metodę Choleskiego do nieosobliwego układu równań, należy sprawdzić
warunek symetrii i dodatniej określoności macierzy A. Symetria jest spełniona, gdyż
a12 = a21 = -2, a13 = a31 = -1, a23 = a32 = 3. Do zbadania dodatniej określoności
wykorzystamy tw.1: macierz symetryczna jest dominująca na przekątnej głównej, gdyż:
4 > -2 + 0 = 2, 5 > -2 + -2 = 4, 5 > 0 + -2 = 2 .
27
Sławomir Milewski Metody numeryczne  konspekt
Rozłożenie macierzy A na czynniki trójkątne L" LT :
4
Ą# -2 0 l11 0 0 l11 l21 l31
ń# Ą# ń# Ą# ń#
ó# ó#l Ą# ó#
= l22 0 " 0 l22 l32 Ą#
21
ó#-2 5 -2Ą# ó# Ą#
Ą# Ą# ó#
ó# -2 5 l32 l33 Ś# Ł# 0 0 l33 Ś#
Ą# ó# Ą#
0
Ł#Ą# ó#
Ś# Ł#l31
Dokonując odpowiednich mnożeń wierszy macierzy L i kolumn macierzy LT i porównując
wynik z odpowiednim wyrazem macierzy A wyznaczamy nieznane wyrazy lij :
l11 "l11 = a11 = 4 l11 = 4 = 2
-2 -2
l11 "l21 = a21 = -2 l21 = = = -1
l11 2
0
l11 "l31 = a31 = 0 l31 = = 0
l11
2 2 2
l21 + l22 = a22 = 5 l22 = 5 - l21 = 5 -1 = 2
-2 - l31 "l21 -2 - 0
l31 "l21 + l32 "l22 = a32 = -2 l32 = = = -1
l22 2
2 2 2 2 2
l21 + l22 + l33 = a33 = 5 l33 = 5 - l31 - l32 = 5 - 0 -1 = 2
l11 0 0 2 0 0
Ą#ń# Ą# ń#
ó#l Ą# ó#
Macierz dolnotrójkątna: L = l22 0 = 2 0Ą# .
21
ó#Ą# ó#-1 Ą#
ó#Ą# ó# Ą#
l32 l33 Ś# Ł# 0 -1 2Ś#
Ł#l31
l11 l21 l31 2 -1 0
Ą#ń# Ą# ń#
ó# ó#0
Macierz górnotrójkątna: U = LT == 0 l22 l32 Ą# = 2 -1Ą# .
ó#Ą# ó# Ą#
ó#Ą# ó# Ą#
0 0 l33 Ś# Ł#0 0 2
Ł# Ś#
Krok wprzód Ly =b:
-6
y1 = = -3
2 0 0 y1 Ą#-6ń# 2
Ą#ń# Ą# ń# Ą#-3
ń#
1
ó# ó# Ą# ó#3 Ą# ó#0 Ą#
" y2 = (3+ y1) = 0 y =
ó#-1 2 0Ą# y2 = ó# Ą# ó# Ą#
Ą# ó# Ą#
2
ó# -1 2Ś# Ł# y3 Ś# Ł#8 Ś# 1
ó# Ą#
0
Ł#Ą# ó# Ą# ó# Ą# Ł#4 Ś#
y3 = (8 - y2) = 4
2
28
Sławomir Milewski Metody numeryczne  konspekt
Krok wstecz LT x= y :
4
x3 = = 2
2
Ą# -1 0 x1 Ą#-3ń# 2
ń# Ą# ń# Ą#-1
ń#
1
ó#x Ą# ó#0 Ą# ó#1 Ą#
ó#0 2 -1Ą# x2 = (0 + x3) = 1 x= .
" =
2
ó#Ą# ó# Ą# ó# Ą# ó# Ą#
2
ó#Ś# ó# Ą#
Ł#0 0 2 Ą# ó# Ą# ó# Ą# 1 Ł#2 Ś#
Ł#x3 Ś# Ł#4 Ś#
x3 = (-3 + x2) = -1
2
Ostatecznym wektorem rozwiązań jest wektor x.
Wymaganie związane z dodatnią określonością macierzy A może być w wyjątkowych
sytuacjach niespełnione. Wtedy macierze trójkątne L" LT istnieją w dziedzinie liczb
zespolonych, ale końcowe rozwiązanie jest rzeczywiste o ile tylko układ nie jest osobliwy.
Metody iteracyjne, w odróżnieniu od metod eliminacyjnych, dostarczają w wyniku metod
iteracji prostej (z relaksacją) całego zbioru przybliżeń wektora rozwiązań, który przy
odpowiedniej liczbie iteracji będzie zbieżny do rozwiązania ścisłego x= A-1b.
W metodach iteracyjnych z każdego z równań wyznaczamy niewiadomą (z  i -tego równania
pochodzi  i-ta niewiadoma) za pomocą wszystkich pozostałych. Niewiadome te podlegają
obliczeniu na podstawie znajomości poprzedniego przybliżenia, na samym początku na
znajomości wektora startowego. Tak działa metoda Jacobiego, która zawsze korzysta z
wyników z poprzedniej iteracji, natomiast metoda Gaussa  Seidela korzysta z informacji z
aktualnej iteracji, jeżeli jest to już możliwe. Metody te są zbieżne, jeżeli macierz A jest
dodatnio określona (jest to warunek wystarczający zbieżności).
n
Sformułowanie problemu: Ax = b, det(A) `" 0
"a xj = bi, i = 1, 2,..., n .
ij
j=1
METODA JACOBIEGO
(0) (0) (0)
ż#
x(0) = {x1 , x2 ,..., xn }
#
# n
#xi(n+1) = 1 (bi - ij " x(n)), i =1, 2,..., n
"a
#
aii j=1 j
# j`"i
#
Po rozłożeniu macierzy A na składniki: Ax=b Lx +Dx + Ux=b można algorytm
sformułować w zapisie macierzowym:
x(n+1) =-D-1 "(L + U)x(n) + D-1 "b
29
Sławomir Milewski Metody numeryczne  konspekt
METODA GAUSSA - SEIDELA
(0) (0) (0)
ż#
x(0) = {x1 , x2 ,..., xn }
#
1
#x(n+1) = (bi - i-1 x(n+1) n aij " x(n)), i =1, 2,..., n
i "a " - "
#
aii j=1 ij j j
j=i+1
#
W zapisie macierzowym:
x(n+1) =-D-1 " L" x(n+1) - D-1 "U " x(n) + D-1 "b
Kryteria przerwania procesu iteracyjnego są takie same dla obydwu powyższych metod:
xn+1 - xn (1)
(1)
1. kontrola tempa zbieżności:  =d" dop ,
xn+1
A" xn+1 - b
(2) (2)
2. kontrola wielkości residuum:  =d" dop .
A" x0 - b
Zastosowanie relaksacji polega na poprawieniu wektora rozwiązań po każdym kroku
iteracyjnym wg wzoru:

xi(n+1) = xi(n) +  "(xi(n+1) - xi(n)) ,
gdzie  jest parametrem relaksacji (przyjmowanym arbitralnie na początku lub ustalanym
dynamicznie po każdym kroku).
Przykład 4
4
Ą# -2 0
ń# Ą#-6
ń#
ó# ó# Ą#
Rozwiązać układ równań Ax = b , gdzie A= 5 -2Ą# , b = 3 metodą iteracji
ó#-2 Ą# ó# Ą#
ó# -2 5 8
Ą# ó# Ą#
0
Ł# Ś# Ł# Ś#
Jacobiego. Przyjąć wektor startowy x0 = {0,0,0}.
Po zapisaniu tradycyjnym powyższego układu i wyliczeniu z każdego z równań kolejnych
niewiadomych, otrzymujemy schemat iteracyjny metody Jacobiego.
1
ż#x(n+1) = (-6 + 2x2n))
(
1
#
4
4x1
ż# - 2x2 = -6
#
1
##
(n+1) ( (
.
#-2x + 5x2 - 2x3 = 3 #x = (3+ 2x1n) + 2x3n))
1 2
5
##
+ 5x3 = 8
#-2x2
# 1
(n+1) (
3
#x = (8 + 2x2n))
5
#
30
Sławomir Milewski Metody numeryczne  konspekt
Rozpoczynając obliczenia od wektora startowego x0 = {0,0,0} otrzymujemy ciąg przybliżeń
wektora rozwiązań, po każdym kroku kontrolując błąd obliczeń (tempo zbieżności i residuum
liczone dla dwóch rodzajów norm: euklidesowej i maksimum):
Iteracja pierwsza ( n = 0 ):
11
ż#x(1) = (-6 + 2x20)) = (-6 + 0) = -1.5
(
1
#
44
#
11
#
(1) ( (
#x = (3 + 2x10) + 2x30) ) = (3 + 0 + 0) = 0.6
2
55
#
# 11
(1) (
3
#x = (8 + 2x20)) = (8 + 0) = 1.6
55
#
(1) (2)
ż#ż#
=1.0
x1 - x0 #ee
Ax1 - b
# = 0.163673
(1) (2)
 = ,,  = ,
##
(1)
x1 #m (
Ax0 - b
=1.0
##m2) = 0.150
#
Iteracja druga ( n = 1):
11
ż#x(2) = (-6 + 2x21)) = (-6 + 2"0.6) = -1.2
(
1
#
44
#
11
#
(2) ( (
#x = (3 + 2x11) + 2x31)) = (3+ 2"(-1.5) + 2"1.6) = 0.6 4
2
55
#
# 11
(2) (
3
#x = (8 + 2x21)) = (8 + 2"0.6) = 1.84
55
#
(1) (2)
ż#ż#
= 0.1019
x2 - x1 #ee
Ax2 - b
# = 0.1040
(1) (2)
 = ,,  = ,
##
(1)
x2 #m(
Ax0 - b
= 0.1630
##m2) = 0.1350
#
Iteracja trzecia ( n = 2 ):
11
ż#x(3) = (-6 + 2x22)) = (-6 + 2"0.64) = -1.18
(
1
#
44
#
11
#
(3) ( (
#x = (3 + 2x12) + 2x32)) = (3 + 2"(-1.2) + 2"1.84) = 0.856
2
55
#
# 11
(3) (
3
#x = (8 + 2x22)) = (8 + 2"0.64) = 1.856
55
#
(1) (2)
ż#ż#
= 0.0922
x3 - x2 #ee
Ax3 - b
# = 0.0589
(1) (2)
 = ,,  = ,
##
(1)
x3 #m (
Ax0 - b
= 0.1164
##m2) = 0.0540
#
31
Sławomir Milewski Metody numeryczne  konspekt
Proces jest bardzo wolno zbieżny do rozwiązania ścisłego x = {-1,1,2}. Po piętnastu
iteracjach otrzymano wynik x15 = {-1.000392, 0.999687, 1.999687}. Aby przyśpieszyć
obliczenia, można zastosować technikę, np. nadrelaksacji z parametrem  = 1.6 . Wtedy
poprawione rozwiązania po drugim kroku iteracji wynosić będą:
( (2) (
ż#
x1(2) = x11) +  "(x1 - x11)) =-1.5 +1.6"(-1.2 +1.5) =-1.02
#
(2) ( (2) (
#x = x21) +  "(x2 - x21)) = 0.6 +1.6"(0.64 - 0.6) = 0.664
2
#x = x31) +  "(x3 - x31)) = 1.6 +1.6"(1.84 -1.6) = 1.984
(2) ( (2) (
3
#
Dopiero dla tych wyników policzone błędy wynoszą:
(1) (2)
ż#ż#
= 0.1019
x2 - x1 #ee
Ax2 - b
# = 0.1736
(1) (2)
 = ,,  = ,
##
(1)
x2 #m (
Ax0 - b
= 0.2419
##m2) = 0.2010
#
Poniższe wykresy przedstawiają tempa zbieżności rozwiązania i residuum równania dla opcji
metody bez relaksacji w normach: dziesiętnej i logarytmicznej.
tempo zbieżności rozwiązania i residuum
1,2
1
0,8
0,6
0,4
0,2
0
0 5 10 15
nr iteracji
ConEuk ConMax ResEuk ResMax
32
res.)
dokładności (rozw. i
Sławomir Milewski Metody numeryczne  konspekt
tempo zbieżności rozwiązania i residuum - skala
logarytmiczna
0
-0,5 0 0,2 0,4 0,6 0,8 1 1,2
-1
-1,5
-2
-2,5
-3
-3,5
-4
-4,5
log(nr iteracji)
ConEuk ConMax ResEuk ResMax
Można spodziewać się większego przyśpieszenia zbieżności po zastosowaniu metody
iteracyjnej Gaussa  Seidela.
Przykład 5
Rozwiązać powyższe zadanie metodą iteracji Gaussa  Seidela.
4
Ą# -2 0
ń# Ą#-6
ń#
ó# ó# Ą#
Wyjściowy układ równań: Ax = b , gdzie A= 5 -2Ą# , b = 3 .
ó#-2 Ą# ó# Ą#
ó# -2 5 8
Ą# ó# Ą#
0
Ł# Ś# Ł# Ś#
Schemat iteracyjny metody Gaussa  Seidela (zmodyfikowany schemat metody Jacobiego):
1
ż#x(n+1) = (-6 + 2x2n))
(
1
#
4
4x1
ż# - 2x2 = -6
#
1
##
(n+1) ( (
.
#-2x + 5x2 - 2x3 = 3 #x = (3 + 2x1n+1) + 2x3n))
1 2
5
##
+ 5x3 = 8
#-2x2
# 1
(n+1) (
3
#x = (8 + 2x2n+1))
5
#
Tam gdzie to jest możliwe wykorzystuje się już informację  najświeższą z aktualnego kroku
iteracyjnego n +1.
33
log(dokładności (rozw. i res.))
Sławomir Milewski Metody numeryczne  konspekt
Iteracja pierwsza ( n = 0 ):
11
ż#x(1) = (-6 + 2x20)) = (-6 + 0) = -1.5
(
1
#
44
#
11
#
(1) (1) (
#x = (3 + 2x1 + 2x30)) = (3 + 2"(-1.5) + 0) = 0.0
2
55
#
# 11
(1) (1)
3
#x = (8 + 2x2 ) = (8 + 0) = 1.6
55
#
(1) (2)
ż## = 0.3065
ż#
=1.0
x1 - x0 #ee
Ax1 - b
(1) (2)
 = ,,  = ,
##
(1)
x1 #m (
Ax0 - b
=1.0
##m2) = 0.4000
#
Iteracja druga ( n = 1):
11
ż#x(2) = (-6 + 2x21)) = (-6 + 2"0.0) = -1.50
(
1
#
44
#
11
#
(2) (2) (
#x = (3 + 2x1 + 2x31)) = (3 + 2"(-1.50) + 2"1.6) = 0.6 40
2
55
#
# 11
(2) (2)
3
#x = (8 + 2x2 ) = (8 + 2"0.64) = 1.8560
55
#
(1) (2)
ż#ż#
= 0.2790
x2 - x1 #ee
Ax2 - b
# = 0.1320
(1) (2)
 = ,,  = ,
##
(1)
x2 #m (
Ax0 - b
= 0.3448
##m2) = 0.1600
#
Iteracja trzecia ( n = 2 ):
11
ż#x(3) = (-6 + 2x2 ) = (-6 + 2"0.640) = -1.18
(2)
1
#
44
#
11
#
(3) (3) (
#x = (3 + 2x1 + 2x32)) = (3 + 2"(-1.18) + 2"1.856) = 0.8704
2
55
#
# 11
(3) (3)
3
#x = (8 + 2x2 ) = (8 + 2"0.8704) = 1.9482
55
#
(1) (2)
ż#ż#
= 0.1661
x3 - x2 #ee
Ax3 - b
# = 0.0475
(1) (2)
 = ,,  = ,
##
(1)
x3 #m (
Ax0 - b
= 0.1643
##m2) = 0.0576
#
34
Sławomir Milewski Metody numeryczne  konspekt
Po piętnastu iteracjach otrzymano rozwiązanie x15 = {-1.0000, 1.0000, 2.0000} z
dokładnością do sześciu miejsc po przecinku. Wykresy zbieżności przedstawiono poniżej.
tempo zbieżności rozwiązania i residuum
1
0,8
0,6
0,4
0,2
0
13579 11 13 15
nr iteracji
ConEuk ConMax ResEuk ResMax
tempo zbieżności rozwiązania i residuum - skala
logarytmiczna
-4
1 1,05 1,1 1,15 1,2
-4,5
-5
-5,5
-6
-6,5
-7
log(nr iteracji)
ConEuk ConMax ResEuk ResMax
35
res.)
dokładności (rozw. i
(rozw. i res.))
log(dokładności
Sławomir Milewski Metody numeryczne  konspekt
ODWRACANIE MACIERZY
Odwracanie macierzy dolnotrójkątnej
Dana jest macierz dolnotrójkątna L o wymiarze n, szukana jest macierz C taka, że L"C = I .
Macierz C, odwrotna do macierzy L jest również macierzą dolnotrójkątna.
Wzory ogólne:
1
ż#
cii = i =1, 2,..., n
#
lii
#
#
i-1
#cij =- 1
"l "ckj i =1, 2,..., n j = 1, 2,...,i -1
#
lii k = j ik
#
Przykład 13
Odwrócić macierz dolnotrójkątna.
1 0 0 c11 0 0
Ą#ń# Ą# ń#
ó#2 ó#c Ą#
L = 4 0Ą# C = c22 0
21
ó#Ą# ó# Ą#
ó#Ą# ó# Ą#
c32 c33 Ś#
Ł#3 5 6Ś# Ł#c31
1 0 0 c11 0 0 1 0 0
Ą#ń# Ą# ń# Ą#ń#
ó#2 ó#c Ą# ó#0
L"C = I ! 4 0Ą# " c22 0 = 1 0Ą#
21
ó#Ą# ó# Ą# ó#Ą#
ó#Ą#
Ł#3 5 6Ś# ó# c32 c33 Ą# ó# 0 1Ś#
Ł#c31 Ś# Ł#0 Ą#
Dokonujemy mnożeń odpowiednich wierszy macierzy L i kolumn macierzy C tak, aby
wyznaczyć wyrazy macierzy C za każdym razem porównując wyniki tych mnożeń z
odpowiednim wyrazem macierzy jednostkowej.
c11 "1+ c21 "0 + c31 "0 =1 c11 = 1
1
c11 " 2 + c21 " 4 + c31 "6 = 0 c21 = -
2
36
Sławomir Milewski Metody numeryczne  konspekt
1
c11 "3 + c21 "5 + c31 "0 = 0 c31 = -
12
1
0" 2 + c22 " 4 + c32 "6 = 1 c22 =
4
5
3"0 + c22 "5 + c32 "6 = 0 c32 = -
24
1
0"3 + 0"5 + c33 "0 = 1 c33 =
6
Ą#ń#
ó#Ą#
1 0 0
ó#Ą#
1 1
ó#
C = - 0Ą#
ó#Ą#
2 4
ó#
1 5 1Ą#
ó#- - Ą#
Ł# 12 24 6Ś#
Odwracanie macierzy górnotrójkątnej
Dana jest macierz górnotrójkątna U o wymiarze n, szukana jest macierz C taka, że U "C = I .
Macierz C, odwrotna do macierzy U jest również macierzą górnotrójkątna.
Wzory ogólne:
1
ż#
cii = i = n,...,1
#
uii
#
#
j
#cij =- 1 uik "ckj i = n,...,1 j = n,...,i +1
"
#
uii k =i+1
#
Przykład 14
Odwrócić macierz górnotrójkątna.
1 2 3 c11 c12 c13
Ą#ń# Ą# ń#
ó#0 ó#
U = 4 5Ą# C = 0 c22 c23 Ą#
ó#Ą# ó# Ą#
ó#Ą# ó# Ą#
0 0 c33 Ś#
Ł#0 0 6Ś# Ł#
1 2 3 c11 c12 c13 1 0 0
Ą#ń# Ą# ń# Ą#ń#
ó#0 ó# ó#0
U "C = I ! 4 5Ą# " 0 c22 c23 Ą# = 1 0Ą#
ó#Ą# ó# Ą# ó#Ą#
ó#Ą#
Ł#0 0 6Ś# ó# 0 0 c33 Ą# ó# 0 1Ś#
Ł# Ś# Ł#0 Ą#
Postępowanie jest identyczne jak w przypadku macierzy dolnotrójkątnej.
37
Sławomir Milewski Metody numeryczne  konspekt
c11 "1+ 2"0 + 3"0 =1 c11 = 1
1
c12 "0 + c22 " 4 + 5"0 = 0 c22 =
4
1
c13 "0 + c23 "0 + c33 "6 = 0 c33 =
6
1
c12 "1+ c22 " 2 + 3"0 =1 c12 = -
2
5
c13 "0 + c23 " 4 + c33 "5 = 0 c23 = -
24
1
c13 "1+ c23 "2 + c33 "3 = 1 c13 = -
12
Ą#1 - 1 1
ń#
-
ó#Ą#
2 12
ó#Ą#
ó#0 1 5 Ą#
C =-
ó#
4 24Ą#
ó#Ą#
ó#0 0 1 Ą#
ó#Ą#
6
Ł#Ś#
Metoda Choleskiego
Jest to metoda odwracania macierzy symetrycznych, dodatnio określonych. Polega ona na
rozłożeniu wyjściowej macierzy na czynniki trójkątne: A = L LT a następnie na odwróceniu
każdego z nich osobno i wymnożeniu tak, że: A-1 = L-T L-1 .
Wzory na rozkład macierzy A na czynniki trójkątne:
j-1
ż#
2
ljj = ajj -
#
"l j = 1,..., n
jk
# k =1
#
j-1
#l = 1 (aij - "ljk ) i = j +1,..., n
ij "l
#
ljj k =1 ik
#
Po uzyskaniu macierzy dolnotrójkątnej L i górnotrójkątnej LT odwraca się je korzystając ze
wzorów zaprezentowanych w poprzednich podrozdziałach, a następnie mnoży obydwie
macierze odwrotne, ale w odwrotnej kolejności.
38
Sławomir Milewski Metody numeryczne  konspekt
Metody powiązane z rozwiązywaniem układów równań
Z definicji macierzy odwrotnej do macierzy A wynika następująca zależność:
a11 a12 ... a1n c11 c12 ... c1n 1 0 ... 0
Ą#ń# Ą#ń# Ą# ń#
ó#a a22 ... a2n Ą# ó#c c22 ... c2n Ą# ó#0 1 ... 0Ą#
21 21
ó#Ą# ó#Ą# ó# Ą#
A" A-1 = I ! " =
ó#Ą# ó#Ą# ó# Ą#
... ... ... ... ... ... ... ... ... ... ... ...
ó#Ą# ó#Ą# Ą#
a ... ann Ś# Ł#cn1 c ... cnn Ś# ó# 0 ... 1
Ł#an1 n2 n2 Ł#0 Ś#
Powyższy zapis można rozbić na n układów równań, z których każdy służy do obliczenia
kolejnej, k-tej kolumny macierzy A-1 .
a11 a12 ... a1n c1k b1k
Ą#ń# Ą# ń# Ą# ń#
ó#a a22 ... a2n Ą# ó#c Ą# ó#b Ą#
21 2k 2k
ó#Ą# ó# Ą# ó# Ą#
" = k = 1, 2,..., n ,
ó#Ą# ó# Ą# ó# Ą#
... ... ... ... ... ...
ó#Ą# ó# Ą# ó# Ą#
a ... ann Ś# Ł#cnk Ś# Ł#bnk Ś#
Ł#an1 n2
0 dla j `" k
ż#
gdzie wyrazy wektora prawej strony: bjk =
#1 dla j = k .
#
W zależności od metody rozwiązywania tych układów równań można mówić o metodach
eliminacji (np. metoda eliminacji Gaussa  wtedy rozwiązuje się jeden układ, ale z n prawymi
stronami) lub metodach iteracyjnych (np. metoda Jacobiego lub metoda Gaussa-Seidla).
Metoda eliminacji Gaussa
Transformacji podlegają wyjściowa macierz nieosobliwa A oraz macierz C, która na początku
1, i = j
ż#
obliczeń jest macierzą jednostkową, tzn. Cij =
#0, i `" j .
#
( ( (k
(
aijk ) = aijk -1) - mik " akj -1)
aikk -1)
, gdzie: mik = , k =1, 2,...,n -1; i, j = 1,...,n
(k
( ( (k
akk -1)
cijk ) = cijk -1) - mik "ckj -1)
( ( (k
(
aijk ) = aijk -1) - mik " akj -1)
aikk -1)
, gdzie: mik = , k = n, n -1,..., 2; i, j = n,...,1
(k
( ( (k
akk -1)
cijk ) = cijk -1) - mik "ckj -1)
cij
cij = , i, j =1, 2,...,n
aii
39
Sławomir Milewski Metody numeryczne  konspekt
NADOKREŚLONY UKAAD RÓWNAC
Jeżeli w danym układzie równań liniowych Ax = b jest więcej równań niż niewiadomych
zmiennych, to taki układ nazywa się nadokreślonym. Jeżeli wszystkie równania są liniowo
niezależne, to układ nie ma jednego wspólnego rozwiązania, tj. punktu, w którym wszystkie
proste przecinają się.
W takim wypadku szuka się tzw. pseudorozwiązania, czyli punktu, który nie leży na żadnej
prostej, ale jego odległości od każdej z prostych są minimalne w sensie jakieś normy.
Niech A będzie macierzą n m , gdzie n (liczba wierszy) oznacza liczbę równań, natomiast m
(liczba kolumn) oznacza liczbę niewiadomych. W układzie nadokreślonym: n>m, w układzie
niedookreślonym: nW pierwszym kroku buduje się wektor  = (1,2,...,n) zawierający odległości prostych od
pseudorozwiązania. Następnie szuka się min  . Jeżeli zastosujemy normę
2 2 2
średniokwadratową:  = 1 + 2 + ...+ n , to dalsze postępowanie nazywa się metodą
najmniejszych kwadratów. Można też stosować normę maksimum.
Metoda najmniejszych kwadratów
Zapis wskaznikowy (korzystny przy obliczeniach ręcznych):
n m
B = ( xj - bi )2 - funkcjonał błędu
""a
ij
i=1 j=1
n m
"B
= 2 ( xj - bi ) = 0 - minimalizacja funkcjonału
"a "a
"xk i=1 ik ij
j=1
Nowy układ równań liniowych (wymiar: m m ):
n m n
"a "a xj = "a bi, k =1, 2,..., m
ik ij ik
i=1 j=1 i=1
Zapis macierzowy (korzystny przy implementacji komputerowej):
B = (Ax - b) "(Ax - b)T
"B
= 2AT (Ax - b) = 0
"x
AT A x = ATb
40
Sławomir Milewski Metody numeryczne  konspekt
Przykład 11
Rozwiązać nadokreślony układ równań.
ż# x + y = 2 x + y
ż# - 2 = 0
##
x - y = 0 ! x - y = 0
##
#x - 2y = -2 #x - 2y + 2 = 0
#
#
2
B(x, y) =  (x, y) = (x + y - 2)2 + (x - y)2 + (x - 2y + 2)2
"B
ż#
= 2"(x + y - 2) + 2"(x - y) + 2"(x - 2y + 2) = 0
#
# "x
#"B
#
= 2"(x + y - 2) - 2"(x - y) - 4"(x - 2y + 2) = 0
# "y
#
ż# 6
ż#x = H" 0.857143
#
3x - 2y = 0
## 0
#
7
! pseudorozwiązanie.
##
9
#-2x + 6y = 6 #
y0 = H" 1.285714
# #
# 7
#
Można też policzyć maksymalny błąd tego wyniku: Bmax = B(x0, y0) = 0.285714
Czasami stosuje się też tzw. ważoną metodę najmniejszych kwadratów. Aby zwiększyć lub
zmniejszyć wpływ jednego z równań na wynik końcowy, można przypisać każdemu z równań
wagę (funkcję lub liczbę)  im większą tym bliżej tej prostej będzie leżało
pseudorozwiązanie.
Wprowadza się diagonalną macierz wagową: W = diag{wii}, i = 1,2,...,n zbierającą wagi
przypisane wszystkim równaniom. Odpowiednie modyfikacje ostatecznych układów równań
są następujące:
n m n
w zapisie wskaznikowym:
"a "w aij xj = "w aikbi, k = 1, 2,..., m
ik ii ii
i=1 j=1 i=1
w zapisie macierzowym: ATWA x = ATW b
Przykład 12
Rozwiązań nadokreślony układ równań z przykładu 11, przypisując każdemu z równań wagę
będącą jego numerem kolejnym.
Wagi: w11 =1, w22 = 2, w33 = 3
Funkcjonał błędu: B(x, y) =1"(x + y - 2)2 + 2"(x - y)2 + 3"(x - 2y + 2)2
41
Sławomir Milewski Metody numeryczne  konspekt
"B
ż#
= 2"1"(x + y - 2) + 2" 2"(x - y) + 2"3"(x - 2y + 2) = 0
#
# "x
#"B
#
= 2"1"(x + y - 2) - 2" 2"(x - y) - 4"3"(x - 2y + 2) = 0
# "y
#
ż# 12x -14y = -8 x0 = 0.926829
ż#
#
! , Bmax = 0.585366
##
y0 = 1.365854
#-14x + 30y = 28
#
#
42
Sławomir Milewski Metody numeryczne  konspekt
WARTOŚCI WAASNE I WEKTORY WAASNE MACIERZY
Wartościami własnymi macierzy A stopnia n nazywamy takie wartości 1,2,...,n parametru
 , dla których układ równań
Ax = x (1)
ma niezerowe rozwiązanie.
Wektor xr , spełniający przy  = r układ równań (1), nazywamy wektorem własnym
macierzy A. Układ (1) ma niezerowe rozwiązanie wtedy, gdy jego wyznacznik jest równy
zero, tzn.
(A - I) = 0
Po rozwinięciu powyższego wyznacznika otrzymamy równanie algebraiczne stopnia n :
a0 + a1 + a22 +...+ (-1)nn = 0
zwane równaniem charakterystycznym macierzy A. Pierwiastki tego równania są oczywiście
wartościami własnymi macierzy A
Przykład 1
Niech
1 0 0 4
Ą#ń#
ó#0 3 2 0Ą#
ó#Ą#
A =
ó#Ą#
1 0 0 0
ó#1 1 0 2Ą#
Ł#Ś#
Znajdziemy teraz równanie charakterystyczne macierzy A
1-  0 0 4
0 3-  2 0
A - I =
1 0 - 0
1 1 0 2 - 
Rozwijając ten wyznacznik według elementów pierwszego wiersza, otrzymujemy
3 -  2 0 0 3 -  2
(1- ) 0 - 0 - 4 1 0  =
1 0 2 -  1 1 0
= (1- )(3 - )(-)(2 - ) - 4[(3 - )(-) + 2] = ( - 4)( - 2)( -1)( +1)
43
Sławomir Milewski Metody numeryczne  konspekt
Wartości własne macierzy A są równe 1 = 4, 2 = 2, 3 = 1, 4 = -1 .
Aby otrzymać wektory własne, należy rozwiązać układ równań Ax = x , gdzie zamiast 
będziemy podstawiać kolejne obliczone wartości własne.
Podstawiając  = 4 , oraz oznaczając współrzędne wektora własnego przez v1,v2,v3,v4 ,
otrzymujemy następujący układ
1 0 0 4 v1 v1
Ą#ń# Ą# ń# Ą# ń#
ó#0 3 2 0Ą# ó#v Ą# ó#v Ą#
22
ó#Ą# ó# Ą# ó# Ą#
= 4
ó#Ą# ó# Ą# ó# Ą#
1 0 0 0 v3 v3
ó#Ą# ó# Ą# ó# Ą#
Ł#1 1 0 2Ś# Ł#v4 Ś# Ł#v4 Ś#
lub po rozpisaniu
v1 + 4v4 = 4v1
ż#
#
3v2 + 2v3 = 4v2
#
#
v1 = 4v3
#
#v1 + v2 + 2v4 = 4v4
#
skąd obliczamy v1 = 4v3, v2 = 2v3, v4 = 3v3 .
Oczywiście wektor własny nie jest określony jednoznacznie. Jeżeli dodatkowo dokonać jego
normalizacji, np. zażądać, aby jego największa współrzędna była równa jedności to wtedy
otrzymamy
1 1 3
x1 = (1, , , )
2 4 4
Podobnie otrzymamy pozostałe wektory własne
1 1 1 1
x2 = (1, -1, , ), x3 = (1, -1,1,0), x4 = (-1, - ,1, )
2 4 2 2
Można oczywiście inaczej znormalizować dany wektor x, np. tak, aby jego długość była
równa jedności, tzn.
2 2 2
x = v1 + v2 + ...+ vn = 1
Podana w powyższym przykładzie metoda znajdywania wartości własnych oraz wektorów
własnych jest bardzo pracochłonna, szczególnie w przypadku macierzy wysokiego stopnia.
Dlatego też rzadko rozwiązuje się problem własny macierzy na podstawie definicji.
Szczególnie kłopotliwe może być wyznaczenie samych wartości własnych, gdy wielomian
występujący w równaniu charakterystycznym nie ma pierwiastków wymiernych.
44
Sławomir Milewski Metody numeryczne  konspekt
Przykład 2
Niech
1 3 -1
Ą#ń#
ó#Ą#
A = 1 2 4 .
ó#Ą#
ó#-1 2 3
Ł#Ą#
Ś#
Równanie charakterystyczne
1-  3 -1
(A - I) = 1 2 -  4
-1 2 3 - 
po rozwinięciu (np. względem pierwszego wiersza) ma postać następującego wielomianu
3 - 62 -  + 27 = 0
Wielomian ten nie posiada pierwiastków wymiernych, (co łatwo sprawdzić, gdyż mogłyby
one wynosić odpowiednio i = 1, 3, 9, 27 ale żadna z tych liczb nie spełnia równania).
Równanie trzeciego stopnia posiada odpowiednie wzory na swoje pierwiastki rzeczywiste,
(jeżeli istnieją)  tzw. wzory Cardana, ale są one dość uciążliwe w użyciu. Dlatego
posłużymy się w tym przypadku metodami numerycznymi dla określenia jednego z
pierwiastków, aby pozostałe dwa wyznaczyć już w sposób analityczny. Budując z
powyższego wielomianu schemat iteracyjny dla metody Newtona
F() = 3 - 62 -  + 27
3 2
F(n ) n - 6n - n + 27
n+1 = n - = n -
2
F '(n) 3n -12n -1
oraz startując np. z 0 = 1 otrzymujemy dla czterech kolejnych iteracji
1 = 3.1 2 = 2.676414 3 = 2.720801 4 = 2.721158
Ostatni wynik można uznać już za satysfakcjonujący gdyż odpowiadające mu tempo
3 - 4
zbieżności = 0.000131 jest relatywnie małą liczba.
4
Zatem przyjmujemy do dalszych obliczeń  = 4 = 2.721158 . W celu wyznaczenia
pozostałych pierwiastków równania dzielimy wyjściowy wielomian przez ( - 2.721158)
otrzymując w rezultacie
3 - 62 -  + 27 = ( - 2.721158)(2 - 3.278842 - 9.922247)
45
Sławomir Milewski Metody numeryczne  konspekt
Równanie kwadratowe rozwiązujemy w znany analityczny sposób wyznaczając pozostałe
dwa pierwiastki. Ostatecznie wartości własne macierzy A wynoszą (w kolejności rosnącej)
1 =-1.911628, 2 = 2.721158, 3 = 5.190470
Dla porównania analitycznie policzone wartości własne wynoszą
-1.911629, 2.721159, 5.190470 . Zatem powyższe wielkości numeryczne są bardzo
dobrym przybliżeniem ścisłych wyników analitycznych.
Dalej postępujemy podobnie jak w przykładzie 1 w celu wyznaczenia wektorów własnych.
Dla 1 =-1.911628 i odpowiadającego jej wektora v1 = (x1, y1, z1) budujemy układ równań
1- 1 3 -1 x1 0 2.911628 3 -1 x1 0
Ą# ń# Ą# ń# Ą# ń# Ą# ń# Ą# ń# Ą# ń#
ó#1 2 - 1 4 y1Ą# = ! Ą# ó# ó#0Ą#
Ą# ó# ó#0Ą# ó#
1 3.911628 4 y1Ą# =
ó# Ą# ó# Ą# ó# Ą# ó# Ą# ó# Ą# ó# Ą#
ó# -1 2 3 - 1Ś# Ł# z1 Ś# Ł#0Ą# Ł# -1 2 4.911628Ś# Ł# z1 Ś# Ł#0Ą#
Ą# ó# Ą# ó# ó# Ą# ó# Ą# ó#
Ł# Ś# Ś#
Do dwóch pierwszych równań (trzecie to tożsamość w stosunku do nich) dołączamy warunek
na jednostkową długość wektora własnego.
2.911628 x1 + 3 y1 - z1 = 0
ż#
#
#x + 3.911628 y1 + 4 z1 = 0
1
2 2 2
#
x1 + y1 + z1 = 1
#
Rozwiązanie tego układu daje współrzędne wektora v1
x1 = 0.723635 y1 = -0.575143 z1 = 0.381527
Analogiczne obliczenia można przeprowadzić dla pozostałych wartości własnych.
Odpowiadające im wektory własne wynoszą
v2 = (x2, y2, z2) x2 = -0.878231 y2 = -0.458209 z2 = 0.136948
v3 = (x3, y3, z3) x3 = 0.423079 y3 = 0.756967 z3 = 0.498000
W ogólności dla dowolnej macierzy może okazać się, iż dana macierz nie posiada wartości
własnych rzeczywistych lub posiada wartości własne wielokrotne. W drugim przypadku nie
istnieje jeden unormowany wektor własny, ale cały ich zbiór leżący na konkretnej
płaszczyznie.
Bardzo często występującymi macierzami w naukach technicznych są macierze symetryczne,
np. w mechanice ciała odkształcalnego takimi macierzami są macierz naprężeń i macierz
odkształceń dla materiału izotropowego. Można wykazać następujące twierdzenie:
46
Sławomir Milewski Metody numeryczne  konspekt
Twierdzenie 1
Każda macierz symetryczna dodatnio określona posiada wszystkie wartości własne
rzeczywiste dodatnie i różne od siebie.
Przykład 3
Macierz naprężeń dla płaskiego stanu naprężenia opisana jest w każdym punkcie ciała
Ą#
3 2ń#
A =
ó#Ą#
2 2
ó#Ą#
Ł#Ś#
Znalezć postać macierzy w układzie własnym oraz jej kierunki główne.
Układamy równanie charakterystyczne (tu również nazywane równaniem wiekowym lub
sekularnym)
3 -  2
(A - I) = = 0 ! 2 - 5 + 4 = 0
2 2 - 
Wartości własne wynoszą 1 = 1, 2 = 4 .
Wektory własne:
" dla 1 = 1
Ą#3-1 2 ń#
ż#2x1 + 2y1 = 0
x1 0
Ą# ń# Ą# ń#
#
= !
ó#Ą#
#
ó# ó#0Ą#
2 2
x1 + y1 =1
2 2 -1Ś# y1Ą# Ł# Ś#
ó#Ą# Ł# Ś# #
#
Ł#
stąd x1 = 0.816497, y1 = 0.577350 .
" dla 2 = 4
Ą#3- 4 2 ń#
ż#-x2 + 2y2 = 0
x2 0
Ą# ń# Ą# ń#
#
= !
ó#Ą#
#
ó# Ą# ó#0Ą#
2 2
x2 + y2 =1
2 2 - 4Ś# y2 Ł# Ś#
ó#Ą# Ł# Ś# #
#
Ł#
stąd x2 =-0.577350, y2 = 0.816497, .
Dla wektorów własnych (tu: wersorów wyznaczających osie główne) macierzy
symetrycznych istnieje warunek ich wzajemnej ortogonalności
T T
x1 x2 0.816497
Ą# ń# Ą# ń# Ą#ń# Ą#-0.577350
ń#
" = " = 0
ó# ó# Ą# ó#0.577350Ą# ó# Ą#
y1Ą# y2 0.816497
Ł# Ś# Ł# Ś# Ł#Ś# Ł# Ś#
co sprowadza się do obliczenia iloczynu skalarnego wektorów (dla wektorów prostopadłych
iloczyn skalarny jest równy zeru).
47
Sławomir Milewski Metody numeryczne  konspekt
W analitycznej i numerycznej analizie problemów własnych macierzy pomocnicze są
następujące twierdzenia:
Twierdzenie 2
Jeżeli macierz posiada różne wartości własne to istnieje zbiór liniowo niezależnych wektorów
własnych, z dokładnością do stałej, co oznacza istnienie jednoznacznych kierunków tych
wektorów.
Twierdzenie 3 (Cayley  Hamiltona)
Ą# ń#
Macierz symetryczna drugiej walencji ( A = ) spełnia swoje własne równanie
Ł#aij Ś#
charakterystyczne.
A
A3 - I1AA2 + I2 A - I3AI ,
A A
gdzie I1A, I2 , I3 są jej niezmiennikami.
Twierdzenie 4
Jeżeli g(x) jest wielomianem, a  jest wartością własną macierzy A, to g() jest wartością
własną macierzy g(A) .
Przykład 4
Wartości własne macierzy A wynoszą i = {-2,0,1,3} . Obliczyć wartości własne macierzy
B = A3 - 2A2 + A -10I
Konsekwencją twierdzenia 4 jest przeniesienie zależności miedzy macierzami A i B na
zależność między ich wartościami własnymi, czyli:
3 2
B = A - 2A + A -10
co pozwala bardzo łatwo obliczyć wartości własne macierzy B
1 = (-2)3 - 2(-2)2 + (-2) -10 = -28
2 = 03 - 2"02 + 0 -10 = -10
3 =13 - 2"12 +1-10 = -10
4 = 33 - 2"32 + 3-10 = 2
Twierdzenie 5
Transformacja macierzy A przez podobieństwo nie zmienia jej wartości własnych.
Jeżeli R jest macierzą nieosobliwą to transformacją przez podobieństwo nazywamy
przekształcenie R-1AR. Wartości własne tej nowej macierzy są takie same jak wartości
własne macierzy wyjściowej A.
48
Sławomir Milewski Metody numeryczne  konspekt
Twierdzenie 6
Transformacja ortogonalna macierzy A nie zmienia ani jej wartości własnych ani jej
ewentualnej symetrii.
Jeżeli Q jest macierzą nieosobliwą i taką, że QTQ = I to transformacją ortogonalna
nazywamy przekształcenie QT AQ . Wartości własne tej nowej macierzy są takie same jak
wartości własne macierzy wyjściowej A.
Twierdzenie 7 (Gerszgorina)
Niech A będzie macierzą kwadratową o wymiarze n i wyrazach aij (i, j = 1, 2,..., n) . Jeżeli
określimy dyski ui, i =1, 2,..., n o środkach odpowiadającym wyrazom aii na przekątnej
n
głównej macierzy i promieniach Ri , gdzie Ri = aik to widmo macierzy A (zbiór wartości
"
k =1
k `"i
własnych) można oszacować poprzez wzory:
 " min ,max
min > min(aii - Ri )
i
max < max(aii + Ri )
i
Oszacowania powyższe stają się rzeczywistymi wartościami min i max dla macierzy ściśle
dominującej na przekątnej głównej.
Macierz nazywamy macierzą ściśle dominującą na przekątnej głównej, jeżeli:
n
aii > aij , i =1, 2,..., n .
"
j=1
j`"i
Przykład 5
Oszacować widmo wartości własnych korzystając z twierdzenia Gerszgorina dla macierzy:
Ą#-2 1 3
ń#
ó#
A = 4 2Ą#
ó#-1 Ą#
ó# -2 3Ś#
3
Ł#Ą#
Wyrazy na przekątnej głównej: a11 =-2, a22 = 4, a33 = 3 .
Promienie dysków: R1 = 1+ 3 = 4, R2 = -1 + 2 = 3, R3 = 3 + -2 = 5 .
Oszacowanie wartości własnych:
Ą#-2 - 4
ń# Ą#-6
ń#
ó# Ą# ó# Ą#
min > min 4 - 3 = min 1 = -6, min > -6
ó# Ą# ó# Ą#
ó# - 5
Ą# ó#-2Ś#
Ą#
3
Ł# Ś# Ł#
49
Sławomir Milewski Metody numeryczne  konspekt
Ą#-2 + 4 2
ń# Ą# ń#
ó# Ą# ó#7Ą#
max < max 4 + 3 = max = 8, max < 8
ó# Ą# ó# Ą#
ó# Ą# ó#
3 + 5
Ł# Ś# Ł#8Ą#
Ś#
czyli  " -6,8 .
W rzeczywistości macierz A ma jedną wartość własną rzeczywistą równą:
-2.980286 mieszczącą się w powyższym przedziale.
Jednym z zastosowań powyższego twierdzenia jest jego wykorzystanie do zbadania dodatniej
określoności danej macierzy kwadratowej A.
Macierz A o wymiarze n nazywamy macierzą dodatnio określoną, jeśli jest nieosobliwa
( det(A) `" 0 ) oraz dla dowolnego wektora x "!n spełniona jest nierówność xT A x > 0.
Ponieważ badanie dodatniej określoności macierzy z definicji jest kłopotliwe, stosuje się to
tego różne twierdzenia, oprócz twierdzenia 1-szego także:
Twierdzenie 8
Jeżeli macierz kwadratowa A o wyrazach rzeczywistych jest ściśle dominująca na przekątnej
głównej i ma dodatnie wyrazy na przekątnej głównej to A jest dodatnio określona.
Często również wykorzystuje się do badania dodatniej określoności macierzy pojęcie
podwyznacznika macierzy: jeśli znaki podwyznaczników macierzy (od rzędu 1-szego aż do
rzędu n-tego) tworzą naprzemienny ciąg lub są takie same to macierz jest dodatnio określona.
Według twierdzenia 1-szego, aby wykazać, że macierz jest dodatnio określona, należy
udowodnić, iż jej wartości własne są dodatnie i różne od siebie. Ponieważ twierdzenie
Gerszgorina oszacowuje widmo macierzy, można go zastosować w celu zbadania pierwszej
tezy. Natomiast zbadanie, czy wartości własne są od siebie różne, wymaga zastosowania tzw.
ciągów Sturma i nie będzie rozważane w tym opracowaniu.
Przykład 6
Wykorzystać twierdzenie Gerszgorina do zbadania dodatniej określoności następujących
macierzy:
2 1 1 3
Ą#ń# Ą# -2 1
ń#
ó#1 ó#
A = 2 1Ą# B = 3 2Ą#
ó#Ą# ó#-2 Ą#
ó#Ą# ó# Ą#
1 2 3Ś#
Ł#1 1 2Ś# Ł#
Dla macierzy A:
50
Sławomir Milewski Metody numeryczne  konspekt
2
Ą# - 2 0
ń# Ą# ń#
ó#2 ó#0Ą#
min > min - 2Ą# = min = 0, min > 0
ó# Ą# ó# Ą#
ó# - 2Ś# Ł#0Ą#
Ł#2 Ą# ó# Ś#
!  "(0,4)
2 + 2 4
Ą# ń# Ą# ń#
ó#2 ó#4Ą#
max < max + 2Ą# = max = 4, max < 4
ó# Ą# ó# Ą#
ó# Ą# ó#
Ł#2 + 2Ś# Ł#4Ą#
Ś#
Wniosek: macierz A może być dodatnio określona.
Dla macierzy B:
3- 3 0
Ą# ń# Ą# ń#
ó#3 ó# Ą#
min > min - 4Ą# = min =-1, min >-1
ó# Ą# ó#-1Ą#
ó# Ą# ó#-1Ś#
Ą#
Ł#3- 4Ś# Ł#
!  "(-1,7)
3 + 3 6
Ą# ń# Ą# ń#
ó#3+ ó#7Ą#
max < max 4Ą# = max = 7, max < 7
ó# Ą# ó# Ą#
ó# Ą# ó#
Ł#3+ 4Ś# Ł#7Ą#
Ś#
Wniosek: macierz B nie jest dodatnio określona.
Metody numeryczne do znajdywania wartości i wektorów własnych można podzielić na :
" metody obliczania wszystkich wartości i wektorów własnych (np. metoda Jacobiego),
" metody obliczania wartości własnych i odpowiadających im wektorów własnych w z
góry określonych pasmach widma wartości własnych,
" metody obliczania pojedynczej wartości własnej i odpowiadającego jej wektora
własnego.
W opracowaniu zostaną przedstawione jedynie metody z ostatniej grupy. Większość z nich to
metody iteracyjne.
Metoda potęgowa
Jedną z najprostszych metod jednoczesnego obliczania wartości własnych oraz wektorów
własnych macierzy A jest następująca metoda iteracyjna.
Przypuśćmy, że wartości własne 1,2,...,n są rzeczywiste i spełniają nierówności
1 > 2 > ... > n . Wybiera się dowolny wektor y0 , a następnie za pomocą wzoru
iteracyjnego yn+1 = Ayn buduje się ciąg wektorów y1, y2,... Okazuje się, że dla dostatecznie
dużych n, wektor yn jest bliski wektorowi własnemu macierzy A, odpowiadającemu
największej, co do modułu wartości własnej. Wartość własną otrzymamy dzieląc dowolną
współrzędną wektora yn+1 przez tą samą współrzędną wektora yn .
51
Sławomir Milewski Metody numeryczne  konspekt
Przykład 7
Niech macierz A będzie postaci:
2
Ą# -1 0 0
ń#
ó#Ą#
ó#-1 2 -1 0 Ą#
A =
ó# -1 2 -1
Ą#
0
ó#Ą#
0 0 -1 2
Ł#Ś#
Przyjmijmy wektor początkowy y0 = (1, -1,1,-1) . Kolejne iteracje dają następujący ciąg
wektorów:
2
Ą# -1 0 0 1 3 2
ń# Ą# ń# Ą# ń# Ą# -1 0 0 3 10
ń# Ą# ń# Ą# ń#
ó#Ą# ó# Ą# ó# Ą# ó#Ą# ó# Ą# ó# Ą#
ó#-1 2 -1 0 Ą# ó#-1Ą# ó#-4Ą# ó#-1 2 -1 0 Ą# ó#-4Ą# ó#-15Ą#
y1 =" = y2 =" = itd.
ó# -1 2 -1 1 4 0
Ą# ó# Ą# ó# Ą# ó# -1 2 -1 4 15
Ą# ó# Ą# ó# Ą#
0
ó#Ą# ó# Ą# ó# Ą# ó#Ą# ó# Ą# ó# Ą#
0 0 -1 2 0 0 -1 2
Ł#Ś# Ł#-1Ś# Ł#-3Ś# Ł#Ś# Ł#-3Ś# Ł#-10Ś#
y3 = (35,-55,55,-35) y4 = (125,-200, 200,-125) y5 = (450,-725,725,-405)
y6 = (1625, -2625, 2625,-1625) y7 = (5875, -9500,9500, -5875)
y8 = (21250, -34375,34375, -21250)
Stosunki odpowiednich współrzędnych wektorów y8 i y7 są równe:
5875 -9500 9500 -5875
= 3.61702, = 3.61842, = 3.61842, = 3.61702
21250 -34375 34375 -21250
Widzimy, że wszystkie cztery liczby są dość bliskie sobie, stąd wnioskujemy, że każda z nich
jest bliska największej, co do modułu wartości własnej macierzy A.
Bardziej dokładną wartość własną otrzymamy, jeżeli podzielimy skalarny kwadrat wektora
y8 przez iloczyn skalarny y7 " y8 . Otrzymamy wówczas
y8 " y8 21250" 21250 + (-34375)"(-34375) + 34375"34375 + (-21250)"(-21250)
1* = = =
y7 " y8 5875"21250 + (-9500)"(-34375) + 9500"34375 + (-5875)"(-21250)
= 3.61804
* *
Odpowiedni wektor własny jest równy x1 = (0.61818, -1,1, -0.61818) . Wektor x1 jest tak
znormalizowany, że jego największa współrzędna jest równa jedności. Gdyby przyjąć
kryterium jednostkowej długości wektora własnego, to wynosiłby on wtedy:
*
x1 = (0.37118, -0.60146,0.60146,-0.37181) .
Dokładna wartość największej, co do modułu wartości własnej jest równa 1 = 3.618034 .
52
Sławomir Milewski Metody numeryczne  konspekt
Metoda Rayleigha
Jest to najpopularniejsza metoda wśród metod iteracyjnych znajdywania wartości własnej
macierzy A o wymiarze n, największej, co do modułu. Wywodzi się ona z omawianej wyżej
metody potęgowej, wykorzystuje m.in. własności twierdzenia 6, oraz wyrażenie postaci:
xT A x
Ax = x  = , zwane w literaturze ilorazem Rayleigha.
xT x
Algorytm metody wygląda następująco:
Poszukiwana jest wartość własna  największa, co do modułu oraz odpowiadający jej wektor
własny x (lub unormowany v): Ax = x
Przyjmujemy na starcie wektor x0 . Przypisujemy xk =0 = x0 , gdzie k oznacza k-tą iterację.
" Normalizujemy wektor xk (dzielimy go przez jego długość):
xk xk
vk = =
T
xk xk xk
" Obliczamy kolejne przybliżenie wektora własnego xk +1 = A"vk .
" Obliczamy iloraz Rayleigha:
T
vk Avk T
k +1 == vk xk +1 (jest to po prostu iloczyn skalarny dwóch wektorów będący
T
vk vk
liczbą  kolejnym przybliżeniem wartości własnej 1.
" Obliczamy poziom błędów (począwszy od drugiej iteracji  dla k = 1):
k +1 - k

k +1 = , norma błędu przy obliczaniu wartości własnej
k +1
v
k +1 = vk +1 - vk , norma błędu przy obliczaniu wektora własnego.
" Sprawdzamy kryterium przerwania iteracji:
 v
k +1 d" B1, k +1 d" B2 , gdzie B1, B2 - zadane poziomy dokładności obydwu wielkości.
Jeżeli powyższe kryterium jest spełnione to: 1 H" k +1, v1 H" vk +1
Przykład 8
Dana jest macierz:
2 1 1
Ą#ń#
ó#1
A = 2 1Ą# .
ó#Ą#
ó#Ą#
Ł#1 1 2Ś#
Znalezć jej wartość własną największą, co do modułu i odpowiadający jej wektor własny
korzystając z metody Rayleigha.
53
Sławomir Milewski Metody numeryczne  konspekt
Wartości własne macierzy wynoszą: 1 = 4, 2 = 3 =1
Przyjmujemy wektor startowy x0 = (1,0,0)
Pierwsza iteracja k = 0 :
x0
x0 =1 ! v0 = = (1,0,0)
1
2 1 1 1 2
Ą#ń# Ą# ń# Ą# ń#
ó#1 ó#0Ą# ó#1Ą#
x1 = Av0 = 2 1Ą# " =
ó#Ą# ó# Ą# ó# Ą#
ó#Ą# ó#
Ł#1 1 2Ś# ó# Ś# Ł#1Ą#
Ł#0Ą# Ś#
2
Ą# ń#
T
1 = v0 x1 = 1 0 0 = 2
[]ó# Ą#
ó#1Ą#
ó#Ś#
Ł#1Ą#
Druga iteracja k = 1:
x1
x1 = 2.499490 ! v1 = = (0.816497,0.408248,0.408248)
2.499490
2 1 1 0.816497 2.449490
Ą# ń# Ą#ń# Ą#ń#
ó#1 ó#0.408248Ą# ó#2.041241Ą#
x2 = Av1 = 2 1Ą# " =
ó# Ą# ó#Ą# ó#Ą#
ó# Ą#
Ł#1 1 2Ś# ó#Ś# Ł#2.041241Ą#
Ł#0.408248Ą# ó#Ś#
2.449490
Ą#ń#
T
2 = v1 x2 = 0.816497,0.408248,0.408248 = 3.666667
[]ó#Ą#
ó#2.041241Ą#
ó#Ś#
Ł#2.041241Ą#
x2
x2 = 3.785939 ! v2 = = (0.649997 0.539164 0.539164)
3.785939
2 - 1 3.666667 - 2

2 == = 0.454545,
2 2
0.649997 0.816497
Ą#ń# Ą#ń#
v ó#0.539164Ą# ó#0.408248Ą#
2 = v2 - v1 =-= 0.251014
ó#Ą# ó#Ą#
ó#Ś# Ł#0.408248Ą#
Ł#0.539164Ą# ó#Ś#
Trzecia iteracja k = 2 :
2 1 1 0.649997 2.372321
Ą#ń# Ą# ń# Ą# ń#
ó#1 ó#0.539164Ą# ó#2.264488Ą#
x3 = Av2 = 2 1Ą# " =
ó#Ą# ó# Ą# ó# Ą#
ó#Ą#
Ł#1 1 2Ś# ó# Ś# Ł#2.264488Ą#
Ł#0.539164Ą# ó# Ś#
2.372321
Ą#ń#
T
3 = v2 x3 = 0.649997,0.539164,0.539164 = 3.976744
[]ó#Ą#
ó#2.264488Ą#
ó#Ś#
Ł#2.264488Ą#
54
Sławomir Milewski Metody numeryczne  konspekt
x3
x3 = 3.985439 ! v3 = = (0.595247 0.568190 0.568190)
3.985439
3 - 2 3.976744 - 3.666667

3 == = 0.07797,
3 3.666667
0.595247 0.649997
Ą#ń# Ą#ń#
v ó#0.568190Ą# ó#0.539164Ą#
3 = v3 - v2 = - = 0.066054
ó#Ą# ó#Ą#
ó#Ś# Ł#0.539164Ą#
Ł#0.568190Ą# ó#Ś#
Już po trzech iteracjach widoczne jest, na jakim poziomie stabilizują się wyniki. Wartość
własną z precyzją do sześciu miejsc otrzymano po k = 7 iteracjach:

 H" 7 = 4.0, 7 = 0.000001
v
v H" v7 = (0.577421,0.577315,0.577315), 7 = 0.000259
Zaobserwować można szybszą zbieżność samej wartości własnej niż wektora własnego.
Zarówno w przypadku metody potęgowej jak i metody Rayleigha pozostałe wartości i wektory
własne można znalezć stosując różne modyfikacje tych metod jak np. metodę iteracji
odwrotnej zbieżną do wartości własnej najbliższej zeru czy przesunięcie widma macierzy o
zadaną wartość. Stosuje się też zabiegi mające na celu przyśpieszenie zbieżności metod
iteracyjnych.
UKAADY RÓWNAC yLE UWARUNKOWANYCH
Przy rozwiązywaniu układów równań liniowych postaci Ax = b można mieć do czynienia z
przypadkiem, gdy
" det(A) = 0 - osobliwość macierzy współczynników powoduje brak rozwiązań przy
dowolnym niezerowym wektorze wyrazów wolnych b lub tożsamość dla zerowego
wektora b,
" det(A) `" 0 - zapewnia istnienie jednoznacznego rozwiązania postaci x = A-1 b
" det(A) H" 0 - układ zle uwarunkowany. W takiej sytuacji bardzo małe zmiany w
wyrazach macierzy współczynników mogą spowodować ogromne zmiany w
rozwiązaniu.
W celu zbadania stopnia uwarunkowania układu równań oblicza się tzw. wskaznik
uwarunkowania k  liczbę o takiej własności, że
" k = 1 - idealne uwarunkowanie,
" k =" - układ osobliwy.
Sposoby obliczania wskaznika uwarunkowania k dla macierzy współczynników A:
n
2
" kA = A " A-1 , A =
"a
ij
i=1
55
Sławomir Milewski Metody numeryczne  konspekt
max
" kA = .
min
Posługując się ostatnim wzorem można obliczać wartości własne analitycznie (wtedy wzór
ma słuszność gł. dla macierzy symetrycznych) lub numerycznie (np. z twierdzenia
Gerszgorina dla macierzy ściśle dominujących na przekątnej głównej)
Przykład 9
1
Ą#ń#
Ą#-1 -4
ń#
ó#-1 -
Wykazać, która z macierzy H = oraz J = jest lepiej uwarunkowana.
3Ą# ó#
ó#Ą#
Ł#-1 -3Ą#
Ś#
1 1
Ł#Ś#
Wynik uzasadnić liczbowo.
W zadaniu należy obliczyć osobno wskazniki uwarunkowania dla każdej z macierzy i
sprawdzić, który z nich jest bliższy jedności. Posłużymy się przy obliczaniu wskaznika
kryterium normowym.
-1 -1
Macierze H oraz J można obliczyć analitycznie (ze wzoru Gaussa) lub stosując
odpowiedni algorytm numeryczny (eliminacja Gaussa, rozkład na czynniki trójkątne, metody
iteracyjne). Ponieważ wymiary macierzy są małe, ich odwrotności obliczono analitycznie.
1
Ą# ń#
1
23
-1
ó# Ą#
det(H ) =- ! H =-
3
ó# Ą#
32
Ł#-1 -1Ś#
Ą#-3 4
ń#
-1
det(J ) =-1 ! J =-ó#
1 -1Ą#
Ł#Ś#
Odpowiednie normy średniokwadratowe wynoszą:
128 2 3 1 3 28
-1
H = 1+ +1+1 = = 7, H = 1+ +1+1 = = 7
99 3 2 9 2 9
-1
J = 1+16 +1+ 9 = 27 = 3 3, J = 9 +16 +1+1 = 3 3
zaś wskazniki uwarunkowania :
214
-1
kH = H " H = 7 " 7 = H"~ 4.666667
33
-1
kJ = J " J = 3 3 "3 3 = 27
Ponieważ kH -1 < kJ -1 to lepiej uwarunkowana jest macierz H.
Kryterium związanego ze ścisłym wyznaczeniem wartości własnych nie można zastosować,
gdyż macierz J nie posiada rzeczywistych rozwiązań problemu własnego. Oszacowanie widm
macierzy z twierdzenia Gerszgorina daje w rezultacie:
56
Sławomir Milewski Metody numeryczne  konspekt
" dla macierzy H:
11
Ą#-1
ń#Ą# ń# Ą#-1
ń#Ą# ń#
ó#3Ą#) 4 ó#3Ą#)
min H" min(ó# Ą# - = - , max H" max(ó# Ą# + = 2
11
Ł# Ś#ó# Ą# 3 Ł# Ś#ó# Ą#
Ł#1Ś# Ł#1Ś#
2 3
kH = = = 1.5
-4
2
3
" dla macierzy J:
Ą#-1 4
ń# Ą# ń# Ą#-1 4
ń# Ą# ń#
min H" min(ó# Ą# - = -5, max H" max(ó# Ą# + = 3
ó#1Ą#) ó#1Ą#)
Ł#-3Ś# Ł# Ś# Ł#-3Ś# Ł# Ś#
3 3
kJ = = = 0.6
-5 5
Oszacowanie okazało się fałszywe (macierze nie są ściśle dominujące na przekątnej głównej).
Przykład 10
Zbadać uwarunkowanie macierzy
2 1
Ą# ń#
A =
ó#1 2Ą#
Ł# Ś#
Macierz spełnia wymagania kryteria do stosowania wzoru opartego na wartościach własnych.
Równanie charakterystyczne wynosi: 2 - 4 + 3 a wartości własne: max = 3, min =1
max
Wskaznik uwarunkowania: kA = = 3 .
min
Na podstawie wskaznika można ustalić, z jaką precyzją należy podać elementy macierzy A
aby uzyskać żądaną dokładność rozwiązania. Służy do tego wzór :
q H" p - log(k) ,
gdzie : q  liczba cyfr znaczących elementów macierzy, p  dokładność rozwiązania.
Np. dla p = 6 mamy p = q + log(k) = 6 + log(3) = 6.47 H" 7 miejsc znaczących współczynników
macierzy A.
Uwarunkowanie macierzy można poprawić stosując większą precyzję obliczeń lub tzw.
metody regularyzacji.
57


Wyszukiwarka

Podobne podstrony:
Metody numeryczne w11
część pierwsza
metody numeryczne i w1
metody numeryczne i w2
barcz,metody numeryczne, opracowanie wykładu
Metody numeryczne7
metody numeryczne w1
VBA część pierwsza
metody numeryczne cw 1
Metody numeryczne macierze
buddyjska tradycja gelug czesc pierwsza eioba
Metody numeryczne aproksymacja
Afirmacje czesc pierwsza(1)
3 Metody numeryczne rozwiązywania równań algebraicznych
Metody numeryczne w6

więcej podobnych podstron