73

Numerikus matematika

  • Upload
    aislado

  • View
    208

  • Download
    1

Embed Size (px)

Citation preview

Page 1: Numerikus matematika

El®adók: Virágh János, Dombi József, Csendes Tibor

Numerikus Matematika Iv 0.8

1999/2000-es tanév I. félévABSOLUTE NO WARRANTY!szerkesztgeti: Hevér L®rinc [email protected] thanx: Bodor Gábor, Lukács Andrea, K®vágó Tamás

Page 2: Numerikus matematika

Tartalomjegyzék

1 21.1 Bevezetés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.2 Hibaszámítás . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.3 Speciális alakú mátrixok . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2 52.1 Eliminációs módszerek . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52.2 Gauss-elimináció . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72.3 Részleges f®elemkiválasztásos Gauss-elimináció . . . . . . . . . . . . . . . . . . . . . . . . . . . 82.4 Teljes f®elemkiválasztásos Gauss-elimináció . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

3 93.1 Jordan-elimináció (f®elemkiválasztás nélküli) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93.2 Mátrix invertálás . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93.3 Elimináció formális leírása . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103.4 F®elemkiválasztás formális leírása . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

4 144.1 Számolás partícionált mátrixokkal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144.2 Frobénius-féle mátrix invertálás . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154.3 LR-felbontás . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

5 195.1 Az LR algoritmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195.2 Az LR felbontás felhasználási lehet®ségei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215.3 LR felbontás speciális alakú mátrixokra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225.4 Az RT R Cholesky-felbontás . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

6 276.1 Cholesky-felbontás (eddig tanultak összefoglalása) . . . . . . . . . . . . . . . . . . . . . . . . . 276.2 Cholesky-felbontás folytatása . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286.3 QR ortogonális-trianguláris felbontás . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306.4 QR felbontás kiszámítása . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

6.4.1 Gram-Schmidt-féle ortogonalizáció . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316.5 QR-felbontás alkalmazásai . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

7 Sajátértékszámítás 338 36

8.1 Mátrixok speciális alakra transzformálása . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

1

Page 3: Numerikus matematika

2

9 Vektornormák, mátrixnormák 419.1 Vektornormák . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 419.2 Mátrixnormák Rn×n-ben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429.3 A spektrálsugár és a mátrixnormák kapcsolata . . . . . . . . . . . . . . . . . . . . . . . . . . . 459.4 Normák ekvivalenciája . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

10 Vektorsorozatok és mátrixsorozatok 4710.1 Vektorsorozatok . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4710.2 Mátrixsorozatok . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4810.3 Sajátértékek korlátai; Gersgorin-tétel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

11 5111.1 Hatvány módszer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5211.2 Mátrixok speciális alakra transzformálása . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

11.2.1 LR-transzformáció . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5411.2.2 QR-transzformáció . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5411.2.3 RT R-transzformáció . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

12 5612.1 Iterációs módszerek bevezetése . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5612.2 Reguláris szétvágások . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

12.2.1 Jacobbi-iteráció (J-módszer) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5812.2.2 (Gauss-)Seidel-iteráció (S-módszer) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5912.2.3 Jacobbi-féle túlrelaxációs módszer (J(ω)-módszer) . . . . . . . . . . . . . . . . . . . . . 5912.2.4 Szukszecesszív túlrelaxációs módszer (S(ω)-módszer) . . . . . . . . . . . . . . . . . . . . 59

12.3 A Jacobbi- és a Seidel-módszer konvergenciája . . . . . . . . . . . . . . . . . . . . . . . . . . . 5913 61

13.1 Az iterációs módszerek konvergenciája diagonális domináns A együtthatómátrixok esetén . . . 6113.2 II/14-es tétel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6213.3 A 4 módszer konvergenciája pozitív de�nit mátrixok esetén . . . . . . . . . . . . . . . . . . . . 63

14 6514.1 Utóiteráció . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6514.2 Kerekítési hiba az iterációs módszereknél . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6614.3 Kondíciószám . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6714.4 Perturbáció . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

Page 4: Numerikus matematika

Fejezet 1

1.1 Bevezetés

1. Közelít® módszerek2. E�ektív (algoritmikus) módszerekMiért van szükség numerikus módszerekre?1. A klasszikus módszerekkel nem oldható meg a probléma2. Gauss-elimináció ⇔ Cramer-szabály3. Stabilitás, hiban× n-es valós együtthatós lineáris egyenletrendszer:

a11x1 + a12x2 + · · ·+ a1nxn = a1,n+1

a21x1 + a22x2 + · · ·+ a2nxn = a2,n+1

...an1x1 + an2x2 + · · ·+ annxn = an,n+1

1.1 Tétel. Ax = a egyértelm¶en megoldható ⇔ det(A) 6= 0

Ekkor a Cramer-szabály szerint:xi =

det(Ai)det(A)

i = 1, . . . , n

n+1 db determináns kell.

1.2 Hibaszámítás

Hiba fajták:1. Öröklött hiba: ha az adatok mérések, kísérlétek eredményei, akkor az öröklött hiba elkerülhetetlen. Sok-

szor ide számítják az adott számítógépre vitelkor alkalmazott konverziók által eredményezett hibákatis.

2. Képlet hiba: a numerikus módszerek általában csak közelít® megoldást adnak, jó eseben olyan korlátot isami felülr®l becsli a pontos megoldástól való eltérést.

3. Kerekítése hiba: az alkalmazott eszközök véges pontosságú számábrázolása, az alapm¶veletek eredményeinvégzett kerekítés, a beépített függvények kiértékelésekor fellép® hibája miatt adódik.

3

Page 5: Numerikus matematika

SPECIÁLIS ALAKÚ MÁTRIXOK 4

1.2 De�níció. Legyen a a pontos érték és a∗ a közelít® értéke. Ekkor az a−a∗ értéket a közelítés hibájánaknevezzük, az |a− a∗| pedig az abszolút hibának nevezzük. |a− a∗| ≤M az abszolút hibakorlát.1.3 Példa. Legyen a, b a pontos érték, a∗, b∗ a közelít® érték Ma,Mb fels® korlátok, az összeg abszolút hibakor-látja így alakul: |a + b− (a∗ + b∗)| = |(a− a∗) + (b− b∗)| ≤ |a− a∗|+ |b− b∗| ≤Ma + Mb

1.4 De�níció. |a−a∗||a∗| ≤ δ, a relatív hibakorlát, ahol |a∗| 6= 0

1.5 Példa.

|ab− a∗b∗||a∗b∗|

=|(ab− a∗b) + (a∗b− a∗b∗)|

|a∗||b∗|≤ |b||a− a∗||a∗||b∗|

+|a∗||b− b∗||a∗||b∗|

≤ Ma|b|

|a∗||b∗|+ Mb

1|b∗|≈ Ma

|a∗|+

Mb

|b∗|= δa + δb

Di�erenciálható f(x) függvénynek az argomentumok pontosságából ered® hibája a Lagrange-tétellel becsül-het®: ha f(x) di�erenciálható az a és a∗ által kifeszített intervallumban, akkor létezik ebben az intervallumbanolyan ξ közbüls® hely, amelyre

f(a)− f(a∗) = f ′(ξ)(a− a∗).

Abszolút értékeket véve:|f(a)− f(a∗)| = |f ′(ξ)||a− a∗| ≤ |f ′(ξ)|Ma ≤ K1Ma,

fetléve, hogy f ′(x) korlátos is az el®bb említett intervallumon, és ugyanitt K1 abszolút értékeinek is fels®korlátja.

1.3 Speciális alakú mátrixok

Következzék itt néhány speciális alakú mátrix, a könnyebb ábrázolhatóság kedvéért 5× 5-s formában:Fels® trianguláris egy R mátrix, ha rij = 0 akkor, ha i > j

r11 r12 r13 r14 r15

0 r22 r23 r24 r25

0 0 r33 r34 r35

0 0 0 r44 r45

0 0 0 0 r55

Alsó trianguláris egy L mátrix, ha lij = 0 akkor, ha i < j

l11 0 0 0 0l21 l22 0 0 0l31 l32 l33 0 0l41 l42 l43 l44 0l51 l52 l53 l54 l55

Megjegyzés. A kés®bbi fejezetekben az alsó trianguláris mátrixon, az ehhez hasonló olyan mátrixot értik ame-lynek a f®átlójában csupa 1-ek vannak.

Diagonális egy D mátrix, ha dij = 0 akkor, ha i 6= jd11 0 0 0 00 d22 0 0 00 0 d33 0 00 0 0 d44 00 0 0 0 d55

Page 6: Numerikus matematika

SPECIÁLIS ALAKÚ MÁTRIXOK 5

Fels® Hessenberg egy H mátrix, ha hij = 0 akkor, ha i > j + 1h11 h12 h13 h14 h15

h21 h22 h23 h24 h25

0 h32 h33 h34 h35

0 0 h43 h44 h45

0 0 0 h54 h55

Alsó Hessenberg egy G mátrix, ha lij = 0 akkor, ha i < j + 1

g11 g12 0 0 0g21 g22 g23 0 0g31 g32 g33 g34 0g41 g42 g43 g44 g45

g51 g52 g53 g54 g55

Egy x vektort mindig oszlopvektornak tekintünk:

x =

x1

x2...xn

xT = (x1x2 . . . xn)

Page 7: Numerikus matematika

Fejezet 2

2.1 Lineáris egyenletrendszerek megoldása (eliminációs módszerekkel)

2.1 Feladat. Adott az Ax = a (A ∈ Rn×n; a ∈ Rn) reguláris együtthatómátrixú egyenletrendszer, határozzukmeg az x-et.2.2 De�níció. A reguláris, ha det(A) 6= 0

A feladatot eleve úgy t¶ztük ki, hogy adott a reguláris együtthatómátrixú lineáris egyenletrendszer, ez azértvan mert ekkor a feladatnak egyértelm¶ megoldása létezik.2.3 Tétel. Az Ax = a rendszernek pontosan akkor létezik egyértelm¶ megoldása, ha A reguláris.

Ezt nem nagy dolog bebizonyítani, hiszen ez a mátrix alakban felírt egyenletrendszer olyasmit jelent, hogykeresünk olyan xi valós számokat, hogy az A oszlopvektor rendszerének egy alkalmas lineáris kombinációjávalel®állítsuk a jobboldali konstans vektort. Ez nyilván akkor fog sikerülni, hogy ha benne van ezek által kifeszítettaltérben1 az a és biztos benne lesznek, akkor ha ezek bázist2 alkotnak, s®t ha ezek bázist alkotnak, akkor azel®állítás egyértelm¶ lesz. Tehát egyetlen egy ilyen x létezik.

Mit mondhatunk a homogén rendszerekr®l? Ebb®l a tételb®l az következik, hogy a homogén rendszereknekpontosan akkor van nem triviális megoldása, hogy ha az A mátrix nem reguláris.2.4 Következmény. Az Ax = 0 homogén rendszernek, pontosan akkor létezik nem triviális x megoldása ha Aszinguláris.3

Azzal a kikötéssel, hogy A reguláris gondok lehetnek numerikus értelemben, mivel annak az ellen®rzésehez,hogy A determinánsa nulla vagy nem nulla körülbelül annyit kell számolni mintha megoldanánk a rendszert.Szóval ha azt a kikötést elhagyjuk, hogy A reguláris, akkor innent®l kényelmetlenebbé válnak a dolgok, hogylássuk azt, hogy vannak olyan mátrixok amikor könnyebb ezt a kérdést megválaszolni mutatunk egy speciálismátrix osztályt.2.5 De�níció. A diagonális domináns, ha |aii| >

∑nj=1,j 6=i |aij | (i = 1, . . . , n)

Tehát abszolút értékben a diagonális elemek határozottan nagyobbak, mint a sorukban lév® összes többielem abszolút értékes összege.2.6 Példa. A következ® mátrix diagonális domináns:−5 1 1

0 2 −13 3 −7

2.7 Tétel. Ha A diagonális domináns, akkor

1altér: egy számtest feletti vektortér nemüres részlhalmaza, amely maga is vektorteret alkot a számtest felett2bázis: lineárisan független egyenletrendszer3mivel ha det(A) = 0 (azaz a szinguláris), akkor a 2.3 tétel szerint nem létezik egyértelm¶ megoldás az egyenletrendszerre, tehát

a triviális megoldáson kívül léteznie még legalább egy megoldásnak.

6

Page 8: Numerikus matematika

ELIMINÁCIÓS MÓDSZEREK 7

(i) aii 6= 0 i = 1, . . . , n

(ii) A reguláris

Bizonyítás. (i) Ez a de�nícióban lév®, határozottan nagyobb jelb®l következik.(ii) Minden diagonális domináns mátrix reguláris.Ezt indirekt úton bizonyítjuk. Tegyük fel, hogy A diagonális domináns de szinguláris. Ha az A szinguláris és

veszzük az Ax = 0 homogén renszert, akkor van A-nak nem triviális megoldása. Ekkor van olyan x∗ ∈ Rn, hogyx∗ 6= 0 (tehát nem triviális megoldás) és Ax∗ = 0. Itt csak azt írtuk fel, hogy ennek a homogén rendszernekvan nem triviális megoldása. Tehát ha ez nem triviális megoldás, akkor vannak benne nem 0 komponensek is,válaszunk ki ezek közül egy maximális abszolút érték¶t (több ilyen is lehet).

Legyen |x∗k| = max1≤i≤n |x∗i |. Vegyük az egyenletrendszerünkb®l a k-adik egyenletet. Ez úgy néz ki, hogyvenni kell a mátrixunk k-adik sorát és végig kell szorozni a megoldás komponensekkel.

ak1x∗1 + ak2x

∗2 + · · ·+ akkx∗k + · · ·+ aknx∗n = 0

akkx∗k = −n∑

j=1j 6=k

akjx∗j

Vegyük mindkét oldal abszolút értékét:

|akkx∗k| =

∣∣∣∣∣∣∣−n∑

j=1j 6=k

akjx∗j

∣∣∣∣∣∣∣ ≤n∑

j=1j 6=k

|akj |∣∣x∗j ∣∣ ≤ n∑

j=1j 6=k

|akj | |x∗k|

Ez utolsó egyenl®tlenségnél mindegyik megoldás komponens abszolút értéke helyére a maximális komponensabszolút értékét írtuk. Ekkor x∗k-al lehet egyszer¶síteni (hiszen nem 0).

|akk| ≤n∑

j=1j 6=k

|akj |

Ez viszont ellentmond annak, hogy A diagonális domináns.Annak eldöntése, hogy egy mátrix diagonális domináns-e, viszonylag könnyen elérhet®. Durván számolva a

sorösszegeket kell kiszámolni és csinálni kell n db összehasonlítást, ami n2 m¶velettel eldönthet®.Mikor ekvivalens két egyenletrendszer? Akkor ha ugyanaz mindkett®nek a megoldáshalmaza. A

megoldáshalmaz itt vektoroknak a halmaza. Mondjuk mindig feltesszük azt, hogy egyértelm¶ a megoldás,ekkor két egyenletrendszer ekvivalenciája azt jelenti, hogy ugyanaz a megoldás vektora.2.8 Feladat. Van a kiindulási egyenletrendszerünk és ehhez kell konstruálni vele ekvivalens egyenletrendsz-ereket, amiknek ugyanaz a megoldása és amiket már könnyen meg tudunk oldani.

A1x = a1 ⇔ A2x = a2 ⇔ · · · ⇔ Alx = al

1. Gauss-elimináció, ekkor Al = R (fels® trianguláris)2. Jordan-elimináció, ekkor Al = I (egységmátrix)

Elemi átalakítások1. tetsz®leges egyenletet beszorzunk, valamilyen nem 0 konstanssal2. hozzáadjuk egyik sort a másikhoz.

Két egyenlet sorrendjének a megváltoztatása sem változtat az eredményen, de ez bizonyos értelemben nemnevezhet® elemi átalakításnak. A két elemi átalakítást kombinálni szokták, ekkor valamelyik sor konstanss-zorosát adjuk hozzá egy másik sorhoz.

A numerikus algoritmusoknál szigorúan meghatározott az átalakítások sorrendje.

Page 9: Numerikus matematika

GAUSS-ELIMINÁCIÓ 8

2.2 Gauss-elimináció

Csak a b®vített mátrixot fogjuk kezelni: A = (A| a) ∈ Rn×(n+1)

n-1 lépésben hajtjuk végre az átalakítást, hogy a végén fels® trianguláris alakot kapjunk.

j-dik lépés:

(j = 1, 2, . . . , n−1) kiküszöböljük az xj ismeretlent a j-dik alatti összes (tehát a j+1, j+2, . . . , n-ik) egyenletb®l.A j-dik egyenlet alkalmas konstans szorosait hozzáadjuk az egyenletekhez (j+1-dikhez, j+2-dikhez stb.). A fels®indexek azt jelölik, hogy hányadik lépésnél tartunk:

A0 =

a011 a0

12 . . . a01n a0

1,n+1

a021 a0

22 . . . a02n a0

2,n+1... . . . ... ...a0

n1 a0n2 . . . a0

nn a0n,n+1

Az els® lépésben A0-b®l az a0

11 alatti elemeket kell kinullázni, ekkor fogjuk A1-et kapni. A j-dik lépésnélviszont már a következ®k állnak fenn:

Aj−1 =

aj−111 aj−1

12 . . . aj−11,j−1 aj−1

1j . . .

0 aj−122 . . . aj−1

2,j−1 aj−12j . . .

0 0. . . ... ... ...

0 0 0 aj−1j−1,j−1

... ...0 0 0 0 aj−1

j,j . . .

0 0 0 0 aj−1j+1,j . . .

... ... ... ... ... ...0 0 0 0 aj−1

n,j . . .

Tegyük fel, hogy az aj−1

jj 6= 0, ekkor a j-dik sor alkalmas konstansszorosát, adjuk hozzá az alattalév®khöz.Mik ezek az alkalmas konstansok?

lij =aj−1

ij

aj−1jj

(i = j + 1, . . . , n)

Most már megtudjuk mondani, hogy az j-dik egyenletnek hányszorosát kell az i-dikhez hozzáadni, hogy 0-tkapjunk.

ajik = aj−1

ik − lijaj−1jk (k = j + 1, . . . , n + 1)

Az oszlopindex azaz a k csak a j + 1-dik oszloptól megy mivel a j-dikben úgyis 0-k állnak tehát azzal nemkell tör®dni, a többi elem azonban kell a következ® lépésekhez és azért tart n+1-ig mert összevont mátrixrólvan szó.

Ha a aj−1jj 6= 0 feltétel nem teljesül, akkor módosítani kell az algoritmust (lsd lentebb).

2.9 Állítás. Ha a A diagonális domináns, akkor az Ax = a megoldható a Gauss-eliminációval.

Költségelemzés

HelyigényMindig ugyanazon a mátrixon hajtjuk végre a m¶veleteket. Így a helyigénye körülbelül n2, ezt precízen meg-fogalmazva o(n2) (egészen pontosan n2 + n).2.10 De�níció. an = o(bn), ha van olyan K ∈ R+, hogy |an| ≤ K |bn| majdnem minden n-re (azaz van egyküszöbszám ami után teljesül).

Page 10: Numerikus matematika

RÉSZLEGES F�ELEMKIVÁLASZTÁSOS GAUSS-ELIMINÁCIÓ 9

2.11 Példa. an = n2

n+1 = n2−1+1n+1 = (n−1)(n+1)+1

n+1 = n− 1 + 1n+1 = n− 1 + o( 1

n )

M¶veletigényAdott j-re:(n-j) osztást(n-j)(n-j+1) kivonást(n-j)(n-j+1) szorzást kell elvégezni.Minden m¶veletet azonos súllyal veszünk.

M(n) =n−1∑j=1

(n− j) + 2(n− j)(n− j + 1) =n−1∑j=1

(n− j)(1 + 2(n− j + 1))

=n−1∑j=1

(n− j)(2(n− j) + 3) =n−1∑l=1

l(2l + 3) = 2n−1∑l=1

l2 + 3n−1∑l=1

l

= 2(n− 1)n(2(n− 1) + 1)

6+ 3(n− 1)

(n− 1) + 12

=23n3 + o(n2)

4

A Visszahelyettesítés m¶veletigénye n2 + O(n), ami az elimináció futási idejéhez képest elhanyagolható.

2.3 Részleges f®elemkiválasztásos Gauss-elimináció

Egyszer¶en az a feladat, hogy a f®átlóban és az alatta lév® elemek közül kiválasztjuk a maximális abszolútérték¶t. Legyen ez az elem a f®elem, azaz "cseréljük fel" az aktuális sort a f®elem sorával (ez algoritmikusszempontból nem hatékony, érdemes a sorokra mutató pointereket használni és azokat megcserélni, a f®elemkiválasztása o(n) összehasonlítást jelent).2.12 De�níció. A j-dik lépésnél használt f®elem legyen az

∣∣∣aj−1kj

∣∣∣ := maxj≤i≤n

|aij |, határozzunk meg ilyen k-t.

Cseréljük fel az Aj−1-ban a k-dik és j-dik sort.Ez már csak akkor lehet 0, ha a f®átlóban 0 áll és az alatt lév® elemek is mind 0-k, ekkor viszont a determináns

is 0 (azért mert ekkor szorozni kell egymással a diagonális elemeket a j-dik sorig és venni a fennmaradó részdeterminánsát, a fennmaradó rész determinánsa viszont biztos, hogy 0 mivel van egy teljesen 0 oszlopa).2.13 Állítás. Tetsz®leges reguláris együtthatómátrixú Ax = a egyenletrendszer megoldható részleges f®elem-kiválasztással.

Azt szokták mondani, hogy a részleges f®elemkiválasztásos Gauss-eliminációnak ugyanannyi a m¶velet-igénye, mint a f®elemkiválasztás nélkülinek.

2.4 Teljes f®elemkiválasztásos Gauss-elimináció

A teljes f®elemkiválasztásnál úgy módosítjuk az algoritmust, hogy a f®elemet a j-ik lépésnél nem csak a j-ikoszlopból keressük hanem az egész fönnmaradó részmátrixból, és azt visszük fel a f®elem helyére.2.14 De�níció. ∣∣∣aj−1

kl

∣∣∣ = maxj≤i,p≤n

|aip|

Cseréljük fel a j-ik és a k-ik sort a Aj−1 mátrixban, utána pedig cseréljük fel a j-ik és az l-ik oszlopot (azoszlopcserét viszont el kell tárolni).

Bizonyos esetekben, a teljes f®elemkiválasztással jobb eredményt érhetünk el, mint a részlegessel. A kritikusrésze az algoritmusnak az amikor leosztunk a f®elemmel, ha nagyon kicsi lenne a f®elem, akkor kerekítésiproblémák adódhatnak és ezen módosítani tud a teljes f®elemkiválasztás.

4felhasználjuk az els® n négyzetszám összegét, ami n(n+1)(2n+1)6

és az els® n egész szám összegét, ami n(n+1)2

Page 11: Numerikus matematika

Fejezet 3

3.1 Jordan-elimináció (f®elemkiválasztás nélküli)

3.1 Feladat.A = A1 ⇔ A2 ⇔ · · · ⇔ An = I

Ix = an ⇔ x = an

Ekkor nem kell vissza helyettesíteni, az algoritmushoz n lépés kell.3.2 De�níció. Jordan-elimináció A j-dik egyenletet leosztjuk a f®elemmel, hogy a f®elem egy legyen. Haajj 6= 0

ajk :=ajk

ajj(k = j + 1, . . . , n + 1)

az így módosított j-dik egyenlettel kiküszöböljük az xj ismeretlent az összes többi egyenletb®l:1

aik := aik − aijajk (i = 1, . . . , n i 6= j)

M(n) = O(n3) (n3 + O(n2))†

A f®elemekiválasztások hasonlóak, mint a Gauss-eliminációnál

3.2 Mátrix invertálás

3.3 Feladat. Hogyan lehet egyszerre több egyenletrendszert megoldani? Tegyük föl, hogy olyan egyenletren-szereink vannak, amelyeknek ugyanaz az együtthatómátrixa de más a jobboldala.

Ax = a1

Ax = a2

...Ax = am

m db

Ezeket egyszerre is meglehet oldani, úgy hogy veszük az együttható mátrixot és leírjuk egymás mellé a jobboldalakat.

A b®vített mátrix most a következ®:A = (Aa1a2 . . . am) ∈ Rn×(n+m) k = . . . n + m

k = . . . n + m azt jelenti, hogy az oszlopindex n + m-ig fog elmenni.A mátrix invertálás ennek a feladatnak a speciális esete.

1nyilván aijajk-at kell kivonni az egyes elmekb®l mivel ajk-t kapjuk a j-dik egyenlet f®elemmel való leosztása után, ami ahhozkell, hogy a f®elem 1 legyen, ezt a pedig szorozni kell az aktuális sor j-dik oszlopában lév® elemmel, hogy a kivonás után 0 eredménytkapjunk a j-dik oszlopban.

†(n-j+1)osztást, (n-1)(n-j+1) szorzást és (n-1)(n-j+1) kivonást kell elvégeznünk

10

Page 12: Numerikus matematika

ELIMINÁCIÓ FORMÁLIS LEÍRÁSA 11

AX = I (ahol X = A−1 ∈ Rn×m és X = (x1, . . . , xn)) ez pontosan, akkor teljesül ha

Ax1 = e1

Ax2 = e2

...Axn = en

Jordan-elmiminációt alkalmazunk úgy, hogy m = n tehát k = . . . 2n és An = x1 . . . x2I. Ha azonban ígycsináljuk, akkor az még messze nem optimális mivel a kiegészít® résznek speciális tulajdonságai vannak. Azoszlop indexel elég csak n + j-ig elmenni.

A kiindulásnál generálni kellene az n2 elemb®l álló egységmátrixot (A0 = (A|I) ), valójában erre sincsszükség. Szét kell szedni egy kicsit a képleteket és a megfelel® résznél azokat alkalmazni. Az n+1-t®l a következ®képleteket alkalmazzuk: ajk := 1

a jjvalamint aik := −aijajk. A m¶veletigényre már meglehet mutatni, hogy

így is O(n3) de a helyigény az 2n2. A helyigényen úgy lehet javítani, hogy helyben invertálunk, tehát az els®lépésnél az els® oszloppal már úgy sem foglalkoznánk, így oda tárolhatjuk a kiegészít® rész els® oszlopát és ígytovább (mod n számoljuk az oszlopokat), így a helyigény leszorítható n2-re.Megjegyzés (A Jordan eliminációval való mátrixinvertálás összefoglalása). A0

def= (AI) ∈ Rn×(2n), a j-dik lépés-ben:(i) a j-dik egyenlet leosztása a

(j−1)jj f®elemmel

a(j)jk =

a(j−1)jk

a(j−1)jj

k = j + 1, j + 2, . . . , n + j

(ii) az xj ismeretlen kiküszöbölése a megfelel® egyenletekb®l:

a(j)ik = a

(j−1)ik − a

(j−1)ij a

(j)jk k = j + 1, . . . , n + j i = 1, . . . , n i 6= j

Hogyan lehetne formálisan leírni ezeket az algoritmusokat, lineáris algebrában alkalmazott eszközökkel?

3.3 Elimináció formális leírása

3.4 Példa. Van egy B mátrixunk amib®l csinálni akarunk egy olyan mátrixot ami ®t®le csak abban különbözik,hogy a j-dik sora le van osztva az diagonális elemmel a bjj-vel. Ekkor balról szorozni a következ® diganodálismátrixal:

Dj =

1. . .

11b jj

1. . .

1

eTi A, ekkor az A mátrix i-dik sora lesz az eredmény

Aek, ekkor az A mátrix k-dik oszlopa lesz az eredményeTi Aek ekkor az aik elem lesz az eredmény

Page 13: Numerikus matematika

ELIMINÁCIÓ FORMÁLIS LEÍRÁSA 12

Vektor szorzatok

1. skalár szorzat (bels® szorzat)c, d ∈ Rn

cT d =∑n

i=1 cidi ∈ R

2. diadikus szorzat (küls® szorzat)

cdT = G = (d1c . . . dnc) =

c1dT

...cndT

=

c1d1 c1d2 . . . c1dn... ... ...cnd1 cnd2 . . . cndn

Ekkor G rangja legfeljebb 1 (akkor

lehet kevesebb, ha legalább az egyik 0 vektor).3.5 De�níció. Gj eliminációs mátrix , ha felírható Gj = I + g

jeTj alakban, ahol g

jj-dik komponense 0,

g(j)j = 0.

Ekkor Gj a következ®képpen néz ki:

Gj =

1 g(j)1. . . ...

1 g(j)j−1

1g(j)j+1 1... . . .

g(j)n 1

Ezekkel a mátrixokkal tudunk majd eliminálni egy oszlopot. Például úgy kapjuk a Gauss-eliminációt, hogy gi-khelyére beiírjuk az lij-et, ez azonban még úgy módosul, hogy a j-dik oszlopban 1 felett is 0-k vannak.3.6 Állítás. Legyen Gj tetsz®leges eliminációs mátrix, ekkor

(i) B = GjA olyan mátrix, melyben az i-dik sor úgy áll el®, hogy az A i-dik sorához hozzádadjuk A j-diksorának g

(j)i -szeresét.(A soraihoz hozzáadogatjuk a gi-ben lév® konstansszorosait a j-dik sornak)

(ii) C = AGj olyan mátrix, melynek a j-dik oszlopát úgy kapjuk, hogy A j-dik oszlopához hozzáadjuk A els®oszlopának g

(j)1 -szeresét..., A n-dik oszlopának g

(j)n -szeresét.

Bizonyítás. (i) nézzük meg B i-dik sorának k-dik elemétbik = eT

i Bek = eTi (GjA)ek = eT

i ((I + gjeTj )A)ek

= eTi (A + g

jeTj A)ek = eT

i Aek + eTi g

j(eT

j Aek)

= aik + (eTi g

j)ajk = aik + g

(j)i ajk

ahol g(j)i a g

jvektor i-dik eleme.

3.7 Példa. G3A 4× 4-es mátrixok esetén:

G3A =

1 0 g

(3)1 0

0 1 g(3)2 0

0 0 1 00 0 g

(3)4 1

a11 a12 a13 a14

a21 a22 a23 a24

a31 a32 a33 a34

a41 a42 a43 a44

=

a11 + g

(3)1 a31 a12 + g

(3)1 a32 a13 + g

(3)1 a33 a14 + g

(3)1 a34

a21 + g(3)2 a31 a22 + g

(3)2 a32 a23 + g

(3)2 a33 a24 + g

(3)2 a34

a31 a32 a33 a34

a41 + g(3)4 a31 a42 + g

(3)4 a32 a43 + g

(3)4 a33 a44 + g

(3)4 a34

Tehát a B mátrixnak az i-dik sorát úgy kapjuk, hogy A i-dik sorához hozzáadjuk A j-dik sorának megfelel®

konstansszorosát és az egyes eliminációs módszereknél csak ezeket a konstansokat kell megváltoztatni.

Page 14: Numerikus matematika

F�ELEMKIVÁLASZTÁS FORMÁLIS LEÍRÁSA 13

3.4 F®elemkiválasztás formális leírása

3.8 De�níció. Legyen 1 ≤ i, j ≤ n, i 6= j tetsz®leges. A Pij elemi permutációs mátrixon azt a mátrixotértjük, amelyet az I egységmátrixból az i-dik és j-dik sor fölcserélésével kapunk.3.9 Példa. Ha n = 3, i = 1, j = 2, akkor P12 =

(0 1 01 0 00 0 1

)3.10 De�níció. P permutációs mátrix , ha el®áll az I egységmátrix sorainak alkalmas permutálásával.3.11 Állítás. Tetsz®leges A mátrixot a Pij elemi permutációs mátrixszal szorozva:

(i) B = PijA-t úgy kapjuk, hogy fölcseréljük A i-dik és j-dik sorát.

(ii) C = APij-t úgy kapjuk, hogy fölcseréljük A i-dik és j-dik oszlopát.

Bizonyítás. (i) Válasszuk ki B-nek egy tetsz®leges elemét:bkl = eT

k Bel = eTk (PijA)el = (eT

k Pij)(Ael)

(a) Ha a kiválasztott elem olyan volt, hogy az eredeti A mátrixban nem érintette a sorcsere, vagyis k 6= i ésk 6= j, akkor eT

k Pij = eTk (hiszen ekkor eT

k "kiválasztja" Pij k-dik sorát, de mivel k 6= i és k 6= j ezértebben az esetben az egység mátrixnak tekinthet® Pij), ezért bkl = eT

k Ael = akl.(b) Ha k = i, akkor eT

k Pij = eTi Pij = eT

j , ezért bil = eTj Ael = ajl.

(c) Ha k = j, akkor eTk Pij = eT

j Pij = eTi , ezért bjl = eT

i Ael = ail

Ha részleges f®elemkiválasztást kell csinálni, akkor az azt jelenti, hogy balról kell szorozni a mindenkori"A" mátrixot. Ha teljes kiválasztást akarunk, akkor balról is szorozni kell és jobbról is szorozni kell valamilyenhasonló permutációs mátrixszal.

F®elemkiválasztás nélküli Gauss-eliminációA j-dik lépésben adott Aj−1, amib®l Aj = GjAj−1 ahol

gj

=

0...00

−lj+1,j...−ln,j

R = An−1 = Gn−1 · · ·G2 G1A0︸ ︷︷ ︸

A1︸ ︷︷ ︸A2︸ ︷︷ ︸

An−1

Az eliminációs mátrix inverze a következ®képpen adódik:3.12 Állítás. G−1

j = I − gjeTj

Bizonyítás.GjG

−1j = (I + g

jeTj )(I − g

jeTj ) = I − g

j(eT

j gj)︸ ︷︷ ︸

0

eTj = I

eTj g

jesetén eT

j éppen a j-dik komponenst választja ki gj-ben ami 0.

Page 15: Numerikus matematika

F�ELEMKIVÁLASZTÁS FORMÁLIS LEÍRÁSA 14

Az elimináció végeredménye:G−1

n−1/ R = Gn−1 · · ·G2G1A0

G−1n−1R = Gn−2 · · ·G2G1A0

G−11 G−1

2 · · ·G−1n−1︸ ︷︷ ︸

L

R = A0

Ekkor A0 a kiindulási együttható mátrix, R a Gauss-elimináció végerdménye a G-k eliminációs mátrixok,és az inverzek miatt + szerepel bennük. Tehát L a következ®képpen néz ki:

L =

1 0 . . . 0l21 1 0

l31 l32 1. . . ...

... . . . . . . 0ln1 n2 . . . ln,n−1 1

A lik a Gauss-elimináció során de�niált konstans. L alsó egység trianguláris mátrix.3.13 Tétel. Ha A-ra végrehajtható a f®elemkiválasztás nélküli Gauss- elimináció, akkor A-nak létezik A = LRtrianguláris felbontása.

Részleges f®elemkiválasztásos Gauss-eliminációAj = GjPjπ(j)Aj−1 j ≤ π(j) ≤ n π(j) ∈ N

El®ször megcserélük a j-dik és a π(j)-dik sort.

An−1 = Gn−1Pn−1,π(n−1) · · ·G1P1π(1)A0 PA = L∗R∗

Page 16: Numerikus matematika

Fejezet 4

4.1 Számolás partícionált mátrixokkal

Egymátrix partíconálása azt jelenti, hogy valamilyen módon feldaraboljuk a sorait, oszlopatit (nem feltétlenülugyanolyan módon). Így részmátrixok keletkeznek, amiket blokkok nak is szoktak nevezni. Egy valós n×m-esA mátrix i sorra és s oszlopra való partícionálása a következ®képpen néz ki:

A11 A12 . . . A1s

A21 A22 . . . A2s

... ... . . . ...Ai1 Ai2 . . . Ais

m1

m2...mi

l1 l2 . . . ls

n =∑i

j=1 mj

m =∑s

j=1 lj

Az ilyen felbontás azért jó, mert egy szintel feljebb lehet vinni a mátrix algebra szokásos számolási sz-abályait. A mátrixok vonatkozóan összeadni, skalárral szorozni lehet úgy ezeket a m¶veleteket lehet általánosí-tani blokkokra. Ha van egy szintén n×m-es mátrixunk amely ugyanúgy van praticionálva, mint A:

B =

B11 B12 . . . B1s

B21 B22 . . . B2s

... ... . . . ...Bi1 Bi2 . . . Bis

akkor a C összegmátrix a megfelel® blokkok összegeként áll el®:

C = A + B

C11 C12 . . . C1s

C21 C22 . . . C2s

... ... Cpq

...Ci1 Ci2 . . . Cis

Cpq = Apq + Bpq

. A skalárszorzat értelemszer¶en:

G = αA

G11 G12 . . . G1s

G21 G22 . . . G2s

... ... Gpq

...Gi1 Gi2 . . . Gis

Gpq = αApq

A mátrix szorzásnál plussz feltétel is bejön mivel a blokkoknak külön-külön összeszorozhatónak kell lenniük,ez pedig akkor teljesül, ha a szorzandó mátrix oszlopat annyi darabra bontottuk, mint a szorzó mátrix sorait.

Csak egy speciális estet fogunk alkalmazni, amikor a mátrix 4 darabra van partícionálva és ekkor az els®partícó méreti egyértelm¶en meg fogják határozni a többi partíció méretét

A =(

A11 A12

A21 A22

)és van egy ugyanígy partícionált B =

(B11 B12

B21 B22

)

15

Page 17: Numerikus matematika

FROBÉNIUS-FÉLE MÁTRIX INVERTÁLÁS 16

akkor a C szorzatmátrix a következ®képpen áll el®:

C = AB

(A11B11 + A12B21 A11B12 + A12B22

A21B11 + A22B21 A21B12 + A22B22

)

4.2 Frobénius-féle mátrix invertálás

Mátrix invertálásnál X-re keressük a megoldást a következ® egyenletrendszerben:(A11 A12

A21 A22

) (X11 X12

X21 X22

)=

(I11 012

021 I22

)

I11 = A11X11 + A12X21 (4.1)012 = A11X21 + A12X22 (4.2)021 = A21X11 + A22X21 (4.3)I22 = A21X12 + A22X22 (4.4)

A leosztások helyett itt mátrix inverzekkel kell dolgozni és még arra kell vigyázni, hogy itt már nem kommutatíva szorzás. Tegyük fel, hogy A−1 és A−1

11 létezik. Szorzzuk balról az (4.1)-es egyenletet A−111 -el, majd szintén

balról −A21-el. Ekkor az els® és a harmadik egyenlet így néz ki:−A21A

−111 = −A21X11 +−A21A

−111 A12X21

0 = A21X11 + A22X21

Majd a két egyenletet összeadjuk és az eredményt rendezzük.−A21A

−111 = −A21A

−111 A12X21 + A22X21

−A21A−111 = (A22 −A21A

−111 A12)︸ ︷︷ ︸

B

X21

X21 = −B−1A21A−111

Majd visszahelyettesítjük az így kapott egyenletet az els®be, azt egy kicsit átalakítva megkapjuk X11-et:A11X11 = I11 −A12X21

X11 = A−111 (I11 −A12X21)

Ezután vesszük a második egyenletet (4.2) és beszorozzuk −A21A−111 -el balról. Ezután a második és a negyedik

egyenlet a következ®képpen néz ki:0 = −A21X21 −A21A

−111 A12X22

I22 = A21X12 + A22X22

Majd szintén összeadjuk a két egyenletet és átalakítjuk:I22 = A22X22 −A21A

−111 A12X22

I22 = (A22 −A21A−111 A12)︸ ︷︷ ︸

B

X22

X22 = B−1

Ezt visszahelyettesítjük az átalakítoot második (4.2) egyenletbe:A11X21 = −A12X22

X21 = −A−111 A12X22

Page 18: Numerikus matematika

LR-FELBONTÁS 17

Meg kell még mutatni, hogy a B = A22 − A21A−111 A12 mátrixnak van inverze. Ehhez tekintsük a következ®

mátrixokat: (I11 012

−A21A−111 I22

)︸ ︷︷ ︸

G

(A11 A12

A21 A22

)︸ ︷︷ ︸

A

=(

A11 A12

021 B

)︸ ︷︷ ︸

C

Ekkor a determináns szorzástétele alapján det(c) = det(G) det(A). A-nak tudjuk, hogy nem 0 a deter-minánsa (ez volt a feltétel), G-r®l látszik, hogy 1 a determinánsa, mivel egy alsó egységtrianguláris mátrix, tehátC-nek nem lehet 0 a determinánsa és a következ®képpen fejezhet® ki: det(A11) det(B) ebb®l pedig következik,hogy B-nek sem lehet 0 a determinánsa.Megjegyzés. Több féle úton is el lehet jutni a megoldásokhoz. Lehetne lépésenként ellen®rizni, hogy a szorzásoktényleg evégezhet®ek-e és amit eredményül kapunk az olyan dimenziós-e, hogy össze lehesen adni, ez azonbanminden lépésnél teljesül.

Az Frobénius-invertálásnak O(n3) a m¶veletigénye.Speciális esetekben érdemes ezt a módszert használni, példaul ha a mátrix

kvázi trianguláris(

A11 A12

0 A22

)vagy kvázi diagonális

(A11 00 A22

)mivel ilyenkor a képletek jelent®sen leegyszer¶södnek. Akkor is hasznos lehet ez a módszer, ha olyan nagymátrixal dolgozunk, amely nem fér be a memóriába.

4.3 LR-felbontás

4.1 De�níció. A = LR az A trianguláris felbontása, ha L alsó egység trianguláris, R pedig fels® trianguláris.4.2 Tétel (LR unicitása). Ha A reguláris, akkor az A = LR felbontás egyértelm¶ (legfeljebb 1 db felbontáslétezhet).

Bizonyítás. Indirekt módon. Tegyük fel, hogy létezik két különböz® felbontás:A = L1R1 = L2R2

(tehát vagy az L1 különbözik az L2-t®l vagy az R1 különbözik az R2-t®l). Mivel A reguláris volt, így a többimátrixnak is regulárisnak kell lennie, így lehet manipulálni az inverzekkel.

L−12 / L1R1 = L2R2

L−12 L1R1 = R2 /R−1

1

L−12 L1 = R2R

−11

Ezzel már ellentmondásra is jutottunk. Miért nem állhat fenn ez az egyenl®ség? Mivel a bal oldalon alsó egységtrianguláris mátrix van (hiszen egy alsó egység trianguláris mátrix inverze is alsó egység trianguláris és két alsóegység trianguláris mátrix szorzata is alsó egység trianguláris) a jobb oldalon fels® trianguláris mátrix van amicsak úgy lehetséges ha mindkett® diagonális ez a digonális viszont csak az egységmátrix lehet. Ekkor viszontazt kapnánk, hogy I = L−1

2 L1 és I = R2R−11 , amib®l viszont L2 = L1, R1 = R2-t kapnán. Err®l viszont már

egyértelm¶en látszik, hogy ellentmond a feltételünknek.Abból, hogy A reguláris még nem következik, hogy létezik is a felbontás. Tehát következ® kérdés az egzisz-

tencia, azaz mikor létezik ez a felbontás.4.3 Tétel (LR egzisztenciája). Az A reguláris mátrixnak, pontosan akkor létezik A = LR felbontása, hadet(Akk) 6= 0 k = 1, . . . , n (∃A = LR⇔ det(Akk) 6= 0).

4.4 Segédtétel. Ha létezik az A = LR felbontás, akkor a det(Akk) = r11 · · · rkk = (r11r22 · · · rk−1,k−1)rkk =det(Ak−1,k−1)rkk (det(A00) de�níció szerint 1).

Page 19: Numerikus matematika

LR-FELBONTÁS 18

Bizonyítás. Tekintsük a következ®képpen partícionált mátrixot(

Akk BC D

)=

(E 0F G

) (H J0 K

)Ekkor

Akk = EH, ha ez igaz akkor a determinánsát a követekez®képpen lehet felírni det(Akk) = det(E) det(H).det(E) = 1 mivel E alsó egység trianguláris, H viszont fels® trianguláris, tehát det(Akk) = 1 det(H) =r11 · · · rkk.Bizonyítás.

(i) (A reguláris és ∃A = LR ⇒ det(Akk) 6= 0) Tegyük fel, hogy létezik a felbontás, mivel A reguláris, akkoraz elöz® segédtétel alapján 0 6= det(A) = det(Ann) = r11 · · · rnn. Ebb®l az következik, hogy semelyik rii

(1 ≤ i ≤ n) sem lehet 0, tehát mindegy, hogy az r-ek közül mennyit szorzunk össze mindig 0 különböz®leszt det(Akk).

(ii) (A reguláris és det(Akk) 6= 0 ⇒ ∃A = LR ) Legyen det(Akk) 6= 0 k = 1, . . . , n, megmutatjuk a mátrixrendje szerinti indukcióval, hogy létezik a felbontás.(a) n=1 0 6= det(Akk) ekkor A = 1︸︷︷︸

L

A︸︷︷︸R

(b) tegyük fel, hogy az állítás igaz bármely a tétel feltételeit teljesít® n-1-ed rend¶ mátrixra. Legyen Aa feltételeket teljesít® n-ed rend¶ mátrix, keressük így a felbontását (az utolsó sora és oszlopa el®ttpartícionálunk):

A =(

An−1,n−1 bcT ann

)=

(Ln−1,n−1 0

yT 1

) (Rn−1,n−1 x

0T z

)A-t ismerjük. Mikor lenne igaz ez a felbontás?

An−1,n−1 = Ln−1,n−1Rn−1,n−1 (4.5)b = Ln−1,n−1x (4.6)

cT = yT Rn−1,n−1 (4.7)ann = yT x + z (4.8)

(4.5) az indukciós feltevés miatt egyértelm¶en létezik. (4.6) az x-re vonatkozóan egy lineáris egyenle-trendszernek tekinthet®. A rendszer az x-re vonatkozóan egyértelm¶en megoldható, mivel az együt-thatómátrixa reguláris. (4.7) az elöz® eset transzponáltja, tehát ilyen yT is egyértelm¶en létezik. zis egyértelm¶en kifejezhet® (4.8)-ból, hiszen yT x egy skalár szorzat, amit már ismerünk és ann adottvolt.

A tétel bizonyítása során adódik egy rekurzív algoritmus az LR felbontásra, azonban nem ezt érdemeshasználni, van direkt algoritmus is.4.5 Állítás. Ha A diagonális domináns, akkor egyértelm¶en létezik az A = LR felbontás.

Ez azért igaz, mert ha A diagonálisan domimáns, akkor Akk is diagonálisan domináns tehát det(Akk) 6= 0a diagonális dominancia tulajdonsága miatt.

Alkalmazások A = LR-re

Mindig felteszzük, hogy A reguláris(1) determináns számítás det(A) = det(L)︸ ︷︷ ︸

1

det(R) = det(R)

(2) mátrix invertálás A = LR⇔ A−1 = L−1R−1

Page 20: Numerikus matematika

LR-FELBONTÁS 19

(3) lineáris egyenletrendszer megoldása

Ax = a⇔ LRx = a⇔{

Ly = a "el®re" helyettesítés O(n2)Rx = y visszahelyettesítés O(n2)

Page 21: Numerikus matematika

Fejezet 5

5.1 Az LR algoritmus

5.1 Példa. Az LR algoritmus végrehajtásánál, a mátrixszorzáshoz hasonló m¶veletr®l van szó. A kiindulásimátrix jelen esetben a 3× 3-s A mátrix. A 2-al keretezett elemeket keressük.

R r11 r12 r13 1.

0 r22 r23 3.

L 0 0 r33 5.

1 0 0 2 1 2l21 1 0 4 5 5

l31 l32 1 2 7 52. 4. A

A mátrix szorzás szabálya szerint felírhatók az ismeretlenekre vonatkozó egyenletek amib®l el®ször R els® soráttudjuk meghatározni:

1 · r11 + 0 · 0 + 0 · 0 = 2r11 = 2

1 · r12 + 0 · r22 + 0 · 0 = 1r12 = 1

1 · r13 + 0 · r23 + 0 · r33 = 2r13 = 2

A 2. lépésben L els® oszlopát tudjuk meghatározni:l21 · r11 + 1 · 0 + 0 · 0 = 4

l21 · 2 = 4l21 = 2

l31 · r11 + l32 · 0 + 1 · 0 = 2l31 · 2 = 2

l31 = 1

3. lépésben R második sorát tudjuk kiszámolni:l21 · r12 + 1 · r22 + 0 · 0 = 5

2 · 1 + 1 · r22 = 5r22 = 3

l21 · r13 + 1 · r23 + 0 · r33 = 52 · 2 + 1 · r23 = 5

r23 = 1

20

Page 22: Numerikus matematika

AZ LR ALGORITMUS 21

Végül L második oszlopát és R harmadik sorát:l31 · r12 + l32 · r22 + 1 · 0 = 7

1 · 1 + l32 · 3 = 7l32 = 2

l31 · r13 + l32 · r23 + 1 · r33 = 51 · 2 + 2 · 1 + r33 = 5

r33 = 1

Tehát L és R a következ®képpen alakul:

L =

1 0 02 1 01 2 1

R =

2 1 20 3 10 0 1

Minden lépés egyértelm¶en meghatározott volt és nem volt olyan lépés ahol ne tudtuk volna folytatni az

eljárást.Az eredeti A mátrix egy bizonyos elemére támaszkodunk és abból az elemb®l kivonjuk a megfelel®en összes-

zorzott számpárokat amelyeket már korábban megismertünk és így kapjuk R megfelel® értékét.

rjk = ajk −j−1∑p=1

ljprpk k = j, j + 1, . . . , n (5.1)

L megfele® elemének kiszámításánál rjj-vel még osztanunk kell és ez az osztás a kritikus m¶velet az eljárás-ban. Ha rjj 0 lenne akkor ezt nem tudnánk végrehajtani.

lij =1

rjj(aij −

j−1∑p=1

liprpj) i = j + 1, j + 2, . . . , n j = 1, 2, . . . , n (5.2)

M¶veletigény

A m¶veletigényt két részletben fogjuk számolni. Az egyik számítás az lesz, hogy mennyi m¶velet kell az R ele-meinek a kiszámításához, ez lesz M1 érték és a kés®biekben meghatározzuk az L elemeihez tartozó m¶veletigénytis. (5.1)-ben j − 1 darab összevonás (ami összeadást és/vagy kivonást jelent) és j − 1 szorzás van.1

M1(n) =n∑

j=2

2(j − 1)(n− j + 1) =n∑

j=2

2(j − 1)(n− (j − 1))

=n−1∑l=1

2l(n− l) =n−1∑l=1

2ln− 2l2 = 2nn−1∑l=1

+2n−1∑l=1

l2

= 2n(n− 1)n)

2− 2

(n− 1)n(2(n− 1) + 1)6

= n3 − n2 − 2n3 − 3n2 + n

3

=13n3 + O(n2)

Megjegyzés. Érdemes m¶veletigény els® sorát megvizsgálni. Azt állítottuk, hogy j − 1 darab összevonás ésj− 1 darab szorzás kell a minden lépésben (∑j−1

p=1 miatt) (5.1) kiszámításánál ezért szerepel a m¶veletigényben2(j − 1), egészen pontosan a ∑-as részben eggyel kevesebb összeadás szerepel, mint szorzás de a ∑ el®t ott

1ez a könyv a szorzást és az összeadást már egyenrangúnak veszi hiszen egy korszer¶ processzor 1 órajel alatt végzi el mind azösszeadást mind a kivonást (szemben a régiekkel, ahol a szorzás ideje többszöröse volt az összeadásénak)

Page 23: Numerikus matematika

AZ LR FELBONTÁS FELHASZNÁLÁSI LEHET�SÉGEI 22

van még egy kivonás is. A vizsgált sorban j. elemt®l mindegyik elemre (k = j, . . . , n) kell a m¶veleteketvégrehajtani R-ben ezért jön be az (n − j + 1)-es szorzó. Ezzel megkaptuk R egy sorának a kiszámításáhozszükséges m¶veletigényt.

Mivel ezt minden sorra végre kell hajtani ezért jön be a ∑, pontosabban az els® sorra nem kell végrehajtanimivel j = 1 esetén a (5.2)-es képlet r1k = a1k bemásolásra redukálódik, ezért indul j = 2-r®l az indexelés(∑n

j=2).Az els® sorról a másodikra úgy jutunk, hogy l = j − 1-et behejetettesítünk, majd a második sorról aharmadikra úgy, hogy felhasználjuk az els® n egész szám és az els® n négyzetszám összegének a már ismertképleteit ( 1

2n(n + 1) és n(n+1)(2n+1)3 ), csak itt most n− 1-re alakalmazzuk ®ket. Huh, azt hiszem ezt egy kicsit

túlmagyaráztam, a rövidebb változat megtalálható a könyv 50. oldalán (A szerkesztget®).Az O (ejtsd ordó) egy nagyságrendet mutató kifejezés. Jelen esetben az utolsó sor azt mutatja, hogy az A

n×n mátrix n rendjét®l milyen módon függ a m¶veletigény, ez egy polinomiális függés lesz, a legnagyobb fokútag az n3 aminek az együtthatója 1

3 (nyilván ez a rész lesz a domináns) és a mögötte lév® O(n2) azt jelenti,hogy vannak további tagok melyek együtthatói legfeljebb másod fokúak és ezekkel már nem foglalkozunk.

Az L mátrixbeli értékek meghatározásához egy hasonló értéket fogunk kapni. A különbség az elöz®hözképest az, hogy bejön még egy plusz osztás és soronként eggyel kevesebb elemre kell végrehajtani, ez azonbana m¶veletigényt nem fogja jelent®sen befolyásolni.

M2(n) =n∑

j=2

(2(j − 1) + 1)(n− j) =13n3 + O(n2)

A teljes m¶veletigény a müveletigények összege:

M(n) = M1(n) + M2(n) =23n3 + O(n2)

Ez a m¶veletigény hasonló a Gauss-elimináció m¶veletigényéhez. Nem véletlenül, hiszen a felbontás ekvivalensaz elimináció megoldásával.

5.2 Az LR felbontás felhasználási lehet®ségei

1. Determináns számításdet(A) = det(L) · det(R) = 1 · det(R)

A determinások szorzástételét használjuk itt ki. Mivel L alsó egység trianguláris ezért a determinánsa0. Mivel R fels® trianguláris ezért a determinánsa könnyen számítható, a f®átlójában lév® elemekszorzataként.

2. Egyenletrendszer megoldásához

Ax = a⇔ LRx = a⇔{

Ly = a "el®re" helyettesítés O(n2)Rx = y visszahelyettesítés O(n2)

Ax = a-t vele ekvivalens problémává alakítjuk. Ez el®rehelyettesítésnél egy "fordított" vissza helyettesítés-r®l van szó, hogy mivel L speciális alakú ezért az y vektor komponensei az elöz® sor segítségével egyértelm¶enkifejezhet®k, az els® komponens pedig triviálisan kifejezhet®. Ha már y ismerlyük akkor azt be tudjukhelyettesíteni a második egyenl®tlenségbe amit egy egyszer¶ visszahelyettesítéssel meg tudunk oldani.Mindkét egyenletrendszer megoldásánál O(n2) m¶veletigény szükséges.

3. Mátrix inverzének a meghatározásaA−1 = R−1L−1

Egyszer¶bb R-nek és L-nek az inverzét meghatározni. R inverze is fels® tranguláris lesz és L inverze isalsó tranguláris lesz.

Page 24: Numerikus matematika

LR FELBONTÁS SPECIÁLIS ALAKÚ MÁTRIXOKRA 23

5.3 LR felbontás speciális alakú mátrixokra

5.2 Következmény. Ha az A mátrix diaginiálisan domináns, akkor az A = LR felbontás egyértelm¶en létezik.

Bizonyítás. Itt arról van szó, hogy a (5.2) képletben lév® osztás során nem fordulhat el®, hogy 0 szerepel azosztóban, mivel a f®minorok mind pozitívak lesznek. A bizonyitás a (4.3)-as tételb®l következik, a diagonálisdominencia tulajdonsága miatt.• Hessenberg mátrix: lásd 1. el®adás• tridiagonális mátrix: a f®átló és a két mellékátló csak a 0-tól különböz®.• bidiagonális mátrix : a f®átló és az egyik mellékátlója csak a 0-tól különböz®.

5.3 Segédtétel. Ha a H reguláris fels® Hessenberg mátrixnak létezik H = LR felbontása, akkor L alsó egységbidiagoniális mátrix.

Bizonyítás. A regularitási feltételb®l következik, hogy rjj 6= 0. Az lij = 0 ha i > j + 1 egyenl®tlenségeket azoszlopok szerinti indukcióval bizonyítjuk. j = 1 (az els® oszlopra)2 teljesül az állítás, li1 = hi1/r11 = 0 mivelhi1 ha i > 2. Tegyük fel, hogy az 1, 2, . . . , j − 1 oszlopokra beláttuk az állítást. Ekkor

lij =1

rjj(hij −

j−1∑p=1

liprpj) =1

rjj(0− 0) = 0,

Mivel hij = 0 és az összeg is 0 az indukciós feltétel miatt.5.4 Segédtétel. Ha a G reguláris alsó Hessenberg mátrixnak létezik G = LR felbontása, akkor R fesl® bidiag-oniális mátrix.

Bizonyítás. Transzponálással visszavezetjük az elöz® esetre:

GT = RT LT = (RT

1︷ ︸︸ ︷diag(r−1

11 , r−122 , . . . , r−1

nn))(diag(r11, r22, . . . , rnn) LT ) = L∗R∗

Mivel a levezetés végén a GT fels® Hessenber-mátrix felbontása áll, L∗ az elöz® segédtétel alapján csak alsóegység bidiagonális mátrix lehet, mivel L∗-ot L∗ = RT diag(r−1

11 , r−122 , . . . , r−1

nn) módon adódik és de�nicóbóllátszok, hogy R fels® bidiagoniális mátrix kell, hogy legyen.

Az elöz® két segédtételb®l következik a következ®:5.5 Segédtétel. Ha a T reguláris tridiagoniális mátrixnak létezik T = LR felbontása, akkor L alsó egység-bidiagoniális, R pedig fels® bidiagoniális mátrix.

5.6 Következmény. Ha létezik a reguláris A mátrix A = LR felbontása és

(i) A (fels® vagy alsó) Hessenberg-mátrix, akkor a felbontás m¶veletigénye O(n2)

(ii) A tridiagoniális mátrix, akkor a felbontás m¶veletigénye O(n).

A probléma az algoritmus végrehajtása során akkor adódhat, ha rjj = 0 valamely j-re, azaz a mátrixvalamelyi f®minora3 0. Ez viszont kezelhet® egy a f®elemkiválasztáshoz hasónló módszerrel.5.7 Példa. ( 0 1

1 2 ) ebben az esetben az algoritmus közvetlenül nem végrehajtható.Jelen példánknál annyit kellene csinálni, hogy a két sort meg kellene cserélni. Egy permutációs mátrixot

fogunk használni. A G eliminácóban használt sor-oszlop cserélgetést írja le a permutációs mátrix.5.8 De�níció. PA = LR az A ∈ Rn×n mátrix általánosított tranguláris felbontása, ha P permutációs Rfels® tragnuláris, L alsó egység-tranguláris mátrix.

2R-ben az egyes lépések sorokra, L-ben oszlopokra vonatkozi a j index.3a f®minor fogalom alatt átalában aldeterminánst értenek

Page 25: Numerikus matematika

AZ RT R CHOLESKY-FELBONTÁS 24

Az ötlet az, hogy ha az adot pozicióba nem tudunk egy nullától eltér® elemet becserélni, akkor az aktulásoszlopban teljesen egészében 0-k kellenek, hogy legyenek, ha viszont ez áll fenn akkor a mátrix nem lehetreguláris. Megfordítva a dolgot, mivel csak reguláris mátrix esetén van ennek a felbontásnak értelme ilyenkorezt a trükköt pedig mindig meg tudjuk csinálni.5.9 Segédtétel. Tetsz®leges A reguláris mátrixhoz megadható olyan P permutációs mátrix, hogy a B = PAmátrixra det(Bkk) 6= 0

Bizonyítás. B mátrix rendje szerinti indukcióval bizonyítjuk. Ha n=1, akkor az állítás triviálisan igaz mert 1×1-es mátrix esetén nincs mit cserélni. Tegyük fel, hogy az n − 1 rend¶ mátrixokra az állítás igaz! Vegyünk egytesz®leges n-ed rend¶ A mátrixot, fejtsük ki A-t az utolsó oszlopa szerint, azaz határozzuk meg A determinánsát,az utolsó oszlop elemei és az adjungált aldeterminánsok segítségével mindenütt a megfelel® el®jelet �gyelembevéve.

0 6= det(A) = (−1)2nann det(Ann)− an−1n det(An−1,n)± · · ·+ (−1)na1n det(A1n)

Mivel ez az összeg nem 0 (hiszen A reguláris) ezért léteznie kell legaláb egy olyan j indexnek, hogy det(Ajn) 6= 0.Legyen j egy ilyen rögzített index és tekintsük azt a P1 permutációs mátrixot, amivel A balról szorozva Ajn

sorai felkerülnek A els® n − 1 sorába. Mivel Ajn n − 1-ed rend¶ reguláris mátrix ezért az indukciós feltevésszerint már van olyan P2 n− 1-ed rend¶ permutációs mátrix, hogy a

B =(

P2 00T 1

)P1A

mátrix f®minorai n− 1-ed rendig nem 0-k. Persze det(B) = ±det(A) 6= 0 is igaz, ezért

P =(

P2 00T 1

)P1

mátrixszal való szorzás a kívánt B mátrixot adja.Megjegyzés. P1-nek az a szerepe, hogy n−1-ig reguláris legyen A, P2 az indukciós feltételeben szerepl® P , tehátA sorait úgy cserélgeti n− 1-dik sorig, hogy a f®minorok ne legyenek 0-k.

Ez a segédtétel lényegében már bizonyítja a következ® tételt is.5.10 Tétel. Egy tetsz®leges A reguláris mátrixnak létezik PA = LR felbontása.

Ez bizonytható algoritmikus úton is (végighaladva az algoritmus lépésein) annak a felhasználásával, hogy arészleges f®elemkiválasztásos Gauss-elimináció tetsz®leges reguláris mátrixra végrehajtható.

5.4 Az RTR Cholesky-felbontás

Szimmetrikus A esetén szeretnénk egy speciális LR felbontás alkalmazni úgy, hogy két azonos mátrixra bontsukfel A-t.5.11 Példa. A 2-al keretezett elemeket keressük. RT felesleges feljegyezni, hiszen az értékek megegyeznek azR értékeivel.

R r11 r12 r13 1.

0 r22 r23 2.

RT 0 0 r33 3.

r11 0 0 4 2 4r12 r22 0 2 10 5r13 r23 r33 4 5 6

A

Page 26: Numerikus matematika

AZ RT R CHOLESKY-FELBONTÁS 25

r11 · r11 = 4r11 = 2

r11 · r12 = 2r12 = 1

r11 · r13 = 4r13 = 2

r12 · r12 + r22 · r22 = 10r22 = 3

r12 · r13 + r22 · r23 = 51 · 2 + 3 · r23 = 5

r33 = 1r13 · r13 + r23 · r23 + r33 · r33 = 6

r33 = 1

TehátR =

2 1 20 3 10 0 1

Megjegyzés. Eddigi észrevételeim alapján a Cholesky felbontás valahogy így m¶ködik.• Elég csak az R mátrixszal foglalkozni.• Sorra kitöltjük R sorait felülr®l lefelé haladva.• Egy soron belül balról jobbra haladunk, természetesen csak a f®lóban lév® elemt®l.• Adott sor f®átlóban lév® elemét úgy kapjuk, hogy vesszük a megfelel® f®átlóbeli elemet A-ból, majd

kivonjuk R-ben a meghatározandó elem feletti elemek négyzetének összegét (kivéve az els® sort, mertakkor ez a lépés kimarad) és az így kapott összegb®l négyzetgyököt vonunk. (Csak a pozitív el®jel¶gyököt vesszük �gyelembe.)

r11 r12 r13 r14 . . .0 r22 r23 r24 . . .0 0 r33 r34 . . .... ... ... ... . . .

Tehát r33 a következ®képpen kapható meg:

r33 = +√

a33 − (r213 + r2

23)

• Egy f®átlótól jobbra lév® elemet úgy számítunk, hogy vesszük R-ben sorra a f®átló feletti és az adott elemfeletti elemek szorzatát (csak az azonos sorban lév®ket szorozzuk össze) és kivonjuk a számítandó elemnekmegfelel® A beli elemb®l ®ket. Végül leosztjuk az aktuális R-beli f®átlóbeli elemmel (az els® sorban csaka f®tlóbeli elemmel kell leosztani a megfelel® A beli elemet). Például r34 a következ® módon kapható meg:

r34 =a34 − r13 · r14 − r23 · r24

r33

• Ha tévedtem, akkor majd kiigazít valaki (A szerkesztget®)

Page 27: Numerikus matematika

AZ RT R CHOLESKY-FELBONTÁS 26

5.12 Segédtétel. Ha az A reguláris mátrixnak (nem feltétlenül szimmetrikus) létezik az LR felbontása, akkoregyértelm¶en létezik olyan LDS felbontása, ahol D diagonális, L alsó egység-trianguláris és S fels® egység-trianguláris.

Lényegében arról van szó, hogy az R mátrixot átalakítjuk úgy, hogy a f®átlóbeli elemeket kigyüjtük a Dmátrixba. S-t úgy kapjuk, hogy R-t elosztjuk D-vel. Diagonális mátrixnak egyszer¶en számolható az inverze,a f®átlóbeli elemek reciproka.5.13 Segédtétel. Ha az A szimmetrikus mátrixnak létezik LR felbontása, akkor létezik RT R Cholesky-felbontásais.

Bizonyítás. Mivel A szimmetrikus mátrix ezért A = AT és az elöz® segédtételben leírt felbontás létezikLDS = A = AT = (LDS)T = ST DLT

Az egyértelm¶ség csak akkor lehet igaz, ha az L = ST -vel. Tehát √D-t véve (a f®átlóban lév® elemek gyöke)felírható az

A = ST DS = ST√

D√

DS = (ST (√

D)T )(√

DS) = (√

DS)T (√

DS)

amelyb®l az Rdef=√

DS de�nicóval látható az A = RT R Cholesky-felbontás.Ha a R diagonálisában negatív elemek is el®fordulnak, akkor a D mátrix megfelel® elemei tiszta képzetes

számok lesznek, ekkor a Cholesky felbontás komplex mátrixot eredményez.5.14 Tétel. Csak szimmetrikus mátrixnak létezik Cholesky felbontása.

Bizonyítás. Mivel ha létezik az A = RT R, akkorAT = (RT R)T = RT (RT )T = RT R = A

Cholesky-felbontás egyértem¶sége

5.15 Állítás. Ha adott az A = RT R Cholesky felbontás, akkor tetsz®leges olyan diagonális mátrixot véve,amelyre D2 = I, az A = (RT DT )(DR) is érvényes.

Lenyegében ugyan ezt fogalmazza meg a következ® tétel.5.16 Tétel. Tetsz®leges A ∈ Rn×n szimmetrikus reguláris mátrix A = RT R felbontása R sorainak el®jelét®leltekintve egyértelm¶.

Bizonyítás. LegyenA = RT

1 R1 = RT2 R2

az A két különböz® felbontása! Mivel a felbontásban szerepl® minden mátrix reguláris:(RT

2 )−1RT1 = R2(R1)−1

Így a bal oldal alsó a jobb oldal fels® trianguláris, ami csak úgy lehetséges, haD = (RT

2 )−1RT1︸ ︷︷ ︸

B

= R2(R1)−1︸ ︷︷ ︸J

Ekkor viszont

D2 = DDT =

B︷ ︸︸ ︷(RT

2 )−1RT1 (

J︷ ︸︸ ︷R2(R1)−1 )T = (RT

2 )−1 RT1 (RT

1 )−1︸ ︷︷ ︸I

RT2

︸ ︷︷ ︸I

= I

vagyis djj = ±1. Tehát R2 = DR1.

Page 28: Numerikus matematika

AZ RT R CHOLESKY-FELBONTÁS 27

5.17 Tétel. Ha létezik az A valós mátrix A = RT R felbontása, akkor

det(Akk) = det(Ak−1,k−1)r2kk = r2

11r222 · · · r2

nn

Bizonyítás. A (4.4)-es segédtételhez hasonló particionálással4.Az eddigi eredményeket foglalja össze a következ® tétel:

5.18 Tétel. Tetsz®leges valós, szimmetrikus, reguláris A mátrixra a következ® két állítás ekvivalens:

(i) Létezik az A = RT R Cholesky-felbontás.

(ii) det(Akk) 6= 0 bármely 1 ≤ k ≤ n-re.

Bizonyítás. Az el®z® tételek felhasználásával bizonyítható:(i) ⇒ (ii) Az el®z® segédtétel alapján bizonyítható.

(ii) ⇒ (i) Az 5.13 segédtétel és a 4.3 tétel alapján bizonyítható.

Megjegyzés. Ezt az el®adást dr. Csendes Tibor tartotta 1999.10.14-én. Az el®adás nagy mértékben a könyvretámaszkodott.

4a könyvben is csak a korábbi 4.1.4-es segédtételre van hivatkozás

Page 29: Numerikus matematika

Fejezet 6

6.1 Cholesky-felbontás (eddig tanultak összefoglalása)

6.1 Feladat. A kérdés az, hogy ha egy A mátrixot fel tudunk bontani LR alakra és ha ez az A mátrixszimetrikus nem tudjuk-e egyszer¶síteni a felbontást két "azonos" mátrix szorzatára? Erre a kérdésre aCholesky-felbontás a válasz.

Cholesky felbontás arról szól, hogy az A mátrix RT R alakban felbontható-e (azaz két azonos mátrix szorza-tára), és szimmetrikus mátrixok esetében nem tudnánk-e ezt az egész felbontást egyszer¶síteni

1. Ha A reguláris mátrix és ennek az A-nak létezik (és ezt tudjuk, hogy létezik) egy LR felbontása, akkorlétezik az A-nak egy olyan felbontása amit úgy tudunk felírni, hogy LDS. Ahol D digaonális L alsó Sfels® egység trianguláris mátrix tehát az R-ben lév® diagonális elemeket egy D mátrixba rakjuk be.

2. A legyen szimmetrikus, tehát AT = A-val, és reguláris mátrix. A-nak ekkor létezik A = LR felbontása,azonban ekkor A-nak létezik Cholesky-féle felbontása is azaz A el®áll RT R el®állításával. A bizonyításbanaz az érdekes, hogy R

√DS formában áll el®, ahol a √D a diagoniálisokból vont négyzetgyök.

3. Csak szimmetrikus mátrixoknak létezik Cholesky-féle felbontása. Ez azért van mert, ha A-t feltudombontani A = RT R alakban és megnézem, hogy igazából mivel egyenl® AT , akkor azt kapom, hogy A-valegyenl®.

AT = (RT R)T = RT (RT )T = RT R = A

Így csak szimmetrikus mátrixok esetén van annak értelme, hogy Cholesky féle felbontásról beszéljünk.4. Legyen a D egy olyan mátrix, amelyre D2 = I. Ilyen D több létezik hiszen, ha csak egyesek vannak

a f®átlóban és az egyesek el®jelét változtatgatva D-t önmagával megszorozva mindig egység mátrixotkapunk. Tehát D2 = I-nek több megoldása van. Ekkor A = RT R = RT IR = RT D2R = (RT DT )(DR).Mivel D-nek ±1 lehet az el®jele látszik, hogy ez a felbontás nem lehet egyértelm¶, mégpedig az történik,hogy ahol + és - van ott a megfelel® sorok megváltoztatják az el®jelüket. Tehát az lehet kimondani, hogya Cholesky felbontás R sorainak el®jelét®l eltekintve egyértelm¶.

5. R sorainak el®jelét®l függetlenül meghatározható6. Ha az A mátrixnak létezik Cholesky féle felbontása, akkor az Akk aldetermináns úgy határozható meg,

hogy veszem az aldetermináns Ak−1,k−1-et és megszorzom r2kk-el, ebb® a rekurzív de�nícóból az is

következik, hogy det(Akk) úgy határozható meg, hogy veszem az r-ek produktumát.

det(Akk) = det(Ak−1,k−1)r2kk =

k∏i=1

r2ii

7. Az A = RT R Cholesky felbontás, akkor és csak akkor létezik, ha det(Akk) 6= 0. Ha az RT R felbontáslétezik, akkor a 6-ik megfontolás alapján azt modhatjuk, hogy det(Akk) nem 0, mivel ez nem más, mintnégyzetszámok szorzata. A másik irány az LR-ra vontatkozó tétel1 valamint a "Ha A szimmetrikus

1A reguláris mátrixra a következ® két állítás ekvivalens:(i) egyértelm¶en létezik az A = LR felbontás(ii) det(Akk) 6= 0 minden 1 ≤ k ≤ n-re.

28

Page 30: Numerikus matematika

CHOLESKY-FELBONTÁS FOLYTATÁSA 29

mátrixnak létezik LR-felbontása, akkor létezik Cholesky-felbontása is." segédtétel alapján, tehát a 2-ikmegfontolás alapján mondhatjuk azt, hogy det(Akk) 6= 0 következik a az A = RT R Cholesky felbontáslétezése.

6.2 Cholesky-felbontás folytatása

6.2 Következmény. (4.2.6) Ha A diagonális domináns és szimmetrikus (a digagonális domináns mátrixok-ról elmondhatjuk, hogy nem elfajulóak, 2.7. tétel), akkor A-nak létezik Cholesky felbontása (az elöz® tételb®lkövetkez®en).

A 2-es megfontolás esetén azt mondtuk, hogy ha AT = A-val, A-nak létezik LR felbontása, akkor A-naklétezik Cholesky felbontása és az R-et konstruktív módon állítottuk el®, méghozzá azt mondtuk, hogy ez √DSlesz. Ez a D nem más, mint az R-nek a f®átlójában lév® elemei. Ez nem biztos, hogy pozitív el®jel¶, ha nempozitív el®jelü, akkor negatív számból kell gyököt vonni, ami azt jelenti, hogy képzetes számok is el®jönnek aCholesky féle felbontásnál. Tehát ha az A-ról csak azt tudom, hogy ® szimmetrikus és létezik az LR felbontása,ez még nem garantálja azt, hogy valós aritmetikával meg tudom oldani. A következ® tétel erre vonatkozik.6.3 Tétel. (4.2.8) Ha az A-nak létezik A = RT R Cholesky-féle felbontása, akkor R bármely sora vagy valósvagy tiszta képzetes elemekb®l áll.

A √D-vel való szorzás azt jelenti, hogy a f®átló elemei vagy képzetes vagy valós számok (attól függ®en,hogy a f®átlóban pozitív vagy negatív elem volt) és ez azt jelenti, hogy ha megszorzom a mátrixot, akkor aképzetesek éppen a sorokra terjednek ki és a megfelel® oszlopokra.Bizonyítás. Tehát A-t A = RT R módon tudom felírni. Az RT R felbontás egy tesz®leges ajk elemre nézve akövetkez®t jelenti:

ajk =j∑

l=1

rljrlk (6.1)

Ez jelenti azt, hogy a transzponáltal szorzom meg az R mátrixot. Ha k = j-vel:ajj = r1jr1j + r2jr2j + · · ·+ rj−1,j−1rj−1,j−1︸ ︷︷ ︸∑j−1

l=1 r2lj

+rjjrjj

(a) r2jj = ajj −

j−1∑l=1

r2lj

Ha k 6= j-vel:

(b) rjjrjk = ajk −j−1∑l=1

rljrlk

rjj vagy valós vagy tiszta képzetes lesz a szerint, hogy az (a) képlet jobb oldalán pozitív vagy negatív számjönki. Ezután vizsgáljuk a (b) képletet, itt

Kell-e komplex aritmetikát használni? Az állításunk az, hogy nem szükséges, mert az A = RT R helyett azA = ST D2S-t fogjuk használni, ahol a D2 az valós szám lesz és a D nem más, mint az R-eknek a diagonálisábanlév® elemei.

A kérdés továbbiakban az, ha már van ilyen felbontásunk, akkor mit tudunk mondani az egyértelm¶ségr®l?Mikor tudnák biztosítani a Cholesky féle felbontás egyértelm¶ségét? Arra már választ kaptunk, hogy a felbontásel®jelt®l függ®. Ezért, hogy az egyértelm¶séget biztosítsuk, be kell vezetni a kanonikus felbontásnak a fogalmát.6.4 De�níció. Ha A egy n×n-es szimmetrikus mátrix, az A = RT R Cholesky féle felbontást, akkor nevezzükkanonikusnak, ha R valós mátrix, továbbá a f®átl®jában lév® elemek mind pozitívak.

Page 31: Numerikus matematika

CHOLESKY-FELBONTÁS FOLYTATÁSA 30

A következ® tétel a kanonikus felbontás egzisztenciájára és unicitására ad feltételt.6.5 Tétel. Ha A szimmetrikus valós mátrix, akkor a következ® két állítás ekvivalens:(i) egyérelm¶en létezik a Cholesky féle kanonikus felbontás(ii) az aldeterminánsok mind pozitívak (det(Akk) > 0 bármely 1 ≤ k ≤ n-re).

Bizonyítás. (i) ⇒ (ii) Mivel a det(Ann)-r®l tudjuk, hogy az nagyobb, mint nulla, mivel r2-ek szorzata. Innenkövetkezik, hogy det(Akk) > 0, tehát nem fajul el. Gyakorlatilag az egyik lépést elintéztük, a másik lépés azsokkal érdekesebb. Ha det(Akk) > 0,akkor miért mondhatjuk azt, hogy az A = RT R kanonikus felbontás létezikés egyértelm¶?

(ii)⇒ (i)A bizonyítást teljes indukcióval fogjuk végezni. Felvesszük az A mátrixot és felbontjuk A = RT Rszorzatra a következ® módon:

A =(

An−1,n−1 b

bT ann

)=

(RT

n−1,n−1 0rT rnn

)·(

Rn−1,n−1 r0T rnn

)Ahonnan a megfelel® elemekre a következ®k teljesülnek:

An−1,n−1 = RTn−1,n−1Rn−1,n−1 (6.2)

b = RTn−1,n−1r (6.3)

bT = rT Rn−1,n−1 (az elöz® transzponáltja) (6.4)ann = rT r + r2

nn (6.5)Az indukciós feltevés miatt egyértelm¶en létezik a (6.1)-et kielégít® valós reguláris Rn−1,n−1 mátrix. Ekkorviszont a (6.2) lineáris egyenletrendszert az r ismeretlenre megoldva már egyértelm¶en adódik a valós r vektor is,ami kielégíti a (6.3)-at is. Meg kellene oldani az r-re és meg kellene nézni, hogy az r vektor milyen is. Mert annakkellene teljesülnie, hogy ez egy valós szám. (6.4)-b®l rnn-t kifejezve a következ®t kapjuk rnn = +

√ann − rT r.

Be kell látnunk, hogy rnn valós és nagyobb egyenl® min 0. Az A determinánsról tudjuk, hogy határozottannagyobb, mint 0 és a determinánsok szorzástételét kihasználva:

0 < det(A) = det(RTn−1,n−1)rnn det(Rn−1,n−1)rnn = det(Rn−1,n−1)2r2

nn

Mivel mátrix és transzponáltjának determinánsa ugyan az. A kifejezésb®l látszik, hogy nem lehetséges, hogyrnn kisebb legyen, mint 0.

Ezzel azt láttuk, hogy a kanonikus felbontás segít nekünk abban, hogy az egyértelm¶séget biztosíthassuk.A következ®kben általánosabb dolgokkal foglalkozunk. Megvizsgáljuk a Cholesky féle felbontás de�nitséggelszemide�nitséggel való kapcsolatát.6.6 Segédtétel. Tekintsünk egy S valós n×m-es mátrixot (1 ≤ m ≤ n) és ez a mátrix legyen oszlopreguláris(tehát lineáris kombinációkkal az egyik oszlop nem fejezhet® ki a többiek segítségével) ezután képezzük A = ST Smátrixot, ez már m×m-es mátrix lesz, ez a mátrix pozitív de�nit.

Bizonyítás. Az els® megfontolás az, hogy az így kapott A mátrix az szimmetrikus Ez elég egyszer¶ mert csakazt kell megnézni, hogy AT = A?

AT = (ST S)T = ST (ST )T = ST S = A

Az mondható, hogy az ST S az mindig szimmetrikus. A pozitív de�nitséghez azt kell megnézni, hogy az xT Axnagyobb-e, mint 0?

xT Ax = xT (ST S)x = (xT ST )(Sx) = (Sx)T (Sx) = yT y = ‖y‖22 ≥ 0

Egy vektort kaptunk (y), azért mert egy mátrixot szorzotunk vektrorral. Ahhoz, hogy belátsuk a pozitívde�nitséget be kell látni, hogy y = 0 csak akkor lehetséges, ha x = 0. Az y vektor nem más, mint az Sx. AzSx-r®l azt mondtuk, hogy oszlopreguláris, azaz ez egy olyan egyenletrendszer amelyiknek van megoldása. Mivelaz egy nem elfajuló mátrix az ilyennek a 0 megoldása csak akkor léphet fel, ha a másik oldal 0. Ezzel be isfejeztük a bizonyítást mert itt használtuk ki az oszlopregularitásnak a lényegét.

Page 32: Numerikus matematika

QR ORTOGONÁLIS-TRIANGULÁRIS FELBONTÁS 31

6.7 Következmény. Ha az A = RT R valós Cholesky felbontás létezik, akkor A pozitív szemide�nit.

6.8 Tétel. Tetsz®leges A szimmetrikus mátrixra a következ® állítások ekvivalensek:

(i) A pozitív de�nit

(ii) Akk pozitív de�nit

(iii) det(Akk) ≥ 0

(iv) (a Cholesky-felbontás egyértelm¶sége) az A = RT R kanonikus és egyértelm¶

(v) A = ST S, ahol S reguláris mátrix

Bizonyítás.(i)⇒(ii) A-ról azt mondjuk, hogy pozitív de�nit, ekkor xT Ax > 0-nak kell teljesülnie. Ha most tekintünk egyz vektort és a zT Akkz-t, ekkor zT Akkz = yT Ay > 0, az a kérdés, hogy hogyan válaszuk meg ezt az y-t?

yi =

{zi ha i ≤ k

0 ha i > k

(ii)⇒(iii) Akk-ról tudjuk, hogy pozitív de�nit minden k-ra, akkor be kell látni, hogy det(Akk) > 0.Ha Akk pozitív de�nit, akkor azt mondhatjuk az ® sajátérékeir®l, hogy mind pozitív. A determinánsát

pedig úgy lehet kiszámítani sajátértékei segítségével, hogy vesszük a sajátértékek szorzatát. Ebb®l következ®enA determinánsának nagyobbnak kell lennie, mint 0.

det(Akk) =k∏

j=1

λj(Akk) > 0

(iii)⇒(iv) Ha det(Akk) > 0, akkor egyértelm¶en létezik az A = RT R kanonikus felbontás. Ezt viszont márbizonyítottuk a 6.5. tételben. (iv)⇒(v) választható például S = R(v)⇒(i) 6.6 segédtétel következménye, ugyanis ha S reguláris, akkor oszlopreguláris is.

6.3 QR ortogonális-trianguláris felbontás

Az R szokás szerint fels®trianguláris mátrix aminek a f®átlója alatt 0-k szerepelnek. Q egy ortogonális mátrix,transzponáltja éppen az inverzet adja (QT = Q−1).

A különböz® felbontások összefügnek azzal, hogy a különböz® lineáris egyenletrendszerek hogyan oldhatókmeg. Ha a mátrixban egy kis értéket megváltoztatunk, akkor a megoldások hogyan viselkednek? Szemléletesena lineáris egyenletrendszerek megoldása nem más, mint egyenesek metszéspontjának a megkeresése. Ha azegyenesek közel párhuzamosak és egy kicsit megmozgatjuk ®ket, akkor a megoldásokban nagyon nagy változásoklehetnek. A mátrixokat jó lenne jellemezni, hogy mennyire stabilak a felbontásokra, az egyenletrendszerekmegoldására vonatkozólag. Ha ortogonális triangulizációt végzünk el, akkor a stabilitás nagyon nagy fokúszemben a másik esetekkel.6.9 De�níció. Az A = QR felbontásokat nevezzük ortogonális-trianguláris felbontásoknak.

Az egzisztencia nagyon könnyen bizonyítható.6.10 Tétel (Egzisztencia-tétel). Ha A reguláris, akkor létezik a QR-felbontás.

Bizonyítás. Vegyünk egy A reguláris mátrixot és de�niáljuk a B mátrixot Bdef= AT A. AT A szimmetrikus és

pozitív de�nit, tehát B-nek létezik Cholesky-felbonátsa azaz B = RT R. Legyen Q = AR−1. Az a kérdés,hogy Q ortogonális-e? Q ortogonalitásához azt kell igazolni, hogy Q−1 = QT azaz QT Q = I. Tehát ki kellszámítanunk QT Q-t.

QT Q = (AR−1)T (AR−1) = (R−1)T AT A︸ ︷︷ ︸B

R−1 =

= (R−1)T BR−1 = (R−1)T (RT R)R−1 == ((R−1)T RT )(RR−1) = II = I

Page 33: Numerikus matematika

QR FELBONTÁS KISZÁMÍTÁSA 32

A bizonyítás konstruktív, hiszen megadja hogyan kell ezt a felbontás elkészíteni. Vesszük az A mátrixot,megszorozzuk a transzponáltjával és erre csinálunk egy Cholesky felbontást. A felbontás alapján R-nek képezzükaz inverzét amivel A megszorzozzuk és "máris" megkapjuk Q-t. Ez azonban eszméletlen sok m¶veletet igényelnetehát keresni kell egy másik fajta megoldást. El®bb azonban bebizonyítjuk, hogy egyértelm¶ a felbontás.6.11 Tétel (Unicitás). Tetsz®leges A reguláris mátrix QR felbontása Q oszlopainak és R sorainak el®jelét®leltekintve egyértelm¶en meghatározható.

Bizonyítás. Indirekt módon bizonyítjuk. Tegyük fel, hogyA = Q1R1 = Q2R2

Q−12 Q1 = R2R

−11

QT2 Q1 = R2R

−11

a bal oldal ortogonális a jobb oldal fels® trianguláris, ez csak úgy lehetséges, ha V diagonálisV = QT

2 Q1 = R2R−11

Vizsgáljuk V 2-et:V 2 = V V T = (QT

2 Q1)(QT2 Q1)T = QT

2 Q1QT1︸ ︷︷ ︸

I

Q2 = QT2 Q2︸ ︷︷ ︸I

= I

hiszen az ortogonális mátrix transzponáltja megegyezik az inverzével. Tehát vjj = ±1 és Q2 = Q1V , R2 =V R1.

6.4 QR felbontás kiszámítása

Az utosó téma, amivel foglalkozunk az el®adás alatt, hogy hogyan lehet más módon megcsinálni a felbontást,mint a bizonyításban. Ez a módszer a

6.4.1 Gram-Schmidt-féle ortogonalizáció

Legyen A egy reguláris mátrix. Jelöljük A oszlopvektorait a1, . . . , an-el. Mivel ortogonális trianguláris felbontástakarunk végezni, ezét egy QR felbontást kell kapnunk, ahol Q oszlopait jelöljük (q

1, . . . , q

n)-el, R pedig fels®

trianguláris azaz:

(a1, a2, . . . , an) = (q1, q

2, . . . , q

n)

r11 r12 . . . r1n

0 r22. . . r2n... . . . . . . ...

0 . . . 0 rnn

Tehát A mátrix megfelel® elemeit úgy kapjuk, hogy Q-val megszorozzuk ezt az R mátrixot. Írjuk fel ezeket azegyenleteket a szorzás szabályai alapján.

a1 = r11q1

a2 = r12q1+ r22q2

...ak = r1kq

1+ r2kq

2+ · · ·+ rkkq

k

...an = r1nq

1+ r2nq

2+ · · ·+ rknq

k+ · · ·+ rnnq

n

Ezekben az egyenletekben az r-ek és a q-k az ismeretlenek q vektorokról viszont tudjuk, hogy ortogonálisak.

Page 34: Numerikus matematika

QR-FELBONTÁS ALKALMAZÁSAI 33

Az 1. és a 2. egyenlet megoldásaNézzük meg mivel egyenl® az aT

1 a1.Az els® egyenlet alapján:aT1 a1 = r2

11qT1q1

mivel Q ortogonális ezért qT1q1

= 1, tehát ha azt ortonormáltságot is hozzávesszük: aT1 a1 = r2

11. Innenr11 = +

√aT1 a1. aT

1 a1 mindig pozitív, mert a komponensek négyzetösszegével egyenl®. Ekkor q1kifejezhet® az

egyenletb®l:q1

=1

r11a1

Tehát eddig megvan r11 és q1, a kérdés az, hogy hogyan tudunk továbbhaladni?

A második egyenletben nem ismerjük r12-t, r22-t és q2-t. De ha az egyenletet beszorozzuk qT

1-al, akkor mivel

qT1q2

= 0 az ortonormáltság miatt qT1q1

= 1 szintén az ortonormáltság miatt, ezért az egyenlet a következ®kép-pen alakul:

qT1a2 = r12,

azaz r12 meghatározható. q2meghatározásához el®ször határozzuk meg a b2

def= a2 − r12q1vektort. Ekkor

b2 = r22q2, ebb®l az els® egyenletnél látottakhoz hasonlóan adódik, hogy bT

2 b2 = r222, így r22 = +

√bT2 b2 és

q2

= 1r22

b2.

A k. egyenlet megoldásaFeltéve, hogy az el®z® egyenletek meg lettek oldva, azaz 1 ≤ i ≤ j < k-ra q

j-t illetve rij-t már kiszámoltuk.

Ekkor i = 1, 2, . . . , k−1-re az egyenletet balról qTi-al szorozva az összes q elt¶nik, kivéve az rik-val való szorzást,

tehát innen az rik meghatározható Azazrik = qT

iak i = 1, 2, . . . , k − 1

qkmeghatározásához képezek egy bk vektort:

bk = ak − (r1kq1

+ r2kq2

+ · · ·+ rk−1,kqk−1

)

Felhasználva a bk = rkkqkösszefüggést a k-dik egyenlet alapján könnyen igazolható. De ekkor az els®

egyenlethez hasonlóan bTk bk = r2

kk. Így rkk =√

bTk bk és q

k= 1

rkkbk.

Ezzel az eljárással meghatározható a QR felbontás. A m¶veletigény n db gyökvonás és O(n3) aritmetikaim¶velet.

6.5 QR-felbontás alkalmazásai

Vajon hogyan tudunk QR felbontás segítségével lineáris egyenleteket megoldani? Egy lineáris egyenletrendszertakarunk megoldani, azaz egy Ax = a egyenletrendszert. Tudjuk, hogy A-t felbonthatjuk QR alakra azaz(QR)x = a. Az asszociativitás miatt vehetjük a Q(Rx) = a egyenletet. Jelöljük Rx-et y-al, ekkor a

Qy = a

Rx = y

egyenletekhez jutottunk. Mivel QT = Q−1 ezért az y meghatározható y = QT a egyenlet alapján. Ezek utánRx = y egyenletrendszer visszahelyettesítéssel megoldható.

Ha az A mátrix inverzeit akarjuk meghatározni, akkor az A−1 = R−1QT képlet alapján csak egy felülr®ltrianguláris mátrix inverzét kell meghatározni, azonban ez nem ad jelent®s m¶veletcsökkentést a standardalgoritmushoz képest.

Másik jelent®s felhasználás a sajátérték illetve sajátvektor számításnál van.Megjegyzés. Ezt az el®adást dr. Dombi József tartotta 1999.10.21-én. Az el®adás nagy mértékben a könyvretámaszkodott.

Page 35: Numerikus matematika

Fejezet 7

Sajátértékszámítás

Adott A ∈ Cn×n mátrix. Meghatározandó az összes olyan λ ∈ C, amelyekhez van olyan x 6= 0, x ∈ Cn, hogyAx = λx (7.1)

7.1 De�níció. Az ilyen λ számokat A sajátértékeinek nevezzük; a λ-hoz tartozó x-eket a λ-hoz tartozósajátvektoroknak nevezzük.

Ax− λx = 0 (7.2)(A− λI)x = 0 (7.3)

(A−λI)x = 0 homogén lineáris egyenletrendszer x-re nézve⇔ van (nem triviális) megoldása ha det(A−λI) = 0.Ebb®l következik, hogy λ akkor és csak akkor sajátérték, ha det(A− λI) = 0 (A− λI olyan diagonális mátrixmelynek a f®átlójában a diagonális elemekb®l kivonjuk λ-t).7.2 De�níció. PA(λ) def= det(A − λI) az A mátrix karakterisztikus polinomja (n-ed fokú komplex együt-thatós polinom).

A sajátértékei a PA(λ) = 0 egyenletnek a megoldásai lesznek.7.3 Példa. A = ( 1 1

0 1 ) (A− λI) = ( 1−λ 10 1−λ ) PA(λ) = (1− λ)2 = λ2 − 2λ + 1

det(A− λI) = det

a11 − λ a12 . . . a1n

a21 a22 − λ. . . ...

... . . . . . . an−1,n

an1 . . . an,n−1 ann − λ

= (−1)nλn + . . . (7.4)

PA(λ) = (−1)n(λn − α1λn−1 − α2λ

n−2 − · · · − αn−1λ− αn) (7.5)A karakterisztikus polinom gyöktényez®s alakja a következ®képpen néz ki:

PA(λ) = (−1)n(λ− λ1)(λ− λ2) · · · (λ− λn) (7.6)PA(0) = (−1)2nλ1λ2 · · ·λn = det(A) (7.7)

β0λn + β1λ

n−1 + · · ·+ βn

β0(λ− λ1)(λ− λ2) · · · (λ− λn)β0λ

n + · · ·+ β0(−1)nλ1λn︸ ︷︷ ︸βn

34

Page 36: Numerikus matematika

35

7.4 Állítás. Tetsz®leges A mátrixra

(i)n∑

i=1

aii = α1 =n∑

j=1

λj

(ii) (−1)n+1αn = det(A) =∏n

j=1 λj

Bizonyítás.(i) λn−1 együtthatjójának (7.5) (7.4) és (7.6)-beli kifejtéséb®l adódik:

(−1)n(−α1) = (−1)n+1n∑

i=1

aii = (−1)n(−1)n∑

j=1

λj

Ezt még szorozzuk (−1)n+1-el és kész is vagyunk.(ii) (7.5) (7.4) és (7.6)-ben λ = 0-t helyettesítve: PA(0) = det(A− 0I) = det(A) = (−1)nλ1λ2 · · ·λn

7.5 De�níció. Mátrix nyomán a f®átlójában lév® elemek összegét értjük, jele:tr (trace) tr(A) =∑n

j=1 ajj

Egy mátrix akkor és csak akkor szinguláris, ha a sajátértéke 0.A PA(λ) = 0 egyenletre egzakt megoldást nem tudunk adni. Viszont ha egy mátrix trianguláris, akkor a

f®átlóbeli elemei a sajátértékei. Homogén lineáris egyenletrendszerek megoldásai alteret alkotnak, ha van egynemtriviális megoldásuk, akkor végtelen sok van.

A sajátérték multiplicitása:algebrailag: a karakterisztikus polinom hányszoros gyöke;geometriailag: a hozzá tartozó saját altér hány dimenziós.

Szimmetrikus valós mátrixoknak valós sajátértékei vannak.7.6 De�níció. Tetsz®leges T reguláris mátrix esetén az A 7→ T−1AT transzformációt hasonlósági transz-formációnak nevezzük (lehet A 7→ TAT−1 is).7.7 Állítás. A A 7→ T−1AT hasonlósági transzformáció meg®rzi a sajátértékeket.

Bizonyítás. Legyen B = T−1AT

PA(λ) = det(A− λI)

PB(λ) = det(B − λI) = det(T−1AT − λ

I︷ ︸︸ ︷T−1T )

= det(T−1(A− λI)T )= det(T−1) det(A− λI)︸ ︷︷ ︸

PA(λ)

det(T )

= det(T−1) det(T )︸ ︷︷ ︸I

PA(λ)

= PA(λ)

7.8 De�níció. Két mátrix hasonló, ha az egyik hasonlósági transzformációval átvihet® a másikba. Mindenmátrix hasonló önmagával.

Ha két mátrix hasonló, akkor sajátértékeik ugyan azok s a karakterisztikus polinomjaik is, de a fordítottjanem igaz.7.9 Példa. A = ( 1 1

0 1 ) B = ( 1 00 1 ) Mindkett®nek a sajátértéke 1 dupla multiplicitással (n=2) mégsem hasonlók.

7.10 De�níció. A diagonizálható, ha hasonló egy diagonális mátrixhoz.7.11 De�níció. A triangulizálható, ha hasonló egy trianguláris mátrixhoz.

Page 37: Numerikus matematika

36

7.12 Állítás.

(i) Nem minden mátrixot lehet diagonizálni. Pl.: ( 1 10 1 )

(ii) A pontosan akkor diagonizálható, ha van n db lineárisan független sajátvektora (nem elfajuló)

Bizonyítás. Ha az A sajátértékei λ1, λ2, . . . , λn, és egy-egy sajátvektora x1, x2, . . . , xn ekkor:Ax1 = λ1x1, Ax2 = λ2x2, . . . , Axn = λnxn︸ ︷︷ ︸

AX=XD

ahol

X = (x1, x2, . . . xn) D =

λ1

λ2

. . .λn

AX = XD ⇔ X−1AX = D

Ha minden sajátértéke A-nak különböz®, akkor diagonizálható, akkor van n db. lineárisan függetlensajátvektora.7.13 Állítás. A különböz® sajátértékeihez lineárisan független sajátvektorok tartoznak.

Bizonyítás. Indukcióval bizonyítjuk. Ha k = 1, akkor az állítás triviális. Tegyük fel, hogy k-ra igaz az állításvizsgáluk k + 1-re:

λ1, λ2, . . . , λn

x1, x2, . . . , xn

Lineárisan függetlenek lesznek-e? (Lineárisan független, ha csak a triviális lineáris kombinációval állítható el®a 0 vektor.)

A/ α1x1 + α2x2 + · · ·+ αkxk + αk+1xk+1 = 0α1Ax1 + α2Ax2 + · · ·+ αkAxk + αk+1Axk+1 = 0

α1λ1x1 + α2λ2x2 + · · ·+ αkλkxk + αk+1λk+1xk+1 = 0 (7.8)Tekintsük a következ® egyenletet:

α1λk+1x1 + α2λk+1x2 + · · ·+ αkλk+1xk + αk+1λk+1xk+1 = 0 (7.9)Vonjuk ki a (7.7)-b®l (7.8)-at.

α1(λ1 − λk+1)x1 + α2(λ2 − λk+1)x2 + · · ·+ αk(λk − λk+1)xk = 0 (7.10)Így már csak az els® k vektor szerepel az egyenletben. Mivel a sajátértékekr®l feltettük, hogy különböz®ek ezértλi − λk+1 nem adhatják ki a 0-t. Tehát a jobb oldal csak akkor lehet 0, ha α1 = α2 = · · · = αk = 0.7.14 Állítás.

(iii) Ha A minden sajátértéke különböz®, akkor diagoniziálható.

7.15 Állítás. Tetsz®leges A mátrix triangulizálható.

7.16 De�níció. Tetsz®leges A mátrixra a C = AH konjugált transzponált mátrix elemeire cik = aki

7.17 De�níció. Az U mátrix unitér mátrix, ha UHU = I.

Page 38: Numerikus matematika

Fejezet 8

8.1 Mátrixok speciális alakra transzformálása

A következ® tételben azt fogjuk igazolni, hogy tetsz®leges A mátrix hasonlósági transzformációval fels® trian-guláris alakra hozható (trangulizálható). Azaz ennél többet bizonyítunk mégpedig azt, hogy tetsz®leges unitértranszformációval triangulizálható A (az unitér hasonlósági transzformáció stabilabb, a kerekítési hibák jobbanalakulnak).8.1 Tétel (Schur-féle normálforma). Tetsz®leges A ∈ Cn×n-hez van olyan U ∈ Cn×n unitér és R ∈ Cn×n

fels®trinaguláris mátrix, hogy UHAU = R

Bizonyítás. A rendje szerinti teljes indukcióval bizonyítjuk. A rendet n-el szoktuk jelölni.(i) n = 1 ebben az esetben triviálisan 1A1 = R, ahol A és R 1 × 1-es mátrix (azon azonban el lehetne

gondolkodni, hogy miben különbözik egy 1× 1-es mátrix és egy komplex szám).(ii) tegyük fel, hogy az állítás minden n−1-ed rend¶ mátrixra igaz. Legyen A tesz®leges n-ed rend¶ mátrix. A

feladat az, hogy visszavezessük az elöz®re. Nyilván valamilyen partícionálással lehet visszavezetni. Legyenλ1 A-nak valamelyik sajátértéke, x1 olyan sajátvektor, amelyre ||x1||2 = 11 (komplex vektor esetén a kettesnomrát a következ®képpen értelmezzük: ||x1||2 =

√xH

1 x1 ahol xH1 konjugált transzponáltat jelent).

Ekkor a következ®ket mondhatjuk, van a Cn n dimenziós komplex vektortér. Ha vesszük az el®bbi x1-et, akkor ki lehet egészíteni bázissá, s®t többet is lehet mondani: ki lehet egészíteni ortogonális bázissá(páronként mer®legesek a vektorok). Valós vektortérben ezt már tudjuk, hiszen ha veszünk egy nem 0vektort, akkor azt másik n−1 darabbal alkalmas módon ki lehet egészíteni n elem¶ vektorrendszerré, amibázisa Rn-nek, a helyzet ugyan ez Cn-re is. Tehát vesszük az x1-et, ekkor ehhez lehet mondani továbbin− 1 darab vektort, hogy kapjak egy n elem¶ vektorrendszert, ami ortogonális vektorokból áll és bázisaa Cn térnek.Van olyan x1, . . . , xn, hogy Cn ortonormált bázisa (lineárisan függetlenek és páronként mer®legesek),ekkor a következ® teljesül xH

i xj = δij (tehát a skalárszorzat 0 ha i 6= j és 1 ha i = j).Konstruáljuk meg Q(x1, . . . , xn) mátrixot, ahol x1, . . . , xn oszlopvektorok. Mit jelent az, hogy ennek amátrixnak az oszlopvektorai ortonormált rendszert alkotnak? Ez pontosan azt jelenti, hogy QHQ = I.Ez viszont megegyezik azzal, hogy a Q mátrix unitér.Visszakanyarodva a bizonyításhoz, azt modhatjuk, hogy ha vesszük egy tetsz®leges sajátértékét A-nak,megy egy hozzá tartozó normált x1 sajátvektort, akkor ehhez lehet mondani n− 1 olyan további vektort,hogy ha ezeket összerakjuk, akkor kapunk egy unitér mátrixot. Mire jó ez?Számítsuk ki a QHAQ-t, pontosabban ennek az els® oszlopvektorát:

QHA Qe1︸︷︷︸x1

= QHAx1 = QHλ1x1 = λ1 QHx1︸ ︷︷ ︸e1

= λ1e1

1ilyet lehet választani hiszen ha van egy sajátvektorunk akkor azt tetsz®leges nullától különböz® értékkel beszorozva újrasajátvektort kapunk. Ha ez az eredetileg vett sajátvektorra nem teljesült, akkor az ® hosszának a reciprokával kell beszorozni (amivalós konstans), hogy olyan sajátvektort kapjunk, hogy ez teljesüljön. x1 := 1

||x1||2x1 (x1 irányába mutató egységnyi hosszúságú

vektor)

37

Page 39: Numerikus matematika

MÁTRIXOK SPECIÁLIS ALAKRA TRANSZFORMÁLÁSA 38

Tehát azt kapjuk, hogy a mátrix els® oszlopában legfelül λ1 van alatta pedig csupa 0, tehát megadhatóilyen alakban:

QHAQ =

λ1 bT

0 B

B ∈ C(n−1)×(n−1)

és erre a B-re már tudjuk alkalmazni az indukciós feltevést.Az indukciós feltevésb®l következ®en, van olyan S ∈ C(n−1)×(n−1) unitér mátrix és V ∈ C(n−1)×(n−1)

fels® trianguláris mátrix, hogy igaz SHBS = V . Hogyan lehetne ezzel befejezni a bizonyítást? B-re mártudjuk, hogy igaz, de n dimenzós mátrixokkal kellene dolgozni, ekkor ezeket "felfújjuk" csinálunk bel®len dimenziósakat. S helyett és V helyett tekintjük

W =

1 0T

0 S

P =

1 0T

0 V

P is fels®tianguláris és W is unitér lesz. Eddig volt egy hasonlósági transzformációnk Q-val, amivel idáigeljutottunk, alkamazunk még egy hasonlósági transzformációt a W unitér mátrixszal:

WHQHAQW =

1 0T

0 SH

λ1 bT

0 B

1 0T

0 S

Ha most a particionált szorzást elvégezzük akkor az eredmény csak hasonló lehet:

λ1 . . .

0 SHBS

ez már Schur normálalak.

Megjegyzés. Ez nem konstruktív bizonyítás, mivel abból indulunk ki, hogy ismerünk egy sajátértéket. Rangszámcsökkentésre alkalmazható ha ismerjük λ1-et.

A másik bizonyítás azt mondja ki, hogy elemi hasonlósági transzformációkkal triangulizálható egy mátrix.8.2 De�níció. T−1AT elemi hasonlósági transzformáció, ha T egy elemi permutációs mátrix (T = Pij)vagy eliminációs mátrix ( Gj amit egy egységmátrixból úgy kapunk, hogy a j-ik oszlopába eliminációs konstan-sokat írunk).8.3 Tétel. Tetsz®leges A ∈ Cn×n elemi hasonlósági transzformációval triangulizálható

Tehát lehet mondani véges sok permutációs vagy eliminációs mátrixokat, hogy ezekkel egymás után hason-lósági transzformációkat csinálunk és a végén fels®rianguláris mátrixot kapunk. Persze az is igaz, hogy amit avégén kapunk fels® trianguláris mátrixot ahhoz A hasonló, tehát a f®átlójában sajátértékek lesznek.Bizonyítás. Megint a mátrix rendje szerinti indukcióval bizonyítunk.(i) ha n=1 akkor triviálisan igaz

Page 40: Numerikus matematika

MÁTRIXOK SPECIÁLIS ALAKRA TRANSZFORMÁLÁSA 39

(ii) tegyük fel, hogy az állítás igaz tetsz®leges n − 1-ed rend¶ mátrixra. Legyen A tetsz®leges n-ed rend¶mátrix, λ1 a sajátértéke és x1 olyan hozzátartozó sajátvektor, hogy max

1≤i≤n|xi| = |xm|.† Az ötlet az, hogy

a sajátvektor komponenseit rendezük át és küszöböljük ki ahelyett, hogy A-t transzformálnánk. Ha azm-dik komponens maximális abszolút érték¶, akkor P1mx1 esetén egy olyan vektort kapunk amiben felvan cserélve az els® és az m-ik komponens, vagyis a maximális abszolútérték¶ komponens felkerül az els®helyére. Most küszöböljük ki a másodiktól az összes komponenst egy eliminációs mátrixszal.

G1 P1mx1︸ ︷︷ ︸w1

= e1 =

10...0

Mit kell ebbe a G1-be írni? A bal fels® sarkába 1-et alá pedig a w1-ben lév® komponensek −1 szereseit,mert így lesznek a szorzatban 0-k.Egy Gi eliminációs mátrix inverze úgyan úgy néz ki, mint önmaga csakaz i-dik oszlopban az elemek el®jelét kell ez ellentetjére változtatni.Nézzük meg, mi történik, ha ezekkel a mátrixokkal A-n végzünk hasonlósági transzformációt. Permutációsmátrix inverze önmaga.

G1P1mAP1mG−11︸ ︷︷ ︸

C

Jelöljük ezt a mátrixot C-vel. Most is azt kell kihozni, hogy az els® oszlop elemei: λ1 és alatta 0-k. HaT−1AT elemi hasonlósági transzformáció, akkor TAT−1 is az.

Ce1 = G1P1mAP1m G−11 G1︸ ︷︷ ︸

I

P1mx1

= G1P1mA P1mP1m︸ ︷︷ ︸I

x1 = G1P1mAx1

= G1P1mλ1x1 = λ1G1P1mx1 = λe1

Tehát most már lehet alkalmazni az indukciót.Megint levágjuk az els® sort és az els® oszlopot és amit kapunk arra alkalmazzuk az indukciós feltevést.C-t állítsuk el® a következ® formában:

C =

λ1 dT

0 F

F ∈ C(n−1)×(n−1)

Erre az F -re alkalmazhatjuk az indukciós feltevést, tehát van hozzá véges sok trianguláris transzformációami ®t fels® trianguláris alakra hozza. Így ha F helyett a

T−1s . . . T−1

2 T−11 FT1T2 . . . Ts

alkalmazzuk, akkor egy fels® trianguláris W mátrixot kapunk. Legyen

K =

1 0T

0 T

K−1CK =

1 0T

0 T−1

λ1 dT

0 F

1 0T

0 T

=

†ezt el lehet érni hiszen ha nem teljesül a feltétel, akkor itt is lehet normálni. Megkeressük a maximális abszolút érték¶komponensét és ennek az értéknek a reciprokával megszorozzuk a vektor összes komponensét és akkor már olyan vektort kapunkamire ez a feltétel teljesül. Ez az eredetinek (egy nem 0) konstansszorosa, tehát sajátvektor marad.

Page 41: Numerikus matematika

MÁTRIXOK SPECIÁLIS ALAKRA TRANSZFORMÁLÁSA 40

=

λ1 . . .

0 W

= K−1G1P1mAP1mG−11 K

Ezzel a transzformáció sorozattal most egy fels® trianguláris mátrixot kaptunk. Az indukció megmutatta,hogy kaphatunk egy fels® triangulárist, de több volt az állításban, az volt, hogy véges sok elemi hasonlóságitranszformációval kell kapni fels® trianguláris mátrixot. Azonban, ha veszünk egy P elemi permutációsmátrixot vagy egy eliminációs mátrixot és a következ® módon kiegészítjük: ( 1 0T

0 P) akkor újra permutációs

vagy eliminációs mátrixot kapunk.

8.4 De�níció. A ∈ Cn×n hermetikus mátrix, ha AH = A (a szimmetria kiterjesztése komplex esetekre).8.5 Következmény. Ha A ∈ Cn×n hermetikus, akkor A összes sajátértéke valós.

Bizonyítás. A Schur-normálforma alapján UHAU = R, ha még azt is tudjuk, hogy A hermetikus akkor RH =(UHAU)H = UHAH(UH)H = UHAU = R. Azt kaptuk hogy RH = R, R az fels® trianguláris mátrix volt,RH viszont alsó trianguláris, tehát az a kett® csak úgy egyezhet meg ha R diagonális. De még van továbbikitétel is hiszen RH f®átlójában R f®átlójában lév® elemek konjugáltjai vannak azaz a f®átlóban lév® elemekmeg kell, hogy egyezzenek a konjugáltjaikkal azaz a f®átlóban csak valós számok lehetnek (azt meg tudjuk,hogy a f®átlóban a sajátértékek vannak).8.6 Következmény. Minden hermetikus mátrix diagonizálható és választható olyan sajátvektor rendszere, hogyaz egy ortonormált vektorrendszer legyen Cn-ben.

Mikor igaz, hogy van egy valós szimmetrikus mátrix és a sajátértékei pozitívak? Akkor és csak akkor hapozitív de�nit.8.7 De�níció. Az A mátrix pozitív de�nit, xT Ax > 0 tetsz®leges x 6= 0 x ∈ Rn-re és A szimmetrikus.8.8 Állítás. Az A ∈ Cn×n szimmetrikus mátrix akkor és csak akkor pozitív de�nit ha minden sajátértékenagyobb, mint 0.

Bizonyítás. Ennek teljesülnie kell speciálisan akkor is ha mi sajátvektorokat írunk. Legyen λj sajátérték, xj ahozzá tartozó sajátvektor, akkor annak igaznak kell lenni, hogy az

0 < xTj Axj = xT

j λjxj = λj xTj xj︸ ︷︷ ︸>0

.

Ebb®l már következik, hogy λj > 0, tehát ha az A pozitív de�nit akkor minden sajátértéke pozitív. Megfordítvaha azt tudjuk, hogy az A szimmetrikus mátrix és minden sajátértéke pozitív, akkor ® pozitív de�nit. Ezt, hogylehetne megcsinálni?

Vissza kell térnünk a Schur normálforma tételhez, tudjuk, hogy UHAU = D. Ezt az algebrában F®tengely-tételként szokták tisztelni és a következ®képpen szokták felírni:QT AQ = D, ebb®l A-t fejezükk ki, A = QDQT

és ha behehettesítünk, tesz®leges x vektorra irhatjuk: xT QDQT x tekintsük √D-t a következ®képpen D =√D√

D amit megkaphatunk a diaginálisban lév® elemek négyzetgyökeként. xT QDQT x = xT Q√

D︸ ︷︷ ︸yT

√DQT x︸ ︷︷ ︸

y

=

yT y > 0 hiszen y 6= 0, mivel x 6= 0 volt a Q ortonormált mátrix volt ami mellesleg reguláris is és ha egy regulárismátrixal szorzok egy nem 0 vektort akkor nyilván csak nem 0 eredmény lehet és persze √D is reguláris.Megjegyzés. Most már tudunk néhány ekvivalens állítást a pozitív de�nit mátrixokra:• Az A az pozitív de�nit, ha minden sajátértéke pozitív.• Az A az pozitív de�nit, akkor és csak akkor ha van neki valós Cholesky felbontása. Olyan valós Cholesky

felbontása, hogy a f®átlóban pozitív számok vannak.

Page 42: Numerikus matematika

MÁTRIXOK SPECIÁLIS ALAKRA TRANSZFORMÁLÁSA 41

• Az A akkor és csak akkor pozitív de�nit ha minden f®minora pozitív.A sajátérték számításnál szeretnénk valamilyen hasonlósági transzformációkkal

A1 ∼ A2 ∼ · · · ∼ Ak

egyszer¶bb alakra hozni az A-t, úgy hogy a végén Ak valamilyen egyszer¶bb mátrix lenne. Ha az eddigieket arraakarnánk használni, hogy meghatározzuk a sajátértékeket akkor baj van, ha viszont ismerjük a sajátértékeketakkor lehet véges sok transzformációt csinálni úgy, hogy a végén vagy diagonális vagy fels® trianguláris mátrixotkapunk. A gyakorlati sajátérték számítások úgy néznek ki, hogy végtelen sorozatát képezzük a mátrixoknak éshatárértéknek kell lenni valamilyen egyszer¶ mátrixnak.

Page 43: Numerikus matematika

Fejezet 9

Vektornormák, mátrixnormák

Tulajdonképpen két lehet®ség van az egyik az amelyiket most követünk, hogy vektornormákat de�niálunk el®szörés majd azok segítségével különböz® mátrixnormákat, de lehetne fordítva is. A mátrixoknál be fogunk vezetniegy plusz tulajdonságot a mátrixok szorzatára, ami nem minden könyvben szerepel. Vektornormák szorza-tára nem érdemes tulajdonságot bevezetni, mivel szorzatként már nem vektort kapunk eredményül (vektoronoszlopvektort értve).

9.1 Vektornormák

9.1 De�níció. ||.|| vektornorma egy olyan leképezés, amely Rn → R képezi le, ha tetsz®leges x, y ∈ Rn-re ésα ∈ R-re teljesülnek a következ®k:(i) ||x|| > 0, ha x nem a 0 vetktor(ii) ||αx|| = |α| ||x||

(iii) ||x + y|| ≤ ||x||+ ||y|| (háromszög egyenl®tlenség)Megjegyzés. Van egy másik háromszög egyenl®tlenség is, ami úgy szól, hogy két odal különbsége mindig kisebb,mint a harmadik ennek vektoros megfelel®je:(iv) | ||x|| − ||y|| | ≤ ||x− y|| (a "másik" háromszög egyenl®tlenség)

(iv) következik (iii)-ból:||x|| = ||(x− y) + y|| ≤ ||x− y||+ ||y||

Az elejét és a végét tekintve:||x|| − ||y|| ≤ ||x− y|| (9.1)

||y|| = ||(y − x) + x|| ≤ ||y − x||+ ||x||||y|| − ||x|| ≤ ||y − x|| = ||x− y|| (9.2)

(9.1) és (9.2)-b®l következik:| ||x|| − ||y|| | ≤ ||x− y||

Megjegyzés. A 0 vektor normája a 0 szám (mivel (ii) alapján ||00|| = |0| ||0|| = 0).

42

Page 44: Numerikus matematika

MÁTRIXNORMÁK RN×N -BEN 43

Megjegyzés. A (iii)-ban megadott egyenl®tlenséget lehet általánosítani véges sok tag összegére is indkucióval:

||n∑

j=1

xj || ≤n∑

j=1

||xj || tetsz®leges n ∈ N-re

Az üres összeget, n = 0, általában 0-nak vesszük.A következ® lépés az, hogy de�niálunk különféle vektornormákat. Végtelen sokat tudnánk de�niálni.

De�niálunk egy norma családot a következ®képpen:9.2 De�níció. tetsz®leges p ≥ 1 valós számra az ||x||p def= p

√∑ni=1 |xi|p számot az x vektor p-normájának

nevezzük. Kitüntetett értékek:p = 1 : ||x||1 =

∑ni=1 |xi|

p = 2 : ||x||2 =√∑n

i=1 |xi|2

p =∞ : ||x||∞ = max1≤i≤n |xi|

Megjegyzés.

• ||.||1-át szokták Manhattan-normának is nevezni, amikor a komponenseket összeadogatjuk abszolult érték-ben az szemléletesen az a távolság fogalom amikor két dimenzóban csak függ®legesen és vízszintesenmozoghatánk úgy mint ha egy négyzetrácsos utcahálózaton jutnánk el valahova.• ||.||2 a valós euklídészi térben a vektor hossza vagy más néven két pont távolsága (a kezd® és a végpont

távolsága)• ||x||∞ = limp→∞ ||x||p (ezt azonban be kellene bizonyítani), úgy kell értelmezni, hogy ha az x vektor

rögzítjük és vesszük p-knek olyan sorozatát, ami végtelenhez tart és minden egyes p-re kiszámoljuk azx vektornak a p-normáját, akkor valós számok egy sorozatát kapjuk és a végtelen norma ennek a valósszámsorozatnak a határértékével lesz egyenl®.

Megjegyzés. ||.||p valóban vektornorma. Ahol gond lehet az a háromszög egyenl®tlenség1(az els® két tuladon-ság igazolása elég triviális), például a ||.||2-nál a Cauchy-Bunyakovszkij-Schwarz-féle egyenl®tlenség kell azigazolásához.

Amikor már adott egy vektornorma, akkor abból még lehet újabb normákat konstruálni a következ® módon:9.3 De�níció. Ha adott a ||.|| vektornorma és a T reguláris mátrix, akkor de�niáljuk ||x||T def= ||Tx|| normát(és ez tényleg vektornorma).

Ezzel már egyetlen egy vektornormából is lehetne végtelen sok vektornormát csinálni attól függ®en, hogymilyen milyen mátrixokat veszünk, ha különböz® mátrixokat veszünk, akkor különböz® normák lesznek. Mikorkülönböz® két norma? Akkor különböz®, ha van legalább egy olyan vektor, amelyben az egyiknek a normájanem ugyan olyan, mint a másiké.Megjegyzés. Amit idáig leírtunk az a komlex vektorok esetén is igaz.

Hogyan vezethetünk be mátrixnormákat?

9.2 Mátrixnormák Rn×n-ben

9.4 De�níció. ||.||mátrixnorma egy olyan leképezés, amely Rn×n → R képezi le, ha tetsz®leges A,B ∈ Rn×n-re és α ∈ R-re teljesülnek a következ®k:

1A ||.||p normák (iii)-dik tulajdonságát a Minkowski-egyenl®tlenség igazolja:p√∑n

i=1 |xiyi|p ≤ p√∑n

i=1 |xi|P + p√∑n

i=1 |yi|P (A szerkesztget®)

Page 45: Numerikus matematika

MÁTRIXNORMÁK RN×N -BEN 44

(i) ||A|| > 0, ha A nem a 0 mátrix(ii) ||αA|| = |α| ||A||

(iii) ||A + B|| ≤ ||A||+ ||B|| (háromszög egyenl®tlenség)(iv) ||AB|| ≤ ||A|| ||B||

Megjegyzés. A (ii)-es a kakukk tojás, mivel ha azt mondjuk, hogy mátrixokról beszélünk úgy mint mátrixgy¶r¶r®l, akkor tulajdonképpen ilyen m¶velet nincs. Ha a mátrixokat mint lineáris tér elemeit tekintjük,akkor van skalárral való szorzás. Persze értelmezni ezt tudjuk hiszen az αA megfelel annak, hogy A mindenkomponensét megszorozzuk α-val, csak ha valaki ezt nagyon szigorúan veszi, akkor ez nem gy¶r¶ m¶velet. Askalárszorzás megfeleltethet® annak ha veszünk egy diagonális mátrixot és a f®átlójába végig α-t írunk és ezzela diagonális mátrixszal szorzunk, így már gy¶r¶ m¶veletr®l beszélhetünk.

Ahogy a háromszög egyenl®tlenségb®l a vektoroknál levezettük a másik háromszög egyenl®tlenséget úgymost is újra le lehetne vezetni. Hogy ne kelljen ezeket megismételni, ahhoz lehetne csinálni egy huszárvágást.Ezek az n×n-es mátrixokat úgy tekintjük, mint a mátrixgy¶r¶ elemit, de ha azt csináljuk, hogy az A mátrixhozhozzárendelünk egy n2 komponens¶ vektort úgy, hogy leírjuk a komponenseit valamilyen rögzített sorrendbenpéldául sorfolytonosan, akkor ezzel kölcsönösen egyértelem¶ módon hozzá lehet egy n × n mátrixhoz rendelniaz n2 dimenziós lineáris tér egy elemét.9.5 Példa. Ha n = 2 és ( a11 a12

a21 a22 ) ehhez hozzárendeljük a (a11, a12, a21, a22)T , akkor az ilyen fajta hozzárendeléskölcsönössen egyértelm¶ hozzárendelés az összes n× n-es mátrix és az összes n2 komponens¶ vektort között.

Ha mátrixnormákkal szeretnénk foglalkozni tulajdonképpen vissza lehet játszani a vektornormákra, ha aztmondjuk, hogy ha van egy mátrixnormánk n× n-es mátrixgy¶r¶ben, akkor az n2 lineáris térben vektornormalesz, úgy értve, hogy értve, hogy a példában szerepl® vektornak a normáját úgy értelmezzük, mint a hozzátartozó mátrixnak a normáját. Mivel az (i) − (iii) feltételek mátrixok és vektorok esetében ugyanúgy nézettki azért, ha van egy mátrinormánk akkor az vektornorma lesz az n2 dimenziós lineáris téren is, ezért nem kellmindent újra bizonyítani. Tesz®leges mátrixnorma vektornorma is lesz. Visszafelé már nem igaz, tetsz®legesvektornorma nem lesz mátrixnorma, a (iv)-k tulajdonság miatt.

Mátrix normákat más módon de�niálunk, mint vektornormákat. Megmutatjuk, hogy viszonylag egyszer¶en,hogy lehet mátrixnormákat gyártani vektor normákból.

Származtatott mátrixnormák

9.6 De�níció. Adott vektornorma esetén a bel®le származtatott mátrixnormát így de�niáljuk: tetsz®legesA ∈ Rn×n mátrixra:

||A|| def= supx6=0

||Ax||||x||

Az hogy ez tényleg mátrixnorma be kellene bizonyítani, most csak kijelentjük, hogy ezt tényleg mátrixnorma.9.7 Állítás. A 9.6 de�nícióban valóban mátrixnormát kapunk.

9.8 Állítás.||A|| = sup

x6=0

||Ax||||x||

1.= maxx6=0

||Ax||||x||

2.= max||x||=1

||Ax||

Az, hogy az 1. egyenl®ség igaz nem olyan triviális. Itt arról van szó, hogy van a valós számoknak egyrészhalmaza ami ilyen hányadosokként kijön, azt állítottuk, hogy van supremuma2. Attól hogy van supremumaegy számhalmaznak nem olyan biztos, hogy van maximuma, ha van maximum, akkor az a supremum. A 2.egyenl®séget is bizonyítani kell.

Miért szokták operátor normaként is emlegetni ezt a de�níciót? Azért mert ha vesszük a n dimenzióslineáris teret, akkor tetsz®leges rögzített mátrixra mondhatjuk, hogy az egy leképezést indukál (x → Ax),ilyen értelemben operátor az A. Leképezés normája valami olyasmi, hogy maximálisan hányszorosára tudmegnyújtani egy leképezés egy nem 0 vektort.

2supremum, legkisebb fels® korlát: ha A felülr®l korlátos számhalmaz, akkor fels® korlátai között létezik legkisebb.

Page 46: Numerikus matematika

MÁTRIXNORMÁK RN×N -BEN 45

Hogy lehet egy adott vektor irányába mutató egységvektort megadni? Van valamilyen x vektor, akkor xvektorhoz hozzá lehet rendelni az ® irányába mutató egységvektort xe = 1

||x|| ||x||, az igaz, hogy egységvektormivel ebben a normában 1 a normája (||xe|| = 1). A hagyományos értelemben vett egységvektorok esetén, ei-kis minden normában 1 lesz.9.9 Állítás.

||A||11.= max

1≤j≤n

n∑i=1

|aij | "oszlopnorma"

||A||∞2.= max

1≤i≤n

n∑j=1

|aij | "sornorma"

Az 1.-t úgy számoljuk, hogy veszünk valamilyen rögzített j-t, rögzített j mellett a j-ik oszlop elemeinekabszolultértékes összegét vesszük, és az oszlop összegeknek vesszük a maximumát. A 2.-nál megcseréljük asorok oszlopok szerepét (sor összegek maximuma).9.10 De�níció. %(A) = max

1≤i≤n|λi| az A mátrix spektrálsugara.

Tehát a spektrálsugár a sajátértékek abszolút értékének a maximuma. λi-k (a sajátértékek) a karakter-isztikus polinom gyökei a komplex számsíkon. Azért nevezik spektrálsugárnak a 9.10 de�nícióban megadottfogalmat, mivel szemléletesen megfelel a legkisebb sugarú olyan körnek a komplex számsíkon amely tartalmazzaaz összes sajátértéket.

||A||2 =√

AT A "spektrálnorma"

Ezt nem lehet minden esetben számítani.Mi van akkor ha A szimmetrikus mátrix? Akkor az összes sajátértéke valós. AT A = A2, A2 mátrix

sajátértékei az A sajátértékeinek a négyzetei. Ha A szimmetrikus, akkor ||A||2 = %(A)

9.11 De�níció. A következ® mátrixnormák nem származtatottak:

(i) ||A||F =√ ∑

1≤i,j≤n

|aij |2 Frobénius-norma

(ii) ||A||M = n max1≤i,j≤n

|aij |

Be lehet látni direkt számolással, hogy mindkett® mátrixnorma és azt is be lehet látni, hogy egyik semszármaztatott. Minden származtatott normánál az egység mátrix normája 1. Itt látszik, hogy nem 1 azegységmátrix normája. (i)-nél az összes négyzetösszegének a négyzetgyökét kell venni, ami egységmátrik esetén√

n , (ii)-nél pedig az n-es szorzó miatt nem lesz az egységmátrix 1 (kivéve az egy dimenziós esetet).Meglehetne még ezeket a normákat is sokszorozni. Ha van egy reguláris mátrixnormánk és egy reguláris

mátrixunk, akkor hogyan lehet az ahhoz tartozó újabb normát de�niálni?9.12 Kérdés. Mi lesz az ||A||T = supx6=0

||Ax||T||x||T =?

Ez az a T norma amit a vektormáknál de�niáltunk.Egy másik fajta kapcsolatot is de�niálunk egy vektornorma és egy mátrixnorma között (egyik fajta kapcsolat

volt a származtatás). Egy másik kapcsolat a kompatibilitás. A kompatbilitás jó lesz arra, hogy különböz®egyenl®tlenségeket becsléseket tudjunk manipulálni.9.13 De�níció. A ||.||v vektornorma és az ||.||m mátrixnorma kompatibilis, ha tetsz®leges x-re és A-ra

||Ax||v ≤ ||A||m||x||v

Page 47: Numerikus matematika

A SPEKTRÁLSUGÁR ÉS A MÁTRIXNORMÁK KAPCSOLATA 46

Egy kicsit hasonlít a (iv) negyedik tulajdonságra, de ez nem annak a következménye.9.14 Példa. A ||.||2 vektornorma kompatibilis a ||.||F mátrixnormával.(i) Minden vektornorma kompatibilis a bel®le származtatott mátrixnormával.

||Ax|| = ||Ax||||x||

||x|| ≤(

maxx6=0

||Ax||||x||

)||x|| = ||A|| ||x||

Ennek a következménye, hogy minden vektornormához megadható vele kompatibilis mátrixnorma (példáulamit bel® le származtatunk, de lehet több ilyen is).

(ii) Tetsz®leges mátrixnormához megadható vele kompatibilis vektornorma. De�niáljunk a következ®képpenegy vektornormát: ||x||v def= ||x 0 . . . 0︸ ︷︷ ︸

n-1 db||m, be lehet bizonyítani, hogy így tényleg vektornormát kapunk.

9.3 A spektrálsugár és a mátrixnormák kapcsolata

Az el®z®ek segítségével be lehet bizonyítani a spektrál sugárra egy fels® korlátot. Mátrix norma végtelen sokvan, bebizonyítjuk, hogy tetsz®leges mátrixnak a spektrálsugara kisebb vagy egyenl®, mint tetsz®leges normája.9.15 Állítás. Tetsz®leges A-ra és ||.||m-ra igaz a %(A) ≤ ||A||m egyenl®tlenség.

9.16 Példa. Legyen A = ( 1 20 1 )

%(A) ≤ ||A||∞ = 3%(A) ≤ ||A||1 = 3

%(A) ≤ ||A||F =√

6

Ez a példa nem túl jó (hiszen jelen esetben ismerjük a sajátértékeket mivel fels® trianguláris mátrixról van szó),ahhoz képest, hogy %(A) = 1 ezek nem túl jó korlátok.Bizonyítás. Legyen adott A és legyen adott ||.||m, legyen ||λl|| = %(A) (1 ≤ l ≤ n) (azaz λl a legnagyobbabszolút érték¶ sajátérték) és Axl = λlxl (tehát a λl-hez tartozó egyik sajátvektor az xl). Most vegyünk ezzela mátrixnormával kompatibilis vektornormát, legyen ||.||v az adott mátrixnormával kompatibilis vektornorma,ekkor a következ®t lehet csinálni:

|λl| ||xl||v = ||λlxl||v = ||Axl||v ≤ ||A||m||xl||v

Ha a két szélét nézzük és leosztunk ||xl||v-val (megtehetjük mivel ||xl|| > 0), akkor megkapjuk, hogy |λl| ≤||A||m, amib®l már következik a tétel.

9.4 Normák ekvivalenciája

9.17 De�níció. A ||.|| és ||.||∗ vektornormák ekvivalensek , ha léteznek olyan csak a két normától függ®γ∗, δ∗ kostansok, hogy tetsz®leges x ∈ R-re

γ∗||x||∗ ≤ ||x|| ≤ δ∗||x||∗

9.18 Állítás. A vektornormák ekvivalenciája ekvivalencia reláció.

Tehát re�exív, szimmetrikus, tranzitív. Minden norma ekvivalens sajátmagával, fel lehet cserélni a kétnormát.9.19 Állítás. Bármely két vektornorma ekvivalens.

Page 48: Numerikus matematika

NORMÁK EKVIVALENCIÁJA 47

Elég belátni, hogy tetsz®leges vektornorma, ekvivalens egy darab rögzítt vektornormával (például ||.||1-val).9.20 De�níció. A ||.|| és ||.||∗ mátrixnormák ekvivalensek, ha léteznek olyan csak a két normától függ®γ∗, δ∗ kostansok, hogy tetsz®leges A ∈ Rn×n-re

γ∗||A||∗ ≤ ||A|| ≤ δ∗||A||∗

9.21 Állítás. A mátrixnormák ekvivalenciája ekvivalencia reláció.

9.22 Állítás. Bármely két mátrixnorma ekvivalens.

Legközelebb folytatjuk azzal, hogy ez az ekvivalencia miért jó, akkor amikor a határértékeket vizsgáljuk.

Page 49: Numerikus matematika

Fejezet 10

Vektorsorozatok és mátrixsorozatok

10.1 Vektorsorozatok

10.1 De�níció. Az {xk} vektorsorozat konvergens , ha megadható olyan vektor, amellyel limk→∞ x(k)i = x∗i

teljesül bármely 1 ≤ i ≤ n-reRöviden, akkor mondjuk egy vektors sorozatra, hogy konvergens, ha komponensenként konvergens. Ha ez a

határérték létezik, akkor egyértelm¶.A vektornormák segítségével is lehet a konvergenciát de�niálni.

10.2 De�níció. Az {xk} vektorsorozat konvergens, ha van olyan x∗ amelyre limk→∞ ||x∗ − xk|| = 0 (Ez ade�níció független a választott vektornormától a normák ekvivalenciája miatt.)10.3 Állítás. A konvergencia két de�níciója ekvivalens.

A vektorsorozat de�níciója általánosítása a valós számsorozatoknak, hiszen amikor n = 1 (egy dimenziós atér), akkor számsorozatokat kapunk. A két de�níció tulajdonképpen a xk → x∗ ⇔ |xk−x∗| → 0 ekvivalenciábóladódik, csak az abszolút érték helyett normák vannak.Bizonyítás. Az állítást elegend® a végtelen normára bizonyítani. Azt kellene belátni, hogy:

∀1 ≤ i ≤ n limk→∞

x(k)i = x∗i ⇔ lim

k→∞max |x∗i − x

(k)i | = 0

mlim

k→∞|x∗i − x

(k)i | = 0

Ezután az állítás után már mindegy, hogy melyik de�níciót használjuk. Bizonyos értelemben a másodika kényelmesebb, mivel az els®nél a vektorsorozat konvergenciáját n db valós szám sorozat konvergenciájáravezettük vissza. A másodiknál 1 db valós számsorozatot kell csak nézni.10.4 Állítás.

(i) Ha az xk → x∗ és yk→ y∗, akkor xk + y

k→ x∗ + y∗

(ii) Ha az xk → x∗ és αk → α∗, akkor αkxk → α∗x∗

Bizonyítás.

(i) szükséges és elegend® azt megmutatni, hogy ||x∗ + y∗ − (xk + yk)|| → 0

0 ≤ ||(x∗ − xk) + (y∗ − yk)|| ≤ ||x∗ − xk||︸ ︷︷ ︸

↓0

+ ||y∗ − yk||︸ ︷︷ ︸

↓0

→ 0

48

Page 50: Numerikus matematika

MÁTRIXSOROZATOK 49

(ii)0 ≤ ||α∗x∗ − (αkxk)|| = ||(α∗x∗ − α∗xk) + (α∗xk − αkxk)|| ≤ |α∗| ||x∗ − xk||︸ ︷︷ ︸

↓0

+ |α∗ − αk|︸ ︷︷ ︸↓0

||xk||︸ ︷︷ ︸korlátos

→ 0

10.5 Következmény. Ha xk → x∗, akkor ||xk|| → ||x∗||

Bizonyítás. Felhasználva a második háromszög egyenl®tlenséget ((iv)-es tulajdonság): Ha xk → x∗, akkor||xk − x∗|| → 0 de

0 ≤ | ||xk|| − ||x∗|| |︸ ︷︷ ︸m

||xk|| → ||x∗||

≤ ||xk − x∗|| → 0

10.6 Alkalmazás. Lineáris egyenletrendszerek közelít® megoldásinál, közelít® megoldások sorozatát fogjukképezni és az lesz a kérdés, hogy ez a sorozat konvergál-e a megoldáshoz.

10.2 Mátrixsorozatok

10.7 De�níció. Az {Ak} ∈ Rn×n mátrixsorozat konvergens, ha megadható olyan A∗ mátrix, amellyellimk→∞ a

(k)ij = a∗ij teljesül bármely rögzített 1 ≤ i, j ≤ n-re

Tehát konvergens egy mátrixsorozat, ha komponensenként konvergens. Így tulajdonképpen n2 darab valósszámsorozat konvergenciáját vizsgáljuk.10.8 De�níció. Az {Ak}mátrixsorozat konvergens, ha van olyan A∗ mátrix amelyre limk→∞ ||A∗−Ak|| = 0(Ez a de�níció is független a választott mátrixnormától a normák ekvivalenciája miatt.)

Kölcsönösen egyértelm¶ leképéezés lehet megadni Rn×n ⇔ Rn2 között, úgy hogy valamilyen �x sorrendbenlírjuk az n2 komponenst. Az látszik, hogy ha tekintünk egy mátrixsorozatot az akkor és csak akkor leszkonvergens, ha mint vektorsorozat konvergens. Ez alapján a két de�níció a mátrixsorozatoknál is ekvivalens.Viszont a mátrix gy¶r¶ben vannak olyan m¶veletek melyek a vektorok esetében nem voltak.10.9 Állítás. Tetsz®leges {Ak}, {Bk} mátrixsorozatra és α valós számra

(i) Ha az Ak → A∗ és Bk → B∗, akkor Ak + Bk → A∗ + B∗

(ii) Ha az Ak → A∗, akkor αkAk → α∗A∗

(iii) Ha az Ak → A∗ és Bk → B∗, akkor AkBk → A∗B∗

Bizonyítás.

(i) szükséges és elegend® azt megmutatni, hogy ||A∗ + B∗ − (Ak + Bk)|| → 0

0 ≤ ||(A∗ −Ak) + (B∗ −Bk)|| ≤ ||A∗ −Ak||︸ ︷︷ ︸↓0

+ ||B∗ −Bk||︸ ︷︷ ︸↓0

→ 0

(iii) szükséges és elegend® azt megmutatni, hogy ||A∗B∗ −AkBk|| → 0

0 ≤ ||AkBk −A∗B∗|| = ||(AkBk −AkB∗) + (AkB∗ −A∗B∗)||≤ ||AkBk −AkB∗||+ ||AkB∗ −A∗B∗|| = ||Ak(Bk −B∗)||+ ||(Ak −A∗)B∗||≤ ||B∗|| ||A∗ −Ak||︸ ︷︷ ︸

↓0

+ ||B∗ −Bk||︸ ︷︷ ︸↓0

||Ak||︸ ︷︷ ︸korlátos

→ 0

Page 51: Numerikus matematika

SAJÁTÉRTÉKEK KORLÁTAI; GERSGORIN-TÉTEL 50

(iii) ⇒(ii) αk helyett vehetünk egy olyan diagonális mátrixot melynek a f®átlójában végig αk komponensekszerepelnek.

10.10 Állítás. Tetsz®leges {Ak} és {Tk} mátrixsorozatra

(iv) ha Ak → A∗-hoz és A∗ reguláris (tehát A∗−1létezik), akkor (Ak)−1 → (A∗)−1

(v) ha Ak → A∗-hoz, akkor det(Ak)→ det(A∗)

(vi) (a) ha Ak → A∗ és T reguláris, akkor T−1AkT → T−1A∗T

(b) ha Ak → A∗, Tk → T ∗ és T ∗ reguláris, akkor T−1k AkTk → (T ∗)−1A∗T ∗. Ez az állítás az el®z®ekb®l

következik.

(vii) Ha Ak → A∗, akkor tetsz®leges l ∈ N-re (Ak)l → (A∗)l

10.3 Sajátértékek korlátai; Gersgorin-tétel

10.11 Állítás. Ha A sajátértékei λ1, λ2, . . . , λn akkor

(i) Al sajátértékei λl1, λ

l2, . . . , λ

ln

(ii) αA sajátértékei αλ1, αλ2, . . . , αλn

(iii) P (A) sajátértékei P (λ1), P (λ2), . . . , P (λn)

P (A) valamilyen l-ed fokú polinom, azt jelenti, hogy α0xl + α1x

l−1 + · · · + αl−1x + αl tetsz®leges P (x)polinom esetén az x-ek helyére be kell helyettesíteni az A mátrixot, így

P (A) = α0Al + α1A

l−1 + · · ·+ αl−1A + αlI

Az így számított P (A) egy mátrix lesz.Tehát (iii) arra vonatkozik, hogy ha veszünk egy tetsz®leges valós együtthatós polinomot és kiszámoljuk a

P (A) polinomot, akkor P (A) sajátértékeit úgy kapjuk meg, hogy ugyanabba a P polinomba behelyettesítjük asajátértékeket. Ez a legáltalánosabb állítás, a többi ennek speciális esete.

(iii)-t lehet fokszám szerinti teljes indukcióval bizonyítani úgy, hogy kétfeléválasztjuk P (A)-tP (A) = α0A

l + (α1Al−1 + · · ·+ αl−1A + αlI)

és innen az els® két állítás segítségével adódik a bizonyítás. Ehhez azonban be kell bizonyítani (i)-t és (ii)-t.Bizonyítás. (i)-t l szerinti teljes indukcióval bizonyítjuk. Ha feltesszük, hogy l − 1-re igaz, akkor

Alxj = A(Al−1xj) = A(λl−1j xj) = λl−1

j Axj = λl−1j λjxj = λl

jxj

(ii) α(Axj) = αλjxj

10.12 Állítás. ha A sajátértékei λ1, λ2, . . . , λn és λj 6= 0 (magyarul a 0 nem sajátérték), akkor

(iv) A−1 sajátértékei 1λ1

, 1λ2

, . . . , 1λn

.

Azt könnyen lehet látni, hogy egy A mátrixnak a 0 pontosan, akkor lesz sajátértéke ha A szinguláris (det(A)a sajátértékek szorzata).Bizonyítás. (iv)

Axj = λjxj ⇔ xj = λjA−1xj ⇔

1λj

xj = A−1xj

amit már lehet úgy olvasni, hogy az A−1 mátrixnak a sajátvektora az xj és a hozzá tartozó sajátérték 1λj

Page 52: Numerikus matematika

SAJÁTÉRTÉKEK KORLÁTAI; GERSGORIN-TÉTEL 51

Ha A reguláris mátrixra feltesszük, hogy A−l def= (A−1)l, akkor mondhatjuk, hogy A−l sajátértékei λl1, λ

l2, . . . , λ

ln

Már bizonyítottuk, hogy tetsz®leges A-ra és tetsz®leges mátrixnormára %(A) ≤ ||A||. Ehhez kapcsolódótételeket veszünk.10.13 Tétel.

Ak → 0 ⇔ ||A|| < 1Ak → 0 ⇔ %(A) < 1

El®ször azt fogjuk bizonyítani, hogy a két állítás ekvivalens egymással.10.14 Állítás. %(A) < 1 akkor és csak akkor, ha van olyan normája az A-nak, hogy ||A|| < 1.

A 10.14 állítás bizonyításához vesszük a következ® tételt.10.15 Állítás. Tetsz®leges A mátrixhoz és ε > 0 megadható olyan (A-tól és ε-t®l függ®) ||.|| mátrixnorma,amelyre

%(A) ≤ ||A|| ≤ %(A) + ε︸ ︷︷ ︸77. oldal

%(A) ≤ ||A||-t pedig már bizonyítottuk.A 10.15 állításból a 10.14 már triviálisan következik hiszen, ha az ||A|| < 1 akkor a %(A) < 1 is. Másik

irányba, ha a %(A) < 1, akkor lehet úgy választani azt a ε > 0-t, hogy %(A) + ε is kisebb legyen mint 1.Bizonyítás. A 10.13-es tétel bizonyítása:Ha Ak → 0, akkor . . . (ez a nehezebbik fele Jordan-normával kellene bizonyítani vagy macerásan a Schur-normálformával).Ha ||A|| < 1, akkor Ak → 0. Ez a fele a bizonyításnak sokkal könnyebb hiszen rögtön lehet azt csinálni, hogy:

0 ≤ ||Ak|| ≤ ||A||k → 0

Ezzel már készen is vagyunk hiszen qk → 0 akkor és csak akkor teljesül, ha q < 1, itt viszont A-ra elevekikötöttük, hogy ||A|| < 1.10.16 Tétel (Gersgorin-tétel). Tetsz®leges A mátrix esetén A összes sajátértéke benne van az

⋃ni=1 ki hal-

mazban, ahol

ki = {x : |x− aii| ≤n∑

j=1j 6=i

|aij |

︸ ︷︷ ︸sugár

}

10.17 Példa.

A =

−2 1 31 1 −5−2 1 3

A tétel köröket de�niál a komplex síkon. A diagonális elemek lesznek a körök középpontjai (x = −2, x = 1,x = 3)és a diagonálison kívül lev® elemek abszolút értékes összege lesz a kör sugara (−2 körül 4, 1 körül 6, 3körül 3 sugarú kört kapunk). A tétel az állítja, hogy az összes sajátérték benne van a körök egyesítésében.Bizonyítás. Legyen λj tetsz®leges sajátérték, az hogy benne van ebben az egyesítésben úgy is kifejezhet®, hogytetsz®leges j-hez van olyan i, hogy a λj benne van a ki-ben. Ekkor a Bj

def= A − λjI mátrix szinguláris (ez asajátérték de�níciója). A diagonális dominanciánál bebizonyítottuk, hogy ha egy mátrix diagonális domináns,akkor reguláris. Ezt az állítást meg is lehet fordítani azaz ha egy mátrix szinguláris akkor nem diagonálisdomináns. Ezért Bj nem diagonális domináns. Azaz van olyan i (1 ≤ i ≤ n) hogy:

|bii| ≤n∑

j=1j 6=i

|bij | ⇔ |aii − λj | ≤n∑

j=1j 6=i

|aij |

Page 53: Numerikus matematika

Fejezet 11

Tetsz®leges A mátrixnak van Schur-normálalakja. Tehát tetsz®leges A mátrixhoz van olyan Q unitér mátrixhogy:

QHAQ = R =

λ1 r12 . . . r1n

0 λ2. . . ...

... . . . . . . rn−1,n

0 . . . 0 λn

Bizonyos esetekben lehet olyat is csinálni, hogy:

T−1AT = D =

λ1 0 . . . 0

0 λ2. . . ...

... . . . . . . 00 . . . 0 λn

Ilyet akkor és csak akkor lehet csinálni, ha az A mátrixnak van egy nem elfajult sajátvektor rendszere, tehát vann darab lineárisan független sajátvektora. Ha numerikusan akarunk sajátértékeket meghatározni, akkor a valam-ilyen el®bb említett formát kellene elérni. A baj az, hogy ezek bizonyításánál felhasználtuk a sajátértékeket.Azért sem sikerülhet, hogy tesz®leges mátrixra véges sok hasonlósági transzformációval a fent említett két alakvalamelyikét elérjük, mert a sajátértékek megoldása az algebrai egyenletek meghatározásával ekvivalens feladatamir®l pedig tudjuk, hogy algoritmikus úton nem meghatározható.

Tehát valamilyen közelít® sajátérték számítást csinálunk, de a minta ez lenne. Két irányba lehet általánosí-tani, az egyik az lenne, hogy nem pont ilyen alakokat próbálnánk elérni, hanem ehhez hasonlót, ilyen lehet afels® Hessenberg alak. Tehát valami ilyesmit próbálunk, hogy:

T−1AT = H =

h11 h12 . . . . . . h1n

h21 h22 . . . . . . h2n

0. . . . . . ...

... . . . . . . . . . ...0 . . . 0 hn,n−1 hnn

Kérdés lehet, hogy tesz®leges A mátrixot tudunk-e ilyen alakra hozni (a sajátértékek ismerete nélkül véges soklépésben)? Ilyet tudunk csinálni. Miért akarnánk Hessenberg alakra hozni hiszen a H-nak semmit sem tudunka sajátértékeir®l csak azt, hogy ugyan azok a H és az A sajátértékei? Azért szokták Hessenberg alakra hozni amátrixot mivel, ilyen alakra a kés®bbi algoritmusok könnyebben alkalmazhatók.

Egy másik lehet®ség lesz az, hogy megpróbáljuk az A mátrixot tridiagonális alakra hozni szintén hasonlósági

52

Page 54: Numerikus matematika

HATVÁNY MÓDSZER 53

transzformációval.

T−1AT = S =

s11 s12 0 . . . 0

s21 s22. . . . . . ...

0. . . . . . . . . 0

... . . . . . . . . . sn−1,n

0 . . . 0 sn,n−1 snn

A tridiagonális alakra hozást csak akkor szokták ajánlani, ha az A mátrix szimmetrikus volt és ilyenkor meglehet mutatni, hogy S szimmetrikus lesz. Ennek is csak annyi az el®nye, hogy egy ilyen mátrixra mégkönnyebbalkalmazni a kés®bb bemutatandó algoritmusokat. Egy régi algoritmus a következ®

11.1 Hatvány módszer

A hátvány módszernél és az el®z® alapgondolaton alapuló módszereknél úgy határozzuk meg a sajátértékeket,hogy vektorsorozatokat számolunk és majd azokkal manipulálunk. A többi algoritmusnál mátrix sorozatokatszámolunk, tehát a fent említett alakokakat végtelen mátrixsorozatokkal közelítjük.

Van egy A mátrixunk és ennek a sajátértékeit szeretnénk meghatározni. A sajátértékeket indexezzük megolyan módon, hogy |λ1| ≥ |λ2| ≥ · · · ≥ |λn|. Választunk egy tetsz®leges v0 kezd®vektort utánna pedig számoljuka következ® iterációs sorozatot:

vk+1def= Avk

ebb®l kapunk egy vektorsorozatot {v0, v1, v2, . . . , vk}

11.1 Állítás. vk = Akv0 tetsz®leges k ∈ N-re.

Bizonyítás. k-szerinti teljes indukcióval bizonyítjuk. k = 1-re igaz, tegyük fel, hogy k-ra igaz és vizsgálukk + 1-re:

vk+1 = A(vk) = A(Akv0) = Ak+1v0

Legyen A szimmetrikus, ekkor van ortonormált sajátvektor rendszere {x1, x2, . . . , xk}. Mivel ez egy ortonor-mált rendszer ezért bázist is alkot a vektortérben térben úgy hogy akármilyen kezd®vektorból indultunk ki aztfel lehet írni ezek lineáris kombinációjaként.

v0 = α1x1 + · · ·+ αnxn

vk = Akv0 = α1Akx1 + · · ·αnAkxn = α1λ

k1x1 + · · ·+ αnλk

nxn

Tudjuk azt, hogy a vk-t így fel lehet írni, de nem ismerjük se az α-t se a λ-t se az x-t. A vicc az benne, hogynem is kell ismerni mivel abból, hogy van egy ilyen el®állítása lehet valamit kihozni a sajátértékekre pusztánúgy, hogy a v sorozatot nézzük.

Vegyük avT

k vk = (α1λk1x1 + · · ·+ αnλk

nxn)T (α1λk1x1 + · · ·+ αnλk

nxn)-t.Tudjuk azt, hogy az xi-k ortonormált rendszert alkottak. Két n tagú összeg van ezért mindent mindennel összekellene szorozni, de mivel ortonormált rendszert alkottak ezért ha különböz® index¶eket veszünk ki az els®b®l,mint a másodikból akkor mindig 0-t kapunk. Vagyis ténylegesen csak a következ® szorzatokat kell felírni.

= α21λ

2k1 xT

1 x1︸ ︷︷ ︸1

+ · · ·+ α2nλ2k

n xTnxn︸ ︷︷ ︸1

Page 55: Numerikus matematika

MÁTRIXOK SPECIÁLIS ALAKRA TRANSZFORMÁLÁSA 54

Ha képezzük a vektorsorozatot, akkor szimetrikus mátrix esetén az el®z® alakban felírható a vTk vk szorzat. Ne

csak ezt képezzük hanem vegyünk egy olyan hányadost, hogy:vT

k+1vk+1

vTk vk

=α2

1λ2k+2 + · · ·+ α2

nλ2k+2n

α21λ

2k + · · ·+ α2nλ2k

n

=λ2k+2

1 (α21 + α2

2

(λ2λ1

)2k+2

+ · · ·+ α2n

(λn

λ1

)2k+2

)

λ2k1 (α2

1 + α22

(λ2λ1

)2k

+ · · ·+ α2n

(λn

λ1

)2k

)

= λ21

α21 + α2

2

(λ2λ1

)2k+2

+ · · ·+ α2n

(λn

λ1

)2k+2

α21 + α2

2

(λ2λ1

)2k

+ · · ·+ α2n

(λn

λ1

)2k→ λ2

1

ha |λ1| > |λ2| és α1 6= 0. Tehát a hatvány módszernél a legnagyobb abszolút érték¶ sajátértékere kapunk egyilyen képletet.

11.2 Mátrixok speciális alakra transzformálása hasonlósági transz-formációkkal

Alapvet®en két módszer van, az egyik a Gauss-eliminációra hasonlít a másik az QR ortogonális triangulárisfelbontásra (err®l nem fogunk beszélni).

A Gauss elminiációból ismer®s elemi permutációs és elminációs mátrixokat használjuk fel most is. Azalgoritmus lépései: j = 1, 2, . . . , n− 2 és a j-dik lépésben a j-dik oszlopot hozzuk Hessenberg alakra. Ha adottaz Aj−1 akkor el®ször választanikell f®elemet de nem a f®átlóba hanem a f®átló alá (részleges f®elemkiválasztássalfog dolgozni az algoritmus). j = 1-re

A1 = G1Pπ(1),2A0Pπ(1),2G−11

Azért kell a G1Pπ(1),2 inverzével jobbról is szorozni mivel itt hasonlósági transzformációval dolgozunk (Pπ(1),2-nek saját maga az inverze). G1Pπ(1),2A0-ról már a Gauss elminációnál beláttuk, hogy a kívánt formát hozzalétere (jelen setben az els® oszlopban a második sortól kinulláz minden elemet), azt kell még belátni, hogyPπ(1),2G

−11 -vel való jobbról szorzás nem rontja el az eddigi eredményt.Ha jobbról szorzunk a Pπ(1),2 permutációs

mátrixszal, akkor két oszlopot cserél meg, pontosabban a π(1) index¶t a másodikkal, viszont π(1) értéke kett®vagy annál nagyobb tehát semmi baj sem lesz az els® oszlopra nézve. Ha balról szorzunk G1-el az azt jelenti,hogy egy bizonyos sor konstansszorosait hozzáadjuk a többi sorhoz, G1 inverzét pedig úgy kapjuk, hogy egyoszlopban az elemek el®jelét meg kell változtatni. Ha G1-el jobbról szorzunk, akkor egy bizonyos oszlophozadjuk hozzá a többi oszlop konstansszorosait, jelen esetben a másodikhoz, tehát az els® oszlop még mindigHessenberg alakú marad.

Lehetne ilyet csinálni ortogonális mátrixokkal is, csak azzal az a baj, hogy satbilabb algoritmus, de több am¶velet igénye. A másik módszer, hogy hasonló mátrixok sorozatát generáljuk úgy, hogy reménykedünk abban,hogy a határértéke az el®adás elején említett R vagy D.

A következ® {Ak} mátrix sorozatot képezzük(i) amenyiben adott az Ak mátrixunk akkor azt bontsuk fel Ak = MkRk alakra, ahol Rk fels® trianguláris,

Mk reguláris(ii) Ak+1

def= RkMk

Meg lehet mutatni, hogy ez hasonló mátrixok sorozata lesz.11.2 Állítás.

(i) Ak hasonló A1-hez.

Page 56: Numerikus matematika

MÁTRIXOK SPECIÁLIS ALAKRA TRANSZFORMÁLÁSA 55

(ii) Ak = (M1M2 . . .Mk−1)−1A1 (M1M2 . . .Mk−1)︸ ︷︷ ︸Tk−1

= T−1k−1A1Tk−1

(iii) Ak1 = TkUk ahol Uk a megfelel® R-ek szorzata (R1R2 . . . Rk)

Bizonyítás. (ii) ⇒ (i). (ii)-t k szerinti indukcióval lehet bizonyítani. Ha feltételezzük, hogy Ak-ra igaz azállítás:

Ak+1 = M−1k AkMk = M−1

k (M1M2 . . .Mk−1)A1(M1M2 . . .Mk−1)Mk

A (iii)-t is be lehet látni k szerinti indukicóval, de ett®l most eltekintünk.

11.2.1 LR-transzformáció

(i) Ak−1 = Lk−1Rk−1

(ii) Ak = Rk−1Lk−1

Kérdés az, hogy ez a sorozat létezik-e minden k-ra és egyértelm¶-e? Ha az A1 reguláris, akkor az LR felbontásaegyértelm¶ tehát utánna is mind egyértelm¶ lesz, így az egyértelm¶séggel nincs baj (hiszen hasonlo mátrixokatcsinálunk).

Az egzisztenciával baj van mivel nem tudjuk azt garantálni, hogy minden k-ra létezni fog ilyen felbontás.Magára az A1-re lehetne ilyen feltételt mondani, ha A1 minden f®minora 0-tól különböz® akkor létezik neki LRfelbontása, de nincs olyan értélmes feltétel ami az egzisztenciát garantálná, még reguláris A1 mellet is bármelyk-nál megszakadhat a felbontás.

Elegend® feltételt lehet mondani arra, hogy az Ak kovergens legyen és a határértéke fels®trianguláris legyen.Elegend® feltétel a következ®:11.3 Tétel. Ha A1 sajátértékeire |λ1| > |λ2| · · · |λn| > 01, létezik minden k-ra Ak, az felírásban szerepl® X−1 ésX mátrixok mindegyikének létezik LR felbontása, akkor Ak olyan fels®trianguláris mátrixhoz konvergál melyneka f®átlójában A1 sajátértékei állnak.

Ha minden sajátérték különböz® akkor diagonizálható.

11.2.2 QR-transzformáció

(i) Ak−1 = Qk−1Rk−1

(ii) Ak = Rk−1Qk−1

Az els® el®nye a QR transzformációnak, hogy mindig alkalmazható, mivel tetsz®leges mátrixnak létezik QRfelbontása (mi a bizonyításánál feltettük, hogy a kiindulási mátrix reguláris). Másik el®nye, hogy a szimmetriátmeg®rzi:

Ak = Q−1Ak−1Qk−1 = QTk−1Ak−1Qk−1

Ebb®l pedig már lehet indukcióval bizonyítani a szimmetria meg®rzését.A konvergenciához is viszonylag egyszer¶bb feltételek kellenek, és a numerikus stabilitása is jobb (a kerekítési

hiba nem annyira vészes).

11.2.3 RT R-transzformáció

(i) Ak−1 = RTk−1Rk−1

(ii) Ak = Rk−1RTk−1

1ez a feltétel azt is jelenti, hogy A1-nek van n darab különböz® sajátértéke s®t azt is, hogy A1 reguláris, mivel a legkisebbabszolútérték¶ sajátérték is nagyobb mint 0

Page 57: Numerikus matematika

MÁTRIXOK SPECIÁLIS ALAKRA TRANSZFORMÁLÁSA 56

Ez a felbontás csak szimmetrikus mátrixoknál jöhet szóba. Csak akkor érdemes alkalmazni, ha valós a Cholesky-felbontás, ez pedig akkor teljesül, ha A1 pozitív de�nit és ekkor minden Ak pozitív de�nit lesz. Ha az A1

pozitív de�nit, akkor diagonális domináns mátrixhoz konvergál a sorozat (tehát a f®átlóban a sajátértékekettartalmazza).

Egy egy lépés számítása O(n3) mindhárom módszernél, ha viszont el®tte tridiagonális alakra hozzuk amátrixot akkor már csak O(n) a m¶veletigény, fels® Hessenbergnél O(n2). Tehát ezeknél az algoritmus csalá-doknál érdemes el®tte speciális alakra hozni a mátrixot.

Page 58: Numerikus matematika

Fejezet 12

12.1 Iterációs módszerek bevezetése

Ax = a (12.1)A ∈ Rn×n reguláris, a ∈ R. Legyen x∗ ∈ R a 12.1-es rendszer egyértelm¶en létez® megoldása (Ax∗ = a).Hogyan lehetne a 12.1 egyenletrendszert nem eliminációs módszerrel megoldani? Úgy lehetne, hogy olyan vek-torsorozatot konstruálnánk ami ehhez a megoldáshoz konvergál. Hogyan lehetne olyan xk közelít® megoldásokatkonstruálni, hogy xk → x∗?

Alakítsuk át a 12.1-es egyenletrendszert a következ® alakra:x = Bx + b (12.2)

úgy, hogy 12.1⇔12.2. (A legtriviálisabb megoldás az lenne, ha mindkét oldalhoz hozzáadnánk az x vektort a-tpedig átvinnénk a másik oldalra. Az erdmény ekkor: x = (A + I)x− a.)

Ha ekvivalens átalakítások alapján felírtuk a 12.2-es rendszert, akkor ennek alapján tudunk kostruálni egyxk sorozatot rekurzióval.

Válasszunk egy tetsz®leges x0 kezd®vektort (xk ∈ Rn) és képezzük:xk+1 = Bxk + b (12.3)

képletnek megfelel® xk iterációs vektorsorozatot. B az iterációs mátrix, xk+1 = Bxk+b-el számolt sorozata iterációs sorozat, 12.3 az iterációs módszer. Egyújabb lépés kiszámolása O(n2) m¶veletet jelent. Addigéri meg számolni amíg k < n.

A kérdés az, hogy mikor lesz igaz, hogy a vektorsorozat a megoldáshoz konvergál? Nyilván akkor ha a hiba0-hoz tart.12.1 De�níció. ek = xk − x∗ vektort hibavektornak nevezzük ( a k-dik közelítés hibája).12.2 Állítás. xk → x∗ ⇔ ek → 0

A konvergencia vizsgálatánál azt fogjuk nézni, hogy ek mikor tart 0-hoz (mármint a 0 vektorhoz). ek → 0,ha ||ek|| → 0 (többnyire majd ezt fogjuk vizsgálni). Ha könnyítünk egy kicsit a feltételeken és csak elegend®feltételt mondunk, máris könnyebb helyzetben vagyunk: hiszen van egy számsorozat és hogy az 0-hoz tart-e,ennek az igazolásához fels® korlátokat kell megadni, olyan fels® korlátokat, hogy a fels® korlátok 0-hoz tartsanak.12.3 Állítás.

ek = Bke0 (12.4)Bizonyítás. k szerinti teljes indukcióval. k = 0-ra teljesül, tegyük fel, hogy k-ra igaz és vizsgáljuk k + 1-re:

xk+1 = Bxk + b

x∗ = Bx∗ + b

57

Page 59: Numerikus matematika

ITERÁCIÓS MÓDSZEREK BEVEZETÉSE 58

egyenletekb®l következik (amelyek a (12.2)-es egyenletb®l következnek), hogyek+1 = xk+1 − x∗ = B(xk − x∗) = Bek = B(Bke0) = Bk+1e0

12.4 Állítás. Tetsz®leges x0 mellet akkor és csak akkor teljesül xk → x∗, ha %(B) < 1

(Másként: a 12.3 módszer akkor és csak akkor globálisan konvergens, ha %(B) < 1.)Bizonyítás. ⇐ Legyen %(B) < 1, ekkor biztosan van olyan ‖.‖ mátrixnorma, amelyre ||B|| < 1. (12.4) alapjánbármely x0 kezd®vektor mellett a következ® teljesül:

‖ek‖ = ‖Bke0‖ ≤ ‖Bk‖‖e0|| ≤ ‖B‖k︸ ︷︷ ︸→0

‖e0|| → 0

‖B‖k 0-hoz tart hiszen B 1-nél kisebb. Ezzel csináltunk egy olyan fels®korlátját a hibavektornak, amely0-hoz tart.⇒ Ha globálisan konvergens az iteráció, akkor %(B)-nek kissebbnek kell lennie, mint 1. Ennek az iga-

zolásához indirekt bizonyítást alkalmazunk. Tegyük fel hogy, 12.3 módszer globálisan konvergens, de van olyanλ sajátértéke B-nek, hogy |λ| > 1. Mivel feltettük, hogy globálisan konvergens a módszer ezért mindegy, hogymilyen értéket választunk kezd®értéknek mindig konvergálni fog. Válasszuk úgy a kezd®rtéket, hogy a kezd®hiba (e0) pontosan egy λ-hoz tartozó sajátvektor legyen. Ekkor viszont ellentmondáshoz jutunk:

0← ‖ek‖ = ‖Bke0‖ = ‖λke0‖ = |λ|k‖e0‖9 0

Ezzel ellentmondásra jutottunk.%(B) akkor és csak akkor kisebb, mint egy ha van olyan ||.|| mátrixnormája ami kisebb, mint 1.

12.5 Állítás. a 12.3-as iterációs módszerre a következ® három állítás ekvivalens:

(i) 12.3 módszer globálisan konvergens

(ii) %(B) < 1

(iii) létezik olyan ||.|| mátrixnorma maelyben ||B|| < 1

Gyöngébben fogalmazva: ha tudunk mondani egy olyan mátrixnormát amiben a ||B|| < 1, akkor a 12.3-asmódszer globálisan konvergens.12.6 Következmény. Ha a ||.|| mátrixnomában ||B|| < 1, akkor 12.3 globálisan konvergens.

12.7 Példa.

xk+1 =

14 0 1

418

14 − 1

818 0 0

︸ ︷︷ ︸

B

xk + b

Mivel ||B||∞ < 1 ezért az iteráció konvergens1

12.8 Tétel. legyen ||B|| < 1, ekkor tetsz®leges x0-ra igaz:

(i) xk → x∗

(ii) ‖ek‖ ≤ ‖B‖k‖e0||

(iii) ‖ek‖ ≤‖B‖

1−‖B‖‖xk−1 − xk||1mátrixok végtelen normája úgy számítható, hogy soronként összeadjuk a komponenseket és az így keletkezett összegek közül

a legnagyobbat vesszük.

Page 60: Numerikus matematika

REGULÁRIS SZÉTVÁGÁSOK 59

(iv) ‖ek‖ ≤‖B‖k

1−‖B‖‖x0 − x1||

(iii)-at és (iv)-et e�ektíven ki lehet számolni. Mivel mindegy, hogy milyen x0-ból indulunk ezért kényelme-sebb ha b-t választjuk x0-nak.(v) ‖ek‖ ≤

‖B‖k

1−‖B‖‖b‖

Ha olyan esetre nézzük (v)-t amikor ||B|| < 1, akkor ez egy jó fesl® hibakorlát lesz mivel 0-hoz tart. Végig igazvolt, hogy a vizsgált vektornorma és mátrixnorma kompatibilis volt egymással.

Egy iterációs módszert egyértelm¶en meghatároz a B iterációs mátrix és a b iterációs vektor. Hogyan lehetilyen iterációs módszert csinálni? Reguláris szétvágással több iterációs módszert is el® lehet állítani.

12.2 Reguláris szétvágások

12.9 De�níció. A = T − S az A mátrix reguláris szétvágása, ha T reguláris.Nyilván egy adott A mátrixnak végtelen sok reguláris szétvágása van és ha egyet veszünk ezek közül, akkor

a következ®képpen csinálhatunk ekvivalens átalakításokka a 12.3-hez hasonló iterációt:Ax = a⇔ (T − S)x = a⇔ Tx = Sx + a⇔ x = T−1S︸ ︷︷ ︸

B

x + T−1a︸ ︷︷ ︸b

.

Tehát minden reguláris szétvágás esetén tudunk csinálni egy iterációs módszert.Mik a legyakrabban használt reguláris szétvágások? Vegyük az A = D − L−R reguláris szétvágását:

D =

a11 0 . . . 0

0 a22. . . ...

... . . . . . . 00 . . . 0 ann

L = −

0 0 . . . 0

a22 0. . . ...

... . . . . . . 0an1 . . . an,n−1 0

R = −

0 a12 . . . a1n

0 0. . . ...

... . . . . . . an−1,n

0 . . . 0 0

Továbbiakban mindig tegyük fel, hogy D reguláris és a f®átlójában nincsenek 0-k.

12.10 De�níció. A er®sen reguláris, ha A reguláris és aii 6= 0 i = 1, 2 . . . , n

12.11 Példa. A diagonális domináns és a pozitív de�nit mátrixok er®sen regulárisak.Ez azért fontos mert er®sen reguláris A mátrixok esetén nyugodtan lehet csinálni a reguláris szétvágásokat.

Négy fontos reguláris szétvágás

12.2.1 Jacobbi-iteráció (J-módszer)

T = D, S = L + R, ekkor:BJ = T−1S = D−1(L + R) = D−1L︸ ︷︷ ︸

L

+D−1R︸ ︷︷ ︸R

bJ = T−1a = D−1a

xk+1 = BJxk + bJ

L de�níció szerint: D−1L, R de�níció szerint: D−1REz az iteráció akkor és csak akkor konvergál a megoldáshoz, ha BJ spektrálsugara kisebb, mint 1 vagy

||BJ || < 1.

Page 61: Numerikus matematika

A JACOBBI- ÉS A SEIDEL-MÓDSZER KONVERGENCIÁJA 60

12.2.2 (Gauss-)Seidel-iteráció (S-módszer)

T = D − L, S = R, ekkor:BS = T−1S = (D − L)−1R = (D(I −D−1L))−1R = (I − L)−1D−1R

bS = T−1a = (D − L)−1a

xk+1 = BSxk + bS

T is reguláris mátrix. A gyakorlatban nem így kell majd számolni.A harmadik és negyedik módszer ismertetéséhez bevezetünk egy ω paramétert. Legyen ω > 0 való rögzített

paraméter.A = D − L−R =

D − (L + R + (1ω− 1)D)

Miért jó, hogy ω-t behoztuk? Az ω paraméter különböz® választásaival befolyásolni tudjuk az iterációsmátrix spektrálsugarát, hogy milyen gyors legyen a konvergencia.

Az egy dolog, hogy a módszer akkor és csak akkor konvergál, ha %(B) < 1 de nyilván, ha a következ®hibaképletekre gondolunk: ||ek|| ≤ ||B||k||e0|| látható, hogy minél kisebb a %(B) annál gyorsabb a konvergencia.

12.2.3 Jacobbi-féle túlrelaxációs módszer (J(ω)-módszer)

Legyen T = 1ω D S = L + R + ( 1

ω − 1)DAz ω-t relaxációs paraméternek nevezik ezért hívják az ilyen módszereket relaxációs módszereknek. Amikorω > 1 túlrelaxációról beszélünk.

BJ(ω) = T−1S = ωD−1(L + R + (1ω− 1)D) = ω(L + R) + (1− ω)I

bJ(ω) = T−1a = ωD−1a

Ha az ω paramétert 1-nek választjuk, akkor éppen a Jacobbi-iterációt kapjuk, tulajdonképpen a Jacobbi-módszer a J(ω)-módszer speciális esete.

12.2.4 Szukszecesszív túlrelaxációs módszer (S(ω)-módszer)

Legyen T = 1ω D − L, S = R + ( 1

ω − 1)D

BS(ω) = T−1S = (1ω

D − L)−1(R + (1ω− 1)D)

= (I − ωL)−1(1ω

D)−1(R + (1ω− 1)D) = (I − ωL)−1(ωR + (1− ω)I)

bS(ω) = T−1a = (1ω

D − L)−1a

xk+1 = BS(ω)xk + bS(ω)

A B mátrixot kiszámolni meglehet®sen költséges ezért a kiindulási A mátrixra célszer¶ feltételeket mondani:ha az A mátrixra ilyen és olyan feltétel teljesül, akkor az iterációs módszer (úgy értve, hogy a 4 közül valamelyik)konvergens.

12.3 A Jacobbi- és a Seidel-módszer konvergenciája

12.12 Tétel. Ha ||L + R|| < 1 valamilyen mátrixnormában, akkor a Jacobbi-módszer konvergens.

Ez egy triviális következménye annak, hogy ha az iterációs mátrix valamilyen nomrája kisebb mint 1, akkora módszer konvergens.

Hogyan kaphatjuk meg az L + R mátrixot? Úgy, hogy A-ban a f®átlóbeli elemek helyére 0-t írunk, a többielemnek a (−1) szeresét vesszük és minden sort leosztunk a diagonális elemmel (mármint az eredetivel).

A 12.12 tétel jó a Jacobbi-iterációra, ha azonban ezen egy kicsit er®sítünk, akkor a Seidel-módszerre istudunk valamit mondani.

Page 62: Numerikus matematika

A JACOBBI- ÉS A SEIDEL-MÓDSZER KONVERGENCIÁJA 61

12.13 Állítás. Ha ||L||+ ||R|| < 1, akkor a Seidel-módszer is konvergens.

Bizonyítás. Meg kell nézni hogyan alakul a hiba a Seidel-iterációnál.xk+1 = BSxk + bS = (I − L)−1Rxk + bS

Ha behelyettesítjük a pontos megoldást, akkorx∗ = (I − L)−1Rx∗ + bS

Az el®zö két egyenlet különbségének segítségével számítjuk a k + 1-ik közelítés hibáját:ek+1 = (I − L)−1Rek

(I − L)ek+1 = Rek

ek+1 = Lek+1 + Rek

Felhasználva a háromszög egyenl®tlenséget:||ek+1|| = ||Lek+1 + Rek|| ≤ ||Lek+1|| + ||Rek||

≤ ||L|| ||ek+1|| + ||R|| ||ek||

Az el®zö egyenl®tlenségek elejét és a végét tekintve:(1− ||L||) ||ek+1|| ≤ ||R|| ||ek||

||ek+1|| ≤||R||

1− ||L||||ek||

Az ||L||+ ||R|| < 1 feltételb®l következik, hogy ||ek|| szorzója 1-nél kisebb szám, tehát a hiba 0-hoz tart.

Page 63: Numerikus matematika

Fejezet 13

13.1 Tétel. Ha a J-módszer konvergens, akkor a J(ω)-módszer is konvergens, tetsz®leges 0 ≤ ω ≤ 1-re

Bizonyítás. BJ a J-módszer tartozó iterációs mátrix, a J-módszer konvergens pontosan akkor ha BJ spektrál-sugara kisebb mint 1 (%(BJ) < 1).

Legyenek BJ sajátértékei λ1, λ2, . . . , λn és tudjuk, hogy %(BJ) < 1. A J(ω)-módszerhez tartozó iterációsmátrix a BJ(ω), a két módszer között a következ® összefüggés vehet® észre:

BJ(ω) = ωBJ + (1− w)I

Ha a J-módszerr®l tudjuk, hogy konvergál a megoldáshoz akkor, hogy jön ki, hogy a J(ω)-módszer is konvergál?Jelöljük a J(ω)-módszer sajátértékeit µ1, µ2, . . . , µn-el. Mikor igaz, hogy %(BJ) < max1≤i≤n |µi| < 1?

Tekintsük a P (x) def= ωx + 1− ω-t, ekkor P (BJ) = BJ(ω) és µ1 = P (λ1), µ2 = P (λ2), . . . , µn = P (λn). λi-revan fels®korlátunk, mit tudunk ez alapján µi-kr®l?

|µi| = |p(λi)| = |ωλi + 1− ω| ≤ |ωλi|+ |1− ω|

= |ω| |λi|+ |1− ω| 1.= ω |λi|+ 1− ω < ω1 + 1− ω = 1

1. azért lehetséges mivel ω-ra kiötöttük, hogy 0 és 1 közé esik ezért 1 − ω pozitív lesz ezért elhagyhatjuk azabszolút értéket.

Olyan tételeket mondunk ki, hogy ha az eredeti mátrix ilyen és ilyen tulajdonságú, akkor biztosak lehetünkbenne, hogy ez és ez a módszer konvergens.

13.1 Az iterációs módszerek konvergenciája diagonális domináns A

együtthatómátrixok esetén

13.2 Tétel. Ha A diagonális domináns, akkor mind a J-módszer mind az S-módszer konvergens.

A tétel bizonyításához el®ször megnézzük, hogy az iterációnál használt fogalmakkal mikor lesz lesz egymátrix diagonális domináns.13.3 Állítás. A akkor és csak akkor diagonális domináns, ha ||BJ ||∞ < 1.

||BJ ||∞ = ||L + R||∞ = ||D−1L + D−1R||∞ < 1

Bizonyítás. A BJ mátrixot úgy kapjuk, hogy A-ban a f®átló beli elemek helyére 0-t írunk. Majd az eredetimegfelel® diagonális elemekkel leosztjuk a sorokat. Tehát ||BJ ||∞ < 1 részletesebben kifejezve:

max1≤i≤n

n∑j=1j 6=i

|aij

aii| < 1 (13.1)

62

Page 64: Numerikus matematika

II/14-ES TÉTEL 63

a diagonális dominancia de�níciója pedig:

|aii| >n∑

j=1j 6=i

|aij | (13.2)

(13.1) ekvivalens (13.2)-vel, hiszen ha (13.2)-t leosztjuk |aii|-vel, akkor megkapjuk (13.1)-t1. Az ekvivalenciábóllátszik, hogy ha az A diagonális domináns, akkor ||BJ ||∞ < 1 és ha ||BJ ||∞ < 1, akkor A diagonális domináns.

Bizonyítás. (13.2 tétel bizonyítása) J-módszerre az el®z® állítás miatt igaz a tétel.S-módszerre: a 12.13-as tételben levezettük, hogy ek+1 = Lek+1 + Rek. Az i-dik komponens abszolút értéke

a háromszög egyenl®tlenség után:

|e(k+1)i | ≤

i−1∑j=1

|bij ||e(k+1)j |+

n∑j=i+1

|bij ||e(k)j |

i = m-et rögzítjük||ek+1||∞ = |ek+1

m | ≤m−1∑j=1

|bmj ||e(k+1)j |+

n∑j=m+1

|bmj ||e(k)j |

vegyük a maximális komponenst i-nek:

||ek+1||∞ ≤m−1∑j=1

|bmj |︸ ︷︷ ︸δm

‖e(k+1)‖∞ +n∑

j=m+1

|bmj |︸ ︷︷ ︸γm

‖e(k)||∞

A diagonális dominancia miatt:δm + γm < 1

||ek+1||∞ ≤ δm||e(k+1)||∞ + γm||e(k)||∞||ek+1||∞ − δm||e(k+1)||∞ ≤ γm||e(k)||∞

||ek+1||∞(1− δm) ≤ γm||e(k)||∞

||ek+1||∞ ≤ γm

1− δm︸ ︷︷ ︸<1

||e(k)||∞

Tehát a hibavektor 0-hoz konvergál.13.4 Következmény. Ha A diagonális domináns, akkor a J(ω)-módszer is konvergál bármely 0 < ω < 1-re.

Hogyan kell az ω-t választani?

13.2 II/14-es tétel

13.5 Tétel. Mind a J(ω) mind az S(ω)-módszernél a konvergencia szükséges feltétele 0 < ω < 2.

Bizonyítás. J(ω) estén elég annyit bizonyítani, hogy |1− ω| ≤ %(BJ(ω)) , hiszen %(BJ(ω)) < 1 kell ahhoz, hogya módszer konvergens legyen tehát |1−ω| < 1 feltételhez jutottunk amir®l látszik, hogy ω 0 és 2 közé kell, hogyessen.

1ehhez persze a max-t el kell mismásolni.

Page 65: Numerikus matematika

A 4 MÓDSZER KONVERGENCIÁJA POZITÍV DEFINIT MÁTRIXOK ESETÉN 64

Alkalmazzuk azt az ismert azonosságot, hogy a mátrix nyoma megegyezik a sajátértékek összegével. BJ(ω)

sajátértékeit jelöljük µi-vel. BJ(ω) f®átlójában végig 1− ω van, ami a BJ(ω) de�níciójából következik (BJ(ω) =ω(L + R) + (1− ωI))

n∑i=1

µi = tr(BJ(ω)) = n(1− ω)

n(1− ω) =n∑

i=1

µi

n|1− ω| ≤n∑

i=1

|µi| ≤ n%(BJ(ω))

|1− ω| ≤ %(BJ(ω))

S(ω) esetén az állítás a következ®: jelelölje λ1, λ2, . . . , λn a BS(ω) sajátértékeit. |1 − ω| ≤ %(BS(ω))-t kellbizonyítani.

PB(λ) = det(BS(ω) − λI)

= det(

BS(ω)︷ ︸︸ ︷(I − ωL)−1(ωR + (1− ω)I)−λI)

= det((I − ωL)−1)︸ ︷︷ ︸1

det(ωR + (1− ω)I − λ(I − ωL))

mivel a I − ωL-t vizsgálva láthajuk, hogy L szigorúan alsótrianguláris (a f®tlójában 0-k vannak), I − ωL egyalsótrianguláris mátrix amelynek a f®átlójában csupa 1-es áll. Az invertálás után is csupa 1-es áll a f®tlóban,így a determinánsa egy lesz.

A sajátértékek szorzata megegyezik a determináns értékével. A λ = 0 értéket behelyettesítve a baloldalnálazt kapjuk, hogy a sajátértékek szorzata.

n∏i=1

λi = (1− ω)n ⇒ |1− ω|n =n∏

i=1

|λi| ≤ %(BnS(ω))

13.3 A 4 módszer konvergenciája pozitív de�nit mátrixok esetén

13.6 Segédtétel. Ha mind A, mind az A−HT AH pozitív de�nit, akkor a %(H) < 1.

Bizonyítás. Legyen λ a H mátrix tetsz®leges sajátértéke az u ∈ Cn sajátvektorral. Az uHAu > 0 és azuH(A−HT AH)u > 0 (⇒ uHAu > uHHT AHu) egyenl®tlenségek felhasználásával:

uHAu > uHHT AHu = (λu)HA(λu) = |λ2|uHAu

Ha két szélét leosztjuk uHAu-val, akkor 1 > |λ2|-t kapunk.Tehát van egy pozitív de�nit mátrixunk az A, veszünk valamilyen H mátrixot és kiszámoljuk az új mátrixot

A−HT AH-t. Ha A még mindig pozitív de�nit marad, akkor ez valami olyasmit jelent, hogy a H az kicsi.13.7 De�níció. Tetsz®leges A-ra az A = T − S p-reguláris szétvágás, ha T reguláris és TT + S pozitívde�nit.13.8 Segédtétel. Ha A pozitív de�nit és A = T − S p-reguláris szétvágás, akkor %(B) = %(T−1S) < 1 (tehátaz iteráció konvergens)

Page 66: Numerikus matematika

A 4 MÓDSZER KONVERGENCIÁJA POZITÍV DEFINIT MÁTRIXOK ESETÉN 65

Bizonyítás. Az el®z®ek alapján elég belátni, hogy az A − BT AB is pozitív de�nit (hiszen akkor %(B) < 1 ).Ekkor S = T −A és B = T−1S = T−1(T −A) = I − T−1A:

A−BT AB = A− (I − T−1A)T A(I − T−1A) = A− (I −A(T−1)T )(A−AT−1A)= A− (A−A(T−1)T A−AT−1A + A(T−1)T AT−1A)= A(T−1)T A + AT−1A−A(T−1)T AT−1A

= (T−1A)T A + AT−1A− (T−1A)T AT−1A

= (T−1A)T (A + TT T−1A−AT−1A)= (T−1A)T (T + TT −A)T−1A) = (T−1A)T (TT + T −A︸ ︷︷ ︸

S

)(T−1A)

= (T−1A)T (TT + S)(T−1A)

Ha A pozitív de�nit, akkor tetsz®leges Z reguláris mátrixra B = ZT AZ is pozitív de�nit lesz és ez teljesülmivel A = T − S p-reguláris szétvágás volt.13.9 Tétel (Konvergencia-tétel). Ha az A mátrix pozitív de�nit

(i) a J-módszer konvergenciájához elegend®, ha a 2D −A mátrix is pozitív de�nit.

(ii) a J(ω)-módszer konvergenciájához elegend®, ha a 2ω D −A mátrix is pozitív de�nit.

(iii) az S-módszer mindig konvergens.

(iv) az S(ω)-módszer tetsz®leges 0 < ω < 2-re konvergens

A bizonyítás annyit jelent, hogy felírjuk rá a 4 módszerhez tartozó iterációs mátrixot és felírjuk rá a másodiksegédtételt.Bizonyítás. (i) mivel TT + S = DT + D − A = 2D − A ezért, ha 2D − A pozitív de�nit, akkor TT + S is

pozitív de�nit tehát A = T − S p-reguláris szétvágás és az el®z® segédtétel miatt az iteráció konvergens.(ii) TT + S = ( 1

ω D)T + 1ω D −A = 2

ω D −A

(iii) TT + S = (D − L)T +

S︷ ︸︸ ︷(D − L)−A = 2D − LT − L−

A︷ ︸︸ ︷(D − L− LT ) = D ez mindig pozitív de�nit, ha A

az (ha az A mátrix pozitív de�nit akkor a f®átlójában pozitív számok vannak).(iv) TT + S = ( 1

ω D − L)T + ( 1ω D − L) − A = 2

ω D − LT − L − (D − L − LT ) = ( 2ω − 1)D ez pedig bármely

0 < ω < 2 esetén pozitív de�nit lesz.

Page 67: Numerikus matematika

Fejezet 14

14.1 Tétel. Ha egy mátrix szimmetrikus, aii > 0 és diagonális domináns, akkor pozitív de�nit.

xk+1 = Bxk + b Ax = a

ek = xk − x∗

||ek||-ra keresünk fels® korlátot.Axk ≈ a

rk = a−Axk

14.1 Utóiteráció

Legyen A−1 = A−1

xk+1 = xk + A−1rk

Ha például az A = LR felbontással oldottuk meg a rendszert, akkorA = LR A−1 = R−1L−1

xk+1 = xk + R−1L−1(a−Axk)

Ezeket a képleteket ilyen alakban érdemes felírni, hogy:Lzk = rk

Ruk = zk

xk+1 = xk + uk

Ha így számoljuk, akkor egy-egy lépéshez csak O(n2) m¶velet kell és így az egészhez is csak O(n2) m¶velet kell.zk kiszámításához tulajdonképpen egy el®rehelyettesítést kell csinálni és uk kiszámításához visszahelyettesítéskell. Lehet más fajta iterációt is el®állítani:

xk+1 = xk + D−1rk

A D−1 jelentsen valamilyen diagonális mátrixot. A következ® közelítés legyen olyan, hogy vesszük az xk-t ésadjunk hozzá korrekciót, azaz vesszük az rk vektor komponenseit és megszorozzuk egy-egy számmal ®ket, eztjelenti a D−1rk kifejezés. Ilyen értelemben próbálnánk csökkenteni a hibát. Olyat csinálhatnánk, hogy aholrk-ban nagy volt a hiba ott D-ben egy nagy szorzót vennénk és akkor azt a komponensét a hibának ilyen módon

66

Page 68: Numerikus matematika

KEREKÍTÉSI HIBA AZ ITERÁCIÓS MÓDSZEREKNÉL 67

csökkentenénk. Ha azt mondanánk, hogy ez a D legyen az A mátrix diagonálisában lév® elemekb®l álló mátrix,akkor a J-módszert kapnánk más formában.

xk+1 = D−1(L + R)xk + D−1a A = D − L−R

= xk −D−1(Axk − a)= xk + D−1rk

A J(ω)-módszert is meglehet hasonló módon adni.xk+1 = xk + ωD−1rk

Ez nem más, mint a J(ω)-módszer. Tehát látszik, hogy a reziduum1 fogalomból kiindulva, le lehet vezetnitöbbféle iterációs módszert, részben a korábban megismerteket is. Amit mi felírunk az iterációs módszereknélaz csak elméletben igaz. A gyakorlatban itt is történik kerekítési hiba.

14.2 Kerekítési hiba az iterációs módszereknél

elmélet: xk+1 = Bxk + b

gyakorlat: zk+1 = Bzk + b + dk

tehát a gyakorlat úgy néz ki, mint ha az eredeti formulával számolnánk csak minden lépésben rárakódik valam-ilyen kerekítési hiba (jelen esetben dk).

Tegyük fel, hogy ||dk|| < δ minden k-ra. A kiindulási feltételünk legyen ugyanaz:z0 = x0

A kerekítési hiba hatásánál a zk − xk különbségre vagyunk kíváncsiak (méginkább egy fels® korlátjára):

||fk||def= ||zk − xk|| <?

fk+1

= zk+1 − xk+1 = Bfk

+ dk

A 0. lépésnél mindkett® megegyezik. Az els® lépésnél (majd rekurzióval folytatva):f

1= z1 − x1 = d1

fk+1

= Bfk

+ dk

Úgy lehetne egyszer¶síteni a dolgokat, ha azt mondanánk, hogy a d-knél az indext®l szabaduljunk meg. Mondjukazt, hogy ezekre a kerekítési hibavektorokra van valamilyen k-tól független globális hibakorlátunk. Erre szolgála ||dk|| < δ feltétel az eszmefuttatás elején. Így már mondhatjuk a következ®ket:

||f1|| ≤ δ

||fk+1|| ≤ ||B|| ||f

k||+ δ

||f2|| ≤ ||B||δ + δ

||fk|| ≤ (||B||k + ||B||k−1 + · · ·+ ||B||+ 1)δ

||fk|| ≤ ||B||k+1

||B|| − 1δ =

1− ||B||k+1

1− ||B||δ

1Bakos bácsi szerint maradékot jelent, a Matematikai kislexion már érdekesebb véleményen van: valamely f komplex függvényegy z0 izolált szinguláris pontjához tartozó és res[f, z0]-lal jelölt reziduumán az f függvény "z0 körüli" Laurent sorában a −1-edikhatvány együtthatóját, vagyis a c−1 = 1

2πi

∫c f(ζ)d(ζ) komplex számot értjük, ahol a C görbén és annak belsejében z0-on kívül

minden pont f reguláris pontja (a szerk.)

Page 69: Numerikus matematika

KONDÍCIÓSZÁM 68

Abban az esetben, ha vesszük az elméleti iterációt és tudjuk, hogy B normája kisebb mint 1, akkor márelméletben iterálna. A gyakorlati konvergenciához azt kellene nézni, hogy:

||zk − x∗|| = || (zk − xk)︸ ︷︷ ︸fk

+(xk − x∗)︸ ︷︷ ︸ek

||

≤ ||fk||+ ||ek||

≤ 1− ||B||k+1

1− ||B||δ +||B||k+1

1− ||B||||b||

Tehát a gyakorlatban számolt zk sorozatra ilyen korlátot lehet adni.

14.3 Kondíciószám

14.2 De�níció. Tetsz®leges reguláris T mátrix esetén a k(T ) def= ||T || ||T ||−1-t a T mátrix (||.|| normáravonatkozó) kondíciószámnak nevezzük. Ha T nem reguláris legyen k(T ) =∞.

Mindig olyan normát használunk, ami nekünk kényelmes (1-es, 2-es, végtelen, Frobénius norma). Általábanminden egyes norma esetén más-más szám lesz. De látszik a képletekb®l, hogy bizonyos értélemben jellemzi alienáris algebrai problémákat az, hogy ez a szám mekkora. Tekintsük a következ® problémákat:

Ax = a

Ax = I

(A− λI)x = 0

mind a három feladatosztálynál meg lehet mutatni, hogy az A mátrix kondíciószáma a dönt®. Mi inkább csakaz els®r®l fogunk beszélni, de el®bb a kondíciószám tulajdonságait vizsgálgatjuk.14.3 Állítás. Ha ||.|| norma származtatott norma, akkor a kondíciószám nagyobb egyenl® mint 1 (1 ≤ k(T )).

Bizonyítás. Itt reguláris mátrixról beszéltünk. Felírjuk az egységmátrixot:1 = ||I|| = ||TT−1|| ≤ ||T || ||T−1|| = k(T )

A sajátértékekr®l is érdemes szót ejteni, mivel láttuk, hogy a lineáris egyenletrendszereknél konvergenciánális komoly szerepe van. Lehet különböz® becsléseket megadni a kondíciószámra melyekben sajátértékek szere-pelnek.14.4 Állítás.

k(T ) ≥max

1≤i≤n|λi|

min1≤i≤n

|λi|

ahol T sajátértékei λ1, λ2, . . . , λn, T−1 sajátértékei 1λ 1

, 1λ 2

, . . . , 1λ 1

.

Bizonyítás. Azt már tudjuk, hogy ||T || ≥ %(T ), ezt lehet alkalmazni egy kicsit trükkös módon.

k(T ) = ||T || ||T−1|| ≥ %(T )%(T−1) = max1≤i≤n

|λi| max1≤i≤n

| 1λ i| =

max1≤i≤n

|λi|

min1≤i≤n

|λi|

Úgy lehet ezt az állítást olvasni, hogy ha van egy olyan T mátrixunk aminek vannak nagyon nagy és nagyonkicsi abszolút érték¶ sajátértékei, akkor annak a kondíciószáma is nagy lesz. Minél nagyobb a kondíciószámannál gyengébben meghatározott a feladat, annál jobban elbillenhet különböz® hibaforrások hatására.

Következ® kérdés az lenne, ha valamilyen transzformációt hajtunk végre a T mátrixon, akkor hogyan változika kondíciószám. Ha kettes normával dolgozunk és ortogonális transzformációt csinálunk, akkor nem romlik ahelyzet. Ugyan ez a helyzet ortogonális hasonlósági transzformáció esetén.

Page 70: Numerikus matematika

PERTURBÁCIÓ 69

14.5 Állítás. A kettes norma esetén a legegyszer¶bb belátni a következ®ket:

(i) k(QT ) = k(T )

(ii) k(QTQT ) = k(T )

Bizonyítás. Ha a Q ortogonális mátrix, akkor a kettes normája 1.(i) ||C||2 =

√%(CT C)

k2(QT ) = ||QT ||2 ||TT QT ||2 =√

%((TT QT )(QT ))√

%((TT QT )T (TT QT ))

=√

%(TT T )√

%((TT QT )T (TT QT ))

= ||T ||2√

%((QT )(TT QT )) = ||T ||2√

%((TT QT )(QT ))

= k2(T )

(ii) mivel ||C||2 = ||CT ||2 és az (i)-t is felhasználva:k(QT TQ) = k(TQ) = k((TQ)T ) = k(QT TT ) = k(TT ) = k(T )

Tehát ortogonális transzformációk esetén a kondíciószám nem változik.

14.4 Perturbáció

Van egy lineáris egyenletrendszerünk és valahogy megváltoztatjuk, akkor hogyan változik a megoldása. Gyengénmeghatározott egy egyenletrendszer, ha csak egy kicsit változtatunk rajta, akkor nagyon megváltozik a megoldás.

Legyen x∗ az eredeti egyenletrendszer megoldása x a perturbált egyenletrendszer megoldása.Ax∗ = a (eredeti egyenletrendszer)

(A + F )x = a + g (perturbált egyenletrendszer)

Az abszolút hibára ||x∗ − x|| <? és a relatív hibára ||x∗−x||||x∗|| <? lennénk kíváncsiak. Feltéve, hogy mind az A

mind az F reguláris az inverzekkel átszorozhatunk.x∗ − x = A−1a− (A + F )−1(a + g) = (A + F )−1((A + F )A−1a− a− g)

= (A + F )−1(FA−1a− g) = (A + F )−1(Fx∗ − g)

Tehát a következ®höz jutottunk:||x∗ − x|| ≤ ||(A + F )−1|| (||F || ||x∗||+ ||g||) (14.1)

Ezzel még sehol sem vagyunk, mivel a jobb oldalon szerepel az x∗. Valami olyat fels® korlátot kell produkálni,ahol a jobb oldalon már ismert mennyiségek szerepelnek.

Megnézzük, hogy milyen esetekben létezik az (A + F )−1 és ilyen esetekben hogy lehet a (14.1)-re fels®korlátokat adni.14.6 Állítás. Ha valamely származtatott mátrixnormában ||A|| < 1, akkor az (I + A)−1 létezik és

||(I + A)−1|| ≤ 11− ||A||

Page 71: Numerikus matematika

PERTURBÁCIÓ 70

Bizonyítás. Legyen x 6= 0 tetsz®leges vektor. Ekkor||(I + A)x|| = ||x− (−Ax)|| ≥ | ||x|| − ||Ax|| |

≥ ||x|| − ||Ax|| ≥ ||x|| − ||A|| ||x|| = (1− ||A||) ||x|| > 0

Tehát (I + A)x 6= 0, vagyis I + A reguláris. Legyen Cdef= (I + A)−1. Mivel

1 = ||I|| = ||(I + A)C|| = ||C −AC|| ≥ ||C|| − ||A|| ||C|| = (1− ||A||)||C|| = (1− ||A||)||(I + A)−1||

ezzel beláttuk az inverz normájára vonatkozó egyenl®tlenséget is.14.7 Állítás. Ha valamely származtatott mátrixnormában az ||A|| ||F || < 1, akkor az (A + F )−1 létezik és az

||(A + F )−1|| ≤ ||A−1||1− ||A−1|| ||F ||

Bizonyítás.

||(A + F )−1|| = ||(A(I + A−1F ))−1|| = ||(I + A−1F )−1A−1|| ≤ ||(I + A−1F )−1|| ||A−1||

≤ 11− ||A−1F ||

||A−1|| ≤ ||A−1||1− ||A−1|| ||F ||

Ott hagytuk abba, hogy:||x∗ − x|| ≤ ||(A + F )−1|| (||F || ||x∗||+ ||g||)

Következ®t lehet csinálni:||x∗ − x||||x∗||

≤ ||A−1||1− ||A−1|| ||F ||

(||F ||+

||g||||x∗||

)=

||A−1||1− ||A−1|| ||F ||

(||F ||+

||g|| ||A||||a||

)=

||A−1|| ||A||1− ||A−1|| ||F ||

(||F ||||A||

+||g||||a||

)=

||A−1|| ||A||1− ||A|| ||A−1|| ||F ||||A||

(||F ||||A||

+||g||||a||

)

=k(A)

1− k(A) ||F ||||A||

(||F ||||A||

+||g||||a||

)

Page 72: Numerikus matematika

Tárgymutató

k-dik közelítés hibája, 56tr, 34általánosított trianguláris felbontás, 22elemi hasonlósági transzformáció, 37abszolút hiba, 3abszolút hibakorlát, 3alsó Hessenberg mátrix, 4alsó tringuláris mátrix, 3bels® szorzat, 11bidiagonális mátrix, 22blokk, 14diadikus szorzat, 11diagonális dominancia, 5diagonális mátrix, 3diagonizálható (mátrix), 34egyenletrendszerek ekvivalenciája, 6ekvivalencia (vektornormáké), 45elemi hasonlósági transzformációval triangula rizálás,

37elemi mátrix átalakítások, 6elemi permutációs mátrix, 12eliminációs mátrix, 11er®sen reguláris (mátrix), 58f®elem, 8F®tengely-tétel, 39fels® Hessenberg mátrix, 4fels® trianguláris mátrix, 3Gauss-elimináció, 7Gauss-elimináció m¶veletigénye, 8Gersgorin-tétel, 50gyöktényez®s alak (karakterisztikus polinom), 33hasonló (két mátrix), 34hasonlósági transzformáció, 34hatvány módszer, 52hermetikus mátrix, 39hibavektor, 56homogén rendszer, 5iterációs mátrix, 56

iterációs módszer, 56iterációs sorozat, 56iterációs vektorsorozat, 56J(ω)-módszer, 59J-módszer, 58Jacobbi-féle túlrelaxációs módszer, 59Jacobbi-iteráció, 58Jordan-elimináció, 9közelítés hibája, 3küls® szorzat, 11kanonikus felbontás, 28karakterisztikus polinom, 33kompatibilis (norma), 44kondíciószám, 67konjugált transzponált mátrix, 35konvergencia (mátrixsorozatoké), 48konvergencia (vektorsorozatoké), 47kvázi diagonális, 16kvázi trianguláris, 16LR algoritmus, 19LR alkalmazásai, 21LR egzisztenciája, 16LR unicitása, 16LR-felbontás, 16mátrix invertálás (Frobénius-féle), 15mátrix invertálás (Jordan-féle), 9mátrix nyoma, 34mátrixnorma, 42oszlopnorma, 44p-norma, 42p-reguláris szétvágás, 63partícionálás, 14permutációs mátrix, 12pozitiv de�nit, 39preturbáció, 68reguláris szétvágás, 58relatív hibakorlát, 3S(ω)-módszer, 59

71

Page 73: Numerikus matematika

PERTURBÁCIÓ 72

S-módszer, 59sajátérték, 33sajátérték multiplicitása, 34sajátvektor, 33Schur-féle normálforma, 36Seidel-iteráció, 59skalár szorzat, 11sornorma, 44spektrálnorma, 44spektrálsugár, 44származtatott mátrixnorma, 43Szukszecesszív túlrelaxációs módszer, 59trace, 34triangulizálható, 34tridiagonális mátrix, 22unitér mátrix, 35vektornorma, 41