75
SYLLABUS LINEAIRE ALGEBRA 2 ******** R.J.Kooman Universiteit Leiden najaar 2007 0

SYLLABUS LINEAIRE ALGEBRA 2

Embed Size (px)

Citation preview

Page 1: SYLLABUS LINEAIRE ALGEBRA 2

SYLLABUS

LINEAIRE ALGEBRA 2

********

R.J.Kooman

Universiteit Leiden

najaar 2007

0

Page 2: SYLLABUS LINEAIRE ALGEBRA 2

INHOUDSOPGAVE

I. Algemene begrippen.

Vectorruimten 1Lineaire deelruimte, lineaire onafhankelijkheid, basis 2Lineaire afbeeldingen 4Lineaire afbeeldingen en matrices 7Basistransformaties 8Directe som en projectie 9Quotientverzamelingen en quotientruimte 11Restrictieafbeelding en quotientafbeelding 12Het tensorproduct van vectorruimten 13

II. Determinant en spoor.

De determinant van een matrix 15Permutaties 15Eigenschappen van determinanten 16De Wronskiaan 17De determinant van Vandermonde 18Ontwikkeling van de determinant naar een kolom 19Het spoor van een matrix 20Het volume van een k-blok in Rn 20De afstand van een punt tot een k-blok in Rn 21

III. Spectraaltheorie van endomorfismen in eindig-dimensionale

complexe vectorruimten.

Eigenwaarden en eigenvectoren 23Diagonaliseerbare en nilpotente afbeeldingen 24Gegeneraliseerde eigenvectoren. Een meetkundige interpretatie vande algebraısche multipliciteit. 25De Jordan-normaalvorm. 27Gelijkvormige matrices. 30Minimumpolynoom. De stelling van Cayley-Hamilton 31Gemeenschappelijke eigenvectoren van commuterende endomorfismen 32De cirkels van Gershgorin 32Appendix 33

1

Page 3: SYLLABUS LINEAIRE ALGEBRA 2

IV. Inwendige producten op vectorruimten.

Inproducten op reele vectorruimten 35Inproducten op complexe vectorruimten 36Norm en afstand. De ongelijkheid van Schwarz 37De methode van Gram-Schmidt en QR-decompositie van een matrix 38Representatie t.o.v. een orthonormale basis 39De geadjungeerde van een lineaire afbeelding 40Orthogonaal complement en orthogonale projectie 41De matrix van een orthogonale projectie 43Toepassing: de methode van kleinste kwadraten 44Unitaire en orthogonale afbeeldingen. 44

V. De duale van een vectorruimte. 49De getransponeerde afbeelding 50De annihilator van een lineaire deelruimte 50Duale vectorruimte en tensorproduct 50

VI. Genormeerde vectorruimten.

De norm van een lineaire afbeelding. 51Banach- en Hilbertruimten. Convergente rijen van lineaire afbeeldingen. 53De e-macht van een matrix. 54Vector- en matrixwaardige functies 55Toepassing: stelsels van lineaire differentiaalvergelijkingen 56

VII. Spectraaltheorie van normale afbeeldingen.

Normale afbeeldingen 58Symmetrische matrices 60Kwadratische vormen op Rn 61Rayleighquotient en minimaxprincipe 62

VIII. Positief-definiete matrices. 64De polaire decompositie 66De singuliere-waardendecompositie van een matrix. 66

Index. 69

2

Page 4: SYLLABUS LINEAIRE ALGEBRA 2

I. ALGEMENE BEGRIPPEN.

Vectorruimten.

Definitie: Een vectorruimte over K (met K = R of C) is een niet-lege verzameling V met twee be-werkingen, een optelling en een scalaire vermenigvuldiging, zodanig dat de volgende eigenschappengelden (in het onderstaande zijn u, v, w ∈ V en λ, µ ∈ K).

1. v + w = w + v (commutativiteit van de optelling).

2. (v + w) + u = v + (w + u) (associativiteit van de optelling).

3. er is een nulelement 0 (ook wel genoteerd als 0V ) zodanig dat 0+ v = v +0 = v voor alle v ∈ V .

4. Elke v ∈ V heeft een inverse −v, zodanig dat v + (−v) = 0.

5. λ(v + w) = λv + λw (distributieve eigenschap 1).

6. (λ + µ)v = λv + µv (distributieve eigenschap 2).

7. (λµ)v = λ(µv) (associativiteit van de scalaire vermenigvuldiging).

8. 1 · v = v

K heet het lichaam van de scalairen. Als K = R dan noemen we V een reele vectorruimte, alsK = C, dan heet V een complexe vectorruimte. (Ook andere lichamen K kunnen optreden alslichaam van scalairen. We beperken ons in dit college tot K = R resp. C en gaan niet verder ophet begrip lichaam in.)

Voorbeelden van vectorruimten: 1. V = Rn bestaande uit geordende rijtjes (x1, x2, . . . , xn),vectoren genoemd, met xi ∈ R, en de componentsgewijze optelling en scalaire vermenigvuldiging,is een vectorruimte over R. In plaats van rijtjes schrijven we vectoren in Rn in de regel als

kolomvectoren, dus

x1

x2...

xn

. Voor deze kolomvector schrijven we ook wel (x1, x2, . . . , xn)T , waarbij

T staat voor transponeren, d.w.z. rijen en kolommen in een matrix omwisselen.

2. Geheel analoog is V = Cn een vectorruimte over C.

3. De vectorruimte van m× n-matrices met elementen in K = R of C met de componentsgewijzeoptelling en scalaire vermenigvuldiging is een vectorruimte over K. We noteren deze alsM(m× n,K).

4. De verzameling van de complexe getallen a + bi (met a, b ∈ R) vormt een reele vectorruimte.

5. De vectorruimte P (K) van polynomen a0 + a1X + . . . anXn met coefficienten ai ∈ K metde termsgewijze optelling en scalaire vermenigvuldiging is een vectorruimte over K (d.w.z. (a0 +a1X + . . . + anXn) + (b0 + b1X + . . . + bnXn) = (a0 + b0) + (a1 + b1)X + . . . + (an + bn)Xn enλ(a0 + a1X + . . . + anXn) = (λa0 + λa1X + . . . + λanXn)).

6. De vectorruimte van reeel- resp. complexwaardige functies van een niet-lege verzameling X naarR resp. C (bijvoorbeeld X = [a, b] ∈ R met a < b). De optelling en scalaire vermenigvuldigingzijn gedefinieerd als (f + g)(x) = f(x) + g(x) en (λf)(x) = λf(x) voor λ ∈ K.

1

Page 5: SYLLABUS LINEAIRE ALGEBRA 2

We zullen het woord vector ook in een algemene zin voor een element van een vectorruimte ge-bruiken. Verder geven we scalairen meestal aan met Griekse letters λ, µ, ν, . . ., maar ook wel alsx1, x2 . . . , (bijvoorbeeld wanneer het de componenten van een vector x zijn).

De eigenschappen 1-8 definieren een vectorruimte. Andere eigenschappen moeten we uit deze achtafleiden. Een voorbeeld is de eigenschap dat 0 · v = 0V voor alle v ∈ V . Dit volgt uit:

0 · v = (0 + 0) · v = 0 · v + 0 · v,

vanwege eigenschap 6. De inverse links en rechts optellen geeft (eigenschap 4)

0V = −0 · v + 0 · v = −0 · v + 0 · v + 0 · v = 0 · v.

Opmerking: Net zo is aan te tonen: 1. Voor elke v ∈ V geldt dat (−1) · v = −v. 2. Zowel hetnulelement als de inverse van een vector v zijn uniek bepaald.

Lineaire deelruimte, lineaire onafhankelijkheid, basis.

Zij V een vectorruimte over K. Een niet-lege deelverzameling W ⊂ V is een lineaire deelruimtevan V als voor elke v, w ∈ W en λ ∈ K geldt dat v + w ∈ W en λv ∈ W . Een lineaire deel-ruimte van een vectorruimte V is zelf dus weer een vectorruimte t.a.v. de optelling en scalairevermenigvuldiging in V . In het bijzonder is elke vectorruimte een lineaire deelruimte van zichzelf.Elke lineaire deelruimte is het opspansel span{a1, a2, . . .} van een verzameling vectoren (bestaandeuit alle eindige (!) lineaire combinaties van deze vectoren). Een stelsel vectoren {b1, b2, . . .} in eenvectorruimte V heet lineair onafhankelijk als er geen niet-triviale eindige lineaire afhankelijkheids-relaties zijn, m.a.w. uit λ1b1 + . . . + λkbk = 0 volgt dat λ1 = . . . = λk = 0 voor elke eindige k.Als een opspannend stelsel vectoren van een lineaire deelruimte tevens lineair onafhankelijk is danheet het stelsel een basis van de lineaire deelruimte. Iedere vector in de lineaire deelruimte is danop een unieke manier te schrijven als een eindige lineaire combinatie van de opspannende vectoren.

Voorbeelden. 1. Als V een vectorruimte is met nulelement 0V , dan zijn zowel {0V } als V zelflineaire deelruimten.

2. V = Kn (K = R of C). Laat e1 =

10...0

, . . . , en =

00...1

. Iedere vector x =

x1

x2...

xn

∈ Kn is op

een unieke manier te schrijven als een lineaire combinatie x = x1e1 + . . .+xnen. {e1, . . . , en} heet

de standaardbasis van Kn en x =

x1

x2...

xn

noemen we de standaardrepresentatie van de vector x.

Laat f1, . . . , fk lineair onafhankelijke vectoren zijn. Dan bestaat het opspansel spanK{f1, . . . , fk}uit alle lineaire combinaties van de vectoren f1, . . . , fk met coefficienten in K. Dit opspansel is eenlineaire deelruimte van Kn met basis f1, . . . , fk.

2

Page 6: SYLLABUS LINEAIRE ALGEBRA 2

3. Rn is geen lineaire deelruimte van Cn.

4. V = M(n × n,K). Een matrix A heet symmetrisch, resp. antisymmetrisch als AT = A resp.AT = −A. De symmetrische n × n-matrices vormen een lineaire deelruimte Symn(K). Evenzovormen de antisymmetrische n×n-matrices een lineaire deelruimte Antn(K). Andere voorbeeldenvan lineaire deelruimten zijn de verzameling diagonaalmatrices, de verzameling bovendriehoeksma-trices (of onderdriehoeksmatrices). De verzameling van inverteerbare matrices is daarentegen geenlineaire deelruimte van V .

5. Laat V = P (K), de vectorruimte van polynomen met coefficienten in K (K is uiteraard weerR of C). P (K) is het opspansel van 1, X,X2, . . .. Een lineaire deelruimte wordt gevormd doorde verzameling polynomen Pn(K) van graad hoogstens n. Dit is span{1, X, . . . ,Xn}. Een andervoorbeeld van een lineaire deelruimte wordt gevormd door de verzameling polynomen in P (K)zodat P (2) = 0. Deze laatste lineaire deelruimte heeft als basis {X − 2, (X − 2)2, (X − 2)3, . . .}.De polynomen van graad precies n vormen geen lineaire deelruimte.

6. V is de vectorruimte van K-waardige functies van [a, b] naar K. Een lineaire deelruimtewordt gevormd door de continue functies van [a, b] naar K, notatie C([a, b],K). De (K-waardige)differentieerbare functies op [a, b] vormen een lineaire deelruimte van de laatste en dus ook van V .Bases van deze lineaire deelruimte zijn niet echter aan te geven.

Merk op dat in een vectorruimte alleen eindige lineaire combinaties gedefinieerd zijn, ook alser oneindig veel elementen in een basis zitten. Beschouw als voorbeeld de vectorruimte P (K)van polynomen over K, die als basis 1, X, X2, X3 . . . heeft. Oneindige lineaire combinaties, van1, X, X2, . . ., de formele machtreeksen, liggen niet in P (K).

In een vectorruimte V zijn er oneindig veel mogelijkheden om een basis te kiezen (behalve voorV = {0}, dat geen basis heeft). Elk lineair onafhankelijk stelsel dat de vectorruimte opspantvoldoet. Wat wel onafhankelijk van de keuze van de basis is, is het aantal vectoren waaruit eenbasis bestaat. Dit zullen we nu aantonen.

Propositie 1.1: Een lineair onafhankelijk stelsel in V heeft nooit meer vectoren dan een basis vanV .

Bewijs: We geven het bewijs voor het geval dat V een basis heeft bestaande uit eindig veel vectoren.Laat {v1, . . . , vn} een basis van V zijn en {w1, . . . , wm} een lineair onafhankelijk stelsel. Welaten zien dat elke vector wi uit het lineaire onafhankelijke stelsel kan worden verwisseld meteen basisvector vj zo, dat het stelsel lineair onafhankelijk blijft. Stel nl. dat dit voor (zeg) w1

niet het geval is. Dan is het stelsel {vj , w2, . . . , wm} lineair afhankelijk voor elke basisvector vj .Omdat w2, . . . , wm volgens de aanname lineair onafhankelijk zijn, is elke vj een lineaire combinatievan w2, . . . , wm. Daar de vj ’s een basis vormen is w1 een lineaire combinatie van de vj ’s en dusvan w2, . . . , wm. Maar dan zijn w1, w2, . . . , wm lineair afhankelijk, in tegenspraak met de aanname.Conclusie: er is een vj , noem deze vj1 , zodat {vj1 , w2, . . . , wm} lineair onafhankelijk is. Op dezelfdewijze kunnen we w2 uitwisselen tegen, zeg vj2 , zodat {vj1 , vj2 , w3, . . . , wm} lineair onafhankelijk is.

3

Page 7: SYLLABUS LINEAIRE ALGEBRA 2

Zo verdergaand vinden we tenslotte m lineair onafhankelijke vectoren vj1 , . . . , vjm . In het bijzonderzijn deze verschillend, dus m ≤ n. ¦

Gevolgen 1.2: a. Als een vectorruimte V hoogstens eindig veel lineair onafhankeijke vectorenbevat dan heeft elke basis van V evenveel vectoren. Dit aantal noemen we de dimensie van V

(notatie: dim(V )). Als er oneindig veel lineair onafhankelijke vectoren zijn, dan is de dimensie vanV oneindig. (Ook in dit geval kunnen we verschillende soorten van oneindig onderscheiden. Als ereen oneindige rij {f1, f2, . . .} lineair onafhankelijke vectoren bestaat die V opspannen dan zeggenwe dat de dimensie van V aftelbaar oneindig is.)

b. Zij V een vectorruimte van eindige dimensie n. Een lineair onafhankelijk stelsel in V dat n

vectoren bevat is een basis. M.a.w., een basis is een maximaal lineair onafhankelijk stelsel.

Bewijs: Stel nl. dat {a1, . . . , an} een lineair onafhankelijk stelsel is dat V niet opspant. Dan is ereen vector an+1 ∈ V die lineair onafhankelijk is van a1, . . . , an. Het lineair onafhankelijke stelsel{a1, . . . , an+1} bevat dan meer vectoren dan een basis. Dit is in tegenspraak met Propositie 1.1. ¦c. Zij V een vectorruimte van eindige dimensie n. Een opspannend stelsel dat uit precies n vectorenbestaat is een basis.

d. Zij V een vectorruimte en W een lineaire deelruimte. Dan is dim(W ) ≤ dim(V ). Als dim(W ) =dim(V ) en V heeft eindige dimensie, dan is W = V .

e. De dimensie van de reele, resp. complexe vectorruimten Rn, resp. Cn is n. De vectorruimtevan polynomen P (K) heeft dimensie ∞.

f. Cn =spanC{e1, e2, . . . , en} is op te vatten als een reele vectorruimte van dimensie 2n, nl. alsspanR{e1, ie1, . . . , en, ien}.

Opgave: Laat V een vectorruimte zijn van eindige dimensie n en laat {a1, . . . , ak} een lineaironafhankelijk stelsel zijn. Laat zien dat er vectoren ak+1, . . . , an ∈ V zijn zodanig dat {a1, . . . , an}een basis is van V , m.a.w. elk lineair onafhankelijk stelsel is aan te vullen tot een basis.

Opgave: Toon aan dat de kleinste lineaire deelruimte van de vectorruimte Cn dieRn = spanR{e1, e2, . . . , en} bevat, Cn zelf is.

Lineaire afbeeldingen.

We beschouwen nu afbeeldingen tussen vectorruimten. Een centrale rol wordt gespeeld door af-beeldingen die de vectorruimtestructuur behouden:

Definitie: Laat V, W vectorruimten zijn over K (K = R of C). De afbeelding T : V → W heetlineair als voor elke v, v′ ∈ V en λ ∈ K geldt dat: 1. T (v+v′) = T (v)+T (v′) en 2. T (λv) = λT (v).

Voorbeelden:

1. T : Kn → Km gegeven door T (x) = Ax met A een m × n-matrix is een lineaire afbeelding.Omgekeerd zullen we zien dat elke lineaire afbeelding van Kn naar Km van de vorm T (x) = Ax

is met A een m× n-matrix.

4

Page 8: SYLLABUS LINEAIRE ALGEBRA 2

2. Zij C = C([a, b],K) de vectorruimte van K-waardige continue functies op het interval [a, b] ⊂ R.De afbeelding T : C → K gegeven door T (f) = f(c) (met c ∈ [a, b]) is een lineaire afbeelding.

3. Laat C als in (2) gedefinieerd zijn. De afbeelding T : C → C gegeven door T (f) = fg voor eenvaste g ∈ C is lineair.

4. M = M(m × n,K) de vectorruimte van m × n-matrices met elementen in K. T : M → K

gegeven door T (A) = Aij is lineair (Aij is het element in de i-e rij en j-e kolom van A. We schrijvenook wel A = (Aij)).

5. T : M → M gegeven door T (A) = AT (transponeren) is lineair.

6. Laat V een vectorruimte zijn. De identieke afbeelding idV : V → V , gedefinieerd als de afbeeldingdie ieder element op zichzelf afbeeldt, m.a.w. idV (v) = v voor alle v ∈ V , is lineair.

Laat V en W vectorruimten over hetzelfde lichaam K zijn. Op de verzameling lineaire afbeeldingenvan V naar W kunnen we de structuur van een vectorruimte leggen: als T, U : V → W lineaireafbeeldingen zijn, dan definieren we de som T + U en het scalair product λT d.m.v. (T + U)(v) =T (v) + U(v) en (λT )(v) = λT (v) waarbij v ∈ V . Het is duidelijk dat T + U en λT ook lineaireafbeeldingen van V naar W zijn. De vectorruimte van lineaire afbeeldingen van V naar W gevenwe aan als L(V, W ).

Opgave: Toon aan: als V en W eindige dimensie hebben dan is dim(L(V, W )) = dim(V ) dim(W ).Geef ook een basis van L(V, W ) aan.

Definitie: Een lineaire afbeelding T : V → V van een vectorruimte in zichzelf noemen we ookeen (lineair) endomorfisme. De vectorruimte L(V, V ) van endomorfismen van een vectorruimte V

noteren we korter als als L(V ). L(V ) heeft een rijkere algebraısche structuur dan een vectorruimte,doordat er naast de optelling en scalaire vermenigvuldiging ook nog d.m.v. de compositie vantwee endomorfismen een vermenigvuldiging is gedefinieerd. Laat immers T, U ∈ L(V ), en zijTU : V → V gedefinieerd d.m.v. TU(v) = T (U(v)) voor v ∈ V . Het is eenvoudig om na te gaandat TU weer lineair is (doe dit!). Voor de vermenigvuldiging gelden de extra eigenschappen:

i. S(T + U) = ST + SU, (T + U)S = TS + US (distributiviteit).

ii. S(TU) = (ST )U (associativiteit).

iii. λTU = (λT )U = T (λU) voor λ ∈ K.

Een vectorruimte met een vermenigvuldiging zodanig dat eigenschappen (i-iii) gelden, noemen weeen algebra. Merk op dat de vermenigvuldiging niet commutatief hoeft te zijn. De algebra L(V )heeft ook een eenheidselement I = idV , zodat IT = TI = T voor alle t ∈ V . Niet elke algebraheeft een eenheidselement. Een ander voorbeeld van een algebra is de vectorruimte M(n× n,K)van n × n-matrices met elementen in K, met de gewone matrixoptelling en -vermenigvuldiging.Deelalgebra’s hiervan zijn de algebra’s bestaande uit de n×n-bovendriehoeksmatrices en de n×n-stricte bovendriehoeksmatrices (met nullen op de hoofddiagonaal). De laatste algebra heeft geeneenheidselement.

We voeren nu een aantal begrippen in die van belang zijn bij de bestudering van afbeeldingen.

5

Page 9: SYLLABUS LINEAIRE ALGEBRA 2

Definities:

i. Zij T : V → W een lineaire afbeelding: Als U ⊂ V dan heetT (U) = {v ∈ W : v = T (u) voor zekere u ∈ U} het beeld van U ; T (U) is dus de verzameling vanbeelden van elementen uit U onder T . Als U een lineaire deelruimte van V is, dan is T (U) eenlineaire deelruimte van W . Als U = V , dan schrijven we i.p.v. T (V ) ook wel im(T ). im(T ) heethet bereik van T . De dimensie van im(T ) heet de rang van T ; als V, W eindige dimensie hebben,dan is de rang van T gelijk aan de rang van een matrix van T . T heet surjectief (of: op) alsT (V ) = W .

ii. Als Z ⊂ W dan heet de verzameling T−1(Z) = {v ∈ V : T (v) ∈ Z} van T het inverse beeld van Z.T−1(Z) is de verzameling originelen van elementen van Z onder T . Als Z een lineaire deelruimteis van W , dan is het inverse beeld een lineaire deelruimte van V . Voor het inverse beeld van {0W }(de kern of nulruimte van T ) schrijven we ook wel ker(T ) of T−1(0). T heet injectief (of 1-1) alselke w ∈ W hoogstens een origineel heeft. Een lineaire afbeelding T : V → W is injectief dan enslechts dan als de nulruimte alleen uit het nulelement van V bestaat.

iii. Als T injectief en surjectief is, dan heet T bijectief of inverteerbaar. In dit geval kunnen we eeninverse afbeelding T−1 : W → V definieren zodanig dat T ◦ T−1 = idW en T−1 ◦ T = idV ,m.a.w. T−1(w) = v dan en slechts dan als T (v) = w. Een inverteerbare lineaire afbeeldingT : V → W noemen we ook wel een vectorruimte-isomorfisme. V en W heten in dat gevalisomorfe vectorruimten.

Voorbeeld: De afbeelding T : R3 → R2 wordt gegeven door T (x) =(

1 2 30 1 3

)x. T heeft rang

2 en is dus surjectief: T (R3) = R2.

De afbeelding U : R2 → R3 wordt gegeven door U(x) =

1 02 13 3

x. Ker(U) bestaat alleen uit de

nulvector 0. U is dus injectief.

Voor inverteerbare lineaire afbeeldingen geldt:

Propositie 1.3: De inverse van een inverteerbare lineaire afbeelding is lineair.

Bewijs: Laat T : V → W een lineaire afbeelding zijn tussen vectorruimten V en W . Laat w1, w2 ∈W . Daar T inverteerbaar is, zijn er v1, v2 ∈ V zodanig dat T (v1) = w1 en T (v2) = w2. Dan is

T−1(w1 + w2) = T−1(T (v1) + T (v2)) = T−1(T (v1 + v2)) = v1 + v2 = T−1(w1) + T−1(w2).

Verder is

T−1(λw1) = T−1(λT (v1)) = T−1(T (λv1)) = λv1 = λT−1(w1). ¦

Opgave: Toon aan: als S : V → W en T : W → Z inverteerbare lineaire afbeeldingen zijn, dan isTS : V → Z inverteerbaar en (TS)−1 = S−1T−1.

6

Page 10: SYLLABUS LINEAIRE ALGEBRA 2

Voorbeeld: De vectorruimte Pn(K) van polynomen van graad hoogstens n is isomorf met devectorruimte Kn+1. Een vectorruimte-isomorfisme is de afbeelding T : Pn(K) → Kn+1 gedefinieerddoor

T (x0 + x1X + . . . + xnXn) = (x0, x1, . . . , xn)T .

Het voorafgaande voorbeeld kunnen we direct generaliseren naar het geval van twee vectorruimtenvan dezelfde dimensie: laat V, W vectorruimten over K van dezelfde dimensie n zijn. Dan zijnV en W isomorf. Immers laat A = {a1, . . . ,an} een basis van V en B = {b1, . . . ,bn} een basisvan W zijn. Laat de lineaire afbeelding T : V → W gegeven zijn door T (aj) = bj (zoals weweten is T geheel bepaald door de beelden van de basisvectoren). Het is nu duidelijk dat T eenvectorruimte-isomorfisme is.

Gevolg 1.4: Twee vectorruimten met hetzelfde lichaam K van scalairen en dezelfde eindige di-mensie zijn isomorf.

Een speciaal geval van het bovenstaande krijgen we door W = Kn en B de standaardbasis tenemen. Zij v = v1a1 + . . . + vnan; dan wordt het vectorruimte-isomorfisme T : V → Kn gegevendoor T (v) = (v1, . . . , vn)T . T heet de coordinaatafbeelding (m.b.t. de basisA). We noteren hiervoorT = BA. Voor de coordinaatvector BA(v) noteren we ook vA.

Voor een lineaire afbeelding bestaat het volgende verband tussen zijn rang en de dimensie van dekern:

Propositie 1.5 (dimensiestelling): Zij T : V → W lineair. Dan geldt:

dim ker(T ) + rang(T ) = dim(V ). (1.1)

Bewijs: zij {b1, . . . ,bm} een basis van ker(T ) en vul deze aan tot een basis {b1, . . . ,bn} van V . Danwordt im(T ) opgespannen door T (b1), . . . , T (bn) en dus door T (bm+1), . . . , T (bn) omdat T (b1) =. . . = T (bm) = 0. We tonen nu aan dat het stelsel {T (bm+1, . . . , T (bn)} lineair onafhankelijken dus een basis van im(T ) is. Neem aan dat λm+1T (bm+1) + . . . + λnT (bn) = 0. Dan isT (λm+1bm+1 + . . .+λnbn) = 0 dus de vector λm+1bm+1 + . . .+λnbn ligt in ker(T ). Maar omdatbm+1, . . . ,bn lineair onafhankelijk van de vectoren b1, . . . ,bm gekozen zijn, is λm+1 = . . . = λn =0. Conclusie: dim im(T ) = n−m = dim(V )− dim ker(T ). ¦

Lineaire afbeeldingen en matrices.Een lineaire afbeelding T : V → W wordt geheel bepaald door de beelden van de basisvectoren.Immers als {b1, . . . ,bn} een basis is van V (n kan eventueel oneindig zijn), dan is elke v ∈ V

een eindige lineaire combinatie λ1b1 + . . . λkbk en dus is T (v) = λ1T (b1) + . . . + λkT (bk). AlsV, W eindig-dimensionaal zijn, dan kan T d.m.v. een matrix worden gerepresenteerd. Dit gaat opde volgende manier: laat B = {b1, . . . ,bn} een basis van V zijn en C = {c1, . . . , cm} een basisvan W . Dan zijn er getallen Aij ∈ K zodanig dat T (bj) =

∑mi=1 Aijci. Laat A de matrix (Aij)

zijn, m.a.w. Aij is het element in de i-e rij en j-e kolom van A. Dan bevat de j-e kolomvector

7

Page 11: SYLLABUS LINEAIRE ALGEBRA 2

de coefficienten van T (bj) t.o.v. de basis C. Laat nu v = v1b1 + . . . vkbk zijn. De kolomvectorT (v)C van coefficienten van T (v) t.o.v. de basis C is nu het matrixproduct van de matrix A met de

kolomvector vB =

v1...

vn

. De matrix A noemen we de matrix van T t.o.v. de bases B en C. We

noteren deze matrix ook wel als TBC . We kunnen dit resultaat kort schrijven als

T (v)C = TBC (vB).

Als V eindig-dimensionaal is met dimensie n, dan is voor elke basis B van V de matrix (idV )BB deeenheidsmatrix In.

In het geval dat V = Kn en W = Km, kunnen we voor B en C de standaardbases van V en W

kiezen. In dit geval is vB, resp vC de standaardrepresentatie van v in V resp. W en we schrijvendan v voor vB resp. vC . Dan is T (v) = Av met A = TBC . Een lineaire afbeelding van Kn naar Km

is dus (in de standaardrepresentatie) van de vorm v → Av voor een m × n-matrix A. A heet destandaardmatrix van de afbeelding T .

Opmerking: Als V en W eindig-dimensionaal zijn, en A = TBC is de matrix van T ∈ L(V, W )t.o.v. zekere bases B = {b1, . . . ,bn} en C van V resp. W , dan is n = dim(V ) het aantal kolommen

van A; verder is v = λ1b1 + . . . + λnbn ∈ ker(T ) dan en slechts dan als A

λ1...

λn

= 0 dus is

dim(ker(T )) = dim(ker(A)). Dan geldt, m.b.v. Propositie 1.3,

rang(A) := n− dim(ker(A)) = dim(V )− dim(ker(T )) = rang(T ).

Hierbij is de rang van de matrix A gelijk aan het aantal lineair onafhankelijke kolomvectoren vande matrix A.

Basistransformaties.

Laat V een eindig-dimensionale vectorruimte zijn en T : V → V een lineaire afbeelding. Weonderzoeken hoe de matrix van de afbeelding T verandert als we overgaan op een andere basisvan V . Laat A := {a1, . . . ,an} en C := {c1, . . . , cn} twee bases zijn van V . Voor v ∈ V zijnde coordinaatafbeeldingen BA, BC : V → Kn gedefinieerd door BA(v) = vA, BC(v) = vC metvA = (v1, v2, . . . , vn)T waarbij v1, . . . , vn de coordinaten van v t.o.v. de basis A zijn. De afbeeldingBAC : Kn → Kn gegeven door BA

C (vA) = vC is lineair en inverteerbaar, nl. BAC = (BC

A)−1. Dematrix van deze afbeelding noemen we ook BA

C . Merk op dat de kolomvectoren van BAC gelijk zijn

aan (a1)C , . . . , (an)C . Laat nu T : V → V een lineaire afbeelding zijn. De matrix TAA van T t.o.v.de basis A is gedefinieerd als TAA (vA) = (T (v))A (en analoog voor T CC ). Nu geldt:

T CC = BAC TAABC

A = BAC TAA (BA

C )−1. (1.2)

8

Page 12: SYLLABUS LINEAIRE ALGEBRA 2

In het bijzonder zien we dat twee matrices van dezelfde lineaire afbeelding t.o.v. verschillende basisgelijkvormig zijn. (Matrices A,B heten gelijkvormig als B = U−1AU voor zekere inverteerbarematrix U .)

Voorbeeld. Laat V = P1(R) = span{1, X}, de vectorruimte van reele polynomen van graadhoogstens 1. Laat A = {1, X} en C = {1 + X, X} twee bases van V zijn. Dan zijn de basistrans-formatiematrices

BCA =

((1 + X)A, XA

)=

(1 01 1

)en BA

C = (BCA)−1 =

(1 0−1 1

).

Het polynoom p(X) = 2X + 3 heeft coefficienten pA =(

32

)en

pC = BAC pA =

(1 0−1 1

)(32

)=

(3−1

).

Inderdaad is p(X) = 3(1 + X)−X.

Laat verder T : V → V de lineaire afbeelding zijn die wordt gegeven door T (p) = −2p(x)+xp′(x).

De matrix van T t.o.v. de basis A = {1, X} is TAA =(−2 0

0 −1

). De matrix van T t.o.v. de basis

C is nuT CC = BA

C TAABCA =

(1 0−1 1

)(−2 00 −1

)(1 01 1

)=

(−2 01 −1

).

Inderdaad zien we dat T (1 + X) = −2−X = −2(1 + X) + X en T (X) = −X = 0(1 + X)−X.

Directe som en projectie.Laat V een vectoruimte en U,W lineaire deelruimten van V zijn. De som U + W van U en W

bestaat uit alle lineare combinaties u + w met u ∈ U en w ∈ W . Het is de kleinste lineairedeelruimte van V die U en W omvat. Als U ∩W 6= {0V } dan is de schrijfwijze niet uniek (vergelijkhet geval dat V = R3 en U,W twee snijdende vlakken door de oorsprong zijn). Als U ∩W = {0V }dan is elke v ∈ U + W op precies een manier te schrijven als som u + w met u ∈ U en w ∈ W .Immers neem aan dat u+w = u′+w′ voor u, u′ ∈ U en w, w′ ∈ W . Dan is u−u′ = w′−w ∈ U∩W ,dus u = u′ en w = w′. De som heet dan de directe som: U ⊕W .

Analoog is een vectorruimte V de directe som V = U1⊕. . .⊕Uk van lineaire deelruimten U1, . . . , Uk

als iedere v ∈ V op een unieke manier als een lineaire combinatie v = u1 + . . . + uk met uj ∈ Uj iste schrijven. Merk op dat U ⊕ V ⊕W = (U ⊕ V )⊕W = U ⊕ (V ⊕W ).

Definitie: Zij V = U ⊕W voor zekere lineaire deelruimten U en W . De afbeeldingen πU : V → V

en πW : V → V zijn als volgt gedefinieerd: voor v ∈ V zijn er unieke u ∈ U en w ∈ W zodanig datv = u + w. Dan is

πU (v) = u, πW (v) = w.

πU heet de projectie op U langs W ; πW heet de projectie op W langs U .

9

Page 13: SYLLABUS LINEAIRE ALGEBRA 2

De projecties πU en πW zijn lineaire afbeeldingen en verder geldt

π2U = πU , πW = π2

W

terwijlπUπW = πW πU = 0, πU + πW = idV .

Analoog zijn voor V = U1 ⊕ . . .⊕ Uk de projecties πU1 , . . . , πUkgedefinieerd, waarbij πUj

(v) = uj

waarbij v = u1 + . . . + uk en uj ∈ Uj (j = 1, . . . , k). Ook hier geldt:

πU1 + . . . + πUk= idV , πUi = π2

Ui, πUiπUj = 0 (i 6= j).

In het algemeen noemen we een afbeelding P : V → V een projectie als P lineair is en P 2 = P . In ditgeval is V = ker(P )⊕ im(P ) en P = πim(P ). Immers voor elke v ∈ V geldt dan v = P (v)+(v−P (v))en P (v) ∈ im(P ), v−P (v) ∈ ker(P ). Dus V is de som van ker(P ) en im(P ). Om te laten zien datde som een directe som is, nemen we v ∈ im(P ) ∩ ker(P ). Omdat v ∈ im(P ), is v = P (w) voorzekere w ∈ W . Dan is P (v) = P 2(w) = P (w) = v. Anderzijds is P (v) = 0 omdat v ∈ ker(P ),en dus is v = 0. Uit het bovenstaande volgt ook dat im(P ) bestaat uit de vectoren v ∈ V zodatP (v) = v. (In termen van eigenvectoren kunnen we zeggen dat een projectie P eigenwaarden 0 en1 heeft en im(P ) is de eigenruimte bij eigenwaarde 1).

Opmerking: Als P : V → V een projectie is, dan is idV − P : V → V eveneens een projectie en

im(idV − P ) = ker(P ), ker(idV − P ) = im(P ).

Voorbeelden: 1. Zij V = R2, U = span{(

11

)} en W = span{

(1−1

)}. πU : V → V noemen we

de projectie op U langs W . Er geldt dus

πU

(11

)=

(11

), πU

(1−1

)=

(00

).

We bepalen de matrix P van πU t.o.v. de standaardbasis {e1, e2}. Laat B de basis {(

11

),

(1−1

)}

zijn. De matrix van πU t.o.v. de basis B is dus (πU )BB =(

1 00 0

), en de matrix P is dan

P = (πU )EE = BBE (πU )BBBE

B =(

1 11 −1

)(1 00 0

) (1 11 −1

)−1

=12

(1 11 1

).

2. Zij V = Pn(C), de vectorruimte van complexe polynomen van graad hoogstens n. Laat U =span(1, X) en W = span(X2, . . . , Xn). Dan is V = U⊕W en voor p ∈ Pn is πU (p) = p(0)+p′(0)X.

3. Laat V = M(n × n,K) de vectorruimte van n × n-matrices zijn met coefficienten in hetlichaam K. U is de lineaire deelruimte van symmetrische matrices, W is de lineaire deelruimte

10

Page 14: SYLLABUS LINEAIRE ALGEBRA 2

van antisymmetrische matrices. Dan is V = U ⊕ W en voor A ∈ V is πU (A) = (A + AT )/2,πW (A) = (A−AT )/2.

Quotientverzamelingen en quotientruimten.

Een equivalentierelatie ∼ op een verzameling U is een relatie waarvoor de volgende drie eigenschap-pen gelden:

1. v ∼ v voor alle v ∈ V (reflexiviteit)

2. Als v ∼ w dan w ∼ v (symmetrie)

3. Als u ∼ v en v ∼ w dan is u ∼ w (transitiviteit)

Voorbeelden van een equivalentierelaties zijn:

1. Laat V een niet-lege verzameling zijn. Voor a, b ∈ V laat a ∼ b dan en slechts dan als a = b.Dit is een equivalentierelatie.

2. Laat U = Z en N een positief geheel getal. a ∼ b voor a, b ∈ U als a − b deelbaar is door N .We schrijven dit als a ≡ b modN .

3. U = M(n × n,K), de verzameling van n × n-matrices. A ∼ B (voor A,B ∈ U) als A en B

gelijkvormige matrices zijn, d.w.z. B = C−1AC voor een zekere matrix C ∈ U .

4. Laat V een vectorruimte zijn. Voor a, b ∈ V laat a ∼ b als a, b lineair afhankelijk zijn ena, b 6= 0V en verder 0V ∼ 0V . ∼ is een equivalentierelatie.

Als U een verzameling is met een equivalentierelatie ∼ dan kunnen we U verdelen in equivalen-tieklassen, zodanig dat in een equivalentieklasse alle elementen van U zitten die equivalent aanelkaar zijn. Zo’n equivalentieklasse noteren we als a: in de klasse a zitten alle elementen van U

die equivalent zijn met a. Als a ∼ b dan is dus a = b. Het element a heet een representant van deequivalentieklasse a.

In het geval van voorbeeld 2 zijn er N equivalentieklassen 0, 1, . . . , N − 1. De equivalentieklasse k

bestaat uit alle getallen die gelijk zijn aan k mod N , d.w.z. de getallen van de vorm k + mN voorm ∈ Z.

In het geval van voorbeeld 4 zijn de equivalentieklassen de lijnen door 0V m.u.v. 0V zelf en verderis er de klasse die alleen uit 0V bestaat.

De verzameling van equivalentieklassen heet een quotientverzameling. We noteren deze als U/ ∼.

We bekijken nu het geval dat U een vectorruimte is. Er bestaat dan een equivalentierelatie ∼zodanig dat de quotientverzameling zelf weer een vectorruimte is.

Laat V een vectorruimte over K zijn en W een lineaire deelruimte van V ; de relatie ”v ∼ v′ danen slechts dan als v− v′ ∈ W” is een equivalentierelatie op V . De quotientverzameling noteren wein dit geval als V/W . Merk op dat W gelijk is aan de klasse 0. We tonen aan dat op V/W destructuur van een vectorruimte gelegd kan worden. De optelling en scalaire vermenigvuldiging vantwee klassen zijn als volgt gedefinieerd: voor v, w ∈ V en λ ∈ K laat

v + w = v + w, λv = λv.

11

Page 15: SYLLABUS LINEAIRE ALGEBRA 2

Er moet nog worden nagegaan dat deze optelling en scalaire vermenigvuldiging goed zijn gedefinieerd:laat v′ en w′ twee willekeurige representanten van de klassen v, resp. w. We moeten nu aantonendat v′ + w′ = v + w en dat λv′ = λv. Maar als v ∼ v′ en w ∼ w′, dan is v′−v ∈ W en w′−w ∈ W

en dus is (v′ + w′)− (v + w) ∈ W en ook λv′ − λv ∈ W . De bewerkingen zijn dus inderdaad goedgedefinieerd. Met deze optelling en scalaire vermenigvuldiging vormt V/W een vectorruimte, dequotientvectorruimte van V en W .

Propositie 1.6. Als V en W eindig-dimensionale vectorruimten zijn, dan geldt voor de dimensievan V/W de volgende identiteit:

dim(V/W ) = dim(V )− dim(W ). (1.3)

Bewijs: Beschouw de kanonieke afbeelding T : V → V/W gedefinieerd door T (v) = v voor V . T iseen lineaire afbeelding (ga dit na); verder is T surjectief en ker(T ) = W . Volgens de dimensiestellingis dus

dim(V ) = dim(ker(T )) + rang(T ) = dim(W ) + dim(V/W ). ¦

We kunnen quotientruimten gebruiken om andere gelijkheden tussen dimensies van verschillendevectorruimten af te leiden. Een voorbeeld is het volgende: laat V, W lineaire deelruimten zijn vaneen vectorruimte U . Dan is de som V + W en ook de doorsnede V ∩W een lineaire deelruimte.De volgende relatie geldt tussen de dimensies:

Propositie 1.7.

dim(V + W ) + dim(V ∩W ) = dim(V ) + dim(W ). (1.4)

In het bijzonder volgt in het geval dat V + W een directe som is (d.w.z. als V ∩W = {0})

dim(V ⊕W ) = dim(V ) + dim(W ). (1.5)

Bewijs: De afbeelding T : V → V +W/W die v op (v mod W ) afbeeldt, is goed gedefinieerd, lineairen surjectief. De kern van T bestaat uit alle elementen uit V die in W liggen dus ker(T ) = V ∩W .Uit de dimensieformules (1.2) en (1.3) volgt dus

dim(V ) = dim(V + W/W ) + dim(V ∩W ) = dim(V + W )− dim(W ) + dim(V ∩W ).¦

Restrictieafbeelding en quotientafbeelding.

Laat V een vectorruimte zijn en W een lineaire deelruimte van V . Zij verder T : V → V een lineairendomorfisme van V dat W in zichzelf afbeeldt, d.w.z. T (W ) ⊂ W . We kunnen de afbeeldingT dan opvatten als een afbeelding in L(W ). We noemen deze afbeelding de restrictie T |W vanT op W . Er geldt dus T |W (w) = T (w) voor w ∈ W (voor v 6∈ W is T |W niet gedefinieerd).Verder kunnen we de quotientafbeelding T : V/W → V/W definieren d.m.v. T (v) = T (v). Gazelf na dat T goed gedefinieerd en lineair is. Neem nu aan dat V eindige dimensie n heeft. Laat

12

Page 16: SYLLABUS LINEAIRE ALGEBRA 2

W = {w1, . . . , wm} een basis van W zijn. Vul deze aan tot een basis V = {w1, . . . , wn} van V .Het stelsel vectoren W ′ = {wm+1, . . . , wn} is nu lineair onafhankelijk in V/W en dus een basis(waarom?). We zeggen ook dat het stelsel {wm+1, . . . , wn} lineair onafhankelijk modulo W is.Merk op dat een stelsel vectoren {y1, . . . , yk} lineair onafhankelijk modulo de lineaire deelruimteW is als uit λ1y1 + . . . + λkyk ∈ W volgt dat alle λi nul zijn.

Opgave: Ga na dat de matrix TVV van de afbeelding T t.o.v. de basis V van de vorm(

A BO C

)

is, waarbij A de matrix van T |W is t.o.v. de basis W van W en C de matrix van T t.o.v. de basisW ′ van V/W . In het bijzonder geldt de volgende uitdrukking voor de determinanten:

det(T ) = det(T |W ) det(T ). (1.6)

(Determinanten vormen het onderwerp van hoofdstuk II.)

Het tensorproduct van vectorruimten.

We beginnen met een voorbeeld. Beschouw de vectorruimte V = Pn(K) van polynomen in X

van graad hoogstens n en coefficienten in K. Een element van V kunnen we dus schrijven alsa0 + a1X + . . . + anXn. Laat W = Pm(K) de vectorruimte zijn van polynomen in Y van graadhoogstens m. W bestaat dus uit polynomen van de vorm b0 + b1Y + . . . + bmY m met bj ∈ K.Een polynoom in de twee variabelen X en Y van graad hoogstens n in X en graad hoogstens m

in Y is een lineaire combinatie van de vormn∑

i=0

m∑

j=0

cijXiY j . Zo’n polynoom is een element van

de vectorruimte opgespannen door de (n + 1)(m + 1) basiselementen XiY j . Deze vectorruimtenoemen we het tensorproduct van de vectorruimten V en W , notatie V ⊗W .

In het algemeen laat V een vectorruimte zijn met basis {e1, . . . , en} en W een vectorruimte (overhetzelfde lichaam van scalairen K) met basis {f1, . . . , fm} (n en m mogen ∞ zijn). Het tensorprod-uct V ⊗W (of V ⊗K W ) is de vectorruimte van dimensie mn opgespannen door de basisvectorenei ⊗ fj en met coefficienten in K. Het tensorproduct V ⊗ W is onafhankelijk van de keuze vande bases van V en W . In hoofdstuk IV zullen we een definitie van het tensorproduct geven dieonafhankelijk is van een basis in V en W . Merk nog op dat V ⊗W en W ⊗ V verschillende (maarwel isomorfe) vectorruimten zijn.

Als v =∑n

i=1 viei ∈ V en w =∑m

j=1 wjfj ∈ W dan is het tensorproduct v ⊗ w gedefinieerd als∑ni=1

∑mj=1 viwjei⊗ fj . v⊗w is dus een element van V ⊗W . In de fysische literatuur wordt vaak

vw i.p.v. v ⊗ w geschreven.

Voor het tensorproduct van twee vectoren geldt (ga na):

λ(v ⊗ w) = (λv)⊗ w = v ⊗ (λw) (λ ∈ K). (1.7)

(v1 + v2)⊗ w = v1 ⊗ w + v2 ⊗ w; v ⊗ (w1 + w2) = v ⊗ w1 + v ⊗ w2. (1.8)

13

Page 17: SYLLABUS LINEAIRE ALGEBRA 2

Opmerking: Een willekeurige vector in V ⊗ W is altijd een eindige lineaire combinatie vantensorproducten vi ⊗ wi met vi ∈ V en wi ∈ W . Niet elke vector in V ⊗ W is echter zelf zo’ntensorproduct. Zie opgave I.34.

We kunnen herhaald tensorproducten van vectorruimten nemen. In zo’n geval geldt de associatieveeigenschap U⊗ (V ⊗W ) = (U⊗V )⊗W . De uitdrukking V1⊗V2⊗ . . .⊗Vn is dus goed gedefinieerdals de Vi alle vectorruimten over K zijn. Ga na dat de dimensie van deze tensorproductruimte isgelijk aan het product van de dimensies van de afzonderlijke factoren. Tenslotte nog een opmerkingover de notatie: i.p.v. het herhaald n-voudig tensorproduct V ⊗ . . .⊗V schrijven we ook wel V ⊗n.

Voorbeeld: Laat V de vectorruimte zijn van reeel-of complexwaardige functies op een verzamelingX. Dan is V ⊗K Kn (met K = R resp. C) de vectorruimte van functies op een verzameling X metwaarden in Kn. Een element van deze vectorruimte is dus te schrijven als een rijtje f = (f1, . . . , fn)met fj ∈ V . Er geldt:

(f1, . . . , fn) + (g1, . . . , gn) = (f1 + g1, . . . , fn + gn), λ(f1, . . . , fn) = (λf1, . . . , λfn).

14

Page 18: SYLLABUS LINEAIRE ALGEBRA 2

II. DETERMINANT EN SPOOR.

De determinant van een matrix.

Definitie: Een (n-de orde) determinant is een n-lineaire alternerende vorm op Kn (waarbij K = R

of C) die de waarde 1 aanneemt op de standaardbasis, d.w.z.1. det(a1,a2, . . . ,an) ∈ K voor a1,a2, . . . ,an ∈ Kn.2. det(λa1 + µb1,a2, . . . ,an) = λ det(a1,a2, . . . ,an) + µ det(b1,a2, . . . ,an) voor a1,b1, . . . ,an ∈Kn en λ, µ ∈ K (lineariteit in de eerste component).3. det(a1, . . . ,ai, . . . ,aj , . . . ,an) = − det(a1, . . . ,aj , . . . ,ai, . . . ,an) (de determinant is een al-ternerende vorm.) In het bijzonder is de determinant nul als twee van de aj ’s gelijk zijn.4. det(e1, e2, . . . , en) = 1 (de determinant is 1 op de standaardbasis van Kn).Lineariteit in de andere n− 1 componenten volgt uit lineariteit in de eerste component samen metde alternerendheid. De determinant det(A) van een n×n-matrix A met kolomvectoren a1, . . . ,an isgedefinieerd als det(a1, . . . ,an). Uit eigenschap 3 volgt meteen dat det(a1, . . . ,an) = 0 als minstenstwee van de aj ’s gelijk zijn.Uit de definitie volgt een unieke vorm voor de determinant: voor i = 1, . . . , n is ai =

∑nij=1 aijieij ;

vul deze uitdrukkingen in voor a1, . . . ,an in de determinant. Wegens de multilineariteit (lineariteitin elke component) kunnen we de n sommen samen met de coefficienten aijj buiten de determinanthalen en dan vinden we

det(a1,a2, . . . ,an) =n∑

i1=1

n∑

i2=1

. . .n∑

in=1

εi1i2...inai11ai22 . . . ainn. (2.1)

Hierbij is het Levi-Civitasymbool εi1i2...in gedefinieerd als det(ei1 , ei2 , . . . , ein). Als twee van deindices ij gelijk zijn, dan is εi1i2...in = 0. In het geval dat de indices alle verschillend zijn, passen wede alternerendheidseigenschap toe om de waarde van εi1i2...in te bepalen: door herhaald omwisselenvan twee eij ’s in de determinant kunnen we bereiken dat de eij ’s in de juiste volgorde staan. Dusdet(ei1 , ei2 , . . . , ein) = (−1)N det(e1, e2, . . . , en) waarbij N het aantal benodigde verwisselingen is.Dus als alle indices verschillend zijn, is εi1i2...in = 1 of −1 als het aantal van deze paarverwisselingeneven resp. oneven is. Dat dit goed gedefinieerd is, m.a.w. het even of oneven zijn van het aantalpaarverwisselingen hangt niet af van de wijze waarop we verwisselen, volgt uit de theorie van depermutaties.

Voorbeeld. ε2413 = (−1)3 = −1: (2413) → (1423) → (1243) → (1234) (3 paarverwisselingen).

Permutaties. Een permutatie op n objecten, zeg de getallen 1, 2, . . . , n, is een bijectie van deverzameling {1, . . . , n} op zichzelf. Elke permutatie is een compositie van paarverwisselingen; ditzijn permutaties p zodat p(i) = j, p(j) = i voor twee verschillende getallen i, j ∈ {1, . . . , n} enzodat p(k) = k als k 6= i of j. Een permutatie is op meer manieren als een compositie vanpaarverwisselingen te schrijven, maar altijd is het aantal paarverwisselingen hetzij oneven, hetzij

15

Page 19: SYLLABUS LINEAIRE ALGEBRA 2

even. Het is niet moeilijk om na te gaan dat het aantal even (resp. oneven) is als het aantal paren(i, j) zodat i < j en p(i) > p(j) even (resp. oneven) is: immers bij elke paarverwisseling neemt hetaantal van dergelijke paren met 1 toe- of af. Het aantal is nul dan en slechts dan als p de identiekepermutatie is. Als p de compositie van een even (resp. oneven) aantal paarverwisselingen is,dan is het teken σ(p) van p gelijk aan 1 (resp. −1). Voor permutaties p en p′ op {1, . . . , n}geldt dan dat σ(p ◦ p′) = σ(p)σ(p′) en σ(p−1) = σ(p). Als voor de permutatie p geldt datp(1) = i1, p(2) = i2, . . . , p(n) = in, dan is σ(p) = εi1i2...in .

We kunnen de determinant nu ook schrijven als det(a1,a2, . . . ,an) =∑

p σ(p)ap(1)1ap(2)2 . . . ap(n)n

waarbij de som wordt genomen over alle permutaties van {1, 2, . . . , n}. Verder geldt:

i1,i2,...,in

εi1i2...inaj1i1aj2i2 . . . ajnin = det(aj1 ,aj2 , . . . ,ajn) = εj1j2...jn det(A). (2.2)

Eigenschappen van determinanten. Een gevolg van (2.2) is

Propositie 2.1. Laat A,B twee n× n-matrices zijn. Dan geldti. det(A) = det(AT ).ii. det(AB) = det(A) det(B).

Bewijs: (i.)det(AT ) =

∑p

σ(p)a1p(1) . . . anp(n) =∑

p

σ(p)ap−1(1)1 . . . ap−1(n)n

waarbij p loopt over alle permutaties van {1, . . . , n}. In de tweede gelijkheid hebben we gebruiktdat als j = p(i), dan i = p−1(j), dus aij is dan te schrijven als zowel aip(i) als ap−1(j)j . M.b.v.σ(p) = σ(p−1) volgt dan

det(AT ) =∑

p

σ(p−1)ap−1(1)1 . . . ap−1(n)n = det(A)

daar sommeren over p hetzelfde is als sommeren over p−1.

(ii.) We geven de elementen van AB aan d.m.v. (AB)ij . Dan geldt

det(AB) =∑

i1,...,in

εi1...in(AB)1i1 . . . (AB)nin

=∑

i1,...,in

j1,...,jn

εi1...ina1j1bj1i1 . . . anjn

bjnin.

M.b.v. (2.2) kunnen we de laatste term schrijven als

det(B)∑

j1,...,jn

εj1...jna1j1 . . . anjn = det(B) det(A). ¦

Uit de laatste eigenschap volgt, m.b.v. UU−1 = In dat als U een inverteerbare matrix is,dan det(U−1) = (det(U))−1. I.h.b. is det(U) 6= 0 als U inverteerbaar is. Verder volgt uitdet(U−1AU) = det(U−1) det(A) det(U) = det(A) dat twee gelijkvormige matrices A en B =U−1AU dezelfde determinant hebben. Deze eigenschap kunnen we gebruiken om de determinant

16

Page 20: SYLLABUS LINEAIRE ALGEBRA 2

van een lineair endomorfisme te definieren: laat V een vectorruimte van eindige dimensie zijn enT : V → V een lineaire afbeelding. De determinant det(T ) van T is nu als volgt gedefinieerd: kieseen basis B van V . De matrix van T t.o.v. deze basis is TB. Dan is det(T ) := det(TB). Dezedefinitie is onafhankelijk van de gekozen basis.

Als A inverteerbaar is, dan is det(A) 6= 0. Omgekeerd, als de matrix A = (a1, . . . ,an) singulier(d.w.z. niet-inverteerbaar) is, dan is de rang van A kleiner dan n en de dimensie van de kern van A

is groter dan 0. Kies een basis {b1, . . . ,bk} van ker(A) en vul deze aan tot een basis {b1, . . . ,bn}van Kn. De matrix B = (b1, . . . ,bn) heeft dan rang n en is inverteerbaar, dus det(B) 6= 0. Deeerste k kolommen van de matrix AB zijn dan nul en dus is det(AB) = 0 volgens eigenschap 2.Maar dan is det(A) = 0. De determinant van de n × n-matrix A is dus nul dan en slechts danals A singulier is. Anders geformuleerd: det(a1, . . . ,an) = 0 dan en slechts dan als het stelsel{a1, . . . ,an} lineair afhankelijk is.

Zij A een m×n-matrix. Kies k rijen en k kolommen. De determinant van de k× k-deelmatrix vanA die ontstaat uit A door alleen de elementen die in de gekozen rijen en kolommen voorkomen tenemen heet een minor of onderdeterminant van orde k.

Propositie 2.2: De rang van een m×n-matrix A is k dan en slechts dan als er minoren van ordek zijn die ongelijk zijn aan nul en alle minoren van orde groter dan k nul zijn.

Bewijs: Zij k de rang van A. Dan zijn er k lineair onafhankelijke kolommen. Door zo nodig dekolommen te permuteren kunnen we ervoor zorgen dat de eerste k kolommen lineair onafhankelijkzijn. Merk op dat de rang van de matrix niet verandert bij het verwisselen van kolommen ofrijen. Beschouw nu de m × k-deelmatrix van A die ontstaat door alleen de eerste k kolommen tenemen. Omdat de rang van de deelmatrix k is, zijn er k lineair onafhankelijke rijen. Door weerzo nodig te permuteren kunnen we aannemen dat de eerste k rijen lineair onafhankelijk zijn. Dek × k-deelmatrix die nu ontstaat door alleen de eerste k rijen te nemen heeft rang k en dus eendeterminant die ongelijk aan nul is. Maar deze determinant is een minor van A van orde k.

Omgekeerd, als A een ` × `-deelmatrix heeft met determinant ongelijk aan nul, dan zijn de rijenen kolommen in A waaruit deze deelmatrix is samengesteld, lineair onafhankelijk. De rang van A

is dus minstens `. ¦

De Wronskiaan.

We gebruiken het bovenstaande resultaat om een criterium af te leiden voor de lineaire onafhanke-lijkheid van een stelsel differentieerbare functies. Laat f1, . . . , fn n− 1 keer differentieerbare (reeleof complexe) functies op een interval [a, b] ⊂ R zijn. Het stelsel functies f1, . . . , fn is lineairafhankelijk indien er λ1, . . . , λn ∈ K(= R of C) bestaan, niet alle gelijk aan nul, zodanig dat

λ1f1(x) + . . . + λnfn(x) = 0 voor x ∈ [a, b].

17

Page 21: SYLLABUS LINEAIRE ALGEBRA 2

Dit is het geval dan en slechts dan als voor zekere (λ1, . . . , λn) 6= (0, . . . , 0)

λ1f1(x) + . . . + λnfn(x) = 0λ1f

′1(x) + . . . + λnf ′n(x) = 0

......

λ1f(n−1)1 (x) + . . . + λnf

(n−1)n (x) = 0

en dit is het geval indien de determinant W (f1, . . . , fn)(x) =

∣∣∣∣∣∣∣∣∣

f(n−1)1 (x) . . . f

(n−1)n (x)

.... . .

...f ′1(x) . . . f ′n(x)f1(x) . . . fn(x)

∣∣∣∣∣∣∣∣∣gelijk

is aan nul. W (f1, . . . , fn) heet de Wronskiaan van het stelsel {f1, . . . , fn}. Omgekeerd geldt: alsW (f1, . . . , fn)(x) = 0 op [a, b] en voor elke x ∈ [a, b] is er een i zodanig datW (f1, . . . , fi−1, fi+1, . . . , fn)(x) 6= 0, dan is het stelsel {f1, . . . , fn} lineair afhankelijk. (Voor eenvoorbeeld neem f1(x) = x3 en f2(x) = |x|3. Er geldt dat W (f1, f2)(x) = 0 voor x ∈ R maar f1, f2

zijn op R lineair onafhankelijk.)

Voorbeeld: Laat f1(x) = sin x en f2(x) = cos x op [0, π]. De Wronskiaan W (sinx, cosx) =∣∣∣∣cos x − sin xsin x cosx

∣∣∣∣ is identiek gelijk aan 1 en dus is het stelsel {sin x, cosx} lineair onafhankelijk op

[0, π].

Toepassing: Beschouw de homogene lineaire 2-de orde differentiaalvergelijking

y′′(x) + c1(x)y′(x) + c0(x)y(x) = 0, x ∈ [a, b] (2.3)

waarbij de coefficienten c0, c1 continue (reele of complexe) functies op het interval [a, b] ⊂ R zijn.Het is eenvoudig in te zien dat als y1 en y2 oplossingen zijn, dan is αy1+βy2 voor α, β ∈ R of C ookeen oplossing. De oplossingen van de differentiaalvergelijking (2.3) vormen dus een vectorruimte(over R of C). In feite kan worden aangetoond dat de dimensie van deze vectorruimte gelijk isaan 2. Voor twee oplossingen y1, y2 geldt dat W = W (y1, y2) = y′1y2 − y1y

′2. Uit de d.v. volgt dat

W ′ = −c1W dus W (y1, y2)(x) = exp(− ∫ x

dc1(t)dt)W (y1, y2)(d) voor d ∈ R. y1, y2 zijn dus lineair

afhankelijk dan en slechts dan als W (y1, y2)(d) = 0 voor een enkel punt d ∈ [a, b]. In het bijzonderzijn er niet meer dan twee lineair onafhankelijke oplossingen.

De determinant van Vandermonde. De volgende determinant is vaak nuttig bij kwesties overlineaire (on)afhankelijkheid:

Propositie 2.3: Laat x1, . . . , xn complexe getallen zijn. Dan is

Vn(x1, x2, . . . , xn) :=

∣∣∣∣∣∣∣∣∣

xn−11 xn−1

2 . . . x(n−1)n

......

. . ....

x1 x2 . . . xn

1 1 . . . 1

∣∣∣∣∣∣∣∣∣=

1≤i<j≤n

(xi − xj).

Bewijs: We passen inducie naar n toe. Voor n = 1 staat links en rechts van het =-teken 1 (een leegproduct is gelijk aan 1). Stel de bewering is waar voor Vk met k < n. Vat in Vn(x1, x2, . . . , xn)

18

Page 22: SYLLABUS LINEAIRE ALGEBRA 2

het element x1 op als een variabele en laat x2, . . . , xn vaste getallen zijn. We kunnen aannemendat deze verschillend zijn, omdat anders de determinant zeker nul is. Dan is Vn(x1, x2, . . . , xn) eenpolynoom in x1 van graad n − 1 met kopcoefficient (d.w.z. de coefficient van de hoogste machtxn−1

1 ) gelijk aan Vn−1(x2, . . . , xn)(6= 0) en nulpunten x1 = x2, . . . , xn. Het polynoom is dus teontbinden in (lineaire) factoren:

Vn(x1, x2, . . . , xn) = Vn−1(x2, . . . , xn)n∏

j=2

(x1 − xj) =∏

2≤i<j≤n

(xi − xj)n∏

j=2

(x1 − xj)

volgens de inductieveronderstelling. De uitdrukking in het rechterlid is precies∏

1≤i<j≤n(xi −xj) ¦.Toepassing: Laat x0, . . . , xn verschillende reele getallen zijn en laat y0, . . . , yn willekeurige reelegetallen zijn. Dan is er precies een polynoom P van graad hoogstens n zodanig dat P (xj) = yj

voor j = 0, . . . , n.Bewijs: Laat P (X) = anXn + . . . + a1X + a0 en stel P (xj) = yj . Dan is

anxn−1j + . . . + a1xj + a0 = yj voor j = 0, . . . n.

Dit levert een stelsel van n + 1 vergelijkingen in de n + 1 onbekenden an, . . . , a0. De coefficienten-determinant van het stelsel is Vn(x0, x1, . . . , xn) en deze is ongelijk aan nul omdat x0, . . . , xn

verschillend zijn. Maar dan heeft het stelsel precies een oplossing (immers als A een inverteerbareN×N -matrix is dan heeft de vergelijking Ax = b voor elke b ∈ CN de unieke oplossing x = A−1b).¦

Ontwikkeling van een determinant naar een kolom.

Uit (2.1) zien we dat in elk van de n! termen in de uitdrukking van det(A) er precies een elementuit elke rij en een element uit elke kolom voorkomt. We kunnen (2.1) voor vaste k schrijven alsdet(A) =

∑ni=1 aikAik, waarbij

Aik =∑

i1...ik...in 6=i

εi1...inai11 . . . aikk . . . ainn

de cofactor van aik is. Het dakje boven de factor aikk betekent dat deze wordt weggelaten. In hetbijzonder is

A11 =n∑

i2...in=2

ε1i2...inai22 . . . ainn =

n∑

i2...in=2

εi2...inai22 . . . ainn,

m.a.w. A11 is de determinant van de (n− 1)× (n− 1)-matrix die uit A ontstaat door de 1e rij enkolom weg te laten. Door eerst in de matrix A de i-e rij naar de eerste rij te verplaatsen in door derij i− 1 keer te verwisselen met de rij die er boven staat en vervolgens de j-e kolom naar de eerstekolom te verplaatsen door de kolom j − 1 keer te verwisselen met de kolom die er net voor staat,kunnen we ervoor zorgen dat het element aij in de 1e rij en kolom komt te staan. De cofactor

19

Page 23: SYLLABUS LINEAIRE ALGEBRA 2

van dit element in de zo ontstane matrix is dus gelijk aan de determinant van de matrix die uit A

ontstaat door de i-e rij en j-e kolom weg te laten (merk op dat de volgorde van de andere rijen enkolommen niet is veranderd). Anderzijds is de determinant van de zo ontstane matrix gelijk aan(−1)i+j−2 det(A) = (−1)i+j det(A). M.a.w. de cofactor Aij van aij is gelijk aan (−1)i+j maal dedeterminant van de matrix die uit A ontstaat door de i-e rij en j-e kolom weg te laten.

Als voorbeeld ontwikkelen we de volgende determinant naar de 2e kolom:

∣∣∣∣∣∣

2 1 −13 1 −21 2 2

∣∣∣∣∣∣= −

∣∣∣∣3 −21 2

∣∣∣∣ +∣∣∣∣2 −11 2

∣∣∣∣− 2∣∣∣∣2 −13 −2

∣∣∣∣ = −8 + 5− 2 · −1 = −1.

Omdat det(A) = det(AT ) kunnen we de determinant ook berekenen door te ontwikkelen naar eenrij i.p.v. een kolom.

In de vorige paragraaf hebben we gezien dat∑n

i=1 aikAik = det(A) voor k = 1, . . . n. Beschouwnu de matrix A′ die uit A ontstaat door de k-e kolom te vervangen door een andere, zeg de`-e kolom. A′ heeft dan twee gelijke kolommen en ontwikkelen naar de k-e kolom levert dan0 = det(A′) =

∑ni=1 ai`Aik (omdat de cofactoren Aik onafhankelijk zijn van a1k, . . . , ank zijn de

cofactoren van de elementen in de k-e kolom van A′ gelijk aan de cofactoren in de k-e kolom vanA). We hebben dus aangetoond:

n∑

i=1

ai`Aik = δk` det(A). (2.4)

We kunnen (2.4) schrijven als een matrixproduct: definieer de geadjungeerde matrix adj(A) van A

als de getransponeerde van de matrix van cofactoren van A, m.a.w. (adj(A))ij = Aji. Dan zegt(2.3) dat

A · adj(A) = det(A) · I. (2.5)

Gevolg: als det(A) 6= 0 dan is A inverteerbaar met inverse A−1 =1

det(A)adj(A).

Het spoor van een matrix.

Zij A een n× n-matrix. Het spoor tr(A) van A is de som van de elementen op de hoofddiagonaal:tr(A) =

∑ni=1 Aii. Als B een n × n-matrix is, dan geldt tr(AB) =

∑i,j AijBji = tr(BA). In het

bijzonder hebben twee gelijkvormige matrices hetzelfde spoor: tr(U−1AU) =tr(UU−1A) =tr(A).Dit biedt net als in het geval van de determinant de mogelijkheid om het spoor tr(T ) van een lineaireafbeelding T : V → V voor V eindig-dimensionaal op basis-onafhankelijke wijze te definieren alshet spoor van een willekeurige matrix van T .

Het volume van een k-blok in Rn.

Het k-blok opgespannen door a1, . . . ,ak (met a1, . . . ,ak lineair onafhankelijke vectoren in Rn) is deverzameling {x = t1a1 + t2a2 + . . . + tkak : 0 ≤ ti ≤ 1, i = 1, . . . , k}. Het volume V (a1,a2, . . . , ak)

20

Page 24: SYLLABUS LINEAIRE ALGEBRA 2

wordt berekend als volgt: Laat A = (a1,a2, . . . ,ak) de matrix met kolomvectoren a1,a2, . . . ,ak

zijn. Dan isV (a1,a2 . . . ,ak) =

√det(AT A). (2.6)

Voor het geval dat k = n is V (a1,a2 . . . ,an) = | det(a1,a2 . . . ,an)|. Een schets van een bewijs voork = n: Het volume verandert niet als we een van de zijvlakken van het k-blok evenwijdig aan zichzelfverschuiven, m.a.w. V (a1,a2 . . . , an) = V (a′1,a2 . . . ,an) waarbij a′1− a1 een lineaire combinatie isvan a2, . . . ,an. We kunnen nu een zodanig lineaire combinatie kiezen dat a′1 orthogonaal is meta2, . . . ,an. Op soortgelijke wijze kunnen we bij a2 een lineaire combinatie van a3, . . . ,ak optellenzo, dat de somvector a′2 orthogonaal is met a3, . . . ,an en uiteraard ook met a′1. Zo verdergaandvinden we een orthogonaal stelsel vectoren {a′1, . . . ,a′n} zodat V (a1,a2 . . . ,an) = V (a′1,a

′2 . . . ,a′n).

Evenzo geldt, wegens multilineariteit, dat det(a1,a2 . . . ,an) = det(a′1,a2 . . . ,an) = . . . == det(a′1,a

′2 . . . ,a′n) =: det(A′). Tenslotte is wegens orthogonaliteit

V (a′1,a′2 . . . ,a′n)2 = ‖a′1‖ · ‖a′2‖ . . . ‖a′n‖2 = det(A′T A′) = det(A′)2.

Voor het algemene geval (k ≤ n) gebruiken we dat V (a1,a2 . . . ,ak) = V (a1,a2 . . . ,ak,bk+1, . . . ,bn)waarbij {bk+1, . . . ,bn} een orthonormaal stelsel is zodat (ai,bj) = 0 en datdet(AT A) = det(a1, . . . , ak,bk+1, . . . ,bn)2. (De begrippen orthogonaliteit en orthonormaliteitworden in hoofdstuk IV behandeld.)

Aan de determinant van een lineaire afbeelding T : Rn → Rn kunnen we nu een meetkundigeinterpretatie geven: laat K een n-blok in Rn zijn, opgespannen door vectoren a1, . . . ,an. Zoals wein de vorige paragraaf gezien hebben, is het volume van K gelijk aan V (K) = | det(a1, . . . ,an)|.Het beeld T (K) is een n-blok (eventueel gedegenereerd), opgespannen door T (a1), . . . , T (an). Dangeldt, m.b.v. Prop.2.1,

V (T (K)) = | det(T (a1), . . . , T (an))| = | det(T )|| det(a1, . . . ,an)| = | det(T )|V (K).

De absolute waarde van de determinant geeft dus de vergrotingsfactor aan voor het volume van eenn-blok in Rn onder de afbeelding T . Voor andere ”nette” gebieden G in Rn (zoals het inwendigevan een n-bol) kunnen we het volume benaderen door G zo efficient mogelijk te overdekken met n-blokken. Onder de afbeelding T wordt het volume van al deze blokken met dezelfde factor | det(T )|vergroot; ditzelfde geldt dan ook voor het volume van G zelf.Zonder bewijs merken we nog op dat het teken van de determinant te maken heeft met de orientatie:afbeeldingen met negatieve determinant (zoals spiegelingen) keren de orientatie om: linksdraaiendwordt rechtsdraaiend.

De afstand van een punt tot een k-vlak in Rn. M.b.v. de uitdrukking voor het volume vaneen k-blok leiden we eenvoudig de volgende uitdrukking af voor de afstand d(B, V ) van een puntB tot het k-vlak V = span(a1, . . . , ak) af: zij b de vector −−→OB. Dan is

d(B, V ) =V (b,a1, . . . ,ak)V (a1, . . . ,ak)

. (2.7)

21

Page 25: SYLLABUS LINEAIRE ALGEBRA 2

Voor de afstand van een punt B tot een lijn ` = span{a} in R3 geeft dit

d(B, `) =V (b,a)V (a)

=‖b× a‖‖a‖

waarbij b de vector OB voorstelt.

22

Page 26: SYLLABUS LINEAIRE ALGEBRA 2

III. SPECTRAALTHEORIE VAN COMPLEXEENDOMORFISMENEigenwaarden en eigenvectoren.

Zij V een vectorruimte over K = R of C van eindige dimensie n en T : V → V een lineaireafbeelding. v ∈ V heet een eigenvector van T als er een λ ∈ K bestaat zodat T (v) = λv env 6= 0. λ heet een eigenwaarde van T . De verzameling eigenvectoren met eigenwaarde λ samenmet de nulvector noemen we de eigenruimte EigT (λ) bij eigenwaarde λ. EigT (λ) = ker(T − λ · id)is een lineaire deelruimte van V . De eigenwaarden zijn de nulpunten (in K) van het karakteristiekepolynoom χT (x) = det(T − x · id). χT is een polynoom van graad n en T heeft dus hoogstens n

eigenwaarden. (Het karakteristieke polynoom wordt ook wel gedefinieerd als det(x · id − T ). Ditscheelt een factor ±1.) De algebraısche multipliciteit van de eigenwaarde λ is de multipliciteit vanλ als nulpunt van het karakteristieke polynoom en de meetkundige multipliciteit is de dimensievan de bijbehorende eigenruimte. (a ∈ K is een nulpunt van multipliciteit k van het polynoom P

als P (a) = 0, . . . , P (k−1)(a) = 0 maar P (k)(a) 6= 0.) Zoals we nog zullen zien is de meetkundigemultipliciteit nooit groter dan de algebraısche.

De bovenstaande begrippen worden overgedragen op een n×n-matrix A: een vector x ∈ Kn, x 6= 0,heet een eigenvector van A met eigenwaarde λ indien Ax = λx. De eigenwaarden van A zijn denulpunten van het karakteristieke polynoom χA(x) = det(A − x · In). Gelijkvormige matriceshebben hetzelfde karakteristiek polynoom: laat U een matrix zijn zodanig dat B = U−1AU . Danis

χB(x) = det(B − x · id) = det(U−1AU − x · id) = det U−1(A− x · id)U) =

= det(U−1) det(A− x · id) det(U) = det(A− x · id) = χA(x).

Verder geldt dat y een eigenvector van B is met eigenwaarde λ dan en slechts dan als Uy een eigen-vector van A is met eigenwaarde λ. Er geldt dus U(EigB(λ)) = EigA(λ). Omdat U inverteerbaaris geldt dat dimEigB(λ) = dim EigA(λ).

Voorbeeld: Laat A =(

1 10 1

). Dan is χA(x) =

∣∣∣∣1− x 1

0 1− x

∣∣∣∣ = (1 − x)2. A heeft een

eigenwaarde 1 met algebraısche multipliciteit 2. De meetkundige multipliciteit is gelijk aan de

dimensie van de kern van de matrix A − I =(

0 10 0

). Deze matrix heeft rang 1 en dus is dim

ker(A− I) = 1. De meetkundige multipliciteit van de eigenwaarde 1 is dus gelijk aan 1.

De verzameling eigenwaarden van de afbeelding T heet het spectrum van T . In oneindig-dimensionalevectorruimten is de theorie van eigenwaarden en eigenvectoren wat ingewikkelder. Zo kan het spec-trum van een lineaire afbeelding bestaan uit een discreet en een continu deel. In dit college bekijkenwe alleen het geval dat de dimensie eindig is.

Propositie 3.1: Zij A een complexe n×n-matrix met eigenwaarden λ1, . . . , λn (met algebraıschemultipliciteit geteld). Dan is

det(A) = λ1 · . . . · λn, tr(A) = λ1 + . . . + λn. (3.1)

23

Page 27: SYLLABUS LINEAIRE ALGEBRA 2

Bewijs: Het karakteristieke polynoom χA(x) = det(A−x ·I) splitst in n lineaire complexe factoren:χA(x) =

∏nj=1(λj − x) waarbij λ1, . . . , λn de eigenwaarden zijn. Nu volgt meteen dat det(A) =

χA(0) =∏n

j=1 λj . De coefficient van xn−1 is enerzijds gelijk aan (−1)n−1∑n

j=1 λj en anderzijds ishet gelijk aan (−1)n−1tr(A). ¦

Diagonaliseerbare en nilpotente afbeeldingen.

Propositie 3.2: Eigenvectoren behorende bij verschillende eigenwaarden van een lineaire afbeeld-ing T : V → V zijn lineair onafhankelijk.

Bewijs: Laat v1, . . . , vk lineair eigenvectoren zijn bij verschillende eigenwaarden λ1, . . . , λk van T .Stel dat er getallen a1, . . . , ak ∈ K zijn, zo, dat

a1v1 + . . . + akvk = 0. (3.2)

Dan is ook

0 = T (a1v1 + . . . + akvk) = a1T (v1) + . . . + akT (vk) = a1λ1v1 + . . . + akλkvk. (3.3)

Door (3.2) met λk te vermenigvuldigen en van (3.3) af te trekken, vinden we

a1(λ1 − λk)v1 + . . . + ak−1(λk−1 − λk)vk−1 = 0. (3.4)

Neem nu aan dat v1, . . . , vk lineair afhankelijk zijn. Er zijn nu twee mogelijkheden: (i) v1, . . . , vk−1

zijn lineair afhankelijk. (ii) v1, . . . , vk−1 zijn lineair onafhankelijk. In dit geval is a1 = . . . = ak−1 =0. Uit (3.2) volgt dan akvk = 0 en dus ak = 0. In dit geval zijn v1, . . . , vk lineair onafhankelijk, watin tegenspraak is met de aanname. Conclusie: v1, . . . , vk−1 zijn lineair afhankelijk. Door dezelfderedenering op v1, . . . , vk−1 toe te passen, vinden we dat v1, . . . , vk−2 lineair afhankelijk zijn. Zoverdergaand, vinden we uiteindelijk dat v1 lineair afhankelijk is, m.a.w. v1 = 0. Maar dit is eentegenspraak met de aanname dat v1 een eigenvector is. ¦

Gevolg: Als T : V → V n = dim(V ) verschillende eigenwaarden heeft, dan heeft V een basisbestaande uit eigenvectoren van T . In dit geval noemen we T diagonaliseerbaar.

Ten opzichte van zo’n basis B van eigenvectoren is de matrix TBB van T een diagonaalmatrix.Analoog noemen we een n × n-matrix A diagonaliseerbaar (over K) als Kn een basis van eigen-vectoren van A heeft. Dit is precies het geval als er een inverteerbare matrix U met elementenin K bestaat zodat D = U−1AU een diagonaalmatrix is. De kolommen van U bestaan dan uiteigenvectoren van A. Een afbeelding T : V → V is dus diagonaliseerbaar als de matrix van de af-beelding (t.o.v. een willekeurige basis) diagonaliseerbaar is. Omdat de meetkundige multipliciteitvan een eigenwaarde nooit groter is dan de algebraısche, geldt dat een afbeelding T : V → V

diagonaliseerbaar is dan en slechts dan als alle nulpunten van het karakteristiek polynoom in K

liggen en de meetkundige multipliciteit van elke eigenwaarde gelijk is aan de algebraısche. Door

24

Page 28: SYLLABUS LINEAIRE ALGEBRA 2

K = C te nemen kunnen we ervoor zorgen dat aan de eerste voorwaarde is voldaan (maar niet aande tweede).

Voorbeelden:

1. De matrix(

0 −11 0

)heeft eigenwaarden i en −i. De matrix is dus niet diagonaliseerbaar over R

(er zijn geen reele eigenwaarden en eigenvectoren), maar wel over C.

2. De matrix(

1 10 1

)is niet-diagonaliseerbaar: de eigenwaarde 1 heeft meetkundige multipliciteit 1

en algebraısche multipliciteit 2.

3. Een afbeelding T : V → V (resp. een n × n-matrix N) heet nilpotent als T k = 0 (resp. Nk = O)voor zekere gehele k > 0. Een nilpotente afbeelding (resp. matrix) heeft 0 als enige eigenwaarde.Als er een basis van eigenvectoren bestaat, dan is T (v) = 0 voor alle v ∈ V (resp. Nv = 0 vooralle v ∈ Kn), en dus is T = 0 resp. N = O. De enige nilpotente diagonaliseerbare afbeelding(resp. matrix) is dus de nulafbeelding (resp. nulmatrix).

In de rest van dit hoofdstuk laten we V een complexe vectorruimte zijn. We gaan het volgenderesultaat aantonen:

Stelling 3.3: Zij V een complexe eindig-dimensionale vectorruimte en T : V → V een lineaireafbeelding. Dan is er een unieke diagonaliseerbare afbeelding D en een unieke nilpotente afbeeldingN zodanig dat T = D + N en DN = ND. D en N zijn polynomen in T .

Opmerkingen: (1) Een analoog resultaat geldt uiteraard voor matrices: voor een n × n-matrix A

kunnen we de stelling immers toepassen op de afbeelding van Cn → Cn gegeven door x → Ax.

(2) De eis dat D en N commuteren is essentieel voor de uniciteit: als A =(

1 23 4

), dan is A =

(1 03 4

)+

(0 20 0

)=

(1 20 4

)+

(0 03 0

), waarbij steeds de linkermatrix diagonaliseerbaar is en

de rechtermatrix nilpotent (waarom?). De linker- en rechtermatrix in het 2e en 3e lid commuterenechter niet. In feite is A zelf diagonaliseerbaar, dus het diagonaliseerbare deel D van A is A zelfen het nilpotente deel N is O.

Gegeneraliseerde eigenvectoren. Een meetkundige interpretatie van dealgebraısche multipliciteit.

Laat dus V een eindig-dimensionale complexe vectorruimte en T ∈ L(V ) zijn, m.a.w. T is eenlineaire afbeelding van V → V . Zij λ ∈ C een eigenwaarde van T . Dan is

ker(T − λ · id) ⊂ ker(T − λ · id)2 ⊂ . . . ker(T − λ · id)m(λ)−1 ⊂ ker(T − λ · id)m(λ) = . . .

een rij van inclusies. Immers als (T − λ · id)m(v) = 0, dan is zeker (T − λ · id)m+1(v) = 0.Zoals we weten, geldt voor lineaire deelruimten U,W van een eindig-dimensionale vectorruimte V :als U ⊂ W dan is dim(U) ≤ dim(W ) en gelijkheid geldt alleen als U = W . Hieruit volgt dat in derij van inclusies vanaf zekere index k = m(λ) gelijkheid optreedt. Als eenmaal gelijkheid optreedt

25

Page 29: SYLLABUS LINEAIRE ALGEBRA 2

dan zijn de volgende termen in de rij inclusies ook gelijk. Neem immers aan dat ker(T−λ ·id)k−1 =ker(T−λ·id)k voor zekere k. Als nu geldt dat v ∈ ker(T−λ·id)k+1 dan (T−λ·id)v ∈ ker(T−λ·id)k =ker(T − λ · id)k−1 en dus is v ∈ ker(T − λ · id)k. Dus m(λ) (de index waarbij gelijkheid optreedt)is hoogstens gelijk aan n = dim(V ). De lineaire deelruimte Eλ := ker(T − λ · id)m(λ) heet degegeneraliseerde eigenruimte van T bij (de eigenwaarde) λ. Elementen van Eλ (op de nulvectorna) heten gegeneraliseerde eigenvectoren. Evenals voor gewone eigenvectoren geldt:

Propositie 3.4: Gegeneraliseerde eigenvectoren van een endomorfisme T : V → V behorende bijverschillende eigenwaarden zijn lineair onafhankelijk.

Bewijs: Laat λ1, . . . , λk de eigenwaarden van T zijn, en v1+. . .+vk = 0 voor v1 ∈ Eλ1 , . . . , vk ∈ Eλk.

We moeten aantonen: v1 = . . . = vk = 0. Noem Nj = T − λj · id. Merk op dat de Nj ’s onderlingcommuteren, d.w.z. NiNj = NjNi. Laat verder kj ≥ 0 het kleinste gehele getal zijn zodanig datN

kj

j vj = 0. Stel dat v1 6= 0, dus k1 > 0. Beschouw de afbeelding N ′1 := Nk1−1

1 Nk22 . . . Nkk

k . OmdatN ′

1(vj) = 0 voor j = 2, . . . , k is ook N ′1(v1) = 0. Maar

N ′1(v1) =

∏kj=2(λ1−λj)kj ·(T−λ1)k1−1(v1). Daar alle λj ’s verschillend zijn is (T−λ1)k1−1(v1) = 0,

wat in tegenspraak is met de definitie van k1. Dus moet v1 = 0 zijn. Op analoge wijze volgt datv2 = . . . = vk = 0.) ¦Uit Propositie 3.4 volgt dat de som E van gegeneraliseerde eigenruimten zelfs een directe som is:

E = Eλ1 ⊕ . . .⊕ Eλk.

We tonen aan dat in feite geldt E = V . Merk eerst op dat T de gegeneraliseerde eigenruimteninvariant laat: T (Eλ) ⊂ Eλ. Dus de quotientafbeelding T : V/Eλ → V/Eλ is goed gedefinieerdvoor elke eigenwaarde λ van T . Uit (1.6) volgt dat χT = χT |Eλ

· χT . T heeft dus geen andereeigenwaarden dan T . Verder heeft T |Eλ geen andere eigenwaarden dan λ, d.w.z. χT |Eλ

(x) =(x− λ)m voor m = dim(Eλ). We laten zien dat λ geen eigenwaarde is van T . Stel nl. T (v) = λv.Dan is (T − λ)v ∈ Eλ, dus (T − λ)v is een gegeneraliseerde eigenvector van T met eigenwaardeλ, Maar dan is v zelf een gegeneraliseerde eigenvector met eigenwaarde λ (waarom?) dus v ∈ Eλ

en v = 0. I.h.b. heeft χT dus geen nulpunten λ meer; m.a.w., m = dim(Eλ) is precies dealgebraısche multipliciteit van λ. Daar de som van de algebraısche multipliciteiten precies gelijk

is aan n = dim(V ) is dim(E) =k∑

i=1

dim(Eλi) = dim(V ) en dus is E = V . We hebben dus

aangetoond:

Stelling 3.5. Zij V een eindig-dimensionale complexe vectorruimte en T ∈ L(V ) een endomor-fisme. Dan is V de directe som van de gegeneraliseerde eigenruimten van T en de algebraıschemultipliciteit van een eigenwaarde λ van T is gelijk aan de dimensie van de bijbehorende gegene-raliseerde eigenruimte. In het bijzonder volgt dat de meetkundige multipliciteit van een eigenwaarde- de dimensie van de gewone eigenruimte - nooit groter kan zijn dan de algebraısche multipliciteit.

26

Page 30: SYLLABUS LINEAIRE ALGEBRA 2

We zijn nu toe aan het bewijs van stelling 3.3. (Het gedeelte dat D en N polynomen zijn in T

stellen we uit tot het eind van het hoofdstuk.)

Bewijs van stelling 3.3: Laat Pj de projectie zijn op Eλj . Dan geldt P 2j = Pj ,

∑kj=1 Pj = idV en

PiPj = 0 als i 6= j. Dan is de restrictie T |Ej=: Tj = λjidEj

+ Nj met Nj nilpotent en

T =k∑

j=1

TjPj =k∑

j=1

λjPj +k∑

j=1

NjPj =: D + N, (3.5)

waarbij D =∑k

j=1 λjPj diagonaliseerbaar is en N nilpotent. [N, D] = ND −DN = O volgt uitde eigenschappen van de projecties. Om de uniciteit aan te tonen nemen we aan dat T = D′ + N ′

met D′ diagonaliseerbaar en N ′ nilpotent zodanig dat [D′, N ′] = O. Laat v een gegeneraliseerdeeigenvector van D′ zijn bij eigenwaarde λ. Daar ook [T,D′] = O, volgt dat D′T (v) = TD′(v) =λT (v). T beeldt dus de eigenruimte E′

λ van D′ bij de eigenwaarde λ af in zichzelf. Laat Tλ

de restrictie zijn van T tot E′λ en P ′λ de projectie op E′

λ. Dan is D′ =∑

λ λP ′λ, waarbij over deeigenwaarden van D′ wordt gesommeerd, en T =

∑λ TλP ′λ. Maar dan is N ′ =

∑λ(Tλ−λ ·id)P ′λ en

omdat N ′ nilpotent is, is ook N ′λ = Tλ−λ · id voor elke eigenwaarde λ een nilpotent endomorfisme

op E′λ. Op E′

λ is dan (Tλ − λ · id)m = O voor zekere m > 0 en dus is λ een eigenwaarde van T ende gegeneraliseerde eigenruimte E′

λ bij λ is dan bevat in Eλ. Maar omdat V =⊕

λ Eλ =⊕

λ E′λ,

is E′λ = Eλ en dus is D′ =

∑λ λPλ = D en dus ook N ′ = N . ¦

Opmerkingen: (i.) Uit het bewijs volgt dat het diagonaliseerbare deel D van de afbeelding T gelijkis aan D =

∑kj=1 λjPj waarbij λ1, . . . , λk de eigenwaarden van T zijn en Pj de projectie op de

gegeneraliseerde eigenruimte van λj .

(ii.) Ten opzichte van een geordende basis B van gegeneraliseerde eigenvectoren (zo geordend dateigenvectoren bij dezelfde eigenwaarden bij elkaar staan) is de matrix van T een blokdiagonaalma-trix:

TBB =

λ1Ia1 O . . . OO λ2Ia2 . . . O...

.... . .

...O O . . . λkIak

+

N1 O . . . OO N2 . . . O...

.... . .

...O O . . . Nk

. (3.6)

Hierbij is de eerste matrix in het rechterlid een diagonaalmatrix met de eigenwaarden op de hoofd-diagonaal (hierbij is aj de algebraısche multipliciteit van λj). Dit is de matrix DB

B van het diago-naliseerbare deel van D. De rechtermatrix is de matrix NB

B van het nilpotente deel N ; de matricesNj zijn nilpotente aj × aj-matrices. Dat de linker- en rechtermatrix commuteren is evident.

De Jordan-normaalvorm.

De matrices Nj in (3.6) liggen op gelijkvormigheid na vast. Indien we andere bases van de gegener-aliseerde eigenruimten kiezen, blijft de matrix van het diagonaliseerbare deel hetzelfde - deze hangtalleen af van de eigenwaarden en hun algebraısche multipliciteit - maar de matrices Nj gaan over

27

Page 31: SYLLABUS LINEAIRE ALGEBRA 2

in gelijkvormige matrices. Door geschikte bases van de gegeneraliseerde eigenruimten te kiezen,kunnen we een zo eenvoudig mogelijke vorm voor de matrices Nj proberen te vinden. Het volgenderesultaat geldt:

Stelling 3.6. Laat V een eindig-dimensionale complexe vectorruimte zijn en T : V → V eenlineaire afbeelding. Er bestaat een basis van V , bestaande uit gegeneraliseerde eigenvectoren vanT , zodanig dat de matrix van T t.o.v. deze basis een blokdiagonaalmatrix diag(J1, J2, . . . , Jm) =

J1 O . . . OO J2 . . . O...

.... . .

...O O . . . Jm

en waarbij de Jordanblokken Jj vierkante matrices van de vorm Jk = λkI +

Nk met λk ∈ C een eigenwaarde van T , I een eenheidsmatrix, en Nk een ik×ik-matrix met (Nk)ij =

1 als j − i = 1 en (Nk)ij = 0 als j − i 6= 1 (i, j = 1, . . . , ik), dus Nk =

0 1 0 . . . 00 0 1 . . . 0...

.... . .

......

0 0 0 . . . 10 0 0 . . . 0

(†).

De Jordanblokken J1, . . . , Jm zijn uniek bepaald op volgorde van de blokken na.

De in stelling 3.6 genoemde matrix heet een Jordan-normaalvorm van de afbeelding T . Elke matrixis dus gelijkvormig met een matrix in Jordan-normaalvorm. Een basis B van V met de eigenschapdat de matrix TBB van T t.o.v. B een Jordan-normaalvorm is heet een Jordanbasis. Een Jordanbasisbestaat dus altijd uit gegeneraliseerde eigenvectoren van T .

Bewijs van Stelling 3.6: Omdat T de gegeneraliseerde eigenruimten Eλi invariant laat, d.w.z.T (Eλi) ⊂ Eλi , is het voldoende om de restricties Nλi van T − λi · id tot Eλi te bekijken. Neemdus λ = λi vast, en laat N = Nλ : Eλ → Eλ. De afbeelding N is nilpotent. Laat m het kleinstepositieve gehele getal zijn zodanig dat Nm = 0, en laat Fj = ker(N j). Dan is F0 = {0} ⊂ F1 ⊂. . . ⊂ Fm = Eλ en de inclusies zijn echte inclusies.

We construeren nu een basis van Fm op de volgende wijze: kies eerst een maximaal lineair on-afhankelijk stelsel modulo Fm−1 {c1

1, . . . , c1k1} in Fm, m.a.w. {c1

1, . . . , c1k1} is een basis van de

quotientruimte Fm/Fm−1. Dan is {c11, . . . , c

1k1

, Nc11, . . . , Nc1

k1} lineair onafhankelijk modulo Fm−2.

Vul dit stelsel aan met {c22, . . . , c

2k2} tot een maximaal lineair onafhankelijk stelsel modulo Fm−2.

Noem dit nieuwe stelsel {b21, . . . , b

2`2}. Nu gaan we op dezelfde manier verder: zij {bp

1, . . . , bp`p}

een maximaal lineair onafhankelijk stelsel modulo Fm−p, dan is {bp1, . . . , b

p`p

, Nbp1, . . . , Nbp

`p} lineair

onafhankelijk modulo Fm−p−1 en we vullen dit aan met {cp+11 , . . . , cp+1

kp+1} tot een maximaal li-

neair onafhankelijk stelsel modulo Fm−p−1, dat we {bp+11 , . . . , bp+1

`p+1} noemen. Uiteindelijk krijgen

we zo een maximaal lineair onafhankelijk stelsel {bm1 , . . . , bm

`m} modulo F0. Dit is een basis van

F0 = Eλ. We herordenen deze basiselementen in groepjes Nm−pcpj , N

m−p−1cpj , . . . , c

pj (merk op dat

Nm−p+1cpj = 0). De matrix van N t.o.v. deze geordende basis heeft dan de vorm van een blokdia-

gonaalmatrix diag(N1, . . . , N`) met Nj een matrix van de vorm (†), m.a.w. Nj is een Jordanblok.Merk op dat elke cp

j aanleiding geeft tot een Jordanblok van grootte m− p + 1. ¦

28

Page 32: SYLLABUS LINEAIRE ALGEBRA 2

Elke complexe n × n-matrix is dus gelijkvormig met een matrix in Jordan-normaalvorm. Omdatmatrices waarbij tegelijkertijd de rijen en kolommen zijn gepermuteerd gelijkvormig zijn (zie opgaveIII.14) is de Jordan-normaalvorm van het endomorfisme T geheel bepaald op permutatie van deJordanblokken na. Anderzijds geldt dat twee Jordan-normaalvormen die niet door een permutatievan de Jordanblokken in elkaar over gaan, niet gelijkvormig zijn; de Jordan-normaalvorm is dus (oppermutatie van de blokken na) bepaald door het aantal Jordanblokken bij een gegeven eigenwaardevan een gegeven afmeting (de afmeting van een `× `-Jordanblok is `). In feite geldt het volgenderesultaat:

Propositie 3.7. Zij J een Jordan-normaalvorm van de lineaire afbeelding T : V → V . Het aantalJordanblokken Ji = aI + Ni bij eigenwaarde a van afmeting minstens k is gelijk aanrang(T − a · id)k−1 - rang(T − a · id)k.

Bewijs: J is de matrix van T t.o.v. een zekere basis van V . Laat Ji = bI + Ni een Jordanblok vanJ zijn van afmeting `i (het is dus een `i × `i-matrix). Ni heeft de vorm (†). Dan is (Ji − aI)k eenJordanblok van (T−a·id)k. Als a 6= b, dan is de rang van (Ji−aI)k gelijk aan `i: het is immers eenbovendriehoeksmatrix met (b− a)k op de hoofddiagonaal. Als a = b, dan is (Ji − aI)k = Nk

i . Gana dat de rang van Nk

i gelijk is aan `i−k als k ≤ `i en 0 als k > `. Het verschil tussen de rang van(Ji − aI)k−1 en de rang van (Ji − aI)k is dus 1 als a = b en k ≤ `i, en 0 in de andere gevallen. Derang van de matrix (T − a · id)k is verder gelijk aan de som van de rangen van zijn Jordanblokken(Ji − aI)k, en het verschil tussen de rang van (T − a · id)k en de rang van (T − a · id)k−1 is dusgelijk aan het aantal Jordanblokken Ji = bI + Ni met b = a en grootte `i ≥ k. ¦

Gevolg: Het aantal Jordanblokken van afmeting precies k bij een eigenwaarde a van T hangt alleenaf van de rangen van (T − a · id)m voor m = 1, . . . , n. In het bijzonder is het aantal Jordanblokkenbij een gegeven eigenwaarde a gelijk aan n - rang(T − a · id) = dim(ker(T − a · id)) en dit is weergelijk aan de meetkundige multipliciteit van de eigenwaarde a. Merk nog op dat de algebraıschemultipliciteit van a gelijk is aan de som van de afmetingen van de Jordanblokken bij eigenwaardea.

Voorbeeld: Laat A =

3 1 −1 1 00 3 2 2 10 0 3 0 00 0 0 3 10 0 0 0 1

. Het karakteristieke polynoom van A is χA(X) =

−(X − 3)4(X − 1). De eigenwaarde 1 heeft algebraısche en meetkundige multipliciteit 1; voor een

eigenvector geldt (A − I)v = 0. Een eigenvector is dus v5 =

100−24

. Er is uiteraard maar 1

29

Page 33: SYLLABUS LINEAIRE ALGEBRA 2

Jordanblok met afmeting 1. De eigenwaarde 3 heeft algebraısche multipliciteit 4. Er geldt

A−3I =

0 1 −1 1 00 0 2 2 10 0 0 0 00 0 0 0 10 0 0 0 −2

, (A−3I)2 =

0 0 2 2 20 0 0 0 00 0 0 0 −20 0 0 0 40 0 0 0 1

, (A−3I)3 =

0 0 0 0 −20 0 0 0 00 0 0 0 00 0 0 0 40 0 0 0 −8

.

De rangen van (A − 3I), (A − 3I)2 en (A − 3I)3 zijn resp. 3, 2 en 1. Volgens Propositie 3.6 ishet aantal Jordanblokken (van afmeting minstens 1) dus gelijk aan 5 − rang(A − 3I) = 2; dit isook de meetkundige multipliciteit van de eigenwaarde 3. Het aantal Jordanblokken met afmetingminstens 2 is rang(A−3I)−rang(A−3I)2 = 1, en het aantal Jordanblokken van afmeting minstens3 is rang(A− 3I)2−rang(A− 3I)3 = 1. Daar de som van de afmetingen van de Jordanblokken 4 is(de algebraısche multipliciteit), is er een Jordanblok bij eigenwaarde 3 met afmeting 3 en een met

afmeting 1. Een Jordan-normaalvorm is dus J =

3 1 0 0 00 3 1 0 00 0 3 0 00 0 0 3 00 0 0 0 1

.

Tenslotte bepalen we een Jordanbasis. Merk op dat ker(A − 3I)3 = {x ∈ C5 : x5 = 0}. Dit isde gegeneraliseerde eigenruimte E3 bij eigenwaarde 3. Verder is ker(A − 3I)2 = {x ∈ C : x5 =0, x3 + x4 = 0} en ker(A − 3I)3 = {x ∈ C : x5 = x3 + x4 = x2 − x3 + x4 = 0}. Laat v3

een vector zijn in ker(A − 3I)3 die niet in ker(A − 3I)2 ligt: neem v3 = e3 =

00100

. Dan is

v2 = (A− 3I)v3 =

−12000

en v1 = (A− 3I)v2 = (A− 3I)v3 =

20000

. v1 ligt in ker(A− 3I). Vul

{v1} aan tot een basis {v1,v4} van ker(A− 3I) door (bijvoorbeeld) v4 =

021−10

te kiezen (elke

vector in ker(A− 3I) die lineair onafhankelijk is van v1 voldoet). Nu is E3 = span{v1,v2,v3,v4}en E1 = span{v5}. V = {v1,v2,v3,v4,v5} vormt een Jordanbasis bij de matrix A, m.a.w. J isde matrix van de afbeelding x → Ax t.o.v. de basis V.

Gelijkvormige matrices.

We hebben gezien dat elke complexe matrix gelijkvormig is met een matrix in Jordan-normaalvorm.Twee complexe n×n-matrices zijn gelijkvormig dan en slechts dan als zij dezelfde Jordan-normaal-vorm hebben. Twee matrices A en B zijn dus gelijkvormig als de rang van (A − aI)k gelijk isaan de rang van (B − aI)k voor alle a ∈ C en k ∈ N. In het bijzonder hebben gelijkvormige

30

Page 34: SYLLABUS LINEAIRE ALGEBRA 2

matrices dezelfde eigenwaarden met dezelfde algebraısche en meetkundige multipliciteiten, maarhet omgekeerde is i.h.a. niet het geval.

Propositie 3.8: Laat A,B twee reele n× n-matrices zijn die (complex) gelijkvormig zijn, m.a.w.er bestaat een complexe n × n-matrix U zodanig dat A = UBU−1. Dan bestaat er ook een reelematrix Z zodanig dat A = ZBZ−1.

Bewijs: Schrijf U = V + iW met reele matrices V, W . Als W = O dan zijn we klaar. Neem dusaan dat W 6= O. Dan is AV = V B en AW = WB en dus ook A(V + aW ) = (V + aW )B voora ∈ C. We zoeken een reele a zodanig dat V + aW inverteerbaar is, dus det(V + aW ) 6= 0. Nuis det(V + aW ) hetzij een polynoom van graad hoogstens n in a, hetzij identiek gelijk aan 0. Hetlaatste geval doet zich echter niet voor omdat detU = det(V + iW ) 6= 0. Dus zijn er hoogstens n

reele getallen a met det(V + aW ) = 0. Conclusie: matrices die complex gelijkvormig zijn, zijn ookreeel gelijkvormig.

Voorbeelden: (1.) Omdat rang(AT − aI)k = rang((A − aI)k)T = rang(A − aI)k voor alle a, b, k,is elke matrix A gelijkvormig met zijn getransponeerde AT .

(2.) Zij A een reele 2 × 2-matrix met een niet-reele eigenwaarde λ = reiφ. Dan is λ = re−iφ

ook een eigenwaarde. Beide eigenwaarden hebben algebraısche multipliciteit 1. De matrix B =

r

(cos φ − sin φsin φ cos φ

)heeft dezelfde eigenwaarden als A en is (reeel) gelijkvormig met A (een Jordan-

normaalvorm van beide is diag(reiφ, re−iφ)).

Minimumpolynoom, de stelling van Cayley-Hamilton.Laat V en T ∈ L(V ) als boven zijn. Als λ een eigenwaarde is van T dan laat m(λ) het kleinstegehele getal m zijn zodat de restrictie van (T − λ · id)m tot de gegeneraliseerde eigenruimte Eλ denulafbeelding is. m(λ) is tevens het kleinste getal n zodat ker(T − λ · id)n gelijk is aan ker(T −λ · id)n+1. Merk op dat m(λ) gelijk is aan de grootte van het grootste Jordanblok in de Jordan-normaalvorm van de matrix. In het bijzonder is dan m(λ) kleiner of gelijk aan de algebraıschemultipliciteit van λ. Beschouw nu het polynoom M(X) =

λ

(X − λ · id)m(λ) waarbij het product

wordt genomen over de eigenwaarden van T (we kunnen overigens evengoed het product nemenover alle λ ∈ C omdat m(λ) = 0 als λ geen eigenwaarde is). Omdat alle factoren in M(T ) metelkaar commuteren is M(T )v = 0 als v in een gegeneraliseerde eigenruimte Eν ligt (door de factorencommuteren kunnen we er dan immers voor zorgen dat de factor (T − ν · id)m(ν) geheel aan derechterkant staat in het product en deze factor annihileert elke v ∈ Eν . Maar omdat V de directesom is van de gegeneraliseerde eigenruimten Eλ, is M(T )v = 0 voor alle v ∈ V en dus is M(T ) denulafbeelding. M(X) is het polynoom van laagste graad zodanig dat M(T ) = O (in het bijzonderis M(X) op een voorfactor a ∈ C het unieke polynoom met deze eigenschap). M(X) heet hetminimumpolynoom van T .

Omdat m(λ) kleiner of gelijk is aan de algebraısche multipliciteit van λ is M(X) een deler van hetkarakteristieke polynoom χT (X). Hieruit volgt onmiddellijk

31

Page 35: SYLLABUS LINEAIRE ALGEBRA 2

Stelling 3.9 (Cayley-Hamilton). Laat V een eindig-dimensionale vectorruimte zijn en T : V →V een endomorfisme. Dan is χT (T ) = O.

Voorbeeld: Beschouw de matrix A =

3 1 −1 1 00 3 2 2 10 0 3 0 00 0 0 3 10 0 0 0 1

in het hierboven behandelde voor-

beeld. De grootte van het grootste Jordanblok bij eigenwaarde 1 is 1, bij eigenwaarde 3 is het 3.Het minimumpolynoom bij A is dus mA(X) = (X − 3)3(X − 1). Dit is inderdaad een deler vanhet karakteristieke polynoom χA(X) = −(X − 3)4(X − 1).

Gemeenschappelijke eigenvectoren van commuterende endomorfismen.

Propositie 3.10. Zij V een eindig-dimensionale complexe vectorruimte. Laat T, U ∈ L(V ) tweecommuterende endomorfismen zijn. Dan is er een basis van V bestaande uit gemeenschappelijkegegeneraliseerde eigenvectoren van T en U . (m.a.w. er is een basis {f1, . . . , fn} zodanig dat fj eengegeneralizeerde eigenvector van zowel T als U is).

Bewijs: Zij λ een gegeneraliseerde eigenwaarde van T en Eλ de bijbehorende gegeneralizeerdeeigenruimte. Voor v ∈ Eλ geldt dat (T − λ)m(v) = 0 voor zekere m > 0. Uit (T − λ)mU(v) =U(T −λ)m(v) = 0 volgt dat U(Eλ) ⊂ Eλ. De restricties U |Eλ

zijn dus goed gedefinieerd. Kies eenbasis van Eλ, bestaande uit gegeneralizeerde eigenvectoren van U (deze bestaat uiteraard ook uitgegeneralizeerde eigenvectoren van T ). Daar V de directe som van de gegeneralizeerde eigenruimtenEλ is, is de vereniging van deze bases een basis van V . Deze heeft de gewenste eigenschap. ¦Opmerking 1. In het geval dat T en U beide diagonaliseerbaar zijn zegt Prop.3.10 dat er dan eengemeenschappelijke basis van eigenvectoren van T en U bestaat.

Opmerking 2. Propositie 3.10 is te generalizeren naar het geval van meer dan twee commuterendeafbeeldingen. De bewering luidt dan: als T1, . . . , Tk : V → V paarsgewijs commuterende lineaireafbeeldingen zijn, dan is er een basis van V , bestaande uit gemeenschappelijke gegeneraliseerdeeigenvectoren van T1, T2, . . . Tk.

De cirkels van Gershgorin.In deze paragraaf leiden we een resultaat af over de ligging van eigenwaarden in het complexe vlak:

Propositie 3.11 (de cirkels van Gershgorin). Zij A een complexe n×n-matrix met elementenaij , i, j = 1, . . . , n. Dan liggen alle eigenwaarden van A in de vereniging van de cirkelschijvenCi : |z − aii| ≤

∑j 6=i |aij |.

Bewijs: Laat λ ∈ C een eigenwaarde van A zijn en x een bijbehorende eigenvector. Laat i deindex zijn zodat xi de grootste modulus heeft van alle componenten van x, m.a.w. |xi| ≥ |xj | voorj = 1, . . . , n. Dan volgt uit

∑nj=1 aijxj = λxi dat

(λ− aii)xi =∑

j 6=i

aijxj .

32

Page 36: SYLLABUS LINEAIRE ALGEBRA 2

Delen door xi en de modulus nemen geeft dan

|λ− aii| ≤∑

j 6=i

|aij |. ¦

De cirkels |z − aii| =∑

j 6=i |aij | heten de cirkels van Gershgorin bij A.

Appendix.

We bewijzen in deze appendix het resultaat (ook reeds genoemd in stelling 3.3) dat als T : V →V een lineaire afbeelding is op een eindig-dimensionale complexe vectorruimte V , dan zijn hetdiagonaliseerbare deel D en het nilpotente deel N van T polynomen in T . De polynomen zijnuniek als we eisen dat de graad hoogstens M is, waarbij M de graad is van het minimumpolynoomvan T .

Bewijs: Laat A de matrix van T zijn t.o.v. een Jordanbasis. We geven het bewijs voor A. A isdus een matrix in Jordan-normaalvorm. Laat D het diagonaliseerbare deel van A zijn - D is duseen diagonaalmatrix met de eigenwaarden van A op de diagonaal - en N het nilpotente deel.

Neem aan dat A (en dus T ) m verschillende eigenwaarden a1, . . . , am ∈ C heeft. We bekijkeneerst het geval dat A geen eigenwaarde 0 heeft. Laat m` het aantal eigenwaarden met (minstens)een Jordanblok van afmeting minstens ` (dus m1 = m) en laat L de afmeting van het grootsteJordanblok zijn (dus m` = 0 voor ` > L).

We tonen aan dat de matrices I,D, D2, . . . , Dn−1 lineair onafhankelijk zijn in de vectorruimteM(n× n,C) van complexe n× n-matrices voor n = m maar niet voor n > m. Als

λ1I + λ2D + . . . + λnDn−1 = O

voor zekere complexe getallen λ1, . . . , λn, dan is

λ1 + λ2aj + . . . + λnan−1j = 0

voor j = 1, . . . , m en omgekeerd. Dit zijn m vergelijkingen met n onbekenden. Als n > m danis er zeker een oplossing met niet alle λj = 0. Als n = m dan is de coefficientendeterminant eendeterminant van Vandermonde V (a1, . . . , am) 6= 0; de enige oplossing is dus die met alle λj = 0.Dus I, D, . . . , Dm−1 zijn lineair onafhankelijk en Dm is een polynoom in I, . . . ,Dm−1.

Op dezelfde wijze geldt dat de matrices N `, N `D, . . . , N `Dn−1 lineair onafhankelijk zijn dan enslechts dan als n ≤ m`; N `Dm` is dan een polynoom in N `Dj voor 0 ≤ j < m`. Omdat N `Dj enNkDi niet-nulelementen hebben op verschillende nevendiagonalen indien k 6= ` zijn de M matrices

N `Dj met 0 ≤ ` < L en 0 ≤ j < m` lineair onafhankelijk, waarbij M =L∑

`=1

m`.

33

Page 37: SYLLABUS LINEAIRE ALGEBRA 2

Laat nj de afmeting van het grootste Jordanblok bij de eigenwaarde aj zijn. Het minimumpolynoom

van A heeft dan graad M ′ =m∑

j=1

nj . Dus zijn de matrices I, A, . . . , AM ′−1 lineair onafhankelijk.

Nu geldt dat M = M ′: beschouw de m × L-matrix B met Bij = 1 als er een Jordanblok vanafmeting minstens j is bij de eigenwaarde ai en Bij = 0 anders. In de i-e rij staan nu precies ni

enen; in totaal zijn er M ′ enen. In de j-e kolom staan precies mj enen, in totaal zijn dit M enen.Maar dan is M = M ′.

Door A = D + N , A2 = (D + N)2 etc. uit te schrijven en termen N `Dj te herschrijven alssommen van termen N `Dk met 0 ≤ k < m`, kunnen we I, A, . . . , AM−1 schrijven als lineairecombinaties van de M matrices N `Dj met 0 ≤ ` < L en 0 ≤ j < m`. Dit geeft een lin-eaire afbeelding U van de vectorruimte van polynomen van graad hoogstens M − 1 in A (dusspan{I, A, . . . , AM−1}) naar de vectorruimte van polynomen in N en D die wordt opgespannendoor I, D, . . . , N `Dj , . . . , NL−1DmL−1. Omdat I,A, . . . , AM−1 lineair onafhankelijk zijn, is U in-jectief en dus, omdat beide vectorruimten dimensie M hebben, is U inverteerbaar. Maar dan zijnU−1(D) en U−1(N) polynomen in A van graad hoogstens M − 1. (U−1(N) kan O zijn; U−1(D)niet).

Als A een eigenwaarde 0 heeft, dan beschouw A−µI waarbij µ geen eigenwaarde van A is. A−µI

heeft diagonaliseerbaar deel D − µI en nilpotent deel N . Uit het bovenstaande volgt dat D − µI

en N polynomen in A− µI zijn; dus zijn D en N polynomen in A.

We sluiten af met een voorbeeld. Laat A =

2 1 0 0 00 2 0 0 00 0 2 0 00 0 0 1 10 0 0 0 1

. Dan is m1 = m = 2,m2 = 2

en M = 4. De matrices I,D, N, ND zijn lineair onafhankelijk, evenals I, A, A2, A3. Merk op dat(D − I)(D − 2I) = O dus D2 = 3D − 2I. Dan is

I = I, A = D + N, A2 = (D + N)2 = 3D + 2ND − 2I, A3 = (D + N)3 = 7D + 9ND − 6N − 6I.

Inverteren geeft dan

D = −2A3 + 9A2 − 12A + 6I, N = 2A3 − 9A2 + 13A− 6I.

34

Page 38: SYLLABUS LINEAIRE ALGEBRA 2

IV. INWENDIGE PRODUCTEN.

Inproducten op reele vectorruimten.

Definitie. Zij V een reele vectorruimte. Een inwendig product (of scalair product) ( , ) op V is eenafbeelding van V × V naar R (d.w.z. voor v, w ∈ V is (v, w) ∈ R) zodanig dat

a. (bilineariteit): voor elke w ∈ V zijn de afbeeldingen V → R gegeven door v → (v, w) en v → (w, v)lineair. M.a.w. (v + v′, w) = (v, w) + (v′, w) en (λv,w) = λ(v, w) voor v, w ∈ V en λ ∈ R enanaloog voor de tweede component.

b. (symmetrie): (v, w) = (w, v) voor v, w ∈ V

c. (positieve definietheid): (v, v) > 0 als v ∈ V en v 6= 0.

Een vectorruimte met een inwendig product heet ook wel een Euclidische vectorruimte.

Voorbeelden: 1. V = Rn. Voor x = (x1, . . . , xn)T en y = (y1, . . . , yn)T is (x,y) = xT y =x1y1 + . . . + xnyn een inwendig product, het standaard-inwendig product. Dit inproduct noterenwe ook wel als x · y.2. V = Rn. Laat w1, . . . , wn positieve getallen zijn. Dan is (x,y) = w1x1y1 + . . . + wnxnyn eeninwendig product.3. Zij V = Rn. We zoeken de meest algemene vorm voor een inwendig product ( , ) op V . Laatx =

∑ni=1 xiei en y =

∑ni=1 yjej vectoren in V zijn. Dan is wegens bilineariteit

(x,y) = (n∑

i=1

xiei,n∑

j=1

yjej) =n∑

i,j=1

xiyj(ei, ej) =n∑

i,j=1

aijxiyj

met aij = (ei, ej). Laat A de matrix met elementen aij zijn. Dan is (x,y) = xT Ay. Elkebilineaire vorm ( , ) op Rn is dus van deze vorm. Als we tevens symmetrie eisen, dan is xT Ay =(x,y) = (y,x) = yT Ax = xT AT y en dus is A symmetrisch (A = AT ). Verder volgt uit positievedefinietheid dat xT Ax > 0 voor alle x 6= 0. Een symmetrische matrix met deze eigenschap noemenwe een positief-definiete matrix. Positief-definiete matrices bestuderen we in hoofdstuk VII.4. Laat 〈 , 〉 op R2 gegeven zijn door 〈x,y〉 = 2x1y1 + 5x2y2 + x1y2 + x2y1. We kunnen deze

uitdrukking schrijven in de vorm x∗By met B =(

2 11 5

)en x =

(x1

x2

), y =

(y1

y2

). De matrix

B is symmetrisch. Omdat〈x,x〉 = (x1 − x2)2 + (x1 + 2x2)2

is 〈x,x〉 ≥ 0 en gelijkheid geldt als x1−x2 = 0, x1 +2x2 = 0 dus voor x1 = x2 = 0 (en dus x = 0).De vorm is dus een inwendig product op R2.

Opmerking: In hoofdstuk 8 zullen we zien dat een symmetrische matrix positief definiet is dan enslechts dan als alle eigenwaarden positief zijn. Het is eenvoudig na te gaan dat dit voor de matrixB het geval is.5. V is de vectorruimte van reele continue functies op het interval [a, b] (a < b). Dan is (f, g) =∫ b

af(x)g(x)dx een inwendig product op V .

35

Page 39: SYLLABUS LINEAIRE ALGEBRA 2

6. V = M(m × n,R), de vectorruimte van reele m × n-matrices. Een inwendig product op V

wordt gegeven door (A,B) = tr(AT B).

Niet elke vectorruimte heeft een inwendig product. Op eindig dimensionale vectorruimten kunnenwe echter altijd een inwendig product definieren, bijvoorbeeld zoals in voorbeeld 1, waarbij xi, yi

de componenten t.o.v. een gegeven basis zijn.

Inproducten op complexe vectorruimten.

We bekijken nu het geval dat V een complexe vectorruimte is.

Definitie. Zij V een complexe vectorruimte. Een (hermites) inwendig product (of scalair product)( , ) op V is een afbeelding van V × V naar C (d.w.z. voor v, w ∈ V is (v, w) ∈ C) zodanig dat

a. (sesquilineariteit): voor w ∈ V is de afbeelding V → C gegeven door v → (w, v) lineair, m.a.w.(w, v + v′) = (w, v) + (w, v′) en (w, λv) = λ(w, v) voor v, w ∈ V en λ ∈ C. Voor elke w ∈ V

is de afbeelding gegeven door v → (v, w) antilineair, d.w.z. (v + v′, w) = (v, w) + (v′, w) en(λv,w) = λ(v, w) voor v, w ∈ V en λ ∈ C.

b. (w, v) = (v, w) voor v, w ∈ V

c. (positieve definietheid): (v, v) > 0 als v ∈ V en v 6= 0.

Merk op dat de antilineariteit in de tweede component wordt geımpliceerd door (gewone) lineariteitin de eerste component samen met eigenschap b. Verder volgt uit eigenschap b dat (v, v) ∈ R vooralle v ∈ V . Een vorm ( , ) met eigenschappen a en b heet hermites. Een eindig-dimensionalecomplexe vectorruimte met een hermites inwendig product heet ook wel een unitaire vectorruimte.

Voorbeelden: 1. V = Cn. Voor x = (x1, . . . , xn)T en y = (y1, . . . , yn)T is (x,y) = x1y1+. . .+xnyn

een (hermites) inwendig product, het standaard-hermites inproduct. (Merk op: in de literatuurgeldt antilineariteit soms juist voor de tweede component i.p.v. de eerste; overeenkomstig wordtdan (x,y) = x1y1 + . . . + xnyn).

2. V is de vectorruimte van complexe continue functies op het interval [a, b] ∈ R (a < b). Dan is(f, g) =

∫ b

af(x)g(x)dx een inwendig product op V .

3. Als in het geval van reele vectorruimten tonen we aan: De meest algemene sesquilineaire vormop Cn is (x,y) = xT Ay. Deze vorm is hermites als A = A∗ waarbij de hermites geadjungeerde A∗

van A gedefinieerd is als de complex gecongujeerde van AT . Een matrix A waarvoor A = A∗ heeteen hermitese matrix. Merk op dat we (x,y) kunnen schrijven als x∗Ay.

4. Laat 〈 , 〉 op C2 gegeven zijn door

〈x,y〉 = 3x1y1 + 2x1y2 + 2x2y1 + 6x2y2.

We kunnen deze uitdrukking schrijven in de vorm x∗By met B =(

3 22 6

)en x =

(x1

x2

),

y =(

y1

y2

). Als in het reele geval geldt dat een hermitese matrix positief definiet is precies indien

36

Page 40: SYLLABUS LINEAIRE ALGEBRA 2

alle eigenwaarden positief zijn. De matrix B is hermites en heeft positieve eigenwaarden 2 en 7.De vorm 〈 , 〉 is dus een hermites inwendig product op Cn.

5. V = M(m× n,C). Een inproduct op V wordt gegeven door (A, B) = tr(A∗B).

Norm en afstand. De ongelijkheid van Schwarz.

Met behulp van een inwendig product kunnen we een norm en een afstand definieren. Eerst gevenwe de definities van een norm, resp. een afstand.

Definitie: Een norm op een vectorruimte V over een lichaam K is een afbeelding ‖ ‖ : V → R≥0

zodanig dat

i. ‖v‖ > 0 voor alle v ∈ V en v 6= 0.

ii. ‖λv‖ = |λ|‖v‖ voor v ∈ V en λ ∈ R.

iii. (driehoeksongelijkheid): Voor v, w ∈ V geldt: ‖v + w‖ ≤ ‖v‖+ ‖w‖.Merk op dat uit (ii) volgt dat ‖0‖ = 0. Als eigenschappen (ii) en (iii) gelden maar eigenschap (i)vervangen is door de eis dat ‖v‖ ≥ 0 voor alle v ∈ V , dan spreken we van een seminorm. Eenvectorruimte met een norm heet een genormeerde vectorruimte.

M.b.v. een norm kunnen we een afstand definieren:

In het algemeen moet een afstandsfunctie d( , ) aan de volgende eigenschappen voldoen:

a. d(v, w) ≥ 0 en gelijkheid geldt slechts als v = w.

b. d(v, w) = d(w, v).

c. d(v, w) ≤ d(v, u) + d(u, w) (driehoeksongelijkheid) voor u, v, w ∈ V .

Ga na dat d(v, w) = ‖v−w‖ inderdaad aan deze eigenschappen voldoet, m.a.w. op een genormeerdevectorruimte kan een afstand worden gedefinieerd.

Als een inproduct ( , ) op V gegeven is dan definieren we de (Euclidische) norm van een vectorv ∈ V d.m.v. ‖v‖ =

√(v, v). Deze norm, die door het inwendig product wordt geınduceerd,

noemen we wel de Euclidische norm. Om te laten zien dat dit inderdaad een norm is, moeten wenagaan dat aan de eigenschappen (i-iii) van normen voldaan is. Om dit aan te tonen gebruiken wede volgende cruciale ongelijkheid:

Propositie 4.1. (ongelijkheid van Schwarz) Zij V een Euclidische vectorruimte. Dan geldtde volgende ongelijkheid:

|(v, w)|2 ≤ (v, v)(w, w) (v, w ∈ V ). (4.1)

Gelijkheid geldt dan en slechts dan als v en w lineair afhankelijk zijn.

Bewijs: Als w = 0 dan volgt de ongelijkheid direct. Neem dus aan dat w 6= 0. Dan geldt, wegenspositieve definietheid,

0 ≤ (v + λw, v + λw) = (v, v) + λ(v, w) + λ(w, v) + |λ|2(w,w)

37

Page 41: SYLLABUS LINEAIRE ALGEBRA 2

voor alle λ ∈ C. Kies nu λ = − (w, v)(w, w)

. Dan volgt meteen dat (w, v)(v, w) ≤ (v, v)(w,w).

Gelijkheid geldt slechts als v + λw = 0, m.a.w. als v, w lineair afhankelijk zijn. ¦Gevolg 4.2: De afbeelding ‖ ‖ : V → R definieert inderdaad een norm op V

Bewijs: Eigenschap (i) volgt uit de positieve definietheid van het inproduct: (v, v) > 0 als v 6= 0V .Eigenschap (ii) volgt uit (λv, λv) = λλ(v, v) = |λ|2(v, v). Eigenschap (iii) is een gevolg van deongelijkheid van Schwarz:

‖v + w‖2 = (v + w, v + w) = (v, v) + (v, w) + (w, v) + (w, w) = (v, v) + 2Re(v, w) + (w, w) ≤

≤ ‖v‖2 + 2|(v, w)|+ ‖w‖2 ≤ (‖v‖+ ‖w‖)2. ¦

In een reele vectorruimte kunnen we nu de hoek θ tussen twee vectoren v, w ∈ V (mits v, w 6= 0)

op teken na definieren door cos θ =(v, w)‖v‖‖w‖ . De ongelijkheid van Schwarz garandeert dat −1 ≤

cos θ ≤ 1 en dat θ = 0 of π precies dan indien v en w lineair afhankelijk zijn. (Bij het collegelineaire algebra 1 hebben we gezien dat dit voor V = R2 en R3 met het standaard-inproduct preciesovereen komt met de gebruikelijke hoek.) Verder is θ = π/2 precies in het geval dat (v, w) = 0(voor v, w 6= 0).

Definitie: (i.) Zij V een vectorruimte met een inproduct. Twee vectoren v, w ∈ V heten orthogonaalals (v, w) = 0.(ii.) Een stelsel vectoren v1, . . . , vn ∈ V heet een orthogonaal stelsel als elk tweetal vectoren uit hetstelsel orthogonaal is en geen van de vectoren de nulvector is. Als bovendien geldt dat ‖vi‖ = 1voor i = 1, . . . , n dan heet het stelsel orthonormaal.

Voorbeeld. De standaardbasis {e1, . . . , en} in Kn is een orthonormaal stelsel.

De methode van Gram-Schmidt en QR-decompositie.

De volgende procedure (de methode van Gram-Schmidt) levert een methode om uitgaande van eengegeven lineair onafhankelijk stelsel {v1, . . . , vn} een orthonormaal stelsel te maken zodanig datbeide stelsels dezelfde lineaire deelruimte opspannen: definieer v′1, . . . , v

′n als volgt:

v′1 = v1, v′2 = v2 − (v′1, v2)(v′1, v

′1)

v′1, v′3 = v3 − (v′1, v3)(v′1, v

′1)

v′1 −(v′2, v3)(v′2, v

′2)

v′2, . . .

Nu geldt (ga na): (v′2, v′1) = 0, (v′3, v

′1) = (v′3, v

′2) = 0 etc. Het stelsel {v′1, . . . , v′n} is dus een ortho-

gonaal stelsel en span{v′1, . . . , v′n} = span{v1, . . . , vn}. Om een orthonormaal stelsel te verkrijgenmoeten we door de normen delen: als wi = v′i/‖v′i‖ (i = 1, . . . , n), dan is {w1, . . . , wn} eenorthonormaal stelsel.

Deze orthonormalisatieprocedure geeft aanleiding tot een ontbinding van een willekeurige m × n-matrix waarvan de kolomvectoren lineair onafhankelijk zijn: laat V = (v1 . . . vn) een m×n-matrix

38

Page 42: SYLLABUS LINEAIRE ALGEBRA 2

zijn met kolomvectoren v1, . . . , vn. Pas de methode van Gram-Schmidt toe op de kolomvectorenv1, . . . , vn. Dit levert, met dezelfde notatie als hierboven, een orthogonaal stelsel {v′1, . . . , v′n},waarbij voor i = 1, . . . , n de vector vi = r1iv

′1 + ri−1,iv

′i−1 + v′i een lineaire combinatie is van

v′1, . . . , v′i. In matrixvorm kunnen we dit schrijven als V = V ′R′ waarbij V ′ = (v′1 . . . v′n) en R′

de bovendriehoeksmatrix is met elementen R′ij = rij voor i < j en R′ii = 1. Laat vervolgenswi = v′i/‖v′i‖ en Q = (w1, . . . , wn). Dan is V = QR waarbij R de bovendriehoeksmatrix is metelementen Rij = R′ij‖v′i‖. Dit heet de QR-decompositie van de matrix V . De kolomvectoren vande matrix Q vormen een orthonormaal stelsel.

Voorbeeld: Laat V =(

1 11 2

)= (v1, v2). Dan vormen de vectoren

v′1 = v1 =(

11

), v′2 = v2 − v2 · v′1

v′1 · v′1v′1 =

(−1/21/2

)

een orthogonaal stelsel. Normaliseren geeft

w1 =1√2

(11

), w2 =

1√2

(−11

)

en er geldt dat

v1 = v′1 =√

2w1, v2 = v′2 +32v′1 =

32

√2w1 +

12

√2w2

zodat

V =(

1 11 2

)=

( 12

√2 − 1

2

√2

12

√2 1

2

√2

)(√2 3

2

√2

0 12

√2

)= QR.

Representatie t.o.v. een orthonormale basis.

Zij V een eindig-dimensionale reele of complexe vectorruimte met een (hermites) inproduct ( , ).We tonen het volgende aan:

Propositie 4.3: Zij N = {v1, . . . , vn} een orthonormale basis van V . Dan geldt

a. Voor x ∈ V geldt x = (v1, x)v1 + . . . + (vn, x)vn m.a.w. de coordinaten van een vector x t.o.v. debasis N zijn gegeven door de inproducten met de basisvectoren van N .

b. Voor x, y ∈ V is

(x, y) = x1y1 + . . . + xnyn = (v1, x)(v1, y) + . . . + (vn, x)(vn, y).

(In het geval dat V een reele vectorruimte is, is uiteraard xi = xi voor alle i.)

c. Zij T : V → V een lineaire afbeelding en A = TNN de matrix van T t.o.v. de basis N . Dan isAij = (vi, T (vj)).

Bewijs:

39

Page 43: SYLLABUS LINEAIRE ALGEBRA 2

a. Schrijf x = x1v1 + . . . + xnvn. Dan is

(vj , x) = x1(vj , v1) + . . . + xn(vj , vn) = xj

daar (vj , vi) = 1 als i = j en 0 als i 6= j.

b.

(x, y) =( n∑

i=1

xivi,n∑

j=1

yjvj

)=

n∑

i=1

n∑

j=1

xiyj(vi, vj) =n∑

i=1

xiyi.

c. Daar A = (T (v1)N . . . T (vn)N ), is het element Aij gelijk aan de i-e component (ten opzichte vande basis {v1, . . . , vn}) van T (vj). Volgens (a) is dit gelijk aan (vi, T (vj)). ¦

De geadjungeerde van een lineaire afbeelding.

Laat V, W vectorruimten over hetzelfde lichaam K met (hermites) inwendige producten ( , )V en( , )W zijn. Zij T : V → W een lineaire afbeelding. De geadjungeerde T ∗ is een lineaire afbeeldingvan W naar V zodanig dat (w, Tv)W = (T ∗w, v)V voor alle v ∈ V en w ∈ W . (In complexevectorruimten wordt wel de benaming hermites geadjungeerde gebruikt om te benadrukken dat hethier gaat om de geadjungeerde t.a.v. een hermites (i.p.v. een Euclidisch) inproduct.) Merk op datT ∗, als hij bestaat, uniek is. Een afbeelding T : V → V waarvoor T = T ∗ heet zelfgeadjungeerd ofook wel hermites.

Voorbeelden: 1. Laat V = Rn en W = Rm met het standaardinproduct en T (x) = Ax voor x ∈ Rn

waarbij A een zekere m × n-matrix is (A is de standaardmatrix van T ). Dan is T ∗(y) = AT y,m.a.w. de standaardmatrix van de geadjungeerde afbeelding is de getransponeerde van de matrixvan de afbeelding zelf. Immers voor x ∈ Rn en y ∈ Rm is

(y, T (x)) = (y, Ax) = yT Ax = (AT y)T x = (AT y,x) = (T ∗(y),x).

T is zelfgedadjungeerd dan en slechts dan als A = AT , dus als A symmetrisch. Om deze redenheet T ook wel een symmetrische afbeelding.2. Laat V = Cn en W = Cm met het standaard-hermites inproduct en T (x) = Ax voor x ∈ Cn

waarbij A een zekere m×n-matrix is (A is weer de standaardmatrix van T ). Dan is T ∗(y) = A∗y,waarbij A∗ = AT . Immers voor x ∈ Rn en y ∈ Rm is

(y, T (x)) = (y, Ax) = y∗Ax = (A∗y)∗x = (A∗y,x) = (T ∗(y),x).

3. Beschouw een n-dimensionale complexe vectorruimte V met een inproduct ( , ). Zij a ∈ V eengegeven vector en de lineaire afbeelding T : V → V wordt gegeven door T (x) = x− i(a, x)a. Danis voor x, y ∈ V

(y, T (x)) = (y, x− i(a, x)a) = (y, x)− i(a, x)(y, a) = (y + i(a, y)a, x) = (T ∗(y), x)

40

Page 44: SYLLABUS LINEAIRE ALGEBRA 2

en de geadjungeerde afbeelding wordt dus gegeven door T ∗(y) = y + i(a, y)a.

4. Laat V de vectorruimte zijn van oneindig vaak differentieerbare (reele) functies op een interval[a, b] (met a < b) in R, met de eigenschap dat voor f ∈ V geldt dat f(a) = f(b) = 0. Ga na datdit een vectorruimte is (het is een lineaire deelruimte van de vectorruimte van alle reele continuefuncties op [a, b]). Op V is een inproduct gegeven door (f, g) =

∫ b

af(x)g(x)dx. Laat T : V → V

gegeven zijn door T (f) = f ′. Dan is voor f, g ∈ V :

(g, T (f)) =∫ b

a

g(x)f ′(x)dx = −∫ b

a

g′(x)f(x) = (T ∗(g), f)

en de geadjungeerde afbeelding is dus T ∗(g) = −g′.De voorbeelden 1 en 2 zijn in zekere zin te generaliseren naar algemene vectorruimten:

Propositie 4.4 (de matrix van de geadjungeerde). Laat V een eindig-dimensionale reele(resp. complexe) vectorruimte met inwendig product ( , ) zijn. Zij N = {v1, . . . , vm} een or-thonormale basis van V en zij verder T : V → V een lineaire afbeelding. De matrix van degeadjungeerde T ∗ t.o.v. de basis N is de getransponeerde (resp. de hermites geadjungeerde) vande matrix TNN van T t.o.v. de basis N .

Bewijs: Laat A = (Aij)i,j=1...n de matrix van T t.o.v. N zijn en B = (Bij) de matrix van T ∗ t.o.v.N . Uit Propositie 4.3 volgt dat Aij = (vi, T (vj)) en Bij = (vi, T

∗(vj)). Dan

Bij = (vi, T∗(vj)) = (T (vi), vj) = (vj , T (vi)) = Aji = A∗ij

en dus is B = A∗. In het geval dat V een reele vectorruimte is, is uiteraard A∗ = AT . ¦Opmerking: Zij V een eindig-dimensionale complexe vectorruimte met een (hermites) inproduct.Uit het bovenstaande volgt: een afbeelding T : V → V is hermites dan en slechts dan als voor dematrix A van T t.o.v. een (willekeurige) orthonormale basis geldt dat A = A∗. Een matrix metdeze eigenschap noemen we een hermitese matrix.

Opmerking: In de fysische literatuur wordt de notatie A∗ vaak gebruikt voor de complex gecon-jugeerde van een matrix of een operator en voor de (hermites) geadjungeerde wordt de notatie A†

gebruikt.

Orthogonaal complement en orthogonale projectie.

Laat V een eindig-dimensionale vectorruimte met inwendig product zijn en W een lineaire deel-ruimte van V . Het orthogonaal complement W⊥ van W is de lineaire deelruimte van V bestaandeuit de vectoren x ∈ V zodanig dat (x,w) = 0 voor alle w ∈ W . Ga na dat dit inderdaad eenlineaire deelruimte is.

Propositie 4.5. Voor de dimensies geldt:

dim(W ) + dim(W⊥) = dim(V ). (4.2)

41

Page 45: SYLLABUS LINEAIRE ALGEBRA 2

Bewijs: Laat {w1, . . . , wm} een orthonormale basis van W zijn (m.b.v. de methode van Gram-Schmidt kunnen we altijd een orthonormale basis van W uit een gewone basis construeren).Beschouw de afbeelding PW : V → V gegeven door

PW (v) = (w1, v)w1 + . . . + (wm, v)wm. (4.3)

PW is lineair, verder geldt PW (v) ∈ W en PW (w) = w als w ∈ W dus i.h.b. is im(PW ) = W .Verder is ker(PW ) = W⊥. De bewering volgt nu meteen uit (1.2). ¦

Aangezien W ∩ W⊥ = {0V } is V gelijk aan de directe som W ⊕ W⊥. De afbeelding PW is eenprojectie op W (ga na). Omdat W⊥ de projectierichting is, noemen we PW de orthogonale projectieop W . Een orthogonale projectie is altijd zelfgeadjungeerd: PW = P ∗W . Zelfs geldt

Stelling 4.6. De lineaire afbeelding P : V → V is een orthogonale projectie dan en slechts danals P 2 = P en P ∗ = P .

Voordat we het bewijs geven, bewijzen we eerst een ander resultaat, dat een verband geeft tussengeadjungeerde en orthogonaal complement:

Propositie 4.7. Zij T : V → W een lineaire afbeelding tussen vectorruimten met een inproduct.Dan geldt:

ker(T ∗) = (im(T ))⊥ en im(T ∗) ⊂ (ker(T ))⊥. (4.4)

Als de dimensies van V en W eindig zijn, geldt zelfs im(T ∗) = (ker(T ))⊥. Verder is rang(T ) =rang(T ∗).

Bewijs: (i) De eerste identiteit volgt uit de volgende rij van equivalenties:

w ∈ (im(T ))⊥ ⇐⇒ (w, Tv) = 0 voor alle v ∈ V ⇐⇒ (T ∗w, v) = 0 ∀v ∈ V ⇐⇒ T ∗(w) = 0.

In het bijzonder volgt uit (1.2) en (4.2) (in het geval dat de dimensies eindig zijn):

dim(W )− rang(T ∗) = dim ker(T ∗) = dim(W )− rang(T ).

(ii) Laat v ∈ im(T ∗) en z ∈ ker(T ). Er bestaat een w ∈ W zodanig dat T ∗(w) = v. Dan is

(z, v) = (z, T ∗(w)) = (T (z), w) = 0

en dus is v ∈ (ker(T ))⊥. In het eindig-dimensionale geval geldt gelijkheid omdat de dimensies vanim(T ∗) en (ker(T ))⊥ gelijk zijn (vergelijk gevolg 4 op blz.4). ¦

Opgave: Laat V een e.d. vectorruimte zijn met een inproduct. Toon aan dat, als W een lineairedeelruimte is van W : (W⊥)⊥ = W . Laat verder zien dat voor de geadjungeerde van een lineaireafbeelding geldt: (T ∗)∗ = T

42

Page 46: SYLLABUS LINEAIRE ALGEBRA 2

Bewijs van Stelling 4.6: We hebben al eerder gezien dat een lineaire afbeelding P een projectie isprecies wanneer P 2 = P . Het enige wat nog moet worden aangetoond is dat im(P ) = (ker(P ))⊥

dan en slechts dan als P = P ∗. Als P = P ∗ dan volgt im(P ) = (ker(P ))⊥ direct uit Propositie 4.7.Omgekeerd, als im(P ) = (ker(P ))⊥ dan volgt uit Propositie 4.7 dat im(P ) = im(P ∗) en ker(P ) =ker(P ∗). Omdat P en P ∗ beide projecties zijn, is P = P ∗ (een projectie ligt geheel vast door zijnkern en zijn beeld). ¦

Opgave: Waarom is P ∗ : V → V een projectie als P : V → V een projectie is?

De matrix van een orthogonale projectie.

Zij V een eindig-dimensionale vectorruimte met een inproduct en een orthonormale basis E ={e1, . . . , en}. en PW : V → V de orthogonale projectie op de k-dimensionale lineaire deelruimteW . We bepalen de matrix P EE van PW t.o.v. de basis E . Laat {f1, . . . , fk} een orthonormale basisvan W zijn. Dan is voor x ∈ V

PW (x) = (f1, x)f1 + . . . + (fk, x)fk

en dus is volgens Prop.4.3b

PW (x)E = (f1, x)(f1)E + . . . + (fk, x)(fk)E =

= (f1)E(f1)∗ExE + . . . + (fk)E(fk)∗ExE

dus

P EE = (f1)E(f1)∗E + . . . + (fk)E(fk)∗E = FF ∗

waarbij F de n× k-matrix ((f1)E . . . (fk)E) is. Merk op dat, omdat {f1, . . . , fk} een orthonormaalstelsel is, F ∗F = In.

Voorbeeld: Zij W de lineaire deelruimte van R3 die wordt opgespannen door de vectoren

110

en

101

. Een orthonormale basis van W wordt gegeven door {f1 = 1√

2

110

, f2 = 1√

6

1−12

}.

Laat F = (f1, f2) =

1√2

1√6

1√2

− 1√6

0 2√6

. De matrix van orthogonale projectie op W is dus FF ∗ =

FFT = 13

2 1 11 2 −11 −1 2

.

Er bestaat ook een uitdrukking voor de matrix van PW in termen van de matrix A = ((a1)E . . . (ak)E),waarbij {a1, . . . , ak} een willekeurige basis is van W . Laat {f1, . . . , fk} een orthonormale basis van

43

Page 47: SYLLABUS LINEAIRE ALGEBRA 2

W zijn, en F als boven gedefinieerd. Dan is A = FR een QR-decompositie, waarbij R een inver-teerbare rechterbovendriehoeksmatrix is. Dan is I = F ∗F = (AR−1)∗AR−1, dus R∗R = A∗A. Nuis

P EE = AR−1(AR−1)∗ = A(R∗R)−1A∗ = A∗(A∗A)−1A.

Opmerking: Als A = (a1, . . . ,ak) en B = (b1, . . . ,bk) n×k-matrices zijn, dan is (A∗B)ij = a∗i bj =(ai,bj), m.a.w. de elementen van de matrix A∗B zijn precies de standaard-inwendige productenvan de kolomvectoren van A. De k × k-matrix A∗A de Gram-matrix van A. De matrix A en zijnGram-matrix hebben dezelfde rang (waarom?) I.h.b. is de Gram-matrix A∗A inverteerbaar preciesindien k ≤ n en A rang k heeft.

Toepassing; De methode van kleinste kwadraten. In het geval dat A een n × k-matrix ismet n > k, heeft de vergelijking Ax = b niet voor elke b ∈ Rn een oplossing x ∈ Rk. In hetgeval dat de rang van A maximaal, dus k, is, is er wel een unieke ”beste benadering”. x ∈ Rk

beschouwen we als de beste benadering van de oplossing indien ‖Ax− b‖ minimaal is. Ax is dusde orthogonale projectie van b op de kolomruimte van A en uit het voorafgaande volgt meteendat dan x = (A∗A)−1A∗b. De matrix (A∗A)−1A∗ heet de pseudoinverse van A. Een voorbeeldhiervan is het volgende: laat (x1, y1), . . . , (xn, yn) een rij (reele) meetpunten zijn, waarbij x1, . . . , xn

verschillende getallen zijn, de ”invoerwaarden” en y1, . . . , yn de meetwaarden. Gezocht wordt eenlijn y = cx + d die ”zo goed mogelijk” bij de meetpunten past. We bepalen c, d zo, dat de somvan de kwadraten

∑nj=1(yj − cxj − d)2 minimaal is. Dit komt neer op het vinden van een vector

x =(

cd

)zodanig dat ‖Ax− b‖ minimaal is, waarbij

A =

x1 1x2 1...

...xn 1

en b =

y1

y2...

yn

.

Deze procedure heet de methode van kleinste kwadraten.

Orthogonale en unitaire afbeeldingen.

Definitie: Een complexe n × n-matrix U waarvoor geldt dat U∗U = In, heet een unitaire matrix.Een reele n× n-matrix Q waarvoor geldt dat QT Q = In heet een orthogonale matrix.

Propositie 4.8: De volgende beweringen zijn equivalent:

i. U is een unitaire (resp. orthogonale) matrix.

ii. De kolomvectoren van U vormen een orthonormaal stelsel in Cn (resp. Rn).

iii. De rijvectoren van U vormen een orthonormaal stelsel in Cn (resp. Rn).

44

Page 48: SYLLABUS LINEAIRE ALGEBRA 2

Bewijs: De equivalentie van (i) en (ii) volgt direct omdat U∗U de Gram-matrix is van de kolomvec-toren van A. De equivalentie van (i) en (iii) volgt uit het feit dat UT unitair (resp. orthogonaal)is als U unitair (resp. orthogonaal) is. Dit laatste volgt uit (UT )∗ = (U∗)T = (U−1)T = (UT )−1.¦Definitie: Laat V een complexe (resp. reele) vectorruimte zijn met een inwendig product. Eenlineaire afbeelding T ∈ L(V ) heet unitair (resp. orthogonaal) als T ∗T = idV .

Opmerking: Uit Propositie 4.4 volgt onmiddellijk voor het geval dat V een eindig-dimensionalevectorruimte is, dat T unitair resp. orthogonaal is dan en slechts dan als de matrix van T t.o.v.een orthonormale basis van V een unitaire resp. een orthogonale matrix is.

Propositie 4.9: Laat V een complexe (resp. reele) eindig-dimensionale vectorruimte met inwendigproduct zijn. De volgende beweringen zijn equivalent:

i. T ∈ V is unitair (resp. orthogonaal).ii. ‖Tx‖ = ‖x‖ voor alle x ∈ V .iii. (Tx, Ty) = (x, y) voor alle x, y ∈ V .

Bewijs: (i.⇒ ii.) Laat x ∈ V . Dan

‖Tx‖2 = (Tx, Tx) = (x, T ∗Tx) = (x, x) = ‖x‖2.

(ii.⇒ iii.) Laat x, y ∈ V en λ ∈ C. Dan volgt uit

(T (x + λy), T (x + λy)) = (x + λy, x + λy)

dat(Tx, Tx) + 2Re λ(Tx, Ty) + |λ|2(Ty, Ty) = (x, x) + 2Re λ(x, y) + |λ|2(y, y)

datRe λ(Tx, Ty) = Re λ(x, y)

voor λ ∈ C. Door λ = 1, resp. λ = −i te kiezen, vinden we dat

Re (Tx, Ty) = Re (x, y) en Im (Tx, Ty) = Im (x, y).

(iii.⇒ i.) Uit (Tx, Ty) = (x, y) volgt dat (x, T ∗Ty) = (x, y), en dus (x, T ∗Ty − y) = 0 voor allex, y ∈ V . Maar dan is T ∗T = idV . ¦Voorbeeld. Laat V een eindig-dimensionale vectorruimte zijn met een inproduct en W een lineairedeelruimte. PW : V → V is de orthogonale projectie op W . Laat SW = 2Pw − idV . Dan isSW = S∗W en S2

W = idV . SW is dus hermites en unitair (resp. orthogonaal). SW heet eenorthogonale spiegeling in W .

We leiden een spectraalstelling af voor unitaire en orthogonale afbeeldingen.

Stelling 4.10: Zij V een complexe vectorruimte van eindige dimensie met inproduct en T : V → V

een unitaire afbeelding. Dan geldt:

45

Page 49: SYLLABUS LINEAIRE ALGEBRA 2

a. Elke eigenwaarde van T heeft modulus 1.

b. Eigenvectoren behorende bij verschillende eigenwaarden van T zijn orthogonaal.

c. Zij W een lineaire deelruimte van W die invariant is onder T , d.w.z. T (W ) ⊂ W . Dan is W⊥

invariant onder T .

d. T heeft een orthonormale basis van eigenvectoren.

Bewijs:

a. Zij Tx = λx voor x 6= 0. Dan is ‖x‖ = ‖Tx‖ = |λ|‖x‖, dus |λ| = 1.

b. Zij Tx = λx en Ty = µy. Dan is

(x, y) = (Tx, Ty) = λµ(x, y).

Als λ en µ verschillende eigenwaarden van T zijn, dan is λµ 6= 1 en dus (x, y) = 0.

c. Merk op dat de restrictie T |W : W → W unitair is en dus inverteerbaar. Laat nu x ∈ W⊥. Dan is(Tx,w) = (x, T−1w) = 0 voor w ∈ W en dus Tx ∈ W⊥.

d. We bewijzen dit met inductie naar de dimensie n van V . Voor n = 1 is de bewering waar. Neemaan dat de bewering waar is als n < N . Laat nu dim(V ) = N zijn. Zij x een eigenvector van T

met ‖x‖ en W is de lineaire deelruimte span{x}. Volgens (c) is T (W⊥) = W⊥ en de restrictieT |W⊥ heeft volgens de inductieveronderstelling een orthonormale basis van eigenvectoren. Dezebasis, aangevuld met x vormt een orthonormale basis van eigenvectoren van T . ¦Gevolg 4.11: Zij U een complexe n × n-matrix. Dan is er een unitaire matrix V en een di-agonaalmatrix D zodanig dat U = V DV ∗. We zeggen dat U unitair gelijkvormig is met eendiagonaalmatrix.

Opmerking: Een lineaire afbeelding T ∈ L(V ) voor V een complexe resp. reele vectorruimte dieeen orthonormale basis van eigenvectoren heeft heet unitair (resp. orthogonaal) diagonaliseerbaar.

Uit de spectraalstelling voor unitaire afbeeldingen leiden we een spectraalstelling voor orthogonaleafbeeldingen op een reele vectorruimte af.

Stelling 4.12: Zij V een reele eindig-dimensionale vectorruimte met een inproduct en T ∈ L(V )een orthogonale afbeelding. Dan is er een orthonormale basis van V zodanig dat de matrix van T

t.o.v. deze basis de vorm

Ik O O . . . OO −I` O . . . OO O R(φ1) . . . O...

......

. . ....

O O O . . . R(φm)

(4.5)

heeft, waarbij R(φ) de 2× 2-matrix(

cos φ − sin φsinφ cos φ

)is.(φ ∈ R)

Opmerking: 1. Omdat R(0) = I2 en R(π) = −I2 kunnen we in bovenstaande uitdrukking aan-nemen dat k, ` ∈ {0, 1}.

46

Page 50: SYLLABUS LINEAIRE ALGEBRA 2

Stelling 4.12 is equivalent met de bewering dat elke (reele) orthogonale matrix orthogonaal ge-lijkvormig is met een matrix van de vorm (4.5). Zonder beperking der algemeenheid kunnenwe dus veronderstellen dat V = Kn en T : V → V de afbeelding T : x → Qx is, waarbijQ een orthogonale matrix is. Laat V = Cn met het standaard-hermites inproduct zijn. Voorelke lineaire deelruimte W van V definieren we WR = {x ∈ W : (x, ej) ∈ R voor 1 ≤ j ≤ n}.I.h.b. is VR=spanR{e1, . . . , en} een reele vectorruimte isomorf met Rn en WR een reele lineairedeelruimte van VR. De restrictie van het hermites standaard-inproduct tot VR geeft het standaard-inproduct op VR (m.b.t. de basis {e1, . . . , en}). I.h.b. is (WR)⊥ = (W⊥)R waarbij het orthogonaalcomplement wordt genomen t.a.v. het inproduct op VR, resp. op V .

Lemma 4.13: Zij V een complexe vectorruimte en W een lineaire deelruimte van V . Dan is dedimensie van W gelijk aan de (reele) dimensie van WR dan en slechts dan als W = W , m.a.w.voor elke x = x1e1 + . . . + xnen ∈ W is ook x = x1e1 + . . . + xnen ∈ W .

Bewijs: Zij PW de orthogonale projectie op W . Als {f1, . . . , fk} een orthonormale basis is van W ,dan is de matrix van PW gelijk aan

∑ki=1 fjf

∗j . Als W invariant is onder complexe conjugatie,

dan is {f1, . . . , fk} eveneens een orthonormale basis van W , en dus is de matrix van PW gelijk aan∑ki=1 fjfj

∗. De matrix van PW is dus een reele matrix. Nu is de dimensie van W gelijk aan de

rang van PW . Als PW reeel is, dan is WR het beeld van PW en de dimensie van WR is dus gelijkaan de rang van PW . Omgekeerd, als de dimensies van W en WR gelijk zijn dan is elke basis vanWR ook een basis van W . Hieruit volgt meteen dat als x ∈ W , dan x ∈ W . ¦Bewijs van Stelling 4.12: Laat Q : V → V de afbeelding x → Qx zijn en QR : VR → VR deafbeelding x → Qx. Q is unitair en we passen Stelling 4.10 toe. We passen inductie toe naar dedimensie n van V . Voor n = 1 valt er niets te bewijzen. Neem aan dat de bewering waar is voorvectrorruimten van dimensie kleiner dan n. We onderscheiden twee gevallen:

1. Q heeft alleen reele eigenwaarden. Dan is V = V1 ⊕ V−1 de directe som van de eigenruimtenbij eigenwaarden 1 resp. -1 en de beide eigenruimten zijn onderling orthogonaal. Omdat Q eenreele matrix is, hebben (V1)R en (V−1)R dezelfde dimensies als V1 resp. V−1 en dus is VR =(VR)1 ⊕ (VR)−1. Beide eigenruimten zijn ook onderling orthogonaal. Er is dus een orthonormalebasis van eigenvectoren van QR en t.o.v. deze basis heeft de matrix van QR de vorm (4.5) metk + ` = n en m = 0.

(2). Q heeft een niet-reele eigenwaarde eiφ. Laat x een eigenvector zijn. We kunnen x = y + iz

schrijven met y, z ∈ VR. Merk op dat de complex geconjugeerde x = y − iz eigenvector is bij deeigenwaarde e−iφ. Uit

Q(y + iz) = (cos φ + i sin φ)(y + iz)

volgt datQy = cos φy − sin φz, Qz = sin φy + cosφz.

Verder volgt uit0 = (x,x) = (y + iz)T (y + iz)

47

Page 51: SYLLABUS LINEAIRE ALGEBRA 2

dat yT z = 0 en yT y = zT z, dus door y en z zo nodig met eenzelfde factor te vermenigvuldigen,kunnen we aannemen dat {y, z} een orthonormaal stelsel is. De lineaire deelruimte W ′ van VR

opgespannen door y en z is invariant onder QR en de restrictie van QR tot W ′ heeft t.o.v. debasis {y, z} de matrix R(φ). Verder laat QR het orthogonaal complement (W ′

R)⊥ = ((W ′)⊥)R

invariant. We kunnen nu de inductie-onderstelling toepassen op de restrictie van QR tot (W ′R)⊥.

Een orthonormale basis van (W ′R)⊥ verenigd met {y, z} geeft een orthonormale basis van VR. ¦

We passen Stelling 4.12 toe op het geval dat V = Rn met n = 2 of n = 3:

n = 2: Voor een orthogonale afbeelding T : V → V zijn er twee mogelijkheden: (1) T heeft t.o.v.

een orthonormale basis de matrix(

1 00 −1

); T is in dit geval een orthogonale spiegeling. (2) De

matrix van T t.o.v. een orthonormale basis is R(φ) voor zekere φ. T is in dit geval een rotatie om0V over een hoek φ. Merk op dat de matrix dezelfde vorm heeft voor elke willekeurige orthonormalebasis. Gevallen 1 en 2 zijn verder te onderscheiden doordat in geval 1 de determinant van T gelijkis aan -1, in geval 2 is de determinant gelijk aan +1.

n = 3. In dit geval heeft T t.o.v. zekere orthonormale basis {f1, f2, f3} de vorm

±1 0 00 cos φ − sinφ0 sin φ cosφ

.

T stelt een rotatie voor over een hoek φ om de as span{f1}, in het geval dat ±1 = −1 wordt derotatie nog gevolgd door een loodrechte spiegeling in het vlak opgespannen door f2, f3. In heteerste geval heet T een draaiing of rotatie, in het tweede geval heet T een draaispiegeling. Beidegevallen worden onderscheiden door het teken van de determinant van T (det(T ) = ±1). Verderis de rotatiehoek φ eenvoudig te bepalen via tr(T ) = ±1 + 2 cos φ.

48

Page 52: SYLLABUS LINEAIRE ALGEBRA 2

V. DE DUALE VAN EEN VECTORRUIMTE

Laat V een eindig-dimensionale reele of complexe vectorruimte zijn met een (hermites) inwendigproduct ( , ). Voor een vaste v ∈ V is de afbeelding iv : V → K (waarbij K = R resp. C)gegeven door iv(w) = (v, w) een lineaire afbeelding en dus een element van de vectoruimte L(V, K)(ga dit na). Omgekeerd, als f ∈ L(V, K), dan is er een v ∈ V zodanig dat f = iv. Immers,laat {v1, . . . , vn} een orthonormale basis zijn van V (zo’n basis bestaat altijd). f wordt geheelbepaald door de beelden f(vj) = aj van de basisvectoren. Laat nu v = a1v1 + . . . + anvn. Dan isiv(vj) = (v, vj) = aj = f(vj) en dus is f = iv.

Gevolg: de afbeelding v → iv (voor v ∈ V ) is een vectorruimte-isomorfisme tussen V en L(V,K).De vectorruimte L(V, K) heet de duale vectorruimte van V . Een gebruikelijke notatie voor L(V, K)is V ∗. In het bijzonder geldt als dim(V ) < ∞:

dim(V ) = dim(V ∗). (5.1)

Opmerking: Ook voor willekeurige vectorruimten V is de duale gedefinieerd als V ∗ = L(V, K). Alsdim(V ) = ∞ levert de afbeelding v → iv echter geen isomorfisme tussen V en V ∗. Merk op dativ zelfs niet gedefinieerd is als V niet een vectorruimte met inproduct is. Zie opgave V.8 voor eenvoorbeeld.

Voor een willekeurige vectorruimte V bestaat er een natuurlijk (of kanoniek) isomorfisme tussenV en een lineaire deelruimte van V ∗∗ = L(V ∗,K): zij immers v ∈ K. Dan is de afbeeldingv] : V ∗ → K gegeven door v](f) = f(v) een lineaire afbeelding (ga na) en dus een element vanV ∗∗. De afbeelding die v afbeeldt op v] is een injectieve lineaire afbeelding van V naar V ∗∗, duseen vectorruimte-isomorfisme van V op een lineaire deelruimte van V ∗∗ die we dan met V kunnenidentificeren. Deze afbeelding heet natuurlijk of kanoniek omdat deze niet afhangt van specialekeuzen (van een basis of een inproduct). Merk op dat dit niet het geval is voor de afbeelding v → iv

van V naar V ∗ omdat iv afhangt van het inproduct in V . Merk nog op dat als dim(V ) eindig is,dan is dim(V ) = dim(V ∗) = dim(V ∗∗) en dan is de afbeelding v → v] zelfs surjectief en dus eenvectorruimte-isomorfisme. In dit geval kunnen we V ∗∗ en V identificeren.

Propositie 5.1 (duale basis). Zij {v1, . . . , vn} een basis van de vectorruimte V . Laat f1, . . . , fn ∈V ∗ de lineaire afbeeldingen van V naar K zijn zodanig dat fj(vi) = δij (d.w.z. fj(vi) = 1 als i = j

en fj(vi) = 0 als i 6= j). Dan is {f1, . . . , fn} een basis van V ∗.

Bewijs: Omdat dim(V ) = dim(V ∗), is het voldoende om aan te tonen dat f1, . . . , fn lineair on-afhankelijk zijn. Neem hiertoe aan dat 0 = λ1f1 + . . . + λnfn voor zekere λ1, . . . , λn ∈ K. Danis

0 = (λ1f1 + . . . + λnfn)(vj) = λj (j = 1, . . . , n). ¦

{f1, . . . , fn} heet de duale basis van {v1, . . . , vn}. Als V een inproduct heeft, dan zijn er vectorenv1, . . . , vn ∈ V zodanig dat fj = ivj , m.a.w. fj(v) = (vj , v). I.h.b. is (vj , vi) = δij . We

49

Page 53: SYLLABUS LINEAIRE ALGEBRA 2

noemen {v1, . . . , vn} eveneens de duale basis van {v1, . . . , vn}. (In tegenstelling tot de duale basis{f1, . . . , fn} is de duale basis {v1, . . . , vn} dus een basis van V .)

De getransponeerde van een afbeelding. Laat V en W vectorruimten zijn en T : V → W eenlineaire afbeelding. We definieren de afbeelding T ′ : W ∗ → V ∗ d.m.v. (T ′f)(v) = f(Tv) waarbijf ∈ W ∗ en v ∈ V . T ′ is weer een lineaire afbeelding en heet de getransponeerde of pull-back van T .Als V en W eindig-dimensionale vectorruimten zijn met een inproduct, dan bestaat er een nauwverband tussen de getransponeerde T ′ en de geadjungeerde T ∗. Zoals we hebben gezien bestaat ervoor elke f ∈ W ∗ een w ∈ W zodanig dat f = iw. Dan is voor v ∈ V

(T ′iw)(v) = iw(Tv) = (w, Tv) = (T ∗w, v) = iT∗w(v).

We hebben daarmee aangetoond:

Propositie 5.2. Laat V, W eindig-dimensionale vectorruimten zijn met inwendig product enT ∈ L(V, W ). Dan is T ′iw = iT∗w.

De annihilator van een lineaire deelruimte. Zij V een vectorruimte en U een lineaire deel-ruimte van V . De annihilator U⊥ van U is de lineaire deelruimte van V ′ bestaande uit de lineaireafbeeldingen f : V → K zodanig dat f(u) = 0 voor alle u ∈ U . Als V een inwendig product heeft,dan is het orthogonaal complement U⊥ van U een lineaire deelruimte van V . De notatie U⊥ is dusdubbelzinnig. Wel geldt het volgende verband:

Opgave: Laat zien dat voor w ∈ V geldt: w ∈ U⊥ (lin. deelruimte van V ) dan en slechts dan alsiw ∈ U⊥ (lin. deelruimte van V ′).

Duale vectorruimte en tensorproduct. Laat V en W eindig-dimensionale vectorruimten overhet lichaam K zijn. In opgave I.30 is aangetoond dat er een isomorfisme is tussen het tensorproductV ⊗W en de vectorruimte L(V,W ) van lineaire afbeeldingen van V naar W . Zo’n isomorfisme is nietkanoniek, omdat de vorm afhangt van de basis en niet behouden blijft onder basistransformaties(verg. opgave V.9). Er bestaat echter wel een kanoniek isomorfisme φ : V ∗ ⊗W → L(V, W ): daarV ∗ ⊗W wordt opgespannen door tensorproducten v′ ⊗ w met v′ ∈ V en w ∈ W is het voldoendeom φ vast te leggen op tensorproducten en vervolgens lineair tot V ∗⊗W voort te zetten. Laat nuφ(v′ ⊗ w)(v) = v′(v)w voor v ∈ V . φ(v′ ⊗ w) is dan een lineaire afbeelding van V naar W . Merkop dat deze definitie onafhankelijk is van een basiskeuze. Het is niet moeilijk om aan te tonen datφ goed gedefinieerd is en een vectorruimte-isomorfisme.

50

Page 54: SYLLABUS LINEAIRE ALGEBRA 2

VI. GENORMEERDE VECTORRUIMTEN

De norm van een lineaire afbeelding.Zij V een genormeerde vectorruimte en T ∈ L(V ). De norm ‖T‖ van T is gedefinieerd als

‖T‖ = supx 6=0

‖T (x)‖‖x‖ = sup

‖x‖=1

‖T (x)‖.

Als dim(V ) eindig is, dan bestaat het supremum. I.h.a. noemen we T begrensd als het supremumbestaat. Merk op dat als T begrensd is, voor alle x ∈ V geldt dat ‖T (x)‖ ≤ ‖T‖‖x‖. In hetbijzonder is een begrensde lineaire afbeelding T : V → V (t.o.v. de norm) een continue functie opV : voor elke ε > 0 is er een δ > 0 zodat als ‖x− y‖ < δ, dan is ‖T (x)− T (y)‖ < ε voor δ =

ε

‖T‖ .

Omdat de eenheidsbol ‖x‖ = 1 in een eindig-dimensionale vectorruimte compact (d.w.z. begrensden gesloten) is, neemt de T (x) hier dan een maximum aan (immers een continue functie neemt opeen compacte verzameling een maximum en een minimum aan). Als dim(V ) < ∞, dan kunnen wein de definitie van de norm dus het supremum vervangen door het maximum.

Propositie 6.1. De norm heeft de volgende eigenschappen (T, S ∈ L(V ), begrensd.):i. ‖T‖ ≥ 0 en gelijkheid geldt slechts als T de nulafbeelding is.ii. ‖λT‖ = |λ|‖T‖ voor λ ∈ K.iii. ‖T + S‖ ≤ ‖T‖+ ‖S‖iv. ‖TS‖ ≤ ‖T‖‖S‖.

Bewijs: Eigenschappen (i)-(iii) volgen uit de definitie en de eigenschappen van de norm in V .Eigenschap (iv) bewijzen we als volgt: laat x ∈ V , x 6= 0. Dan is

‖TS(x)‖ ≤ ‖T‖‖S(x)‖ ≤ ‖T‖‖S‖‖x‖,

en dus is ‖TS‖ = max‖x‖=1

‖TS(x)‖ ≤ ‖T‖‖S‖. ¦

Opmerking: Als V een inwendig product heeft en de norm is geınduceerd door het inproduct, danis voor T ∈ L(V ):‖T‖ = sup‖x‖=‖y‖=1 |(T (x),y)|. Hieruit volgt voor de geadjungeerde afbeelding: ‖T‖ = ‖T ∗‖ (zieopgave VI.3).

De norm van een n × n-matrix A kunnen we op geheel analoge wijze definieren als ‖A‖ =max‖x‖=1 ‖Ax‖ waarbij x ∈ Kn. Voor een reele matrix A is het maximum hetzelfde indien wex ∈ Rn als indien we x ∈ Cn nemen (ga na).

Voorbeelden: 1. Laat P : V → V een orthogonale projectie zijn, P 6= O. Dan is ‖P‖=1 (zie opgaveVI.3).2. De norm van een orthogonale (resp. unitaire) afbeelding is 1.

Voor het berekenen van de norm van een lineaire afbeelding resp. een matrix is het volgenderesultaat nuttig:

51

Page 55: SYLLABUS LINEAIRE ALGEBRA 2

Propositie 6.2. Zij V een eindig-dimensionale vectorruimte met inproduct en T : V → V eenlineaire afbeelding. Dan geldt: ‖T‖2 = ‖T ∗T‖.Bewijs: Laat x ∈ V met ‖x‖ = 1. Dan is

‖Tx‖2 = (Tx, Tx) = (T ∗Tx, x) ≤ ‖T ∗Tx‖ ≤ ‖T ∗T‖.

Neem nu in het linkerlid het supremum over alle x ∈ V met ‖x‖ = 1. Dan volgt ‖T‖2 ≤ ‖T ∗T‖.Omgekeerd is ‖T ∗T‖ ≤ ‖T ∗‖‖T‖ = ‖T‖2. ¦Opmerking: In hoofdstuk 7 zullen we zien dat voor een hermitese matrix (zoals T ∗T ) de normgelijk is aan de modulus van de grootste eigenwaarde (zoals we zullen zien zijn de eigenwaardenvan T ∗T niet-negatieve reele getallen). De (niet-negatieve) wortels van de eigenwaarden van T ∗T

heten de singuliere waarden van T .Conclusie: de norm van T is gelijk aan de grootste singuliere waarde van T .

Voorbeeld: Laat J =(

0 10 0

). Dan is J∗J =

(0 00 1

). De singuliere waarden van J zijn dus 0

en 1 en ‖J‖ = 1.

Het volgende verband geldt tussen de norm van een matrix en zijn elementen:

Propositie 6.3. Zij A een m× n-matrix met elementen Aij . Dan geldt

maxi,j

|Aij |2 ≤ ‖A‖2 ≤∑

i,j

|Aij |2. (6.1)

Bewijs: Aej is gelijk aan de j-e kolomvector van A. I.h.b. is dus maxni=1 |Aij | ≤ ‖Aej‖ ≤ ‖A‖.

Neem nu het maximum over j = 1, . . . , n. Hieruit volgt de eerste ongelijkheid. Voor de tweedeongelijkheid laat ‖x‖ = 1. Dan is

‖Ax‖2 ≤n∑

i=1

n∑

j=1

|Aijxj |

2

≤n∑

i=1

n∑

j=1

|Aij |2n∑

j=1

|xj |2 =n∑

i,j=1

|Aij |2.

De tweede ongelijkheid in bovenstaande uitdrukking is precies de ongelijkheid van Schwarz. ¦

Gevolg 6.4. Laat {A(n)}∞n=1 een rij m× n- matrices zijn met elementen A(n)ij . Dan geldt:

limn→∞

A(n)ij = 0 voor alle i, j ⇔ lim

n→∞‖A(n)‖ = 0.

We hebben in het vorige hoofdstuk gezien dat een inwendig product op een vectorruimte een norminduceert d.m.v. ‖v‖ =

√(v, v). Deze norm heet de Euclidische norm of de 2-norm. Er zijn ook

vectorruimten met een norm die niet van een inwendig product afkomstig zijn. We noemen tweevoorbeelden van normen op Kn:1. De 1-norm op Kn: ‖x‖ =

∑ni=1 |xi| waarbij xi de i-de component van de vector x is.

52

Page 56: SYLLABUS LINEAIRE ALGEBRA 2

2. De sup-norm (of maximum-norm) op Kn: ‖x‖ = maxi=1,...,n |xi|.In het geval van een eindig-dimensionale vectorruimte V zijn alle normen equivalent, d.w.z. als‖ ‖1 en ‖ ‖2 twee normen zijn, dan bestaan er positieve getallen a en b zodanig dat voor elke x ∈ V

geldt dat a‖x‖1 ≤ ‖x‖2 ≤ b‖x‖1. In het geval van oneindig-dimensionale vectorruimten geldt diti.h.a. niet. Een vectorruimte waarop een norm gedefinieerd is, heet een genormeerde vectorruimte.Voor een lineaire afbeelding T : V → W tussen genormeerde vectorruimten V en W kunnen we denorm van T analoog aan de Euclidische norm definieren als sup‖x‖=1 ‖T (x)‖. In het geval dat dedimensies oneindig zijn, is het mogelijk dat ‖T‖ = ∞.

Banach- en Hilbertruimten. Convergente rijen van lineaire afbeeldin-gen.

Zij V een genormeerde vectorruimte met norm ‖ ‖. Een rij {xj}∞j=1 in V heet een Cauchyrij offundamentaalrij als er voor elke ε > 0 een N bestaat zodanig dat ‖xj − xk‖ < ε voor j, k ≥N . We zeggen dat een rij {xj}∞j=1 in V convergeert indien er een x ∈ V bestaat zodanig datlimj→∞ ‖x − xj‖ = 0. Een vectorruimte V heet volledig of compleet indien elke Cauchyrij in V

convergeert. Een volledige genormeerde vectorruimte noemen we ook wel een Banachruimte. Alleeindig-dimensionale genormeerde vectorruimten zijn Banachruimten.

Een vectorruimte V met een inwendig product ( , ) is i.h.b. een genormeerde vectorruimte. IndienV volledig is t.a.v. de door het inproduct geınduceerde norm, dan heet V een Hilbertruimte.Voorbeelden van Hilbertruimten zijn:

1. V = `2(K), de vectorruimte van oneindige rijtjes (x1, x2, . . .) (met xi ∈ K) met de com-ponentsgewijze optelling en scalaire vermenigvuldiging, zodanig dat

∑∞j=1 |xj |2 convergeert. Het

inproduct is gedefinieerd als (x, y) =∑∞

i=1 xiyi. Merk op dat uit de ongelijkheid van Schwarz (voorhet eindig-dimensionale geval) volgt dat de reeks convergeert.

2. De vectorruimte L2([a, b],K) van kwadratisch integreerbare reele resp. complexe functies op

het interval [a, b] met inproduct (f, g) =∫ b

a

f(x)g(x)dx.

Andere voorbeelden van genormeerde vectorruimten:

3. V = `p(K) (waarbij p ≥ 1)), dit is zoals in (1) de vectorruimte van oneindige rijtjes (x1, x2, . . .)maar nu zodanig dat

∑∞j=1 |xj |p convergeert. De norm van het rijtje x = (x1, x2, . . .) is gedefinieerd

als ‖x‖p = (∑∞

j=1 |xj |p)1/p. Als p ≥ 1 is dit een norm op V , d.w.z. de driehoeksongelijkheid‖x + y‖p ≤ ‖x‖p + ‖y‖p geldt. Deze ongelijkheid voor p-normen wordt de ongelijkheid vanMinkowski genoemd.

4. Analoog is de vectorruimte Lp([a, b],K) van K-waardige functies op [a, b] zodanig dat∫ b

a|f(x)|pdx

bestaat voor p ≥ 1 een genormeerde vectorruimte met norm ‖f‖ = (∫ b

a|f(x)|pdx)1/p

5. De vectorruimte C([a, b], K) van K-waardige continue functies op [a, b] is een genormeerdevectorruimte met de sup-norm ‖f‖ = sup[a,b] |f(x)|. Convergentie t.a.v. de sup-norm wordt ookwel uniforme convergentie genoemd. Omdat een uniform convergente Cauchyrij van continuefuncties convergeert naar een continue functie, is de vectorruimte C([a, b],K) volledig.

53

Page 57: SYLLABUS LINEAIRE ALGEBRA 2

Laat nu V, W genormeerde vectorruimten zijn, en W bovendien volledig. Zij {Tj : V → W}∞j=1

een Cauchy-rij van begrensde lineaire afbeeldingen, m.a.w. voor elke ε > 0 is ‖Tj − Tk‖ < ε zodraj, k ≥ N . Daar voor x ∈ V geldt dat ‖Tj(x) − Tk(x)‖ ≤ ‖Tj − Tk‖‖x‖, is de rij {Tj(x)}∞j=1 voorelke x ∈ V een Cauchyrij, en daar W volledig is, is de rij convergent. De limiet noemen we T (x).Het is niet moeilijk om aan te tonen dat T : V → V een lineaire afbeelding is. T heet de limietvan de rij {Tj}∞j=1. Op dezelfde manier kan ook de som van een convergente reeks

∑∞j=1 Tj worden

gedefinieerd als de limiet van de rij van partiele sommen {∑nj=1 Tj}∞n=1.

Voorbeelden: 1. Zij V een Banachruimte en T : V → V lineair met ‖T‖ < 1, dan is de afbeeldingidV − T injectief: immers uit T (v) = v en v 6= 0 volgt dat ‖v‖ = ‖T (v)‖ ≤ ‖T‖‖v‖ < ‖v‖.De reeks idV + T + T 2 + . . . is een Cauchyreeks (aangezien ‖Tm + Tm+1 . . . + Tn‖ ≤ ‖Tm‖

1− ‖T‖ en

het rechterlid willekeurig klein wordt als m → ∞) en convergeert dus. De limiet is gelijk aan(idV − T )−1. 2. Zij V een eindig-dimensionale vectorruimte en T : V → V willekeurig. De reeks∑∞

j=0 T j/j! convergeert (op V kunnen we altijd een norm definieren). De limiet noemen we eT ofexp(T ).

De e-macht van een matrix. Op dezelfde manier als in het laatste voorbeeld is voor eenwillekeurige n×n-matrix A de e-macht eA gedefinieerd als In +A+A2/2!+ . . .. Verder zijn sin(A)

en cos(A) gedefinieerd d.m.v. sin(A) =eiA − e−iA

2ien cos(A) =

eiA + e−iA

2. Voor ‖A‖ < 1 is

log(In + A) = A−A2/2 + A3/3 + . . . gedefinieerd en er geldt: elog(A) = A.

Merk op dat i.h.a. niet geldt: eA+B = eA · eB ; als A en B commuteren (dus AB = BA), dangeldt eA+B = eA · eB echter wel. Het bewijs verloopt op dezelfde manier als voor reele of complexegetallen. Als A een willekeurige n× n-matrix is, dan is A te schrijven als een som B + N van eendiagonalizeerbare matrix B en een nilpotente matrix N en BN = NB (verg. hoofdstuk III). Indit geval geldt eA = eB · eN . Daar Nn = O, is eN = I + N + . . . + 1

(n−1)!Nn−1 een polynoom

van hoogstens graad n − 1; eB is als volgt te berekenen: omdat B diagonaliseerbaar is, is er eeninverteerbare matrix U zodat B = UDU−1 waarbij D een diagonaalmatrix is (U is een matrix vaneigenvectoren van B). Dan geldt: eB = UeDU−1 (vergelijk opgave VI.7). Als D = diag(a1, . . . , an),dan is eD = diag(ea1 , . . . , ean) (ga dit na).

Voorbeeld 1: Zij A =(

2 11 2

). A heeft eigenwaarden 1 en 3 met eigenvectoren

(−11

)resp.

(11

).

A is dus diagonaliseerbaar (dus B = A en N = O). Verder is A = UDU−1 met U = 1√2

(1 −11 1

)

en D =(

3 00 1

), dus (merk op dat U orthogonaal is)

A = UeDU−1 =12

(1 −11 1

)(e3 00 e

)(1 1−1 1

)=

12

(e3 + e e3 − ee3 − e e3 + e

).

Voorbeeld 2: Zij A =(

0 −14 −4

). A heeft karakteristiek polynoom (X + 2)2, dus B = −2I =

54

Page 58: SYLLABUS LINEAIRE ALGEBRA 2

(−2 00 −2

)en N =

(2 −14 −2

). Nu is eN = I + N dus

eA = eD · eN =(

e−2 00 e−2

)(3 −14 −1

)= e−2

(3 −14 −1

).

Vector- en matrixwaardige functies.We beschouwen afbeeldingen A : I → M(m × n,K) van een interval I = [a, b] ⊂ R naar devectorruimte van reele of complexe m× n-matrices. De componenten Aij(t) van de matrixfunctieA(t) zijn dus (reele of complexe) functies van [a, b]. A(t) is continu, resp. differentieerbaar als decomponenten Aij(t) dat zijn. Continuıteit en differentieerbaarheid kunnen ook in termen van denorm worden gedefinieerd. Zoals we gezien hebben wordt de norm van een m×n-matrix gedefinieerdals ‖A‖ = max‖x‖=1 ‖Ax‖. Dan geldt: de op het interval I gedefinieerde matrixwaardige functieA(t) is continu in c ∈ I dan en slechts dan als voor elke ε > 0 er een δ > 0 bestaat zodanig datindien |t− c| < δ en t ∈ I, dan ‖A(t)−A(c)‖ < ε, m.a.w. limt→c ‖A(t)−A(c)‖ = 0 (waarbij t ∈ I

wordt genomen). M.b.v. Gevolg 6.3 is onmiddellijk in te zien dat beide definities van continuıteitgelijkwaardig zijn.A(t) is differentieerbaar in een inwendig punt c van I dan en slechts dan als A(t) − A(c) = (t −c)B + (t − c)R(t) voor t ∈ I waarbij limt→c ‖R(t)‖ = 0. De matrix B is de afgeleide A′(c) van

A(t) in t = c en heeft als elementen precies A′ij(c). Merk op dat B = limt→c

A(t)−A(c)t− c

. A(t) heet

continu, resp. differentieerbaar op het interval I als A(t) continu, resp. differentieerbaar is in elkpunt van I. Nu gelden de gebruikelijke regels voor het differentieren: (A + B)′(t) = A′(t) + B′(t)en (AB)′(t) = A′(t)B(t)+A(t)B′(t) als de som en het product goed gedefinieerd zijn en A(t), B(t)differentieerbaar zijn.

Voorbeelden: 1. Laat A(t) =(

cos t − sin tsin t cos t

). Dan is A(t) differentieerbaar op I = R en

A′(t) =(− sin t − cos t

cos t − sin t

).

2. Laat A(t) = etB voor B een n× n-matrix. Dan is A(t) differentieerbaar op R en A′(t) = BetB .We laten eerst zien dat A(t) differentieerbaar is in t = 0: Voor t ∈ R is etB = I + tB + tR(t) metR(t) = 1

2B2t + 16B3t2 + . . . dus

‖R(t)‖ ≤ 12‖B‖2|t|+ 1

6‖B‖3|t|2 + . . .

en in het rechterlid staat een convergente machtreeks die naar 0 convergeert als t → 0 duslimt→0 ‖R(t)‖ = 0 en A′(0) = B. Voor differentieerbaarheid in t = c schrijven we A(t) = ecBeuB

met u = t − c. Dan is A(t) = ecB(I + uB + uR(u)) met ‖R(u)‖ → 0 als u → 0, dus is A(t)differentieerbaar in c en A′(c) = ecBB = BecB .

Propositie 6.5: Zij A(t) voor t ∈ I een n× n-matrix. Dan geldt:1. Als A(t) continu is in t = c ∈ I en A(c) is inverteerbaar, dan is A(t) inverteerbaar in eenomgeving (c− ε, c + ε) van c en A−1(t) is continu in t = c.

55

Page 59: SYLLABUS LINEAIRE ALGEBRA 2

2. Als A(t) inverteerbaar en differentieerbaar in t = c, dan is A−1(t) differentieerbaar in c en

d

dtA−1(t)

∣∣t=c

= −A−1(c)A′(c)A−1(c).

Voor het bewijs gebruiken we het volgende lemma:

Lemma 6.6: Als A een inverteerbare n× n-matrix is en B is een matrix zodanig dat ‖A−B‖ <

‖A−1‖−1, dan is B inverteerbaar en

‖B−1‖ ≤ 1‖A−1‖−1 − ‖A−B‖ . (6.1)

Bewijs: Neem aan dat Bx = 0 voor x ∈ Cn en x 6= 0. Dan volgt uit ‖x‖ ≤ ‖A−1‖‖Ax‖ dat

‖A−1‖−1‖x‖ ≤ ‖Ax‖ = ‖(A−B)x‖ ≤ ‖A−B‖‖x‖ < ‖A−1‖−1‖x‖.

Dit is een tegenspraak, m.a.w. uit Bx = 0 volgt dat x = 0 dus B is inverteerbaar. Verder is, voorx ∈ Cn en By = x,

‖B−1x‖‖x‖ =

‖y‖‖By‖ =

‖y‖‖(B −A)y + Ay‖ ≤

≤ ‖y‖|‖Ay‖ − ‖(A−B)y‖| ≤

‖y‖‖A−1‖−1‖y‖ − ‖A−B‖‖y‖ =

1‖A−1‖−1 − ‖A−B‖ .

Door het maximum te nemen over alle x 6= 0 wordt het linkerlid in de bovenstaande rij ongelijkhe-den gelijk aan ‖B−1‖ en (6.1) volgt onmiddellijk. ¦Bewijs van Propositie 6.5: (1.) Uit het lemma volgt onmiddellijk dat

‖A−1 −B−1‖ = ‖A−1(B −A)B−1‖ ≤ ‖A−1‖‖A−B‖‖B−1‖ ≤ ‖A−1‖‖A−B‖‖A−1‖−1 − ‖A−B‖ .

Laat nu in bovenstaande uitdrukking A = A(c) en B = A(t) voor |t − c| klein. Dan volgt debewering uit ‖A(t)−A(c)‖ → 0 (t → c). (Inverteerbaarheid van A(t) in een omgeving van c volgtook direct uit det A(c) 6= 0 en uit de continuıteit van de functie t → det A(t).(2.) Differentieerbaarheid volgt uit continuıteit van de inverse m.b.v.

A−1(t)−A−1(c) = A−1(t)(A(c)−A(t)

)A−1(c).

Als we links en rechts delen door t− c en de limiet voor t → c nemen zien we dat A−1(t) differen-tieerbaar is in t = c en (A−1)′(c) = −A−1(c)A′(c)A−1(c). ¦Toepassing: stelsels van lineaire differentiaalvergelijkingen. De e-macht speelt een rol bijde oplossing van stelsels lineaire differentiaalvergelijkingen: evenals een stelsel algebraısche lineairevergelijkingen kunnen we een stelsel

x′1(t) = a11x1(t) + a12x2(t) + . . . + a1nxn(t)...

...x′n(t) = an1x1(t) + an2x2(t) + . . . + annxn(t)

(6.2)

56

Page 60: SYLLABUS LINEAIRE ALGEBRA 2

schrijven alsx′(t) = Ax(t) (6.3)

waarbij x(t) = (x1(t), . . . , xn(t))T en A de matrix (aij)i,j=1...n is. Dan geldt: de oplossing x(t) isvoor alle t ∈ R gedefinieerd en gelijk aan: x(t) = etAx(0).

Bewijs: Laat y(t) = e−tAx(t). Dan is y′(t) = −e−tAAx(t) + etAx′(t) = 0. Maar dan is y(t)constant, dus y(t) = y(0) = x(0).

Toepassing: Los het stelsel{

x′(t) = −y(t)y′(t) = x(t) + 2y(t) op. Dit stelsel is te schrijven als x′(t) = Ax(t)

met A =(

0 −11 2

)en x(t) =

(x(t)y(t)

). We berekenen etA: hiertoe schrijven we A als de som

A = D + N van een diagonalizeerbare matrix D en een nilpotente matrix N zodanig dat D

en N commuteren (vergelijk hfd.III). A heeft eigenwaarde 1 met algebraısche multipliciteit 2,

dus D = I (de eenheidsmatrix) en N =(−1 −1

1 1

). Daar N2 = O, is etN = I + tN en

etA = etD · etN = et(I + tN). De oplossing van het stelsel is dus z(t) = et((1 − t)x(0) − ty(0)) eny(t) = et(tx(0) + (1 + t)y(0)).

Een lineaire differentiaalvergelijking van orde n

y(n)(t) + an−1y(n−1)(t) + . . . + a0y(t) = 0 (6.4)

kunnen we schrijven als een stelsel van n lineaire eerste-orde differentiaalvergelijkingen: laat x1(t) =y(n−1)(t), . . . , xn−1(t) = y′(t), xn(t) = y(t). Dan is de d.v. (6.4) gelijkwaardig met het stelsel

x′1(t) = −an−1x1(t) + . . .− a1xn−1(t)− a0xn(t)x′2(t) = −x1(t)

......

x′n(t) = −xn−1(t)

Voorbeeld: Beschouw de d.v. y′′ + 2y′ + y = 0. Laat y′ = z, A =(−2 −1

1 0

)en x(t) =

(z(t)y(t)

).

Dan is x′(t) = Ax(t). Ga na dat A te ontbinden is als A = −I + N met N2 = O en dus is

x(t) = e−t(I + Nt)x(0) en{

z(t) = e−t(1− t)z0 − e−tty0

y(t) = e−ttz0 + e−t(1 + t)y0waarbij y(0) = y0 en y′(0) = z0.

De oplossing y(t) is dus een lineaire combinatie van de oplossingen y1(t) = e−t en y2(t) = te−t.De oplossing vormt dus een lineaire deelruimte van de vectorruimte C∞(R) van oneindig vaakdifferentieerbare functies op R. In het algemeen vormen de oplossingen van de d.v. (6.4) eenn-dimensionale lineaire deelruimte van C∞(R).

Als de coefficienten van (6.4) niet constant zijn, maar wel continue functies zijn op een interval[a, b] ⊂ R (met a < b), dan heeft de verzameling oplossingen van (6.4) eveneens de structuur vaneen vectorruimte van dimensie n over C (onder de gewone optelling en scalaire vermenigvuldigingvan functies).

57

Page 61: SYLLABUS LINEAIRE ALGEBRA 2

VII. SPECTRAALTHEORIE VAN NORMALEAFBEELDINGEN

Normale afbeeldingen.

In het voorgaande zijn we een aantal voorbeelden tegengekomen van lineaire afbeeldingen die eenorthonormale basis van eigenvectoren hebben, zoals symmetrische en unitaire afbeeldingen. Wezullen zien dat de klasse van lineaire afbeeldingen V → V voor een eindig-dimensionale (reeleresp. complexe) vectorruimte V die orthogonaal, resp. unitair diagonaliseerbaar (d.w.z. eenorthonormale basis van eigenvectoren hebben) zijn, eenvoudig gekarakteriseerd kan worden. In hetvervolg nemen we steeds aan dat V een eindig-dimensionale reele of complexe vectorruimte is met(hermites) inproduct en dimensie n.

Zij T : V → V lineair. Kies een orthonormale basis B van V en laat A de matrix van T zijnt.o.v. deze basis. Zoals we hebben gezien heeft T een basis van eigenvectoren precies dan als ereen inverteerbare matrix U bestaat zodanig dat U−1AU een diagonaalmatrix is (het is eenvoudigin te zien dat U dan een matrix van eigenvectoren is). T is dus orthogonaal, resp. unitair diagona-lizeerbaar als U−1AU een diagonaalmatrix is, waarbij U een orthogonale resp. unitaire matrix is.Als V een reele vectorruimte is, en T is orthogonaal diagonaliseerbaar, dan is de diagonaalmatrixD := U−1AU = UT AU symmetrisch en dus is A ook symmetrisch: AT = (UDUT )T = UDUT = A

en de afbeelding T is dan een symmetrische afbeelding (zie hfd.IV). Omgekeerd zullen we zien dateen symmetrische afbeelding T orthogonaal diagonaliseerbaar is. Dit karakteriseert de orthogonaaldiagonalizeerbare afbeeldingen in reele eindig-dimensionale vectorruimten volledig.

Het complexe geval verloopt iets minder direct. Als T unitair diagonaliseerbaar is, dan is dediagonaalmatrix D = U−1AU = U∗AU alleen dan hermites indien T louter reele eigenwaardenheeft: in dit laatste geval zien we, analoog aan het symmetrische geval, dat dan A en dus T

hermites is. Omgekeerd geldt dat elke hermitese afbeelding unitair diagonaliseerbaar is en louterreele eigenwaarden heeft. Als T ook niet-reele eigenwaarden heeft, is D 6= D∗ maar wel geldt datDD∗ = D∗D en dus ook AA∗ = (UDU∗)(UDU∗)∗ = UDD∗U∗ = A∗A. Aangezien A de matrixt.o.v. een orthonormale basis is, is dan ook TT ∗ = T ∗T .

Definitie: Een lineaire afbeelding T : V → V (resp. een n × n-matrix A) heet normaal alsT ∗T = TT ∗ (resp. AA∗ = A∗A).

Voorbeelden: 1. Hermitese afbeeldingen en matrices zijn normaal.

2. Unitaire afbeeldingen en matrices zijn normaal.

3. Antihermitese afbeeldingen en matrices zijn normaal. (Een afbeelding heet antisymmetrischresp. antihermites als T ∗ = −T ). Merk op dat in complexe vectorruimten geldt: T is antihermitesdan en slechts dan als iT hermites is. In reele vectorruimten geldt niet een dergelijke 1-1 relatietussen antisymmetrische en symmetrische afbeeldingen.

58

Page 62: SYLLABUS LINEAIRE ALGEBRA 2

Voor een complexe e.d. vectorruimte V geldt het volgende verband tussen unitaire diagona-lizeerbaarheid en normaliteit:

Propositie 7.1 (spectraalstelling voor normale afbeeldingen:) Een lineaire afbeelding T : V → V

is unitair diagonaliseerbaar dan en slechts dan als T normaal is.

Bewijs: We hoeven alleen nog te bewijzen dat een normale afbeelding unitair diagonaliseerbaar is.Laat dus T : V → V een normale afbeelding zijn. Het bewijs bestaat uit drie stappen:1. Voor x ∈ V is ‖Tx‖ = ‖T ∗x‖. Immers

‖Tx‖2 = (Tx, Tx) = (T ∗Tx, x) = (TT ∗x, x) = (T ∗x, T ∗x) = ‖T ∗x‖2.

2. Laat λ een eigenwaarde van T zijn en x een eigenvector. Dan is x een eigenvector van T ∗ meteigenwaarde λ. Immers volgens (1) is

0 = ‖(T − λ · id)x‖ = ‖(T ∗ − λ · id)x‖.

3. We passen inductie naar de dimensie toe. Voor dimensie 1 valt er niets te bewijzen. Stel nudat de bewering waar is voor vectorruimten van dimensie kleiner dan n = dim(V ). Laat x eeneigenvector van T zijn. We tonen aan dat zowel T als T ∗ het orthogonaal complement X vanspan{x} in zichzelf afbeelden. Laat dus y ∈ X. Dan is (Ty, x) = (y, T ∗x) = λ(y, x) = 0 en analoogis (T ∗y, x) = 0. Bekijk nu de restrictie T |X van T tot X. Aangezien de geadjungeerde van derestrictie de restrictie van de geadjungeerde is, m.a.w. (T |X)∗ = T ∗|X (waarom?) is T |X : X → X

weer een normale afbeelding en volgens de inductieveronderstelling is er een orthonormale basisvan eigenvectoren van T |X (en dus van T ) in X. Samen met x/‖x‖ vormen deze vectoren eenorthonormale basis van eigenvectoren van T . ¦

Gevolg 7.2 (spectraaldecompositie van een normale matrix):Zij A een normale matrix. Dan is A = V DV ∗ met V unitair en D een diagonaalmatrix. Dus wekunnen A schrijven als

A = λ1v1v∗1 + λ2v2v∗2 + . . . + λnvnv∗n

waarbij {v1,v2, . . . ,vn} een orthonormale basis van eigenvectoren van A en λ1, λ2, . . . , λn de bij-behorende eigenwaarden zijn. Immers

A = V DV ∗ = (v1,v2, . . . ,vn)

λ1 0 . . . 00 λ2 . . . 0...

.... . .

...0 0 . . . λn

v∗1v∗2...

v∗n

= λ1v1v∗1 + . . . + λnvnv∗n.

Voor een expliciet voorbeeld zie onder Propositie 7.4, waar het analoge geval van een (reele)symmetrische matrix wordt behandeld.

59

Page 63: SYLLABUS LINEAIRE ALGEBRA 2

Gevolg 7.3. Een normale afbeelding T : V → V is hermites dan en slechts dan als alle eigenwaar-den van T reeel zijn.

Bewijs: Laat {v1, . . . , vn} een orthonormale basis van eigenvectoren van T zijn. Dan is T (vi) = λivi

en T ∗(vi) = λivi voor i = 1, . . . , n. Dus T = T ∗ precies dan als λi = λi voor alle i.

Merk op dat voor een orthogonale projectie PW op de lineaire deelruimte W = span{v1, . . . ,vk} deeigenwaarden λ1 = . . . = λk = 1 en λk+1 = . . . = λn = 0 zijn en de matrix t.o.v. een orthonormalebasis is dan v1v∗1 + . . . + vkv∗k, een resultaat dat we al eerder hebben afgeleid. Een willekeurigenormale afbeelding T is dus een som λ1P1 + . . . + λ`P` waarbij nu λ1, . . . , λk de verschillendeeigenwaarden zijn en Pi de orthogonale projectie op de eigenruimte bij λi. ¦

Opmerking: Zij T ∈ L(V ). Dan zijn er hermitese afbeeldingen T1, T2 zodanig dat T = T1 + iT2.Laat immers T1 = (T + T †)/2 en T2 = (T − T †)/2i. Nu is T normaal dan en slechts dan als T1, T2

commuteren. M.b.v. Propositie 3.10 (over gemeenschappelijke eigenwaarden van commuterendelineaire afbeeldingen) volgt nu de spectraalstelling voor normale afbeeldingen eenvoudig uit despectraalstelling voor hermitese afbeeldingen.

Symmetrische matrices. We bestuderen nu het geval van een (eindig-dimensionale) reele vec-torruimte V . We hebben reeds gezien dat de orthogonaal diagonalizeerbare afbeeldingen in elkgeval symmetrisch moeten zijn. Ook geldt hier het omgekeerde: symmetrische afbeeldingen zijnorthogonaal diagonaliseerbaar. We bekijken hiertoe de matrix A van een symmetrische afbeeldingT t.o.v. een orthonormale basis. Deze is symmetrisch en dus i.h.b. hermites. De eigenwaarden zijndus alle reeel. Nu volgt echter niet onmiddellijk uit het complexe geval dat er een orthonormalebasis van eigenvectoren is omdat de eigenvectoren v1, . . . ,vn die we vonden in het complexe gevalcomplexe coordinaten kunnen hebben. We kunnen A echter schrijven op unieke wijze als een somvan orthogonale projecties: A = λ1P1 + . . . + λ`P` met verschillende reele eigenwaarden λ1, . . . , λ`

en met Pi een som van termen van de vorm vjv∗j . Daar A reeel is, is A = A, dus

λ1v1v∗1 + . . . + λnvnv∗n = A = A = λ1v1v1∗ + . . . + λnvnvn

en daar ook {v1, . . . ,vn} een orthonormale basis van V is, is Pj = Pj voor j = 1, . . . , `. Dusde projectiematrices zijn reeel. Maar zoals we weten heeft een reele orthogonale projectie eenorthogonale basis van (reele) eigenvectoren. De eigenvectoren van Pj zijn de eigenvectoren van A

met eigenwaarde λj . De symmetrische matrix A heeft dus een orthonormale basis van eigenvectorenin de reele vectorruimte V . We hebben dus aangetoond dat een symmetrische afbeelding T : V → V

in een reele vectorruimte orthogonaal diagonaliseerbaar is.

Propositie 7.4 (spectraaldecompositie van een symmetrische matrix):

Zij A een reele symmetrische n × n-matrix. Dan zijn er een orthonormale basis {v1, . . . ,vn} vanRn en reele getallen λ1, . . . , λn zodanig dat A = λ1v1vT

1 + λ2v2vT2 . . . + λnvnvT

n .

60

Page 64: SYLLABUS LINEAIRE ALGEBRA 2

Voorbeeld: Laat A =

2 4 −14 2 1−1 1 −1

. A is symmetrisch en heeft eigenwaarden λ1 = 6, λ2 = −3

en λ3 = 0 met (genormaliseerde) eigenvectoren

v1 =1√2

110

, v2 =

1√3

1−11

, resp. v3 =

1√6

−112

.

De spectraaldecompositie is dus

A = 6u1uT1 − 3u2u

T2 = 6

1/√

21/√

20

( 1/

√2 1/

√2 0 )− 3

1/√

3−1/

√3

1/√

3

( 1/

√3 −1/

√3 1/

√3 ) .

In termen van matrices wordt dit

A = UDUT =

1/√

2 1/√

3 −1/√

61/√

2 −1/√

3 1/√

60 1/

√3 2/

√6

6 0 00 −3 00 0 0

1/√

2 1/√

3 −1/√

61/√

2 −1/√

3 1/√

60 1/

√3 2/

√6

T

.

Het begrip spectraaldecompositie geldt voor beide schrijfwijzen.

Kwadratische vormen op Rn.

De uitdrukking q(x) =n∑

i,j=1

aijxixj waarbij x ∈ Rn en aij ∈ R heet een kwadratische vorm. Om-

dat we zonder beperking van de algemeenheid mogen aannemen dat aij = aji kan q(x) wordenuitgedrukt als xT Ax waarbij A = (aij) een symmetrische matrix is. De kwadratische vorm kun-nen we d.m.v. een orthogonale coordinatentransformatie in diagonaalvorm schrijven: laat U eenorthogonale matrix zijn zodat UT AU = D een diagonaalmatrix is en y = UT x, dan is

q(x) = xT Ax = xT UDUT x = yT Dy = λ1y21 + λ2y

22 + . . . + λny2

n.

Hierbij zijn λ1, . . . , λn de eigenwaarden van A. In principe zijn er ook andere mogelijkheden om dekwadratische vorm in diagonaalvorm te schrijven: q(x) = zT D′z = µ1z

21 + . . . + µnz2

n voor zekerez = V T x zodat D′ = V T AV een diagonaalmatrix is. Merk op dat V geen orthogonale matrixhoeft te zijn. Hierbij kunnen de coefficienten µi i.h.a. verschillen van de coefficienten λj . Hetaantal positieve resp. negatieve) coefficienten in de gediagonaliseerde kwadratische vorm is echteraltijd constant. De reden is dat het aantal positieve (resp. negatieve) coefficienten in de vormq(x) = µ1z

21 + . . . + µnz2

n gelijk is aan de maximale dimensie van een lineaire deelruimte W vanRn zodanig dat q(x) > 0 (resp. q(x) < 0) is voor alle x ∈ W met x 6= 0. Dit feit staat bekendals de traagheidsstelling van Sylvester. Als p het aantal positieve eigenwaarden van A is en q hetaantal negatieve eigenwaarden. dan heet p + q de rang van de kwadratische vorm xT Ax en p− q

heet de signatuur.

61

Page 65: SYLLABUS LINEAIRE ALGEBRA 2

Toepassing: Zij f : Rn → R een minstens tweemaal continu differentieerbare functie in het punt0 ∈ Rn. Dan is voor ‖x‖ voldoende klein f(x) = f(0) + ∇f(0)T x + 1

2xT Hx + o(‖x‖2) waarbij

∇f(0) ∈ Rn de gradient van f in x = 0 voorstelt en de Hessematrix H de symmetrische matrix( ∂2f

∂xi∂xj)ij voorstelt. 0 is een stationair punt van f als∇f(0) = 0. In dit geval wordt het gedrag van

f in de omgeving van 0 in hoogste orde door H bepaald. Nu geldt voor ‖x‖ klein en y = UT x ∈ Rn

(met U als boven):

f(x) = f(0) +12

n∑

i=1

λiy2i + o(‖x‖2)

waarbij λ1, . . . , λn de eigenwaarden van H zijn.Gevolg:

1. Als alle eigenwaarden van H positief (resp. negatief) zijn, dan neemt f in 0 een minimum (resp.maximum) aan. (H is dan een positief, resp. negatief definiete matrix, zie hfd.VIII)

2. Als H zowel positieve als negatieve eigenwaarden heeft (H heet dan indefiniet), dan neemt f geenmaximum en ook geen minimum aan in x = 0. Het punt x = 0 heet dan een zadelpunt van f .

Het Rayleighquotient en het minimax-principe.

Zij A een normale matrix. Het quotient RA(x) =(x, Ax)(x,x)

dat voor x 6= 0 gedefinieerd is, heet het

Rayleighquotient van A. M.b.v. de spectraaldecompositie kunnen we dit schrijven als

RA(x) =λ1x∗v1v∗1x + λ2x∗v2v∗2x + . . . + λnx∗vnv∗nx

x∗x=

λ1|(x,v1)|2 + λ2|(x,v2)|2 + . . . + λn|(x,vn)|2|(x,v1)|2 + |(x,v2)|2 + . . . + |(x,vn)|2

waarbij λ1, . . . , λn de eigenwaarden van A zijn en {v1, . . . ,vn} een orthonormale basis van eigen-vectoren. Als A hermites is dan zijn de eigenwaarden reeel en we kunnen ze dan naar aflopendegrootte ordenen: λ1 ≥ . . . ≥ λn. Nu zien we onmiddellijk uit de bovenstaande uitdrukking dat hetbereik van het Rayleighquotient precies het reele interval [λn, λ1] is.

De eigenwaarden van een hermitese matrix kunnen op eenvoudige wijze d.m.v. het Rayleighquo-tient worden gekarakteriseerd: zo is duidelijk dat

λ1 = maxx 6=0

RA(x), λn = minx 6=0

RA(x).

Als λ1 en een eigenvector v1 bekend zijn, dan is λ2 = max(x,v1)=0,x 6=0 RA(x), m.a.w. de een-nagrootste eigenwaarde is het maximum van het Rayleighquotient over het orthogonaal complementvan span{v1}. De eigenwaarde λ3 is dan het maximum van RA(x) op het orthogonaal complementvan span{v1,v2}, en zo verder. Het nadeel van deze methode is dat kleinere eigenwaarden wordenuitgedrukt in termen van de eigenruimten van de grotere eigenwaarden en dit is een bezwaar als weeigenwaarden van verschillende hermitese matrices of afbeeldingen willen vergelijken. Een karak-terisering van de eigenwaarden die onafhankelijk is van de eigenruimten van andere eigenwaardenis echter wel mogelijk: zo is λ2 het minimum van RA(x) op de tweedimensionale lineaire deelruimte

62

Page 66: SYLLABUS LINEAIRE ALGEBRA 2

opgespannen door v1 en v2, en als we een willekeurige lineaire deelruimte W van dimensie 2 be-kijken dan is het duidelijk uit de bovenstaande uitdrukking voor RA(x) dat het minimum van hetRayleighquotient daar nooit groter dan λ2 kan zijn. Dus λ2 = maxW :dim(W )=2 minx∈W,x 6=0 RA(x).Op analoge manier zien we in dat

λk = maxW :dim(W )=k

minx∈W,x 6=0

RA(x) (k = 1, 2, . . . , n).

Dit noemen we het minimax-principe.

Beschouw de kwadratische vorm op R3 gegeven door

q(x) = 2x21 + 2x2

2 − x23 + 8x1x2 − 2x1x3 + 2x2x3.

q(x) = xT Ax met A de symmetrische matrix

2 4 −14 2 1−1 1 −1

. A heeft eigenwaarden 6,-3 en 0,

dus q heeft rang 2 en signatuur 1-1=0. T.o.v. een orthonormale basis van eigenvectoren van A

is q(x) = 6y21 − 3y2

2 , waarbij y = UT x voor U een orthogonale matrix van eigenvectoren vanA. Omdat ‖x‖ = ‖y‖, neemt q(x) op ‖x‖ = 1 alle waarden tussen -3 en 6 aan. Merk op datq(x) = RA(x) · ‖x‖.

Tenslotte leiden we een uitdrukking af voor de norm van een normale afbeelding:

Propositie 7.5: Zij V een eindig-dimensionale vectorruimte met een inwendig product en T :V → V een normale afbeelding. Laat λ1, . . . , λn de eigenwaarden van T zijn zodanig geordend dat|λ1| ≥ . . . ≥ |λn|. Dan is ‖T‖ = |λ1|. Een soortgelijk resultaat geldt voor normale matrices.

Bewijs: Laat {u1, . . . , un} een orthonormale basis van eigenvectoren van T zijn. Voor x ∈ V isx =

∑nj=1(uj , x)uj en T (x) =

∑nj=1 λj(uj , x)uj . Dan is, als ‖x‖2 =

∑nj=1 |(x, uj)|2 = 1,

‖T (x)‖2 =n∑

j=1

|λj |2|(uj , x)|2 ≤ |λ1|2

en gelijkheid geldt als x = u1. Dus is

‖T‖ = max‖x‖=1

‖T (x)‖ = |λ1|. ¦

Voorbeeld: De matrix A =

2 4 −14 2 1−1 1 −1

is normaal en heeft eigenwaarden 6,-3 en 0. Dus is

‖A‖ = 6.

63

Page 67: SYLLABUS LINEAIRE ALGEBRA 2

VIII. POSITIEF-DEFINIETE MATRICES

Zij A een normale n× n-matrix. A heet positief-definiet als x∗Ax > 0 voor alle x ∈ Cn, x 6= 0 (inhet complexe geval) resp. xT Ax > 0 voor alle x ∈ Rn, x 6= 0 (in het reele geval). A heet positiefsemi-definiet als x∗Ax ≥ 0 voor alle x ∈ Cn (in het complexe geval) resp. xT Ax ≥ 0 voor allex ∈ Rn (in het reele geval). Zoals we in hoofdstuk 4 al gezien hebben, zijn alle inproducten op Cn

(resp. Rn) van de vorm 〈x,y〉 = x∗Ay (resp. xT Ay) waarbij A een positief-definiete n×n-matrixis. We noteren kort A > O als A positief-definiet is. (resp. A ≥ O als A positief-semidefiniet).We gaan in het volgende steeds uit van het complexe geval. Voor reele matrices gelden dezelfderesultaten als we de hermites geadjungeerden A∗ vervangen door de getransponeerden AT .

Propositie 8.1. Een normale matrix A is positief-definiet (resp. positief-semidefiniet) als alleeigenwaarden van A positief (resp. niet-negatief) zijn. In het bijzonder zijn alle positief (semi-)definiete matrices hermites.

Bewijs: Uit de spectrale decompositie voor A volgt:

x∗Ax = λ1x∗v1v∗1x+λ2x∗v2v∗2x+. . .+λnx∗vnv∗nx = λ1|(x,v1)|2+λ2|(x,v2)|2+. . .+λn|(x,vn)|2

voor {v1, . . . ,vn} een orthonormale basis van eigenvectoren van A en λ1, . . . , λn de eigenwaarden.Hieruit volgt de bewering direct. ¦

Propositie 8.2. 1. Een n × n-matrix A is positief-semidefiniet dan en slechts dan als A = B∗B

voor zekere matrix B. A is positief-definiet als bovendien B inverteerbaar is.2. Als A een positief-definiete n×n-matrix is en U is een inverteerbare n×n-matrix, dan is U∗AU

positief-definiet. Als A positief-semidefiniet is, dan is U∗AU positief-semidefiniet.

Bewijs: 1. Voor x ∈ Cn is x∗B∗Bx = (Bx, Bx) = ‖Bx‖2. ‖Bx‖ ≥ 0 voor alle x en als B

inverteerbaar is, dan is ‖Bx‖ > 0 voor x 6= 0. Omgekeerd, zij A positief-(semi)definiet. Dan isvolgens de spectraaldecompositie A = λ1v1v∗1+. . .+λnvnv∗n met λi > 0 (resp. ≥ 0) en {v1, . . . ,vn}orthonormaal. Laat nu B =

√λ1v1v∗1 + . . . +

√λnvnv∗n. Dan is B = B∗ en A = B2 = B∗B. 2.

Doe dit zelf. ¦

Opmerking: De matrix B =√

λ1v1v∗1 +. . .+√

λnvnv∗n is de enige positief-(semi)definiete matrix B

zodat A = B2. B heet de vierkantswortel uit A. We noteren B =√

A. Op dezelfde manier kunnenwe andere functies van normale (resp. hermitese of positief-(semi)definiete) matrices definieren,zoals Ap voor p > 0 (en ook voor p < 0 indien A hermites en inverteerbaar is), en log(A) voor A

positief-definiet.

Voorbeeld: Laat A = 15

(8 66 17

). A is positief-definiet, heeft eigenwaarden 1 en 4 en heeft

64

Page 68: SYLLABUS LINEAIRE ALGEBRA 2

spectraaldecompositie

A =1√5

(1 22 −1

)·(

4 00 1

)· 1√

5

(1 22 −1

).

Dan is √A =

1√5

(1 22 −1

)·(

2 00 1

)· 1√

5

(1 22 −1

)=

15

(6 22 9

).

Gevolg 8.3: Laat A,B hermitese reele of complexe n × n-matrices zijn, zodanig dat A > 0.Dan bestaat er een (reele resp. complexe) inverteerbare matrix Q zodanig dat Q∗AQ = In enQ∗BQ = D een diagonaalmatrix is.

Bewijs: Volgens Propositie 8.2 is A = C∗C voor zekere positief-definiete matrix C. Dan is(C−1)∗AC−1 = In en (C−1)∗BC−1 is hermites. Volgens stelling 7.4 (resp. 7.2) bestaat er eenorthogonale resp. unitaire matrix U zodanig dat U∗(C−1)∗BC−1U = D een diagonaalmatrix is,en uiteraard is U∗U = In. Laat nu Q = C−1U . ¦M.b.v. het minimax-principe kunnen we de eigenwaarden vergelijken van twee hermitese matriceswaarvan het verschil een positief-semidefiniete matrix is:

Propositie 8.4. Laat A en B twee hermitese n × n-matrices zijn zodanig dat A − B ≥ O. Laatλ1 ≥ . . . ≥ λn de eigenwaarden van A zijn en µ1 ≥ . . . ≥ µn de eigenwaarden van B. Dan is

λ1 ≥ µ1, λ2 ≥ µ2, . . . , λn ≥ µn.

Bewijs: Omdat A−B positief-semidefiniet is, is het Rayleighquotient RA−B(x) ≥ 0 voor alle x 6= 0.Maar RA−B(x) = RA(x)−RB(x). De bewering volgt nu onmiddellijk uit het minimax-principe. ¦

M.b.v. het volgende criterium is na te gaan of een matrix A positief-definiet is zonder de eigen-waarden en eigenvectoren te bepalen.

Propositie 8.5: (a.) Zij A een n×n-matrix en zij Ak de k×k-deelmatrix die uit A ontstaat doorde laatste n−k rijen en kolommen van A weg te laten (i.h.b. is An = A). Dan is A positief-definietdan en slechts dan als A hermites is en det(Ak) > 0 voor k = 1, 2, . . . , n.

Bewijs: Voor n = 1 is de bewering zeker waar. We passen inductie naar n toe. Uit Propositie3.1 volgt dat det(A) > 0 als A positief-definiet is. Laat nu 1 ≤ k ≤ n en laat x = (xk,0)T =(x1, . . . , xk, 0, . . . , 0)T , xk ∈ Kk. Daar xT Ax = xT

k Akxk, volgt dat Ak positief-definiet is als A

positief definiet is. I.h.b. is det(Ak) > 0 voor k = 1, . . . , n. Omgekeerd, neem aan dat det(Ak) >

0 voor k = 1, . . . , n. Volgens de inductieveronderstelling is Ak positief-definiet voor 1 ≤ k <

n. Verder is A =(

An−1 bbT α

), waarbij dus α = ann. Omdat An−1 positief-definiet en dus

inverteerbaar is, is er een unieke vector c ∈ Kn−1 zodanig dat An−1c + b = 0. Laat C =(In−1 c0T 1

). Dan is det(C) = 1 en is de matrix C∗AC =

(An−1 00T α′

)met α′ = c∗An−1c +

65

Page 69: SYLLABUS LINEAIRE ALGEBRA 2

b∗c + c∗b + α = −c∗An−1c + α positief-definiet dan en slechts dan als A positief-definiet is(volgens Propositie 8.2). Tevens is det(A) = det(C∗AC) = det(An−1)α′. Omdat det(A) > 0, isα′ > 0 en verder is, voor x = (xn−1, xn)T 6= 0T ,

x∗C∗ACx = x∗n−1An−1xn−1 + α′|xn|2 > 0.

Maar dan is C∗AC, en dus ook A, positief-definiet. Merk tenslotte nog op dat als A = An

positief-definiet is, dan

α′ =det(An)

det(An−1)= −c∗An−1c + ann ≤ ann. ¦ (8.1)

Opmerking: Door het in het bewijs gegeven argument herhaald toe te passen (d.w.z. ook voorAn−1, An−2, . . .) zien we: als A een positief-definiete matrix is, dan is er een rechterbovendriehoeks-matrix B (met enen op de hoofddiagonaal) zodanig dat B∗AB = diag(d1, . . . , dn) een diagonaal-

matrix is. Verder is di =det(Ai)

det(Ai−1).

Toepassing: De hermitese 2× 2-matrix A =(

a bb c

)is positief definiet dan en slechts dan indien

a > 0 en ac− |b|2 > 0.

Voorbeeld: De matrix A =

1 1 −11 2 2−1 2 a

. De matrices A1 = (1) en A2 =

(1 11 2

)hebben

beide positieve determinant. De matrix A3 = A heeft determinant a−10. A is dus positief-definietals a > 10.

Door (8.1) herhaald toe te passen volgt onmiddellijk het volgende resultaat:

Propositie 8.6: Zij A = (aij) een positief-definiete n× n-matrix. Dan is

0 < det(A) ≤n∏

j=1

ajj . (8.2)

Een gevolg van Propositie 8.6 is de volgende ongelijkheid voor de determinant van een willekeurigematrix:

Stelling 8.7: (de ongelijkheid van Hadamard) Zij B een n×n-matrix met kolomvectoren b1, . . . ,bn.Dan is

| det(B)| ≤n∏

j=1

‖bj‖. (8.3)

Bewijs: Als B niet-inverteerbaar is dan is det(B) = 0 en valt er niets te bewijzen. Als B

inverteerbaar is, dan is BT B positief-definiet. Er geldt dat (BT B)jj = ‖bj‖2 (vergelijk de discussieover Gram-matrices in hoofdstuk IV). Volgens Propositie 2.1 en 8.6 geldt nu

| detB|2 = det BT det B = det BT B ≤n∏

j=1

‖bj‖2. ¦

66

Page 70: SYLLABUS LINEAIRE ALGEBRA 2

Opmerking: Meetkundig geınterpreteerd zegt de ongelijkheid van Hadamard dat de inhoud vaneen parallellopipedum met gegeven ribben het grootst is als de ribben onderling loodrecht staan.

De polaire decompositie.

Zij A een inverteerbare n × n-matrix. Dan is A∗A positief definiet en heeft een unieke wortelS =

√A∗A. S is positief-definiet en dus volgt uit S2 = A∗A dat (S−1A∗)(AS−1) = In. De matrix

U = AS−1 is dus een unitaire matrix. We hebben aangetoond dat een inverteerbare matrix hetproduct is van een unitaire en een positief-definiete matrix: A = US. Deze decompositie A = US isuniek en wordt de polaire decompositie van A genoemd. Merk op dat A = US = (USU∗)U = S′U

waarbij S′ opnieuw positief-definiet is. Voor een niet-inverteerbare matrix A bestaat er overigensook een decompositie A = SU met S positief-semidefiniet, maar deze is niet meer uniek.

Voorbeeld: Laat A =(

2 −12 1

). Dan is A∗A =

(8 00 2

)= S2 en S =

√A∗A =

(√8 0

0√

2

).

Tenslotte is U = AS−1 = 1√2

(1 −11 1

)dus de polaire decompositie van A is

A =

(1√2

− 1√2

1√2

1√2

)(√8 0

0√

2

).

De singuliere waardendecompositie van een matrix.

Laat A een willekeurige m×n-matrix zijn. De matrix A∗A is een positief-semidefiniete n×n-matrixen heeft n niet noodzakelijk verschillende niet-negatieve eigenwaarden die we in aflopende volgordenoteren als σ2

1 ≥ σ22 ≥ . . . ≥ σ2

n waarbij alle σi ≥ 0 zijn. De getallen σ1, . . . , σn heten de singulierewaarden van A. We tonen het volgende opmerkelijke resultaat aan:

Stelling 8.8. Zij A een willekeurige complexe m × n-matrix. Dan zijn er orthonormale stelsels{u1, . . . ,um} in Cm en {v1, . . . ,vn} in Cn zodat

A = σ1u1v∗1 + . . . + σkukv∗k

waarbij σ1, . . . , σk de positieve singuliere waarden van A zijn. k is gelijk aan de rang van A. Vooreen reele matrix geldt een analoog resultaat.

Bewijs: Zonder beperking der algemeenheid nemen we aan dat m ≥ n (het geval n > m volgtdan door de hermites geadjungeerde van de matrix te nemen). A∗A is een positief-semidefinieten × n-matrix met eigenwaarden σ2

1 ≥ . . . ≥ σ2n, waarbij σj = 0 voor j > k en σj > 0 voor j ≤ k.

Laat v1, . . . ,vn een corresponderende orthonormale basis van eigenvectoren zijn. Definieer nu voori = 1, . . . , k de vectoren ui ∈ Cm d.m.v. Avi = σiui. Dan is

σiσj(ui,uj) = (σiui, σjuj) = (Avi, Avj) = (A∗Avi,vj) = σ2i (vi,vj)

67

Page 71: SYLLABUS LINEAIRE ALGEBRA 2

en omdat (vi,vj) = δij , is ook (ui,uj) = δij , m.a.w. {u1, . . . ,uk} is een orthonormaal stelsel. Vuldit aan tot een orthonormale basis van Cm. Nu geldt

A(v1, . . . ,vn) = (Av1, . . . , Avn) = (σ1u1, . . . , σkuk, 0, . . . , 0)

ofwel AV = UΣ waarbij U en V de unitaire matrices zijn met kolomvectoren u1, . . . ,um resp.

v1, . . . ,vn en Σ =

σ1 0 . . . 00 σ2 . . . 0...

.... . .

...0 0 . . . σn

0 0 . . . 0...

......

...

. Maar dan is A = UΣV ∗ en dit kunnen we uitwerken tot

A = (u1,u2, . . . ,um)

σ1 0 . . . 00 σ2 . . . 0...

.... . .

...0 0 . . . σn

0 0 . . . 0...

......

...

v∗1v∗2...

v∗n

= σ1u1v∗1 + . . . + σnunv∗n

dus A = σ1u1v∗1 + . . . + σkukv∗k en de rang van A is inderdaad precies k. ¦

Opmerking: Met de notatie van de stelling geldt:1. {u1, . . . ,uk} is een basis van de kolomruimte van A.2. {vk+1, . . . ,vn} is een basis van de nulruimte van A.3. {v1, . . . ,vk} is een basis van de rijruimte van A.4. Daar A∗ = σ1v1u∗1 + . . . + σkvku∗k is {uk+1, . . . , um} een basis van de nulruimte van A∗.

De ontbinding A = UΣV ∗ heet een singuliere waardendecompositie (SVD) van A.

Nogmaals de polaire decompositie van een n× n-matrix.

Zij A een n × n-matrix. Laat UΣV ∗ een SVD van A zijn waarbij Σ een positief-semidefinietediagonaalmatrix is (Σ is positief definiet als A inverteerbaar is). Daar U en V unitaire matriceszijn, is

A = (UV ∗)(V ΣV ∗) = (UΣU∗)(UV ∗)

dus A = OS = S′O waarbij O = UV ∗ een unitaire matrix is en S,S′ positief-(semi)definietematrices zijn. Daar O = eiH voor een hermitese matrix H, is de ontbinding ook te schrijvenals A = eiHS = S′eiH met H hermites en S, S′ positief-(semi)definiet. Dit is precies de polairedecompositie van A.

68

Page 72: SYLLABUS LINEAIRE ALGEBRA 2

INDEX

afstand 37

afstand (tot lineaire deelruimte) 21

algebra 5

alternerende vorm 15

annihilator 50

antilineair 36

antihermites 58

antisymmetrische matrix 3

associatief 1

Banachruimte 53

basis 2

basistransformatie 8

beeld 6

bereik 6

bijectief 6

bilineair 35

Cauchyrij, fundamentaalrij 53

Cayley-Hamilton 32

cofactor 19

commutatief 1

continu 55

coordinaatafbeelding 7

coordinaatvector 7

determinant 15

diagonaliseerbaar 24, 46

differentieerbaar 55

dimensie 4

dimensiestelling 7

directe som 9

distributief 1

draaiing 48

draaispiegeling 48

driehoeksongelijkheid 37

duale (vectorruimte, basis) 49

eigenruimte 23

69

Page 73: SYLLABUS LINEAIRE ALGEBRA 2

eigenvector 23eigenwaarde 23e-macht van een matrix 54endomorfisme 5equivalentieklasse 11equivalentierelatie 11geadjungeerde matrix 20gegeneraliseerde eigenruimte, eigenvector 26gelijkvormig (matrix) 9genormeerde vectorruimte 37Gershgorin, cirkels van 33getransponeerde afbeelding 50Gram-matrix 44Gram-Schmidt 38Hadamard, ongelijkheid van 66hermites (afbeelding, matrix) 40, 41hermites (inproduct) 36hermites geadjungeerde 37Hilbertruimte 53identieke afbeelding 5indefiniet 62injectief 6inverse (afbeelding) 6inverse beeld 6inverteerbaar 6inwendig product, inproduct 35isomorf 6Jordanbasis 28Jordanblok 28Jordan-normaalvorm 28kanonieke afbeelding 12karakteristiek polynoom 23kern, nulruimte 6kleinste kwadraten 44kwadratische vorm 61Levi-Civitasymbool 15lichaam (van scalairen) 1lineair onafhankelijk 2lineair onafhankelijk (modulo een lin.deelruimte) 13

70

Page 74: SYLLABUS LINEAIRE ALGEBRA 2

lineaire afbeelding 4lineaire deelruimte 2matrix van een afbeelding 8minimax-principe 63minimumpolynoom 31minor, onderdeterminant 17(algebraısche, meetkundige) multipliciteit 23negatief-definiet 62nilpotent 24norm (van een vector) 37norm (van een afbeelding, matrix) 51, 52, 63normaal (matrix, afbeelding) 58opspansel 2orientatie 21orthogonaal (vector, stelsel) 38orthogonaal (matrix, afbeelding,..) 44,45orthogonaal complement 41orthogonale projectie 42orthonormaal 38permutatie 15polaire decompositie 67positief-definiet 35, 64projectie 9pseudoinverse 44quotientafbeelding 12quotientvectorruimte 12quotientverzameling 11QR-decompositie 39rang 6, 61Rayleighquotient 62representant 11restrictie (afbeelding) 12scalaire vermenigvuldiging 1Schwarz, ongelijkheid van 37semidefiniet 64seminorm 37sesquilineair 36signatuur 61singuliere waarden 52, 67

71

Page 75: SYLLABUS LINEAIRE ALGEBRA 2

singuliere waardendecompositie 67som 9spectraaldecompositie (normale, symmetrische matrix) 59, 60spectraalstelling (unitaire, orthogonale afbeelding) 45spectraalstelling (normale afbeelding) 59spectrum 23spoor 20standaardbasis 2standaardmatrix 8standaard-hermites (inproduct) 36standaardrepresentatie 2surjectief 6symmetrisch (afbeelding) 40, 60symmetrisch (matrix) 3, 60symmetrisch (vorm) 35tensorproduct 13traagheidsstelling van Sylvester 61unitair (vectorruimte) 36unitair (matrix, afbeelding) 44, 45unitair diagonaliseerbaar 46unitair gelijkvormig 46Vandermonde, determinant van 18vector 1vectorruimte 1vectorruimte-isomorfisme 6vierkantswortel (van een matrix) 64volledig (vectorruimte) 53volume 21Wronskiaan 18zelfgeadjungeerd 40

72