of 100 /100
Lineare Algebra und Analytische Geometrie I Skript zur Vorlesung im WS 2015/2016 an der Humboldt-Universit¨ at zu Berlin Caren Tischendorf

Lineare Algebra und Analytische Geometrie Inumteam1/material/script_LA1_WS1516.pdf · Lineare Algebra und Analytische Geometrie I Skript zur Vorlesung im WS 2015/2016 an der Humboldt-Universit

  • Upload
    vandang

  • View
    221

  • Download
    0

Embed Size (px)

Citation preview

Lineare Algebra und Analytische Geometrie I

Skript zur Vorlesung im WS 2015/2016

an der Humboldt-Universitat zu Berlin

Caren Tischendorf

Inhaltsverzeichnis

1 Elementare Grundlagen 71.1 Zahlbereiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.2 Beweisfuhrung . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

1.2.1 Vollstandige Induktion . . . . . . . . . . . . . . . . . . 111.2.2 Direkter und indirekter Beweis . . . . . . . . . . . . . 13

2 Grundbegriffe der Linearen Algebra 132.1 Mengen und Abbildungen . . . . . . . . . . . . . . . . . . . . 132.2 Algebraische Strukturen . . . . . . . . . . . . . . . . . . . . . 252.3 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272.4 Ringe und Korper . . . . . . . . . . . . . . . . . . . . . . . . . 332.5 Vektorraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . 392.6 Linearkombinationen, lineare Unabhangigkeit, Erzeugenden-

system . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422.7 Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

3 Endlich erzeugte Vektorraume 513.1 Existenz einer Basis . . . . . . . . . . . . . . . . . . . . . . . . 513.2 Basiserganzungssatz . . . . . . . . . . . . . . . . . . . . . . . 523.3 Austauschsatz . . . . . . . . . . . . . . . . . . . . . . . . . . . 533.4 Dimension und Dimensionssatz . . . . . . . . . . . . . . . . . 553.5 Geometrische Anschauung endlich dimensionaler Vektorraume 58

4 Lineare Abbildungen und Matrizen 614.1 Lineare Abbildungen/Homomorphismen . . . . . . . . . . . . 614.2 Bild, Kern, Rang und Defekt linearer Abbildungen . . . . . . 694.3 Matrizen und lineare Gleichungssysteme . . . . . . . . . . . . 734.4 Darstellungsmatrizen und Basiswechsel . . . . . . . . . . . . . 96

2

Bezeichnungen

N Menge der naturlichen ZahlenZ Menge der ganzen ZahlenQ Menge der rationalen ZahlenR Menge der reellen ZahlenC Menge der komplexen Zahlen[a, b] x ∈ R : a ≤ x ≤ b(a, b] x ∈ R : a < x ≤ b[a, b) x ∈ R : a ≤ x < b(a, b) x ∈ R : a < x < b∀x fur alle x∃x es existiert ein x∃!x es existiert genau ein xa ∧ b a und ba ∨ b a oder ba⇔ b a genau dann, wenn ba := b a ist per Definition gleich bx ∈M x ist ein Element von Mx /∈M x ist kein Element von MM ⊆ N M ist eine Teilmenge von NM ⊂ N M ist eine echte Teilmenge von NM\N Menge aller Elemente von M , die nicht zu N gehorenM ∪N Vereiningung von M und NM ∩N Durchschnitt von M und NM ×N kartesisches Produkt von M und Nn∑

i=1

ai Summe der Zahlen ai, wobei i ∈ 1, 2, ..., nn∏

i=1

ai Produkt der Zahlen ai, wobei i ∈ 1, 2, ..., n

f : M → N f ist eine Abbildung von M nach Nx 7→ f(x) x wird abgebildet auf f(x)

3

Griechisches Alphabet

α, A alphaβ, B betaγ, Γ gammaδ, ∆ deltaε, E epsilonζ, Z zetaη, H etaθ, Θ theta

ι, I iotaκ, K kappaλ, Λ lambdaµ, M myν, N nyξ, Ξ xio, O omikronπ, Π pi

%, P rhoσ, Σ sigmaτ , T tauυ, Y ypsilonϕ, Φ phiχ, X chiψ, Ψ psiω, Ω omega

4

Einfuhrung

Die lineare Algebra gehort zu den fundamentalen Gebieten der Mathematik.Gemeinsam mit der reellen Analysis bildet sie die Basis fur alle weiteren ma-thematischen Teilgebiete, wie z.B. Differentialgleichungen, Algebra, Numerik,Differentialgeometrie, Funktionalanalysis, Optimierung und Stochastik.

Die Lineare Algebra ist ein zentrales Modellierungswerkzeug. Man kann li-neare Strukturen viel besser verstehen und in ihnen denken kann als in nicht-linearen Strukturen. Obwohl die Welt um uns herum naturlich hauptsachlichdurch nichtlineare Phanomene beschrieben wird, fuhren die Methoden zurModellierung oder Analyse immer wieder auf lineare Prozesse, die das nicht-lineare Problem (lokal) naherungsweise approximieren oder beschreiben. Dienichtlineare Welt wird lokal linearisiert.

Schauen wir uns dazu ein paar Beispiele an.

Beispiel: Wettervorhersage. Im Stromungsfilm zur Wettervorhersage wirddie Teilchenbewegung der Luftmolekule dargestellt.

Quelle: https: // www. youtube. com/ watch? v= klGg_ dw5YAk

Mit Hilfe von Vektoren, lasst sich die die Starke und die Richtung der Luft-stromung in jedem Punkt beschreiben. Um nun Stromungen vorhersagen zukonnen, benotigt man als Rustzeug Regeln fur das Rechnen mit Vektoren.Diese Regeln werden wir im Rahmen der Vorlesung Lineare Algebra lernen.Daruberhinaus benotigt man auch noch Wissen zu Differentialgleichungenund zur Numerik. Dies wird in spateren Vorlesungen behandelt.

Beispiel: Numerischer Windkanal. Zur Simulation der Windbelastungvon Fahrzeugen oder Flugzeugen legt man ein Gitter uber und um die Ober-flachenstrukturen. Dort, wo die Belastung am hochsten ist, verfeinert mandas Gitter, um prazisere Vorhersagen treffen zu konnen. Fur diese Vorher-sagen muss man u.a. extrem große lineare Gleichungssysteme losen. In derVorlesung zur linearen Algebra werden wir allgemeine Prinzipien lernen, wieman lineare Gleichungssysteme beliebig hoher Dimension losen kann. In der

5

Praxis zeigt sich jedoch, dass man mit diesen allgemeinen Prinzipien schnellan die Kapazitatsgrenzen eines Rechners gelangt.

Quelle: https: // www. youtube. com/ watch? v= fW_ j6oXGgoY

Daher lernt man spater in der Numerik, wie man solche Systeme deutlichschneller losen kann, wenn man bestimmte Strukturen ausnutzt.

Beispiel: Tacoma-Narrows-Brucke. Die erste Tacoma-Narrows-Bruckeim Bundesstaat Washington wurde 1938-1940 als Hangebrucke erbaut undsturzte nach nur vier Monaten Betriebszeit am 7. November 1940 aufgrundwinderregter Schwingungen spektakular ein.

Quelle: https: // www. youtube. com/ watch? v= 3mclp9QmCGs

Am 7. November 1940 kam aus sudwestlicher Richtung, quer zur Brucke,Starkwind auf. Dadurch geriet die Brucke in einen anderen Schwingungsmo-dus und fuhrte jetzt erstmals Torsionsschwingungen aus. Bei diesem Modushandelte es sich um eine so genannte selbsterregte Schwingung oder auchEigen-Schwingung, die anders als die Resonanzschwingung keine Anregungmit einer bestimmten Frequenz erfordert. Nach einer dreiviertel Stunde ris-sen bei einer Windgeschwindigkeit von 67 km/h (Windstarke 8) die Seile und

6

die Fahrbahn sturzte in die Tacoma Narrows.Um solche Eigenschwingungen zu verhindern, benotigt man sogenannte Ei-genwertanalysen, die wir am Ende der Vorlesung behandeln werden.

1 Elementare Grundlagen

Dieser Abschnitt beschaftigt sich mit elementaren Werkzeugen der Mathe-matik, die aus der Schule bekannt sein sollten. Sie werden hier noch ein-mal wiederholt, um die notigen Grundlagen fur die folgenden Abschnitte zurVerfugung zu haben.

1.1 Zahlbereiche

Schon als Kind lernt man die naturlichen Zahlen kennen, die uns die Mog-lichkeit geben, bestimmte Dinge zu zahlen. Wir bezeichnen die naturlichenZahlen mit

N = 0, 1, 2, 3, 4, ....

Wir konnen naturliche Zahlen addieren und multiplizieren, ohne dabei dieMenge der naturlichen Zahlen zu verlassen. So haben wir beispielsweise

3 + 4 = 7 ∈ N oder 3 · 4 = 12 ∈ N.

Allgemein gilt:

Wenn a ∈ N und b ∈ N, dann a+ b ∈ N und a · b ∈ N

Doch wenn wir zwei naturliche Zahlen subtrahieren wollen, dann haben wirmanchmal Probleme, so z.B.

9− 5 = 4 ∈ N, aber 5− 9 /∈ N.

Um beliebig subtrahieren zu konnen, benotigen wir die ganzen Zahlen

Z = ...,−4,−3,−2,−1, 0, 1, 2, 3, 4, ....

Nun finden wir5− 9 = −4 ∈ Z.

Wenn wir bestimmte Dinge teilen wollen, etwa einen Kuchen in 12 Stucke,dann reichen uns die ganzen Zahlen nicht mehr, denn

1 : 6 =1

6/∈ Z.

7

Dazu mussen wir unseren Zahlbereich auf die rationalen Zahlen

Q =

pq, wobei p ∈ Z und q ∈ Z\0

erweitern. Neben der Bruchschreibweise, verwendet man manchmal auch dieDezimaldarstellung, z.B.

5

4= 1.25 oder

1

3= 0.3333...

Damit konnen wir ganz einfach vergleichen, welche der rationalen Zahlengroßer oder kleiner ist. Interessanter Weise kommt man aber auch mit denrationalen Zahlen nicht immer aus. So gibt es beispielsweise keine rationaleZahl a, fur die a2 = 2 gilt. Dennoch gibt es eine Dezimaldarstellung (mitunendlich vielen Nachkommastellen)

a =√

2 = 1.4142135...

Alle Zahlen mit einer Dezimaldarstellung konnen wir auf einer Zahlengeraden

darstellen. Alle Zahlen auf der Zahlengeraden bezeichnen wir als reelle Zah-len R. In der Analysis-Vorlesung werden Sie eine strenge mathematischeDefinition der reellen Zahlen uber Dedekindsche Schnitte kennenlernen.

Mit den reellen Zahlen kommt man in der Praxis haufig aus. Doch auch imBereich der reellen Zahlen konnen wir nicht beliebig rechnen. Jedenfalls gibtes keine reelle Zahl mit c mit c2 = −2. Dazu benotigt man die komplexenZahlen

C = c = a+ bi, wobei a ∈ R und b ∈ R.

Dabei ist der Buchstabe i als sogenannte imaginare Einheit definiert, d.h.

i =√−1 bzw. i2 = −1.

Dann gilt fur c =√

2i, dass

c2 = (√

2i)2 = (√

2)2i2 = 2(−1) = −2.

Fur komplexe Zahlen c = a + bi bezeichnet man a als Realteil und b alsImaginarteil.

Die Menge der komplexen Zahlen findet auf der Zahlengeraden der reellenZahlen keinen Platz mehr. Dennoch konnen wir auch die komplexen Zahlengraphisch darstellen. Dazu benutzt man die Gaußsche Zahlenebene.

8

Darstellung der komplexen Zahlen in der Gaußschen Zahlenebene

Jede komplexe Zahl stellt genau einen Punkt in der Zahlenebene dar, diedurch die Achsen Re (fur den Realteil) und Im (fur den Imaginarteil) aufge-spannt wird.

Wir definieren|z| :=

√a2 + b2

als Absolutbetrag von z. Die Definition ist aus der geometrischen An-schauung geboren. Dazu betrachten wir die Darstellung komplexer Zahlen inPolarkoordinaten (r, ϕ), wobei r den Radius und ϕ den Winkel zur x-Achse(entgegen dem Uhrzeigersinn) beschreibt.

Darstellung der komplexen Zahlen in Polarkoordinaten

Mit diesen erhalten wir

a+ bi = r · cosϕ+ i · r · sinϕ = r (cosϕ+ i · sinϕ) .

Offenbar gilt fur z = a+ bi, dass

a2 + b2 = r2 cos2 ϕ+ r2 sin2 ϕ2 = r2(cos2 ϕ+ sin2 ϕ) = r2

9

und somit r =√a2 + b2 = |z|, d.h. der Absolutbetrag einer komplexen Zahl

z entspricht gerade der Lange r des zur komplexen Zahl z gehorigen Vektorsin der Gaußschen Zahlenebene.

Beispiel: Fur z = 1 +√

3i erhalten wir den Radius

r = |z| =√

12 + (√

3)2 = 2.

Fur den Winkel ϕ gilt

r cos(ϕ) = 1 und r sin(ϕ) =√

3

und somit

tan(ϕ) =r sin(ϕ)

r cos(ϕ)=

√3

1, d.h. ϕ =

π

3.

Fur komplexe Zahlen sind die grundlegenden Rechenoperationen wie folgtdefiniert. Seien z1 = a1 + b1i und z2 = a2 + b2i zwei komplexe Zahlen, wobeia1, a2, b1, b2 ∈ R. Dann haben wir per Definition

z1 + z2 = (a1 + b1i) + (a2 + b2i) = (a1 + a2) + (b1 + b2)i

z1 − z2 = (a1 + b1i)− (a2 + b2i) = (a1 − a2) + (b1 − b2)i

z1 · z2 = (a1 + b1i)(a2 + b2i) = a1a2 + a1b2i+ b1a2i+ b1b2i2

= (a1a2 − b1b2) + (a1b2 + b1a2)i.

Falls z2 6= 0, d.h. a2 6= 0 oder b2 6= 0, dann gilt

z1

z2

=a1 + b1i

a2 + b2i=

(a1 + b1i)(a2 − b2i)

(a2 + b2i)(a2 − b2i)

=a1a2 − a1b2i+ b1a2i− b1b2i

2

a22 − b2

2i2

=a1a2 + b1b2

a22 + b2

2

+b1a2 − a1b2

a22 + b2

2

i.

1.2 Beweisfuhrung

An dieser Stelle wollen wir ein paar wichtige Techniken der Mathematikkennenlernen, um eine Behauptung zu beweisen.

10

1.2.1 Vollstandige Induktion

Das Prinzip der vollstandigen Induktion ist ein verbluffend einfaches, abermachtiges Werkzeug, um Behauptungen zu beweisen, die fur alle naturlichenZahlen n ≥ n0 gelten sollen, z.B.

n∑i=1

i =n(n+ 1)

2fur n ≥ 1

Dann lautet das Prinzip der vollstandigen Induktion:

1. (Induktionsanfang) Man zeigt, dass die Aussage fur n = n0 richtigist.

2. (Induktionsvoraussetzung) Man nimmt an, dass die Aussage fur einbeliebiges n richtig ist.

3. (Induktionsbehauptung) Man behauptet, dass die Aussage fur n + 1richtig ist, wenn die Induktionsvoraussetzung erfullt ist.

4. (Induktionsschritt) Man zeigt, dass unter der Induktionsvorausset-zung die Induktionsbehauptung gilt.

Damit hat man die Behauptung fur alle n ≥ n0 bewiesen. Dies wird auffolgende Weise klar.

1. Die Aussage gilt fur n := n0 aufgrund des Induktionsanfangs.

2. Mit dem Induktionsschritt gilt die Aussage auch fur n := n0 + 1.

3. Mit dem Induktionsschritt gilt die Aussage auch fur n := n0 + 2.

4. Mit dem Induktionsschritt gilt die Aussage auch fur n := n0 + 3.

5. usw.

Die folgende Grafik veranschaulicht das Prinzip der vollstandigen Induktionmit Hilfe von Dominosteinen.

11

Prinzip der vollständigen Induktion

2 3 4 5 6 7 8 91

Aussage gilt für alle n≥1

Aussage gilt für alle n≥5

Aussage gilt für kein n(Induktionsanfang nicht erfüllt)

Aussage gilt für alle 1≤n≤5

...

...

...

...

Beispiel: Wir wollen nun die Richtigkeit der Aussagen∑

k=1

(2k − 1) = n2 fur n ≥ 1 (1.1)

mit Hilfe der vollstandigen Induktion zeigen.

1. Induktionsanfang (IA): Die Behauptung gilt offenbar fur n = 1, denn

1∑k=1

(2k − 1) = 2 · 1− 1 = 1 = 12.

2. Induktionvoraussetzung (IV): Es gelte die Aussage fur n, d.h.

n∑k=1

(2k − 1) = n2

3. Induktionsbehauptung (IB): Die Aussage gilt dann auch fur n+ 1, d.h.

n+1∑k=1

(2k − 1) = (n+ 1)2

4. Induktionsschritt (IS): Wir trennen den letzten Summanden ab undnutzen die Induktionsvoraussetzung wie folgt:

n+1∑k=1

(2k − 1)i = [n∑

k=1

(2k − 1)] + (2n+ 1)

IV= n2 + (2n+ 1) = (n+ 1)2

Damit haben wir die Richtigkeit der Aussage (1.1) bewiesen.

12

1.2.2 Direkter und indirekter Beweis

Sei B eine Behauptung, z.B. jede durch 2 und 3 teilbare naturliche Zahl istauch durch 6 teilbar oder es gibt unendlich viele Primzahlen.

Bei einem direkten Beweis zeigt man auf direktem Wege, dass die Behaup-tung B wahr ist.

Die erste Behauptung kann man einfach direkt beweisen, z.B. wie folgt: Sein eine durch 2 und 3 teilbare naturliche Zahl. Dann existieren naturlicheZahlen a, b, so dass

n = 2a und n = 3b.

Somit gilt 2a = 3b. Da 3 kein Teiler von 2 ist, so muss 3 dann ein Teilervon a sein, d.h. a = 3c fur eine naturliche Zahl c. Schließlich erhalten wirn = 2a = 2 · 3c = 6c, d.h. n ist durch 6 teilbar.

Bei einem indirekten Beweis nimmt man an, dass die Behauptung B falschist und fuhrt dies auf einen Widerspruch.

Ein indirekter Beweis fur die Unendlichkeit der Primzahlen ist folgender(von Euklid). Wir nehmen zunachst an, dass es nur endlich viele Primzahlenp1, p2, ..., pn gibt. Dann betrachten wir die Zahl

z = 1 + p1p2...pn = 1 +n∏

i=1

pi.

Da jede Primzahl ein Teiler von∏n

i=1 pi ist, so ware jede Primzahl, die einTeiler von z ist, auch ein Teiler von 1. Also kann keine der Primzahlen pi einTeiler von z sein. Dies bedeutet, dass z eine Primzahl und z /∈ p1, p2, ..., pn,da z > pi fur alle i = 1, ..., n. Dies steht im Widerspruch zu der Annahme,dass p1, p2, ..., pn alle Primzahlen sind. Somit ist die Annahme falsch undwir haben gezeigt, dass es unendlich viele Primzahlen gibt.

2 Grundbegriffe der Linearen Algebra

2.1 Mengen und Abbildungen

Der Begriff einer Menge geht auf Georg Cantor zuruck. Er beschreibt eineMenge als eine Zusammenfassung von bestimmten Objekten zu einem Gan-zen. Die Objekte nennen wir Elemente. Als Kurzschreibweise verwendenwir

M = x |x hat eine bestimmte Eigenschaft.

13

Dabei ist M die Menge und x ein Element der Menge. So lassen sich diegeraden Zahlen z.B. wie folgt beschreiben:

M = x |x ist eine durch 2 teilbare naturliche Zahl= x ∈ N | 2 ist ein Teiler von x.

Mengen mit endlich vielen Elementen nennen wir endliche Mengen. Sielassen sich abzahlen und konnen durch Aufzahlung beschrieben werden, z.B.

M = 4, 5, 8, 9, 20.

Falls x ein Element einer Menge M ist, so schreiben wir

x ∈M (sprich: x Element von M oder x in M),

andernfalls x /∈M (sprich: x kein Element von M oder x nicht in M). Dabeigilt stets x ∈M oder x /∈M , aber niemals beides.

Bemerkung: Die hier gegebene Beschreibung von Mengen ist keine stren-ge mathematische Definition. Sie fuhrt auf Widerspruche wie das RusselscheParadoxon. Wir betrachten dazu folgende Menge. Zu der Menge gehoren alleMenschen, die vom Frisor Fritz die Haare geschnitten bekommen. Dabei gel-te die Regel, dass Frisor Fritz nur denen die Haare schneidet, die sich nichtselbst ihre Haare schneiden. Wir konnen nicht entscheiden, ob Fritz zu dieserMenge gehort. Wenn er sich selbst nicht die Haare schneidet, dann mussteer es laut Regel doch tun. Wenn er sich die Haare schneidet, dann durfte erdies laut Regel nicht tun. Durch einen axiomatischen Aufbau der Mengenleh-re kann man das Russelsche Paradoxon umgehen. Doch erfordert dieser eineReihe formaler Uberlegungen, auf die wir hier zu Beginn des Studiums ver-zichten wollen. Fur den mathematischen Alltag spielen die formalen Aspektekaum eine Rolle.

Nun wollen wir ein paar nutzliche Operationen auf Mengen kennenlernenund ein paar bequeme Schreibweisen einfuhren.

Der Allquantor ∀ und der Existenzquantor ∃ sind verkurzte Schreibweisenfur folgende Terme:

• ∀x ∈M : bedeutet ”fur alle x ∈M gilt”.

• ∃x ∈M : bedeutet ”es gibt ein x ∈M , so dass”.

• ∃!x ∈M : bedeutet ”es gibt genau ein x ∈M , so dass”.

14

Definition 2.1. Seien M und N Mengen. Dann heißt M eine Teilmengevon N (in Zeichen: M ⊆ N), falls jedes x ∈M auch ein Element von N ist,d.h.

∀x ∈M : x ∈ N.

Die Mengen M und N sind gleich, falls M ⊆ N und N ⊆M gilt.

Beispiel: Fur eine Menge M = 2, 7, 9, 20 ist N1 := 7, 20 eine Teilmengevon M und N2 := 7, 8 keine Teilmenge von M .

Definition 2.2. Seien M1, M2 Mengen.

• Vereinigung: Die Vereinigung M1 ∪M2 ist definiert durch

M1 ∪M2 = x |x ∈M1 oder x ∈M2

• Durchschnitt: Der Durchschnitt M1 ∩M2 ist definiert durch

M1 ∩M2 = x |x ∈M1 und x ∈M2

• Differenz: Die Differenz M1 \M2 ist definiert durch

x ∈M1 \M2 ⇔ x ∈M1 ∧ x /∈M2.

• Komplement: Ist M1 ⊆M2, so ist das Komplement McM21 von M1 in

M2 definiert durch

McM21 = M2 \M1.

Wenn klar ist, in welcher Gesamtmenge M2 man das Komplement bil-det, dann schreiben wir auch nur kurz M c

1 .

Schauen wir uns zur Veranschaulichung ein kleines Beispiel an.

Beispiel: Seien M1 := 2, 5, 9, 11, 15, M2 := 3, 5, 7, 11, M3 = 2, 11,M4 = N. Dann gilt

M1 ∪M2 ∪M3 = 2, 3, 5, 7, 9, 11, 15M1 ∩M2 ∩M3 = 11

M2 \M3 = 3, 5, 7M c

3 = M cN3 = x ∈ N | x 6= 2 ∧ x 6= 11

15

Bemerkung 2.3. Sei I eine Indexmenge (d.h. eine Menge von Indizes) undsei Mi fur jedes i ∈ I eine Menge. Dann ist die Vereinigung aller MengenMi wie folgt definiert:

x ∈⋃i∈I

Mi ⇔ ∃ i ∈ I : x ∈Mi.

Der Durchschnitt aller Mengen Mi ist definiert als:

x ∈⋂i∈I

Mi ⇔ ∀ i ∈ I : x ∈Mi.

Beispiel: Sei i ∈ N und Mi := 0, 1, 2, ..., i. Dann gilt⋃i∈N

Mi = N und⋂i∈N

Mi = 0.

Definition 2.4. Folgende Mengen spielen eine besondere Rolle.

• leere Menge: Die leere Menge ∅ ist dadurch charakterisiert, dass siekein Element enthalt.

• Potenzmenge: Die Potenzmenge P (M) einer Menge M ist definiertals die Menge aller Teilmengen von M und es gilt

N ∈ P (M)⇔ N ⊆M.

Fur die Potenzmenge einer Menge M gilt immer ∅ ∈ P (M) und M ∈ P (M).

Beispiel: Sei M = 1, 2. Dann gilt P (M) = ∅, 1 , 2 , 1, 2.

Zur Beschreibung von Beziehungen zwischen Mengen verwenden wir Abbil-dungen.

Definition 2.5. Eine Abbildung ist eine Vorschrift, die jedem Element xeiner Menge D genau einen Wert f(x) einer weiteren Menge W zuordnet.Die Menge D nennt man den Definitionsbreich, die Menge W den Wer-tebereich (Wertevorrat) der Abbildung/Funktion f . Als Kurzschreibweisehat sich die Notation

f : D → W

durchgesetzt. Fur den Zugriff auf die Werte schreibt man kurz

x 7→ f(x)

16

Abbildung 2.1: Elektrokardiagramm

Aus der Schule kennt man Abbildungen beispielsweise schon als Funktionenf(x) fur x ∈ R, z.B.

f : R→ Rx 7→ f(x) = x2.

In der Praxis begegnet man eigentlich uberall irgendwelchen Abbildungen.So berechnet beispielsweise jedes Unternehmen monatlich seinen Gewinn.Damit haben wir eine Abbildung von Monaten in die reellen Zahlen.

Selbst in der Medizin begegnen wir Abbildungen. Der Kardiologe wertetzur Leistungsfahigkeit des Herzens sogenannte Elektrokardiagramme (EKGs)aus, siehe Abb. 2.1. Ein Standard-EKG enthalt 12 Abbildungen/Funktionen.Zu jedem Zeitpunkt t wird die Spannung zwischen je zwei Punkten desKorpers gemessen und aufgezeichnet (Abbildung I zwischen rechtem undlinkem Arm, Abbildung II zwischen rechtem Arm und linken Bein, usw.).Ubrigens sprechen die Mediziner nicht allgemein von Abbildungen sondernvon Ableitungen. Dies ruhrt daher, dass die gemessenen Spannungen Poten-tialanderungen sind und naherungsweise die erste Ableitung (im mathemati-schen Sinn) des elektrostatischen Potentials darstellen. Der Kardiologe kanndurch Auswertung der Kurven in bestimmten Zeitintervallen feststellen, obdie Herztatigkeit krankhafte Veranderungen aufweist.

17

Achtung: Der Wertebereich W einer Funktion muss nicht ausgeschopft wer-den. Der Wertebereich gibt nur an, dass die Werte f(x) einer Funktion f furjedes x ∈ D zu W gehoren, d.h.

∀x ∈ D : f(x) ∈ W.

Doch es bedeutet nicht, dass es fur jedes w ∈ W auch ein x ∈ D gibt, sodass w = f(x). Außerdem konnen Abbildungen fur verschiedene x ∈ D aufden gleichen Wert w fuhren.

Beispiel: Wir betrachten wieder

f : R→ Rx 7→ f(x) = x2.

Offenbar gilt x2 ∈ R, falls x ∈ R. Doch es gibt kein x ∈ D = R, so dassx2 = −1, obwohl −1 ∈ W = R. Außerdem gilt fur alle x ∈ R, dass

f(x) = x2 = (−x)2 = f(−x).

Doch sind solche Abbildungen besonders interessant, bei denen der Wertebe-reich ausgeschopft wird oder jeder Wert w ∈ W nur durch genau ein x ∈ Derreicht wird. Dazu definieren wir

Definition 2.6. Eine Abbildung f : D → W heißt surjektiv, falls

∀w ∈ W ∃x ∈ D : f(x) = w.

Eine Abbildung f : D → W heißt injektiv, falls fur alle x1 ∈ D und x2 ∈ Dgilt:

Wenn f(x1) = f(x2), dann x1 = x2.

Eine Abbildung f : D → W heißt bijektiv, falls sie injektiv und surjektivist.

Nun konnen wir leicht folgenden Satz folgern.

Satz 2.7. Eine Abbildung f : D → W ist bijektiv genau dann, wenn folgendeAussage gilt:

∀w ∈ W ∃!x ∈ D : f(x) = w.

18

Beweis: Wir zeigen zuerst die Richtung (⇒). Sei f : D → W bijektiv.Dann ist f surjektiv und injektiv. Sei w ∈ W beliebig. Da f surjektiv ist,so gibt es ein x ∈ D, so dass f(x) = w. Wir mussen nun noch zeigen, dasses nur ein solches x ∈ D gibt. Wir nehmen an, dass es zwei verschiedene x1,x2 ∈ D gibt, so dass f(x1) = w und f(x2) = w. Dann gilt f(x1) = f(x2)und aufgrund der Injektivitat, dass x1 = x2. Dies ist ein Widerspruch zurAnnahme, d.h. es gibt nur ein x ∈ D mit f(x) = w.Wir zeigen nund die andere Richtung (⇐). Es gelte die Aussage, dass

∀w ∈ W ∃!x ∈ D : f(x) = w.

Dann ist f offenbar surjektiv, denn

∀w ∈ W ∃x ∈ D : f(x) = w.

Es bleibt zu zeigen, dass die Funktion f auch injektiv ist. Seien x1, x2 ∈ Dmit f(x1) = f(x2). Dann ist w := f(x1) = f(x2) ∈ W . Nach Voraussetzungexistiert genau ein x ∈ D mit f(x) = w, d.h. x1 = x = x2. 2

Beispiel: Wir betrachten nun

f : R→ W := w ∈ R : w ≥ 0x 7→ f(x) = x2.

Offenbar gibt es zu jedem w ∈ W ein x :=√w ∈ R, so dass

f(x) = (√w)2 = w.

Also ist f : R→ W surjektiv.

Beispiel: Wir betrachten jetzt

f : D := x ∈ R : x ≥ 0 → Rx 7→ f(x) = x2.

Falls x1 ∈ D und x2 ∈ D mit f(x1) = f(x2), dann gilt

x21 = f(x1) = f(x2) = x2

2.

Da x1 ≥ 0 und x2 ≥ 0, so gilt offenbar x1 = x2. Also ist f : R→ W injektiv.

Als Ubung kann man sich uberlegen, dass die Abbildung

f : x ∈ R : x ≥ 0 → w ∈ R : w ≥ 0x 7→ f(x) = x2.

19

bijektiv ist.

Ist eine Abbildung f : D → W bijektiv, so gibt es nicht nur eine eindeu-tige Zuordnung x 7→ f(x), sondern auch umgekehrt von f(x) 7→ x. Mannennt bijektive Abbildungen daher auch eineindeutig. Die Abbildung mitder umgekehrten Zuordnung f(x) 7→ x nennt man Umkehrabbildung undschreibt

f−1 : W → D

w 7→ f−1(w) = x.

Hierbei gilt f−1(w) = x genau dann, wenn w = f(x).

Achtung: Die Umkehrabbildung f−1 einer Abbildung f : R → R darf mannicht mit der Abbildung 1

fverwechseln, die durch

1

f: R\w ∈ R | f(w) 6= 0 → R

w 7→ 1

f(w)

gegeben ist und fur w ∈ R mit f(w) = 0 gar nicht definiert ist.

Beispiel: Sei

f : R→ Rx 7→ f(x) = x3.

Offenbar ist f bijektiv und es gilt

f−1 : R→ R

w 7→ f−1(w) =

3√w w ≥ 0

− 3√−w w < 0

Doch die Abbildung 1f

ist nur fur w 6= 0 definiert und es gilt

1

f: R\0 → R

w 7→ 1

f(w) =

1

w3.

Ein wenig uberraschend ist folgender Satz fur endliche Mengen.

20

Satz 2.8. Sei X eine endliche Menge und f : X → X eine Abbildung. Dannsind folgende Aussagen aquivalent.

(i) f ist surjektiv.

(ii) f ist injektiv.

(iii) f ist bijektiv.

Beweis: Da aus (iii) bereits fur beliebige Abbildungen stets (i) und (ii)folgen, so reicht es zu zeigen, dass (i)→(iii) und (ii)→(iii). Sei

X = x1, ..., xn,

wobei die Objekte xi alle voneinander verschieden sind.(i)→(iii) Da f surjektiv ist, so gilt

f(x1), ..., f(xn) = X.

Da X genau n verschiedene Elemente enthalt, so sind die Funktionswertef(xi) auch alle voneinander verschieden, d.h. f ist injektiv und somit bijektiv.

(ii)→(iii) Da f injektiv ist, so sind die Funktionswerte f(xi) alle voneinanderverschieden. Zudem wissen wir, dass

f(x1), ..., f(xn) ⊆ X.

Da f(x1), ..., f(xn) und X beide genau n verschiedene Elemente enthalten,so gilt f(x1), ..., f(xn) = X, d.h. f ist surjektiv und somit auch bijektiv. 2

Wir betrachten nun die Hintereinanderausfuhrung von Abbildungen.

Definition 2.9. Seien f : X → Y und g : Y → Z zwei Abbildungen, dannist die Komposition bzw. Verknupfung g f beider Abbildungen definiertals

g f : X → Z

x 7→ (g f)(x) = g(f(x)).

Bemerkung: Die Verknupfung von Funktionen ist assoziativ, d.h. fur belie-bige Abbildungen f : X → Y , g : Y → Z und h : Z → W gilt:

(h g) f = h (g f).

21

Davon kann man sich leicht wie folgt uberzeugen: ∀x ∈ X :

((hg)f)(x) = (hg)(f(x)) = h(g(f(x))) = h((g f)(x)) = (h (g f))(x).

Man teste zur eigenen Ubung, ob die Verknupfung von Funktionen auchkommutativ ist, d.h.

f g = g f ?

Bemerkung 2.10. Seien f : X → Y und g : Y → Z Abbildungen. Danngelten folgende Aussagen

(i) Wenn f und g injektiv sind, so ist auch g f injektiv

(ii) Wenn f und g surjektiv sind, so ist auch g f surjektiv.

(ii) Wenn g f injektiv ist, so ist f injektiv.

(iv) Wenn g f surjektiv ist, so ist g surjektiv.

Beweis:

(i) Ubungsaufgabe

(ii) Sei z ∈ Z. Da g surjektiv ist, so existiert ein y ∈ Y mit g(y) = z. Da fsurjektiv ist, so existiert ein x ∈ X mit f(x) = y. Daraus folgt

(g f)(x) = g(f(x)) = g(y) = z.

D.h. g f ist surjektiv.

(iii) Ubungsaufgabe

(iv) Sei z ∈ Z. Da gf surjektiv ist, so existiert ein x ∈ X mit g(f(x)) = z.Sei y := f(x). Dann gilt y ∈ Y und g(y) = g(f(x)) = z, d.h. g istsurjektiv.

2

Bemerkung 2.11. Wenn g f injektiv ist, so muss g nicht injektiv sein.Wenn g f surjektiv ist, so muss f nicht surjektiv sein. Man betrachte furbeide Aussagen beispielsweise die Funktionen g : Z → N mit x 7→ |x| undf : N→ Z mit x 7→ −x.

Definition 2.12. Sei X eine nichtleere Menge. Wir bezeichnen eine Abbil-dung f : X → X als die identische Abbildung idX , falls

idX(x) = f(x) = x ∀x ∈ X.

22

Lemma 2.13. Sei f : X → W eine Abbildung, wobei X und W nichtleereMengen sind. Dann gilt

(i) f ist genau dann injektiv, wenn es eine Abbildung h : W → X gibt, sodass h f = idX .

(ii) f ist genau dann surjektiv, wenn es eine Abbildung h : W → X gibt,so dass f h = idW .

(iii) f ist genau dann bijektiv, wenn es eine Abbildung h : W → X gibt, sodass h f = idX und f h = idW . In diesem Fall ist h = f−1.

Beweis: (iii) ist eine Folgerung aus (i) und (ii).

(i) (→) Sei f injektiv. Sei x∗ ∈ X ein fest gewahltes Element. Nun definierenwir fur w ∈ W die Funktion

h(w) :=

x, falls w ∈ f(X) und x ∈ X : f(x) = w

x∗, falls w /∈ f(X).

Wie bereits aus den Ubungen bekannt, ist die Menge f(X) definiert als

f(X) := w ∈ W | ∃ x ∈ X : f(x) = w.

Die Funktionswerte von h sind eindeutig bestimmt, da f injektiv ist. Zudemgilt fur alle x ∈ X, dass

(h f)(x) = h(f(x)) = h(w) = x.

(←) Sei jetzt h eine Abbildung mit h f = idX . Seien weiter x1 ∈ X undx2 ∈ X mit f(x1) = f(x2) gegeben. Dann gilt

x1 = h(f(x1)) = h(f(x2)) = x2.

(ii) Ubungsaufgabe 2

Auch wenn man keine bijektive Abbildung f : D → W hat, so kann mandennoch eine Umkehrabbildung f−1 formulieren. Diese bildet dann aber nichtElemente auf Elemente, sondern Mengen auf Mengen ab. Hierbei definiertman

f−1 : P(W )→ P(D)

M 7→ f−1(M) = x ∈ D : f(x) ∈M.

23

Man nennt f−1(M) das Urbild von M . Ist f nicht surjektiv, so gibt esElemente w ∈ W mit f−1(w) = ∅. Ist f nicht injektiv, so gibt es Elementew ∈ W , fur die f−1(w) mindestens zwei verschiedene Elemente enthalt.

Zum Schluss dieses Abschnitts betrachten wir noch zwei wichtige Begriffe furMengen.

Definition 2.14. Seien n Mengen X1, ..., Xn gegeben. Dann bezeichnet dieMenge X1 × X2 × ... × Xn das Produkt der Mengen X1, ..., Xn und esist definiert:

z = (x1, ..., xn) ∈ X1×X2× ...×Xn ↔def

x1 ∈ X1, x2 ∈ X2, ..., xn ∈ Xn.

Beispiel: Sei X := 3, 4 und Y = 1, 5, 7. Dann gilt

X × Y = (3, 1), (3, 5), (3, 7), (4, 1), (4, 5), (4, 7).

R2 := R× R = (x, y) | x ∈ R ∧ y ∈ RCn := C× C× ...× C︸ ︷︷ ︸

n−mal

= (x1, x2, ..., xn) | ∀i = 1, ..., n : xi ∈ C

Definition 2.15. Sei X eine nichtleere Menge. Dann heißt ∼ eine Aquiva-lenzrelation auf X, falls fur beliebige x, y, z ∈ X folgendes gilt:

(i) x ∼ x, d.h. ∼ ist reflexiv.

(ii) x ∼ y ↔ y ∼ x, d.h. ∼ ist symmetrisch.

(iii) x ∼ y ∧ y ∼ z → x ∼ z, d.h. ∼ ist transitiv.

Beispiel: Sei X := Z und sei

x ∼ y ↔def

x− y ist durch 3 teilbar.

fur beliebige x, y ∈ Z. Dann ist ∼ eine Aquivalenzrelation, denn fur beliebigex, y, z ∈ Z gilt:

(i) x ∼ x, da x− x = 0 durch p teilbar ist.

(ii) x ∼ y ↔ 3|(x− y)↔ 3|(y − x)↔ y ∼ x.

24

(iii) Da x ∼ y und y ∼ z, so existieren ganze Zahlen a, b, so dass x−y = 3aund y − z = 3b. Damit gilt

x− z = x− y + y − z = 3a+ 3b = 3(a+ b),

d.h. 3 ist ein Teiler x− z, d.h. x ∼ z.

Definition 2.16. Sei ∼ eine Aquivalenzrelation auf einer nichtleeren MengeX und a ∈ X. Dann heißt die Menge

[a]∼ := x ∈ X | x ∼ a

Aquivalenzklasse zur Aquivalenzrelation ∼ mit dem Reprasentanten a.Die Menge aller Aquivalenzklassen

M/∼ := [a]∼ | a ∈M

nennt man Faktormenge bzw. Quotientenmenge der Aquivalenzrelation ∼.

2.2 Algebraische Strukturen

Definition 2.17. Sei M eine nichtleere Menge. Dann heißt ∗ eine Ver-knupfung auf M , falls fur jedes x ∈ M und jedes y ∈ M gilt: x ∗ y ∈ M .Das Paar (M, ∗) nennt man eine algebraische Struktur.

Einfache Beispiele sind (N,+) oder (Q, ·). Ein weiteres Beispiel fur eine al-gebraische Struktur ist (P(X),∩) fur eine beliebige nichtleere Menge X.

Man uberlege sich, dass die Verknupfung von bijektiven Abbildungen f :X → X fur eine nichtleere Menge X auch eine Verknupfung im Sinne vonDefinition 2.17 ist (Ubungsaufgabe).

Schauen wir uns nun ein paar Eigenschaften algebraischer Strukturen an:

Definition 2.18. Sei (M, ∗) eine algebraische Struktur.

(i) (M, ∗) heißt eine kommutative algebraische Struktur, falls

∀x, y ∈M : x ∗ y = y ∗ x.

(ii) (M, ∗) heißt eine assoziative algebraische Struktur, falls

∀x, y, z ∈M : (x ∗ y) ∗ z = x ∗ (y ∗ z).

Mit dem Wissen aus der Schule sehen wir, dass z.B. (Z,+) und (R, ·) kom-mutative und assoziative algebraische Strukturen sind.

25

Definition 2.19. Sei (M, ∗) eine algebraische Struktur. Dann heißt e ∈ Mneutrales Element, falls

∀x ∈M : x ∗ e = e ∗ x = x.

Fur (N,+) ist 0 ein neutrales Element. Fur (Z, ·) ist 1 ein neutrales Element.Sei X eine nichtleere Menge. Auf der algebraischen Struktur (P(X),∪) ist ∅ein neutrales Element. Welches Element von P(X) ist ein neutrales Elementvon (P(X),∩)?

Bemerkung: Falls eine algebraische Struktur (M, ∗) ein neutrales Elementbesitzt, dann ist dies eindeutig.

Beweis: Seien e1 und e2 neutrale Elemente von (M, ∗). Dann gilt

e1 = e1 ∗ e2 = e2.

Die erste Gleichung gilt, da e2 ein neutrales Element ist. Die zweite Gleichunggilt, da e1 ein neutrales Element ist. 2

Definition 2.20. Sei (M, ∗) eine algebraische Struktur.

(i) (M, ∗) heißt eine Halbgruppe, falls (M, ∗) eine assoziative algebrai-sche Struktur ist, d.h. (M, ∗) eine algebraische Struktur ist und es gilt

∀a, b, c ∈M : a ∗ (b ∗ c) = (a ∗ b) ∗ c.

(ii) (M, ∗) heißt Monoid, falls (M, ∗) eine Halbgruppe mit einem neutralenElement ist.

(iii) (M, ∗) heißt eine kommutative Halbgruppe, falls (M, ∗) eine Halb-gruppe und ∗ kommutativ auf M ist, d.h.

∀a, b ∈M : a ∗ b = b ∗ a.

(iv) (M, ∗) heißt ein kommutatives Monoid, falls (M, ∗) ein Monoidund ∗ kommutativ auf M ist.

Beispiele: (N, ·) und (R,+) sind kommutative Halbgruppen und Monoide.

Definition 2.21. Sei (M, ∗) ein Monoid mit dem neutralen Element e. Dannheißt x ∈M invertierbar, falls es ein y ∈M gibt, so dass

x ∗ y = y ∗ x = e.

Die Menge der invertierbaren Elemente von M nennen wir M∗.

26

Bemerkung 2.22. Sei (M, ∗) ein Monoid mit dem neutralen Element e undx ∈M invertierbar. Dann existiert genau ein y ∈M mit x ∗ y = y ∗ x = e.

Beweis: Seien y1, y2 ∈M mit

x ∗ y1 = y1 ∗ x = e ∧ x ∗ y2 = y2 ∗ x = e.

Dann gilt

y1 = y1 ∗ e = y1 ∗ (x ∗ y2) = (y1 ∗ x) ∗ y2 = e ∗ y2 = y2.

2

Daher konnen wir dieses eindeutig bestimmte y auch mit x−1 bezeichnen.Wir nennen x−1 das inverse Element zu x.

Beispiele: (N,+) besitzt nur das invertierbare Element 0. Dafur sind alleElemente von (Z,+) invertierbar, denn fur x ∈ Z ist −x ∈ Z das inverseElement. Das inverse Element von x ∈ Q\0 fur (Q, ·) ist gleich 1

x. Null ist

kein invertierbares Element von (Q, ·).Es gelten folgende (leicht nachprufbare) Eigenschaften fur M∗ fur Monoide(M, ∗):

1. e ∈M∗,

2. x, y ∈M∗ ⇒ x ∗ y ∈M∗,

3. x ∈M∗ ⇒ x−1 ∈M∗.

2.3 Gruppen

Definition 2.23. Ein Monoid (M, ∗) heißt Gruppe, falls M = M∗

Bemerkung: Um zu zeigen, dass (M, ∗) eine Gruppe ist, muss man alsofolgende 4 Eigenschaften nachweisen:

(i) ∀x, y ∈M : x ∗ y ∈M (Verknupfung)

(ii) ∀x, y, z ∈M : (x ∗ y) ∗ z = x ∗ (y ∗ z) (Assoziativitat)

(iii) ∃ e ∈M : ∀x ∈M : e ∗ x = x ∗ e = x (neutrales Element)

(iv) ∀x ∈M ∃ y ∈M : y ∗ x = x ∗ y = e (inverses Element)

Definition 2.24. Eine Gruppe (M, ∗) heißt abelsche Gruppe, falls sie einekommutative Gruppe ist.

27

Beispiele:(Z,+) sowie (Q\0, ·) sind abelsche Gruppen. Aber (Z, ·) ist z.B. keineGruppe, da es nicht zu jedem Element ein inverses Element gibt.Man kann endliche Gruppen (d.h. Gruppen mit endlich vielen Elementen)auch einfach durch ihre Verknupfungstabelle angeben. So ist beispielsweise(M, ∗) mit M = e, a und

* e ae e aa a e

eine Gruppe. Diese ist sogar eine abelsche Gruppe.

Bemerkung: Man nennt eine Gruppe (M,+) eine additive Gruppe. Ent-sprechend nennt man eine Gruppe (M, ·) eine multiplikative Gruppe.

Definition 2.25. Sei (M, ∗) eine algebraische Struktur.

• e ∈M heißt linksneutrales Element, falls ∀x ∈M : e ∗ x = x.

• e ∈M heißt rechtsneutrales Element, falls ∀x ∈M : x ∗ e = x.

Sei x ∈M .

• y ∈M heißt linksinverses Element von x, falls y ∗ x = e.

• y ∈M heißt rechtsinverses Element von x, falls x ∗ y = e.

Lemma 2.26. Sei (M, ∗) ist eine Gruppe. Dann gilt:

(i) Jedes linksneutrale Element ist gleich dem neutralen Element.

(ii) Jedes rechtsneutrale Element ist gleich dem neutralen Element.

(iii) Jedes linksinverse Element ist gleich dem inversen Element.

(iv) Jedes rechtsinverse Element ist gleich dem inversen Element.

Beweis: Wir zeigen (i) und (iii). Die Aussagen (ii) und (iv) folgen analog.

(i) Sei e ∈ M das neutrale Element und e1 ∈ M ein beliebiges linksneu-trales Element. Dann gilt (da e neutral und e1 linksneutral), dass

e1 = e1 ∗ e = e.

28

(iii) Sei y ∈M das inverse Element von x und y1 ein beliebiges linksinversesElement von x. Dann gilt

y1 = y1 ∗ e = y1 ∗ (x ∗ y) = (y1 ∗ x) ∗ y = e ∗ y = y.

2

Satz 2.27. Sei (M, ∗) eine algebraische Struktur. Dann sind folgende Bedin-gungen aquivalent:

(i) (M, ∗) ist eine Gruppe.

(ii) (M, ∗) ist eine Halbgruppe mit einem linksneutralen Element e und derEigenschaft, dass

∀x ∈M ∃ y ∈M : y ∗ x = e (linksinverses Element)

(iii) (M, ∗) ist eine Halbgruppe mit einem rechtsneutralen Element e undder Eigenschaft, dass

∀x ∈M ∃ y ∈M : x ∗ y = e (rechtsinverses Element)

Beweis: Wir zeigen, dass (i) ↔ (ii) gilt. Die Aquivalenz (i) ↔ (iii) folgtauf analoge Weise.(i)→ (ii) ist trivial nach Definition einer Gruppe.(ii) → (i) Es genugt zu zeigen, dass e auch ein rechtsneutrales Element istund dass zu jedem Element von M ein rechtsinverses Element existiert.

Sei x ∈M beliebig und y ∈M ein linksinverses Element von x. Sei außerdemz ein linksinverses Element von y. Dann erhalten wir

x = e ∗ x = (z ∗ y) ∗ x = z ∗ (y ∗ x) = z ∗ e

und somit

x ∗ e = (z ∗ e) ∗ e = z ∗ (e ∗ e) = z ∗ e = x,

d.h. e ist rechtsneutral. Außerdem folgt, dass

x ∗ y = (z ∗ e) ∗ y = z ∗ (e ∗ y) = z ∗ y = e,

d.h. das linksinverse Element y von x ist auch rechtinvers. 2

29

Satz 2.28. Sei (M, ∗) eine algebraische Struktur. Dann sind folgende Bedin-gungen aquivalent:

(i) (M, ∗) ist eine Gruppe.

(ii) (M, ∗) ist eine Halbgruppe und es existieren fur alle a, b ∈M Elementex, y ∈M , so dass

a ∗ x = b und y ∗ a = b.

Beweis: (i) → (ii) Seien a, b ∈ M gegeben. Dann gilt fur x := a−1 ∗ b undy := b ∗ a−1, dass

a ∗ x = a ∗ (a−1 ∗ b) = (a ∗ a−1) ∗ b = e ∗ b = b

undy ∗ a = (b ∗ a−1) ∗ a = b ∗ (a−1 ∗ a) = b ∗ e = b.

(ii) → (i) Nach Satz 2.27 genugt es zu zeigen, dass die Halbgruppe einlinksneutrales Element und fur alle x ∈M ein linksinverses Element besitzt.Sei a ∈ M fest. Dann existiert ein e ∈ M , so dass e ∗ a = a. Sei nun z ∈ Mbeliebig. Dann existiert ein x ∈M , so dass a ∗ x = z. Damit gilt

e ∗ z = e ∗ (a ∗ x) = (e ∗ a) ∗ x = a ∗ x = z

fur alle z ∈ M , d.h. e ist linksneutrales Element. Die Existenz eines links-inversen Elementes fur x ∈ M folgt unmittelbar aus der Voraussetzung mita := x und b := e. 2

Wir wollen nun noch eine spezielle abelsche Gruppe betrachten, die in derZahlentheorie eine große Rolle spielt: die zyklische Gruppe Z/nZ mit n ∈ N.Diese ist wie folgt definiert:

M := [r] | r ∈ Z,

wobei [r] := z ∈ Z | ∃k ∈ Z : z = r + k · n. Offenbar gehoren zu [r] alleZahlen z ∈ Z, fur die z− r durch n teilbar ist. Fur jedes r ∈ Z ist die Menge[r] eine Aquivalenzklasse zur Aquivalenzrelation ∼, definiert durch

x ∼ yDef⇔ n ist ein Teiler von x− y.

Damit wird klar, dass

M = [0], [1], ..., [n− 1],

30

wobei fur r ∈ 0, 1, 2, ..., n − 1 die Aquivalenzklasse [r] die Menge allerganzen Zahlen ist, die bei Division durch n den Rest r lassen. Man bezeichnetdie Mengen [r] daher als Restklassen und den Reprasentanten r als Rest. DieVerknupfung ∗ wird mit + bezeichnet und ist definiert als

∀x, y ∈ Z : [x] + [y] := [x+ y].

Damit diese Definition wohldefiniert ist, mussen wir zeigen, dass sie un-abhangig von der Wahl der Reprasentanten ist, d.h. ∀x1, x2, y1, y2 ∈ Z :

Wenn [x1] = [x2] und [y1] = [y2], dann [x1 + y1] = [x2 + y2].

Seien x1, x2, y1, y2 ∈ Z mit [x1] = [x2] und [y1] = [y2]. Dann existieren k, ` ∈Z, so dass

x1 − x2 = k · n und y1 − y2 = ` · n.

Somit erhalten wir

(x1 + y1)− (x2 + y2) = (x1 − x2) + (y1 − y2) = k · n− ` · n = (k − `) · n,

d.h. [x1 + y1] = [x2 + y2].

Zur Veranschaulichung der Verknupfung + in Z/nZ geben wir hier die Ver-knupfungstabelle von Z/4Z an:

+ [0] [1] [2] [3]

[0] [0] [1] [2] [3][1] [1] [2] [3] [0][2] [2] [3] [0] [1][3] [3] [0] [1] [2]

Definition 2.29. Sei (M, ∗) eine Gruppe. (N, ∗) heißt Untergruppe von(M, ∗), falls N ⊆ M und (N, ∗) eine Gruppe mit der Verknupfung ∗ vonM ist.

Satz 2.30. Sei (M, ∗) eine Gruppe und N ⊆M . Dann sind folgende Bedin-gungen aquivalent.

(i) (N, ∗) ist eine Untergruppe von (M, ∗).

(ii) ∀x, y ∈ N : x ∗ y−1 ∈ N .

Beweis: Fur N = ∅ ist die Behauptung sofort klar. Sei nun N 6= ∅.

31

(i)→ (ii) Seien x, y ∈ N . Dann ist auch y−1 ∈ N und somit x ∗ y−1 ∈ N .

(ii)→ (i) Die Assoziativitat ist klar, da ∗ auf M assoziativ ist. Wir mussennoch zeigen, dass

(a) ∀x, y ∈ N : x ∗ y ∈ N(b) e ∈ N(c) ∀x ∈ N : x−1 ∈ N

zu (b): Fur x = e und y = e erhalten wir e = e ∗ e−1 ∈ N .

zu (c): Sei y ∈ N . Dann gilt mit (b) und x = e auch y−1 = e∗y−1 ∈ N .

zu (a): Seien x, y ∈ N . Dann gilt mit (c) auch x∗y = x∗(y−1)−1 ∈ N .

2

Definition 2.31. Sei (M, ∗) eine Gruppe und L ⊆M . Dann heißt (H(L), ∗)die von L erzeugte Untergruppe von (M, ∗), falls

H(L) =⋂

L⊆N⊆M(N,∗) Untergruppe von (M,∗)

N.

Satz 2.32. Sei (M, ∗) eine Gruppe und L ⊆M . Dann gilt:

(i) (H(L), ∗) ist eine Untergruppe von (M, ∗).

(ii) L ⊆ H(L)

(iii) Falls L1 ⊆ L2 ⊆M , dann gilt H(L1) ⊆ H(L2).

(iv) (H(L), ∗) ist die kleinste Untergruppe (N, ∗) von (M, ∗) mit L ⊆ N .

Beweis:

(i) Ubungsaufgabe

(ii) Sei x ∈ L beliebig. Dann gilt fur alle N mit L ⊆ N auch x ∈ Nund somit liegt x auch im Durchschnitt aller N , fur die (N, ∗) eineUntergruppe von (M, ∗) ist, d.h. x ∈ H(L).

(iii) Sei L1 ⊆ L2 ⊆ M . Dann gilt fur jede Untergruppe (N, ∗) von (M, ∗)mit L2 ⊆ N auch L1 ⊆ N . Somit folgt

H(L1) =⋂

L1⊆N⊆M(N,∗) Untergruppe von (M,∗)

N ⊆⋂

L2⊆N⊆M(N,∗) Untergruppe von (M,∗)

N = H(L2).

32

(iv) Sei (N , ∗) die kleinste Untergruppe von (M, ∗) mit L ⊆ N .

Wir zeigen zuerst, dass H(L) ⊆ N . Sei dazu x ∈ H(L) beliebig. NachDefinition von H(L) liegt x im Durchschnitt aller Untergruppen von(M, ∗) mit L ⊆ N und gehort somit auch zur kleinsten Untergruppe(N , ∗).Nun zeigen wir noch, dass N ⊆ H(L). Sei x ∈ N und (N, ∗) einebeliebige Untergruppe von (M, ∗) mit L ⊆ N . Da (N , ∗) die kleinsteUntergruppe von (M, ∗) ist, so gilt N ⊆ N und somit x ∈ N . Da Nbeliebig war, so gehort x zu allen Untergruppen (N, ∗) mit L ⊆ N , d.h.x ∈ H(L).

2

Beispiele: Sei (M, ∗) = (Q,+). Dann gilt (H(1),+) = (Z,+). Es gilt auch(H(1, 2),+) = (Z,+), aber mit (H(2),+) erhalt man nur die geradenganzen Zahlen.

Definition 2.33. Sei (M, ∗) ein Gruppe. Eine Menge L heißt Erzeugenden-system von M , falls M = H(L).

2.4 Ringe und Korper

Definition 2.34. Ein Tripel (R,+, ·) heißt Ring, falls + und · Verknupfungenauf R sind und folgende drei Eigenschaften erfullt sind.

(i) (R,+) ist eine abelsche Gruppe.

(ii) (R, ·) ist eine Halbgruppe.

(iii) Es gelten die Distributivgesetze: Fur alle a, b, c ∈ R gilt:

(a+ b) · c = a · c+ b · c ∧ c · (a+ b) = c · a+ c · b.

Ein Ring (R,+, ·) heißt kommutativ, falls (R, ·) eine kommutative Halb-gruppe ist.

Ein Ring (R,+, ·) heißt Ring mit Einselement 1, falls (R, ·) ein Monoidmit dem neutralen Element 1 ist.

Das neutrale Element von (R,+) wird Nullelement (0) genannt.

Beispiele: Folgende Tripel sind Ringe:

• (Z,+, ·), (Q,+, ·), (R,+, ·) (mit Einselement 1)

33

• (R,+, ·) mit R = 0 und 0 + 0 = 0 und 0 · 0 = 0 (mit Einselement =Nullelement = 0)

• (R,+, ·), wobei (R,+) eine abelsche Gruppe ist und fur alle x, y ∈ Rgilt: x · y = 0 (ohne Einselement, falls R mindestens zwei verschiedeneElemente besitzt)

• (R,+, ·), wobei R = f : R→ R und fur alle x ∈ R

(f + g)(x) := f(x) + g(x) ∧ (f · g)(x) := f(x) · g(x)

(mit Einselement f1 ≡ 1, d.h. ∀x ∈ R: f1(x) = 1)

• (R,+, ·), wobei R = Z/nZ und fur alle [r], [s] ∈ R:

[r] + [s] = [r + s] ∧ [r] · [s] = [r · s]

(mit Einselement [1])

All diese Ringe sind auch kommutative Ringe. Es gibt aber auch nicht-kommutative Ringe, z.B. (Z× Z,+, ·) mit

(a1, a2) + (b1, b2) := (a1 + b1, a2 + b2)

(a1, a2) · (b1, b2) := (a1 · b1, a1 · b2).

In diesem Ring gilt (1, 0) · (1, 1) = (1, 1), aber (1, 1) · (1, 0) = (1, 0).

Bemerkung: Sei (R,+, ·) ein Ring und 0 das Nullelement. Dann gilt furalle a ∈ R, dass

a · 0 = 0 · a = 0.

Beweis: Sei x := a · 0. Es gilt nach dem Distributivgesetz, dass

x = a · 0 = a · (0 + 0) = a · 0 + a · 0 = x+ x.

Sei −x das zu x inverse Element bezuglich der Verknupfung +. Dann gilt

x+ (−x) = x+ x+ (−x), d.h. 0 = x+ 0 = x,

also a · 0 = x = 0. Analog zeigt man, dass 0 · a = 0 gilt. 2

Darauf aufbauend kann man leicht folgende Rechenregeln beweisen.

Satz 2.35. Sei (R,+, ·) ein Ring. Dann gilt fur alle a, b ∈ R und fur allem,n ∈ Z, dass

34

(i) a · (−b) = (−a) · b = −(a · b)

(ii) (−a) · (−b) = a · b

(iii) (m+Z n) ∗ a = m ∗ a+ n ∗ a, wobei

m ∗ a :=

a+ a+ ...+ a︸ ︷︷ ︸m−mal

, falls m > 0

0, falls m = 0

−(a+ a+ ...+ a︸ ︷︷ ︸)(−m)−mal

, falls m < 0

(iv) m ∗ (a+ b) = m ∗ a+m ∗ b

(v) (m ·Z n) ∗ a = m ∗ (n ∗ a)

Definition 2.36. Sei (R,+, ·) ein Ring. Dann heißt a ∈ R Nullteiler, fallsa 6= 0 und ein b ∈ R mit b 6= 0 existiert, so dass b · a = 0.Der Ring heißt nullteilerfrei, falls es keine Nullteiler in R gibt.

Bemerkung: Ein Ring (R,+, ·) ist genau dann nullteilerfrei, wenn aus a·b =0 mit a, b ∈ R folgt, dass a = 0 oder b = 0.

Beispiele:

• Die Ringe (Z,+, ·), (Q,+, ·) und (R,+, ·) sind nullteilerfrei.

• Der Ring (Z/4Z,+, ·) hat den Nullteiler [2], denn [2] · [2] = [4] = [0].

• Der Ring (Z/nZ,+, ·) ist fur n ∈ N genau dann nullteilerfrei, wenn neine Primzahl ist.

Begrundung: Falls n keine Primzahl ist, dann existieren naturliche Zah-len a und b mit 1 < a < n und 1 < b < n, so dass n = a · b. Dahergilt [a] · [b] = [n] = [0], d.h. [a] und [b] sind Nullteiler von (Z/nZ,+, ·).Falls n eine Primzahl ist und fur [a], [b] ∈ Z/nZ gilt [a] · [b] = [0], dannhaben wir [a ·b] = [0], d.h. ∃k ∈ N : a ·b = k ·n. Da n eine Primzahl ist,so ist n ein Teiler von a oder ein Teiler von b, d.h. [a] = 0 oder [b] = 0.

Definition 2.37. (K,+, ·) heißt Korper, falls folgende Eigenschaften erfulltsind.

(i) (K,+) ist eine abelsche Gruppe.

35

(ii) (K\0, ·) ist eine abelsche Gruppe, wobei 0 das neutrale Element von(K,+) ist.

(iii) Es gelten die Distributivgesetze.

Bemerkung: Wenn (K,+, ·) ein Korper und klar ist, was mit Addition undMultiplikation gemeint ist, dann sagt man auch einfach, dass K ein Korperist.

Beispiele:

• (Q,+, ·) und (R,+, ·) sind Korper.

• (Z/nZ,+, ·) ist genau dann ein Korper, falls n eine Primzahl ist.

• (C,+, ·) ist ein Korper mit der Addition, definiert durch

∀a1, a2, b1, b2 ∈ R : (a1 + b1i) + (a2 + b2i) := (a1 + a2) + (b1 + b2)i

und der Multiplikation, definiert durch

∀a1, a2, b1, b2 ∈ R : (a1+b1i)·(a2+b2i) := (a1·a2−b1·b2)+(a1·b2+b1·a2)i.

Bemerkung:

1. Sei a ∈ R. Dann identifiziert man jede komplexe Zahl der Form a+ 0imit der reellen Zahl a, d.h. a+ 0i = a. Somit ist R ⊆ C.

2. Sei b ∈ R. Dann nennt man jede komplexe Zahl der Form 0 + bi reinimaginar und schreibt kurz bi, d.h. 0 + bi = bi.

3. Aufgrund der Definition der Multiplikation erhalten wir

i2 = i · i = (0 + 1i) · (0 + 1i)

= (0 · 0− 1 · 1) + (0 · 1 + 1 · 0) = −1 + 0i = −1.

4. Die Multiplikation lasst sich leicht wie folgt merken: Man merke sichi2 = −1 und nutze die Distributivgesetze. Beispiel:

(3 + 2i) · (5 + 6i) = 3 · 5 + 3 · 6i+ 2i · 5 + 2i · 6i= 15 + 18i+ 10i− 12 = 3 + 28i

36

5. Fur z = a + bi ∈ C mit a, b ∈ R hat z := a − bi folgende schoneEigenschaften:

z + z = 2a ∈ R ∧ z · z = a2 + b2 ∈ R,

denn z + z = (a+ bi) + (a− bi) = (a+ a) + (b− b)i = 2a und

z · z = (a+ bi) · (a− bi)= (a2 − b2 · (−1)) + (ab− ba)i = a2 + b2.

Man nennt z die zu z konjugiert komplexe Zahl.

Definition 2.38. Die Charakteristik eines Korpers (K,+, ·) ist definiert als

char(K) =

0, falls n ∗ 1 6= 0 ∀n ∈ N\0minn ∈ N\0 | n ∗ 1 = 0, sonst.

Mit n ∗ 1 ist die n-fache Addition der Eins gemeint, d.h.

n ∗ 1 =

1 + 1 + ...+ 1︸ ︷︷ ︸n−mal

, falls n > 0

0, falls n = 0.

Beispiel: Q, R und C haben die Charakteristik 0. Z/pZ hat die Charakte-ristik p, falls p eine Primzahl ist.

Ein wichtiger Ring ist der sogenannte Polynomring (K[x],+, ·) uber KorpernK. Dazu sei ein Korper K und eine formale Variable x gegeben. Dann heißtf ein Polynom mit Koeffizienten aus K, falls

f [x] = a0 + a1x+ a2x2 + ...+ anx

n mit a0, a1, ..., an ∈ K.

Falls alle Koeffizienten gleich Null sind, so spricht man vom Nullpolynomund schreibt f = 0.

Der Grad eines Polynoms deg(f) ist definiert als

deg(f) =

−∞, falls f = 0

maxk ∈ N| ak 6= 0, sonst.

Die Menge aller solchen Polynome bezeichnen wir mit K[x].

(K[x],+, ·) ist ein Ring mit folgender Addition und Multiplikation:

37

Fur f [x] = a0 +a1x+ ...+anxn ∈ K[x] und g[x] = b0 +b1x+ ...+bmx

m ∈ K[x]sei

(f + g)[x] := (a0 + b0) + (a1 + b1)x+ ...+ (ak + bk)xk,

wobei k := maxm,n und an+1 = ... = am = 0 im Falle n < m sowiebm+1 = ... = bn = 0 im Falle n > m. Zudem definieren wir

(f · g)[x] = c0 + c1x+ ...+ c`x`,

wobei ` = m+ n und

∀ k ∈ 0, 1, ..., ` : ck :=∑

(i,j)∈Ik

ai · bj

mit Ik := (i, j) ∈ N | 0 ≤ i ≤ n ∧ 0 ≤ j ≤ m ∧ i+ j = k.

Beispiel: Sei K := R, f(x) := 1 + 2x+ 3x2 und g(x) := 4 + 5x. Dann gilt

f [x] + g[x] = (1 + 2x+ 3x2) + (4 + 5x) = 5 + 7x+ 3x2

und

f [x] · g[x] = (1 + 2x+ 3x2) · (4 + 5x) = 4 + 13x+ 22x2 + 15x3

Definition 2.39. Sei (K,+, ·) ein Korper. Dann heißt G ein Unterkorpervon K, falls G ⊆ K und folgende Eigenschaften gelten:

(i) ∀a, b ∈ G : a+ b ∈ G (Abgeschlossenheit der Addition)

(ii) ∀a, b ∈ G : a · b ∈ G (Abgeschlossenheit der Multiplikation)

(iii) 1 ∈ G, wobei 1 das Einselement von K ist.

(iv) ∀a ∈ G : −a ∈ G, wobei −a das inverse Element von a bezuglich derAddition ist.

(v) ∀a ∈ G\0 : a−1 ∈ G, wobei a−1 das inverse Element von a bezuglichder Multiplikation ist.

Beispiel: R ist ein Unterkorper von C.

38

2.5 Vektorraume

Einer der zentralen Begriffe der linearen Algebra ist der Begriff des Vektor-raums. Wir geben hier zunachst die abstrakte Definition eines Vektorraumsan. Im Laufe der Vorlesung werden wir eine ganze Reihe von Beispielen furVektorraume kennenlernen und spater auch erkennen, wie diese Definitionmit der geometrischen Anschauung (Raum von Vektoren) zusammenhangt.

Definition 2.40. Sei (K,+K , ·K) ein Korper und (V,+V ) eine abelsche Grup-pe. Dann heißt das Tripel (K,V, ·) ein Vektorraum, falls

(i) die Multiplikation · eine Abbildung von K × V nach V definiert, d.h.∀ a ∈ K ∀ v ∈ V : a · v ∈ V , wobei a · v eindeutig definiert ist.

(ii) die Multiplikation · erfullt folgende Eigenschaften:∀ a, b ∈ K ∀ v, w ∈ V :

(V1) 1 · v = v, wobei 1 das Einselement des Korpers K ist.

(V2) (a+K b) · v = a · v +V b · v(V3) a · (v +V w) = a · v +V a · w(V4) (a ·K b) · v = a · (b · v)

Die Elemente aus K nennen wir Skalare. Die Elemente von V nennen wirVektoren. Die Multiplikation · bezeichnet man als skalare Multiplikationoder Multiplikation mit einem Skalar.Wenn klar ist, was mit der skalaren Multiplikation gemeint ist, dann sagtman auch einfach, dass V ein K-Vektorraum ist.Wenn klar ist, welcher Korper K und was mit der skalaren Multiplikationgemeint ist, dann sagt man einfach nur, dass V ein Vektorraum ist.

Beispiele: Sei K ein Korper.

1. (K,V, ·) mit V = K ist stets ein K-Vektorraum.

2. (K,V, ·) mit V = Kn = K ×K × ...×K︸ ︷︷ ︸n−mal

ist ein K-Vektorraum. Die

Addition von zwei Vektoren v, w aus Kn ist dabei definiert als

(v1, v2, ..., vn) + (w1, w2, ..., wn) := (v1 + w1, v2 + w2, ..., vn + wn).

Die Multiplikation mit einem Skalar a ∈ K ist definiert als

a · (v1, v2, ..., vn) := (a ·K v1, a ·K v2, ..., a ·K vn).

39

3. Q, R, C, Qn, Rn, Cn sind somit Vektorraume.

4. (K,K[x], ·) mit dem Polynomring K[x] und der skalaren Multiplikation

c · (a0 + a1x+ ...+ anxn) = (c ·K a0) + (c ·K a1)x+ ...+ (c ·K an)xn

fur c ∈ K ist ein K-Vektorraum.

Es gelten folgende Rechenregeln in einem Vektorraum.

Satz 2.41. Sei (K,V, ·) ein Vektorraum. Sei 0 das Nullelement von K undO der Nullvektor, d.h. das neutrale Element von (V,+V ). Dann gilt fur allea ∈ K und v ∈ V , dass

(i) a · O = O

(ii) 0 · v = O

(iii) Falls a · v = O, dann gilt a = 0 oder v = O.

(iv) (−1) ·v = −v, wobei −v das zu v inverse Element bzgl. +V und −1 daszu 1 inverse Element bzgl. +K.

Beweis: Sei a ∈ K und v ∈ V .

(i) Fur w := a · O gilt

w = a · O = a · (O +V O)(V 3)= a · O +V a · O = w +V w

und somit

O = w +V (−w) = w +V w +V (−w) = w +V O = w.

(ii) Fur w := 0 · v gilt

w = 0 · v = (0 +K 0) · v (V 2)= 0 · v +V 0 · v = w +V w

und damit auch wieder O = w.

(iii) Sei a · v = O. Falls a 6= 0, dann existiert ein a−1 ∈ K, so dass

v(V 1)= 1 · v = (a−1 ·K a) · v (V 4)

= a−1 · (a · v) = a−1 · O (i)= O.

40

(iv) Es gilt

v +V (−1) · v (V 1)= 1 · v +V (−1) · v (V 2)

= (1 +K (−1)) · v = 0 · v (ii)= O.

Damit ist nachgewiesen, dass (−1) · v = −v. 2

Definition 2.42. Sei (K,V, ·) ein Vektorraum und W ⊆ V mit W 6= ∅. Dannheißt (K,W, ·) ein Untervektorraum oder Unterraum von (K,V, ·), falls

(i) ∀v, w ∈ W : v +V w ∈ W .

(ii) ∀a ∈ K ∀v ∈ W : a · v ∈ W .

Bemerkung: Wenn klar ist, was die skalare Multiplikation ist, dann sagtman auch kurz K-Unterraum. Wenn zudem klar ist, welcher Korper K ge-meint ist, dann spricht mach auch einfach vom Unterraum.

Satz 2.43. Sei (K,V, ·) ein Vektorraum und (K,W, ·) ein Untervektorraumvon (K,V, ·). Dann ist (K,W, ·) selbst wieder ein Vektorraum.

Beweis:

1. (W,+) ist Untergruppe von (V,+):Nach dem Satz 2.30 fur Untergruppen brauchen wir nur zu zeigen, dassv+(−w) ∈ W fur alle v, w ∈ W . Seien nun v, w ∈ W . Dann haben wir,dass −w = (−1) · w ∈ W wegen (ii) und somit auch v + (−w) ∈ Wwegen (i).

2. ∀a ∈ K ∀v ∈ W : a · v ∈ W wegen (ii).

3. Die Eigenschaften (V 1)− (V 4) sind erfullt fur alle a, b ∈ K und v, w ∈W , da W ⊆ V und (K,V, ·) ein Vektorraum ist.

2

Beispiele:

1. W = w = (0, a2, a3, ..., an) | a2, ..., an ∈ K, wobei K ein Korper ist,ist ein K-Unterraum von Kn.

2. Der Durchschnitt W1 ∩ W2 zweier K-Unterraume ist wieder ein K-Unterraum. Dies gilt auch, wenn wir den Durchschnitt beliebig vielerUnterraume betrachten.

41

3. Die Vereinigung W1∪W2 zweier K-Unterraume ist im allgemeinen keinK-Unterraum. Als Beispiel betrachte man die R-Unterraume

W1 = (a1, 0) | a1 ∈ R und W2 = (0, a2) | a2 ∈ R des R2.

Falls a1 6= 0 und a2 6= 0, so gilt (a1, 0) + (0, a2) = (a1, a2) /∈ W1 ∪W2.

4. Die SummeW1+W2 zweierK-Unterraume ist wieder einK-Unterraum.Sie ist definiert als

W1 +W2 = w = w1 + w2 | w1 ∈ W1 ∧ w2 ∈ W2.

Man spricht von einer direkten Summe W1 ⊕W2, falls zudem nochgilt, dass W1 ∩W2 = O, wobei O der Nullvektor von V ist. Betrachtenwir wieder die R-Unterraume

W1 = (a1, 0) | a1 ∈ R und W2 = (0, a2) | a2 ∈ R des R2.

Dann gilt W1 ⊕W2 = R2.

5. Die Menge aller Polynome mit Koeffizienten in R bildet einen Unter-raum von dem Vektorraum V aller Funktionen/Abbildungen von Rnach R mit der Addition

(f + g)(x) = f(x) + g(x) ∀x ∈ R

und der skalaren Multiplikation

(c · f)(x) = c · f(x) ∀ c ∈ R ∀x ∈ R.

2.6 Linearkombinationen, lineare Unabhangigkeit, Er-zeugendensystem

Wir kommen nun zu einem Konzept, mit dem wir aus Teilmengen geeigneteUnterraume erzeugen konnen.

Zur Verkurzung der Schreibweise ist im folgenden mit dem Symbol + ineinem Vektorraum (K,V, ·) stets die Addition +V in V gemeint.

Definition 2.44. Sei (K,V, ·) ein Vektorraum und seien v1, v2, ..., vn Vek-toren aus V . Dann heißt v eine Linearkombination der Vektoren v1, v2,..., vn, falls es Skalare a1, a2, ..., an ∈ K gibt, so dass

v = a1 · v1 + a2 · v2 + ...+ an · vn.

42

Beispiel: Seien v1 = (1, 0, 2) und (1, 3, 3) Vektoren im R3. Dann ist v =(1, 6, 4) eine Linearkombination von v1 und v2, da

v = (−1) · (1, 0, 2) + 2 · (1, 3, 3) = (−1, 0,−2) + (2, 6, 6) = (1, 6, 4).

Satz 2.45. Sei V ein Vektorraum und U ⊆ V mit U 6= ∅. Dann bildet dieMenge aller endlichen Linearkombinationen

L(U) := v =n∑

i=1

ai · ui | ai ∈ K, ui ∈ U

einen Unterraum von V .

In der Literatur findet man anstelle der Schreibweise L(U) auch span(U).Man meint damit, dass der Raum span(U) von den Vektoren aus U aufge-spannt wird.

Bemerkung 2.46. Da u = 1 ·u ∈ U fur alle Vektoren u ∈ U , so wissen wir,dass U ⊆ L(U).

Beweis: (von Satz 2.45) Da V ein Vektorraum ist, so gehoren alle Vektorenvi := ai ·ui mit ai ∈ K und ui ∈ V wieder zu V und damit gehort auch derenSumme

v =n∑

i=1

vi =n∑

i=1

ai · ui

wieder zu V . Somit gilt L(U) ⊆ V . Da U 6= ∅, so ist auch L(U) 6= ∅. Esbleibt zu zeigen, dass

(i) ∀v, w ∈ L(U) : v + w ∈ L(U).

(ii) ∀c ∈ K ∀v ∈ L(U) : c · v ∈ L(U).

(i) Seien v, w ∈ L(U). Dann gilt

v =n∑

i=1

ai · vi und w =m∑j=1

bj · wj,

wobei ai, bj ∈ K und vi, wj ∈ U fur alle i = 1, .., n und j = 1, ...,m.Somit haben wir

v + w =n∑

i=1

ai · vi +m∑j=1

bj · wj =n+m∑k=1

ck · uk ∈ L(U),

wobei ck = ak und uk = vk fur alle 1 ≤ k ≤ n sowie cn+k = bk unduk+n = wk fur alle 1 ≤ k ≤ m.

43

(ii) Seien c ∈ K und v ∈ L(U). Dann gilt

v =n∑

i=1

ai · ui mit ai ∈ K

und weiter

c · v = cn∑

i=1

ai · ui(V 2)=

n∑i=1

c · (ai · ui)(V 4)=

n∑i=1

(c ·K ai) · ui ∈ V,

da c ·K ai ∈ K fur alle i = 1, ..., n.

2

Beispiel: Sei V = R3 und U1 = (1, 0, 0), (0, 1, 0). Dann gilt

L(U1) = (a1, a2, 0) | a1, a2 ∈ R.

Es gilt ubrigens auch

L(U2) = (a1, a2, 0) | a1, a2 ∈ R.

fur U2 := (1, 1, 0), (0, 1, 0).

Bemerkung 2.47. Sei V ein Vektorraum und U ⊆ V mit U 6= ∅. Dann istL(U) der kleinste Unterraum W von V mit U ⊆ W .

Definition 2.48. Sei V ein Vektorraum und U ⊆ V . Falls, V = L(U), soheißt U ein Erzeugendensystem von V .

Beispiele:

1. R2 = L((1, 0), (0, 1), R3 = L((1, 0, 0), (0, 1, 0), (0, 0, 1)

2. V = Kn und U = e1, e2, ..., en, wobei

ei = (0, ..., 0, 1i, 0, ..., 0)

fur alle i = 1, ..., n. Dabei ist 0 das Nullelement von K und 1 dasEinselement von K. Die Vektoren ei nennt man Einheitsvektoren.

3. Falls V ein Vektorraum ist, dann ist V = L(V ).

4. Falls U1 ein Erzeugendensystem von V ist und U1 ⊆ U2 ⊆ V , dann istU2 auch ein Erzeugendensystem von V .

44

Definition 2.49. Sei V ein Vektorraum und U = u1, ..., un ⊆ V . DieTeilmenge U heißt linear unabhangig, falls aus

n∑i=1

ai · ui = O, ai ∈ K

folgt, dass ai = 0 fur alle i = 1, ..., n. Andernfalls heißt sie linear abhangig.

Eine unendliche Menge U = ui ∈ V |i ∈ I von Vektoren aus V heißtlinear unabhangig, falls jede endliche Teilmenge von U linear unabhangig ist.Andernfalls heißt sie linear abhangig.

Beispiele:

1. V = R3 und U = (1, 2, 1), (1, 0, 1). Sei

a1 · (1, 2, 1) + a2 · (1, 1, 0) = O = (0, 0, 0).

Dann gilt a1 + a2 = 0, 2a1 + a2 = 0 und a1 = 0, also auch a2 = 0. Alsoist U linear unabhangig.

2. V = Kn und U = e1, e2, ..., en. Falls

n∑i=1

ai · ei = O,

so gilt

(a1, a2, ..., an) =n∑

i=1

ai · (0, ..., 0, 1i, 0, ..., 0) = (0, 0, ..., 0)

und somit ai = 0 fur alle i = 1, ..., n, d.h. U ist linear unabhangig.

Satz 2.50. Sei V ein Vektorraum und U = ui ∈ V |i ∈ I. Dann ist Ulinear unabhangig genau dann, wenn sich jeder Vektor w ∈ L(U) eindeutigals eine Linearkombination von Vektoren aus U darstellen lasst.

Beweis: (→) U ist linear unabhangig. Sei w ∈ L(U) beliebig. Wir nehmenan, dass ∑

i∈I0

ai · ui = w =∑i∈I0

bi · ui, ai, bi ∈ K,

wobei I0 ⊆ I endlich ist. Dann gilt∑i∈I0

(ai − bi) · ui = O.

45

Da U linear unabhangig ist, so gilt ai − bi = 0 fur alle i ∈ I0, d.h. ai = bi furalle i ∈ I0.

(←) Jeder Vektor w ∈ L(U) lasst sich eindeutig als eine Linearkombinationvon Vektoren aus U darstellen. Wir nehmen an, dass∑

i∈I0

ai · ui = O, ai ∈ K,

wobei I0 ⊆ I endlich ist. Dann gilt∑i∈I0

ai · ui = O =∑i∈I0

0 · ui.

Da die Darstellung von O eindeutig ist, so haben wir ai = 0 fur alle i ∈ I0. 2

Wir schauen uns noch einmal die Summe W1 +W2 zweier Unterraume einesVektorraums V an. Sie war definiert als

W1 +W2 = w = w1 + w2 | w1 ∈ W1 ∧ w2 ∈ W2.

Ist die Darstellung w = w1 + w2 eindeutig? Nein, i.a. nicht, denn z.B. fur

V = R3, W1 = (a, b, 0) | a, b ∈ R, W2 = (0, b, c) | b, c ∈ R

gilt(1, 0, 0) + (0, 0, 1) = (1, 0, 1) = (1, 1, 0) + (0,−1, 1).

Doch sie ist eindeutig, falls W1 ∩W2 = O.

Satz 2.51. Seien W1 und W2 Unterraume von V . Die Summendarstellungvon Vektoren aus W1 +W2 ist genau dann eindeutig, wenn W1 ∩W2 = O.

Beweis: (→) Die Summendarstellung ist eindeutig. Wir mussen zeigen, dassW1∩W2 = O. Wir nehmen an, dass es einen Vektor w 6= O mit w ∈ W1∩W2

gibt. Dann gilt w ∈ W1 und w ∈ W2 sowie −w ∈ W2. Damit haben wir

w + (−w) = O = O + O,

d.h. die Summendarstellung ware nicht eindeutig. Widerspruch zur Annah-me.(←) Es gilt W1∩W2 = O. Wir mussen zeigen, dass die Summendarstellungeindeutig ist. Wir nehmen an, dass ein w ∈ W1 +W2 existiert, so dass

w1 + w2 = w = v1 + v2, w1, v1 ∈ W1, w2, v2 ∈ W2.

46

Dann giltw1 + (−v1) = w2 + (−v2) ∈ W1 ∩W2

und somitw1 + (−v1) = w2 + (−v2) = O

Dies bedeutet, dass w1 = v1 und w2 = v2, d.h. die Darstellung von w isteindeutig. 2

Lemma 2.52. Sei V ein K-Vektorraum. Dann gilt

(i) Sei v ∈ V . Dann ist U = v linear abhangig genau dann, wenn v = O.

(ii) Falls O ∈ U ⊆ V . Dann ist U linear abhangig.

(iii) Falls U ⊆ W ⊆ V und U linear abhangig. Dann ist auch W linearabhangig.

(iv) Falls zu U ⊆ V zwei Vektoren v1 und v2 gehoren, fur die v1 = v2 gilt,so ist U linear abhangig.

(v) Sei U = u1, ..., un und n ≥ 2. Dann ist U genau dann linear abhangig,wenn es ein i ∈ 1, ..., n gibt, so dass ui eine Linearkombination derVektoren von U\ui ist.

Beweis:

(i) Sei U = v linear abhangig. Dann existiert ein a ∈ K mit a 6= 0, sodass a · v = O. Dann gilt

a−1 · a · v = a−1 · O = O,

d.h. v = 1 · v = O. Umgekehrt, falls v = O, dann gilt 1 · v = O, d.h.U = v ist linear abhangig.

(ii) Sei O ∈ U ⊆ V . Dann gilt 1 · u = O fur u := O ∈ U , d.h. die endlicheTeilmenge u von U ist linear abhangig und somit ist auch U linearabhangig.

(iii) Da U linear abhangig ist, so existieren u1,..., un ∈ U und a1, ..., an ∈ Kmit

∑ni=1 ai · ui = 0, wobei mindestens ein ai 6= 0. Da U ⊆ W , so gilt

u1,..., un ∈ W mit∑n

i=1 ai · ui = 0, wobei mindestens ein ai 6= 0. D.h.W ist linear abhangig.

47

(iv) Seien v1, v2 ∈ U mit v1 = v2. Dann gilt

1 · v1 + (−1) · v2 = v1 + (−v2) = O,

d.h. U ist linear abhangig.

(v) Sei n ≥ 2 und U = u1, ..., un linear abhangig. Dann existierena1, ..., an ∈ K, von denen mindestens ein Element ungleich 0 ist, sodass

a1 · u1 + ...+ an · un = O.

Sei ai 6= 0. Dann gilt

a−1i · a1 · u1 + ...+ a−1

i · ai · ui + ...+ a−1i · an · un = O.

Somit haben wir

ui =n∑

j=1j 6=i

(−a−1i · aj)︸ ︷︷ ︸∈K

· uj,

d.h. ui ist eine Linearkombination der Vektoren von U\ui. Sei nunumgekehrt ui eine Linearkombination der Vektoren von U\ui. Dannfinden wir Koeffizienten cj ∈ K, so dass

ui =n∑

j=1j 6=i

cj · uj,

Dann giltn∑

j=1

cj · uj = 0,

wobei cj = −1. Da 1 6= 0 ist, so ist auch −1 6= 0 und somit ist U linearabhangig.

2

2.7 Basis

Definition 2.53. Sei V ein K-Vektorraum. Dann heißt U ⊆ V eine Basisvon V , falls U ein Erzeugendensystem von V und linear unabhangig ist.

Beispiele:

48

1. (1, 0), (0, 1) ist eine Basis von R2.(1, 3), (2, 4) ist auch eine Basis von R2.(1, 0, 0), (2, 1, 0), (3, 4, 1) ist eine Basis von R3.

2. e1, e2, .., en ist eine Basis von Kn.

3. 1, x, x2, ..., xi, ... ist eine Basis von K[x] (Vektorraum aller Polynomemit Koeffizienten aus K).

Satz 2.54. Sei V ein Vektorraum, V 6= O und U ⊆ V . Dann sind folgendeBedingungen aquivalent.

(i) U ist eine Basis von V .

(ii) U ist ein minimales Erzeugendensystem von V , d.h. sobald man irgend-ein Element von U streicht, dann ist die resultierende Teilmenge keinErzeugendensystem von V mehr.

(iii) U ist eine maximale linear unabhangige Teilmenge von V , d.h. sobaldman irgendein Element von V zu U hinzunimmt, ist die resultierendeTeilmenge nicht mehr linear unabhangig.

Beweis:

(i) → (ii) Da U eine Basis von V ist, ist U nach Definition auch einErzeugendensystem von V .Minimalitat: Sei u∗ ∈ U beliebig. Es ist zu zeigen, dass U∗ := U\u∗kein Erzeugendensystem von V ist. Dazu zeigen wir, dass u∗ /∈ L(U∗).Angenommen, u∗ ∈ L(U∗). Dann ware u∗ eine Linearkombination vonU\u∗. Nach Lemma 2.52. (v) ware U linear abhangig. Dies ist einWiderspruch dazu, dass U eine Basis ist.

(ii) → (i) Es ist zu zeigen, dass U linear unabhangig ist. Angenommen, Uist linear abhangig. Dann existiert nach Lemma 2.52. (v) ein u∗ ∈ U ,so dass u∗ ∈ U∗ := U\u∗. Somit gilt V = L(U) = L(U∗). Dies ist einWiderspruch dazu, dass U ein minimales Erzeugendensystem war.

(i) → (iii) Da U eine Basis von V ist, ist U nach Definition auch linearunabhangig.Maximalitat: Sei u∗ ∈ V beliebig. Zu zeigen: U∗ := U ∪ u∗ ist linearabhangig. Da U ein Erzeugendensystem von V ist, so existieren n ∈ N,ai ∈ K und ui ∈ U , so dass

u∗ =n∑

i=1

ai · ui.

49

Somit gilt

O = (−1) · u∗ +n∑

i=1

ai · ui,

d.h. U∗ ist linear abhangig, da u∗ ∈ U∗ und ui ∈ U∗.

(iii) → (i) Wir mussen zeigen, dass L(U) = V . Sei u∗ ∈ V beliebig. Da Ueine maximale linear unabhangige Teilmenge ist, so ist U∗ := U ∪ u∗linear abhangig. Also existieren n ∈ N, a∗ ∈ K, ai ∈ K und ui ∈ U , sodass

a∗ · u∗ +n∑

i=1

ai · ui = O,

wobei mindestens einer der Koeffizienten a∗, ai fur i ∈ 1, ..., n ver-schieden von Null ist. Ware a∗ = 0, so ware U linear abhangig (Wi-derspruch zur Voraussetzung, dass U eine Basis ist). Also ist a∗ 6= 0.Somit gilt

u∗ =n∑

i=1

(−a−1∗ · ai) · ui ∈ L(U),

d.h. V = L(U).

2

Bemerkung 2.55. Sei V ein K-Vektorraum und U ⊆ V eine Basis von V .Dann lasst sich jeder Vektor v ∈ V eindeutig als eine Linearkombination vonVektoren aus U darstellen.

Beweis: Sei v ∈ V beliebig. Da U eine Basis ist, so ist L(U) = V . Daherexistieren Vektoren ui ∈ U und Skalare ai ∈ K, so dass

v =n∑

i=1

ai · ui. (2.1)

Es bleibt die Eindeutigkeit dieser Darstellung zu zeigen. Wir nehmen an,dass es eine weitere Darstellung

v =m∑j=1

bi · uj (2.2)

mit uj ∈ U und bj ∈ K gibt. Dann gilt∑n

i=1 ai · ui =∑m

j=1 bi · uj und somit

n∑i=1

ai · ui +m∑j=1

(−bi) · uj = O.

50

Da U eine Basis ist und ui, uj ∈ U , so sind alle Koeffizienten der Linear-kombination gleich Null. Wir mussen dabei aber aufpassen, dass ui = ujfur gewisse i und j sein kann. Falls uj /∈ u1, ..., un, dann ist bj = 0. Fallsui /∈ u1, ..., um, dann ist ai = 0. Falls ui = uj fur gewisses i ∈ 1, ..., nund j ∈ 1, ...,m, dann gilt ai + (−bj) = 0, d.h. ai = bj. Dies bedeutet abergerade, dass die Darstellungen (2.1) und (2.2) gleich sind. 2

3 Endlich erzeugte Vektorraume

Definition 3.1. Ein K-Vektorraum V heißt endlich erzeugt, falls eineendliche Teilmenge U von V mit V = L(U) existiert.

Beispiele:

1. Kn ist endlich erzeugt. U = e1, ..., en ist ein Erzeugendensystem mitn Elementen.

2. K[x] ist nicht endlich erzeugt. Angenommen, es gabe eine endliche Teil-menge U = p1, ..., pn mit L(U) = K[x]. Dann ist jedes Element pivon U ein Polynom mit Koeffizienten in K. Sei

m := max1≤i≤n

deg(pi)

Dann gehort p(x) = xm+1 ∈ K[x] nicht zu L(U).

3.1 Existenz einer Basis

Satz 3.2. Sei V ein endlich erzeugter Vektorraum. Dann besitzt V eine end-liche Basis. Falls V = L(U) und U endlich, dann existiert stets eine BasisW mit W ⊆ U .

Beweis: Sei V = L(U) und U ⊆ V endlich. Wir konstruieren nun eine BasisW von V mit Elementen aus U wie folgt:

1. Setze W1 := U und i := 1. Dann gilt L(Wi) = L(U).

2. Falls ein w ∈ Wi existiert, so dass w ∈ L(Wi\w), dann setzen wirWi+1 := Wi\w. Da w ∈ L(Wi+1), so gilt L(Wi+1) = L(Wi) = L(U).Nun setzen wir i := i+ 1.

3. Wir setzen 2. solange fort bis es kein w ∈ Wi mit w ∈ L(Wi\w)mehr gibt. Da U endlich ist, so tritt dieser Fall nach endlichen vielenSchritten ein. Dann sei W := Wi.

51

Nach Lemma 2.52. (v) ist W linear unabhangig. Somit ist W eine endlicheBasis von V , denn L(W ) = L(Wi) = L(U) = V . 2

Beispiel: V = R2 = L(U) fur U = (1, 1), (2, 3), (3, 4), denn jedes Element(a, b) ∈ R2 lasst sich darstellen als

(a, b) = (3a− 2b) · (1, 1) + (b− a) · (2, 3) + 0 · (4, 5).

Mit dieser Darstellung sieht man leicht, dass auch W1 = (1, 1), (2, 3) einErzeugendensystem von R2 ist. Die lineare Unabhangigkeit von W1 sieht manleicht: Falls

a · (1, 1) + b · (2, 3) = 0, so a+ 2b = 0 ∧ a+ 3b = 0.

Offenbar gilt dies nur fur a = 0 und b = 0. Somit ist W1 eine Basis von R2.Ubrigens ist auch W2 = (1, 1), (3, 4) eine Basis von R2, da

(2, 3) = (−1) · (1, 1) + 1 · (3, 4) ∈ L(W2).

Von der linearen Unabhangigkeit von W2 kann man sich wieder leicht uber-zeugen.

3.2 Basiserganzungssatz

Satz 3.3. (Basiserganzungssatz) Sei V ein endlich erzeugter Vektorraumund U ⊆ V linear unabhangig. Dann lasst sich U zu einer Basis von Verganzen, d.h. es existiert eine Basis W von V mit U ⊆ W .

Beweis: Da V ein endlich erzeugter Vektorraum ist, so existiert ein

U = u1, ..., un ⊆ V mit L(U) = V.

Wir konstruieren nun eine Basis W von V mit U ⊆ W wie folgt.

1. Sei W0 := U und i := 0. Dann ist Wi linear unabhangig.

2. Falls ui+1 ∈ L(Wi), dann sei Wi+1 := Wi. Falls ui+1 /∈ L(Wi), dannsetzen wir Wi+1 := Wi ∪ ui+1. In beiden Fallen gilt mit Lemma 2.52(v), dass Wi+1 linear unabhangig ist. Außerdem gilt Wi ⊆ Wi+1 undui+1 ∈ L(Wi+1).

3. Falls i < n, so setzen wir i := i + 1 und gehen zu 2. Falls i = n, sosetzen wir W := Wi.

52

Nach Konstruktion ist Wi stets linear unabhangig, somit ist auch W = Wn

linear unabhangig. Da Wi ⊆ Wi+1 und ui+1 ∈ L(Wi+1) fur alle i = 0, ..., n−1,so gilt U ⊆ L(Wn) = L(W ). Damit haben wir V = L(U) ⊆ L(W ) ⊆ V , d.h.V = L(W ). Somit ist W eine Basis von V . Nach Konstruktion gilt auch

U = W0 ⊆ W1 ⊆ W2 ⊆ ... ⊆ Wn = W.

2

Beispiel: V = R2 und U = (2, 3). Offenbar ist U linear unabhangig. Au-ßerdem gilt V = L(U) mit U = (1, 0), (0, 1). Dann ist W := (2, 3), (1, 0)eine Basis von V .

3.3 Austauschsatz

Lemma 3.4. (Austauschlemma) Sei U = u1, ..., un eine Basis einesVektorraumes V und

w =n∑

i=1

ai · ui

mit ak 6= 0 fur ein k ∈ 1, ..., n. Dann ist

U := u1, ..., uk−1, w, uk+1, ..., un

auch eine Basis von V .

Beweis: Da ak 6= 0, so gilt

uk =k−1∑i=1

(−a−1k · ai) · ui + a−1

k · w +n∑

i=k+1

(−a−1k · ai) · ui ∈ L(U).

Somit gilt V = L(U) ⊆ L(U), also ist V = L(U). Wir mussen nun noch dielineare Unabhangigkeit von U zeigen. Sei dazu

k−1∑i=1

bi · ui + bk · w +n∑

i=k+1

bi · ui = 0.

Dann gilt

0 =k−1∑i=1

bi · ui +n∑

i=1

(bk · ai) · ui +n∑

i=k+1

bi · ui

=k−1∑i=1

(bi + bk · ai) · ui + (bk · ak) · uk +n∑

i=k+1

(bi + bk · ai) · ui.

53

Da U eine Basis ist, so wissen wir, dass

bi + bk · ai = 0 ∀i 6= k und bk · ak = 0.

Da ak 6= 0, so gilt bk = 0 und damit auch bi = 0 fur alle i = 1, ..., n. 2

Satz 3.5. (Austauschsatz) Sei U = u1, ..., un eine Basis eines Vektor-raumes V und W = w1, ..., wr ⊆ V linear unabhangig. Dann gilt r ≤ nund nach geeigneter Umsortierung von U ist

U := w1, ..., wr, ur+1, ..., un

eine Basis von V .

Beweis: Da w1 ∈ V = L(U), so haben wir

w1 =n∑

i=1

ai · ui

mit ak 6= 0 fur ein k ∈ 1, ..., n. Nun sortieren wir U so um, dass

w1 =n∑

i=1

ai · ui

mit a1 6= 0. Dann ist nach dem Austauschlemma

U1 := w1, u2, ..., un

eine Basis von V . Da w2 ∈ V = L(U1), so haben wir

w2 = a1 · w1 +n∑

i=2

ai · ui

mit ak 6= 0 fur ein k ∈ 1, ..., n. Da W linear unabhangig ist, so gilt ak 6= 0fur ein k ∈ 2, ..., n. Nun sortieren wir U so um, dass

w2 = a1 · w1 +n∑

i=2

ai · ui

mit a2 6= 0. Dann ist nach dem Austauschlemma

U2 := w1, w2, u3, ..., un

54

eine Basis von V . Dies konnen wir nun analog fur w3, ..., wm fortfuhren,wobei m = minr, n. Falls r < n, so erhalten wir mit U := Ur eine Basisder Form

U := w1, ..., wr, ur+1, ..., unFalls r = n, so ist

Un = w1, w2, w3, ..., wneine Basis von V . Ware r > n, so ware W linear abhangig, da

wr ∈ V = L(Un) = L(w1, ..., wn).

Also gilt r ≤ n und es folgt die Behauptung des Satzes. 2

3.4 Dimension und Dimensionssatz

Definition 3.6. Sei V ein endlich erzeugter K-Vektorraum. Dann hat V dieDimension n, falls es eine Basis U ⊆ V gibt, die aus genau n Elementenbesteht. Wir schreiben dimKV = n.

Bemerkung: Aus dem Austauschsatz folgt, dass fur zwei beliebige BasenU = u1, .., un und W = w1, ..., wm eines Vektorraumes V gilt: n = m.Damit ist die Definition 3.4 gerechtfertigt.

Bemerkung: Falls V kein endlich erzeugter Vektorraum ist, dann sagt manauch, dass die Dimension von V unendlich ist.

Beispiele:

1. dimKKn = n mit Basis e1, ..., en, also insbesondere dimRRn = n.

Damit wissen wir, dass jede Basis von Kn aus genau n Elementenbesteht.

2. dimCC = 1 mit Basis 1

3. dimRC = 2 mit Basis 1, i

4. dimRR[x] =∞

5. dimQR =∞ (folgt daraus, dass Q abzahlbar und R uberabzahlbar ist.)

Bemerkung: Endlich erzeugte Vektorraume nennen wir jetzt endlich di-mensionale Vektorraume. Wir sprechen von einem n-dimensionalen Vek-torraum V , falls dimKV = n.

Korollar 3.7. Sei W ein Unterraum eines n-dimensionalen VektorraumesV . Dann gilt dimKW ≤ n.

55

Beweis: Sei U eine Basis von V . Dann besitzt U genau n Elemente. Wirkonstruieren nun eine Basis von W auf folgende Weise:

1. Sei i := 0 und sei U0 := U ∩W . Dann ist U0 linear unabhangig undU0 ⊆ W . Sei n0 die Anzahl aller Elemente von U0. Offenbar ist n0 ≤ n.

2. Falls L(Ui) = W , dann ist Ui eine Basis von W . Falls L(Ui) ( W , dannexistiert ein w ∈ W\L(Ui), d.h. Ui+1 := Ui∪w ist linear unabhangig.Nach dem Austauschsatz existiert eine Basis U von V mit Ui+1 ⊆ U .Sei ni+1 die Anzahl aller Elemente von Ui+1. Da U aus n Elementenbesteht, so ist ni+1 ≤ n. Nach Konstruktion von Ui+1 gilt noch, dassni+1 = ni + 1.

3. Wir setzen 2. mit i := i + 1 solange fort bis Ui eine Basis von W ist.Da sich die Anzahl der Basiselemente stets um 1 erhoht und diese nichtgroßer als n sein kann, tritt der Fall nach endlich vielen Schritten ein.

Die angegebene Konstruktion der Basis zeigt auch, dass dimKW ≤ n. 2

Korollar 3.8. Sei W1 ein Unterraum eines endlich dimensionalen Vektor-raumes V . Dann existiert ein Unterraum W2 von V , so dass V = W1 ⊕W2.

Beweis: Nach Korollar 3.7 besitzt W1 eine endliche Basis U1 = u1, ..., uk.Dies ist eine linear unabhangige Teilmenge von V . Nach dem Basisergan-zungssatz konnen wir U1 zu einer Basis U = u1, ..., uk, uk+1, ..., un von Verganzen. Sei nun W2 := L(U2) fur U2 := uk+1, ..., un. Dann gilt offenbarV = W1 ⊕W2. 2

Satz 3.9. (Dimensionssatz) Seien W1 und W2 zwei Unterraume einesendlich dimensionalen Vektorraumes V . Dann gilt

dimK(W1 +W2) = dimKW1 + dimKW2 − dimK(W1 ∩W2).

Beweis: Sei U := u1, ..., um eine Basis von W1 ∩W2. Nach dem Basiser-ganzungssatz konnen wir U zu einer Basis B1 := u1, ..., um, v1, ..., vk vonW1 und zu einer Basis B2 := u1, ..., um, w1, ..., w` von W2 erganzen. DieBehauptung ist bewiesen, wenn wir gezeigt haben, dass

B := u1, .., um, v1, ..., vk, w1, ..., w`

eine Basis von W1 +W2 ist.Wir zeigen zuerst, dass sich alle Vektoren w ∈ W1 + W2 mit den Vektoren

56

von B erzeugen lassen. Sei w = w1 + w2 mit w1 ∈ W1 und w2 ∈ W2. Dannexistieren ai, ai, bi, bi ∈ K, so dass

w = (m∑i=1

aiui +k∑

i=1

aivi) + (m∑i=1

biui +∑i=1

biwi)

=m∑i=1

(ai + bi)ui +k∑

i=1

aivi +∑i=1

biwi ∈ L(B).

Somit ist B ein Erzeugendensystem von W1 +W2.Um die lineare Unabhangigkeit zu zeigen, seien ai, bi, ci ∈ K mit

m∑i=1

aiui +k∑

i=1

bivi +∑i=1

ciwi = O. (3.1)

Sei v :=∑m

i=1 aiui +∑k

i=1 bivi. Dann haben wir v ∈ W1. Außerdem ist

−v =∑`

i=1 ciwi ∈ W2, d.h. auch v ∈ W2. Somit gehort v zu W1 ∩W2, d.h.wir finden di ∈ K mit

v =m∑i=1

diui.

Mit Gleichung (3.1) folgt

O = v + (−v) =m∑i=1

aiui +k∑

i=1

bivi +m∑i=1

(−di)ui

=m∑i=1

(ai − di)ui +k∑

i=1

bivi

Da B1 = u1, ..., um, v1, ..., vk eine Basis von W1 ist, so sehen wir, dassai − di = 0 fur alle i ∈ 1, ...,m und bi = 0 fur alle i ∈ 1, ..., k. Setzen wirletzteres in die Gleichung (3.1) ein, so erhalten wir

m∑i=1

aiui +∑i=1

ciwi = O.

Da B2 = u1, ..., um, w1, ..., w` eine Basis von W2 ist, so erhalten wir nunai = 0 fur alle i ∈ 1, ...,m und ci = 0 fur alle i ∈ 1, ..., `. 2

Korollar 3.10. Seien W1 und W2 zwei Unterraume eines endlich dimensio-nalen Vektorraumes V . Dann gilt

dimK(W1 +W2) = dimKW1 + dimKW2 ⇔ W1 ∩W2 = O.

57

Korollar 3.11. Seien W1 und W2 zwei Unterraume eines n-dimensionalenVektorraumes V . Falls

dimKW1 + dimKW2 > n,

dann gilt W1 ∩W2 6= O.

3.5 Geometrische Anschauung endlich dimensionalerVektorraume

Definition 3.12. Sei V ein endlich dimensionaler K-Vektorraum mit derBasis U = u1, ..., un und v ∈ V . Dann existiert genau eine Darstellung vonv der Form

v =n∑

i=1

ai · ui mit ai ∈ K.

Man nennt die eindeutig bestimmten Faktoren a1, ..., an die Koordinatenvon v bezuglich der Basis U . Entsprechend heißt ai die i-te Koordinatevon v bezuglich der Basis U .

Beispiel: V = Kn und U = e1, ..., en. Dann ist fur v = (v1, ..., vn) ∈ V diei-te Koordinate bezuglich U gleich vi, denn

v = (v1, ..., vn) =n∑

i=1

vi · (0, ..., 0, 1i, 0, ..., 0).

Im folgenden werden wir fur Vektoren im Kn in der Regel die Spaltennotation

v =

v1

v2...vn

verwenden.

Um uns die Koordinatendarstellung geometrisch zu veranschaulichen, be-trachten wir V = R3. Jetzt identifizieren wir jeden Vektor v = (vx, vy, vz)von R3 mit einem Pfeil (Vektor) des dreidimensionalen Raumes, der vomNullpunkt zum Punkt (vx, vy, vz) zeigt (siehe Abbildung 3.1).

58

Abbildung 3.1: Vektordarstellung im R3

Dann zeigen die Einheitsvektoren e1, e2, e3 gerade in Richtung der Koordina-tenachsen (siehe Abbildung 3.2). Zusammen bilden sie eine Basis des R3.

Abbildung 3.2: Einheitsvektoren im R3

Man kann jeden Vektor des R3 als Linearkombination der drei Einheitsvekto-ren darstellen. Dazu wollen wir uns klar machen, was es geometrisch bedeutet,wenn wir einen Vektor mit einem Skalar multiplizieren und wenn wir zweiVektoren addieren. Bei der skalaren Multiplikation mit einer positiven reellenZahl c verlangert sich der Pfeil um den Faktor c. Bei der skalaren Multiplika-tion mit 0 erhalt man den Nullvektor O. Bei der skalaren Multiplikation miteiner negativen reellen Zahl c verlangert sich der Pfeil um den Faktor c undzeigt in die entgegengesetzte Richtung (siehe Abbildung 3.3).

59

Abbildung 3.3: skalare Multiplikation von Vektoren im R2

Wenn wir zwei Vektoren addieren, dann erhalten wir einen Vektor, der zuder Ebene gehort, die von den beiden Vektoren aufgespannt wird. Er zeigtgenau in die Richtung der Diagonalen des Parallelogramms, das sich aus denbeiden Vektoren ergibt (siehe Abbildung 3.4).

Abbildung 3.4: Addition von Vektoren im R2

Alle Vektoren eines 1-dimensionalen Unterraums des R3 liegen auf einer Ge-raden durch den Nullpunkt. Alle Vektoren eines 2-dimensionalen Unterraumsdes R3 liegen in einer Ebene, die den Nullpunkt enthalt.

Zwei Vektoren im R3 sind nach Bemerkung 2.52 genau dann linear unab-hangig, wenn der eine kein skalares Vielfaches des anderen Vektors ist, d.h.wenn sie nicht in dieselbe bzw. entgegengesetzte Richtung zeigen. Mit ihnenkann man mittels Linearkombinationen alle Vektoren der Ebene erzeugen,die durch die beiden Vektoren aufgespannt wird.

Drei Vektoren im R3 sind nach Bemerkung 2.52 genau dann linear unabhan-gig, wenn keiner der Vektoren eine Linearkombination der beiden anderen

60

Vektoren ist, d.h. wenn keiner der Vektoren zu der Ebene gehort, die durchdie anderen beiden Vektoren aufgespannt wird. Mit anderen Worten: Die dreiVektoren durfen nicht in einer Ebene liegen. Somit lassen sich alle Vektorenim R3 durch Linearkombination von drei Vektoren darstellen, die nicht ineiner Ebene liegen.

Beispiel: Alle Vektoren des Raumes R3 lassen sich auch durch Streckung/Stauchung, entgegengesetzte Orientierung und Addition der Basisvektoren(1, 1, 1), (1, 1, 0) und (1, 0, 0) darstellen.

Im nachsten Kapitel werden wir sehen, wie wir mit Hilfe linearer AbbildungenBewegungen von Vektoren im Raum wie z.B. Drehungen und Spiegelungenleicht beschreiben konnen.

4 Lineare Abbildungen und Matrizen

4.1 Lineare Abbildungen/Homomorphismen

Definition 4.1. Seien V und W zwei K-Vektorraume. Dann heißt eine Ab-bildung f : V → W K-linear, falls

• ∀u, v ∈ V : f(u+ v) = f(u) + f(v)

• ∀ v ∈ V ∀a ∈ K: f(a · v) = a · f(v)

Man nennt eine solche Abbildung auch einen Homomorphismus. Wirschreiben HomK(V,W ) := f | f : V → W ist K-linear.

Bemerkung: Eine Abbildung ist genau dann linear, wenn fur alle a, b ∈ Kund alle u, v ∈ V gilt: f(au+ bv) = af(u) + bf(v).

Beispiele:

1. V = R2. Seien a11, a12, a21, a22 ∈ R und f : V → V

f(v) = f

(v1

v2

)=

(a11v1 + a12v2

a21v1 + a22v2

)2. V = Kn, W = Km. Seien a11, ..., amn ∈ R. f : V → W

f(v) = f

v1

v2...vn

=

a11v1 + a12v2 + ...+ a1nvna21v1 + a22v2 + ...+ a1nvn

...am1v1 + am2v2 + ...+ amnvn

61

Als Kurzschreibweise fur eine solche Abbildung verwenden wir

f(v) = A · v,

wobei

A =

a11 a12 ... a1n

a21 a22 ... a1n...

......

am1 am2 ... amn

eine Matrix mit m Zeilen und n Spalten ist. Ublich sind auch die Kurz-schreibweisen A = (aij) und A = (aij) i = 1, ...,m

j = 1, ..., n.

3. Die Koordinatenabbildung ϕU : V → Kn mit einem n-dimensionalenVektorraum V :

ϕU(v) := (c1, c2, ..., cn),

wobei U = u1, ..., un eine Basis von V ist und v = c1u1 + ...+ cnun.

4. Drehungen von Vektoren im R2 um den Nullpunkt mit dem Drehwinkelα:

f(v) =

(cos(α)v1 − sin(α)v2

sin(α)v1 + cos(α)v2

)In Matrixschreibweise haben wir

f(v) =

(cos(α) − sin(α)sin(α) cos(α)

)· v

UA: Hinweis: Man verwende die Darstellung eines Punktes in Polar-koordinaten: (v1, v2) = (r cos(ϕ), r sin(ϕ)). Die Drehung des Punktes(v1, v2) um den Ursprung mit dem Winkel α ergibt dann in Polarkoor-dinaten

f(v1, v2) = (r cos(ϕ+ α), r sin(ϕ+ α)).

Mit Hilfe der Additionstheoreme fur die Winkelfunktionen sin und cosergibt sich die Behauptung.

5. Spiegelungen von Vektoren im R2 an einer Geraden durch den Null-punkt, wobei α der Winkel zwischen der Geraden und der x-Achse ist:

f(v) =

(cos(2α)v1 + sin(2α)v2

sin(2α)v1 − cos(2α)v2

)

62

In Matrixschreibweise haben wir

f(v) =

(cos(2α) sin(2α)sin(2α) − cos(2α)

)· v

UA: Hinweis: Man verwende wieder die Darstellung eines Punktes inPolarkoordinaten: (v1, v2) = (r cos(ϕ), r sin(ϕ)). Die Spiegelung desPunktes (v1, v2) an der Geraden durch den Nullpunkt mit dem Winkelα ergibt in Polarkoordinaten

f(v1, v2) = (r cos(2α− ϕ), r sin(2α− ϕ)).

Mit Hilfe der Additionstheoreme ergibt sich auch hier die Behauptung.

Satz 4.2. Sei f : V → W K-linear. Dann gelten folgende Eigenschaften:

(i) f(O) = O

(ii) Fur alle vi ∈ V und ai ∈ K gilt:

f(n∑

i=1

aivi) =n∑

i=1

aif(vi).

(iii) Falls U = u1, .., un linear abhangig ist, dann ist auch

f(U) := f(u1), ..., f(un)

linear abhangig.

(iv) Sind V ⊆ V und W ⊆ W Unterraume, dann sind auch f(V ) ⊆ W undf−1(W ) ⊆ V Unterraume.

(v) dimKf(V ) ≤ dimKV .

(vi) Falls f bijektiv ist, so ist auch f−1 : W → V K-linear.

Beweis:

(i) f(O) = f(0 · O) = 0 · f(O) = O

(ii) folgt einfach aus der Definition einer linearen Abbildung per Induktionuber n

63

(iii) Sei U = u1, .., un linear abhangig. Dann existieren a1, ..., an ∈ K, sodass

n∑i=1

aiui = O,

wobei mindestens ein ai 6= 0. Wegen (i) und (ii) gilt nun

O = f(n∑

i=1

aiui) =n∑

i=1

aif(ui),

d.h. f(U) = f(u1), ..., f(un) ist linear abhangig.

(iv) Wir zeigen zunachst, dass f(V ) ein Unterraum ist. Seien w1, w2 ∈ f(V ).Dann existieren v1 und v2 ∈ V mit w1 = f(v1) und w2 = f(v2). Somitbekommen wir

w1 + w2 = f(v1) + f(v2) = f(v1 + v2) ∈ f(V ).

Fur w ∈ f(V ), a ∈ K existiert ein v ∈ V , so dass w = f(v) und es gilt

a · w = a · f(v) = f(a · v) ∈ f(V ).

Nun zeigen wir, dass f−1(W ) ein Unterraum ist. Seien v1, v2 ∈ f−1(W ).Dann existieren w1, w2 ∈ W mit w1 = f(v1) und w2 = f(v2). Somithaben wir

f(v1 + v2) = f(v1) + f(v2) = w1 + w2 ∈ W , d.h. v1 + v2 ∈ f−1(W ).

Fur v ∈ f−1(W ), a ∈ K existiert ein w ∈ W , so dass w = f(v) und esgilt

f(a · v) = a · f(v) = a · w ∈ W , d.h. a · v ∈ f−1(W ).

(v) Falls dimV = ∞, so ist die Aussage trivial. Sei nun dimV = n ∈ N.Angenommen, dim f(V ) > n. Dann gabe es n + 1 linear unabhangigeVektoren w1, ..., wn+1 ∈ f(V ). Seien v1, ..., vn+1 ∈ V so gewahlt, dassf(vi) = wi fur alle i = 1, ..., n + 1. Da dimV = n, so ist U =v1, ..., vn+1 linear abhangig. Wegen (iii) waren dann w1, ..., wn+1 auchlinear abhangig - im Widerspruch zur Annahme.

(vi) Seien w1, w2 ∈ W . Dann existieren v1, v2 ∈ V , so dass f(v1) = w1 undf(v2) = w2 und wir wissen, dass

f(v1 + v2) = f(v1) + f(v2) = w1 + w2, d.h. v1 + v2 = f−1(w1 + w2)

64

und damitf−1(w1) + f−1(w2) = f−1(w1 + w2).

Seien w ∈ W und a ∈ K. Dann existiert ein v ∈ V , so dass f(v) = wund es gilt

f(a · v) = a · f(v) = a · w, d.h. a · v = f−1(a · w),

alsoa · f−1(w) = f−1(a · w).

2

Satz 4.3. HomK(V,W ) ist ein Unterraum von

AbbK(V,W ) = f | f : V → W ist eine Abbildung.

Dabei ist die Addition zweier Abbildungen f1, f2 definiert als

(f1 + f2)(v) = f1(v) + f2(v) ∀ v ∈ V.

Die Multiplikation mit einem Skalar a ∈ K ist definiert als

(a · f)(v) = a · f(v) ∀ v ∈ V.

Beweis: Offenbar ist die Nullabbildung f0 : V → W mit f(v) = O fur allev ∈ V eine lineare Abbildung, d.h. f0 ∈ HomK(V,W ).

Seien f1, f2 ∈ HomK(V,W ). Dann gilt fur alle v, w ∈ V und a, b ∈ K, dass

(f1 + f2)(a · v + b · w) = f1(a · v + b · w) + f2(a · v + b · w)

= a · f1(v) + b · f1(w) + a · f2(v) + b · f2(w)

= a · (f1 + f2)(v) + b · (f1 + f2)(w).

Seien f ∈ HomK(V,W ) und c ∈ K. Dann gilt fur alle v, w ∈ V und a, b ∈ K,dass

(c · f)(a · v + b · w) = c · f(a · v + b · w)

= a · c · f(v) + b · c · f(w)

= a · (c · f)(v) + b · (c · f)(w). 2

Bemerkung: Die Hintereinanderausfuhrung linearer Funktionen ist wiederlinear, d.h. wenn f : V → W und g : W → X linear sind, so ist gf : V → Xauch linear (leichte Ubungsaufgabe).

65

Die Hintereinanderausfuhrung zweier linearer Abbildungen f : Kn → Km

und g : Km → K` mit

f(x) = Ax =

a11 ... a1n...

...am1 ... amn

x, g(x) = Bx =

b11 ... b1m...

...b`1 ... b`m

x

ist dann eine lineare Abbildung h : Kn → K` mit

h(x) = (B A)(x) = B(Ax) =: Cx =

c11 ... c1n...

...c`1 ... c`n

x

wobei

cij =m∑k=1

bikakj ∀ i = 1, ..., `, j = 1, ..., n,

denn

B(Ax) =

b11 ... b1m...

...b`1 ... b`m

n∑j=1

a1jxj

...n∑

j=1

amjxj

=

m∑k=1

b1k

n∑j=1

akjxj

...m∑k=1

b`kn∑

j=1

akjxj

=

n∑

j=1

(m∑k=1

b1kakj)xj

...n∑

j=1

(m∑k=1

b`kakj)xj

=

m∑k=1

b1kak1 ...m∑k=1

b1kakn

......

m∑k=1

b`kak1 ...m∑k=1

b`kakn

x.

Aus diesem Grunde definiert man die Multiplikation zweier MatrizenA = (akj)k = 1, ...,m

j = 1, ..., nund B = (bik) i = 1, ..., `

k = 1, ...,mals

B · A := C = (cij) i = 1, ..., `j = 1, ..., n

=

(m∑k=1

bikakj

)i = 1, ..., `j = 1, ..., n

Achtung: Die Multiplikation zweier Matrizen ist im allgemeinen nicht kom-mutativ. Wir haben dies bereits bei der Hintereinanderausfuhrung von Ab-bildungen festgestellt.

66

Beispiel:

A =

(1 2 34 5 6

), B =

6 01 20 3

Dann gilt

B · A =

6 12 189 12 1512 15 18

und A ·B =

(8 1329 28

).

Bemerkung 4.4. Sei U = u1, ..., un eine Basis eines endlich dimensiona-len K-Vektorraums V . Sei weiter W ein K-Vektorraum. Dann ist jede lineareAbbildung f : V → W eindeutig durch die Vorgabe f(ui) der Basisvektorenui fur i = 1, ..., n bestimmt.Sei wi := f(ui) und v ∈ V beliebig. Da U eine Basis von V ist, so existierteine eindeutige Darstellung v =

∑ni=1 aiui und es gilt

f(v) = f(n∑

i=1

aiui) =n∑

i=1

f(aiui) =n∑

i=1

aif(ui).

Falls V = Kn, W = Km und U = e1, ..., en, so stellen die Vektorenf(e1), ..., f(en) gerade die Spaltenvektoren der Matrix A dar, fur die f(x) =Ax gilt. Dies wird klar, wenn man beachtet, dass

f(ei) = Aei =

a1i...ami

∀ i = 1, ..., n.

Definition 4.5. Eine Abbildung f in HomK(V,W ) heißt

• K-Monomorphismus, falls f injektiv ist,

• K-Epimorphismus, falls f surjektiv ist,

• K-Isomorphismus, falls f bijektiv ist,

• K-Endomorphismus, falls V = W ,

• K-Automorphismus, falls V = W und f bijektiv ist.

Beispiele:

1. Die Abbildung f : R2 → R3 mit f(x, y) = (x, x + y, x − y) ist einR-Monomorphismus.

67

2. Die Abbildung f : R3 → R2 mit f(x, y, z) = (x, y) ist ein R-Epimorphismus.

3. Die Abbildung f : C→ R2 mit f(a+bi) = (a, b) ist ein R-Isomorphismus.

4. Die Abbildung f : R3 → R3 mit f(x, y, z) = (x, y+ z, x+ y+ z) ist einR-Endomorphismus.

5. Die Abbildung f : R2 → R2 mit f(x, y) = (x + y, x − y) ist ein R-Automorphismus (und zugleich einR-Endomorphismus, ein R-Isomorphismus,ein R-Epimorphismus, ein R-Monomorphismus).

6. Die Abbildung f : R2 → R2 mit f(x, y) = (x2, y2) ist keiner der ge-nannten Morphismen, da f nicht linear ist.

Bemerkung:

1. Die Menge EndK(V ) aller K-Endomorphismen bildet mit (+, ) einenRing (UA).

2. Die Menge AutK(V ) aller K-Automorphismen bildet mit eine Unter-gruppe von EndK(V ) (UA).

Definition 4.6. Zwei K-Vektorraume V und W heißen isomorph, falls eseinen K-Isomorphismus f : V → W gibt.

Satz 4.7. Sei V ein n-dimensionaler K-Vektorraum. Dann ist V isomorphzu Km genau dann, wenn m = n.

Beweis: Sei U = u1, ..., un eine Basis von V . Dann ist die Koordinaten-abbildung ϕU : V → Kn ein Isomorphismus von V nach Kn. Die Abbildungist bijektiv, da sich jeder Vektor v ∈ V mit eindeutig bestimmten Koeffizi-enten/Koordinaten c1, ..., cn ∈ K als

v =n∑

i=1

ci · ui

darstellen lasst.

Angenommen, es gabe einen Isomorphismus f : V → Km fur m 6= n. Dannware g := f ϕ−1

U ein Isomorphismus von Kn nach Km. Dann ware B :=g−1(e1), ..., g−1(em) ⊆ Kn wegen Satz 4.2 (iii) linear unabhangig. Zudemgabe es fur jedes v ∈ Kn ein w ∈ Km mit v = g−1(w). Dann ware w =∑m

i=1 wiei mit wi ∈ K fur alle i = 1, ...,m und somit ware

v = g−1(m∑i=1

wiei) =m∑i=1

wig−1(ei),

68

d.h. jedes v ∈ Kn wurde zu L(B) gehoren. Somit ware B eine Basis von Kn

und hatte daher die Lange n, d.h. m = n. 2

Satz 4.8. Seien V und W endlich dimensionale K-Vektorraume. Dann istV isomorph zu W genau dann, wenn dimKV = dimKW .

Beweis:

(→) Sei f : V → W ein Isomorphismus, dimK V = n und dimK W = m. SeiU eine Basis von V und U eine Basis von W . Dann ist nach Satz 4.7V isomorph zu Kn und W isomorph zu Km. Daher ist ϕU f ϕ−1

U :Kn → Km ein Isomorphismus und somit n = m wegen Satz 4.7.

(←) Sei dimKV = dimKW = n. Seien U und U Basen von V und W . Dannist die Abbildung f := ϕU ϕ−1

U : V → W ein Isomorphismus.

2

4.2 Bild, Kern, Rang und Defekt linearer Abbildungen

Definition 4.9. Sei f : V → W eine K-lineare Abbildung. Dann nennenwir

(i) im f := f(V ) das Bild von f (engl. image),

(ii) ker f := f−1(O) den Kern bzw. den Nullraum von f (engl. kernel),

(iii) rank f := dimK(im f) den Rang von f (engl. rank),

(iv) def f := dimK(ker f) den Defekt von f (engl. defect).

Bemerkung: Fur beliebige w ∈ W nennt man f−1(w) die Faser von fuber w.

Lemma 4.10. Sei f : V → W eine K-lineare Abbildung. Dann gilt:

(i) im f ist ein Unterraum von W

(ii) ker f ist ein Unterraum von V .

(iii) im f = W genau dann, wenn f surjektiv ist.

(iv) ker f = O genau dann, wenn f injektiv ist.

Beweis:

69

(i) Da f linear ist, so ist O = f(O) ∈ im f . Seien w1, w2 ∈ im f . Dannexistieren v1, v2 ∈ V , so dass f(v1) = w1 und f(v2) = w2. Daraus folgt,dass

w1 + w2 = f(v1) + f(v2) = f(v1 + v2) ∈ im f.

Sei nun w ∈ im f und c ∈ K. Dann existiert ein v ∈ V , so dassf(v) = w und wir sehen, dass

c · w = c · f(v) = f(c · v) ∈ im f.

(ii) Wegen O = f(O) haben wir O ∈ ker f . Seien v1, v2 ∈ ker f . Dann giltf(v1) = O und f(v2) = O und daher

f(v1 + v2) = f(v1) + f(v2) = O, d.h. v1 + v2 ∈ ker f.

Sei nun v ∈ ker f und c ∈ K. Dann haben wir f(v) = O und

f(c · v) = c · f(v) = O, d.h. c · v ∈ ker f.

(iii) klar per Definition

(iv) (→) Seien v1, v2 ∈ V mit f(v1) = f(v2) gegeben. Dann gilt

f(v1 + (−v2)) = f(v1) + (−f(v2)) = O.

Da ker f = O, so gilt v1 + (−v2) = O, d.h. v1 = v2.(←) Klar nach Definition.

2

Wir haben bereits gesehen, dass wir lineare Abbildungen von Kn → Km mitHilfe von Matrizen darstellen konnen. Wir wollen uns nun oben genannteBegriffe fur Matrizen naher anschauen.

Definition 4.11. Wir bezeichnen mit M(m × n,K) die Menge aller Ma-trizen mit m Zeilen und n Spalten. Dann reprasentiert jede Matrix A ∈M(m × n,K) eine lineare Abbildung fA : Kn → Km mit fA(x) = Ax undwir definieren

(i) im A = im fA als das Bild von A,

(ii) kerA = ker fA als den Kern von A,

(iii) rankA = rank fA als den Rang von A.

70

(iv) def A := def (fA) den Defekt von A.

Bemerkung:

1. M(m× n,K) ist mit der Addition und der skalaren Multiplikation einVektorraum der Dimension m · n. Die Matrizen

Ak` := (aij)i = 1, ...,mj = 1, ..., n

mit aij =

1, falls k = i ∧ ` = j

0, sonst

fur k = 1, ...,m, ` = 1, ..., n bilden eine Basis von M(m× n,K).

2. Sei A ∈M(m× n,K). Dann folgt per Definition, dass

(a) im A = w ∈ Km | ∃v ∈ Kn : w = Av,(b) kerA = v ∈ Kn |Av = O,(c) rankA = dimK(im A).

3. Die Bestimmung des Kernes einer Matrix A ∈M(m×n,K) entsprichtder Bestimmung aller Losungen des homogenen linearen Gleichungssy-stems Ax = O, d.h.

a11x1 + ...+ a1nxn = 0,

......

am1x1 + ...+ amnxn = 0.

4. Ein Vektor y ∈ Km gehort genau dann zu im A, wenn das lineareGleichungssystem Ax = y, d.h.

a11x1 + ...+ a1nxn = y1,

...

am1x1 + ...+ amnxn = ym.

eine Losung x ∈ Kn besitzt.

Wir konnen den Bildraum einer Matrix A ∈ M(m × n,K) auch wie folgtdarstellen:

im A = L(Ae1, Ae2, ..., Aen),

d.h. im A wird von den Spaltenvektoren der Matrix A erzeugt. Man bezeich-net dimK L(Ae1, Ae2, ..., Aen) daher auch als den Spaltenrang der Matrix

71

A. Offenbar gilt stets, dass der Rang von A gleich dem Spaltenrang von Aist. Betrachtet man anstelle der Spaltenvektoren nun die Zeilenvektoren

ai = (ai1 ... ain) ∀ i = 1, ...,m,

so definiert man dimK L(a1, a2, ..., am) als Zeilenrang von A.

Definition 4.12. Sei A ∈ M(m× n,K) eine Matrix. Dann ist die Trans-ponierte AT von A definiert als

AT := (bij)i = 1, ...,mj = 1, ..., n

mit bij = aji.

Bemerkung: Die Spalten von A bilden gerade die Zeilen von AT. Die Zeilenvon A stellen die Spalten von AT dar. Somit gilt offenbar, dass der Spalten-rang von A gleich dem Zeilenrang von AT und der Zeilenrang von A gleichdem Spaltenrang von AT ist.

Es gilt aber sogar noch mehr: Fur jede Matrix A ist der Zeilenrang gleichdem Spaltenrang. Den Beweis gibt es an spaterer Stelle.

Satz 4.13. (Dimensionssatz fur lineare Abbildungen) Seien V , Wzwei K-Vektorraume und f ∈ HomK(V,W ). Dann gilt:

dimK V = dimK(ker f) + dimK(im f) = def (f) + rank (f).

Entsprechend gilt fur jede Matrix A ∈M(m× n,K), dass

n = dim(kerA) + dim(im A) = def (A) + rank (A).

Beweis: Sei f ∈ HomK(V,W ) und n := dimK(V ). Sei weiter U := u1, ..., ukeine Basis von ker f . Nun erganzen wir U zu einer Basis u1, ..., uk, uk+1, ..., unvon V und definieren Z := L(uk+1, ..., un). Dann gilt V = ker f ⊕ Z undaufgrund des Dimensionssatzes fur Vektorraume erhalten wir

dimK(V ) = dimK(ker f) + dimK Z.

Nun zeigen wir, dass Z isomorph zu im f ist. Da zwei isomorphe Raume stetsdie gleiche Dimension haben, so folgt damit die Behauptung des Satzes.Dazu definieren wir die Abbildung ϕ : Z → im f mit

ϕ(z) := f(z).

Da f linear ist, so ist auch ϕ linear. Zudem ist ϕ injektiv, denn aus ϕ(z1) =ϕ(z2) folgt,

f(z1) = f(z2), d.h. f(z1 − z2) = O

72

und somit z1 − z2 ∈ ker f . Dies bedeutet aber auch

z1 − z2 ∈ ker f ∩ Z = O,

also z1 = z2. Es bleibt zu zeigen, dass ϕ auch surjektiv ist. Sei w ∈ im fbeliebig. Dann existiert ein v ∈ V , so dass f(v) = w. Sei nun

v = x+ z mit x ∈ ker f, z ∈ Z.

Dann gilt

ϕ(z) = f(z) = f(v − x) = f(v)− f(x) = f(v) = w,

d.h. ϕ ist bijektiv und somit ein Isomorphismus von Z nach im f . 2

4.3 Matrizen und lineare Gleichungssysteme

Jedes lineare Gleichungssystem

a11x1 + ...+ a1nxn = b1

......

am1x1 + ...+ amnxn = bm

mit aij, bi, xj ∈ K fur alle i = 1, ...,m und j = 1, ..., n lasst sich kurz inMatrix-Vektorschreibweise als

Ax = b (4.1)

formulieren, wobei x und b Spaltenvektoren mit den Eintragen x1, ..., xn undb1, ..., bm sind.

Bevor wir uns Methoden zuwenden, wie man lineare Gleichungssysteme all-gemein losen kann, beschaftigen wir uns mit der Frage, wann ein linearesGleichungssystem losbar und wann die Losung eindeutig ist.

Satz 4.14. Das lineare Gleichungssystem (4.1) ist fur jedes b ∈ Km genaudann eindeutig losbar, wenn rank (A) = m = n.

Beweis: Offenbar ist das lineare Gleichungssystem (4.1) fur jedes b ∈ Km

genau dann eindeutig losbar, wenn die lineare Abbildung fA : Kn → Km

mit fA(x) = Ax eine bijektive Abbildung, also ein Isomorphismus ist.

(⇒) Sei fA : Kn → Km ein Isomorphismus. Dann ist im (fA) = Km undker(fA) = 0 und somit

rank (fA) = m, def (fA) = 0.

73

Der Dimensionssatz 4.14 liefert n = rank (fA) + def (fA) = m+ 0 = m.

(⇐) Sei rank (A) = m = n. Dann gilt rank (fA) = m und aufgrund desDimensionssatzes 4.14, dass def (fA) = n−m = 0. Dies bedeutet

dimK(im fA) = m und dimK(ker fA) = 0.

Da im fA ⊆ Km und dimK Km = m, so folgt im fA = Km. Zudem haben

wir ker fA = 0, d.h. fA ist ein Isomorphismus. 2

Die Losung eines eindeutig losbaren Gleichungssystems lasst sich auch mitHilfe der sogenannten Inversen einer Matrix darstellen. Dazu betrachten wirzunachst eine Matrix A ∈M(m× n,K) und die sogenannten Einheitsmatri-zen

Im :=

1 0 . . . 00 1 . . . 0...

.... . .

...0 0 . . . 1

︸ ︷︷ ︸

m columns

, In :=

1 0 . . . 00 1 . . . 0...

.... . .

...0 0 . . . 1

︸ ︷︷ ︸

n columns

der Dimension m bzw. n. Dann gilt aufgrund der Definition der Matrixmul-tiplikation, dass

A · In = A = Im · A.

Definition 4.15. Sei A ∈M(m× n,K) eine Matrix. Die Matrix A heißtinvertierbar, falls eine inverse Matrix A−1 existiert, so dass

A−1A = In und AA−1 = Im.

Eine Matrix B heißt linksinverse Matrix von A, falls BA = In.Eine Matrix B heißt rechtsinverse Matrix von A, falls AB = Im.

Satz 4.16. A ∈M(m×n,K) ist genau dann invertierbar, wenn rank (A) =m = n.

Beweis: Nach Satz 4.14 brauchen wir nur zu zeigen, dass A ∈M(m×n,K)genau dann invertierbar ist, wenn es zu jedem b ∈ Km genau eine Losungx ∈ Kn des Systems Ax = b gibt.

(→) Sei A invertierbar. Dann ist x = A−1b wegen AA−1b = b eine Losungvon Ax = b. Diese ist auch eindeutig, da x = A−1Ax = A−1b fur jedeLosung von Ax = b.

74

(←) Da e1, ..., em = Ax1, ..., Axm linear unabhangig ist, so ist die Mengex1, ..., xm auch linear unabhangig. Nach Voraussetzung wissen wir,dass m = n. Somit ist die Menge x1, ..., xm eine Basis von Km = Kn.Damit lasst sich jedes ei ∈ Kn darstellen als

ei =m∑j=1

cijxj =(x1 x2 . . . xm

)ci1ci2...cim

︸ ︷︷ ︸

=:zi

= Bzi.

Dann gilt

ei = Bzi = BImzi = B(AB)zi = BA(Bzi) = BAei.

Durch Zusammensetzung der Spalten erhalten wir

In =(e1 e2 . . . en

)=((BA)e1 (BA)e2 . . . (BA)en

)= BA.

2

Bemerkung: Der Beweis hat gezeigt, dass sich fur invertierbare Matrizen Adie eindeutige Losung der Gleichung Ax = b als x = A−1b darstellen lasst.

Wie lasst sich ein lineares Gleichungssystem Ax = b nun allgemein losen?Wie konnen wir die inverse Matrix A−1 fur invertierbare Matrizen bestim-men? Dafur gibt es eine Vielzahl von Moglichkeiten. An dieser Stelle lernenSie das sogenannte Gaußsche Eliminationsverfahren kennen. Es beschreibtden naturlichen Weg, den vermutlich jeder “zu Fuß” gehen wurde. Spaterlernen Sie in der Numerik weitere Verfahren kennen, die bestimmte System-strukturen nutzen und damit deutlich effektiver sind.

Dies ist in Simulationsanwendungen ein zentraler Punkt. Manchmal mussenSysteme mit 1 Milliarde Gleichungen und einer Milliarde Unbekannten gelostwerden. Selbst auf dem schnellsten Rechner der Welt Tianhe-2 in Chinamit 33.86 Petaflops wurde man mit dem Gaußschen Eliminationsverfahrendafur etwa 30s benotigen. Effektivere Verfahren brauchen dafur nur etwa 0.1Mikrosekunden. Auf einem gewohnlichen PC (mit 50 Gigaflops) brauchteman mit dem Gaußschen Eliminationsverfahren sogar rund 230 Tage, mitgeeigneteren Verfahren schafft man es in einer Zehntelsekunde.

Dennoch bildet das Gaußsche Eliminationsverfahren noch immer einwichtiges Basiswissen, auf dem viele Uberlegungen aufbauen. Wir skizzierendie Idee zunachst an einem einfachen Beispiel.

75

2x+ 3y + z = 7 (a)

6x− 3y − z = 1 (b)

4x+ 9y − 2z = 24 (c)

Intuitiv wurde man als erstes die Gleichung nach x auflosen und den resul-tierenden Term in die unteren beiden Gleichungen einsetzen, um dann einkleineres System mit nur noch zwei Variablen (y und z) zu erhalten. Wirbekamen auf diese Weise

x = −3

2y − 2z + 1

und danach

−12y − 4z = −20 (b’)

3y − 4z = 10. (c’)

Man kann sich aber auch den Auflosungsschritt sparen und das System (b’)-(c’) direkt aus (a)-(c) erhalten, indem man die erste Gleichung (a)

1. mit −3 multipliziert und zur zweiten Gleichung (b) addiert sowie

2. mit −2 multipliziert und zur dritten Gleichung (c) addiert.

Dieses Vorgehen nennt man Eliminationsschritt (Elimination von x in denunteren beiden Gleichungen). Diese Form der Elimination kann man nun fury in dem System (b’)-(c’) wiederholen. Wir multiplizieren also (b’) mit 1

4und

addieren sie zur Gleichung (c’) und erhalten

−5z = 5. (c”)

Fasst man nun die im ersten Eliminationsschritt unveranderte Gleichung (a),die im zweiten unveranderte Gleichung (b’) sowie die letzte Gleichung (c”)zusammen, so haben wir

2x+ 3y + z = 2

−12y − 4z = −20

−5z = 5

Die Losung dieses Systems findet man nun ganz einfach durch Ruckwarts-einsetzen, d.h.

z = −1, y = − 1

12(−20 + 4z) = 2, x =

1

2(7− 3y − z) = 1.

76

Dies ist dann auch die Losung von (a)-(c), wie man leicht durch Probe prufenkann.

Nun wollen wir diese Idee allgemein fur beliebige Gleichungssysteme in Ma-trixschreibweise formulieren und zeigen, dass sich die Losungsmenge durchdie Umformungen nicht andert.

Wir betrachten dazu das allgemeine System Ax = b bzw.

a11x1 + ...+ a1nxn = b1

......

ai1x1 + ...+ ainxn = bi...

...

am1x1 + ...+ amnxn = bm.

Definition 4.17. Los(A, b) := x |Ax = b heißt die Losungsmenge vonAx = b.

Wir definieren nun folgende elementare Zeilentransformationen fur

(E1) Multiplikation der i-ten Zeile mit c 6= 0:

a11x1 + ...+ a1nxn = b1

......

cai1x1 + ...+ cainxn = cbi...

...

am1x1 + ...+ amnxn = bm.

Dies entspricht gerade dem System TE1Ax = TE1b mit der Transforma-tionsmatrix

TE1 =

1 ... 0 ... 0...

. . ....

...0 ... c ... 0...

.... . .

...0 ... 0 ... 1

i

77

(E2) Addition der i-ten Zeile zur j-ten Zeile:

a11x1 + ...+ a1nxn = b1

......

ai1x1 + ...+ ainxn = bi...

...

(aj1 + ai1)x1 + ...+ (ajn + ain)xn = bj + bi...

...

am1x1 + ...+ amnxn = bm.

Dies entspricht gerade dem System TE2Ax = TE2b mit der Transforma-tionsmatrix

TE2 =

1 ... 0 ... 0 ... 0...

. . ....

......

0 ... 1 ... 0 ... 0...

.... . .

......

0 ... 1 ... 1 ... 0...

......

. . ....

0 ... 0 ... 0 ... 1

i

j

(E3) Addition des c-fachen der i-ten Zeile zur j-ten Zeile:

a11x1 + ...+ a1nxn = b1

......

ai1x1 + ...+ ainxn = bi...

...

(aj1 + cai1)x1 + ...+ (ajn + cain)xn = bj + cbi...

...

am1x1 + ...+ amnxn = bm.

Dies entspricht gerade dem System TE3Ax = TE3b mit der Transforma-

78

tionsmatrix

TE3 =

1 ... 0 ... 0 ... 0...

. . ....

......

0 ... 1 ... 0 ... 0...

.... . .

......

0 ... c ... 1 ... 0...

......

. . ....

0 ... 0 ... 0 ... 1

i

j

(E4) Vertauschung der i-ten Zeile mit der j-ten Zeile:

a11x1 + ...+ a1nxn = b1

......

aj1x1 + ...+ ajnxn = bj...

...

ai1x1 + ...+ ainxn = bi...

...

am1x1 + ...+ amnxn = bm.

Dies entspricht gerade dem System TE4Ax = TE4b mit der Transforma-tionsmatrix

TE4 =

1 ... 0 ... 0 ... 0...

. . ....

......

0 ... 0 ... 1 ... 0...

.... . .

......

0 ... 1 ... 0 ... 0...

......

. . ....

0 ... 0 ... 0 ... 1

i

j

Durch die elementaren Zeilentransformationen andert sich die Losungsmengenicht, d.h. fur alle T ∈ TE1, ..., TE4 gilt, dass x ∈ Los(A, b) genau dann,wenn x ∈ Los(TA, Tb). Klar ist sofort, dass x ∈ Los(A, b)→ x ∈ Los(TA, Tb).Doch auch die umgekehrte Richtung wird sofort klar, wenn man beachtet,dass die elementaren Transformationsmatrizen invertierbar sind. Es gilt of-

79

fenbar

T−1E1 =

1 ... 0 ... 0...

. . ....

...0 ... 1

c... 0

......

. . ....

0 ... 0 ... 1

i

T−1E2 =

1 ... 0 ... 0 ... 0...

. . ....

......

0 ... 1 ... 0 ... 0...

.... . .

......

0 ... −1 ... 1 ... 0...

......

. . ....

0 ... 0 ... 0 ... 1

i

j

T−1E3 =

1 ... 0 ... 0 ... 0...

. . ....

......

0 ... 1 ... 0 ... 0...

.... . .

......

0 ... −c ... 1 ... 0...

......

. . ....

0 ... 0 ... 0 ... 1

i

j

T−1E4 = TE4.

Das Gaußsche Eliminationsverfahren uberfuhrt nun mit Hilfe elementarerZeilentransformationen das System Ax = b in ein System Ax = b, wobei dieMatrix A Zeilenstufenform besitzt, d.h.

A =

0 ... 0 | a1k1 ... ∗ ∗ ... ∗ ∗ ... ∗ ∗ ... ∗− − −

0 ... 0 0 ... 0 | a2k2 ... ∗ ∗ ... ∗ ∗ ... ∗− − −

... |− − −

0 ... 0 0 ... 0 0 ... 0 0 ... 0 | a`k` ... ∗− − −

0 ... 0 0 ... 0 0 ... 0 0 ... 0 0 ... 0...

...0 ... 0 0 ... 0 0 ... 0 0 ... 0 0 ... 0

(4.2)

80

Die Elemente aiki sind ungleich Null fur i = 1, ..., ` und heißen Pivotelemente.Um aus einer Matrix A ∈ M(m × n,K) eine Matrix in Zeilenstufenform zuerhalten, geht man wie folgt vor:

1. Setze i := 1 (Zeilenindex) und j := 1 (Spaltenindex).

2. Falls i = m und j = n, dann Stop.

3. Falls aij 6= 0, dann ”eliminiere xi aus den Gleichungen i+1, ...,m”, d.h.benutze die Transformation TE3 mit c = −akj

aijfur alle k = i + 1, ...,m.

Setze i := i+ 1, j := j + 1 und wiederhole Schritt 2.

4. Falls aij = 0, aber ein k ∈ i + 1, ...,m mit akj 6= 0 existiert, danntausche mittels Transformation TE4 die Gleichung i mit Gleichung kund gehe zu 2.

5. Falls akj = 0 fur alle k = i, ...,m, so setze j := j + 1 und gehe zu 2.

Anmerkung:

• Wir haben bei der Beschreibung des Eliminationsverfahrens stillschwei-gend nach jeder Transformation die Eintrage der transformierten Ma-trix wieder mit (aij) bezeichnet.

• Damit wir die Losungsmenge von Ax = b nicht andern, mussen wir dieTransformationen von A auch fur b vornehmen, d.h. nicht nur TA son-dern auch Tb berechnen. Dies realisiert man praktischer Weise, indemman die Matrix A′ := (A|b) transformiert, also jeweils TA′ berechnet.

Bemerkung: Sei A eine Matrix in Zeilenstufenform (4.2). Dann gilt fur dasLGS Ax = b:

• Es ist genau dann losbar, wenn bi = 0 fur alle i = `+ 1, ...,m.

• Die Losungen x lassen sich einfach durch Ruckwartseinsetzen in dieGleichungen `, `− 1, ..., 2, 1 bestimmen:

(i) Man wahlt xk`+1, ..., xn beliebig und bestimmt xk` aus der `-tenGleichung, d.h.

xk` =1

a`,k`(b` − a`,k`+1xk`+1 − ...− a`,nxn)

81

(ii) Man wahlt xk`−1+1, ..., xk`−1 beliebig und bestimmt xk`−1 aus der(`− 1)-ten Gleichung, d.h.

xk`−1=

1

a`−1,k`−1

(b`−1 − a`−1,k`−1+1xk`−1+1 − ...− a`−1,k`−1xk`−1).

(iii) Man setzt dies analog von unten nach oben bis zur 1. Zeile fort.

Beispiel: Wir wollen alle Losungen des LGSs

2x1 + x2 − x3 + x5 = 3

x1 − 2x2 + 2x3 − x4 = 0

4x1 − x4 = 3

x2 − x3 + 2x5 = 2

bestimmen. Wir haben

A′ = (A|b) =

2 1 −1 0 1 31 −2 2 −1 0 04 0 0 −1 0 30 1 −1 0 2 2

.

Als erstes haben wir a11 = 2 6= 0. Wir eliminieren nun die Nicht-Null-Elemente der 1. Spalte unterhalb von a11. Dies erreichen wir mit TE3, d.h.wir addieren das (−1

2)-fache der 1. Zeile zur 2. Zeile und wir addieren das

(−2)-fache der 1. Zeile zur 3. Zeile (kurz: Z2 → Z2− 12Z1 und Z3 → Z3−2Z1).

Wir erhalten so 2 1 −1 0 1 3

0 −52

52−1 −1

2−3

2

0 −2 2 −1 −2 −30 1 −1 0 2 2

Jetzt finden wir a22 = −5

26= 0 und eliminieren die Nicht-Null-Elemente der

2. Spalte unterhalb von a22. Dies erreichen wir wieder mittels TE3, genauermit Z3 → Z3 − 4

5Z2 und Z4 → Z4 + 2

5Z2:

2 1 −1 0 1 30 −5

252−1 −1

2−3

2

0 0 0 −15−8

5−9

5

0 0 0 −25

95

75

82

Jetzt ist a33 = 0 und auch alle Elemente unterhalb von a33. Daher wandernwir einfach in Zeile 3 zur nachsten Spalte, also Spalte 4.

2 1 −1 0 1 30 −5

252−1 −1

2−3

2

0 0 0 −15−8

5−9

5

0 0 0 −25

95

75

Wir sehen, dass a34 = −1

56= 0 und eliminieren nun alle Elemente der 4.

Spalte unterhalb von a34. Mittels Z4 → Z4 − 2Z3:2 1 −1 0 1 30 −5

252−1 −1

2−3

2

0 0 0 −15−8

5−9

5

0 0 0 0 5 5

Nun haben wir die Matrix A in Zeilenstufenform und wir mussen nur nochdas LGS

2x1 +x2 −x3 +x5 = 3−5

2x2 +5

2x3 −x4 −1

2x5 = −3

2

−15x4 −8

5x5 = −9

5

5x5 = 5

losen. Dies konnen wir ganz einfach Einsetzen von unten nach oben:Aus der 4. Gleichung folgt sofort

x5 = 1.

Dies setzen wir in die 3. Gleichung ein und erhalten

x4 = −5(−9

5+

8

5· 1) = 1.

Damit auch die 2. Gleichung erfullt ist, konnen wir x3 beliebig wahlen (etwax3 := a ∈ R) und es ergibt sich

x2 = −2

5(−3

2− 5

2a+ 1 +

1

2· 1) = a.

Schießlich ergibt aus der 1. Gleichung

x1 =1

2(3− a+ a− 1) = 1.

83

Somit lauten die Losungen unseres LGSs:

x =

1aa11

,

wobei a ∈ R beliebig ist. Dieses lineare Gleichungssystem hat offenbar un-endlich viele Losungen.Schauen wir uns noch ein weiteres Beispiel an:

x1 + 2x2 = 0

x1 − x2 = 2

2x1 − x2 = c

mit c ∈ R. Wir betrachten 1 2 01 −1 22 −1 c

Durch Elimination Z2 → Z2 − Z1 und Z3 → Z3 − 2Z1 erhalten wir 1 2 0

0 -3 20 −5 c

Die Elimination Z3 → Z3 − 5

3Z2 liefert 1 2 0

0 -3 20 0 c− 10

3

.

Dies entspricht dem LGS

x1 + 2x2 = 0

−3x2 = 2

0 = c− 10

3

Offenbar besitzt das LGS nur dann eine Losung, falls c = 103

. In diesem Falllautet die Losung (ermittelt durch Einsetzen von unten nach oben):

x2 = −2

3, x1 =

4

3.

84

Nach Konstruktion der Gaußschen Eliminationsverfahrens erhalten wir all-gemein folgenden Satz.

Lemma 4.18. Mit dem Gaußschen Eliminationsverfahren erhalt man einLGS Ax = b mit Los(A, b) = Los(A, b), wobei A = TA, b = T b und

T = T`T`−1 · · ·T2T1, Ti ∈ TE3, TE4 fur i = 1, ..., `.

Dabei besitzt A Zeilenstufenform.Zudem liefert das Gaußsche Eliminationsverfahren die Faktorisierung

A = LU mit L = T−11 T−1

2 · · ·T−1`−1T

−1` , U = A.

Somit konnen wir mit Hilfe des Gaußschen Eliminationsverfahrens jedes li-neare Gleichungssystem losen. Zudem ist sofort klar, dass ein LGS

Ax = b

mit A ∈M(m×n,K) in Zeilenstufenform fur beliebige rechte Seiten b genaudann eine eindeutige Losung besitzt, wenn m = n und

A =

a11 ∗ ... ∗ ∗0 a22 ... ∗ ∗...

.... . .

......

0 0 ... an−1,n−1 ∗0 0 ... 0 ann

(4.3)

mit aii 6= 0 fur alle i = 1, ..., n. Wir nennen eine solche Matrix auch obereDreiecksmatrix.

Aus Satz 4.16 folgt damit unmittelbar:

Satz 4.19. Eine Matrix A ist genau dann invertierbar, wenn A mittels Gauß-Algorithmus auf eine obere Dreiecksmatrix fuhrt, wobei die Diagonalelementeverschieden von Null sind.

Die Inverse einer invertierbaren Matrix lasst sich daher ganz leicht bestim-men: Sei A ∈M(n×n,K) invertierbar (man nennt solche Matrizen ubrigensauch regular und nicht invertierbare Matrizen singular). Dann gilt nachDefinition

AA−1 = I

Schreibt manA−1 =

(v1 v2 ... vn

),

85

d.h. v1,...,vn seien die Spaltenvektoren von A−1. Dann sind die vi gerade dieLosungen von

Avi = ei

mit dem i-ten Einheitsvektor ei fur i = 1, ..., n. Nun konnen wir also jedeSpalte von A−1 durch Losen eines LGSs bestimmen. Am schnellsten geht dies,wenn wir dies mit dem Gaußschen Eliminationsverfahren parallel berechnen,d.h. das Eliminationsverfahren nicht nur auf

(A|ei)

sondern gleich auf(A|I)

anwenden.

Beispiel:

A =

(1 23 4

)Wir schreiben zunachst (

1 2 1 03 4 0 1

).

Mittels Elimation Z2 → Z2 − 3Z1 erhalten wir(1 2 1 00 −2 −3 1

). (4.4)

Nun erhalt man durch Auflosen von(1 2 10 −2 −3

)und (

1 2 00 −2 1

)gerade die Vektoren von A−1, d.h.

A−1 =

(−2 1

32−1

2.

).

Den Prozess des Auflosens pro Spalte kann man sich erleichtern, indem manerneut einen Eliminationsprozess durchfuhrt, diesmal als Elimination vonunten nach oben, d.h. man beginnt rechts unten und erzeugt Nullen oberhalb

86

der Diagonalen durch geeignete Elimination. Gehen wir dazu nochmal zu(4.4) zuruck (

1 2 1 00 −2 −3 1

).

Mittels Elimination Z1 → Z1 + Z2 erhalten wir(1 0 −2 10 −2 −3 1

).

Multiplizieren wir nun noch die 2. Zeile mit −12, so dass links die Einheits-

matrix steht, so erhalten wir(1 0 −2 10 1 3

2−1

2

).

Offenbar erhalten wir auf diese Weise auf der rechten Seite genau die Inversevon A.

Der Gauß-Algorithmus ist auch sehr hilfreich zur Bestimmung des Rangeseiner Matrix.

Lemma 4.20. Die elementaren Zeilentransformationen (E1)-(E4) andernden Rang einer Matrix nicht.

Da die Zeilentransformationen nur Matrixmultiplikationen mit invertierbarenMatrizen T darstellen, folgt obiges Lemma sofort aus folgendem Hilfssatz.

Lemma 4.21. Sei A ∈ M(m × n,K) und seien T ∈ M(m × m,K) sowieS ∈M(n× n,K) invertierbar. Dann gilt

rank (TA) = rank (A) = rank (AS).

Beweis:

(i) Sei v1, ..., vk eine Basis von im A. Dann ist Tv1, ..., T vk offenbar einErzeugendensystem von im (TA), denn jedes w ∈ im (TA) lasst sichschreiben als

w = TAv = T (Av) = T (k∑

i=1

civi) =k∑

i=1

ci(Tvi).

Angenommen, Tv1, ..., T vk ware linear abhangig. Dann ware nachSatz 4.2 (iii) auch T−1(Tv1), ..., T−1(Tvk) = v1, ..., vk linear abhan-gig. Da dies aber nach Voraussetzung eine Basis ist, so ist Tv1, ..., T vklinear unabhangig und damit auch eine Basis von im (TA). Damit er-halten wir rank (TA) = k = rank (A).

87

(ii) Wir zeigen, dass im A = im (AS). Offenbar gilt stets im A ⊇ im (AS).Sei nun z ∈ im A beliebig. Dann existiert ein v mit z = Av und es giltz = AS(S−1v) ∈ im (AS). Somit gilt im A = im (AS) und daher auchrank (A) = rank (AS).

2

Fur eine beliebige Matrix A gilt also

rank (A) = rank (A),

wobei A die Matrix in Zeilenstufenform (4.2) ist, die sich mittels GA (Gauß-Algorithmus) ergibt. Offenbar sind die Spalten k1,...,k` von A linear un-abhangig und alle anderen Spalten von A Linearkombinationen der Spaltenk1,...,k`. Somit gilt

rank (A) = rank (A) = `.

Beispiel: Sei

A =

1 −1 0 02 −1 0 25 0 2 18 −2 2 3

Wir bringen nun die Matrix A mittels GA auf Zeilenstufenform:

A

Z2→Z2−2Z1

Z3→Z3−5Z1

Z4→Z4−8Z1

=⇒

1 −1 0 00 3 0 20 5 2 10 6 2 3

Z3→Z3−5Z2

Z4→Z4−6Z2

=⇒

1 −1 0 00 1 0 20 0 2 −90 0 2 −9

Z4→Z4−Z3=⇒

1 −1 0 00 1 0 20 0 2 −90 0 0 0

= A

Somit gilt rank (A) = rank (A) = 3.

Schließlich erhalten wir mit Hilfe des Gaußschen Eliminationsverfahrens auchnoch folgenden wichtigen Satz.

Satz 4.22. Sei A ∈M(m×n,K) beliebig. Dann stimmen Zeilenrang(A) undSpaltenrang(A) uberein.

88

Beweis: Sei A die Matrix in Zeilenstufenform (4.2), die sich mittels GAergibt. Wir wissen schon, dass rank (A) = `, d.h. Spaltenrang(A) = `.Offenbar sind aber auch die Zeilen 1, ..., ` linear unabhangig und damitZeilenrang(A) = `. Wenn wir nun noch beachten, dass A = TA, wobei Teine regulare Matrix ist, so erhalten wir mit nachfolgendem Lemma 4.23,dass

Spaltenrang(A) = rank (A) = rank (TA) = rank (A)

= Spaltenrang(A)

= Zeilenrang(A)

= Spaltenrang(AT )

= rank (AT ) = rank (ATT T ) = rank (AT )

= Zeilenrang(A).

2

Lemma 4.23. Seien A ∈M(m× n,K), B ∈M(n× k,K). Dann gilt

(i) (AB)> = B>A>

(ii) Falls A und B invertierbar sind, so ist auch AB invertierbar und esgilt (AB)−1 = B−1A−1.

(iii) Falls A invertierbar ist, so ist auch A> invertierbar und es gilt (A>)−1

=

(A−1)>

.

Beweis:

(i) Ubungsaufgabe

(ii) Sei M := B−1A−1. Dann erhalten wir

(AB)M = ABB−1A−1 = AInA−1 = AA−1 = In

und

M(AB) = B−1A−1AB = B−1InB = B−1B = In.

(iii) Sei M := (A−1)>

. Dann haben wir unter Verwendung von (i), dass

A>M = A>(A−1)> = (A−1A)> = I>n = In

und

MA> = (A−1)>A> = (AA−1)> = I>n = In.

89

2

Wir kommen nochmal zur Losung linearer Gleichungssysteme zuruck undanalysieren die allgemeine Struktur des Losungsraumes Los(A, b).

Definition 4.24. Ein lineares Gleichungssystem Ax = b heißt homogen,falls b = 0. Andernfalls heißt es inhomogen.

Lemma 4.25. Sei A ∈M(m× n,K). Dann gilt

(i) Die Losungen des homogenen LGS Ax = 0 bilden einen Vektorraum.

(ii) Die Losungen des inhomogenen LGS Ax = b mit b 6= 0 bilden keinenVektorraum.

Beweis:

(i) Offenbar ist die Menge aller Losungen von Ax = 0 gerade der Kern vonA. Da ker(A) ein Vektorraum ist, so folgt die Behauptung.

(ii) Seien x1 und x2 Losungen von Ax = b. Dann gilt

A(x1 + x2) = Ax1 + Ax2 = b+ b = 2b.

Da b 6= 0, so gilt offenbar nicht A(x1 + x2) = b, d.h. x1 + x2 ist keineLosung von Ax = b.

2

Satz 4.26. (Losungsraumdarstellung linearer Gleichungssysteme)Sei A ∈M(m× n,K) und xs eine (spezielle) Losung von Ax = b. Dann gilt

Los(A, b) = x = xs + xh| xh ∈ kerA = xs + kerA.

Man definiert daher dimK Los(A, b) := dimK kerA und erhalt dimK Los(A, b) =n− rankA.

Beweis:

(⊇) Sei x = xs + xh mit xh ∈ kerA. Dann gilt

Ax = A(xs + xh) = Axs + Axh = b+ 0 = b.

(⊆) Sei Ax = b und xh := x− xs. Dann gilt

Axh = A(x−xs) = Ax−Axs = b−b = 0, d.h. xh ∈ kerA und x = xs+xh.

90

Der Dimensionssatz 4.13 liefert dimK kerA = n− rankA und somit

dimK Los(A, b) = n− rankA.

2

Sei A ∈ M(m × n,K) und durch Gauß-Elimination in eine Matrix A ∈M(m×n,K) in Zeilenstufenform (4.2) transformiert. Dann lasst sich A mit-tels elementarer Zeilentransformationen weiter in eine Matrix A der Gestalt

A =

0 ... 0 | a1k1 ... ∗ 0 ... ∗ 0 ... ∗ 0 ... ∗− − −

0 ... 0 0 ... 0 | a2k2 ... ∗ 0 ... ∗ 0 ... ∗− − −

... |ai,ki− − −0 ... 0 0 ... 0 0 ... 0 0 ... 0 | a`k` ... ∗

− − −0 ... 0 0 ... 0 0 ... 0 0 ... 0 0 ... 0...

...0 ... 0 0 ... 0 0 ... 0 0 ... 0 0 ... 0

umformen. D.h., wir haben alle Elemente oberhalb der Pivotelemente ai,kieliminiert. Mittels Zeilenskalierung, d.h. mittels der elementarer Transfor-mationen vom Typ (E1) erhalten wir eine Matrix in reduzierter Zeilen-stufenform

A =

0 ... 0 | 1 ... ∗ 0 ... ∗ 0 ... ∗ 0 ... ∗− − −

0 ... 0 0 ... 0 | 1 ... ∗ 0 ... ∗ 0 ... ∗− − −

... |1− − −

0 ... 0 0 ... 0 0 ... 0 0 ... 0 | 1 ... ∗− − −

0 ... 0 0 ... 0 0 ... 0 0 ... 0 0 ... 0...

...0 ... 0 0 ... 0 0 ... 0 0 ... 0 0 ... 0

(4.5)

Bemerkung: Ist A invertierbar, so ist die reduzierte Zeilenstufenform vonA gleich der Einheitsmatrix I.

Satz 4.27. Sei A ∈ M(m × n,K) und durch Gauß-Algorithmus in eineMatrix A in reduzierter Zeilenstufenform gebracht. Dann gilt

(i) kerA = ker A

91

(ii) Die Menge B := vj| j /∈ k1, ..., k` mit

(vj)k =

1, falls k = j

0, falls k 6= j und k /∈ k1, ..., k`−amj, falls k = km und m ∈ 1, ..., `

bildet eine Basis von kerA = ker A.

Beweis:

(i) Aufgrund von Lemma 4.18 wissen wir, dass Los(A, 0) = Los(A, 0), d.h.kerA = ker A.

(ii) Da A in reduzierter Zeilenstufenform vorliegt, so gilt fur die Eintragein den Spalten k1, ..., k`, dass

aikm =

1, falls i = m

0, falls i 6= m

Wir zeigen nun, dass vj ∈ kerA fur alle Vektoren vj von B. NachDefinition der Vektoren von B erhalten wir fur den i-ten Eintrag vonAvj

(Avj)i =n∑

k=1

aik(vj)k

= aij · 1 +n∑

k=1k 6=j,k/∈k1,...,k`

aik · 0 +∑m=1

aikm · (−amj)

= aij + 0 + [1 · (−aij) +∑m=1m 6=i

0 · (−amj)]

= aij − aij = 0.

Nach Satz 4.13 wissen wir, dass dimK ker A = n − rank (A). Zudemsieht man sofort, dass rank (A) = `, wenn man beachtet, dass derSpaltenrang stets gleich dem Zeilenrang einer Matrix ist. Somit giltdimK ker A = n− `. Außerdem besitzt B per Konstruktion genau n− `Vektoren. Somit ist B eine Basis von ker A.

2

92

Beispiel: Sei

A =

1 2 0 4 5 0 0 8− −0 0 | 1 3 -1 0 0 -2

− − −0 0 0 0 0 | 1 0 -3

−0 0 0 0 0 0 | 1 4

− −0 0 0 0 0 0 0 0

Dann bildet die Menge

B = v2, v4, v5, v8 =

∗1∗00∗∗0

,

∗0∗10∗∗0

,

∗0∗01∗∗0

,

∗0∗00∗∗1

mit Avj = 0 fur j ∈ 2, 4, 5, 8 eine Basis von ker A. Dies beruht darauf,dass die Komponenten x2, x4, x5 und x8 frei wahlbar sind, wahrend dieKomponenten zu den Spalten mit den fuhrenden Einsen von A (hier x1, x3,x6 und x7) eindeutig bestimmt sind (in Abhangigkeit von der Wahl von x2,x4, x5 und x8).Dabei sind die ∗-Eintrage aus der Matrix A gerade die fett gedruckten Ein-trage von A mit einem Minus davor:

B =

-21000000

,

-40-310000

,

-50101000

,

-802003-41

.

Nun wissen wir mit Satz 4.26 und Lemma 4.27, wie wir alle Losungen einesbeliebigen linearen Gleichungssystems bestimmen konnen.

Beispiel: Wir suchen alle Losungen x des Systems Ax = b mit

A =

1 2 0 40 1 −1 02 0 3 1

, b =

822

.

93

Wir transformieren das System mittels GA in Zeilenstufenform: 1 2 0 4 80 1 −1 0 22 0 3 1 2

Z3→Z3−2Z1⇒

1 2 0 4 80 1 −1 0 20 −4 3 −7 −14

Z3→Z3+4Z2⇒

1 2 0 4 80 1 −1 0 20 0 −1 −7 −6

Nun transformieren wir es mit dem GA von unten nach oben in reduzierteZeilenstufenform: 1 2 0 4 8

0 1 −1 0 20 0 −1 −7 −6

Z3→−Z3⇒

1 2 0 4 80 1 −1 0 20 0 1 7 6

Z2→Z2+Z3⇒

1 2 0 4 80 1 0 7 80 0 1 7 6

Z1→Z1−2Z2⇒

1 0 0 -10 −80 1 0 7 80 0 1 7 6

Damit erhalten wir als spezielle Losung (die frei wahlbaren Komponenten -hier nur x4 - werden auf Null gesetzt):

xs =

−8860

und den Nullraum (hier wird die frei wahlbare Komponente x4 auf Einsgesetzt)

kerA = L(

10-7-71

).Alle Losungen x haben also die Form

x =

−8860

+ c

10−7−71

mit c ∈ R.

94

Der nachste Satz gibt noch Auskunft daruber, wann ein Gleichungssystemuberhaupt eine Losung besitzt.

Satz 4.28. (Losbarkeitskriterium) Sei A ∈ M(m × n,K) und b ∈ Km.Dann besitzt das LGS Ax = b genau dann eine Losung x ∈ Kn, wennrank (A | b) = rank (A).

Beweis: Der Vektor x ist eine Losung von Ax = b genau dann, wenn

b ∈ L(a1, ..., an),

wobei a1, ..., an die Spaltenvektoren von A sind. Dies ist aber aquivalent dazu,dass

L(a1, ..., an) = L(a1, ..., an, b),d.h. im A = im (A | b). Da fur alle z ∈ Kn

Az =(A b

)(z0

)gilt, so wissen wir, dass stets im A ⊆ im (A | b). Somit gilt im A = im (A | b)genau dann, wenn dimK(im A) = dimK(im (A | b)), d.h.

rank (A) = rank (A | b).

2

Beispiel: Wir suchen alle Losungen b ∈ R3, so dass das System Ax = b mit

A =

1 −1 1 01 1 −1 23 1 −1 4

losbar ist.

Wir transformieren das System (A | b) mittels GA in Zeilenstufenform: 1 −1 1 0 b1

1 1 −1 2 b2

3 1 −1 4 b3

Z2→Z2−Z1⇒

1 −1 1 0 b1

0 2 −2 2 b2 − b1

3 1 −1 4 b3

Z3→Z3−3Z1⇒

1 0 1 0 b1

0 2 −2 2 b2 − b1

0 4 −4 4 b3 − 3b1

Z3→Z3−2Z2⇒

1 0 1 0 b1

0 1 −3 2 b2 − b1

0 0 0 0 b3 − b1 − 2b2

95

Offenbar gilt rank (A | b) = rank (A) genau dann, wenn b3 − b1 − 2b2 = 0.

Bemerkung: Sei A ∈ M(m× n,K). Man kann eine Basis von im A leichtdadurch bestimmen, dass man die Matrix A mit Hilfe von Spalteneliminationund Vertauschung von Spalten in Spaltenstufenform bringt. Eine Spalten-elimination von A entspricht gerade einer Zeilenelimination von AT. MitSpaltenstufenform A ist gemeint, dass AT Zeilenstufenform besitzt. Schließ-lich bilden alle Nicht-Null-Spalten von A in Spaltenstufenform eine Basis vonim A.

Beispiel: Wir suchen eine Basis von im A mit

A =

1 −1 1 01 1 −1 23 1 −1 4

Wir transformieren das System (A | b) mittels GA fur die Spalten in Spalten-stufenform: 1 −1 1 0

1 1 −1 23 1 −1 4

S2→S2+S1⇒

1 0 1 01 2 −1 23 4 −1 4

S3→S3−S1⇒

1 0 0 01 2 −2 23 4 −4 4

S3→S3+S2, S4→S4−S2⇒

1 0 0 01 2 0 03 4 0 0

Somit ist

113

,

024

eine Basis von im A.

4.4 Darstellungsmatrizen und Basiswechsel

Matrizen sind nicht nur ein bequemes Mittel zur Beschreibung linearer Ab-bildungen vom Kn in den Km. Man kann sie auch fur beliebige lineare Ab-bildungen in Vektorraumen nutzen.

96

Satz 4.29. Seien V , W zwei K-Vektorraume. Sei weiter A = v1, ..., vneine Basis von V und B = w1, ..., wm eine Basis von W . Dann gibt es zujedem f ∈ HomK(V,W ) genau eine Matrix Mf = (aij) ∈ M(m × n,K), sodass

f(vj) =m∑i=1

aijwi ∀ j = 1, ..., n.

Die dadurch definierte Abbildung

MAB : HomK(V,W )→M(m× n,K)

f 7→Mf

ist ein Isomorphismus. Man nennt MAB (f) die Abbildungsmatrix oder die

Darstellungsmatrix von f bezuglich der Basen A und B.

Beweis: Sei f ∈ HomK(V,W ). Da B eine Basis ist, so sind die Koeffizientenaij eindeutig durch f(vj) festgelegt und damit ist die Matrix Mf wohldefi-niert. Wir zeigen die Behauptung in 3 Schritten:

(i) MAB ist linear, (ii) MA

B ist injektiv, (iii) MAB ist surjektiv.

zu (i) Sei λ ∈ K. Dann haben wir fur (cij) := MAB (λf), dass

m∑i=1

cijwi = (λf)(vj) = λf(vj) = λm∑i=1

aijwi =m∑i=1

(λaij)wi,

d.h. MAB (λf) = λMA

B (f). Sei nun g ∈ HomK(V,W ) und Mg = (bij) diezugehorige Darstellungsmatrix. Dann gilt fur (cij) := MA

B (f + g), dass

m∑i=1

cijwi = (f + g)(vj) = f(vj) + g(vj)

=m∑i=1

aijwi +m∑i=1

bijwi =m∑i=1

(aij + bij)wi,

d.h. MAB (f + g) = MA

B (f) +MAB (g).

zu (ii) Sei MAB (f) = MA

B (g). Da MAB linear ist, so heißt dies, dass

MAB (f − g) = 0,

d.h. fur alle j = 1, ..., n gilt (f − g)(vj) = O. Dies bedeutet

∀ j = 1, ..., n : f(vj) = g(vj).

Da f und g linear sind und A = v1, ..., vn eine Basis von V ist, so giltf = g.

97

zu (iii) Sei (aij) ∈M(m× n,K) gegeben. Dann definieren wir eine Abbildungf : V → W wie folgt: Sei v =

∑nj=1 cjvj ∈ V beliebig und

f(v) :=n∑

j=1

cj

m∑i=1

aijwi.

Dann gilt offenbar fur alle j = 1, ..., n, dass

f(vj) :=m∑i=1

aijwi

und somit MAB (f) = (aij). Es bleibt zu zeigen, dass f linear ist. Sei

λ ∈ K. Dann gilt:

f(λv) =n∑

j=1

(λcj)n∑

j=1

aijwi = λn∑

j=1

cj

n∑j=1

aijwi = λf(v).

Sei v =∑n

j=1 cjvj ∈ V . Dann haben wir

f(v + v) =n∑

j=1

(cj + cj)n∑

j=1

aijwi

=n∑

j=1

cj

n∑j=1

aijwi +n∑

j=1

cj

n∑j=1

aijwi = f(v) + f(v).

2

Man kann also jede lineare Abbildung in endlich-dimensionalen Vektorraumenmit ihrer Abbildungsmatrix eindeutig identifizieren.

Beispiele:

1. Sei f : R3 → R2 definiert durch

f(

xyz

) =

(x+ 2y

3x+ y + 4z

)

Dann ergibt sich als Darstellungsmatrix MAB (f) fur die Standardbasen

A :=

100

,

010

,

001

, B := (

10

),

(01

)

98

gerade

MAB (f) =

(1 2 03 1 4

).

Fur die Basen

A :=

112

,

103

,

020

, B := (

21

),

(11

)

erhalten wir

f(

112

) =

(312

)= −9

(21

)+ 21

(11

),

f(

103

) =

(115

)= −14

(21

)+ 29

(11

),

f(

020

) =

(42

)= 2

(21

)+ 0

(11

).

und somit

MAB (f) =

(−9 −14 221 29 0

).

2. Die identische Abbildung f : V → V mit f(v) = v ergibt fur jede BasisB von V mit dimK(V ) = n als darstellende Matrix die Einheitsma-trix (engl.: identity matrix)

MBB (f) =

1 0 ... 00 1 ... 0...

.... . .

...0 0 ... 1

︸ ︷︷ ︸

n columns

=: I.

3. Sei f : Kn[t]→ Kn−1[t] die lineare Abbildung mit

f(p) = p′, d.h. f(p(t)) = p′(t),

wobei Kn[t] die Menge aller Polynome vom Grad ≤ n mit Koeffizientenaus K ist. Wir betrachten nun die Basen

A = 1, t, t2, ..., tn, B = 1, t, t2, ..., tn−1.

99

Dann erhalten wir

f(1) = 0, f(t) = 1, f(t2) = 2t, f(t3) = 3t2, ..., f(tn) = ntn−1

und somit

MAB (f) =

0 1 0 0 ... 00 0 2 0 ... 00 0 0 3 ... 0...

......

......

0 0 0 0 ... n

.

100