21
5 Lineare Abbildungen 5.1 Einf¨ uhrendes Beispiel 5.1.1 Verallgemeinerung des Hookeschen Gesetzes Drei Schienen m¨ ogen ein gleichschenklig-rechtwinkliges Dreieck bilden. In dessen Ebene E ahlen wir zwei zueinander senkrechte Einheitsvektoren e 1 und e 2 in Richtung der Dreieckskatheten. B = {e 1 , e 2 } ist eine Basis des Vektorraums V aller Vektoren in E . Durch Wahl eines Ursprungs O ∈E wird jedem Punkt P ∈E ein Ortsvektor x = x 1 e 1 + x 2 e 2 (349) zugeordnet. Dessen Koordinaten x 1 und x 2 haben, wie x selbst, die physikalische Dimen- sion L¨ ange (1 m), w¨ ahrend die Einheitsvektoren e 1 und e 2 dimensionslos sind. Im Innern des Dreiecks werde eine Punktmasse m durch drei gedehnte Schraubenfedern festgehalten, deren andere Enden jeweils frei entlang einer der drei Schienen beweglich sind. Wird die Masse aus ihrer Gleichgewichtslage O zu einem Punkt P mit Ortsvektor x = 0 ausgelenkt, so wirkt auf sie eine R¨ uckstellkraft F(x). Die Koordinaten des Vektors F = F 1 e 1 + F 2 e 2 sind als Funktionen der Koordinaten von x gegeben durch F 1 (x 1 ,x 2 ) F 2 (x 1 ,x 2 ) = K 1 x 1 + Kx 2 Kx 1 + K 2 x 2 (350) ( ¨ Ubungen!), mit den positiven Konstanten K 1 = k 1 + K, K 2 = k 2 + K, K = k 3 2 . (351) k 1,2 sind die Federkonstanten der Federn, die in x 1 - bzw. in x 2 -Richtung wirken und k 3 ist diejenige der verbleibenden Feder. Faßt man die Koordinaten F 1 und F 2 zu einer Spalte F , sowie x 1 und x 2 zur Spalte x zusammen, so lautet Gl. (350) in Matrixform F (x )= K x , K := K 1 K K K 2 . (352) Diese Gleichung hat große ¨ Ahnlichkeit mit dem eindimensionalen Hookeschen Gesetze f¨ ur Kraft F und Auslenkung x einer Schraubenfeder mit Federkonstante k, F (x)= kx. (353) 62

5 Lineare Abbildungen - homepages.uni-regensburg.desem04141/mathWIkap5.pdf · 5 Lineare Abbildungen 5.1 Einfu¨hrendes Beispiel 5.1.1 Verallgemeinerung des Hookeschen Gesetzes Drei

Embed Size (px)

Citation preview

Page 1: 5 Lineare Abbildungen - homepages.uni-regensburg.desem04141/mathWIkap5.pdf · 5 Lineare Abbildungen 5.1 Einfu¨hrendes Beispiel 5.1.1 Verallgemeinerung des Hookeschen Gesetzes Drei

5 Lineare Abbildungen

5.1 Einfuhrendes Beispiel

5.1.1 Verallgemeinerung des Hookeschen Gesetzes

Drei Schienen mogen ein gleichschenklig-rechtwinkliges Dreieck bilden. In dessen EbeneE wahlen wir zwei zueinander senkrechte Einheitsvektoren e1 und e2 in Richtung derDreieckskatheten. B = e1, e2 ist eine Basis des Vektorraums V aller Vektoren in E .Durch Wahl eines Ursprungs O ∈ E wird jedem Punkt P ∈ E ein Ortsvektor

x = x1e1 + x2e2 (349)

zugeordnet. Dessen Koordinaten x1 und x2 haben, wie x selbst, die physikalische Dimen-sion Lange (1 m), wahrend die Einheitsvektoren e1 und e2 dimensionslos sind.

Im Innern des Dreiecks werde eine Punktmassem durch drei gedehnte Schraubenfedernfestgehalten, deren andere Enden jeweils frei entlang einer der drei Schienen beweglichsind. Wird die Masse aus ihrer Gleichgewichtslage O zu einem Punkt P mit Ortsvektorx 6= 0 ausgelenkt, so wirkt auf sie eine Ruckstellkraft F(x). Die Koordinaten des VektorsF = F1e1 + F2e2 sind als Funktionen der Koordinaten von x gegeben durch

(

F1(x1, x2)F2(x1, x2)

)

= −

(

K1x1 + K x2

K x1 + K2x2

)

(350)

(Ubungen!), mit den positiven Konstanten

K1 = k1 +K, K2 = k2 +K, K =k32. (351)

k1,2 sind die Federkonstanten der Federn, die in x1- bzw. in x2-Richtung wirken und k3ist diejenige der verbleibenden Feder.

Faßt man die Koordinaten F1 und F2 zu einer Spalte F , sowie x1 und x2 zur Spalte xzusammen, so lautet Gl. (350) in Matrixform

F (x) = −K x, K :=

(

K1 KK K2

)

. (352)

Diese Gleichung hat große Ahnlichkeit mit dem eindimensionalen Hookeschen Gesetze furKraft F und Auslenkung x einer Schraubenfeder mit Federkonstante k,

F (x) = −kx. (353)

62

Page 2: 5 Lineare Abbildungen - homepages.uni-regensburg.desem04141/mathWIkap5.pdf · 5 Lineare Abbildungen 5.1 Einfu¨hrendes Beispiel 5.1.1 Verallgemeinerung des Hookeschen Gesetzes Drei

5.1.2 Tensor-Charakter

Ein entscheidender Unterschied ist jedoch, daß in Gl. (352) die Vektoren F und x imallg. nicht (anti-)parallel zueinander sind. Als Beispiel betrachten wir den Fall

K = 5N

cm, K1 = 8

N

cm, K2 = 12

N

cm: K =

(

8 55 12

)

N

cm, (354)

und berechnen fur einen gegebenen Auslenkungsvektor x die Ruckstellkraft F ,

x =

(

1 cm0 cm

)

⇒ F = −K x =

(

−8 N−5 N

)

∦ x. (355)

Großen, die einen (linearen) Zusammenhang zwischen Vektoren verschiedener Richtungenbeschreiben, heißen in der Physik Tensoren (zweiter Stufe), in der Mathematik lineareAbbildungen. Sie werden durch eine Matrix dargestellt (hier: K), die allerdings von derwillkurlich gewahlten Basis abhangt.

Statt der Basis B = e1, e2, deren Vektoren in Richtung der Dreieckskatheten zeigen,hatten wir ebensogut eine um den Winkel φ verdrehte Basis B′ = e′1, e

′2 wahlen konnen.

Mit φ = 36.87 hatten dann die soeben adressierten Vektoren die Koordinaten

x′ =

(

0.8 0.6−0.6 0.8

)

(

1 cm0 cm

)

=

(

0.8 cm−0.6 cm

)

,

F ′ =

(

0.8 0.6−0.6 0.8

)

(

−8 N−5 N

)

=

(

−9.4 N0.8 N

)

. (356)

Nun wird derselbe Tensor durch eine andere Matrix K ′ dargestellt (Probe!),

F ′ = −K ′ x′. (357)

Um K ′ zu bestimmen, beachten wir, daß F ′ = T F und x′ = T x ⇔ x = T−1 x′,

F = −K x ⇒ F ′ = −T (K x) = −T (

K (T−1 x′))

. (358)

Da die Matrizenmultiplikation assoziativ ist, sind die Klammern uberflussig, und es folgt

K ′ = T K T−1. (359)

Im vorliegenden Beispiel haben wir also

K ′ =

(

0.8 0.6−0.6 0.8

)

(

8 55 12

)

N

cm

(

0.8 −0.60.6 0.8

)

=

(

14.24 3.323.32 5.76

)

N

cm. (360)

Diese Matrix leistet tatsachlich das gewunschte,

−K ′ x′ = −

(

14.24 3.323.32 5.76

)

N

cm

(

0.8 cm−0.6 cm

)

=

(

−9.4 N0.8 N

)

= F ′. (361)

63

Page 3: 5 Lineare Abbildungen - homepages.uni-regensburg.desem04141/mathWIkap5.pdf · 5 Lineare Abbildungen 5.1 Einfu¨hrendes Beispiel 5.1.1 Verallgemeinerung des Hookeschen Gesetzes Drei

Die Gleichungen F (x) = −K x bzw. F ′ = −K ′ x′ drucken ein- und denselbenZusammenhang aus, allerdings durch Koordinaten bezuglich verschiedener Basen B,B′.In koordinatenfreier (also basisunabhangiger) Form schreiben wir daher

F(x) = −K x. (362)

Das Symbol K bezeichnet einen Operator, der nicht nur Betrag, sondern auch Richtungdes Vektors x andern kann. Wir zeigen noch, daß K ein linearer Operator ist.

5.1.3 Linearitat

Durch Gl. (362) wird jedem Auslenkungsvektor x ∈ V ein Kraftvektor F(x) ∈ W zu-geordnet. (Die zweidimensionalen Vektorraume V und W unterscheiden sich nur in derphysikalischen Dimension ihrer Vektoren, m bzw. N.) Diese Abbildung V → W ist linear,

F(

λa+ µb)

= λF(a) + µF(b)(

fur alle a,b ∈ V und λ, µ ∈ R)

. (363)

Um dies einzusehen, wahlen wir in V und W eine Basis e1, e2,

a = a1e1 + a2e2, b = b1e1 + b2e2. (364)

Dann gilt b = −K a mit einer Matrix K, und die Regeln der Matrizenrechnung ergeben

K (λx) = λ(K x), K (x1 + x2) = (K x1) + (K x2). (365)

5.2 Allgemeine Eigenschaften linearer Abbildungen

5.2.1 Allgemeine Definition

Def.: V und W seien zwei Vektorraume. Eine lineare Abbildung von V nach W ist eineFunktion f : V → W, x 7→ y = f(x), die jedem x ∈ V ein y ∈ W so zuordnet, daß gilt

f(

λx1 + µx2

)

= λf(x1) + µf(x2)(

fur alle x1,x2 ∈ V und λ, µ ∈ R)

. (366)

Bsp. 1a: Seien V = P3(R) und W = P2(R), wobei Pn(R) den VR aller reellen Polynomex(t) = ant

n + ... + a1t+ a0 vom Grad ≤ n bezeichnet. Dann ist die Differenziation

f : V → W, x = x(t) 7→ y = y(t) =d

dtx(t) ≡ x(t) (367)

eine lineare Abbildung, die jedem Polynom aus P3(R) ein solches aus P2(R) zuordnet.

64

Page 4: 5 Lineare Abbildungen - homepages.uni-regensburg.desem04141/mathWIkap5.pdf · 5 Lineare Abbildungen 5.1 Einfu¨hrendes Beispiel 5.1.1 Verallgemeinerung des Hookeschen Gesetzes Drei

Bsp. 2: Durch die Vorschrift

f : R2 → R3, x =

[

x1

x2

]

7→ y =

y1y2y3

=

1 23 43 2

[

x1

x2

]

(368)

wird eine lineare Abbildung f von V = R2 nach W = R3 erklart.

Bsp. 3: R = R1 selbst ist ein eindimensionaler VR uber R. Durch

f : P5(R) → R, x = x(t) 7→ y =

∫ 1

0

dt x(t) (369)

wird eine lineare Abbildung f von V = P5(R) nach W = R erklart.

5.2.2 Die Matrix einer linearen Abbildung

Nun sei B = v1, ...,vn ⊂ V eine Basis von V und C = w1, ...,wm ⊂ W eine Basisvon W . Die Bilder f(vk) der Basisvektoren von V lassen sich als LKen von C darstellen,

f(vk) =m∑

i=1

Aikwi, (370)

mit gewissen Koeffizienten Aik, die sich zu einer (m×n)-Matrix A zusammenfassen lassen.Durch diese Matrix ist die lineare Abbildung f bereits vollstandig festgelegt. Sei namlich

x =

n∑

k=1

xkvk ∈ V (371)

ein beliebiger Vektor aus V . Dann folgt wegen der Linearitat von f fur den Bildvektor

y = f(x) =n

k=1

xkf(vk) =n

k=1

xk

(

m∑

i=1

Aikwi

)

=m∑

i=1

(

n∑

k=1

Aikxk

)

wi =:m∑

i=1

yiwi. (372)

Die Koordinaten yi des Bildvektors y = f(x) ergeben sich also gemaß

yi =

n∑

k=1

Aikxk ⇔ y = A x (373)

aus den Koordinaten xk des Urvektors x. Man nennt A daher die Matrix der linearenAbbildung f . Die Spalten von A sind dabei immer die Bilder der Basisvektoren von B,dargestellt durch die Koordinaten bezuglich der Basis C. Es ist klar, daß die Matrix Avon der (willkurlichen) Wahl der Basen B und C abhangen muß.

65

Page 5: 5 Lineare Abbildungen - homepages.uni-regensburg.desem04141/mathWIkap5.pdf · 5 Lineare Abbildungen 5.1 Einfu¨hrendes Beispiel 5.1.1 Verallgemeinerung des Hookeschen Gesetzes Drei

Bsp. 1b: Wir wahlen in V = P3(R) und W = P2(R) die Basen

B = t3, t2, t, 1 bzw. C = t2, t, 1. (374)

Dann ist wegen ddt(at3+bt2+ct+d) = 3at2+2bt+c die Matrix der in Bsp. 1a beschriebenen

linearen Abbildung f : P3(R) → P2(R), x(t) 7→ x(t) gegeben durch

A =

3 0 0 00 2 0 00 0 1 0

. (375)

Tatsachlich kann man etwa ddt(2t3 − 4t2 + 5t− 1) = 6t2 − 8t+ 5 auch ausdrucken als

A

2−45−1

=

6−85

. (376)

Merke: Die Spalten von A sind die Koordinaten der Bilder f(vk) ∈ W der Basisvektorenvk von V bezuglich der Basisvektoren wj von W , f(vk) =

∑m

i=1Aikwi.

5.2.3 Basiswechsel

Die Matrix A einer linearen Abbildung f : V → W ist naturlich nicht eindeutig, sondernhangt davon ab, welche Basen von V bzw. W man zugrundelegt. Die Koordinaten xbzw. x′ eines Vektors x ∈ V bezuglich der Basen B und B′ von V seien verknupft durch

x′ = T x ⇔ x = T−1 x′. (377)

Entsprechend gelte fur die Koordinaten von y ∈ W bezuglich der Basen C und C ′ von W

y′ = S y. (378)

Wird f : V → W bezuglich der Basen B und C dargestellt durch die Matrix A,

y = A x, (379)

so folgt

y′ = S y = S (A x) = S (

A (T−1 x′))

≡(

S A T−1)

x′, (380)

und f : V → W wird bezuglich der Basen B′ und C ′ dargestellt durch die Matrix

A′ = S A T−1. (381)

66

Page 6: 5 Lineare Abbildungen - homepages.uni-regensburg.desem04141/mathWIkap5.pdf · 5 Lineare Abbildungen 5.1 Einfu¨hrendes Beispiel 5.1.1 Verallgemeinerung des Hookeschen Gesetzes Drei

Das Ziel eines Basiswechsels ist, zur Beschreibung einer linearen Abbildung f einemoglichst einfache Matrix A′ zu finden. Ein Beispiel soll dies illustrieren.

Bsp.: Die Abbildung f : R3 → R2 werde bezuglich der Standardbasen

B =

100

,

010

,

001

, C =

[

10

]

,

[

01

]

. (382)

beschrieben durch die Matrix

A =

(

1 0 −12 1 1

)

. (383)

Nun gehen wir im R3 bzw. im R2 uber zu den neuen Basen

B′ =

100

,

110

,

1−31

, C ′ =

[

12

]

,

[

13

]

. (384)

Die Spalten der inversen Trafo-Matrix T−1 sind die Koordinaten der neuen Basisvektoren(aus B′) bezuglich der alten Basisvektoren (aus B),

T−1 =

1 1 10 1 −30 0 1

. (385)

Umgekehrt sind die Spalten der Trafo-Matrix S die Koordinaten der alten Basisvektoren(aus C) bezuglich der neuen Basisvektoren (aus C ′),

S =

(

3 −1−2 1

)

. (386)

Bezuglich der neuen Basen B′ und C ′ wird f also beschrieben durch die Matrix

A′ = S A T−1

=

(

3 −1−2 1

)

(

1 0 −12 1 1

)

1 1 10 1 −30 0 1

=

(

1 0 00 1 0

)

. (387)

Durch “geschickte” Wahl neuer Basen B′ und C ′ konnen wir also f durch eine wesentlicheinfachere Matrix A′ beschreiben. Nach welcher Strategie dabei vorzugehen ist, wirdGegenstand der folgenden Abschnitte 5.3.1 und 5.3.3 sein.

67

Page 7: 5 Lineare Abbildungen - homepages.uni-regensburg.desem04141/mathWIkap5.pdf · 5 Lineare Abbildungen 5.1 Einfu¨hrendes Beispiel 5.1.1 Verallgemeinerung des Hookeschen Gesetzes Drei

5.2.4 Kern, Bild und Rang einer linearen Abbildung

Def.: Es seien V und W zwei beliebige VRe und f : V → W eine lineare Abbildung.Dann heißt die Teilmenge

Kern f :=

x ∈ V∣

∣f(x) = 0

⊆ V (388)

der Kern von f , und die Teilmenge

Bild f :=

y ∈ W∣

∣∃x ∈ V : y = f(x)

⊆ W (389)

heißt das Bild von f .

Bsp. 1: Mit V = W = R2 sei f : V → W, x 7→ y = f(x) erklart durch

y = A · x ⇔

[

y1y2

]

=

(

1 22 4

)

[

x1

x2

]

[

x1 + 2x2

2x1 + 4x2

]

. (390)

Mit x1 + 2x2 =: λ gilt offenbar

Bild f =

λ ·

[

12

]

∣λ ∈ R

. (391)

Dagegen ist Kern f offenbar die Losungsmenge eines homogenen Gleichungssystems,

x1 + 2x2 = 0,2x1 + 4x2 = 0.

⇔ Kern f = L =

µ ·

[

2−1

]

∣µ ∈ R

. (392)

Bsp. 2: Mit V = P5(R) und W = P9(R) sei f : V → W, x 7→ y = f(x) erklart durch

y = f(x) ⇔ y(t) =d2

dt2x(t) ≡ x(t). (393)

Wegen d2

dt2[λx1(t) + µx2(t)] = λx1(t) + µx2(t) ist f linear und offenbar gilt

Kern f = P1(R) ( V, Bild f = P3(R) ( W. (394)

Satz: Sei f : V → W eine lineare Abbildung von einem endlich-dimensionalen VR V(dimV = n) in einen beliebigen VR W . Dann ist Kern f ein Untervektorraum (UVR)von V und Bild f ein UVR von W , und es gilt

dim(

Kern f)

+ dim(

Bild f)

= n ≡ dimV. (395)

68

Page 8: 5 Lineare Abbildungen - homepages.uni-regensburg.desem04141/mathWIkap5.pdf · 5 Lineare Abbildungen 5.1 Einfu¨hrendes Beispiel 5.1.1 Verallgemeinerung des Hookeschen Gesetzes Drei

Beweis: Mit x1,x2 ∈ Kern f folgt fur alle λ, µ ∈ R

f(λx1 + µx2) ≡ λf(x1) + µf(x2) = 0 ⇔ λx1 + µx2 ∈ Kern f . (396)

Entsprechend folgt mit y1 = f(x1),y2 = f(x2) ∈ Bild f fur alle λ, µ ∈ R

λy1 + µy2 = f(λx1 + µx2) ⇔ λy1 + µy2 ∈ Bild f . (397)

Damit ist bewiesen, daß Kern f und Bild f UVRe von V bzw. W sind.Sei nun dim(Kern f) = s und v1, ...,vs ⊂ V eine Basis von Kern f (mit 0 ≤ s ≤ n).Nach einem elementaren Satz laßt diese sich zu einer Basis v1, ...,vn von V erganzen.Dann gilt

Bild f =

n∑

k=s+1

λkf(vk)∣

∣λs+1, ..., λn ∈ R

. (398)

Es bleibt zu zeigen, daß die Vektoren f(vk) ∈ W (s+ 1 ≤ k ≤ n) linear unabhangig sind.Sei also

n∑

k=s+1

µkf(vk) ≡ f(

n∑

k=s+1

µkvk

)

= 0. (399)

Dann ist also∑n

k=s+1 µkvk ∈ Kern f , sodaß mit µk =: −λk folgt

n∑

k=s+1

µkvk ≡

n∑

k=s+1

(−λk)vk =

s∑

k=1

λkvk ⇔

n∑

k=1

λkvk = 0 (400)

was nur moglich ist wenn λk = 0 fur 1 ≤ k ≤ n und damit µk = 0 fur s+1 ≤ k ≤ n, qed.

Def.: Eine lineare Abbildung f : V → W heißt injektiv, wenn fur x1,x2 ∈ V stets gilt

f(x2) = f(x1) ⇒ x2 = x1, (401)

und surjektiv, wenn es zu jedem y ∈ W ein x ∈ V gibt mit

y = f(x). (402)

Ist f sowohl injektiv als auch surjektiv, so heißt f ein Isomorphismus.

Bem.: Die lineare Abbildung f : V → W ist genau dann injektiv, wenn Kern f = 0,und genau dann surjektiv, wenn Bild f = W .

Bsp. 1: Die durch folgende Matrizen beschriebenen linearen Abbildungen sind:injektiv aber nicht surjektiv (A); surj. aber nicht inj. (B), ein Isomorphismus (C),

A =

1 00 10 0

, B =

(

1 0 00 1 0

)

, C =

1 0 00 1 00 0 1

. (403)

69

Page 9: 5 Lineare Abbildungen - homepages.uni-regensburg.desem04141/mathWIkap5.pdf · 5 Lineare Abbildungen 5.1 Einfu¨hrendes Beispiel 5.1.1 Verallgemeinerung des Hookeschen Gesetzes Drei

Bsp. 2a: Wir betrachten die drei linearen Abbildungen

f : P5(R) → P4(R), x(t) 7→ x(t),

g : P5(R) → P5(R), x(t) 7→ tx(t),

h : P5(R) → P5(R), x(t) 7→ tx(t) + x(t). (404)

f ist surjektiv aber nicht injektiv, da f(c) = 0 fur alle c ∈ P0(R).g ist weder injektiv noch surjektiv, da f(c) = 0 und c /∈ Bild g fur alle c ∈ P0(R).h ist ein Isomorphismus.

Bem.: Ist dim V = dimW = n, so sind fur eine lineare Abbildung f : V → W folgendedrei Aussagen aquivalent:(a) f ist surjektiv;(b) f ist injektiv;(b) f ist ein Isomorphismus.

Def.: Die Dimension von Bild f heißt der Rang der linearen Abbildung f , geschrieben

rg f := dim(

Bild f)

. (405)

Fur f : V → W gilt also

rg f = dimV − dim(

Kern f)

. (406)

Bsp. 2b: In Bsp. 2a gilt rg f = rg g = 5 und rg h = 6.

Satz: Die Spalten einer (n × m)-Matrix A spannen einen VR auf, dessen Dimension≤ min(n,m) als Spaltenrang von A bezeichnet wird. Entsprechend wird der Zeilenrang≤ min(n,m) von A definiert. Dabei gilt

Spaltenrang von A = Zeilenrang von A =: rg A. (407)

(Der Beweis dieses Satzes ist nicht vollig trivial!)

Korollar: Fur jede Matrix A, welche eine gegebene lineare Abbildung f : V → W(bezuglich irgendwelcher Basen von V bzw. W ) beschreibt, gilt

rg A = rg f . (408)

70

Page 10: 5 Lineare Abbildungen - homepages.uni-regensburg.desem04141/mathWIkap5.pdf · 5 Lineare Abbildungen 5.1 Einfu¨hrendes Beispiel 5.1.1 Verallgemeinerung des Hookeschen Gesetzes Drei

5.3 Lineare Selbstabbildungen

Wir beschranken uns von jetzt an auf den wichtigsten Fall linearer Selbstabbildungenf : V → V eines Vektorraums V auf sich selbst.In diesem Fall wahlen wir, sofern nicht anders betont, in Urraum V und (identischem)Bildraum W = V die gleiche Basis. Die Matrix A einer Selbstabbildung bezuglich einerjeden solchen Basis ist quadratisch und eine (n× n)-Matrix, wobei n = dimV .Unser Ziel ist, diese Basis geschickt zu wahlen, damit A moglichst einfach wird.

5.3.1 Invariante Unterraume

Def.: Ein Untervektorraum U von V heißt invarianter Unterraum (UR) bezuglich derAbbildung f : V → V , wenn f(x) ∈ U fur alle x ∈ U .

Bsp. 1: Im Fall V = R2 ist bezuglich der Selbstabbildung f : V → V mit

f(x) = A x, A =

(

2 30 0

)

(409)

U = [λ, 0] | λ ∈ R ein invarianter UR von V , denn es gilt

(

2 30 0

)

[

λ0

]

=

[

2λ0

]

∈ U. (410)

Zugleich ist in diesem Beispiel U = Bild f , denn fur beliebige λ, µ ∈ R gilt

(

2 30 0

)

[

λµ

]

=

[

2λ+ 3µ0

]

. (411)

Bsp. 2: Man sieht leicht ein, daß generell Bild f und Kern f bezuglich f : V → Vinvariante URe von V sind. (Trivialerweise sind auch V selbst und 0 invariante URe.)

Bsp. 3: In V = P5(R) sind bezuglich der Abbildung f : V → V, x(t) 7→ x(t) die URe

0, P0(R) ≡ R, P1(R), ..., P5(R) (412)

invariant. Nicht invariant bezuglich f sind dagegen fur beliebig gewahltes t0 ∈ R die URe

U1 :=

x(t)∣

∣ x(t0) = 0

, U2 :=

x(t)∣

∣ x(t0) = 0

. (413)

71

Page 11: 5 Lineare Abbildungen - homepages.uni-regensburg.desem04141/mathWIkap5.pdf · 5 Lineare Abbildungen 5.1 Einfu¨hrendes Beispiel 5.1.1 Verallgemeinerung des Hookeschen Gesetzes Drei

Sei nun dimV = n und U ( V ein invarianter UR von V bezuglich f : V → V .B1 = v1, ...,vr ⊂ V sei eine Basis von U , wobei r < n. Es ist also n− r =: s ≥ 1.B1 laßt sich immer zu einer Basis B = v1, ...,vn ⊂ V von ganz V erganzen.Die (n× n)-Matrix A, welche f bezuglich B beschreibt, hat dann die Form

A =

(

A1 XA2

)

, (414)

mit einer (r × r)-Matrix A1, einer (s× s)-Matrix A2 und einer (r × s)-Matrix X.Der linke untere Bereich von A enthalt nur Nullen.Diese Form ist notwendig und hinreichend dafur, daß jedem Vektor x ∈ U , fur dessenKoordinaten x = (x1, ..., xn) also gilt xk = 0 fur k > r, durch die Abbildungsvorschrift

y = A x (415)

auch tatsachlich ein Vektor y ∈ U , also mit Koordinaten y = (y1, ..., yn) mit yk = 0 furk > r, zugeordnet wird.

Hat die Untermatrix A2 wenigstens eine Nullzeile, so gibt es auch Vektoren x /∈ U ,die auf Vektoren y = f(x) ∈ U abgebildet werden. In jedem Fall ist aber, sofern nur Uein unter f : V → V invarianter UR von V ist, die Einschrankung f |U von f auf U einelineare Abbildung f |U : U → U . Die Matrix von f |U bezuglich B1 ist gerade A1.

Bsp. 4: Es sei dimV ≡ n = 3 und U ein 2-dim. UR von V , der bezuglich der Abbildungf : V → V invariant ist, r = 2, s = 1. Eine Basis von U sei B1 = v1,v2.Die Bilder der Basisvektoren von B1 bzw. B = v1,v2,v3, einer Basis von V , seien

f(v1) = 2v1 + 3v2,

f(v2) = −v1 + 2v2,

f(v3) = av1 + bv2 + 4v3. (416)

Die Koordinaten dieser Vektoren bilden die Spalten von A,

A =

2 −1 a3 2 b0 0 4

, (417)

In diesem Beispiel sind also

A1 =

(

2 −13 2

)

, A2 = (4), X =

(

ab

)

. (418)

A1 ist die Matrix der Einschrankung f |U : U → U von f auf U . Speziell im Fall a = b = 0ist U ′ = λv3 | λ ∈ R neben U ein zweiter bezuglich f invarianter UR von V .

72

Page 12: 5 Lineare Abbildungen - homepages.uni-regensburg.desem04141/mathWIkap5.pdf · 5 Lineare Abbildungen 5.1 Einfu¨hrendes Beispiel 5.1.1 Verallgemeinerung des Hookeschen Gesetzes Drei

5.3.2 Direkte Summe und Komplement

Def.: Die Summe zweier UVRe U1 und U2 von V ist definiert als

U1 + U2 :=

x1 + x2

∣x1 ∈ U1 und x2 ∈ U2

. (419)

U = U1 + U2 ist selbst ein UVR von V . U heißt die direkte Summe von U1 und U2,

U = U1 ⊕ U2, (420)

wenn neben U = U1 + U2 zusatzlich gilt U1 ∩ U2 = 0. In diesem Fall heißt U2 einKomplement von U1 in U und umgekehrt.

Bem.: Jeder UVR U1 von V hat ein Komplement U2 in U = V . Dann gilt

V = U1 ⊕ U2. (421)

In den Sonderfallen U1 = V und U1 = 0 ist dieses Komplement U2 jeweils eindeutigbestimmt und gegeben durch U2 = 0 bzw. U2 = V .Im allg. hat aber ein UR U1 von V mehrere verschiedene Komplemente U2 in V .

Bsp.: Wir betrachten in V = R2 den UR

U1 :=

λ

[

10

]

∣λ ∈ R

. (422)

Dann ist fur beliebige a, b ∈ R der UR

U2 :=

µ

[

ab

]

∣µ ∈ R

(423)

ein Komplement von U1 in V , sofern nur b 6= 0.Wegen b 6= 0 gilt ja in jedem Fall U1 + U2 = V und U1 ∩ U2 = 0.

Ist V die direkte Summe zweier bezuglich f : V → V invarianter URe U1 und U2,

V = U1 ⊕ U2, (424)

und sind B1 = v1, ...,vr ⊂ V und B2 = vr+1, ...,vn ⊂ V Basen von U1 bzw. U2, sohat die Matrix A, welche f bezuglich der Basis B = B1 ∪ B2 von V beschreibt, die Form

A =

(

A1

A2

)

. (425)

Außerhalb der (r× r)-Matrix A1 und der (s× s)-Matrix A2, mit s = n− r, enthalt A nurNullen. Dies ist der einfachste Fall einer Kastchenform.

73

Page 13: 5 Lineare Abbildungen - homepages.uni-regensburg.desem04141/mathWIkap5.pdf · 5 Lineare Abbildungen 5.1 Einfu¨hrendes Beispiel 5.1.1 Verallgemeinerung des Hookeschen Gesetzes Drei

Sei allgemein V die direkte Summe aus p URen Ui ⊂ V , die unter f invariant sind,

V = U1 ⊕ U2 ⊕ ...⊕ Up (p ≤ n). (426)

Wir wahlen eine Basis B = v1, ...,vn von V derart, daß

B1 = v1, ...,vr1 eine Basis von U1 (mit r1 := dimU1),

B2 = vr1+1, ...,vr1+r2 eine Basis von U2 (mit r2 := dimU2),

... ...,

und Bp = vn−rp+1, ...,vn eine Basis von Up (mit rp := dimUp) ist, (427)

wobei r1 + r2 + ...+ rp = n. Bezuglich B nimmt dann die Matrix von f Kastchenform an,

A =

A1

A2. . .

Ap

. (428)

Dabei ist Ai, mit i = 1, ..., p, jeweils eine (ri × ri)-Matrix, wahrend alle ubrigen Elementevon A, die außehalb dieser p Kastchen stehen, verschwinden.

5.3.3 Eigenwerte, Eigenvektoren und Eigenraume

Besonders interessant ist naturlich der Fall p = n, wenn sich V als direkte Summe ausn = dimV bezuglich f invarianten, eindimensionalen URen U1, ..., Un darstellen laßt,

Ui = αvi | α ∈ R (i = 1, ..., n). (429)

Bezuglich der Basis B = v1, ...,vn ist dann die Matrix von f diagonal,

A =

λ1

λ2

. . .

λn

. (430)

Alle Elemente aij mit j 6= i, die außerhalb der Diagonale von A stehen, sind gleich null.Man sagt: Durch die Wahl der speziellen Basis B wird die Matrix von f diagonalisiert.Die Basisvektoren vi sind bezuglich f ausgezeichnet,

f(vi) = λivi. (431)

Jeder von ihnen wird auf einen zu sich selbst kollinearen Vektor λivi abgebildet.

74

Page 14: 5 Lineare Abbildungen - homepages.uni-regensburg.desem04141/mathWIkap5.pdf · 5 Lineare Abbildungen 5.1 Einfu¨hrendes Beispiel 5.1.1 Verallgemeinerung des Hookeschen Gesetzes Drei

Def.: Eine Zahl λ ∈ K heißt Eigenwert der linearen Abbildung f : V → V , wenn es einenvon 0 verschiedenen Vektor x ∈ V gibt mit

f(x) = λx (x 6= 0). (432)

Der Vektor x 6= 0 heißt ein zum Eigenwert λ gehorender Eigenvektor von f .

Bem.: Der Nullvektor x = 0 ist nie Eigenvektor. λ = 0 kann aber Eigenwert sein.Ist x Eigenvektor zum Eigenwert λ, so auch alle Vektoren x′ = µx mit µ ∈ R\0;Die Menge µx |µ ∈ R ⊂ V ist ein eindimensionaler, unter f invarianter UR von V .

Bsp.: Wir betrachten das verallgemeinerte Hookesche Gesetz aus Abschnitt 5.1.1, dasjedem Auslenkungsvektor x ∈ V im zweidimensionalen Raum V einen Vektor F = f(x)der Ruckstellkraft zuordnet. Bezuglich der Basis B = e1, e2 ⊂ V aus Abschnitt 5.1.1stellt sich diese lineare Selbstabbildung f : V → V dar als

f : x 7→ −K x, K :=

(

K1 KK K2

)

, (433)

mit der Matrix A = −K. Wir wahlen die Federkonstanten k1 = k2 = 5 Ncm

und k3 = 8 Ncm,

A =

(

−9 −4−4 −9

)

N

cm. (434)

f : V → V hat offenbar die Eigenvektoren x1 und x2 mit den Koordinaten

x1 =

(

1 cm1 cm

)

, x2 =

(

1 cm−1 cm

)

, (435)

A xi = λixi (i = 1, 2), mit den Eigenwerten

λ1 = −13N, λ2 = −5N. (436)

Wird die an den drei Schraubenfedern aufgehangte Punktmasse in eine dieser beidenRichtungen ausgelenkt, so ist die Ruckstellkraft genau (anti-) parallel zur Auslenkung.Bei beliebiger Richtung der Auslenkung ist dies nicht der Fall !Zum Basiswechsel B → B′ := x1,x2 gehort die Trafo-Matrix

T =1

2

(

1 11 −1

)

⇔ T−1 =

(

1 11 −1

)

. (437)

Bezuglich B′ stellt sich f tatsachlich durch eine Diagonalmatrix dar,

A′ = T A T−1 =1

2

(

−13 −13−5 5

)

(

1 11 −1

)

=

(

−13 00 −5

)

N

cm. (438)

Die Diagonalelemente von A′ sind die Eigenwerte λ1,2 !

75

Page 15: 5 Lineare Abbildungen - homepages.uni-regensburg.desem04141/mathWIkap5.pdf · 5 Lineare Abbildungen 5.1 Einfu¨hrendes Beispiel 5.1.1 Verallgemeinerung des Hookeschen Gesetzes Drei

Satz: Sind λ1, ..., λk paarweise verschiedene Eigenwerte von f : V → V und sind v1, ...,vk

entsprechende Eigenvektoren, so ist die Menge v1, ...,vk linear unabhangig.Beweis: Im Fall k = 2 ist der Beweis trivial: Ware v1,v2 linear abhangig, so gabe es wegenv1,v2 6= 0 ein α 6= 0 sodaß v2 = αv1 und wir hatten

λ2v2 = f(v2) = f(αv1) = αλ1v1 = λ1v2, (439)

im Widerspruch zur Voraussetzung λ2 6= λ1.Sei nun die Behauptung fur ein k ≥ 2 richtig, v1, ...,vk also linear unabhangig, und vk+1 einzusatzlicher Eigenvektor zu einem Eigenwert λk+1 6= λi fur alle i ∈ 1, ..., k. Ware v1, ...,vk+1linear abhangig, so gabe es Koeffizienten α1, ..., αk mit vk+1 =

∑ki=1 αivi. Dann hatten wir

λk+1vk+1 = f(vk+1) =k

i=1

αif(vi) =k

i=1

αiλivi. (440)

Im Fall λk+1 = 0, mit λi 6= 0 fur alle i ∈ 1, ..., k, ware dies ein Widerspruch zur linearenUnabhangigkeit von v1, ...,vk. Andernfalls dividieren wir durch λk+1,

vk+1 =k

i=1

αiλi

λk+1vi ≡

k∑

i=1

αivi. (441)

Da λ1, ..., λk paarweise verschieden sind, waren dies zwei verschiedene Darstellungen von vk+1

durch v1, ...,vk, wiederum im Widerspruch zu deren linearer Unabhangigkeit.

Kor.: Eine lineare Abb. f : V → V hat maximal n = dimV verschiedene Eigenwerte.

Zur deren Bestimmung berechnet man die Matrix A von f bezuglich irgendeiner Basisvon V . Jeder Eigenwert λ von A, mit A x = λx und x 6= 0, ist zugleich Eigenwert von fund umgekehrt. (Dies muß unabhangig von der gewahlten Basis gelten!) Dazu dient der:

Satz: λ ∈ K ist genau dann Eigenwert der (n× n)-Matrix A = (aij), wenn die Matrix

Z := A− λE ≡

a11 − λ a12 ... a1na21 a22 − λ ... a2n...

.... . .

...an1 an2 ... ann − λ

(442)

[mit der (n× n)-Einheitsmatrix E] singular ist, ihre Spalten also linear abhangig sind.Beweis: Seien e1, ..., en die Spalten von E. Lineare Abhangigkeit der Spalten zi = ai − λei vonZ ist aquivalent zur Existenz einer Spalte x = (x1, ..., xn) 6= 0 mit der Eigenschaft

0 =n∑

i=1

xizi ≡ Z x ≡(

A− λE)

x ⇔ A x = λx(

x 6= 0)

, qed.

Zur Bestimmung von Eigenwerten brauchen wir also ein moglichst einfaches Kriteriumdafur, wann eine gegebene (n× n)-Matrix A (hier: Z) singular ist.

76

Page 16: 5 Lineare Abbildungen - homepages.uni-regensburg.desem04141/mathWIkap5.pdf · 5 Lineare Abbildungen 5.1 Einfu¨hrendes Beispiel 5.1.1 Verallgemeinerung des Hookeschen Gesetzes Drei

5.3.4 Determinanten

Sei M(n× n,K) die Menge aller (n× n)-Matrizen A = (aij) mit Elementen aij ∈ K.Wir suchen eine Funktion

D : M(n× n,K) → K, A 7→ D(A), (443)

die einer (n × n)-Matrix A genau dann die Zahl D(A) = 0 ∈ K zuordnet, wenn ihreSpalten a1, ..., an linear abhangig sind. Wir fassen D als Funktion der Spalten von A auf,

D(A) = D(a1, ..., an). (444)

Im Fall n = 2 (mit K = R) wahlen wir D(a1, a2) proportional zum Flacheninhalt Fdes von den Vektoren a1 =: a und a2 =: b im R2 aufgespannten Parallelogramms. Mit

a =

(

a1a2

)

, b =

(

b1b2

)

, a⊥ =

(

−a2a1

)

, e⊥ =a⊥|a|

, (445)

wobei e⊥ ein Einheitsvektor senkrecht zu a ist, gilt

F = |a| · |b · e⊥| = |b · a⊥| = |a1b2 − b1a2|. (446)

Entsprechend definieren wir (wieder mit a =: a1 und b =: a2)

D(a1, a2) ≡ D

((

a11a21

)

,

(

a12a22

))

= a11a22 − a12a21. (447)

Bsp.: Im Beispiel aus Abschnitt 5.1.1 geht es um die Eigenwerte der Matrix

A =

(

−9 −4−4 −9

)

⇒ Z ≡ A− λE =

(

−9− λ −4−4 −9− λ

)

. (448)

Damit Z singular wird, muß also der Parameter λ folgende Bedingung erfullen,

PA(λ) := D

((

−9− λ−4

)

,

(

−4−9− λ

))

≡ (9 + λ)2 − 16 ≡ λ2 + 18λ+ 65 = 0. (449)

Die Losungen dieser quadratischen Gl. sind tatsachlich die Eigenwerte λ1,2 = −5,−13.Der etwa zum Eigenwert λ2 = −5 gehorende Eigenvektor v2 ergibt sich aus dem GS

A v2 = λ2v2 ⇔

(

−9 −4−4 −9

)

(

xy

)

=

(

−5x−5y

)

(450)

fur die beiden Unbekannten x und y. Die Losung ist naturlich nicht eindeutig,

v2 ≡

(

xy

)

=

(

µ−µ

)

(µ ∈ R\0). (451)

77

Page 17: 5 Lineare Abbildungen - homepages.uni-regensburg.desem04141/mathWIkap5.pdf · 5 Lineare Abbildungen 5.1 Einfu¨hrendes Beispiel 5.1.1 Verallgemeinerung des Hookeschen Gesetzes Drei

Fur eine beliebige (2× 2)-Matrix A = (aij) heißt die Zahl

detA ≡ det

(

a11 a12a21 a22

)

= a11a22 − a12a21 (452)

die Determinante von A. Ihr Betrag |a11a22−a12a21| ist gleich dem Flacheninhalt des vonden Spalten a1 und a2, interpretiert als Vektoren im R2, aufgespannten Parallelogramms.Zur Deutung des Vorzeichens von detA schreiben wir

ai =

(

|ai| cosφi

|ai| sinφi

)

(i = 1, 2) ⇒ detA = |a1||a2| sin(φ2 − φ1). (453)

Es ist also detA > 0, wenn 0 < φ2−φ1 < 180 und detA < 0, wenn 180 < φ2−φ1 < 360.

Bevor wir den Begriff Determinante auf beliebige (n×n)-Matrizen A verallgemeinern,wollen wir das Wichtigste vorwegnehmen. Wie in Bsp. 1 (mit n = 2) ist die Funktion

PA(λ) := det(A− λE) (454)

immer ein Polynom n-ten Grades, genannt das charakteristische Polynom von A.Seine Nullstellen sind genau die Eigenwerte von A.

Im Fall n = 3, also einer (3× 3)-Matrix A, definiert man die Determinante als

detA ≡ det

a11 a12 a13a21 a22 a23a31 a32 a33

= +a11a22a33 + a12a23a31 + a13a21a32 +

−a13a22a31 − a12a21a33 − a11a23a32. (455)

Dies ist, abgesehen von einem Vorzeichen, das Volumen des von den drei Spalten a1, a2, a3von A, interpretiert als Vektoren im R3, aufgespannten Parallelepipeds,

detA = (a1 × a2) · a3. (456)

Dabei ist detA > 0 wenn a1, a2 und a3 in dieser Reihenfolge ein Rechtssystem bilden.Man sieht, daß PA(λ) = det(A− λE) jetzt ein Polynom dritten Grades ist.

Die Funktion D(a1, ..., an) soll (evtl. bis auf ein Vorzeichen ±) gleich dem Volumenjenes n-dimensionalen Parallelepipeds Ω sein, das von den n Spalten a1, ..., an, inter-pretiert als Vektoren im Rn, aufgespannt wird. Darunter verstehen wir die Punktmenge

Ω :=

x = x1a1 + ... + xnan

∣0 ≤ x1, ..., xn ≤ 1

(457)

x =∑n

i=1 xiai ∈ Ω ist genau dann Eckpunkt von Ω , wenn xi ∈ 0, 1 fur alle i = 1, ..., n.Falls diese paarweise verschieden sind, hat Ω also 2n solche Eckpunkte.

78

Page 18: 5 Lineare Abbildungen - homepages.uni-regensburg.desem04141/mathWIkap5.pdf · 5 Lineare Abbildungen 5.1 Einfu¨hrendes Beispiel 5.1.1 Verallgemeinerung des Hookeschen Gesetzes Drei

Speziell fur die Einheitsmatrix E muß dann offenbar gelten

(I) D(E) ≡ D(e1, ..., en) = 1. (458)

Außerdem muß offenbar D = 0 sein, wenn zwei der Spalten ubereinstimmen,

(II) ai = aj (fur zwei i, j ∈ 1, ..., n mit i 6= j) ⇒ D(a1, ..., an) = 0. (459)

Schließlich muß D in jedem ihrer Argumente a1, ..., an linear sein,

(III) ai = λbi + µci ⇒ D(..., ai, ...) = λD(..., bi, ...) + µD(..., ci, ...). (460)

Dadurch wird u. a. gewahrleistet, daß D = 0, wenn ai = 0 fur ein i ∈ 1, ..., n.

Man kann zeigen, daß D(A) durch die Eigenschaften (I–III) eindeutig festgelegt ist.Somit wird jeder (n× n)-Matrix A eine Zahl zugeordnet, ihre sog. Determinante detA.

Bem. 1: Unmittelbar folgt aus (II,III) die wichtige Eigenschaft

(IV) D(..., ai, ...) = D(..., ai + µaj , ...) (j 6= i). (461)

D andert sich nicht, wenn zu einer Spalte ai das µ-fache µaj einer anderen addiert wird.Dies impliziert, daß D = 0 wird, wenn a1, ..., an linear abhangig ist. Wir werden sehen,daß auch die Umkehrung richtig ist.

Bem. 2: D(a1, ..., an) wechselt bei Vertauschung zweier Spalten das Vorzeichen,

D(..., ai, ..., aj, ...) = −D(..., aj, ..., ai, ...). (462)

Beweis: Mit (III) und (IV) ergibt sich D(..., ai, ..., aj, ...) = D(..., ai + aj, ..., aj , ...) == D(..., ai + aj , ..., aj − ai − aj , ...) = D(..., aj, ...,−ai, ...) = −D(..., aj , ..., ai, ...), qed.

5.3.5 Praktische Berechnung von Determinanten

Fur n ≥ 4 ist der Entwicklungssatz von Laplace nutzlich:

Satz: Fur die (n× n)-Matrix A = (aij) gilt (Entwicklung nach der k-ten Zeile)

detA =

n∑

i=1

aki (−1)k+i detA(ki). (463)

Hier bezeichnet A(ij) jene (n − 1) × (n − 1)-Matrix, die durch Streichen der i-ten Zeileund der j-ten Spalte aus A hervorgeht. Ebenso gilt (Entwicklung nach der k-ten Spalte)

detA =

n∑

i=1

aik (−1)i+k detA(ik). (464)

79

Page 19: 5 Lineare Abbildungen - homepages.uni-regensburg.desem04141/mathWIkap5.pdf · 5 Lineare Abbildungen 5.1 Einfu¨hrendes Beispiel 5.1.1 Verallgemeinerung des Hookeschen Gesetzes Drei

Bsp.: Da hier die zweite Zeile viele Nullen enthalt, entwickeln wir nach dieser:

det

3 5 1 22 0 0 71 3 1 50 1 3 3

= 2 · (−1)2+1 det

5 1 23 1 51 3 3

+ 0+ 0 +

+7 · (−1)2+4 det

3 5 11 3 10 1 3

= −2[

(15 + 18 + 5)− (2 + 9 + 75)]

+ 7[

(27 + 1)− (15 + 3)]

= 166. (465)

5.3.6 Rechnen mit Determinanten

Die Determinante ist sicherlich nicht additiv. So haben etwa die Matrizen

A =

(

1 00 1

)

, B =

(

−1 00 −1

)

(466)

die Determinanten detA = detB = 1 wahrend offenbar gilt det(

A+B)

= 0.Fur das Produkt zweier (n× n)-Matrizen A und B gilt dagegen die einfache Formel

det(

A B)

= det(

B A)

=(

detA)(

detB)

. (467)

Obwohl also die Produktmatrizen AB und B A im allg. voneinander verschieden sind,sind ihre Determinanten gleich. Fur das Inverse einer regularen (n× n)-Matrix A folgt

det(

A−1)

=1

detA. (468)

Satz: Eine Matrix A ∈ M(n × n,K) ist genau dann regular, wenn gilt

detA 6= 0. (469)

Beweis: Wir wissen bereits, daß aus detA 6= 0 die lineare Unabhangigkeit der Spaltenvon A, also deren Regularitat folgt. Ist A umgekehrt regular, so existiert A−1, wobei gilt

1 = detE = det(

A A−1)

=(

detA)(

detA−1)

, (470)

was nur moglich ist, wenn detA 6= 0 (sowie detA−1 6= 0) ist.

80

Page 20: 5 Lineare Abbildungen - homepages.uni-regensburg.desem04141/mathWIkap5.pdf · 5 Lineare Abbildungen 5.1 Einfu¨hrendes Beispiel 5.1.1 Verallgemeinerung des Hookeschen Gesetzes Drei

5.3.7 Permutationen

Def.: Wir betrachten die Menge Nn := 1, 2, ..., n der ersten n positiv-ganzen Zahlen.Jede invertierbare Selbstabbildung

P : Nn → Nn, k 7→ k′ = P (k) (471)

heißt eine Permutation dieser Zahlen. Man schreibt auch

P =

(

1 2 . . . nP (1) P (2) . . . P (n)

)

. (472)

Bsp.: Zwei Permutationen von N4 sind etwa

P1 =

(

1 2 3 44 1 3 2

)

, P2 =

(

1 2 3 42 3 1 4

)

. (473)

Die Hintereinanderausfuhrung “∗” zweier Permutationen, erklart durch

P2 ∗ P1 :=

(

1 2 . . . nP2(P1(1)) P2(P1(2)) . . . P2(P1(n))

)

, (474)

ist wieder eine Permutation. Im obigen Beispiel ergibt sich etwa

P2 ∗ P1 =

(

1 2 3 4P2(4) P2(1) P2(3) P2(2)

)

=

(

1 2 3 44 2 1 3

)

. (475)

Wie man sich leicht uberzeugt, ist die Operation “∗” nicht kommutativ, P2 ∗P1 6= P1 ∗P2.

Satz/Def.: Die Gesamtheit aller Permutationen P : Nn → Nn bildet bezuglich derHintereinanderausfuhrung “∗” eine (fur n ≥ 3 nicht-abelsche) Gruppe, die SymmetrischeGruppe Sn. Diese ist endlich und hat genau n! Elemente.

Bsp.: Die 3! = 6 Elemente der Symmetrische Gruppe S3 sind

P1 =

(

1 2 31 2 3

)

, P2 =

(

1 2 32 3 1

)

, P3 =

(

1 2 33 1 2

)

,

P4 =

(

1 2 33 2 1

)

, P5 =

(

1 2 31 3 2

)

, P6 =

(

1 2 32 1 3

)

. (476)

Def.: Unter der Transposition Pij versteht man jene spezielle Permutation, bei der nurdie beiden Elemente i, j ∈ Nn “ihren Platz tauschen”,

Pij(k) =

j (k = i),i (k = j),k (sonst).

(477)

81

Page 21: 5 Lineare Abbildungen - homepages.uni-regensburg.desem04141/mathWIkap5.pdf · 5 Lineare Abbildungen 5.1 Einfu¨hrendes Beispiel 5.1.1 Verallgemeinerung des Hookeschen Gesetzes Drei

Bsp.: Die Transpositionen aus der S3 sind P4, P5 und P6. Eine Transposition aus der S7

ist etwa

P25 =

(

1 2 3 4 5 6 71 5 3 4 2 6 7

)

∈ S7. (478)

Satz: Jede Permutation P ∈ Sn laßt sich entweder durch eine gerade oder durch eineungerade Anzahl hintereinanderausgefuhrter Transpositionen darstellen. Entsprechendspricht man von geraden oder ungeraden Permutationen.

Bsp.: In der S3 sind P1, P2 und P3 die geraden und P4, P5 und P6 die ungeradenPermutationen. Alle Transpositionen sind definitionsgemaß ungerade.

5.3.8 Die allgemeine Determinantenformel

Von den n2 Elementen einer (n × n)-Matrix A = (aij) wahlen wir n Elemente so aus,daß jede Zeile und jede Spalte einmal vorkommt. Eine solche Auswahl ist in der folgenden(3× 3)-Matrix durch Hervorhebung gekennzeichnet,

1 2 34 5 67 8 9

. (479)

Die hier ausgewahlten Elemente sind, nach Zeilenindex geordnet, a12, a21 und a33. IhreSpaltenindizes bilden eine bestimmte Permutation P der Zeilenindizes,

a12, a21, a33

=

a1,P (1), a2,P (2), a3,P (3)

, P =

(

1 2 32 1 3

)

. (480)

Daher konnen wir das Produkt dieser drei Elemente schreiben als

a12 a21 a33 =n∏

i=1

ai,P (i) ≡ a1,P (1) a2,P (2) a3,P (3). (481)

Satz: detA ist die Summe aller moglichen Produkte aus je n Elementen von A, die aufdie beschriebene Art ausgewahlt sind, wobei ein Produkt immer dann negativ zur Summebeitragt, wenn die Permutation P ungerade ist,

detA :=∑

P∈Sn

(−1)Pn∏

i=1

ai,P (i) ≡∑

P∈Sn

(−1)Pa1,P (1) . . . an,P (n) ∈ K. (482)

Dabei ist (−1)P = ±1, je nachdem ob die Permutation P gerade oder ungerade ist.

82