177
Algebra Lineare Antonino Salibra November 30, 2018

Algebra Lineare - Home: Dipartimento di Scienze Ambientali ...salibra/appunti-algebra-lineare2017.pdf · 2 Libri di Testo A. Salibra: Algebra Lineare, 2018. M. Abate, C. de Fabritiis:

  • Upload
    vananh

  • View
    229

  • Download
    0

Embed Size (px)

Citation preview

Algebra Lineare

Antonino Salibra

November 30, 2018

2

Libri di Testo

• A. Salibra: Algebra Lineare, 2018.

• M. Abate, C. de Fabritiis: Geometria analitica con elementi di algebra lineare,Seconda Edizione, McGraw-Hill, 2010.

• Claretta Carrara, Esercizi di Algebra Lineare,http://www.dsi.unive.it/∼acarraro/Esercizi algebra lineare 2.pdf

Programma di Algebra Lineare (2018/19)

1. Campi numerici. Esempi di campi numerici: il campo dei numeri reali; il campodei numeri complessi; il campo dei numeri interi modulo p per un numero primop.

2. Numeri complessi: parte reale ed immaginaria, coniugato di un numero com-plesso. Modulo di un numero complesso. Prodotto e somma di numeri com-plessi. Rappresentazione trigonometrica: piano complesso. Rappresentazioneesponenziale. Radici n-sime dell’unita.

3. Introduzione ai vettori. Grandezze fisiche e vettori. La definizione di spaziovettoriale con somma vettoriale e prodotto per uno scalare.

4. Prodotto interno (o scalare) di due vettori del piano o dello spazio. Proprietadel prodotto interno. Lunghezza di un vettore. Caratterizzazione della per-pendicolarita con il prodotto interno. Disuguaglianza di Schwartz. Caratteriz-zazione del coseno dell’angolo formato da due vettori con il prodotto interno.Alcune applicazioni alla geometria euclidea.

5. Rette nel piano. Equazione lineare di una retta. Equazione parametrica di unaretta. Retta passante per l’origine e perpendicolare ad un dato vettore. Rettaparallela ad una retta passante per l’origine. Retta passante per un punto eparallela (alla retta determinata da) ad un dato vettore. Retta passante perdue punti.

6. Rette e piani nello spazio. Equazione lineare di un piano. Equazione para-metrica di un piano. Piano passante per l’origine e perpendicolare ad un datovettore. Piano parallelo ad un piano passante per l’origine. Piano passante pertre punti non allineati.

3

7. Sistemi Lineari. Il metodo di eliminazione di Gauss. Criteri da applicare nelmetodo di eliminazione di Gauss.

8. Matrici. Matrice quadrata, simmetrica, diagonale, triangolare superiore e in-feriore. Trasposta di una matrice. Lo spazio vettoriale delle matrici di tipom×n. Prodotto di matrici. Proprieta del prodotto di matrici. Moltiplicazionedi matrici a blocchi.

9. Matrici e sistemi lineari. Matrici elementari, operazioni elementari e metododi eliminazione di Gauss. Matrice a scala e matrice ridotta. Riduzione di unamatrice in forma a scala e in forma ridotta. Applicazioni ai sistemi lineari.

10. Spazi vettoriali. Sottospazi. Vettori linearmente dipendenti e linearmente in-dipendenti. Basi e dimensione di uno spazio vettoriale.

11. Trasformazioni lineari. Teorema della dimensione. Matrice di una trasfor-mazione lineare. Trasformazione lineare definita da una matrice. Sottospaziovettoriale delle colonne (righe) di una matrice. Isomorfismi e cambi di base.Sistemi lineari e trasformazioni lineari.

12. Interpretazione geometrica del determinante come area di un parallelogrammae come volume di un parallelepipedo. Prodotto vettoriale di due vettori dellospazio. Determinante di una matrice quadrata di ordine n. Determinante dellamatrice trasposta, del prodotto di due matrici. Regola di Cramer. Calcolodella matrice inversa con la regola di Cramer, con il metodo dei cofattori, e conil metodo di Gauss-Jordan.

13. Autovalori e autovettori. Autospazi. Polinomio caratteristico. Radici del poli-nomio caratteristico. Matrici simili hanno lo stesso polinomio caratteristico.Autovettori di autovalori distinti. Diagonalizzazione di una matrice. Basi diautovettori. Teorema fondamentale. Esempi: algoritmo di Google. Numeri diFibonacci.

4

Chapter 1

Campi Numerici

Un campo e un insieme di numeri chiuso rispetto alle quattro operazioni: addizione,moltiplicazione, sottrazione e divisione.

Definition 1.0.1. Un campo numerico e costituito da un insieme X, due operazionibinarie + e ·, due operazioni unarie − e −1, e due costanti 0 e 1, che soddisfano leseguenti proprieta:

1. Proprieta associativa: x+ (y + z) = (x+ y) + z; x · (y · z) = (x · y) · z.

2. Proprieta commutativa: x+ y = y + x; x · y = y · x.

3. Elemento neutro: x+ 0 = x; x · 1 = x.

4. Proprieta distributiva: x · (y + z) = (x · y) + (x · z).

5. Opposto: x+ (−x) = 0.

6. Inverso: Se x 6= 0, allora x · x−1 = 1.

7. Prodotto per 0: x · 0 = 0 = 0 · x.

Scriveremo

• xy al posto di x · y;

• x− y al posto di x+ (−y);

• x/y oppure xy

per x · y−1;

5

6 CHAPTER 1. CAMPI NUMERICI

• Per ridurre il numero di parentesi supporremo che il prodotto leghi piu dellasomma. Per esempio, x+ yz significa x+ (yz).

La quadrupla (X,+,−, 0) costituisce un gruppo commutativo rispetto alla somma,mentre (X \ {0}, ·,−1 , 1) un gruppo commutativo rispetto al prodotto.

Example 1. I seguenti insiemi con le ovvie operazioni aritmetiche sono campi nu-merici:

• L’insieme Q dei numeri razionali;

• L’insieme R dei numeri reali;

• L’insieme C dei numeri complessi;

• L’insieme B = {0, 1} dei bits con le operazioni di somma e prodotto definiticome segue:

0 +2 0 = 1 +2 1 = 0; 0 +2 1 = 1 +2 0 = 1;

e

0×2 0 = 0×2 1 = 1×2 0 = 0; 1×2 1 = 1.

L’opposto di 1 e uno, cioe −1 = 1. Questo campo numerico rappresental’aritmetica dei numeri modulo 2.

• Sia p un numero primo. Allora l’insieme dei numeri {0, 1, . . . , p − 1} con leoperazioni di addizione +p e moltiplicazione ×p modulo p e un campo numerico.Se x, y ≤ p− 1, allora abbiamo:

x+p y =

{x+ y if x+ y ≤ p− 1

r if x+ y = p+ r per un certo r.

x×p y =

{xy if xy ≤ p− 1

r if xy = qp+ r con 0 ≤ r ≤ p− 1.

Per esempio, se p = 5, abbiamo 3 +5 2 = 0 e 3 +5 3 = 1, mentre 3 ×5 3 = 4 e4×5 4 = 1.

1.1. IL CAMPO DEI NUMERI COMPLESSI 7

1.1 Il campo dei numeri complessi

I numeri reali negativi non ammettono radice quadrata. Questa e una limitazione.Per esempio, l’equazione x2 + x+ 2 = 0 non ammette soluzioni reali:

x =−1±

√−7

2= −1

2±√

7

2

√−1.

Le soluzioni dell’equazione x2+x+2 = 0 sono numeri complessi perche nella formularisolutiva compare

√−1.

Il nuovo numero√−1, indicato con la lettera “i”, soddisfa l’equazione i2 = −1.

In generale un numero complesso z e un numero della forma

z = a+ bi

con a, b numeri reali. Il numero a e la parte reale di z mentre b e la parte immaginariadi z. Questi due numeri vengono denotati rispettivamente da Re(z) = a e Im(z) = b.

Proposition 1.1.1. I numeri complessi sono un campo numerico, cioe sono chiusirispetto alle quattro operazioni aritmetiche.

Proof. I numeri complessi possono essere sommati e moltiplicati:

(a+ bi) + (c+ di) = (a+ c) + (b+ d)i; (a+ bi)(c+ di) = (ac− bd) + (ad+ bc)i.

Si noti che (bi)(di) = bd(i2) = bd(−1) = −bd.

L’opposto del numero complesso a+ bi e il numero −a− bi, mentre l’inverso delnumero a+ bi (supponendo che a+ bi 6= 0) si calcola come segue:

1

a+ bi=

(1

a+ bi

)(a− bia− bi

)=

a− bi(a+ bi)(a− bi)

=a− bia2 + b2

=a

a2 + b2− b

a2 + b2i.

Example 2. Siano z = 3 + 2i e w = 5 + 7i numeri complessi. Allora abbiamo

z + w = (3 + 2i) + (5 + 7i) = 3 + 2i+ 5 + 7i = (3 + 5) + (2 + 7)i = 8 + 9i.

zw = (3+2i)(5+7i) = 15+21i+10i+14i2 = 15+31i+14(−1) = 15−14+31i = 1+31i.

8 CHAPTER 1. CAMPI NUMERICI

Coniugato e modulo di un numero complesso

Se z = a+ ib e un numero complesso, il numero z = a− bi si chiama il coniugato diz. Si vede facilmente che zz = a2 + b2 e un numero reale.

Valgono le seguenti proprieta:

Proposition 1.1.2. (i) z1 + z2 = z1 + z2;

(ii) z1z2 = z1z2.

(iii) z e un numero reale sse z = z.

Example 3. Siano z = 1 + 2i e w = 2 + 2i. Allora abbiamo:

• z + w = 3 + 4i = 3− 4i.

• z + w = 1 + 2i+ 2 + 2i = (1− 2i) + (2− 2i) = 3− 4i = z + w.

• zw = (1 + 2i)(2 + 2i) = −2 + 6i = −2− 6i.

• z w = (1− 2i)(2− 2i) = −2− 6i = zw.

Ogni numero complesso e rappresentato in maniera unica da un punto del pianoreale tramite la seguente funzione (si veda la Figura 1.1):

a+ bi 7→ (a, b).

La distanza del punto (a, b) dall’origine degli assi cartesiani e il modulo del numerocomplesso z

|z| =√a2 + b2.

Proposition 1.1.3. Siano z e w numeri complessi. Allora, |z| =√zz and |zw| =

|z||w|.

Proof. Sia z = a+ bi e w = c+ di. Allora zw = (ac− bd) + (ad+ bc)i.

|zw|2 = (ac− bd)2 + (ad+ bc)2

= a2c2 + b2d2 − 2abcd+ a2d2 + b2c2 + 2abcd= a2c2 + b2d2 + a2d2 + b2c2

= a2(c2 + d2) + b2(c2 + d2)= (a2 + b2)(c2 + d2)= |z|2|w|2.

1.1. IL CAMPO DEI NUMERI COMPLESSI 9

Un altro metodo di prova:

|zw|2 = (zw)(zw)= zwz w Proposizione 1.1.2(ii)= zzww= |z|2|w|2

Prendendo le radici quadrate positive si ricava la conclusione: |zw| = |z||w|.

Ogni equazione di secondo grado e risolubile nel campo complesso.

Proposition 1.1.4. Ogni numero complesso z = a + ib ha una radice quadrata√z =

√|z|+a2

+ i(√|z|−a2

).

Proof. Verifichiamo che (√z)2 = z:

[

√|z|+ a

2+ i(

√|z| − a

2)]2 =

|z|+ a

2− |z| − a

2+ 2i

√|z|+ a

2

√|z| − a

2= a+ ib.

Example 4. Sia z = 3+ 4i. Allora applicando le formule della prova precedente cona = 3 e b = 4, si ottiene

√z =

√√25 + 3

2+ i

√√25− 3

2= 2 + i.

Verifichiamo che elevando al quadrato√z si ottiene effettivamente z: (2 + i)2 =

(2 + i)(2 + i) = 4− 1 + 4i = 3 + 4i.

Vale un risultato molto piu generale:

Theorem 1.1.5. (Teorema fondamentale dell’algebra) Ogni equazione polinomialedi grado n

anxn + an−1x

n−1 + · · ·+ a1x+ a0 = 0

e risolubile nel campo complesso.

Proof. La dimostrazione di questo teorema verra data nel Capitolo 10 che tratta diautovalori e autovettori di matrici.

Si dice che il campo complesso e algebricamente chiuso.

10 CHAPTER 1. CAMPI NUMERICI

Il piano complesso

Sia z = a + bi un numero complesso. Il numero z ha una naturale interpretazionegeometrica in termini della sua parte reale ed immaginaria: Re(z) = a e Im(z) = bcome coppia di punti (a, b) del piano cartesiano xy. La retta dei punti y = 0 sidice asse reale, mentre la retta x = 0 si dice asse immaginario. Per esempio l’unitaimmaginaria i ha coordinate (0, 1). Il piano visto come rappresentazione dei numericomplessi si dice piano complesso.

Figure 1.1: piano complesso

Torniamo al numero z = a+ ib. I quattro punti (0, 0), (a, 0), (a, b), (0, b) del pianocomplesso determinano un rettangolo nel piano complesso la cui diagonale principalee un segmento di lunghezza |z| =

√a2 + b2. La diagonale forma un angolo θ con

l’asse reale. L’angolo 0 ≤ θ < 2π ed il modulo |z| determinano univocamente z. Siscrive

z = |z|(cos θ + i sin θ).

Se consideriamo il numero complesso z = a + ib come punto (a, b) del piano, allorala coppia (

√a2 + b2, θ) determina univocamente il punto (a, b) del piano e definisce

le cosiddette coordinate polari del punto (a, b).

Per esempio, l’angolo di 90 gradi ed il modulo 1 determinano univocamente l’unitaimmaginaria, mentre l’angolo di 180 gradi ed il modulo 1 determinano il numero reale−1, etc.

Proposition 1.1.6. Siano z = |z|(cos θ + i sin θ) e w = |w|(cosφ + i sinφ) duenumeri complessi. Allora,

zw = |zw|(cos(θ + φ) + i sin(θ + φ)).

1.1. IL CAMPO DEI NUMERI COMPLESSI 11

Figure 1.2: coordinate polari di z

Il prodotto di z e w si ottiene moltiplicando i moduli e sommando gli angoli. Siricordino le formule

sin(θ + φ) = sin θ cosφ+ cos θ sinφ

cos(θ + φ) = cos θ cosφ− sin θ sinφ

Proposition 1.1.7. Sia z = cos θ + i sin θ un numero complesso di modulo 1 ed nun numero naturale. Allora,

zn = cos(nθ) + i sin(nθ).

Per esempio, i2 = cos(2π2) + i sin(2π

2) = cosπ + i sin π = −1 + 0i = −1, mentre

i4 = cos(4π2) + i sin(4π

2) = cos(2π) + i sin(2π) = cos 0 + i sin 0 = 1 + 0i = 1. L’angolo

2π corrisponde ad un giro completo della circonferenza.

La formula magica di Eulero

Concludiamo questa sezione presentando la formula di Eulero. Il logaritmo naturaleln(a) del numero reale a > 0 (descritto per la prima volta da Nepero) e l’area sottesadal grafico della funzione f(x) = 1

xda x = 1 a x = a. La base del logaritmo naturale

e data dal numero reale e tale che ln(e) = 1. Questo numero e = 2, 71828 . . . e lacostante di Nepero. Il logaritmo e la funzione inversa dell’esponenziale:

eln(x) = x.

Le funzioni, quando possibile, si approssimano con polinomi considerando l’espansionein serie. Abbiamo:

12 CHAPTER 1. CAMPI NUMERICI

Figure 1.3: grafico di 1/x

• ex = 1 + x+ x2

2!+ x3

3!+ x4

4!+ . . . ;

• sinx = x− x3

3!+ x5

5!− x7

7!+ . . . ;

• cosx = 1− x2

2!+ x4

4!− x6

6!+ . . . .

Applichiamo la funzione al numero complesso iθ:

eiθ = 1 + iθ +(iθ)2

2!+

(iθ)3

3!+

(iθ)4

4!+ . . .

Calcolando otteniamo:

eiθ = 1 + iθ − θ2

2!− θ3

3!i+

θ4

4!+ . . .

Separando la parte reale dalla parte immaginaria si ha:

eiθ = (1− θ2

2!+θ4

4!− θ6

6!+ . . . ) + (θ − θ3

3!+θ5

5!+ . . . )i.

Ne segue l’identita di Eulero:

Theorem 1.1.8. eiθ = cos θ + i sin θ.

L’identita seguente lega tra loro le costanti piu importanti della matematica π(lunghezza della circonferenza), e (logaritmo naturale) e i (unita immaginaria):

eiπ = −1.

1.1. IL CAMPO DEI NUMERI COMPLESSI 13

Figure 1.4: formula di Eulero per numeri complessi di modulo 1

1.1.1 Radici dell’unita

Un numero complesso z tale che zn = 1 si chiama radice n-esima dell’unita. Nelseguito calcoliamo le radici dell’unita tramite l’interpretazione geometrica dei numericomplessi.

Lemma 1.1.9. Se zn = 1 allora |z| = 1.

Proof. Dalla Proposizione 1.1.3 segue che |zn| = |z|n = 1. Dal fatto che |z| ≥ 0 e unnumero reale si ricava |z| = 1.

Proposition 1.1.10. L’equazione

zn = 1

ammette come soluzione principale il numero complesso

ω = cos(2π

n) + i sin(

n).

Le altre soluzioni sono le potenze di ω:

ωk = cos(k2π

n) + i sin(k

n), per ogni k ≥ 0.

Le soluzioni distinte sono 1, ω, ω2, . . . , ωn−1.

14 CHAPTER 1. CAMPI NUMERICI

Proof. Applichiamo la Proposizione 1.1.7 al numero complesso z = cos θ + i sin θ:

zn = cos(nθ) + i sin(nθ) = 1 = cos(k2π) + i sin(k2π),

perche cos(k2π) = 1 e sin(k2π) = 0 per ogni numero naturale k ≥ 0. Si ricava quindiθ = k 2π

n.

Per esempio, le soluzioni dell’equazione z3 = 1 corrispondono ad i numeri comp-lessi nel cerchio unitario di angolo 120◦, 240◦, 360◦. La radice principale e il numeroz = −1

2+ i

√32

.

Figure 1.5: Radici terze dell’unita

Le soluzioni di z4 = 1 corrispondono ad i numeri complessi nel cerchio unitariodi angolo 90◦, 180◦, 270◦, 360◦.

1.1. IL CAMPO DEI NUMERI COMPLESSI 15

Figure 1.6: Radici quarte dell’unita

16 CHAPTER 1. CAMPI NUMERICI

Chapter 2

Introduzione agli spazi vettoriali

2.1 Introduzione ai vettori ed al prodotto interno

In Fisica ma anche nella vita di tutti i giorni dobbiamo continuamente misurarequalcosa. Alcune di queste grandezze le possiamo misurare con un numero reale:saldo del conto corrente, altezza, eta, etc. Ad altre grandezze corrisponde non solouna quantita rappresentata da un numero ma anche una direzione (con/senza verso).Per esempio,

• La forza di gravita terrestre, la cui direzione ed il cui verso vanno dal punto incui vi trovate verso il centro della terra;

• La forza di gravita su Giove (molto maggiore della forza di gravita terrestre);

• La forza esercitata in un punto preciso. Ha una grandezza, una direzione edun verso ben precisi;

• La velocita istantanea di un’automobile. Non conta soltanto il valore, peresempio 120 Km/ora, ma anche direzione e verso di marcia.

I vettori sono una rappresentazione astratta delle grandezze che hanno una direzione(e talvolta verso).

E importante distinguere tra vettore liberi e vettore applicati. Se in automobileviaggiamo a velocita costante lungo una linea retta, al tempo t ci troviamo in undeterminato punto P della retta, mentre al tempo successivo t+10 ci troveremo in unaltro punto Q. Se misuriamo la velocita istantanea nel punto P (velocita misurata +direzione e verso) e poi nel punto Q, otterremo lo stesso risultato. Lo stesso vettoree applicato prima nel punto P e poi nel punto Q.

17

18 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI

In generale un vettore e caratterizzato da (a) lunghezza (o grandezza, o modulo,o quantita) che e misurata da un valore in un campo numerico (vedi Capitolo 1);(b) direzione. Possiamo sempre moltiplicare un vettore per uno scalare, che e unelemento del campo numerico con cui misuriamo le lunghezze: Se a e un vettoreed r uno scalare, allora ra rappresenta il vettore che ha la stessa direzione di a malunghezza r volte la lunghezza di a.

Possiamo misurare la direzione ed il verso? La direzione di un vettore non emisurabile con un numero. Possiamo soltanto sapere quando due vettori a e bhanno la stessa direzione:

• I vettori a e b hanno la stessa direzione se esiste uno “scalare” r del camponumerico tale che a = rb.

Se il campo numerico e totalmente ordinato, come nel caso dei numeri reali oppurei numeri razionali, possiamo dire anche se due vettori a e b hanno lo stesso verso:

• I vettori a e b hanno stessa direzione e verso se esiste uno scalare r > 0 taleche a = rb. I vettori a e b hanno stessa direzione ma verso opposto se esister < 0 tale che a = rb.

Il campo dei numeri complessi non ha un ordinamento naturale. Quindi i vettoricomplessi hanno una direzione, ma non un verso.

Oltre alla moltiplicazione per uno scalare, i vettori ammettono un’altra oper-azione, che e detta somma o addizione di vettori. Per spiegare la somma vettoriale,immaginiamo di effettuare il seguente esperimento. Appoggiamo una palla enormenell’origine O del piano cartesiano xy. Immaginiamo che due persone Pinco e Pallinospingano la palla con forza. Pinco spinge lungo l’asse delle y (che corrisponde alladirezione della retta x = 0) dall’asse negativo delle y verso l’asse positivo delle y.Pallino spinge lungo l’asse delle x (che corrisponde alla direzione della retta y = 0)dall’asse negativo delle x verso l’asse positivo delle x. La palla riceve una spintada Pinco rappresentata dal vettore a (grandezza, direzione, verso) e un’altra spintada Pallino rappresentata dal vettore b. In che direzione si muovera la palla? Se lelunghezze dei due vettori sono uguali (cioe, pari spinta), allora la palla comincera amuoversi lungo la retta y = x, che e la direzione della retta che biseca l’angolo dinovanta gradi formato dalla retta y = 0 e la retta x = 0. La spinta totale che ricevela palla e rappresentata dal vettore a + b. Se la lunghezza del vettore a e 1 (si scrive‖a‖ = 1) e se ‖b‖ = 1, allora la lunghezza del vettore a + b e

√2 (non 2 come si

potrebbe pensare).Se Pinco e Pallino spingono con pari forza, il primo dall’asse positivo delle y verso

l’asse negativo delle y ed il secondo dall’asse negativo delle y verso l’asse positivo

2.2. SPAZI VETTORIALI 19

delle y, la palla non si muovera nonostante lo sforzo di entrambi. La somma di duevettori di pari lunghezza e direzione ma di verso opposto e nulla.

Figure 2.1: Forza e vettori

2.2 Spazi vettoriali

2.2.1 Vettori nello spazio

Fissiamo un sistema di assi Cartesiani nello spazio tridimensionale. Questo cor-risponde a scegliere un punto O, l’origine degli assi, e tre rette x, y, z passanti perO perpendicolari tra loro. Un punto P nello spazio di assi Cartesiani xyz e rappre-sentato da una terna P = [p1, p2, p3] di numeri reali, le sue coordinate Cartesiane.La prima coordinata p1 e la seconda p2 si ottengono proiettando perpendicolarmenteil punto P nel piano z=0, ottenendo il punto pxy. Poi si proietta questo punto pxysull’asse delle x (sull’asse delle y, rispettivamente) per ottenere p1 (p2, rispettiva-mente). Similmente la restante coordinata p3 si ottiene proiettando il punto P nelpiano x = 0, ottenendo il punto pyz. Poi si proietta questo punto sull’asse z e siottiene p3.

Un punto P = [p1, p2, p3] 6= [0, 0, 0] dello spazio determina univocamente un

vettore−→OP che va dall’origine O = [0, 0, 0] degli assi al punto P . Questo vettore

ha come lunghezza la lunghezza√p21 + p22 + p23 del segmento OP che unisce l’origine

degli assi al punto P , come direzione l’unica retta che passa attraverso i punti O e

P , e come verso quello che va dal punto O al punto P . Il vettore−→OP si indichera

spesso con il punto P stesso. Quindi parleremo di vettore P intendendo il vettore−→OP .

I vettori possono essere sommati coordinata per coordinata. Per esempio, seP = [2, 3, 4] e Q = [1, 2, 3] allora P +Q = [3, 5, 7]. Geometricamente il punto P +Qsi ottiene costruendo il parallelogramma di vertici P , O e Q. Il quarto vertice eproprio il punto P +Q. Si veda la figura.

20 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI

Figure 2.2: Coordinate del punto P

Figure 2.3: Somma di vettori

Possiamo modificare la lunghezza di un vettore moltiplicandolo per uno scalare.

Se−→OP e un vettore nello spazio ed r e un numero reale, detto scalare, allora r

−→OP e un

altro vettore che sta sempre nella retta, passante per l’origine, determinata dal vettore−→OP , ma con lunghezza r volte la lunghezza di

−→OP . Per esempio, sia P = [3, 2, 1] un

punto, 5 uno scalare e Q il punto di coordinate 5P = [15, 10, 5]. Allora il vettore

5−→OP e uguale al vettore

−→OQ. Nella prossima sottosezione studieremo in generale le

proprieta della somma vettoriale e del prodotto per uno scalare.

2.2.2 Vettori in astratto

In generale, possiamo considerare in maniera astratta un insieme di vettori che pos-sono essere sommati tra loro e moltiplicati per uno scalare. Uno scalare e un elemento

2.2. SPAZI VETTORIALI 21

di un fissato campo numerico K. Nelle applicazioni K sara uno dei seguenti campi:il campo Q dei numeri razionali, il campo R dei numeri reali, il campo C dei numericomplessi, oppure il campo Zp dei numeri interi modulo un numero primo p.

Figure 2.4: Vettori opposti.

Figure 2.5: La proprieta commutativa della somma vettoriale.

Definition 2.2.1. Sia K un campo numerico, i cui elementi sono chiamati scalari.Uno spazio vettoriale su K e costituito da un insieme V di vettori dotati di sommavettoriale + : V × V → V e prodotto per uno scalare · : K× V → V , che soddisfanoi seguenti assiomi (a,b, c ∈ V sono vettori arbitrari e r, s ∈ K sono scalari arbitrari):

SV1: a + (b + c) = (a + b) + c;

22 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI

−−→AD =

−→AC +

−−→CD =(

−→AB +

−−→BC) +

−−→CD, ma anche

−−→AD =

−→AB +

−−→BD =

−→AB + (

−−→BC +

−−→CD)

Figure 2.6: Proprieta associativa della somma vettoriale

SV2: a + b = b + a;

SV3: 0 + a = a = a + 0;

SV4: a + (−a) = 0 = (−a) + a;

SV5: (r + s)a = ra + sa;

SV6: (rs)a = r(sa);

SV7: r(a + b) = ra + rb;

SV8: 0a = 0; 1a = a; (−1)a = −a.

Si noti che il vettore nullo viene indicato con 0 e che per brevita scriviamo ra alposto di r · a.

Si noti anche che l’assioma (SV4) deriva da (SV5) e (SV8):

a + (−a) = 1a + (−1)a = (1 + (−1))a = 0a = 0.

2.2. SPAZI VETTORIALI 23

Example 5. Sia R il campo dei numeri reali. L’insieme R2 delle coppie di numerireali costituisce uno spazio vettoriale reale con le seguenti operazioni:

[x1, x2] + [y1, y2] = [x1 + y1, x2 + y2]; r[x1, x2] = [rx1, rx2]; 0 = [0, 0].

Per esempio, [3, 6] + [1, 2] = [4, 8] e 7[1, 3] = [7, 21].

Example 6. Sia R il campo dei numeri reali. L’insieme C dei numeri complessicostituisce uno spazio vettoriale sul campo R con le seguenti operazioni (a, b, c, d, rnumeri reali e i unita immaginaria):

(a+ bi) + (c+ di) = (a+ c) + (b+ d)i; r(a+ bi) = (ra) + (rb)i; 0 = 0.

Per esempio, (3 + 6i) + (1 + 2i) = 4 + 8i e 7(1 + 3i) = 7 + 21i.

Example 7. Sia C il campo dei numeri complessi. L’insieme C dei numeri complessicostituisce uno spazio vettoriale sul campo dei numeri complessi con le seguenti op-erazioni (a, b, c, d numeri reali, r = r1+r2i numero complesso e i unita immaginaria):

(a+ bi) + (c+ di) = (a+ c) + (b+ d)i;

r(a+ bi) = (r1 + r2i)(a+ bi) = (r1a− r2b) + (r1b+ r2a)i; 0 = 0.

Example 8. (Spazio vettoriale dei polinomi reali) Un polinomio reale e una funzionep : R→ R che e esprimibile come

p(x) = a0xn + a1x

n−1 + · · ·+ an−1x+ an

con coefficienti reali ai. Per esempio, i seguenti sono polinomi: 3x + 2, x2 + 5x + 1,etc. I polinomi costituiscono uno spazio vettoriale reale.

Example 9. (Spazio vettoriale delle sequenze infinite di reali) L’insieme di tutte lesuccessioni (an)n≥0 di numeri reali e uno spazio vettoriale sul campo reale.

Example 10. (Spazio vettoriale delle funzioni a valori reali) Sia X un insieme.Allora l’insieme di tutte le funzioni da X ad R e uno spazio vettoriale. Se f, g : X →R sono funzioni e r e uno scalare, definiamo:

(f + g)(x) = f(x) + g(x); (rf)(x) = r · f(x), per ogni x ∈ X.

L’Esempio 9 e un caso particolare di questo esempio: ogni successione (an)n≥0 e unafunzione a : N→ R.

24 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI

I vettori possono essere utilizzati per fornire delle prove di risultati geometrici.Un esempio e fornito dal seguente teorema.

Theorem 2.2.1. Dato un arbitrario quadrilatero convesso ABCD, il quadrilateroavente per vertici i punti medi dei lati consecutivi di ABCD costituisce un paral-lelogramma (Si veda la figura a pagina 24).

Fissiamo in un qualsiasi quadrilatero ABCD i punti mediani dei suoi lati consec-

utivi. Chiamiamo questi punti P,Q,R, S. Siano a =−→AB,b =

−−→BC, c =

−−→CD,d =

−−→DA

i vettori come in figura a pagina 24. Allora a+b+c+d = 0. Quindi a+b = −(c+d).

Si vede sempre dalla figura che−→PQ = 1

2a+ 1

2b = 1

2(a+b) e

−→RS = 1

2c+ 1

2d = 1

2(c+d).

Quindi, applicando l’uguaglianza a + b = −(c + d), si ricava−→PQ = −

−→RS. Segue che

i vettori−→PQ e

−→RS sono su rette parallele. In maniera simile si prova che il vettore−→

QR e parallelo al vettore−→SP .

Figure 2.7: Prova geometrica con vettori

2.3 Prodotto interno (o scalare)

In questa sezione definiamo il prodotto interno di due vettori di R3. Analoghedefinizioni possono essere date per vettori di Rn con n arbitrario. Lasciamo al lettorela facile generalizzazione.

2.3. PRODOTTO INTERNO (O SCALARE) 25

Il prodotto interno di due vettori e uno scalare, proporzionale alla lunghezza deidue vettori, che ci da informazione sull’orientazione relativa dei due vettori tramiteil coseno dell’angolo da essi formato. In particolare, due vettori sono perpendicolaritra loro se il loro prodotto interno e nullo.

Un punto A dello spazio R3 rappresenta il vettore−→OA che va dall’origine O delle

coordinate Cartesiane al punto A. In seguito parleremo di punto A oppure di vettoreA senza alcuna distinzione.

Definiamo il prodotto interno in termini delle coordinate dei due vettori.L’interpretazione geometrica del prodotto interno verra data nel seguito.

Definition 2.3.1. Se A = [a1, a2, a3] e B = [b1, b2, b3] sono due vettori di R3, allorail prodotto interno o scalare di A e B e definito come segue:

A ·B = a1b1 + a2b2 + a3b3.

Per esempio, se A = [2, 3, 2] e B = [−3, 4, 3] allora A ·B = −6 + 12 + 6 = 12.

Lemma 2.3.1. Il prodotto interno verifica le seguenti proprieta:

PS1 A ·B = B · A;

PS2 A · (B + C) = A ·B + A · C = (B + C) · A;

PS3 Se r e uno scalare (rA) ·B = r(A ·B) = A · (rB);

PS4 Se 0 e il vettore nullo, allora 0 · 0 = 0; in ogni altro caso A · A > 0.

Si noti che in PS4 0 e il vettore nullo mentre 0 e il numero reale zero.Se A = [a1, a2, a3], allora la lunghezza (o norma o modulo) del vettore A e definita

come

‖A‖ =√A · A =

√a21 + a22 + a23.

Distanza tra due puntiLa lunghezza del vettore A e pari alla distanza del punto A dall’origine delle coor-dinate Cartesiane. Se A e B sono due punti dello spazio, la distanza tra A e B e la

lunghezza del vettore applicato−→AB che va da A a B. Se riportiamo questo vettore

applicato nell’origine delle coordinate Cartesiane, cioe consideriamo il punto B −A,otteniamo che la distanza tra A e B e

‖B − A‖.

26 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI

Example 11. Se A = [2, 3, 2] eB = [−3, 4, 3] allora il vettore−→AB e puntato nel punto

A, ha come lunghezza il segmento AB e direzione la retta che contiene il segmentoAB. Lo stesso vettore puntato nell’origine O degli assi Cartesiani e determinato dalpunto B − A = [−5, 1, 1], la cui lunghezza e ‖B − A‖ =

√25 + 1 + 1 =

√27.

PerpendicolaritaQuando due vettori sono perpendicolari od ortogonali?

Proposition 2.3.2. Due vettori A e B sono perpendicolari sse il loro prodottointerno A ·B e 0.

Proof. Due vettori A e B sono perpendicolari se e solo se la distanza tra A e B ela distanza tra A e −B sono uguali (l’angolo formato dai vettori A e B e ugualeall’angolo formato dai vettori A e −B). Questo significa che

‖A−B‖ = ‖A− (−B)‖ = ‖A+B‖.

Calcoliamo con i quadrati delle distanze:

0 = ‖A−B‖2 − ‖A+B‖2= [(A−B) · (A−B)]− [(A+B) · (A+B)]= [(A · A)− 2(A ·B) + (B ·B)]− [(A · A) + 2(A ·B) + (B ·B)]= −4(A ·B)

da cui segue A ·B = 0.

Example 12. Il vettore A = [2, 3, 4] e perpendicolare al vettore B = [2, 0,−1] percheA ·B = 4 + 0− 4 = 0.

Nel seguito presentiamo alcune applicazioni geometriche del prodotto interno.

Theorem 2.3.3. Se un triangolo ABC inscritto in una circonferenza ha un di-ametro come lato, allora il triangolo e rettangolo (si veda la Figura a pagina 27).

Proof. Sia O il centro della circonferenza e siano A,B,C tre punti distinti dellacirconferenza che determinano un triangolo ABC tale che il segmento AB e un

diametro della circonferenza. Allora−→CO +

−−→OB =

−−→CB ed inoltre

−→CO +

−→OA =

−→CA.

Se indichiamo con u =−−→OB e v =

−→OC, allora abbiamo che

−→OA = −u e

−−→CB = −v + u;

−→CA = −v − u.

2.3. PRODOTTO INTERNO (O SCALARE) 27

Calcolando il prodotto interno di−−→CB e

−→CA si ha:

−−→CB ·

−→CA = (−v + u) · (−v − u)

= (v · v) + (v · u)− (u · v)− (u · u)= (v · v)− (u · u)= 0

perche ‖v‖2 = v ·v, ‖u‖2 = u ·u e i vettori v e u hanno la stessa lunghezza, uguale al

raggio del cerchio. In conclusione, i vettori−−→CB e

−→CA sono perpendicolari e l’angolo

tra di loro compreso e di 90 gradi.

Figure 2.8: Triangolo inscritto in una circonferenza con diametro come lato

Teorema di Pitagora

Sia ABC un triangolo rettangolo come in figura a pagina 27. Indichiamo con a =−−→BC,

Figure 2.9: Triangolo rettangolo

b =−→CA e c =

−→AB i tre vettori dei lati consecutivi. Supponiamo che l’angolo retto

sia l’angolo compreso tra i vettori a e c, cosicche il prodotto interno a ·c = 0 e nullo.Dal fatto che a + b + c = 0, si ricava b = −(a + c). Allora si ha:

‖b‖2 = b·b = (−a−c)·(−a−c) = (a·a)+2(a·c)+(c·c) = (a·a)+(c·c) = ‖a‖2+‖c‖2

perche a · c = 0.

28 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI

2.3.1 Coseno dell’angolo formato da due vettori

La parte restante di questa sezione ha lo scopo di determinare il significato geometricodel prodotto interno.

Proposition 2.3.4. Siano A e B due vettori, e sia θ l’angolo formato dai vettori

A e B (ovvero l’angolo AOB). Allora si ha:

A ·B = ‖A‖ ‖B‖ cos θ.

Proof. 1. Se proiettiamo il vettore A sulla retta che contiene B, otteniamo unvettore P che ha la stessa direzione di B e lunghezza uguale al modulo di‖A‖ cos θ:

P = (‖A‖ cos θ)B

‖B‖.

2. Se proiettiamo il vettore A sulla retta perpendicolare al vettore B, otteniamoil vettore A− P la cui lunghezza e uguale al modulo di ‖A‖ sin θ.

Utilizzando la Proposizione 2.3.2 e la perpendicolarita del vettore A − P con ilvettore B si ottiene:

0 = (A− P ) ·B Il vettore A− P e perpendicolare al vettore B= (A ·B)− (P ·B) Applicando la proprieta (PS2) del Lemma 2.3.1

= (A ·B)− (‖A‖ cos θ‖B‖ B) ·B Sostituendo al posto di P la sua definizione

= (A ·B)− ‖A‖ cos θ‖B‖ (B ·B)

= (A ·B)− ‖A‖ cos θ‖B‖ ‖B‖2 Perche B ·B = ‖B‖2

= (A ·B)− ‖A‖ ‖B‖ cos θ

da cui si ha la tesi.

Example 13. Se A e B sono due vettori di lunghezza 1 che formano un angolo di45 gradi (cioe, π/4 radianti), allora A · B = cos(π/4) =

√2/2 = 1/

√2. Un esempio

di questi vettori e dato da A = [ 1√3, 1√

3, 1√

3] e B = [

√3√2, 0, 0].

Proposition 2.3.5. Due vettori sono allineati sse cos θ = +1 oppure cos θ = −1sse A ·B = ±‖A‖ ‖B‖.

Example 14. Se A = [2, 6, 4] e B = [−1,−3,−2], allora A · B = −28, ‖A‖ ‖B‖ =(√

4 + 36 + 16)(√

1 + 9 + 4) =√

56√

14 = (√

4 · 14)(√

14) = 2·14 = 28 e cos θ = −1.

2.3. PRODOTTO INTERNO (O SCALARE) 29

Proposition 2.3.6. La proiezione ortogonale del vettore A sul vettore B e il vettoreP = (A·B

B·B )B.

Proof. P = (‖A‖ cos θ) B‖B‖ = (‖A‖ ‖B‖ cos θ) B

‖B‖2 = (A ·B) B‖B‖2 = (A·B

B·B )B.

Example 15. Se A = [2, 6, 4] e B = [−1,−3,−2], allora la proiezione ortogonale diA su B e P = (−2− 18− 8)/14B = −2[−1,−3,−2] = [2, 6, 4] e A stesso, perche Ae B sono allineati.

Example 16. Se A = [2, 6, 4] e B = [0, 3, 4], allora la proiezione ortogonale di A suB e P = (18 + 16)/25B = 34

25[0, 3, 4] = [0, 102

25, 136

25].

Corollary 2.3.7. (Disuguaglianza di Schwartz)

(A ·B)2 ≤ (A · A)(B ·B).

Proof. (A ·B)2 = ‖A‖2 ‖B‖2(cos θ)2 = (A · A)(B ·B)(cos θ)2 ≤ (A · A)(B ·B)

Corollary 2.3.8.|A ·B| ≤ ‖A‖ ‖B‖.

Corollary 2.3.9. ‖A+B‖ ≤ ‖A‖+ ‖B‖ ed inoltre ‖xA‖ = x‖A‖ per ogni x ≥ 0.

Proof. Sviluppiamo ‖A + B‖2 = (A + B) · (A + B) = A · A + 2(A · B) + B · B =‖A‖2 + 2(A ·B) + ‖B‖2 ≤ ‖A‖2 + 2‖A‖ ‖B‖+ ‖B‖2 = (‖A‖+ ‖B‖)2.

Example 17. Siano P = [4, 2,−2] e Q = [3,−3, 2] vettori di R3. Vogliamo de-terminare tutti i vettori ortogonali sia a P che a Q. Sia W = [x, y, z] un vettorearbitrario di R3. W e ortogonale a P se P ·W = 0, ossia

4x+ 2y − 2z = 0.

W e ortogonale a Q se Q ·W = 0, ossia

3x− 3y + 2z = 0.

30 CHAPTER 2. INTRODUZIONE AGLI SPAZI VETTORIALI

La prima equazione lineare 4x+ 2y− 2z = 0 definisce il piano dei vettori ortogonaleal vettore P , mentre la seconda equazione 3x − 3y + 2z = 0 definisce il piano deivettori ortogonali a Q. L’intersezione dei due piani e la retta dei vettori ortogonalisia a P che a Q. Per risolvere il sistema lineare

4x+ 2y − 2z = 03x− 3y + 2z = 0

sommiamo la prima equazione alla seconda per ottenere y = 7x. Dividiamo la primaequazione per 2 per ottenere 2x+ y = z da cui z = 9x. In conclusione, la seguente el’equazione parametrica della retta dei vettori ortogonali sia ad P che a Q:

x = ty = 7tz = 9t

con t arbitrario scalare reale.

Chapter 3

Rette e piani

Una equazione lineare nelle incognite x1, . . . , xn a coefficienti nel campo numerico Ke un’equazione:

a1x1 + · · ·+ anxn = b (3.1)

con a1, . . . , an, b ∈ K. Gli scalari ai sono detti coefficienti, mentre b e il termine noto.Se b = 0, l’equazione lineare e detta omogenea. Una soluzione dell’equazione linearee una n-upla (ordinata) (r1, . . . , rn) di scalari di K tale che

a1r1 + · · ·+ anrn = b.

L’insieme di tutte le soluzioni dell’equazione lineare (3.1) e detto iperpiano (di di-mensione n− 1) nello spazio vettoriale Kn di dimensione n.

In questa sezione utilizzeremo come campo numerico l’insieme R dei numeri realie ci limiteremo alle dimensioni n = 2 e n = 3. In tal caso, l’equazione lineareax + by = c (a, b, c ∈ R) definisce una retta nel piano, mentre l’equazione lineareax+ by + cz = d (a, b, c, d ∈ R) definisce un piano nello spazio.

Un’equazione lineare puo essere espressa tramite il prodotto interno. Ci limitiamoalla dimensione tre. Il lettore puo facilmente considerare la dimensione 2 oppure ladimensione n arbitraria.

31

32 CHAPTER 3. RETTE E PIANI

Lemma 3.0.1. Sia ax1 + bx2 + cx3 = d un’equazione lineare in tre incognite, a =[a, b, c] il vettore dei coefficienti e x = [x1, x2, x3] il vettore delle incognite. Alloral’equazione lineare si puo scrivere, utilizzando il prodotto interno, come segue:

a · x = d

Essa esprime il luogo di tutti vettori x il cui prodotto interno con il vettore costantea da come risultato lo scalare d. Se d = 0, l’equazione a · x = 0 descrive il pianodei vettori perpendicolari al vettore a.

Il piano passante per il punto P e parallelo al piano a · x = 0 ha equazione

a · y = d, dove d = (a · P ).

Esso e il luogo dei punti {P + x : a · x = 0}. Nel seguito vedremo numerosi esempiche chiarificheranno il Lemma.

3.1 Rette nel piano

Cominciamo questa sezione con lo studio delle rette del piano passanti per l’origine.Esse sono definite da equazioni lineari omogenee in due incognite.

• La retta di equazione ax+ by = 0 passa per l’origine ed e il luogo deivettori [x, y] che sono ortogonali al vettore [a, b], cioe [a, b] · [x, y] = 0.Se P = [p0, p1] e un punto sulla retta (cioe, ap0 + bp1 = 0) allora tutti gli altripunti si ottengono moltiplicando il vettore P per lo scalare t, numero realearbitrario (equazione parametrica della retta):

x = tp0; y = tp1, al variare del numero reale t.

La retta ax + by = 0 si puo scrivere anche come y = −abx. Il numero −a

be

detto coefficiente angolare della retta e misura la pendenza della retta. Se ilcoefficiente angolare e positivo la retta e ascendente, mentre se e negativo laretta e discendente.

Example 18. L’equazione lineare 3x + 2y = 0 (x, y variabili reali) si puoscrivere nel modo seguente: [3, 2] · [x, y] = 0. La retta 3x + 2y = 0 descrivequindi l’insieme dei vettori [x, y] che sono perpendicolari al vettore [3, 2]. Secalcoliamo un punto sulla retta, per esempio il punto [2,−3], allora tutti gli

3.1. RETTE NEL PIANO 33

altri possono essere ottenuti moltiplicando il vettore [2,−3] per lo scalare tnumero reale arbitrario (equazione parametrica della retta):

x = 2t; y = −3t, al variare del reale t.

La retta e discendente con coefficiente angolare −3/2.

Consideriamo ora le rette del piano che non passano per l’origine.

• La retta di equazione ax + by = c con c 6= 0 non passa per l’origineed e il luogo dei vettori [x, y] che hanno prodotto scalare uguale a ccon il vettore [a, b] (cioe [a, b] · [x, y] = c).La retta ax + by = c e parallela alla retta di equazione ax + by = 0. SeP = [p0, p1] e un punto sulla retta (cioe, ap0 + bp1 = c), allora tutti gli altripunti si ottengono come P + Q con Q = [q0, q1] punto della retta ax + by = 0passante per l’origine (cioe, aq0 + bq1 = 0):

[a, b] · (P +Q) = ([a, b] · P ) + ([a, b] ·Q) = c+ 0 = c.

L’equazione parametrica della retta e:

x = p0 + tq0; y = p1 + tq1, al variare del numero reale t.

Example 19. L’equazione 3x+2y = 5 si puo scrivere come segue [3, 2]·[x, y] =5. Per capire il rapporto esistente tra l’equazione 3x + 2y = 5 e l’equazioneomogenea 3x+2y = 0 fissiamo un punto, per esempio P = [1, 1], che appartienealla retta 3x+2y = 5. Esiste una corrispondenza bigettiva tra i punti nella retta3x+2y = 5 ed i punti nella retta 3x+2y = 0. SeQ = [q0, q1] soddisfa l’equazione3q0 + 2q1 = 0 allora P +Q = [1 + q0, 1 + q1] soddisfa 3(1 + q0) + 2(1 + q1) = 5.Viceversa, se R = [r0, r1] soddisfa 3r0 + 2r1 = 5 allora R− P = [r0 − 1, r1 − 1]soddisfa 3(r0− 1) + 2(r1− 1) = 0. Le due funzioni sono l’una inversa dell’altra.

Siccome i punti della retta 3x+2y = 0 sono descrivibili parametricamente cometQ con t scalare arbitrario e Q punto nella retta (per esempio, Q = [2,−3]),allora la retta 3x+2y = 5 si descrive parametricamente come P+tQ, dove P =[1, 1] e Q = [2,−3]. Quindi, l’insieme dei punti [1, 1] + t[2,−3] = [1 + 2t, 1− 3t]sono tutti e soli i punti che verificano l’equazione 3x+ 2y = 5:

[3, 2] · [1 + 2t, 1− 3t] = 3(1 + 2t) + 2(1− 3t) = 5.

La seguente equazione parametrica descrive la retta:

x = 1 + 2t; y = 1− 3t, al variare del numero reale t.

34 CHAPTER 3. RETTE E PIANI

Figure 3.1: Rette nel piano

La retta data e parallela alla retta di equazione 3x+2y = 0 e passa per il punto[1, 1].

• Dato un vettore A ed un punto P nel piano, determinare l’equazionedella retta passante per P e parallela alla retta del vettore ASpieghiamo il procedimento con un esempio. Sia A = [3, 2] e P = [1,−1].Prima determiniamo i valori a e b della retta ax+ by = 0 passante per l’originee per il punto A. Siccome A sta nella retta abbiamo

3a+ 2b = 0,

da cui b = −(3/2)a. Se scegliamo a = 2, si ricava b = −3. Allora l’equazionedella retta che contiene il vettore A e

2x− 3y = 0.

3.1. RETTE NEL PIANO 35

La nuova retta avra equazione

2x− 3y = c

per un certo c 6= 0. Il punto P sta in questa retta, quindi c = 2 − 3(−1) = 5.Quindi l’equazione della retta passante per P e parallela alla retta di direzioneil vettore A e:

2x− 3y = 5.

Si noti che il coefficiente angolare 2/3 della retta y = (2/3)x e lo stesso dellaretta y = (2/3)x+ 5.

• Dati due punti distinti A e B nel piano, determinare l’equazionedella retta passante per A e BSpieghiamo il procedimento con un esempio. Sia A = [2, 2] e B = [−2, 6]. La

retta passante per A e B conterra il vettore applicato−→AB. Riportiamo tale

vettore nell’origine tramite il punto B−A = [−4, 4]. Quindi il vettore−→AB avra

la stessa lunghezza e direzione del vettore B − A.

Equazione della retta contenente il vettore B − A = [−4, 4]: dall’equazionegenerica ax + by = 0 e dal fatto che il punto B − A appartiene alla retta siricava che −4a+ 4b = 0 da cui a = b. Scegliamo a = b = 1. Quindi l’equazionee x+ y = 0.

Equazione della retta parallela alla retta di equazione x + y = 0 e contenenteil punto B = [−2, 6]: Da x + y = c sostituendo le coordinate del punto B siricava c = −2 + 6 = 4.

Quindi l’equazione della retta e x + y = 4. Anche il punto A sta nella rettaperche 2 + 2 = 4.

• Come passare dall’equazione parametrica di una retta all’equazioneax+ by = cSe descriviamo una retta con un’equazione parametrica, per esempio

x = 5 + 2t; y = 2 + t

ricaviamo t da una delle due equazioni e lo sostituiamo nell’altra. Da t = y− 2si ottiene x = 5 + 2(y − 2) da cui x− 2y = 1.

36 CHAPTER 3. RETTE E PIANI

3.2 Rette e piani nello spazio

Un piano passante per l’origine e definito da un’equazione lineare omogenea in treincognite.

• Piano passante per l’origine e perpendicolare ad un dato vettoreNello spazio abbiamo tre coordinate. Consideriamo tre variabili x, y, z. Cosadescrive l’equazione 3x + 2y + z = 0? Un piano passante per l’origine. Con-sideriamo il vettore [3, 2, 1] ed il vettore [x, y, z]. L’equazione 3x + 2y + z = 0si puo scrivere utilizzando il prodotto interno: [3, 2, 1] · [x, y, z] = 0. Ossia ilvettore [x, y, z] e perpendicolare al vettore [3, 2, 1]. Quindi l’equazione descrivel’insieme di tutti i vettori perpendicolari al vettore [3, 2, 1]. Il luogo dei punti

{[x, y, z] : 3x+ 2y + z = 0}

e il piano passante per l’origine e perpendicolare al vettore [3, 2, 1].

L’equazione parametrica del piano si ottiene come segue. Consideriamo duepunti P e Q nel piano 3x+2y+z = 0, che non siano allineati rispetto alle rettedel piano passanti per l’origine degli assi (non possiamo considerare soltantoun punto perche il piano e bidimensionale). Per esempio, P = [1,−1,−1] eQ = [−1, 0, 3]. Allora tutti i punti del piano 3x+ 2y+ z = 0 si ottengono comecombinazione lineare di P e Q:

tP + rQ, al variare di r, t numeri reali,

In altri termini tutti i punti del tipo

x = t− r; y = −t; z = −t+ 3r. (3.2)

• Piano di equazione ax+ by + cz = d con d 6= 0L’equazione 3x+2y+z = 4 descrive un piano parallelo al piano 3x+2y+z = 0.Se R = [1, 1,−1] e un punto del piano 3x+ 2y+ z = 4, allora i punti del nuovopiano si ottengono parametricamente da (3.2) come segue:

x′ = 1 + t− r; y = 1− t; z = −1− t+ 3r.

• Piano passante per tre punti non allineatiSiano P,Q,R tre punti non allineati (cioe, per i tre punti non passa una retta).

Consideriamo i vettori applicati−→PQ e

−→PR. Li riportiamo all’origine degli assi,

3.2. RETTE E PIANI NELLO SPAZIO 37

considerando il vettore Q − P ed il vettore R − P . Questi due vettori nonsono allineati per l’ipotesi iniziale che i tre punti non sono allineati. Il pianopassante per l’origine e contenente i vettori Q − P e R − P ha la seguenteequazione parametrica:

t(Q− P ) + r(R− P ), al variare di r, t numeri reali,

Allora il piano passante per P,Q,R e descritto da

P + t(Q− P ) + r(R− P ), al variare di r, t numeri reali,

Infatti, ponendo r = t = 0 si ottiene il punto P , con t = 1 e r = 0 si ottieneQ, ed infine con t = 0 e r = 1 si ha il punto R.

Esempio: P = [1, 1, 1], Q = [1, 2, 1] ed R = [5, 0, 7]. Il piano passante perl’origine ha equazione parametrica:

x = 4r; y = t− r; z = 6r.

Il piano passante per i tre punti ha equazione parametrica:

x = 1 + 4r; y = 1 + t− r; z = 1 + 6r.

Trasformiamo l’equazione parametrica in una non parametrica: r = (x− 1)/4,da cui z = 1+6(x−1)/4 = 1+3(x−1)/2. Infine si ha 2z = 3x−3+2 = 3x−1:

−3x+ 2z = −1

3.2.1 Fasci di rette

L’insieme di tutte le rette del piano che passano per un punto C del piano prende ilnome di fascio di rette che ha come centro il punto C.

Se conosciamo le equazioni ax+ by+ c = 0 e dx+ ey+ f = 0 di due rette distintepassanti per C allora ogni altra retta nel fascio si scrive come combinazione linearedi queste due rette. L’equazione lineare

r(ax+ by + c) + s(dx+ ey + f) = 0, (r, s ∈ R)

rappresenta tutte e sole le rette che passano per C se gli scalari r ed s non sonoentrambi nulli. Se s 6= 0, possiamo dividere per s ed ottenere ponendo t = r/s:

t(ax+ by + c) + (dx+ ey + f) = 0.

Quest’ultima equazione descrive tutte le rette passanti per C tranne la retta ax +by + c. Quest’ultima forma di descrizione del fascio e utile nelle applicazioni come ilseguente esempio spiega.

38 CHAPTER 3. RETTE E PIANI

Figure 3.2: Fascio di rette di centro C

Example 20. Vogliamo scrivere l’equazione della retta passante per i punti P = [1, 1]e Q = [2, 5]. Consideriamo due rette distinte passanti per P , per esempio y − x = 0e x− 1 = 0. Allora, il fascio (y− x) + t(x− 1) = 0 comprende tutte le rette passantiper P tranne la retta x − 1 = 0. Sostituendo le coordinate di Q al posto di x ed yotteniamo: 3 + t = 0 da cui t = −3. Quindi l’equazione (y − x)− 3(x− 1) = 0, chesi semplifica a y − 4x+ 3 = 0, descrive la retta passante per P e Q.

Chapter 4

I sistemi lineari

Un sistema lineare di m equazioni nelle incognite x1, . . . , xn e un insieme di equazionilineari con coefficienti in un campo numerico K:

a11x1 + · · ·+ a1nxn = b1a21x1 + · · ·+ a2nxn = b2...

......

am1x1 + · · ·+ amnxn = bm

(4.1)

Il sistema lineare e omogeneo se bi = 0 per ogni i. Il sistema e quadrato se m = n.Una soluzione del sistema e un vettore [r1, . . . , rn] di elementi del campo numerico

tali chea11r1 + · · ·+ a1nrn = b1a21r1 + · · ·+ a2nrn = b2...

......

am1r1 + · · ·+ amnrn = bm

Ciascuna equazione lineare del sistema descrive un iperpiano nello spazio Kn. L’insiemedelle soluzioni del sistema lineare descrive l’insieme dei punti che costituiscono l’intersezionedi m iperpiani nello spazio Kn. Ciascun iperpiano e descritto dall’equazione ai1x1 +· · ·+ ainxn = bi (i = 1, . . . ,m).

In dimensione 2 con K = R le soluzioni del sistema

a11x1 + a12x2 = b1a21x1 + a22x2 = b2

sono i punti [x1, x2] del piano che costituiscono l’intersezione delle due rette diequazione rispettivamente a11x1 + a12x2 = b1 e a21x1 + a22x2 = b2. In dimensione 3

39

40 CHAPTER 4. I SISTEMI LINEARI

le soluzioni del sistema

a11x1 + a12x2 + a13x3 = b1a21x1 + a22x2 + a23x3 = b2a31x1 + a32x2 + a33x3 = b3

sono i punti [x1, x2, x3] dello spazio che costituiscono l’intersezione dei tre piani.

4.1 Sistemi lineari e matrici

Il sistema lineare (4.1) e completamente determinato dalla tabella bidimensionale deicoefficienti delle incognite:

a11 a12 . . . a1na21 a22 . . . a2n...

......

...am1 am2 . . . amn

e dal vettore dei termini noti

b1b2...bm

Sia i coefficienti delle variabili che il vettore dei termini noti costituiscono delle ma-trici. La prima ha dimensione m × n (ossia m righe ed n colonne), la seconda hadimensione m×1 (m righe e una colonna). La matrice completa del sistema si ottieneaggiungendo il vettore dei termini noti alla matrice dei coefficienti:

a11 a12 . . . a1n | b1a21 a22 . . . a2n | b2...

......

... |...

am1 am2 . . . amn | bm

Presentiamo la definizione di matrice e studiamo le loro prime proprieta.

Definition 4.1.1. Una matrice A = (aij) con m righe ed n colonne (in breve unamatrice di tipo m × n) sul campo K e una famiglia di mn elementi di K. Ciascunelemento ha un indice di riga ed un indice di colonna. L’elemento aij ha indice di

4.1. SISTEMI LINEARI E MATRICI 41

riga i ed indice di colonna j con 1 ≤ i ≤ m e 1 ≤ j ≤ n. La matrice si rappresentacome segue:

A =

a11 a12 . . . a1na21 a22 . . . a2n. . . . . . . . . . . .am1 am2 . . . amn

Se A e una matrice di tipo m×n, denotiamo con Ai il vettore che e la riga i della

matrice, e con Aj il vettore che e la colonna j della matrice:

Ai =[ai1 ai2 . . . ain

]; Aj =

a1ja2j...amj

Una matrice e quadrata se il numero di righe e uguale al numero di colonne. Una

matrice quadrata di tipo n× n viene detta di ordine n.

Una matrice quadrata A di ordine n e

1. simmetrica se aij = aji per ogni 1 ≤ i, j ≤ n.

2. diagonale se aij = 0 per i 6= j.

3. la matrice identica se e diagonale e aii = 1 per ogni i (la matrice identica diordine n si indica con In).

4. triangolare superiore (inferiore) se aij = 0 per ogni i > j (i < j).

5. la matrice nulla se aij = 0 per ogni 1 ≤ i, j ≤ n.

La trasposta di una matrice A = (aij) e una matrice AT = (a′ij) le cui righe sonole colonne di A e le cui colonne sono le righe di A. In altre parole, a′ij = aji per ognii e j. Se A e una matrice di tipo m × n allora la sua trasposta e una matrice ditipo n×m. Si vede facilmente che (AT )T = A. Se A e simmetrica e quadrata alloraAT = A.

Data una matrice A di tipo m×n, gli elementi aik con i = k si chiamano elementiprincipali o elementi appartenenti alla diagonale principale. La loro somma si chiamatraccia della matrice, si indica con trA e si ha trA = a11 + a22 + · · ·+ amm.

42 CHAPTER 4. I SISTEMI LINEARI

Example 21. Le seguenti matrici sono rispettivamente simmetrica, diagonale e lamatrice identica:

A =

3 2 12 4 41 4 2

B =

3 0 00 4 00 0 2

I =

1 0 00 1 00 0 1

Il vettore riga A2 =

[2 4 4

]coincide con la seconda riga della matrice A, mentre il

vettore colonna A3 =

142

corrisponde alla terza colonna della matrice A. La traccia

della matrice A e trA = 3 + 4 + 2 = 9.La trasposta della matrice simmetrica A coincide con A, mentre la matrice C qui

di seguito non e simmetrica e la sua trasposta non coincide con C.

C =

3 2 71 4 922 1 0

CT =

3 1 222 4 17 9 0

La seguente matrice D e triangolare superiore:

D =

3 2 70 4 90 0 5

Example 22. Consideriamo il sistema lineare:

3x+ 2y + z = 5x+ 4y + 3z = 3x+ y + z = 0

La matrice quadrata di ordine 3 dei coefficienti e:3 2 11 4 31 1 1

mentre il vettore dei termini noti e: 5

30

4.2. SISTEMI E MATRICI TRIANGOLARI SUPERIORI 43

La matrice completa del sistema si ottiene aggiungendo il vettore dei termini notialla matrice dei coefficienti:

3x+ 2y + z = 5x+ 4y + 3z = 3x+ y + z = 03 2 1 | 5

1 4 3 | 31 1 1 | 0

4.2 Sistemi e matrici triangolari superiori

Un sistema lineare e triangolare superiore se e quadrato e la matrice dei coefficientie triangolare superiore.

Example 23. Il seguente sistema e triangolare superiore:

3x+ 2y + z = 54y + 3z = 3

2z = 4

La sua matrice dei coefficienti e triangolare superiore:3 2 10 4 30 0 1

Quando il sistema e triangolare superiore, allora la soluzione si ottiene facilmente.Dall’ultima equazione si ottiene z = 2, Dalla seconda equazione 3 = 4y + 3z =4y + 3 ∗ 2 da cui y = −3/4. Infine dalla prima equazione si ricava il valore di x:5 = 3x+ 2y + z = 3x− 3/2 + 2 da cui x = 3/2.

Proposition 4.2.1. Un sistema lineare triangolare superiore ammette un’unica soluzionesse tutti gli elementi della diagonale principale nella matrice dei coefficienti sono 6= 0.

Proof. Per induzione sul numero di incognite. Un sistema con una incognita e unasola equazione e del tipo ax = b che ammette una soluzione x = b/a sse a 6= 0.

Supponiamo che ogni sistema triangolare superiore con n incognite ammettaun’unica soluzione sse tutti gli elementi della diagonale della matrice dei coeffici-enti sono non nulli.

44 CHAPTER 4. I SISTEMI LINEARI

Consideriamo un sistema con n + 1 incognite che descriviamo con la matricecompleta:

a11 a12 a13 . . . a1,n−1 a1n a1,n+1 | b10 a22 a23 . . . a2,n−1 a2n a2,n+1 | b20 0 a32 . . . a3,n−1 a3n a3,n+1 | b3...

......

......

...... |

...0 0 0 . . . 0 ann an,n+1 | bn0 0 0 . . . 0 0 an+1,n+1 | bn+1

Dall’ultima riga della matrice, che corrisponde all’equazione an+1,n+1xn+1 = bn+1

ricaviamo un valore xn+1 = bn+1/an+1,n+1 sse an+1,n+1 6= 0. Non appena conosciamoil valore di xn+1, possiamo sostituire il valore di xn+1 nel sistema ed ottenere unsistema con n incognite la cui matrice completa e:

a11 a12 a13 . . . a1,n−1 a1n | b1 − a1,n+1(bn+1/an+1,n+1)0 a22 a23 . . . a2,n−1 a2n | b2 − a2,n+1(bn+1/an+1,n+1)0 0 a32 . . . a3,n−1 a3n | b3 − a3,n+1(bn+1/an+1,n+1)...

......

......

... |...

0 0 0 . . . 0 ann | bn − an,n+1(bn+1/an+1,n+1)

Per ipotesi induttiva il sistema precedente ha un’unica soluzione sse a11, . . . , annsono non nulli, che insieme a xn+1 = bn+1/an+1,n+1 sse an+1,n+1 6= 0, ci permette diconcludere la tesi per n+ 1.

Example 24. Il sistema lineare

3x− 2y + z = −14y + 3z = −3

4z = 8

ammette un’unica soluzione per la proposizione precedente. Il sistema lineare

3x− 2y + z = −13z = −34z = 8

non ha alcuna soluzione. La diagonale 3, 0, 4 non ha tutti gli elementi non nulli. Ilsistema lineare

3x− 2y + z = −13z = 64z = 8

ha infinite soluzioni. La diagonale 3, 0, 4 non ha tutti gli elementi non nulli.

4.3. SISTEMI E MATRICI A SCALA 45

4.3 Sistemi e matrici a scala

Le matrici a scala svolgono il ruolo delle matrici triangolari superiori quando il sis-tema lineare non e quadrato.

Definition 4.3.1. Una matrice a scala e una matrice che verifica le seguenti con-dizioni:

1. Tutte i vettori riga nulli sono nella parte bassa della matrice;

2. Date due righe successive i e i+ 1 non nulle, il primo elemento non nullo dellariga i+ 1 si trova a destra del primo elemento non nullo della riga i.

Il primo elemento non nullo (da sinistra) in una riga si chiama pivot.

Un sistema lineare e a scala se la matrice dei coefficienti e a scala.

Example 25. Una matrice a scala ed il sistema lineare associato:

0 2 3 0 2 5 40 0 1 0 5 6 70 0 0 0 3 7 70 0 0 0 0 2 40 0 0 0 0 0 0

x1x2x3x4x5x6x7

=

231−1220

La soluzione del sistema si ottiene a partire dall’ultima riga della matrice a scala:2x6+4x7 = 2, da cui x6 = 1−2x7. Quindi x7 e un parametro. Risalendo si ottengonoalcune variabili in funzione di altre.

4.4 Metodo di eliminazione di Gauss

Gauss, nato a Brunswick nel 1777 e morto a Gottingen nel 1855, introdusse unalgoritmo per semplificare un sistema lineare trasformandolo in un sistema linearepiu semplice con le stesse soluzioni del sistema iniziale.

46 CHAPTER 4. I SISTEMI LINEARI

Theorem 4.4.1. (Metodo di eliminazione di Gauss) Se un sistema lineare e ot-tenuto da un altro con una delle seguenti operazioni:

(i) Scambio di due equazioni;

(ii) Sostituzione di un’equazione con un multiplo scalare non nullo dell’equazionestessa;

(iii) Sostituzione di un’equazione con la somma dell’equazione stessa con un’altramoltiplicata per uno scalare d,

allora il sistema di partenza e quello di arrivo hanno le stesse soluzioni.

Proof. Per semplicita consideriamo equazioni con al piu due incognite.Se ax + by = c e l’equazione di una retta, moltiplicando per una stessa costante

d 6= 0 entrambi i membri dell’uguaglianza si ottiene un’equazione (da)x+ (db)y = dcche descrive la stessa retta. In termini di prodotto interno, se [a, b] · [x, y] = c allora[da, db] · [x, y] = dc. Il vettore [da, db] ha la stessa direzione del vettore [a, b]. Quindiin un sistema lineare possiamo sostituire l’equazione ax + by = c con l’equazione(da)x+ (db)y = dc senza che cambino le soluzioni del sistema.

Consideriamo due equazioni presenti in un sistema lineare:

a1x+ b1y = c1a2x+ b2y = c2

(4.2)

Se sostituire la prima equazione con la somma dell’equazione stessa con la secondamoltiplicata per una costante d otteniamo:

(a1 + da2)x+ (b1 + db2)y = c1 + dc2a2x+ b2y = c2

(4.3)

Abbiamo sostituito l’equazione a1x+ b1y = c1 con l’equazione (a1x+ b1y) + d(a2x+b2y) = c1 + dc2. Proviamo che i due sistemi (4.2) e (4.3) hanno le stesse soluzioni.

Se [p, q] e una soluzione del sistema (4.3), allora abbiamo direttamente da (4.3) chea2p+b2q = c2. Resta da verificare che a1p+b1q = c1: a1p+b1q = c1−d(a2p+b2q−c2) =c1 + 0 = c1. E semplice verificare che una soluzione di (4.2) e anche una soluzione di(4.3).

Le operazioni associate al metodo di Gauss si possono applicare direttamente allamatrice completa di un sistema lineare.

Il metodo di eliminazione di Gauss e un algoritmo che trasforma un sistemalineare quadrato (numero equazioni = numero incognite) in un sistema triangolare

4.5. SISTEMI LINEARI NEL PIANO 47

superiore equivalente e un sistema non quadrato in un sistema a scala equivalente.La procedura da seguire e la seguente:

Sia A la matrice completa di un sistema lineare con m righe e n + 1 colonne(l’ultima colonna e il vettore dei termini noti). Consideriamo la prima colonna dasinistra (diversa dall’ultima colonna dei termini noti) con almeno un elemento diversoda zero. Sia j < n+1 l’indice di colonna e supponiamo che il primo elemento non nullodall’alto si trovi nella riga i. Scambiamo la riga i con la riga 1, ottenendo la matriceB.Cosı b1j 6= 0. Successivamente, per ogni riga s (2 ≤ s ≤ m) con elemento bsj diversoda zero, sommiamo −bsj volte la prima riga alla riga s. Otteniamo una matrice Cin cui tutti gli elementi della colonna j sono nulli tranne il primo. Consideriamo lasottomatrice F di D ottenuta eliminando la prima riga di D. Applichiamo la stessaprocedura alla sottomatrice F . Iterando il ragionamento alla fine arriviamo ad unamatrice a scala oppure triangolare superiore (se m = n).

4.5 Sistemi lineari nel piano

• Consideriamo il sistema seguente:

3x1 + 2x2 = 5x1 + 4x2 = 3

La prima e l’equazione di una retta parallela alla retta di equazione 3x+2y = 0,passante per l’origine e perpendicolare al vettore A = [3, 2]. La seconda el’equazione di una retta parallela alla retta di equazione x + 4y = 0, passanteper l’origine e perpendicolare al vettore B = [1, 4].

Cerchiamo le soluzioni comuni alle due equazioni: un vettore [x, y] il cuiprodotto interno con [3, 2] da come risultato 5; e con [1, 4] da come risultato 3.

Il sistema ammette un’unica soluzione se le due rette non sono parallele. Sele rette sono parallele, allora non abbiamo soluzioni se le rette sono distinte,mentre abbiamo infinite soluzioni se le due rette coincidono.

Per sapere se le rette sono parallele oppure no, calcoliamo il prodotto internodi A e B (si veda Sezione 2.3):

A ·B = [3, 2] · [1, 4] = 3 + 8 = 11.

Siccome ‖A‖ =√

13 e ‖B‖ =√

17, abbiamo per l’angolo tra i vettori A e B:

cos θ =A ·B√13√

17=

11√221

=

√121

221< 1.

48 CHAPTER 4. I SISTEMI LINEARI

Quindi le rette non sono parallele. Se lo fossero cos θ sarebbe uguale a +1oppure −1.

• Calcolo dell’unica soluzione con il metodo di Gauss.Calcoliamo l’unica soluzione del sistema con il metodo di Gauss. Consideriamola matrice completa del sistema: [

3 2 | 51 4 | 3

]Scambiamo le due righe: [

1 4 | 33 2 | 5

]Sottraiamo tre volte la prima riga dalla seconda:[

1 4 | 30 −10 | −4

]La matrice dei coefficienti e triangolare superiore e gli elementi sulla diagonalesono diversi da zero, quindi dalla Proposizione 4.2.1 la soluzione e unica. Da−10x2 = −4 si ricava x2 = 2/5. Infine da x1 + 4x2 = 3, sostituendo il valore dix2 = 2/5 si ottiene x1 = 7/5.

• Un altro esempio con il metodo di eliminazione di Gauss.Consideriamo un altro esempio:

x1 + 2x2 = 34x1 + 5x2 = 6

Calcoliamo il numero delle soluzioni. Sia A = [1, 2] e B = [4, 5]. Alloraabbiamo:

cos θ =A ·B‖A‖ ‖B‖

=14√5√

41=

14√205

=

√196

221< 1.

Quindi le due rette non sono parallele ed esiste un’unica soluzione.

Calcoliamo la soluzione. Consideriamo la matrice completa del sistema:[1 2 | 34 5 | 6

]

4.5. SISTEMI LINEARI NEL PIANO 49

Moltiplichiamo la prima riga per 4 e sottraiamola alla seconda. Si ottiene lamatrice: [

1 2 | 30 −3 | −6

]da cui si ricava x2 = 2 e, sostituendo 2 per x2 nell’equazione x1 + 2x2 = 3, siottiene x2 = −1.

• Un esempio di sistema con infinite soluzioni.Consideriamo il seguente sistema lineare:

x1 + 2x2 = 32x1 + 4x2 = 6

Calcoliamo il numero delle soluzioni. Sia A = [1, 2] e B = [2, 4)]. Alloraabbiamo:

cos θ =A ·B‖A‖ ‖B‖

=10√5√

20=

10√100

=10

10= 1.

Quindi le due rette sono parallele, anzi sono uguali. La seconda equazione siscrive come 2(x1 + 2x2) = 2 × 3. Quindi il sistema lineare ammette infinitesoluzioni. Se triangoliamo la matrice completa otteniamo:[

1 2 | 32 4 | 6

]⇒

[1 2 | 30 0 | 0

]

La matrice dei coefficienti

[1 20 0

]e triangolare superiore, ma non tutti gli

elementi della diagonale sono diversi da zero.

• Un esempio di sistema con nessuna soluzione. Consideriamo il seguentesistema lineare:

x1 + 2x2 = 32x1 + 4x2 = 12

Calcoliamo il numero delle soluzioni. Sia A = [1, 2] e B = [2, 4]. Allora comeprima abbiamo cos θ = 1. Quindi le due rette sono parallele, ma non uguali.La seconda equazione si scrive come 2(x+ 2y) = 2× 6 e corrisponde alla rettax + 2y = 6 che e parallela alla retta della prima equazione. Quindi il sistemalineare non ammette soluzione. Se triangoliamo la matrice completa otteniamo:[

1 2 | 32 4 | 12

]⇒

[1 2 | 30 0 | 6

]

50 CHAPTER 4. I SISTEMI LINEARI

La matrice dei coefficienti

[1 20 0

]e triangolare superiore, ma non tutti gli

elementi della diagonale sono diversi da zero. Da 0x2 = 6 si ottiene 0 = 6quindi il sistema non ammette soluzioni.

4.6 Sistemi lineari nello spazio

• Consideriamo il sistema lineare:

3x+ 2y + z = 0x+ 4y + 3z = 0x+ y + z = 0

Il sistema e omogeneo perche il vettore dei termini noti e il vettore nullo.

La prima e l’equazione di un piano passante per l’origine e perpendicolareal vettore A = [3, 2, 1]. La seconda e l’equazione di un piano passante perl’origine e perpendicolare al vettore B = [1, 4, 3]. La terza e l’equazione di unpiano passante per l’origine e perpendicolare al vettore C = [1, 1, 1].

(i) L’intersezione dei tre piani e un piano sse i tre piani sono coincidenti (lostesso piano) sse i tre vettori A, B e C sono collineari (nella stessa rettaper l’origine);

(ii) L’intersezione dei tre piani e una retta sse i tre vettori A, B e C non sonocollineari ma si trovano in uno stesso piano passante per l’origine;

(iii) L’intersezione dei tre piani e un punto sse (1) i vettori A e B non sitrovano in una stessa retta passante per l’origine; (2) il vettore C non sitrova nel piano generato dai vettori A e B.

Ritorniamo al sistema lineare omogeneo precedente. Calcoliamo l’angolo θABformato dai vettori A e B:

cos(θAB) = (A ·B)/‖A‖ ‖B‖ = 14/√

14√

26 = 14/√

364 < 1.

Quindi A e B non sono collineari. Se C fosse nel piano generato da A e B,allora esisterebbero due scalari c e d tali che c[3, 2, 1] + d[1, 4, 3] = [1, 1, 1], dacui si ha 3c + d = 1, 2c + 4d = 1 e c + 3d = 1. Sottraendo la seconda dallaprima si ricava: c = 3d. Sostituendo nella terza si ottiene 3d + 3d = 0, cioed = 0 e quindi c = 0. Si ottiene cosı che C non si trova nel piano generato daA e B. Quindi l’unica soluzione del sistema lineare iniziale e il vettore nullo.

4.6. SISTEMI LINEARI NELLO SPAZIO 51

Un modo diverso e piu semplice di calcolare la soluzione si ottiene con il calcolomatriciale. Siccome il vettore dei termini noti e il vettore nullo, e sufficienteapplicare il metodo di Gauss alla matrice dei coefficienti:3 2 1

1 4 31 1 1

⇒1 1 1

1 4 33 2 1

⇒1 1 1

0 3 20 −1 −2

⇒1 1 1

0 3 20 0 −4/3

Quindi il sistema associato alla matrice triangolare superiore ha un’unica soluzione,perche tutti gli elementi nella diagonale sono diversi da zero. Essendo il sistemaomogeneo 1 1 1

0 3 20 0 −4/3

xyz

=

000

il vettore nullo e l’unica soluzione.

• Consideriamo il sistema lineare:

3x+ 2y + z = 5x+ 4y + 3z = 3x+ y + z = 0

La prima e l’equazione di un piano parallelo al piano di equazione 3x+2y+z =0, che passa per l’origine ed e perpendicolare al vettore A = [3, 2, 1]. La secondae l’equazione di un piano parallelo al piano di equazione x + 4y + 3z = 0, chepassa per l’origine ed e perpendicolare al vettore B = [1, 4, 3]. La terza el’equazione del piano passante per l’origine e perpendicolare al vettore C =[1, 1, 1].

Dai calcoli fatti nel punto precedente per il sistema omogeneo il vettore C nongiace nel piano generato da A e B. Quindi la soluzione e un unico punto. Ap-plichiamo il metodo di eliminazione di Gauss alla matrice completa del sistema:3 2 1 | 5

1 4 3 | 31 1 1 | 0

⇒1 1 1 | 0

1 4 3 | 33 2 1 | 5

⇒1 1 1 | 0

0 3 2 | 30 −1 −2 | 5

⇒1 1 1 | 0

0 3 2 | 30 0 −4/3 | 6

Quindi z = −9/2, y = 4 e infine dalla prima equazione x = −4 + 9/2 = 1/2.

• Consideriamo il sistema lineare:

3x+ 2y + z = 5x+ 4y + 3z = 3

52 CHAPTER 4. I SISTEMI LINEARI

La prima e l’equazione di un piano parallelo al piano di equazione 3x+2y+z = 0passante per l’origine e perpendicolare al vettore A = [3, 2, 1]. La seconda el’equazione di un piano parallelo al piano di equazione x+4y+3z = 0 passanteper l’origine e perpendicolare al vettore B = [1, 4, 3].

L’intersezione di due piani, se non paralleli, e una retta.

Cerchiamo le soluzioni comuni alle due equazioni: un vettore [x, y, z] il cuiprodotto interno con [3, 2, 1] da come risultato 5; e con [1, 4, 3] da come risultato3.

Calcoliamo se i piani sono paralleli. Sia A = [3, 2, 1] e B = [1, 4, 3]. Alloraabbiamo:

cos θ = (A ·B)/‖A‖ ‖B‖ = 14/√

14√

26 = 14/√

364 < 1.

Quindi i due piani non sono paralleli.

Applichiamo il metodo di eliminazione di Gauss. Scambiamo la prima e laseconda equazione ottenendo

x+ 4y + 3z = 33x+ 2y + z = 5

Sottraiamo alla seconda equazione tre volte la prima equazione ottenendo:x+4(2-4z)/5 +3z = 3

x + 4y + 3z = 3−10y − 8z = −4

da cui si ha y = 2−4z5

. Sostituiamo nella prima equazione per ottenere lesoluzioni in termini del parametro z:

x = (3− (16/5))z + (3− (8/5)); y = −2− 4z

5.

Example 26. Utilizziamo il calcolo matriciale per risolvere il seguente sistema, alvariare del parametro reale k:

x+ 2w = 1x+ y + 3z + 2w = 1

2x+ y + (k + 2)z + 4w = 2x+ y + 3z + (k2 − k + 2)w = k

4.6. SISTEMI LINEARI NELLO SPAZIO 53

Riduciamo in forma triangolare superiore la matrice dei coefficienti:1 0 0 2 | 11 1 3 2 | 12 1 k + 2 4 | 21 1 3 k2 − k + 2 | k

1 0 0 2 | 10 1 3 0 | 00 1 k + 2 0 | 00 0 0 k2 − k | k − 1

Abbiamo sottratto alla quarta riga una volta la seconda riga, alla seconda ringa laprima riga, ed alla terza riga due volte la prima riga. Successivamente sottraiamo laseconda riga alla terza per ottenere:

1 0 0 2 | 10 1 3 0 | 00 0 k − 1 0 | 00 0 0 k2 − k | k − 1

Il sistema associato alla precedente matrice e:

x+ 2w = 1y + 3z = 0(k − 1)z = 0k(k − 1)w = k − 1

Abbiamo tre casi k = 0, k = 1 e k(k − 1) 6= 0.

• (k = 0) Il sistema diventa:

x+ 2w = 1y + 3z = 0−z = 00 = −1

che non ammette soluzioni a causa dell’ultima equazione.

• (k = 1) Il sistema diventa:

x+ 2w = 1y + 3z = 00 = 00 = 0

54 CHAPTER 4. I SISTEMI LINEARI

Abbiamo due sole equazioni (significative) e 4 incognite. L’equazione paramet-rica richiede 2 parametri:

x = 1− 2ty = −3uz = uw = t

Quindi abbiamo infinite soluzioni.

• (k(k − 1) 6= 0) In questo caso k 6= 0 e k 6= 1. Possiamo quindi dividere perk(k − 1) nell’ultima equazione

x+ 2w = 1y + 3z = 0(k − 1)z = 0k(k − 1)w = k − 1

ed ottenere w = 1/k. Dalla terza equazione si ricava z = 0, da cui y = 0. Infinesostituendo w = 1/k si ottiene x = (k − 2)/k. Quindi vi e un’unica soluzione(k−2

k, 0, 0, 1

k).

4.7 Prodotto scalare e sistemi lineari

Siano v = [x1, y1] e w = [x2, y2] due vettori del piano. Vogliamo calcolare con latecnica dei sistemi lineari il coseno cos θ dell’angolo θ (0 ≤ θ ≤ π) formato dai duevettori. Sappiamo come calcolare l’angolo ψ formato dal vettore v con l’asse delle x,e l’angolo ψ + θ formato dal vettore w sempre con l’asse delle x:

cosψ =x1‖v‖

; sinψ =y1‖v‖

ecos(ψ + θ) =

x2‖w‖

; sin(ψ + θ) =y2‖w‖

Siccome

cos(ψ+θ) = cosψ cos θ−sinψ sin θ =x2‖w‖

; sin(ψ+θ) = sinψ cos θ+cosψ sin θ =y2‖w‖

allora abbiamo un sistema[cosψ − sinψsinψ cosψ

] [cos θsin θ

]=

[x2‖w‖y2‖w‖

]

4.7. PRODOTTO SCALARE E SISTEMI LINEARI 55

dove le incognite sono cos θ e sin θ. La matrice

[cosψ − sinψsinψ cosψ

]rappresenta una

rotazione del piano di un angolo ψ in senso antiorario. Se ruotiamo la retta di angoloθ rispetto all’asse delle x (rappresentata dal vettore unitario [cos θ, sin θ]) di un angoloψ in senso antiorario otteniamo la retta di angolo ψ + θ (rappresentata dal vettoreunitario [x2/‖w‖, y2/‖w‖]).

Sostituendo i valori conosciuti relativi all’angolo ψ si ottiene il sistema:[x1‖v‖ −

y1‖v‖

y1‖v‖

x1‖v‖

] [cos θsin θ

]=

[x2‖w‖y2‖w‖

]

la cui unica soluzione si ottiene triangolando superiormente la matrice dei coefficientidel sistema: [

x1‖v‖ −

y1‖v‖

x2‖w‖

y1‖v‖

x1‖v‖

y2‖w‖

]Moltiplichiamo la riga 2 per x1 e poi sommiamo alla riga 2 la riga 1 moltiplicata perlo scalare −y1:[x1‖v‖ −

y1‖v‖

x2‖w‖

y1‖v‖

x1‖v‖

y2‖w‖

]⇒

[x1‖v‖ − y1

‖v‖x2‖w‖

x1y1‖v‖

x21‖v‖

x1y2‖w‖

]⇒

[x1‖v‖ −

y1‖v‖

x2‖w‖

0x21+y

21

‖v‖x1y2−y1x2‖w‖

]=

[x1‖v‖ −

y1‖v‖

x2‖w‖

0 ‖v‖ x1y2−x2y1‖w‖

]

da cui si ricava

sin θ =x1y2 − x2y1‖v‖‖w‖

; cos θ =x1x2 + y1y2‖v‖‖w‖

=v ·w‖v‖‖w‖

(4.4)

Quindi il prodotto scalare rappresenta il coseno dell’angolo tra due vettori.

56 CHAPTER 4. I SISTEMI LINEARI

Chapter 5

Matrici

L’insieme delle matrici di tipo m × n a coefficienti in un campo K costituisce unospazio vettoriale rispetto all’operazioni di somma componente per componente eprodotto per uno scalare. Se A = (aij) e B = (bij) sono matrici di tipo m×n, allorala matrice C = (cij) e la somma di A e B se:

cij = aij + bij, per ogni i, j.

Se r ∈ K e uno scalare, allora rA e la matrice cosı definita:

(rA)ij = rAij, per ogni i, j.

Limitandoci alle matrici di tipo 3× 3, in modo piu espressivo possiamo scrivere:

A+B =

a11 a12 a13a21 a22 a23a31 a32 a33

+

b11 b12 b13b21 b22 b23b31 b32 b33

=

a11 + b11 a12 + b12 a13 + b13a21 + b21 a22 + b22 a23 + b23a31 + b31 a32 + b32 a33 + b33

rA = r

a11 a12 a13a21 a22 a23a31 a32 a33

=

ra11 ra12 ra13ra21 ra22 ra23ra31 ra32 ra33

L’opposta della matrice A e la matrice −A le cui componenti sono gli elementi

−aij.

Example 27.2 31 −53 2

+

1 23 45 6

=

3 54 −18 8

4

2 31 −53 2

=

8 124 −2012 8

57

58 CHAPTER 5. MATRICI

A =

2 31 −53 2

; −A =

−2 −3−1 5−3 −2

5.1 Prodotto di una matrice per un vettore

Consideriamo il sistema lineare a coefficienti reali:

a11x1 + · · ·+ a1nxn = b1a21x1 + · · ·+ a2nxn = b2. . . . . . . . .am1x1 + · · ·+ amnxn = bm

Definiamo la matrice A dei coefficienti del sistema ed i vettori colonna delle incognitee dei termini noti:

A =

a11 a12 . . . a1na21 a22 . . . a2n...

......

...am1 am2 . . . amn

; x =

x1x2...xn

; b =

b1b2...bm

Ricordiamo che A ha m righe A1, . . . , Am ed n colonne A1, . . . , An.

Si vede facilmente che la prima equazione lineare a11x1+· · ·+a1nxn = b1 si ottieneprendendo il prodotto interno del vettore riga A1 =

[a11 a12 . . . a1n

]per il vettore

colonna x =

x1x2...xn

e ponendolo uguale a b1. Similmente per le altre equazioni lineari.

I prodotti interni di questo tipo si rappresentano con il prodotto di matrici:

Ax =

a11 a12 . . . a1na21 a22 . . . a2n...

......

...am1 am2 . . . amn

x1x2...xn

=

A1 · xA2 · x...

An · x

=

a11x1 + · · ·+ a1nxna21x1 + · · ·+ a2nxn

...am1x1 + · · ·+ amnxn

Quindi il sistema lineare si rappresenta globalmente come segue

a11 a12 . . . a1na21 a22 . . . a2n...

......

...am1 am2 . . . amn

x1x2...xn

=

b1b2...bm

5.1. PRODOTTO DI UNA MATRICE PER UN VETTORE 59

La precedente equazione matriciale si puo anche scrivere come combinazione linearedi vettori colonna:

x1A1 + x2A

2 + · · ·+ xnAn = x1

a11a21...am1

+ x2

a12a22...am2

+ · · ·+ xn

a1na2n...

amn

=

b1b2...bm

Cosa significa questa equazione? Ci chiediamo se il vettore

b1b2...bm

si puo scrivere

come combinazione lineare dei vettori colonna A1 =

a11a21...am1

, . . . , An =

a1na2n...

amn

. Come

vedremo nel Capitolo 7, l’equazione vettoriale ha sicuramente soluzione se i vettoricolonna sono “linearmente indipendenti”.

Example 28. La matrice quadrata dei coefficienti del sistema lineare

3x+ 2y = 5x+ 4y = 3

ha ordine 2: [3 21 4

]Il sistema lineare si puo scrivere in notazione matriciale come segue:[

3 21 4

] [xy

]=

[53

]I due vettori [x, y] e [5, 3] sono stati scritti come vettori colonna, cioe come matrici2× 1.

Il prodotto interno 3x + 2y del vettore [3, 2] per il vettore

[xy

]e il prodotto

interno della prima riga della matrice per l’unica colonna del vettore colonna

[xy

].

60 CHAPTER 5. MATRICI

Allo stesso modo il prodotto interno x + 4y del vettore [1, 4] per il vettore

[xy

]e

il prodotto interno della seconda riga della matrice per l’unica colonna del vettore

colonna

[xy

]. Quindi abbiamo:

[3 21 4

] [xy

]=

[3x+ 2yx+ 4y

]

Example 29. Il sistema3x+ 2y + z = 5x+ 4y + 3z = 3x+ y + z = 0

si rappresenta in notazione matriciale come segue:3 2 11 4 31 1 1

xyz

=

530

Come prima facciamo il prodotto interno tra la prima (rispettivamente seconda e

terza) riga della matrice per l’unica colonna del vettore

xyz

per ottenere

3 2 11 4 31 1 1

xyz

=

3x+ 2y + zx+ 4y + 3zx+ y + z

=

530

La precedente equazione matriciale si puo anche scrivere come combinazione lin-

eare di vettori colonna:

x

311

+ y

241

+ z

131

=

530

= b

con b il vettore colonna [5, 3, 0]T . Ci chiediamo se il vettore b si puo scrivere come

combinazione lineare dei vettori

311

,

241

and

131

.

5.2. PRODOTTO DI MATRICI 61

5.2 Prodotto di matrici

Tutte le trasformazioni sulle matrici della precedente sezione si ottengono ancheutilizzando il prodotto matriciale che ci accingiamo a definire.

Definition 5.2.1. Siano A = (aij) una matrice di tipo m×k e B = (bij) una matricedi tipo k×n. Il prodotto AB di A e B e una matrice C di tipo m×n le cui componenticij sono ottenute come segue (per ogni i e j):

cij =k∑r=1

airbrj.

Osserviamo che sia la riga i di A che la colonna j di B hanno k elementi e checij coincide con il prodotto interno del vettore riga Ai ed il vettore colonna Bj.

Proposition 5.2.1. Siano A = (aij) una matrice di tipo m × k, B = (bij) unamatrice di tipo k× n e C = (cij) una matrice di tipo n× r. Il prodotto tra matricie associativo:

A(BC) = (AB)C.

L’elemento neutro della matrice A e a sinistra la matrice identica di ordine m eda destra la matrice identica di ordine k:

ImA = A = AIk.

Il prodotto distribuisce rispetto alla somma:

A(B + C) = (AB) + (AC); (B + C)A = (BA) + (CA).

Il prodotto non e in generale commutativo. Esistono matrici A e B tali che AB 6=BA. Abbiamo inoltre per le matrici trasposte:

(AB)T = BTAT .

Infine se r e uno scalare:

(rA)B = A(rB) = r(AB).

Se a = a1e1+a2e2+a3e3 e b = b1e1+b2e2+b3e3 sono vettori dello spazio tridimen-sionale, le cui coordinate sono espresse rispetto alla base canonica, allora il prodottointerno di a e b si puo scrivere con il prodotto matriciale: [a1, a2, a3][b1, b2, b3]

T =

62 CHAPTER 5. MATRICI

a1b1 + · · ·+anbn. Questo risultato non vale in generale se consideriamo le coordinatedei vettori a e b rispetto ad una base arbitraria.

Example 30. In questo esempio consideriamo tre matrici:

A =

[1 24 3

]B =

[3 2 52 −2 4

]C =

1 −2 1−4 −2 12 −2 3

e controlliamo che (AB)C = A(BC). Abbiamo:

AB =

[7 −2 1318 2 32

](AB)C =

[41 −36 4474 −104 116

]BC =

[5 −20 2018 −8 12

]A(BC) =

[41 −36 4474 −104 116

]Example 31. In questo esempio verifichiamo che il prodotto non e commutativo:[

1 24 3

] [3 22 −2

]=

[7 −218 2

]mentre [

3 22 −2

] [1 24 3

]=

[11 12−6 −2

]Example 32. [

1 00 1

] [3 22 −2

]=

[3 22 −2

]=

[3 22 −2

] [1 00 1

]Example 33. Un grafo G = (V,E) e costituito da un insieme finito V = {v1, v2, . . . , vn}di vertici (o nodi) e da un insieme di archi o frecce definite tramite una relazionebinaria E ⊆ V × V . Se (v, u) ∈ E allora esiste un arco orientato che si diparte dalvertice v ed arriva al vertice u:

v −→ u.

Un cammino in un grafo e una sequenza di nodi u0, u1, . . . , uk tali che ui → ui+1 perogni 0 ≤ i < k.

La matrice di adiacenza di un grafo G con n vertici e una matrice quadrata A diordine n:

Aij =

{1 se (vi, vj) ∈ E0 altrimenti.

5.2. PRODOTTO DI MATRICI 63

La somma degli elementi della riga Ai e pari al numero di archi che escono dal verticevi.

Per esempio, la matrice binaria

A =

0 1 10 0 11 1 0

(5.1)

rappresenta un grafo con tre vertici v1, v2, v3 ed i seguenti archi:

v1 −→ v2; v1 −→ v3; v2 −→ v3; v3 −→ v1; v3 −→ v2.

Definiamo le potenze della matrice A per induzione come segue: A0 = In eAk+1 = AkA (da non confondersi con i vettori colonna di A). Indichiamo con (Ak)ijle componenti della matrice Ak. Proviamo per induzione su k che (Ak)ij e ugualeal numero di cammini di lunghezza k dal nodo vi al nodo vj. Il risultato e vero perA1 = A. Un cammino di lunghezza 1 da vi a vj e un arco orientato che connette via vj. L’arco esiste sse aij = 1 sse (vi, vj) ∈ E.

Supponiamo che il risultato sia vero per Ak e dimostriamolo per Ak+1:

(Ak+1)ij =n∑r=1

(Ak)irArj.

Infatti, un cammino di lunghezza k + 1 da vi a vj lo possiamo spezzare come uncammino di lunghezza k da vi ad un vertice intermedio vr ed un arco da vr a vj. Secalcoliamo quanti sono questi cammini di lunghezza k + 1 con nodo intermedio vr,essi sono pari al numero (Ak)ir di cammini di lunghezza k da vi a vr se esiste un arcoda vr a vj, oppure sono 0 se tale arco non esiste. In ogni caso e pari a

(Ak)irArj.

Ne segue la conclusione. Quindi, per ogni k, (Ak)ij e uguale al numero di camminidi lunghezza k da vi a vj.

Ritornando all’esempio (5.1) si ha

A2 = AA =

1 1 11 1 00 1 2

Abbiamo in effetti due cammini di lunghezza due da v3 in v3.

64 CHAPTER 5. MATRICI

5.2.1 Moltiplicazione di matrici a blocchi

La moltiplicazione tra matrici si semplifica a volte se utilizziamo la moltiplicazionea blocchi.

Siano A e B matrici rispettivamente di tipo m × n e di tipo n × p, e sia r unnumero minore o uguale ad n. Possiamo decomporre le due matrici in blocchi:

A = [C|D]; B = [E

F],

dove C e di tipo m × r, D e di tipo m × (n − r), E e di tipo r × p e F e di tipo(n− r)× p. Allora il prodotto matriciale puo essere calcolato come segue:

AB = CE +DF.

Se dividiamo A e B in quattro blocchi

A =

[C DE F

]; B =

[C ′ D′

E ′ F ′

],

allora la moltiplicazione matriciale si esegue come se A e B fossero matrici quadratedi ordine 2:

AB =

[CC ′ +DE ′ CD′ +DF ′

EC ′ + FE ′ ED′ + FF ′

].

Example 34. Siano A =

[1 0 50 1 3

]e B =

2 3 1 14 8 0 01 0 1 0

due matrici suddivise in

blocchi compatibili. Allora si ha:

• [1, 0]

[2 34 8

]+ [5][1, 0] = [2, 3] + [5, 0] = [7, 3].

• [1, 0]

[1 10 0

]+ [5][1, 0] = [1, 1] + [5, 0] = [6, 1].

• [0, 1]

[2 34 8

]+ [3][1, 0] = [4, 8] + [3, 0] = [7, 8].

• [0, 1]

[1 10 0

]+ [3][1, 0] = [3, 0].

5.2. PRODOTTO DI MATRICI 65

Quindi

AB =

[7 3 6 17 8 3 0

].

Example 35. Siano A =

[1 0 00 0 3

]e B =

0 0 1 10 0 0 01 0 1 0

due matrici suddivise in

blocchi compatibili. Siccome alcuni blocchi sono costituiti dalla matrice nulla, allora

si vede facilmente che AB =

[0 0 1 13 0 3 0

].

66 CHAPTER 5. MATRICI

Chapter 6

Matrici e sistemi lineari

6.1 Matrici elementari

Consideriamo il sistema lineare di inizio Capitolo 53 2 11 4 31 1 1

xyz

=

530

e rivediamo i passi effettuati per ottenere la soluzione applicando il metodo di elim-inazione di Gauss alla matrice completa del sistema:3 2 1 5

1 4 3 31 1 1 0

1. Scambia la prima riga con la terza riga;

2. Sottrai la prima riga dalla seconda;

3. Sottrai 3 volte la prima riga dalla terza;

4. Somma alla terza riga un terzo della seconda riga.

Scriviamo qui di seguito le varie matrici che si ottengono con i vari passaggi:3 2 1 51 4 3 31 1 1 0

⇒1 1 1 0

1 4 3 33 2 1 5

⇒1 1 1 0

0 3 2 33 2 1 5

⇒1 1 1 0

0 3 2 30 −1 −2 5

⇒1 1 1 0

0 3 2 30 0 −4/3 6

Dalla matrice finale si ottiene facilmente la soluzione del sistema.

67

68 CHAPTER 6. MATRICI E SISTEMI LINEARI

Definition 6.1.1. Una matrice quadrata e elementare se ha uno dei seguenti treformati:

1. Matrice di tipo I che, moltiplicando a sinistra una matrice A, effettua lo scambiodi una riga di A con un’altra riga di A. Per semplicita, consideriamo matricidi tipo 3× 3.

S1,3 =

0 0 10 1 01 0 0

S2,3 =

1 0 00 0 10 1 0

S1,2 =

0 1 01 0 00 0 1

2. Matrice di tipo II che, moltiplicando a sinistra una matrice A, effettua la

moltiplicazione di una riga di A per uno scalare r:

Mr1 =

r 0 00 1 00 0 1

Mr2 =

1 0 00 r 00 0 1

Mr3 =

1 0 00 1 00 0 r

3. Matrice di tipo III che, moltiplicando a sinistra una matrice A, somma un

multiplo di una data riga di A ad un’altra riga data:

E2+r1 =

1 0 0r 1 00 0 1

E3+r1 =

1 0 00 1 0r 0 1

E3+r2 =

1 0 00 1 00 r 1

E1+r2 =

1 r 00 1 00 0 1

E1+r3 =

1 0 r0 1 00 0 1

E2+r3 =

1 0 00 1 r0 0 1

Ritorniamo al sistema lineare prima della definizione. Le operazioni che applichi-

amo ai coefficienti del sistema lineare, le applichiamo anche ai termini noti. Quindiaggiungiamo una colonna con i termini noti alla matrice A del sistema lineare.

A =

3 2 1 51 4 3 31 1 1 0

Per scambiare la prima riga con l’ultima, moltiplichiamo la matrice S1,3 per la matriceA.

S1,3 =

0 0 10 1 01 0 0

6.1. MATRICI ELEMENTARI 69

Si noti che la prima riga [0, 0, 1] di S1,3 fara diventare la terza riga di A prima riga,la seconda riga [0, 1, 0] di S1,3 manterra intatta la seconda riga di A, mentre la terzariga [1, 0, 0] di S1,3 trasferira la prima riga di A al posto della vecchia terza riga.

S1,3A =

0 0 10 1 01 0 0

3 2 1 51 4 3 31 1 1 0

1 1 1 01 4 3 33 2 1 5

Ora vogliamo sottrarre la prima riga di A dalla seconda riga. Consideriamo la matriceE2+r1 con r = −1:

E2+(−1)1 =

1 0 0−1 1 00 0 1

Allora abbiamo

E2+(−1)1S1,3A =

1 0 0−1 1 00 0 1

1 1 1 01 4 3 33 2 1 5

=

1 1 1 00 3 2 33 2 1 5

Sottraiamo 3 volte la prima riga di A dalla terza. Consideriamo la seguente matrice:

E3+(−3)1 =

1 0 00 1 0−3 0 1

Allora abbiamo

E3+(−3)1E2+(−1)1S1,3A =

1 0 00 1 0−3 0 1

1 1 1 00 3 2 33 2 1 5

=

1 1 1 00 3 2 30 −1 −2 5

Dividiamo la seconda riga di A per 3 e poi sommiamo la seconda riga di A alla terza.Consideriamo la matrice

E3+( 13)2 =

1 0 00 1 00 1

31

Allora abbiamo

E3+( 13)2E3+(−3)1E2+(−1)1S1,3A =

1 0 00 1 00 1

31

1 1 1 00 3 2 30 −1 −2 5

=

1 1 1 00 3 2 30 0 −4/3 6

Il fatto che il prodotto tra matrici e associativo ci permette anche di moltiplicareprima tutte le matrici E3+( 1

3)2E3+(−3)1E2+(−1)1S1,3 e poi applicare il risultato ad A

per ottenere il risultato finale.

70 CHAPTER 6. MATRICI E SISTEMI LINEARI

6.2 Matrice inversa

Le operazioni che abbiamo applicato alla matrice A sono tutte reversibili nel sensoche ciascuna delle matrici elementari e invertibile.

Definition 6.2.1. Una matrice quadrata A di ordine n e invertibile se esiste unamatrice B dello stesso tipo tale che

AB = In = BA,

dove In e la matrice identica.

Come dimostreremo nel seguente lemma, esiste al piu una matrice inversa di A;nel caso in cui esiste l’inversa della matrice A essa si indica con A−1.

Lemma 6.2.1. Siano A e B matrici quadrate di ordine n.

1. La matrice inversa A−1 di A e unica.

2. (AB)−1 = B−1A−1.

3. Se A e invertibile, il sistema lineare Ax = b di n equazioni in n incognite haun’unica soluzione data da x = A−1b.

Proof. (1) Supponiamo che C sia un’altra inversa, cioe AC = CA = In. Alloraabbiamo:

C = CIn = C(AA−1) = (CA)A−1 = InA−1 = A−1.

(2) (AB)(B−1A−1) = A(BB−1)A−1 = AInA−1 = AA−1 = In.

(3) Sia x = A−1b. Allora si ha: A(A−1b) = (AA−1)b = Inb = b.

Nella seguenti proposizioni calcoliamo la matrice inversa di matrici di ordine 2,matrici triangolari superiori e matrici elementari. L’approccio generale alla matriciinverse e rimandato al capitolo sui determinanti.

6.2. MATRICE INVERSA 71

Proposition 6.2.2. Sia A =

[a11 a12a21 a22

]una matrice quadrata di ordine 2 e sia

det(A) = a11a22 − a12a21 il suo determinante. Allora le seguenti condizioni sonoequivalenti:

1. A e invertibile;

2. Il determinante det(A) di A e diverso da zero;

3. L’angolo θ formato dai due vettori colonna A1 =

[a11a21

]e A2 =

[a12a22

]e diverso

da 0, cioe sin θ = a11a22−a12a21‖A1‖‖A2‖ 6= 0 (si veda Sezione 4.7).

Se det(A) 6= 0 allora

A−1 =1

a11a22 − a12a21

[a22 −a12−a21 a11

].

Proof. Sia A =

[a bc d

]una matrice quadrata di ordine 2. A e invertibile se esistono

x, y, z, t tali che [a bc d

] [x yz t

]=

[1 00 1

].

E equivalente a trovare l’unica soluzione, se esiste, del sistema lineare

ax+ bz = 1ay + bt = 0cx+ dz = 0cy + dt = 1

Se a = c = 0, si vede facilmente che il sistema non ammette soluzione e il determi-nante e nullo.

Se a = 0 e c 6= 0, scambiamo la prima riga con la terza e la seconda con la quartae calcoliamo esattamente come qui di seguito.

Supponiamo a 6= 0. Triangoliamo la matrice completa moltiplicando prima lerighe 3 e 4 per a, e poi sottraendo c volte la riga 1 dalla riga 3 e la riga 2 dalla riga4:a 0 b 0 | 10 a 0 b | 0c 0 d 0 | 00 c 0 d | 1

⇒a 0 b 0 | 10 a 0 b | 0ac 0 ad 0 | 00 ac 0 ad | a

⇒a 0 b 0 | 10 a 0 b | 00 0 ad− bc 0 | −c0 0 0 ad− bc | a

72 CHAPTER 6. MATRICI E SISTEMI LINEARI

Il sistema ammette un’unica soluzione sse ad − bc 6= 0. Il numero ad − bc e il

determinante della matrice A =

[a bc d

]. Risolvendo il sistema triangolare superiore

si ottiene:

A−1 =1

ad− bc

[d −b−c a

].

Proposition 6.2.3. Una matrice triangolare superiore e invertibile se nessun ele-mento nella diagonale e 0. In tal caso l’inversa e una matrice triangolare superiore.

Se A =

d a b0 e c0 0 f

allora

A−1 =1

edf

ef −af ac− be0 df −cd0 0 de

Proof. Proviamo la proposizione per n = 3. Sia

A =

d a b0 e c0 0 f

Dobbiamo trovare una matrice tale ched a b

0 e c0 0 f

x y zx1 y1 z1x2 y2 z2

=

1 0 00 1 00 0 1

E equivalente a risolvere i tre sistemi lineari:d a b

0 e c0 0 f

xx1x2

=

100

;

d a b0 e c0 0 f

yy1y2

=

010

;

d a b0 e c0 0 f

zz1z2

=

001

I tre sistemi triangolari superiori ammettono ciascuno un’unica soluzione sse tutti glielementi nella diagonale principale di A sono diversi da zero sse def 6= 0. In questo

caso otteniamo come soluzioni:

1/d00

per il primo sistema;

−a/ed1/e0

per il secondo

6.2. MATRICE INVERSA 73

sistema; e infine

(ac− be)/edf−c/ef

1/f

per il terzo sistema. Quindi

A−1 =

1d−aed

ac−beedf

0 1e

−cef

0 0 1f

=1

edf

ef −af ac− be0 df −cd0 0 de

Proposition 6.2.4. Le matrici elementari sono invertibili.

Example 36. La matrice S1,3 (che scambia la riga 1 e la riga 3) e invertibile coninversa la matrice stessa:

S1,3S1,3 =

0 0 10 1 01 0 0

0 0 10 1 01 0 0

=

1 0 00 1 00 0 1

= I3

E infatti chiaro che scambiare due volte di seguito la riga uno e la riga tre riportaalla situazione iniziale.

La matrice E3+r2 e invertibile con inversa E3+(−r)2:1 0 00 1 00 r 1

1 0 00 1 00 −r 1

=

1 0 00 1 00 0 1

La matrice Mr2 e invertibile con inversa M 1

r2:1 0 0

0 1r

00 0 1

1 0 00 r 00 0 1

=

1 0 00 1 00 0 1

Example 37. Sia A la matrice reale

A =

2 2 k1 2 00 0 3k

74 CHAPTER 6. MATRICI E SISTEMI LINEARI

Determiniamo per quali valori di k ∈ R la matrice A e invertibile. Triangoliamo lamatrice A sottraendo alla seconda riga 1

2della prima:

E2+(−1/2)1A =

2 2 k0 1 −k/20 0 3k

Dalla Proposizione 6.2.3 la matrice ottenuta e invertibile sse k 6= 0. In tal caso,

(E2+(−1/2)1A)−1 = A−1E2+(+1/2)1 =1

6k

3k −6k −2k0 6k k0 0 2

=

12−1 −1

3

0 1 16

0 0 13k

Per ottenere A−1 moltiplichiamo a destra per la matrice inversa E2+(−1/2)1 dellamatrice E2+(+1/2)1:

A−1 =

12−1 −1

3

0 1 16

0 0 13k

1 0 0−1

21 0

0 0 1

=

1 −1 −13

−12

1 16

0 0 13k

6.2.1 Metodo di inversione di Gauss-Jordan

Spieghiamo il metodo con un esempio. Consideriamo la matrice A da invertire:

A =

2 1 14 −6 0−2 7 2

Aggiungiamo la matrice identica in fondo:

B = (A|I3) =

2 1 1 1 0 04 −6 0 0 1 0−2 7 2 0 0 1

L’idea e di eseguire le solite operazioni di triangolabilita sulla matrice B in manieratale da arrivare ad una matrice1 0 0 c11 c12 c13

0 1 0 c21 c22 c230 0 1 c31 c32 c33

Allora la matrice di ordine 3 formata dalle tre colonne B4, B5 e B6 sara l’inversa diA.

6.2. MATRICE INVERSA 75

Cominciamo sottraendo il doppio della prima riga alla seconda riga: 2 1 1 1 0 00 −8 −2 −2 1 0−2 7 2 0 0 1

Sommiamo la prima riga all’ultima riga:2 1 1 1 0 0

0 −8 −2 −2 1 00 8 3 1 0 1

Sommiamo la seconda riga all’ultima:2 1 1 1 0 0

0 −8 −2 −2 1 00 0 1 −1 1 1

Ora cerchiamo di azzerare le componenti b13 e b23, sottraendo la terza riga alla prima:2 1 0 2 −1 −1

0 −8 −2 −2 1 00 0 1 −1 1 1

e sommando due volte la terza alla seconda:2 1 0 2 −1 −1

0 −8 0 −4 3 20 0 1 −1 1 1

Per azzerare la componente b12 si procede sommando un ottavo della seconda allaprima: 2 0 0 12

8−5

8−6

8

0 −8 0 −4 3 20 0 1 −1 1 1

Fino ad ora non abbiamo modificato il determinante −16 della matrice A di partenza.

Infine si divide la prima riga per 2, la seconda per −8:1 0 0 1216− 5

16− 6

16

0 1 0 48−3

8−2

8

0 0 1 −1 1 1

Quindi la matrice inversa e:

A−1 =

1216− 5

16− 6

1648−3

8−2

8

−1 1 1

76 CHAPTER 6. MATRICI E SISTEMI LINEARI

6.3 Fattorizzazione triangolare

Sia B =

1 1 11 4 33 2 1

una matrice quadrata. La matrice U che si ottiene da B, appli-

cando il metodo di eliminazione di Gauss, e triangolare superiore:

U = E3+( 13)2E3+(−3)1E2+(−1)1B =

1 1 10 3 20 0 −4/3

Se moltiplichiamo ambo i membri della precedente uguaglianza per le matrici inversedelle matrici elementari (nel giusto ordine), si riottiene B:

B = LU = (E2+(−1)1)−1(E3+(−3)1)

−1(E3+( 13)2)−1U = E2+(+1)1E3+(+3)1E3+(3)2U.

La matrice L e una matrice triangolare inferiore purche nel processo di applicazionedelle regole di Gauss non si scambino mai due righe:

L =

1 0 01 1 00 0 1

1 0 00 1 03 0 1

1 0 00 1 00 3 1

=

1 0 00 1 03 3 1

Data una matrice A, se riusciamo a scomporre A come A = LU con L matrice

triangolare inferiore e U matrice triangolare superiore, allora possiamo risolvere ilsistema Ax = b (x vettore colonna incognito e b vettore colonna dei termini noti)con i seguenti passi:

• Trovare un vettore c tale che Lc = b;

• Trovare un vettore d tale che Ud = c;

• Ad = LUd = L(Ud) = Lc = b e quindi x = d.

Example 38. Consideriamo il sistema[2 1−2 3

] [x1x2

]=

[53

]Allora [

2 1−2 3

]=

[1 0−1 1

] [2 10 4

]= LU

dove L =

[1 0−1 1

]= E2+(−1)1. Risolvendo Lc = b, si ottiene c1 = 5 e c2 = 8, mentre

per l’equazione Ud = c si ha d1 = 32

e d2 = 2.

6.4. MATRICI A SCALA IN FORMA RIDOTTA 77

6.4 Matrici a scala in forma ridotta

Le matrici a scala definite in Definizione 4.3.1 svolgono il ruolo delle matrici trian-golari superiori quando il sistema lineare non e quadrato.

Definition 6.4.1. Una matrice a scala in forma ridotta e una matrice a scala cheverifica le seguenti condizioni:

1. Il primo elemento in una riga non nulla e un 1;

2. Se una colonna contiene il primo elemento non nullo di una riga, allora tuttegli altri elementi della colonna sono nulli.

Example 39. Una matrice a scala in forma ridotta:1 0 0 0 0 40 1 0 0 0 70 0 0 1 0 70 0 0 0 1 00 0 0 0 0 0

Definition 6.4.2. Due matrici A e B di dimensione m×n sono equivalenti per riga,e scriviamo A ≡r B, se la matrice B puo essere ottenuta dalla matrice A applicandooperazioni elementari (di tipo I, II, III).

Si noti che la relazione ≡r e una relazione di equivalenza perche le matrici ele-mentari sono invertibili e quindi anche il prodotto di matrici elementari e invertibile:se B = EA per una matrice elementare E, allora A = E−1B.

Proposition 6.4.1. Ogni matrice non nulla e equivalente ad una matrice a scalain forma ridotta.

Proof. In Sezione 4.4 e spiegato come ridurre con operazioni elementari una matricein una equivalente matrice a scala. Ora vediamo come ottenere una matrice in formaridotta da una matrice a scala H. Sia H = (hij) una matrice a scala. Applichiamo laprocedura seguente dall’alto verso il basso. Consideriamo una riga non nulla, diciamola riga i. Allora dividiamo la riga per lo scalare che e il valore del primo elementoda sinistra della riga i. In questo modo 1 diventa il valore del primo elemento nonnullo della riga. Supponiamo che si trovi nella colonna j, cioe, hij = 1. Allora, perogni riga k (1 ≤ k < i) con elemento non nullo in posizione kj, cioe hkj 6= 0, somma−hkj volte la riga i alla riga k. Alla fine nella colonna j avremo tutti elementi nullitranne un 1 in posizione ij.

78 CHAPTER 6. MATRICI E SISTEMI LINEARI

Proposition 6.4.2. Siano Ax = a e Bx = b due sistemi lineari ciascuno con mequazioni in n incognite. Se le matrici complete A|a e B|b sono equivalenti perriga allora

(i) I due sistemi hanno le stesse soluzioni.

(ii) Le soluzioni del sistema Ax = a si ottengono trasformando la matrice com-pleta [A|a] in forma ridotta.

Proof. (i) Per ipotesi esiste una matrice G, che e prodotto di matrici elementari,tale che G(B|b) = A|a. Moltiplicando a blocchi, segue che GB = A e Gb = a.Supponiamo che il vettore colonna x sia una soluzione del sistema lineare Bx = b.Allora Ax = GBx = Gb = a. Per simmetria otteniamo la tesi.

(ii) Dalla Proposizione 6.4.1 la matrice A e equivalente per riga ad una matrice Cin forma ridotta. Esiste quindi una matrice G, che e prodotto di matrici elementari,tale che GA = C. Da (i) i sistemi Ax = a e Cx = GAx = Ga hanno le stessesoluzioni.

Un sistema lineare e omogeneo se il vettore dei termini noti e il vettore nullo.

Proposition 6.4.3. Un sistema omogeneo Ax = 0 di m equazioni in n incogniteammette sempre una soluzione non nulla se n > m.

Proof. Riduciamo A in forma ridotta ottenendo la matrice B. Siano r il numero dirighe non nulle di B. Allora la matrice C di dimensione r×n, formata dalle prime rrighe di B, non ha righe nulle. Siccome r ≤ m < n possiamo risolvere il sistema conle prime r incognite che dipendono dalle altre n−r. Queste ultime possono prenderevalori arbitrari.

Chapter 7

Spazi vettoriali

Prima di proseguire nel capitolo invitiamo il lettore a rileggersi la definizione di spaziovettoriale in Sezione 2.2.

7.1 Sottospazi

Definition 7.1.1. Sia V uno spazio vettoriale sul campo K. Un sottoinsieme nonvuoto U di V e un sottospazio vettoriale di V se la somma vettoriale di vettori di Ue ancora in U e lo stesso accade per il prodotto di un vettore di U per un arbitrarioscalare:

1. v,w ∈ U ⇒ v + w ∈ U ;

2. v ∈ U ∧ r ∈ K⇒ rv ∈ U .

Dalla seconda condizione della definizione precedente il vettore nullo 0 appartienead ogni sottospazio vettoriale.

Ogni spazio vettoriale V ammette due sottospazi banali: il primo {0} costituitodal solo vettore nullo e il secondo da V stesso.

Example 40. L’insieme dei punti della retta di equazione ax+ by = 0, passante perl’origine degli assi Cartesiani di R2, e un sottospazio vettoriale di R2. Se P = (p1, p2)e Q = (q1, q2) sono due punti sulla retta, cioe ap1 + bp2 = 0 e aq1 + bq2 = 0, alloraanche P + Q = (p1 + q1, p2 + q2) appartiene alla retta: a(p1 + q1) + b(p2 + q2) =ap1 +aq1 + bp2 + bq2 = (ap1 + bp2)+(aq1 + bq2) = 0+0 = 0. Se r e uno scalare, allorarP = (rp1, rp2) appartiene alla retta data: arp1 + brp2 = r(ap1 + bp2) = r0 = 0.

79

80 CHAPTER 7. SPAZI VETTORIALI

Example 41. L’insieme dei punti della retta di equazione ax+ by = c (c 6= 0) non eun sottospazio vettoriale di R2. Per esempio, se P = (p1, p2) e un punto della retta(cioe ap1 + bp2 = c) ed r 6= 1 e uno scalare, allora rP non appartiene alla retta data:a(rp1) + b(rp2) = r(ap1 + bp2) = rc 6= c.

Lemma 7.1.1. L’intersezione di due o piu sottospazi vettoriali di V e ancora unsottospazio vettoriale.

Proof. Siano W e U due sottospazi. Si vede facilmente che, se v,w ∈ W ∩U , alloraanche che v + w ∈ W ∩ U e rv ∈ W ∩ U per ogni scalare r.

Example 42. I piani di equazione 3x + 2y + z = 0 e x + y + z = 0 sono duesottospazi vettoriali di R3. La retta di equazione parametrica x = t, y = −2t e z = t,intersezione dei due piani, e un sottospazio vettoriale di R3.

Definition 7.1.2. Sia V uno spazio vettoriale e x1, . . . ,xn ∈ V vettori. Un vettorev ∈ V e una combinazione lineare dei vettori x1, . . . ,xn se esistono scalari r1, . . . , rntali che

v = r1x1 + · · ·+ rnxn.

Definition 7.1.3. Sia X ⊆ V un sottoinsieme di uno spazio vettoriale V sul campoK. Il sottospazio Span(X) di V generato da X e definito come l’intersezione di tuttii sottospazi di V che contengono X.

Span(X) e costituito da tutte le combinazioni lineari finite di elementi di X acoefficienti nel campo K:

Span(X) = {r1v1 + · · ·+ rkvk : r1, . . . rk ∈ K e v1, . . . ,vk ∈ X}.

Example 43. Siano A = [3, 2, 1] e B = [0, 0, 2] due vettori di R3. Allora il sot-tospazio vettoriale Span(A,B) = {sA + tB : r, s ∈ R} di R3 e il piano passante perl’origine che contiene i due vettori A e B.

Example 44. Sia C lo spazio vettoriale dei numeri complessi sul campo dei numerireali. Tale spazio ha dimensione 2. Sia z = 3 + 2i un numero complesso. AlloraSpan(z) = {t(3 + 2i) : t ∈ R}.

Example 45. Consideriamo lo spazio vettoriale dei polinomi reali in una variabilet. Allora Span(1, t, t2) costituisce il sottospazio vettoriale dei polinomi di secondogrado.

7.1. SOTTOSPAZI 81

Proposition 7.1.2. 1. I sottospazi vettoriali non banali del piano sono le rettepassanti per l’origine.

2. I sottospazi vettoriali non banali dello spazio sono i piani e le rette passantiper l’origine.

Le rette (i piani) che non passano per l’origine NON sono sottospazi vettoriali,perche il vettore nullo non appartiene alla retta (al piano).

Ricordiamo che un sistema lineare e omogeneo se il vettore dei termini noti e ilvettore nullo.

Proposition 7.1.3. L’insieme delle soluzioni di un sistema lineare omogeneo dim equazioni in n incognite e un sottospazio vettoriale dello spazio Rn.

Proof. Sia A una matrice di tipo m × n, x,y vettori colonna di lunghezza n taliche Ax = 0 e Ay = 0. Allora A(x + y) = Ax + Ay = 0 + 0 = 0 ed inoltreA(rx) = r(Ax) = r0 = 0.

Proposition 7.1.4. Sia Ax = b un sistema lineare con A matrice di tipom × n. Il sistema ammette soluzione se il vettore b appartiene al sottospazioSpan(A1, . . . , An) generato dai vettori colonna di A. In tal caso b = c1A

1 + · · · +cnA

n per opportuni scalari c1, . . . , cn e la soluzione del sistema e x = [c1 . . . cn]T .

Concludiamo la sezione con esempi che chiarificano le proposizioni precedenti.

Example 46. La retta di equazione 2x + 3y = 0 e un sottospazio vettoriale di R2

(si consulti Proposizione 7.1.2):

• Se [x1, x2] e [y1, y2] appartengono alla retta (i.e., 2x1 +3x2 = 0 e 2y1 +3y2 = 0),allora anche [x1 +y1, x2 +y2] appartiene alla retta (2(x1 +y1)+3(x2 +y2) = 0).

• Se [x1, x2] appartiene alla retta (i.e., 2x1 + 3x2 = 0), allora anche r[x1, x2] =[rx1, rx2] appartiene alla retta (i.e., r(2x1 + 3x2) = 0).

Example 47. Il piano di equazione 2x + 3y + 4z = 0 e un sottospazio vettorialedi R3 (si consulti Proposizione 7.1.2). Le rette passanti per l’origine sono anch’essesottospazi vettoriali di R3 in quanto intersezione di due piani passanti per l’origine(Si consulti Lemma 7.1.1).

Example 48. Si consideri lo spazio vettoriali delle matrici quadrate di ordine n. Iseguenti sono sottospazi vettoriali:

82 CHAPTER 7. SPAZI VETTORIALI

• L’insieme delle matrici triangolari superiori;

• L’insieme delle matrici diagonali;

• L’insieme delle matrici simmetriche.

Example 49. Si consideri la matrice

A =

2 1 14 −6 0−4 −2 −2

L’insieme delle combinazioni lineari dei vettori colonna della matrice

c1

24−4

+ c2

1−6−2

+ c3

10−2

costituisce un sottospazio vettoriale W di R3. Se il vettore

abc

appartiene al sot-

tospazio W allora il sistema lineare 2 1 14 −6 0−4 −2 −2

xyz

=

abc

ammette soluzione.

Example 50. L’insieme dei polinomi di grado minore o uguale ad n e un sottospaziovettoriale dello spazio dei polinomi.

Example 51. Siano x1 =

012

e x2 =

543

due vettori nello spazio tridimensionale.

Allora le combinazioni lineari di x1 e x2

c1

012

+ c2

543

descrivono l’insieme dei punti del piano di equazione x − 2y + z = 0, che e unsottospazio vettoriale di R3. Infatti, le equazioni x = 5c2, y = c1 +4c2 e z = 2c1 +3c2costituiscono le equazioni parametriche di un piano passante per l’origine. Da c2 =x5

si ricava 5y = 5c1 + 4x e 5z = 10c1 + 3x. Infine, sostituendo 5c1 = 5y − 4xnell’equazione 5z = 10c1 + 3x si ottiene l’equazione lineare del piano x− 2y+ z = 0.

7.2. VETTORI LINEARMENTE INDIPENDENTI 83

Example 52. Siano p(x) = x+3 e q(x) = x2+2 due polinomi. Allora le combinazionilineari rp(x) + sq(x) con r, s ∈ R costituiscono il sottospazio dei polinomi del tipo

sx2 + rx+ (2s+ 3r)

al variare di r, s tra i reali.

Example 53. Siano A =

[2 00 0

], B =

[0 10 0

]e C =

[0 00 4

]tre matrici. L’insieme

delle combinazioni lineari di A, B e C determina il sottospazio delle matrici chehanno la seguente forma (c1, c2, c3 arbitrari numeri reali):[

c1 c20 c3

]

7.2 Vettori linearmente indipendenti

Definition 7.2.1. I vettori x1, . . . ,xn di uno spazio vettoriale V si dicono linear-mente dipendenti se il vettore nullo 0 e una combinazione lineare di x1, . . . ,xn concoefficienti scalari non tutti nulli; altrimenti si dicono linearmente indipendenti.

Example 54. Riconsideriamo i tre vettori colonna dell’Esempio 49. Essi sono lin-earmente dipendenti perche

−3

24−4

− 2

1−6−2

+ 8

10−2

= 0.

Quindi il sistema omogeneo 2 1 14 −6 0−4 −2 −2

−3−28

=

000

ammette soluzioni diverse dal vettore nullo 0. Infatti si vede facilmente che la terzariga della matrice e un multiplo della prima, cosı il sistema lineare ammette unaretta di soluzioni che sono l’intersezione del piano 2x + y + z = 0 (che e lo stessopiano di equazione −4x − 2y − 2z = 0) e del piano 4x − 6y = 0. Si noti che se ivettori colonna sono lineramente dipendenti, anche i vettori riga [2, 1, 1], [4,−6, 0] e[−4,−2,−2] lo sono:

2[2, 1, 1] + 0[4,−6, 0] + [−4,−2,−2] = 0.

84 CHAPTER 7. SPAZI VETTORIALI

Quest’ultima uguaglianza la possiamo scrivere anche cosı:

[2 0 1

] 2 1 14 −6 0−4 −2 −2

=[0 0 0

]Oppure prendendo le matrici trasposte:2 4 −4

1 −6 −21 0 −2

201

=

000

Proposition 7.2.1. Se A = (aij) e una matrice di tipo m × n e x =

x1...xn

un

vettore colonna non nullo, allora le seguenti condizioni sono equivalenti:

1. Ax = 0;

2. x e un vettore perpendicolare agli m vettori riga della matrice:

Prodotto interno: Ai · x =n∑j=1

aijxj = 0, per ogni 1 ≤ i ≤ m.

3. Gli n vettori colonna di A sono linearmente dipendenti:

x1A1 + · · ·+ xnA

n = x1

a11...am1

+ x2

a12...am2

+ · · ·+ xn

a1n...amn

= 0.

Corollary 7.2.2. Sia A una matrice di tipo m× n. Le colonne di A sono linear-mente indipendenti se e solo se il sistema Ax = 0 ammette il vettore nullo comeunica soluzione.

Corollary 7.2.3. Sia A una matrice di tipo m× n con n > m. Allora le colonnedi A sono linearmente dipendenti.

Proof. Segue dalla Proposizione 7.2.1 e dalla Proposizione 6.4.3.

7.3. BASI 85

Example 55. Consideriamo la matrice

A =

3 4 24 −6 01 2 −2

I tre vettori colonna

341

,

4−62

e

20−2

sono linearmente indipendenti. Per di-

mostrarlo e sufficiente verificare che il vettore nullo e l’unica soluzione del sistemalineare omogeneo Ax = 0.

7.3 Basi

Definition 7.3.1. Una base di uno spazio vettoriale V e un insieme di vettori lin-earmente indipendenti che generano tutto lo spazio.

Nel seguito consideriamo soltanto spazi vettoriali con basi costituite da un numerofinito di elementi.

Sia x1, . . . ,xn una base di V . Allora ogni vettore v ∈ V si scrive in manieraunica come combinazione lineare della base. Infatti se v = a1x1 + . . . anxn = b1x1 +. . . bnxn allora 0 = (a1− b1)x1 + . . . (an− bn)xn. Siccome x1, . . . ,xn sono linearmenteindipendenti, si ricava ai − bi = 0 per ogni i, da cui ai = bi.

Se v = a1x1 + . . . anxn allora [a1, . . . , an] e il vettore delle coordinate di v rispettoalla base data.

Example 56. I vettori e1 = [1, 0, 0], e2 = [0, 1, 0] e e3 = [0, 0, 1] sono la base canonicadi R3. Tre vettori qualsiasi linearmente indipendenti costituiscono sempre una basedi R3. Per esempio, i tre vettori [1, 1, 1], [1, 1, 0] e [1, 0, 1] costituiscono una base diR3.

Example 57. Lo spazio dei polinomi reali non ammette una base finita, ma soltantouna base infinita

1, x, x2, . . . , xn, . . .

Il sottospazio dei polinomi di grado ≤ 5 ammette una base finita:

1, x, x2, x3, x4, x5.

Lo stesso risultato vale per il sottospazio dei polinomi di grado ≤ n.

86 CHAPTER 7. SPAZI VETTORIALI

Example 58. Sia C lo spazio vettoriale dei numeri complessi sul campo reale. Allora,i vettori 1 e i =

√−1 costituiscono una base.

Example 59. Sia C lo spazio vettoriale dei numeri complessi sul campo complesso.Allora, il vettore 1 e una base.

Proposition 7.3.1. Sia V uno spazio vettoriale di base v1, . . . ,vm. Allora ogniinsieme di elementi w1, . . . ,wn con n > m e linearmente dipendente. In partico-lare, due basi qualsiasi di uno spazio vettoriale hanno lo stesso numero di vettori.Questo numero si dice dimensione dello spazio vettoriale e si indica con dim V .

Proof. Rappresentiamo wi (i = 1, . . . , n) come combinazione lineare della base v1, . . . ,vm:

wi =m∑j=1

ajivj = a1iv1 + a2iv2 + . . . amivm. (7.1)

I coefficienti aji costituiscono una matrice A di dimensione m× n, per cui si ha:

[w1, . . . ,wn] = [v1, . . . ,vm]

a11 . . . a1m . . . a1n...

......

......

am1 . . . amm . . . amn

Si noti che (i) ogni colonna della matrice A ha qualche coefficiente diverso da zero; (ii)i coefficienti della matrice sono scalari, mentre le sequenze [v1, . . . ,vm] e [w1, . . . ,wn]hanno elementi in V .

Risolviamo il sistema lineare omogeneo:a11 . . . a1m . . . a1n...

......

......

am1 . . . amm . . . amn

x1...xn

=

0...0

.

La soluzione non banale

b1...bn

esiste perche n > m (Proposizione 6.4.3). Allora

abbiamo:

[w1, . . . ,wn]

b1...bn

= [v1, . . . ,vm]

a11 . . . a1m . . . a1n...

......

......

am1 . . . amm . . . amn

b1...bn

7.3. BASI 87

= [v1, . . . ,vm]

0...0

=

0...0

E quindi i vettori w1, . . . ,wn sono linearmente dipendenti.

Proposition 7.3.2. Ogni insieme di vettori linearmente indipendenti puo essereesteso ad una base. Qualsiasi insieme di generatori dello spazio puo essere ridottoad una base.

Example 60. • R3 ha dimensione 3. La base canonica di R3 e costituita dai

vettori

100

,

010

e

001

. Ogni altra base e costituita da tre vettori linearmente

indipendenti. Per esempio, i tre vettori

111

,

110

e

203

sono linearmente

indipendenti e quindi costituiscono una base, perche il sottospazio vettorialedelle soluzioni del sistema lineare omogeneo1 1 2

1 1 01 0 3

xyz

=

000

e costituito solo dal vettore nullo. Le coordinate di un punto dello spazio

dipendono dalla base scelta. Per esempio, se il punto P ha coordinate P =

111

rispetto alla base canonica, allora le coordinate dello stesso punto rispetto alla

base non canonica definita prima sono: P =

100

. Quindi le coordinate di un

punto dipendono dalla scelta della base.

• Lo spazio vettoriale reale C dei numeri complessi ha dimensione 2. La basecanonica sono i vettori 1 e i. Altre basi sono, per esempio, 5 e 3i; oppure 2 + 3ie 1 + i.

88 CHAPTER 7. SPAZI VETTORIALI

• Lo spazio vettoriale dei numeri complessi sul campo C ha dimensione 1. Labase canonica e data dal vettore 1.

• Lo spazio delle matrici di tipo m × n ha dimension mn. La base canonica ecostituita dalle matrici A per cui esistono indici ij tali che aij = 1 mentre tuttele altre componenti sono nulle: ahk = 0 per h 6= i e k 6= j.

• Lo spazio delle matrici 3× 3 triangolari superiori ha dimensione 6.

• Lo spazio dei polinomi di grado ≤ 3 ha dimensione 4 ed ha come base canonicai polinomi 1, x, x2, x3.

7.4 Ortogonalita

In questa sezione Rn e lo spazio vettoriale di riferimento.

7.4.1 Basi ortonormali

Definition 7.4.1. (i) Una base ortogonale di Rn e una base v1, . . . ,vn tale che ilprodotto interno vi · vj = 0 per ogni i 6= j.

(ii) Una base ortogonale e ortonormale se ‖vi‖ = 1.

Una base ortogonale v1, . . . ,vn si trasforma in una base ortonormale considerandoi vettori v1

‖v1‖ , . . . ,vn‖vn‖ .

Example 61. La base canonica e1 = [1, 0, 0], e2 = [0, 1, 0], e3 = [0, 0, 1] di R3 eortonormale. La base v1 = [ 1√

2, 1√

2, 0],v2 = [− 1√

2, 1√

2, 0], e3 = [0, 0, 1] e anch’essa

ortonormale.

Lemma 7.4.1. Sia v1, . . . ,vn una base ortonormale di Rn e siano x = x1v1 +· · · + xnvn, y = y1v1 + · · · + ynvn due vettori. Allora il prodotto interno di x e ysi esprime come segue:

x · y = x1y1 + · · ·+ xnyn.

Se v1, . . . ,vn e una base arbitraria (non necessariamente ortonormale), il Lemma7.4.1 non vale in generale. Si ha piuttosto il seguente risultato:

x · y =n∑i=1

n∑j=1

xiyj(vi · vj).

7.4. ORTOGONALITA 89

Lemma 7.4.2. Le coordinate di un vettore w ∈ Rn rispetto ad una base ortonor-male v1, . . . ,vn di Rn sono calcolate con il prodotto interno:

w = (w · v1)v1 + · · ·+ (w · vn)vn.

Proof. Sia w = w1v1 + · · ·+wnvn. Allora w ·v1 = (w1v1 +w2v2 + · · ·+wnvn) ·v1 =w1(v1·v1)+w2(v2·v1) · · ·+wn(vn·v1) = w1(v1·v1)+0+· · ·+0 = w1(v1·v1) = w1.

Example 62. Sia w = 2e1+e2+3e3 un vettore dello spazio. Calcoliamo le coordinatedi w rispetto alla base ortonormale v1 = [ 1√

2, 1√

2, 0],v2 = [− 1√

2, 1√

2, 0], e3 = [0, 0, 1]:

w · v1 = 2√2

+ 1√2

= 3√2; w · v2 = −2√

2+ 1√

2= − 1√

2; w · e3 = 3. Allora si ha:

w =3√2v1 −

1√2v2 + 3e3

Lemma 7.4.3. Ogni sottospazio vettoriale di Rn ammette una base ortonormale.

Proof. Analizziamo per semplicita il caso n = 2. Se i vettori v e w sono linearmenteindipendenti, allora lo spazio vettoriale Span(v,w) e anche generato da v e w− v·w

v·v vche sono ortogonali: v · [w − v·w

v·v v] = (v ·w)− v·wv·v (v · v) = 0.

7.4.2 Sottospazi ortogonali

Due sottospazi X e Y di Rn sono ortogonali se il prodotto interno di vettori dei duespazi e sempre nullo:

(∀x ∈ X)(∀y ∈ Y )(x · y = 0).

Definition 7.4.2. Lo spazio ortogonale ad un sottospazio X e definito come

X⊥ = {v ∈ V : (∀x ∈ X)(v · x = 0)}.

Proposition 7.4.4. Sia X un sottospazio di uno spazio vettoriale reale V . Alloradim X+dim X⊥ = dim V ed ogni vettore v ∈ V e somma v = v1 +v2 con v1 ∈ Xe v2 ∈ X⊥.

Proof. Sia v1, . . . ,vk una base ortonormale di X e w1, . . . ,wr una base ortonormaledi X⊥. Consideriamo il sottospazio Y generato dai vettori v1, . . . ,vk, w1, . . . ,wr.Supponiamo per assurdo che esista u ∈ V \Y . Consideriamo il vettore t = (u·v1)v1+· · ·+(u·vk)vk. Allora 0 6= u−t (altrimenti u ∈ X) e si ha (u−t)·vi = u·vi−t·vi = 0per ogni i = 1, . . . , k. Quindi u − t ∈ X⊥ e si scrive come combinazione lineare diw1, . . . ,wr. Ne segue la conclusione u ∈ Y , che contraddice l’ipotesi su u.

90 CHAPTER 7. SPAZI VETTORIALI

Example 63. Sia A = [3, 3] un vettore del piano. Sia X il sottospazio vettorialegenerato da A, che e la retta passante per l’origine e per il punto A. Lo spazioortogonale X⊥ a X e la retta di equazione 3x+ 3y = 0. Allora una base del piano edeterminata dal vettore A e da un vettore B ∈ X⊥, per esempio B = [1,−1].

Example 64. Sia A = [3, 3, 1] un vettore dello spazio. Sia X il sottospazio vettorialegenerato da A, che e la retta passante per l’origine e per il punto A. Lo spazioortogonale X⊥ a X e il piano di equazione 3x + 3y + z = 0. Allora una base dellospazio e determinata dal vettore A e da due vettori B,C ∈ X⊥ non collineari, peresempio B = [1,−1, 0] e C = [1, 1,−6].

7.4.3 Matrici ortogonali

Definition 7.4.3. Una matrice quadrata A di ordine n e ortogonale se la matriceinversa di A e la matrice trasposta AT di A.

Se A e ortogonale allora il determinante det(A) di A e uguale a ±1 (Si veda ilCapitolo 9): det(A)2 = det(A)det(A) = det(A)det(AT ) = det(AAT ) = det(In) = 1,perche la trasposta di una matrice ha lo stesso determinante della matrice stessa.

Proposition 7.4.5. Sia A una matrice quadrata di ordine n. Allora le seguenticondizioni sono equivalenti:

(i) A e ortogonale;

(ii) Le colonne di A costituiscono una base ortonormale di Rn (cioe, Ai · Ai = 1e Ai · Aj = 0 per ogni i 6= j);

(iii) La matrice A preserva il prodotto interno di vettori: Ax ·Ay = x ·y (e quindile lunghezze dei vettori ‖Ax‖ = ‖x‖ per ogni x,y).

Proof. (i) ⇔ (ii) ATA = In sse Ai · Aj = δij, il delta di Kronecker.

Sia B = AAT . Allora Bii = Ai ·(AT )i = Ai ·Ai = 1 e, per i 6= j, Bij = Ai ·(AT )j =Ai · Aj = 0. Quindi B e la matrice identica. La stessa prova funziona per ATA.

(i) ⇒ (iii) (Ax) · (Ay) = (Ax)T (Ay) = xTATAy = xT Iny = x · y.

(iii) ⇒ (i) Se xTATAy = xTy per ogni x e y, allora scegliendo opportunamentei valori di x e y si ricava ATA = In.

7.4. ORTOGONALITA 91

Proposition 7.4.6. Le matrici quadrate ortogonali di ordine n costituiscono ungruppo O(n) rispetto alla moltiplicazione di matrici: il prodotto di due matrici or-togonali e una matrice ortogonale, l’inversa di una matrice ortogonale e ortogonalee la matrice identica e ortogonale.

Proof. Siano A e B ortogonali. Allora, (AB)(AB)T = ABBTAT = AAT = In.

Le matrici ortogonali con determinante uguale ad 1 costituiscono un sottogruppodel gruppo O(n).

92 CHAPTER 7. SPAZI VETTORIALI

Chapter 8

Trasformazioni lineari e matrici

8.1 Trasformazioni lineari

Definition 8.1.1. Siano V e W spazi vettoriali sullo stesso campo. Una funzionef : V → W e una trasformazione lineare se verifica le seguenti proprieta, per ognix,y ∈ V e per ogni scalare r:

• f(x + y) = f(x) + f(y);

• f(rx) = rf(x).

Si noti che ponendo r = 0 si ricava f(0) = 0.

Una trasformazione lineare f e un isomorfismo lineare se f e bigettiva. Due spazivettoriali sono isomorfi se esiste un isomorfismo tra di loro. La funzione inversaf−1 : W → V di un isomorfismo lineare f : V → W e anch’essa un isomorfismolineare.

La funzione identica If : V → V , definita da If (v) = v, per ogni vettore v ∈ Ve una trasformazione lineare. La composizione g ◦ f : V → U di due trasformazionilineari f : V → W e g : W → U , definita da (g ◦ f)(v) = g(f(v)) per ogni vettorev ∈ V , e anch’essa una trasformazione lineare.

Una trasformazione lineare f : V → W manda iperpiani di V di dimensione k iniperpiani di W la cui dimensione dipende da f . Per esempio l’equazione parametricadell’iperpiano a1a2

...

+ t1

b11

b12...

+ · · ·+ tk

bk1

bk2...

93

94 CHAPTER 8. TRASFORMAZIONI LINEARI E MATRICI

viene trasformata nell’equazione parametrica del seguente iperpiano di W :

f(

a1a2...

) + t1f(

b11

b12...

) + · · ·+ tkf(

bk1

bk2...

).

Example 65. Una trasformazione lineare iniettiva del piano R2 (rispettivamentedello spazio R3) trasforma rette in rette (e piani in piani). Per esempio, la trasfor-

mazione lineare f , definita da f

[xy

]=

[2x+ 3y

2x

], trasforma la retta 2x + y = 5 (di

equazione parametrica y =

[21

]+ t

[1−2

]nella retta di equazione parametrica

f(

[21

]+ t

[1−2

]) = f(

[21

]) + tf(

[1−2

]) =

[74

]+ t

[−42

].

Example 66. La funzione f : R2 → R2, definita da

f(

[xy

]) =

[−yx

],

determina una rotazione di un angolo π2

in senso antiorario attorno agli assi Cartesianidel piano:

f(

[10

]) =

[01

]f(

[01

]) =

[−10

].

La funzione f e un isomorfismo lineare:

f(r

[xy

]+s

[zw

]) = f(

[rx+ szry + sw

]) =

[−(ry + sw)rx+ sz

]=

[−ryrx

]+

[−swsz

]= rf(

[xy

])+sf(

[zw

]).

L’isomorfismo lineare inverso di f e una rotazione oraria di angolo π/2, definito comesegue:

f−1(

[xy

]) =

[y−x

].

Si ha

f(f−1(

[xy

])) = f(

[y−x

]) =

[xy

]; f−1(f(

[xy

])) = f−1(

[−yx

]) =

[xy

].

8.1. TRASFORMAZIONI LINEARI 95

Example 67. Consideriamo il vettore x = [3, 2,−2]. La funzione f : R3 → Rdefinita da

f(y) = x · y = 3y1 + 2y2 − 2y3, per ogni y ∈ R3

e una trasformazione lineare:

1.

f(y + z) = 3(y1 + z1) + 2(y2 + z2)− 2(y3 + z3)= 3y1 + 3z1 + 2y2 + 2z2 − 2y3 − 2z3= (3y1 + 2y2 − 2y3) + (3z1 + 2z2 − 2z3)= f(y) + f(z).

2.f(ry) = 3(ry1) + 2(ry2)− 2(ry3)

= r(3y1 + 2y2 − 2y3)= rf(y).

In generale, se fissiamo un vettore x = [x1, x2, x3] ∈ R3, allora la funzione f : R3 → R,definita tramite il prodotto interno:

f(y) = x · y = x1y1 + x2y2 + x3y3, per ogni y = [y1, y2, y3]T ∈ R3, (8.1)

e una trasformazione lineare. Richiamiamo dalla Sezione 2.3 le proprieta del prodottointerno che dimostrano la linearita della funzione descritta in (8.1): x · (y + z) =(x · y) + (x · z) e x · (ry) = r(x · y).

Example 68. Sia Pol lo spazio vettoriale dei polinomi reali in una variabile x. Lafunzione f : Pol→ Pol definita da:

f(anxn + an−1x

n−1 + · · ·+ a1x+ a0) = a1x+ a0,

e una trasformazione lineare. Siano p = a0+a1x+· · ·+anxn e q = b0+b1x+· · ·+bkxkpolinomi di grado n e k rispettivamente. Allora f(p+ q) = f(a0 + b0 + (a1 + b1)x+(a2 + b2)x

2 + . . . ) = (a1 + b1)x+ (a0 + b0) = (a1x+ a0) + (b1x+ b0) = f(p) + f(q).

Example 69. La funzione g : Pol→ R definita da

g(anxn + an−1x

n−1 + · · ·+ a1x+ a0) = an

non e una trasformazione lineare. Infatti, g(2x2+3x+1) = 2, mentre g(2x2)+g(3x+1) = 2 + 3 = 5.

Il nucleo di una trasformazione lineare f : V → W e un sottospazio di V , mentrel’immagine di f e un sottospazio di W . Si ha la seguente relazione:

96 CHAPTER 8. TRASFORMAZIONI LINEARI E MATRICI

8.2 La matrice di una trasformazione lineare

Lemma 8.2.1. Siano V,W spazi vettoriali. Siano v1, . . . ,vn una base di V ew1, . . . ,wm una base di W . Ogni trasformazione lineare f : V → W e univoca-mente determinata dai valori

f(v1) = a11w1 + · · ·+ am1wm, . . . , f(vn) = a1nw1 + · · ·+ amnwm.

assunti dai vettori della base di V . Se v = c1v1 + · · ·+ cnvn ∈ V allora

f(v) = f(c1v1 + · · ·+ cnvn)= c1f(v1) + · · ·+ cnf(vn)= c1(a11w1 + · · ·+ am1wm) + · · ·+ cn(a1nw1 + · · ·+ amnwm)= (c1a11 + c2a12 + · · ·+ cna1n)w1 + · · ·+ (c1am1 + c2am2 + · · ·+ cnamn)wm.

Consideriamo la matrice

A =

a11 · · · a1na21 · · · a2n...

......

am1 · · · amn

di dimensione m × n la cui colonna Aj =

a1ja2j. . .amj

e il vettore delle coordinate di

f(vj). Allora si ha:

f(v) =

a11 · · · a1na21 · · · a2n...

......

am1 · · · amn

c1c2...cn

= c1A1 + · · ·+ cnA

n =

c1a11 + c2a12 + · · ·+ cna1nc1a21 + c2a22 + · · ·+ cna2n

...c1am1 + c2am2 + · · ·+ cnamn

=

A1 · cA2 · c. . .

Am · c

dove c =

c1c2...cn

e il vettore delle coordinate di v.

8.2. LA MATRICE DI UNA TRASFORMAZIONE LINEARE 97

Example 70. Sia f : R2 → R3 la trasformazione lineare definita da

f(e1) = 4w1 + w2 + w3; f(e2) = w1 + 3w2,

con e1, e2 base canonica di R2 e w1,w2,w3 base canonica di R3. Allora la matricedella trasformazione lineare e: 4 1

1 31 0

Se v = 5e1 + 3e2 e un vettore di R2, allora4 1

1 31 0

[53

]=

23145

Quindi f(v) = 23w1 + 14w2 + 5w3.

Example 71. Sia V uno spazio di dimensione 2 con base v1,v2 e W uno spazio didimensione 3 con base w1,w2,w3. Dal Lemma 8.2.1 la funzione f : V → W definitada

f(v1) = 3w1 + 5w2 − 2w3; f(v2) = w1 + w3

e estendibile ad una trasformazione lineare.

Sia f : V → W una trasformazione lineare. L’immagine o rango di f e definitacome

R(f) = {w ∈ W : ∃v ∈ V f(v) = w},

mentre il nucleo di f e

N(f) = {v ∈ V : f(v) = 0}.

Si vede facilmente che R(f) e un sottospazio vettoriale di W , mentre N(f) e unsottospazio vettoriale di V .

Sia A la matrice di f di dimensione m × n rispetto alle basi v1, . . . ,vn di V ew1, . . . ,wm di W . Definiamo due altri sottospazi vettoriali.

Definition 8.2.1. Lo spazio delle colonne Span(A1, . . . , An) di A e il sottospaziovettoriale di W generato dalle colonne A1, . . . , An della matrice A. Lo spazio dellerighe Span(A1, . . . , Am) di A e il sottospazio vettoriale di V generato dalle righeA1, . . . , Am della matrice A.

98 CHAPTER 8. TRASFORMAZIONI LINEARI E MATRICI

Theorem 8.2.2. (i) Lo spazio Span(A1, . . . , An) delle colonne coincide conR(f).

(ii) Lo spazio Span(A1, . . . , Am) delle righe coincide con lo spazio ortogonale diN(f).

(iii) La funzione f ristretta al sottospazio Span(A1, . . . , Am) delle righe e un iso-morfismo lineare dallo spazio delle righe nello spazio delle colonne.

(iv) dimR(f) = dim Span(A1, . . . , Am) = dim Span(A1, . . . , An).

(v) n = dimN(f) + dimR(f).

Proof. (i) A

c1...cn

= [A1, . . . , An]

c1...cn

= c1A1 + · · ·+ cnA

n.

(ii) Sia c =

c1...cn

. Allora A

c1...cn

=

A1 · c...

Am · c

=

0...0

sse c e ortogonale ai vettori

A1, . . . , Am di V .

(iii) Se v,u ∈ Span(A1, . . . , Am) e f(v) = f(u), allora f(v − u) = 0. Quindiv−u ∈ N(f)∩Span(A1, . . . , Am). Essendo i due spazi ortogonali, questo e possibilesoltanto se v − u = 0, che implica v = u. La funzione f e quindi iniettiva ristrettaallo spazio delle righe.

Proviamo ora che f ristretta e anche surgettiva. Sia w ∈ R(f). Allora esistev tale che f(v) = w. Siccome V = Span(A1, . . . , Am) ⊕ N(f), allora v = v1 + v2

con v1 ∈ Span(A1, . . . , Am) e v2 ∈ N(f). Si ha: w = f(v) = f(v1 + v2) =f(v1) + f(v2) = f(v1) + 0 = f(v1).

(iv) Da (iii) e (ii).

(v) DaN(f) = Span(A1, . . . , Am)⊥ si ricava n = dimN(f)+dim Span(A1, . . . , Am).La conclusione segue da (iii).

Da teorema precedente segue che lo spazio delle righe e lo spazio delle colonne diuna trasformazione lineare f : V → W sono indipendenti dalla scelta delle basi di Ve W e quindi dalla matrice A che rappresenta f .

Example 72. Si consideri la trasformazione lineare f : R3 → R dell’Esempio 67definita da f(x) = 3x1 + 2x2 − 2x3. La dimensione del nucleo di f e 2 perche il

8.3. LA TRASFORMAZIONE LINEARE DI UNA MATRICE 99

nucleo e il piano ortogonale al vettore [3, 2,−2] di equazione 3x1 + 2x2 − 2x3 = 0,per cui dal Teorema 8.2.2 la dimensione dell’immagine deve essere 1.

Example 73. Consideriamo lo spazio vettoriale infinito dimensionale Pol dei poli-nomi reali e fissiamo un numero reale, per esempio 3. Allora la funzione f : Pol→ R,definita come segue (per ogni polinomio p(x) = a0x

n + a1xn−1 + · · ·+ an−1x+ an):

f(a0xn + a1x

n−1 + · · ·+ an−1x+ an) = a03n + a13

n−1 + · · ·+ an−131 + an,

e una trasformazione lineare. Per esempio, se p(x) = x2 + 5x− 1 allora

f(x2 + 5x− 1) = 32 + 5× 3− 1 = 23.

Il nucleo di f e il sottospazio vettoriale determinato dall’insieme dei polinomi p(x)che ammettono 3 come radice: p(3) = 0. L’immagine di f e tutto R.

8.3 La trasformazione lineare di una matrice

Sia V uno spazio di base v1, . . . ,vn e W uno spazio di base w1, . . . ,wm sullo stessocampo numerico e sia A = (aij) una matrice di tipo m× n ad elementi scalari.

La matrice A determina

1. Il sottospazio Span(A1, . . . , Am) di V generato dalle righe di A.

2. Il sottospazio Span(A1, . . . , An) di W generato dalle colonne di A.

3. Una trasformazione lineare fA : V → W definita come segue. Per ogni vettorev = c1v1 + · · ·+ cnvn ∈ V , definiamo le coordinate di fA(v) rispetto alla basew1, . . . ,wm con il prodotto matriciale:

fA(v) = A

c1c2...cn

=

A1 · cA2 · c...

Am · c

= c1A1 + · · ·+ cnA

n =

∑n

i=1 cia1i∑ni=1 cia2i...∑n

i=1 ciami

Cosı si ha fA(v) = (

∑ni=1 cia1i)w1 + · · ·+ (

∑ni=1 ciami)wm. fA e lineare per le

proprieta del prodotto matriciale: A(x + y) = Ax + Ay; A(cx) = c(Ax). DalTeorema 8.2.2 si ha:

n = dim N(fA) + dim R(fA) = dim N(fA) + dim Span(A1, . . . , An)

= dim N(fA) + dim Span(A1, . . . , Am).

100 CHAPTER 8. TRASFORMAZIONI LINEARI E MATRICI

4. Una trasformazione lineare Af : W → V definita come segue. Per ogni vettorew = d1w1 + · · · + dmwm ∈ W , consideriamo le sue coordinate come vettoreriga d = [d1, d2, . . . , dm]. Definiamo le coordinate di Af(w) rispetto alla basev1, . . . ,vn con il prodotto matriciale:

dA = [d1, d2, . . . , dm]A = [dA1,dA2, . . . ,dAn] = d1A1 + · · ·+ dmAm =

[m∑i=1

diai1,

m∑i=1

diai2, . . . ,

m∑i=1

ciain]

Si vede facilmente che Af e lineare per le proprieta del prodotto matriciale.Valgono proprieta analoghe al punto (3):

m = numero delle righe= dim N(Af) + dim(spazio delle colonne)= dim N(Af) + dim(spazio delle righe).

Example 74. Consideriamo la matrice 3× 4:

A =

3 4 2 14 −6 0 01 2 −2 2

La matrice A determina:

(i) Una trasformazione lineare fA : R4 → R3 rispetto alle basi canoniche di R4 e R3,

che e definita tramite il prodotto matriciale a destra. Per esempio, fA

1035

si

calcola con il prodotto matriciale:

3 4 2 14 −6 0 01 2 −2 2

1035

=

14−12

5

Attenzione: Se consideriamo una base diversa di R4, la matrice A definisceun’altra trasformazione lineare!

8.3. LA TRASFORMAZIONE LINEARE DI UNA MATRICE 101

(ii) Una trasformazione lineare Af : R3 → R4 rispetto alle basi canoniche di R4 e R3,che e definita tramite il prodotto matriciale a sinistra. Per esempio, Af [0, 1, 2]si calcola con il prodotto matriciale:

[0, 1, 2]

3 4 2 14 −6 0 01 2 −2 2

= [6,−2,−4, 4]

(iii) Il sottospazio di R3 generato dai vettori colonna A1 =

341

, A2 =

4−6

2

,

A3 =

20−2

e A4 =

102

Il sottospazio Span(A1, A2, A3, A4) di R3 coincide

con il sottospazio R(fA).

(iv) Il sottospazio di R4 generato dai vettori riga A1 = [3, 4, 2, 1], A2 = [4,−6, 0, 0]e A3 = [1, 2,−2, 2] di A. Il sottospazio Span(A1, A2, A3) di R4 e il sottospazioortogonale allo spazio N(fA).

8.3.1 Rango di una matrice

Sia A una matrice di tipo m× n a coefficienti in un campo K.

Definition 8.3.1. Il rango r(A) della matrice A e la dimensione comune dello spazioSpan(A1, . . . , Am) delle righe e dello spazio Span(A1, . . . , An) delle colonne.

E chiaro che r(A) ≤ min(n,m). Se estraiamo da A r(A) colonne linearmente in-dipendenti c1, . . . , cr(A) e r(A) righe linearmente indipendenti d1, . . . , dr(A) otteniamouna matrice quadrata E = (eij) di ordine r(A) con eij = Acidj , che determina unisomorfismo lineare dallo spazio delle righe allo spazio delle colonne.

Se consideriamo il sistema lineare omogeneo Ax = 0, allora la dimensione dellospazio delle soluzioni e n− r(A), dove r(A) e il rango di A.

Se il sistema lineare Ax = b ammette almeno una soluzione v0, allora l’insiemedelle soluzioni e {v0 + x : Ax = 0}.

102 CHAPTER 8. TRASFORMAZIONI LINEARI E MATRICI

8.4 Isomorfismi

Lemma 8.4.1. Sia f : V → W una trasformazione lineare.

1. f e iniettiva sse N(f) = {0}.

2. Se f e iniettiva, allora

• dim V = dim R(f).

• Se v1, . . . ,vn sono linearmente indipendenti, allora f(v1), . . . , f(vn)sono linearmente indipendenti.

Proof. (1) Abbiamo f(x) = f(y) sse f(x− y) = 0.

Proposition 8.4.2. Due spazi vettoriali sullo stesso campo sono isomorfi ssehanno la stessa dimensione.

Proof. Supponiamo che V e W abbiano la stessa dimensione. Siano v1, . . . ,vn unabase di V e w1, . . . ,wn una base di W . Se v ∈ V , allora possiamo rappresentarev in maniera unica tramite le sue coordinate: v = c1v1 + · · · + cnvn per opportuniscalari c1, . . . , cn. Allora definiamo

f(v) = c1w1 + · · ·+ cnwn.

Proviamo che f e un isomorfismo. Siano v = c1v1+ · · ·+cnvn e t = d1v1+ · · ·+dnvndue vettori di V .

• f e iniettiva: Se f(v) = f(t), allora c1w1 + · · · + cnwn = d1w1 + · · · + dnwn.Per la indipendenza lineare dei wi si ha ci = di per ogni i e quindi v = t.

• f e surgettiva: Se w = s1w1 + · · ·+snwn ∈ W allora f(s1v1 + · · ·+snvn) = w.

Proposition 8.4.3. Sia V uno spazio di dimensione n e W uno spazio di di-mensione m. Allora lo spazio vettoriale delle trasformazioni lineari da V a W eisomorfo allo spazio vettoriale delle matrici m× n.

8.5. CAMBIAMENTO DI BASE 103

Proof. Fissiamo una base v1, . . . ,vn di V ed una base w1, . . . ,wm di W . Alla trasfor-mazione lineare

f : V → W

associamo la matrice Af = [A1, . . . , An] con m righe ed n colonne (Ai e la colonna idella matrice Af ) tale che

f(vi) = Ai

w1

. . .wm

Viceversa, ad una matrice A con m righe ed n colonne associamo la trasformazionelineare fA : V → W definita da

fA(vi) =m∑k=1

akiwk.

Proposition 8.4.4. Sia V un arbitrario spazio vettoriale di dimensione n di basev1, . . . ,vn, ed A una matrice quadrata di ordine n. La matrice A e invertibile sse latrasformazione lineare fA : V → V , definita da fA(vi) =

∑nk=1 akivk, e un isomor-

fismo. In tal caso, la matrice inversa A−1 di A e la matrice della trasformazionelineare f−1.

Proof. (⇐) Sia fA un isomorfismo e If : V → V la funzione identica. Allora f−1Ae una trasformazione lineare tale che fA ◦ f−1A = If = f−1A ◦ fA. Sia B la matricedella trasformazione lineare f−1A . Allora si ha AB = I = BA con In matrice identica.Quindi A e invertibile e B = A−1.

(⇒) Sia A e invertibile. Il lettore e invitato a completare la prova.

8.5 Cambiamento di base

Sia V uno spazio vettoriale di dimensione n, sia v1, . . . ,vn una prima base e t1, . . . , tnuna seconda base. Consideriamo la trasformazione lineare identica I : V → V .Rappresentiamo la trasformazione lineare identica con la matrice quadrata A diordine n del cambio di base:

vi = a1it1 + · · ·+ anitn

104 CHAPTER 8. TRASFORMAZIONI LINEARI E MATRICI

Se le coordinate del vettore v = c1v1 + · · · + cnvn sono il vettore colonna c =c1c2...cn

rispetto alla prima base, allora le coordinate di v saranno Ac =

∑n

i=1 a1ici∑ni=1 a2ici...∑n

i=1 anici

rispetto alla seconda base, ossia

v = (n∑i=1

a1ici)t1 + · · ·+ (n∑i=1

anici)tn.

La matrice A del cambio di base e invertibile, perche il cambio di base inverso erappresentato dalla matrice inversa.

Example 75. Consideriamo la base canonica e1 = [1, 0] e e2 = [0, 1] di R2 e unaseconda base t1 = [1, 1], t2 = [3, 2]. Allora

e1 = −2t1 + t2; e2 = 3t1 − t2

Quindi la matrice A del cambio di base sara

A =

[−2 3

1 −1

]

Allora il vettore di coordinate

[44

]rispetto alla base canonica avra coordinate

[40

]rispetto alla seconda base non canonica:[

−2 31 −1

] [44

]=

[40

]= 4t1.

Il vettore e lo stesso, cambiano solo le coordinate.Il cambio di base inverso si ottiene esprimendo i vettori t1 e t2 in termini della

base canonica:t1 = e1 + e2; t2 = 3e1 + 2e2

Quindi la matrice B del cambio di base inverso sara

B =

[1 31 2

]Si vede facilmente che B e la matrice inversa di A: AB = BA = I2.

8.6. SPAZIO DUALE 105

Definition 8.5.1. Due matrici quadrate A e B di ordine n sullo stesso campo, sidicono simili sse esiste una matrice invertibile P di ordine n tale che

B = PAP−1.

La relazione di similarita tra matrici quadrate e una relazione di equivalenza.

Proposition 8.5.1. Se una trasformazione lineare f : V → V e rappresentatadalla matrice A rispetto alla base v1, . . . ,vn e dalla matrice B rispetto alla basew1, . . . ,wn, allora A e B sono matrici simili.

8.6 Spazio duale

Proposition 8.6.1. Sia V uno spazio vettoriale sul campo K. Allora l’insiemedelle trasformazioni lineari da V in K e uno spazio vettoriale rispetto alle seguentioperazioni (f, g : V → K lineari, c ∈ K):

(f + g)(x) = f(x) + g(x); (cf)(x) = cf(x).

Lo spazio vettoriale delle trasformazioni lineari da V in K si chiama spazio dualedi V ed e denotato con V ∗.

Proposition 8.6.2. dim V = dim V ∗.

Proof. Sia v1, . . . , vn una base di V . Definiamo v∗i : V → K la trasformazione linearedefinita come segue

v∗i (c1v1 + · · ·+ civi + · · ·+ cnvn) = ci.

Allora v∗1, . . . , v∗n e una base di V ∗. Costituiscono un insieme linearmente indipen-

dente: Se d1v∗1 + · · ·+ dnv

∗n = 0, allora per ogni i, abbiamo di = 0:

0 = (d1v∗1 + · · ·+ dnv

∗n)(vi) = d1v

∗1(vi) + · · ·+ dnv

∗n(vi) = di.

Se f : V → K e lineare, allora

f = f(v1)v∗1 + · · ·+ f(vn)v∗n.

106 CHAPTER 8. TRASFORMAZIONI LINEARI E MATRICI

La base v∗1, . . . , v∗n si chiama base duale di v1, . . . , vn.

Proposition 8.6.3. La funzione vi ∈ V 7→ v∗i e un isomorfismo lineare da V inV ∗.

Example 76. (Matrici elementari) Le matrici elementari rappresentano o dei cam-biamenti di base oppure degli isomorfismi. Cominciamo con i cambiamenti di base.

Le matrici elementari di tipo I scambiano le componenti di una base. Per esempio,la matrice

E1,3 =

0 0 10 1 01 0 0

fa passare dalla base v1,v2,v3 alla base v3,v2,v1.

Le matrici elementari di tipo II moltiplicano per uno scalare un componente dellabase. Per esempio,

Ec1 =

c 0 00 1 00 0 1

fa passare dalla base v1,v2,v3 alla base cv1,v2,v3.

Infine le matrici elementari di tipo III, sostituiscono un componente della basecon una sua combinazione lineare. Per esempio,

E2+c1 =

1 0 0c 1 00 0 1

fa passare dalla base v1,v2,v3 alla base v1,v2 + cv1,v3.

In tutti i casi precedenti le matrici elementari rappresentano la trasformazionelineare identica.

Dalla Proposizione 8.4.4 segue che le matrici elementari in quanto invertibili rap-presentano degli isomorfismi. Fissata la base v1,v2,v3, la matrice E1,3 di tipo Irappresenta l’isomorfismo

fE1,3(v1) = v3; fE1,3(v2) = v2; fE1,3(v3) = v1.

La matrice elementare di tipo II Ec1 rappresenta l’isomorfismo

fEc1(v1) = cv1; fEc1(v2) = v2; fEc1(v3) = v3.

Infine la matrice elementare E2+c1 di tipo III rappresenta l’isomorfismo

fE2+c1(v1) = v1; fE2+c1(v2) = v2 + cv1; fE2+c1(v3) = v3.

8.7. SISTEMI LINEARI E TRASFORMAZIONI LINEARI 107

8.7 Sistemi lineari e trasformazioni lineari

Consideriamo un sistema lineare omogeneo di m equazioni in n incognite: Ax = 0con A matrice di tipo m×n. Fissiamo le basi canoniche in Rn e Rm. Allora la matriceA rappresenta una trasformazione lineare fA : Rn → Rm. Abbiamo una soluzionenon banale del sistema omogeneo sse N(fA) 6= {0}. Ricordiamo dal Teorema 8.2.2che

n = dim Rn = dim N(fA) + dim R(fA).

Se n > m, sicuramente il sistema ha soluzione (altrimenti, n = dim R(fA) ≤ m).Dato il vettore colonna non nullo b ∈ Rm, il sistema lineare Ax = b ammette

soluzione se b ∈ R(fA).Spieghiamo ora il metodo di eliminazione di Gauss in termini di composizione di

trasformazioni lineari. Sia A una matrice m×n e sia fA : Rn → Rm la trasformazionelineare associata alla matrice (rispetto alle basi canoniche). Se g : Rm → Rm e unarbitrario isomorfismo rappresentato dalla matrice quadrata B di ordine m, allora

Ax = 0 sse x ∈ N(fA) sse x ∈ N(g ◦ fA) sse BAx = 0.

Se il sistema lineare ha un vettore b di termini noti non tutti nulli, si ha:

Ax = b sse b ∈ R(fA) sse g(b) ∈ R(g ◦ fA) sse BAx = Bb.

L’isomorfismo g che utilizziamo nel metodo di eliminazione di Gauss e composizionedi isomorfismi determinati da matrici elementari.

108 CHAPTER 8. TRASFORMAZIONI LINEARI E MATRICI

Chapter 9

Determinante

Il determinante det(A) di una matrice quadrata A ha un significato geometrico.

9.1 Determinante di una matrice di ordine 2

Consideriamo due vettori colonna nel piano: p = [p1, p2]T e q = [q1, q2]

T . Sia

A =

[p1 q1p2 q2

]la matrice le cui colonne coincidono con i vettori p e q rispettivamente. Il determi-nante della matrice A e una funzione det : K2 × K2 → K dei vettori colonna di A,definita come segue:

det(A) = det(p,q) = p1q2 − p2q1.Come vedremo, il determinante determina se i vettori colonna oppure riga dellamatrice sono linearmente (in)dipendenti e se il sistema lineare Ax = b ammetteun’unica soluzione. Inoltre il determinante ha un’interpretazione geometrica comearea con segno del parallelogramma determinato dai vettori colonna (oppure riga).Nel seguito analizziamo questi tre significati del determinante nel caso n = 2.

1. Come si determina se i vettori p e q sono linearmente (in)dipendenti?

Ricordiamo che i vettori p e q sono linearmente dipendenti se esiste un vettorenon nullo x = [x1, x2]

T tale che Ax = x1p + x2q = 0. Consideriamo quindi ilsistema lineare La soluzione del sistema lineare

p1x1 + q1x2 = 0; p2x1 + q2x2 = 0.

Lemma 9.1.1. p e q sono linearmente dipendenti sse q1p2 − q2p1 = 0.

109

110 CHAPTER 9. DETERMINANTE

Proof. Analizziamo quattro casi

• Se q1 = 0 e q2 = 0, allora q1p2− q2p1 = 0 e la retta x1 = 0 e una soluzionedel sistema lineare.

• Se q1 6= 0 e q2 = 0, allora q1p2 = 0 sse p2 = 0 sse la retta x2 = −p1x1/q1 euna soluzione del sistema.

• Se q1 = 0 e q2 6= 0, allora q2p1 = 0 sse p1 = 0 sse la retta x2 = −p2x1/q2 euna soluzione del sistema.

• Se q1, q2 6= 0, allora il sistema lineare omogeneo ammette soluzione sse ledue rette x2 = −p2x1/q2 e x2 = −p1x1/q1 sono coincidenti sse q1p2−q2p1 =0.

Quindi il valore p1q2− q1p2 determina se i due vettori sono linearmente dipen-denti o meno.

2. Come si determina se il sistema lineare Ax = x1p+x2q = b ammette un’unicasoluzione? La soluzione del sistema lineare

p1x1 + q1x2 = b1; p2x1 + q2x2 = b2

e

x1 =q2b1 − q1b2p1q2 − q1p2

; x2 =−p2b1 + p1b2p1q2 − q1p2

La soluzione e unica e valida soltanto se p1q2−q1p2 6= 0, cosı il valore p1q2−q1p2determina se il sistema ha una soluzione unica. E questo il motivo per cui ilnumero p1q2 − q1p2 si chiama determinante della matrice A dei coefficienti delsistema lineare.

La soluzione del sistema lineare puo essere scritta in forma matriciale:[x1x2

]=

1

p1q2 − q1p2

[q2 −q1−p2 p1

] [b1b2

]con

A−1 =1

p1q2 − q1p2

[q2 −q1−p2 p1

]matrice inversa della matrice A.

9.1. DETERMINANTE DI UNA MATRICE DI ORDINE 2 111

3. Nel seguito presentiamo una interpretazione geometrica del determinante diuna matrice di ordine 2 come area (con segno) di un parallelogramma.

Il luogo dei punti rp + sq (0 ≤ r, s ≤ 1) costituisce il parallelogramma delimi-tato dall’origine O degli assi cartesiani e dai punti p,q,p + q. Sappiamo che ivettori p e q formano un angolo θ ≤ π, il cui coseno e calcolato con il prodottointerno: cos θ = p·q

‖p‖‖q‖ . L’area ‖p‖‖q‖ sin θ del parallelogramma O,p,q,p + qe il modulo del determinante della matrice A, mentre il segno del determinantedipende dall’orientazione dei vettori p e q rispetto ai vettori della base canon-ica del piano cartesiano. Calcoliamo ora l’area in termini delle coordinate deivettori p e q:

Figure 9.1: Area del parallelogramma determinato dai vettori ~A e ~B del piano

‖p‖‖q‖ | sin θ| = ‖p‖‖q‖√

1− cos(θ)2

= ‖p‖‖q‖√

1− (p·q)2(p·p)(q·q)

=√

(p · p)(q · q)− (p · q)2

=√

(p21 + p22)(q21 + q22)− (p1q1 + p2q2)2

=√p21q

22 + p22q

21 − 2p1p2q1q2

=√

(p1q2 − p2q1)2= |p1q2 − p2q1|.

Il segno del determinante e positivo se la rotazione che porta il vettore p in q

112 CHAPTER 9. DETERMINANTE

attraversando l’angolo θ e antioraria, mentre il segno e negativo se la rotazionee oraria. In conclusione,

det(A) = p1q2 − p2q1.

Il determinante e 0 se i vettori p e q sono allineati.

Se consideriamo il determinante come funzione dei vettori colonna p e q dellamatrice A, scriviamo

det(p,q) = p1q2 − p2q1.

Allora la funzione det verifica le seguenti proprieta:

• E lineare nella prima componente:

det(rp + st,q) = r det(p,q) + s det(t,q)

• E lineare nella seconda componente:

det(p, rq + st) = r det(p,q) + s det(p, t)

• det(p,q) = −det(q,p)

• det(e1, e2) = 1, dove e1 = [1, 0] e e2 = [0, 1]

• det(p,p) = 0.

Example 77. Sia p = [1, 1]T e q = [3, 4]T due vettori colonna. Se θ e l’angoloformato dai due vettori, abbiamo

cos θ =p · q‖p‖‖q‖

=7

5√

2=

√49

50.

L’area del parallelogramma delimitato dall’origine O degli assi cartesiani e dai puntip,q,p + q e

‖p‖‖q‖ sin θ = ‖p‖‖q‖√

1− cos(θ)2 = 5√

2

√1− 49

50= 1 = det(p,q).

9.2. DETERMINANTE DI UNA MATRICE DI ORDINE 3 113

9.2 Determinante di una matrice di ordine 3

Analizziamo ora la situazione nello spazio. Consideriamo tre vettori colonna p =[p1, p2, p3]

T ,q = [q1, q2, q3]T , r = [r1, r2, r3]

T e la matrice

B =

p1 q1 r1p2 q2 r2p3 q3 r3

Come nel caso di matrici di ordine 2, il sistema lineare Bx = b ha soluzione unica se

p1q2r3 − p1q3r2 − p2q1r3 + p2q3r1 + p3q1r2 − p3q2r1 6= 0.

Questo numero e il determinante della matrice A.

Diamo una descrizione geometrica del determinante di una matrice di ordine 3come volume di un parallelepipedo.

Il luogo dei punti up + sq + tr (0 ≤ u, s, t ≤ 1) costituisce il parallelepipedodelimitato dall’origine O degli assi e dai vettori p,q, r (si veda la figura a pagina113). Il volume del parallelepipedo e il modulo del determinante della matrice B,mentre il segno del determinante dipende dall’orientazione dei tre vettori rispettoalla orientazione dei tre assi cartesiani.

Figure 9.2: Volume del parallelepipedo delimitato dai vettori p, q, r nello spazio

114 CHAPTER 9. DETERMINANTE

Figure 9.3: Regola della mano destra

Calcoliamo il volume del parallelepipedo eseguendo il ragionamento con l’ausiliodella figura di pagina 113.

Consideriamo prima i due vettori p e q, e sia θ l’angolo da essi formato nel pianoup+sq (u, s ∈ R). Abbiamo gia visto che l’area del parallelogramma determinato dap e q e ‖p‖‖q‖ sin θ. Il volume del parallelepipedo e pari all’area di questo parallel-ogramma moltiplicata per l’altezza del parallelepipedo rispetto al piano determinatodai vettori p e q. L’altezza e ‖r‖ cosα, dove α e l’angolo formato dal vettore r edalla retta perpendicolare al piano up + sq (u, s ∈ R). In conclusione, il volume e‖p‖‖q‖ sin θ‖r‖ cosα.Sia k il vettore unitario perpendicolare al piano up + sq (u, s ∈ R). Il verso di k escelto in maniera tale che i tre vettori p,q,k abbiano la stessa orientazione dei trevettori unitari e1, e2, e3. Quindi il verso di k e determinato applicando la regola dellamano destra (si veda la figura di pagina 114). Il prodotto vettoriale p× q di p e q edefinito come il vettore

p× q = ‖p‖‖q‖ sin(θ)k

la cui lunghezza e pari all’area del parallelogramma formato dai due vettori. Allora il

9.2. DETERMINANTE DI UNA MATRICE DI ORDINE 3 115

volume orientato (cioe, con segno) del parallelepipedo si puo ottenere con il prodottointerno:

(p× q) · r.Il prodotto vettoriale verifica le seguenti condizioni:

1. p× p = 0; (il parallelogramma ha area 0)

2. p × q = −q × p; (lo scambio dei due vettori fa passare dalla base p,q,k allabase q,p,k e quindi cambia l’orientazione rispetto alla base canonica)

3. s(p× q) = (sp)× q = p× (sq); (allungare o accorciare un lato del parallelo-gramma di un fattore scalare s ha l’effetto di modificare la corrispondente areadello stesso fattore)

4. p× (q + r) = p×q + p× r; (La distributivita p× (q + r) = p×q + p× r valeperche si ha (si consulti la figura a pagina 115 dove α e l’angolo tra i vettori pe q + r; β e l’angolo tra i vettori p e q; ed infine γ e l’angolo tra i vettori p er): ‖q + r‖ sin(α) = ‖q‖ sin(β) + ‖r‖ sin(γ).)

5. Il prodotto vettoriale non e associativo ma soddisfa l’identita di Jacobi: p ×(q× r) + q× (r× p) + r× (p× q) = 0.

Figure 9.4: Distributivita del prodotto vettoriale

116 CHAPTER 9. DETERMINANTE

Definition 9.2.1. Il determinante della matrice A di tipo 3× 3 formata dai vettoricolonna A1 = p, A2 = q e A3 = r e uguale a (p× q) · r:

det

p1 q1 r1p2 q2 r2p3 q3 r3

= (p× q) · r

dove p = [p1, p2, p3]T , q = [q1, q2, q3]

T e r = [r1, r2, r3]T .

Calcoliamo le coordinate del vettore p × q utilizzando la proprieta distributivadel prodotto vettoriale rispetto alla somma vettoriale:

p× q = (p1e1 + p2e2 + p3e3)× (q1e1 + q2e2 + q3e3)= p1e1 × (q2e2 + q3e3) + p2e2 × (q1e1 + q3e3) + p3e3 × (q1e1 + q2e2)= (p1q2 − p2q1)(e1 × e2) + (p1q3 − p3q1)(e1 × e3) + (p2q3 − p3q2)(e2 × e3)= (p1q2 − p2q1)e3 + (p1q3 − p3q1)(−e2) + (p2q3 − p3q2)e1

= (p1q2 − p2q1)e3 − (p1q3 − p3q1)e2 + (p2q3 − p3q2)e1

La seguente tabella spiega il prodotto vettoriale dei vettori della base canonica diR3: ∣∣∣∣∣∣∣∣

× e1 e2 e3

e1 0 e3 −e2

e2 −e3 0 e1

e3 e2 −e1 0

∣∣∣∣∣∣∣∣Remark 1. Il piano parametrico rp + sq (r, s ∈ R) passante per l’origine degli assi edefinito dalla seguente equazione lineare:

(p2q3 − p3q2)x− (p1q3 − p3q1)y + (p1q2 − p2q1)z = 0.

Quindi il vettore di coordinate [p2q3− p3q2, p1q3− p3q1, p1q2− p2q1] e perpendicolareal piano generato dai vettori p e q.

Infine il determinante della matrice calcolato rispetto alla terza colonna e:

r ·(p×q) = r1(p2q3−p3q2)−r2(p1q3−p3q1)+r3(p1q2−p2q1) = p ·(q×r) = q ·(p×r)

Il determinante e lineare in p, q ed r. Inoltre se due dei tre vettori sono uguali ildeterminante e nullo.

9.3. DETERMINANTE DI UNA MATRICE DI ORDINE N 117

Example 78. Siano p = [1, 1, 0]T , q = [3, 4, 0]T e r = [0, 0, 2]T tre vettori colonna.Se θ e l’angolo formato dai due vettori p e q nel piano di equazione parametricarp + sq = [r + 3s, r + 4s, 0] (r, s ∈ R) ed equazione lineare z = 0, abbiamo

cos θ =p · q‖p‖‖q‖

=7

5√

2=

√49

50.

L’area del parallelogramma delimitato dall’origine O degli assi cartesiani e dai vettorip e q e

‖p‖‖q‖ sin θ = ‖p‖‖q‖√

1− cos(θ)2 = 5√

2

√1− 49

50= 1.

Il volume del parallelepipedo e pari all’area 1 di questo parallelogramma moltiplicataper l’altezza del parallelepipedo rispetto al piano z = 0 determinato dai vettori p eq.

L’angolo α formato dal vettore r = [0, 0, 2]T e dalla retta perpendicolare al pianoz = 0 e di ampiezza 0. Quindi ‖r‖ cosα = 2 cosα = 2 cos(0) = 2. In conclusione, ildeterminante della matrice di ordine 3, le cui colonne sono i vettori p, q e r, e ugualea 2.

9.3 Determinante di una matrice di ordine n

Sia A = (aij) una matrice quadrata di ordine n sul campo numerico K. Ad Apossiamo associare uno scalare, il suo determinante det(A) ∈ K, che e l’ipervolumecon segno della figura geometrica delimitata dai vettori colonna A1, . . . , An nellospazio Kn di dimensione n. Per comodita a volte denotiamo il determinante tramitele colonne (oppure le righe) della matrice A: det(A1, . . . , An). Il determinante eunivocamente determinato dalle seguenti 5 proprieta:

(D1) Il determinante come funzione di una colonna e lineare:

det(A1, . . . , B +C, . . . , An) = det(A1, . . . , B, . . . , An) + det(A1, . . . , C, . . . , An);

det(A1, . . . , cAj, . . . , An) = c · det(A1, . . . , Aj, . . . , An).

(D2) Se due colonne sono uguali, cioe Ai = Aj (i 6= j), allora det(A) = 0.

(D3) det(In) = 1, dove In e la matrice identica.

(D4) Se due colonne sono scambiate, il determinante cambia di segno:

det(A1, . . . , Ai, . . . , Aj, . . . , An) = −det(A1, . . . , Aj, . . . , Ai, . . . , An).

118 CHAPTER 9. DETERMINANTE

(D5) Se si somma ad una colonna un multiplo scalare di un’altra colonna il valoredel determinante non cambia (i 6= j):

det(A1, . . . , Ai−1, Ai + cAj, Ai+1, . . . , An) = det(A1, . . . , Ai−1, Ai, Ai+1, . . . , An).

Per semplicita utilizzeremo talvolta la notazione |A| al posto di det(A).

Example 79. Il determinante di una matrice diagonale e il prodotto degli elementidella diagonale. Nel caso di dimensione 2 rappresenta l’area di un rettangolo consegno: ∣∣∣∣ a 0

0 b

∣∣∣∣ =(D1) a

∣∣∣∣ 1 00 b

∣∣∣∣ =(D1) ab

∣∣∣∣ 1 00 1

∣∣∣∣ =(D3) ab.

Example 80. Sia E1 = [1, 0]T e E2 = [0, 1]T .∣∣∣∣ a bc d

∣∣∣∣ = det(

[ac

],

[bd

])

= det(aE1 + cE2, bE1 + dE2)= det(aE1, bE1 + dE2) + det(cE2, bE1 + dE2)= det(aE1, bE1) + det(aE1, dE2) + det(cE2, bE1) + det(cE2, dE2)= ab det(E1, E1) + ad det(E1, E2) + cb det(E2, E1) + cd det(E2, E2)= 0 + ad det(E1, E2) + cb det(E2, E1) + 0= ad det(I2)− cb det(I2)= ad− cb

Sia Ei = [0, . . . , 1, . . . , 0]T il vettore colonna con 1 in posizione i. Sia Sn l’insiemedelle permutazioni di un insieme di n elementi. Allora, in generale abbiamo

det(A1, A2, . . . , An) = det(∑n

i1=1 ai11Ei1 ,∑n

i2=1 ai22Ei2 , . . . ,

∑nin=1 ainnE

in)=

∑ni1=1 · · ·

∑nin=1 ai11 . . . ainndet(Ei1 , Ei2 , . . . , Ein)

=∑

τ∈Sn aτ11 . . . aτnndet(Eτ1 , Eτ2 , . . . , Eτn)

Dalla condizione (D4) si ha det(Eτ1 , Eτ2 , . . . , Eτn) = ±1. Il risultato dipende daquanti scambi di colonne dobbiamo effettuare per ottenere la matrice identica.

Example 81. Calcoliamo il determinante di

A =

[a bc d

]applicando le regole (D1)-(D5).

9.3. DETERMINANTE DI UNA MATRICE DI ORDINE N 119

det(A) =

∣∣∣∣ a bc d

∣∣∣∣ =

∣∣∣∣ a+ 0 b0 + c d

∣∣∣∣ =(D1)

∣∣∣∣ a b0 d

∣∣∣∣+

∣∣∣∣ 0 bc d

∣∣∣∣Inoltre,∣∣∣∣ a b

0 d

∣∣∣∣ =

∣∣∣∣ a 0 + b0 d+ 0

∣∣∣∣ =(D1)

∣∣∣∣ a 00 d

∣∣∣∣+

∣∣∣∣ a b0 0

∣∣∣∣ =Ex.79 ad+

∣∣∣∣ a b0 0

∣∣∣∣ =

= ad+

∣∣∣∣ a baa

0 ba0

∣∣∣∣ =(D1) ad+b

a

∣∣∣∣ a a0 0

∣∣∣∣ =(D2) ad+b

a0 = ad.

In maniera simile,∣∣∣∣ 0 bc d

∣∣∣∣ =

∣∣∣∣ 0 0c d

∣∣∣∣+

∣∣∣∣ 0 bc 0

∣∣∣∣ = 0−∣∣∣∣ b 0

0 c

∣∣∣∣ = −bc

applicando (D4).

Proposition 9.3.1. 1. det(AT ) = det(A);

2. det(AB) = det(A) det(B);

3. det(A−1) = det(A)−1.

Proposition 9.3.2. I vettori colonna A1, . . . , An sono linearmente dipendenti ssedet(A1, . . . , An) = 0.

Proof. Se i vettori colonna sono linearmente dipendenti, allora possiamo scrivere unopportuno vettore colonna, per esempio il primo, come combinazione lineare degli al-tri. Se fosse il primo avremmo: det(A1, . . . , An) = det(c2A

2+· · ·+cnAn, A2, . . . , An) =0 per (D1)-(D5).

Supponiamo ora che det(A1, . . . , An) = 0 e ipotizziamo per assurdo che i vet-tori colonna siano linearmente indipendenti. Allora A1, . . . , An generano lo spaziovettoriale Kn. Sia B una matrice qualsiasi il cui determinante e 6= 0. Allora ognivettore colonna Bi di B e combinazione lineare Bi = ci1A

1 + · · ·+cinAn. Ne segue che

0 6= det(B) = det(B1, . . . , Bn) = det(c11A1 + · · · + c1nA

n, . . . , cn1A1 + · · · + cnnA

n) = 0per le regole (D1)-(D5). Assurdo.

Proposition 9.3.3. Una matrice quadrata A a coefficienti nel campo K e invert-ibile se e solo se il suo determinante e diverso da zero.

120 CHAPTER 9. DETERMINANTE

Proof. (⇐) Dalla Proposizione 9.3.2 le colonne A1, . . . , An sono linearmente indipen-denti. Quindi ogni vettore dello spazio vettoriale Kn si scrive come combinazionelineare di A1, . . . , An, cioe le colonne di A costituiscono una base di Kn. Consideri-amo il cambiamento di base dalla base canonica e1, . . . , en di Kn alla base A1, . . . , An:

e1 = b11A1 + · · ·+ bn1A

n, . . . . . . , en = b1nA1 + · · ·+ bnnA

n.

La matrice B del cambiamento di base, tale che Bi = [b1i, . . . , bni]T , e invertibile. La

matrice inversa e la matrice A del cambiamento di base dalla base A1, . . . , An allabase e1, . . . , en. In conclusione, In = BA.

(⇒) Se A e invertibile, allora il sistema lineare Ax = x1A1 + . . . xnA

n = bha un’unica soluzione x = A−1b. Siccome il vettore b e arbitrario allora i vettoriA1, . . . , An costituiscono una base di V . Quindi sono linearmente indipendenti e dallaProposizione 9.3.2 il determinante di A e diverso da zero.

9.4 Calcolo del determinante

Regola di Cramer

Con la regola di Cramer possiamo risolvere il sistema lineare Ax = b utilizzando ildeterminante.Theorem 9.4.1. (Regola di Cramer) Sia A una matrice quadrata di ordine n condeterminante diverso da 0. Se b = [b1, . . . , bn]T e c = [c1, . . . , cn]T sono vettoricolonna tali che

Ac = c1A1 + · · ·+ cnA

n = b,

allora per ogni i abbiamo

ci =det(A1, . . . , Ai−1,b, Ai+1, . . . , An)

det(A1, . . . , An).

Proof. Si sostituisca in det(A1, . . . , Ai−1,b, Ai+1, . . . , An) il vettore b con la combi-nazione lineare c1A

1 + · · ·+ cnAn e si applichino le regole di calcolo (D1)-(D5).

Calcolo del determinante per riga e per colonna

Sia A = (aij) una matrice quadrata di ordine n. Fissati i e j indichiamo con Aij lamatrice quadrata (n− 1)× (n− 1) ottenuta da A cancellando la riga i e la colonnaj.

9.4. CALCOLO DEL DETERMINANTE 121

Calcolo del determinante di una matrice quadrata A rispetto alla riga i:

detA = (−1)i+1ai1detAi1 + · · ·+ (−1)i+naindetAin =n∑k=1

(−1)i+kdetAik

Calcolo del determinante di una matrice quadrata A rispetto alla colonna j:

detA = (−1)j+1a1jdetA1j + · · ·+ (−1)j+nanjdetAnj =n∑k=1

(−1)j+kdetAkj

Example 82. Il determinante di una matrice di tipo 3 × 3 sviluppato rispetto allaprima riga:

det

a b cd e fg h i

= a(ei−fh)−b(di−fg)+c(dh−eg) = aei+bfg+cdh−afh−bdi−ceg

Proposition 9.4.2. Il determinante di una matrice triangolare superiore o inferi-ore e dato dal prodotto degli elementi della diagonale.

Calcolo del determinante applicando la regola (D5)

Possiamo semplificare il calcolo del determinante di una matrice A applicando ad Ala regola (D5) che non modifica il determinante: sommare ad una data colonna ilmultiplo scalare di un’altra colonna.

Example 83. Sia A =

1 2 34 5 67 8 9

una matrice. Sostituiamo la seconda colonna

A2 con A2 − 2A1 e la terza colonna A3 con A3 − 3A1: 1 2 34 5 67 8 9

⇒ 1 0 0

4 −3 −67 −6 −12

= B

Sostituiamo poi la terza colonna B3 =

0−6−12

di B con B3 − 2B2:

1 0 04 −3 −67 −6 −12

⇒ 1 0 0

4 −3 07 −6 0

122 CHAPTER 9. DETERMINANTE

La matrice finale e triangolare inferiore. Il suo determinante e dato dal prodotto deglielementi della diagonale ed e quindi nullo. In conclusione, la matrice A di partenzaha determinante nullo.

Determinante di una trasformazione lineare

Sia f : V → V una trasformazione lineare. Sia v1, . . . ,vn una base di V e sia A lamatrice quadrata di ordine n che rappresenta f rispetto alla base v1, . . . ,vn.

Sia w1, . . . ,wn un’altra base di V e sia B la matrice che rappresenta f rispettoa questa nuova base. Dalla Sezione 8.5 sappiamo che esiste una matrice invertibileC che corrisponde al cambiamento di base. Cosı si ha:

B = C−1AC

e quindi

det(B) = det(C−1) det(A) det(C) = det(A).

Theorem 9.4.3. Il determinante di una trasformazione lineare f e indipendentedalla scelta della base (e quindi della matrice che rappresenta f).

Data una trasformazione lineare f , possiamo scrivere quindi det(f), intendendocon questo il determinante di una qualsiasi matrice che rappresenta f .

Corollary 9.4.4. Si ha per trasformazioni lineari componibili g, f e per un isomor-fismo lineare h:

det(g ◦ f) = det(g)det(f)

1 = det(h−1 ◦ h) = det(h−1)det(h) = det(h)−1det(h).

9.4.1 Calcolo matrice inversa con il determinante

Metodo di CramerEj e il vettore colonna con 1 nel posto j e 0 in tutti gli altri posti.

9.4. CALCOLO DEL DETERMINANTE 123

Proposition 9.4.5. Sia A = (aij) una matrice quadrata con determinante nonnullo. Se B = (bij) e la matrice inversa di A, allora applicando la regola di Crameral sistema lineare:

b1jA1 + · · ·+ bnjA

n = A

b1jb2j. . .bnj

= Ej

abbiamo

bij =det(A1, . . . , Ai−1, Ej, Ai+1, . . . , An)

det(A).

Metodo dei complementi algebrici di LaplaceLa matrice aggiunta di una matrice quadrata A di ordine n e un’altra matricequadrata di ordine n il cui elemento nella posizione generica ji e il complementoalgebrico di A relativo alla posizione ij:

adjji(A) = (−1)i+jdet(Aij)

dove Aij e il minore di A ottenuto cancellando la riga i e la colonna j.

adjA =

adj11(A) . . . adj1n(A)...

. . ....

adjn1(A) . . . adjnn(A)

Allora si ha:

A(adjA) = (adjA)A = det(A)In

La matrice inversa di A e:

A−1 =1

det(A)adjA

124 CHAPTER 9. DETERMINANTE

Chapter 10

Autovettori e Autovalori

10.1 Definizione di autovalore e autovettore

Sia V uno spazio vettoriale di dimensione n sul campo K. Una trasformazione linearedi V in se stesso si chiama operatore lineare.

Definition 10.1.1. Sia f : V → V un operatore lineare. Un autovettore e un vettorenon nullo v ∈ V per cui esiste uno scalare λ, detto autovalore, tale che f(v) = λv.

L’insieme Eλ degli autovettori di autovalore λ e detto autospazio.

Lo scalare 0 e un autovalore di f sse il nucleo N(f) ha dimensione ≥ 1.

Remark 2. Un sottospazio X di V e f -invariante se f(X) ⊆ X. Se v e un autovettoredi autovalore λ, allora il sottospazio unidimensionale generato da v e f -invariante.

E evidente che f(u) = λu sse (λIn − f)(u) = 0, dove In : V → V e la funzioneidentica. Nel seguito, quando possibile, scriveremo λ− f al posto λIn − f .

Abbiamo il seguente lemma:

Lemma 10.1.1. • λ e un autovalore di f sse dim N(λ− f) ≥ 1.

• L’autospazio Eλ e il nucleo dell’operatore lineare λ− f .

Esprimiamo il lemma precedente in termini di matrici. Sia A la matrice di ordinen associata all’operatore lineare f : V → V rispetto alla base v1, . . . ,vn di V . Se

125

126 CHAPTER 10. AUTOVETTORI E AUTOVALORI

u = u1v1 + · · ·+ unvn e un vettore non nullo e f(u) = λu, allora

A

u1...un

= λ

u1...un

Si puo scrivere in maniera alternativa (In e la matrice identica di ordine n):

(λIn − A)

u1...un

=

0...0

.Lemma 10.1.2. Le condizioni seguenti sono equivalenti:

• λ e un autovalore di A;

• Il sistema lineare omogeneo determinato dalla matrice λIn−A ammette unasoluzione non nulla;

• det(λIn − A) = 0.

Gli autovalori λ sono gli scalari che rendono nullo il determinante della matriceλIn − A.

Determiniamo il numero massimo di autovalori che una matrice A di ordine npuo avere. Sia t una variabile scalare. Allora det(tIn − A) e un polinomio di gradon nell’incognita t.

Definition 10.1.2. Il polinomio pA(t) = det(tIn − A) (di grado n) si chiama poli-nomio caratteristico di A.

Ricordiamo che un polinomio di grado n puo avere al piu n radici distinte nelcampo dei coefficienti.

Proposition 10.1.3. Gli autovalori di una matrice A di ordine n sono gli zeri delpolinomio caratteristico pA (di grado n). La matrice A ha al piu n autovalori.

Example 84. Calcoliamo il polinomio caratteristico della matrice A =

[1 −21 4

]:

det

[t− 1 2−1 t− 4

]= (t− 1)(t− 4) + 2 = t2 − 5t+ 6.

10.1. DEFINIZIONE DI AUTOVALORE E AUTOVETTORE 127

Le soluzioni dell’equazione t2 − 5t + 6 = 0 sono: t = 5±12

. Quindi la matrice ha dueautovalori λ1 = 3 e λ2 = 2. Calcoliamo ora gli autovettori associati all’autovaloreλ2 = 2. Dobbiamo risolvere il sistema omogeneo associato alla matrice[

t− 1 2−1 t− 4

]t=2

=

[1 2−1 −2

]Otteniamo due rette coincidenti −x − 2y = 0 e x + 2y = 0 passanti per l’origine.Quindi abbiamo una retta di autovettori (sottospazio vettoriale di dimensione 1) lacui equazione parametrica e: (−2t, t) con t ∈ R:[

1 −21 4

] [−2tt

]= 2

[−2tt

].

Calcoliamo gli autovettori associati all’autovalore t = 3. Dobbiamo risolvere il sis-tema omogeneo associato alla matrice[

t− 1 2−1 t− 4

]t=3

=

[2 2−1 −1

]Otteniamo la retta x+ y = 0. Quindi abbiamo una retta di autovettori (sottospaziovettoriale di dimensione 1) la cui equazione parametrica e: (t,−t) con t ∈ R:[

1 −21 4

] [t−t

]= 3

[t−t

].

Sia f : R2 → R2 l’operatore lineare associata alla matrice A. In altre parole, A e lamatrice dell’operatore lineare f rispetto alla base canonica e1 = (1, 0) e e2 = (0, 1).Fissiamo ora una nuova base di R2 costituita da due autovettori; per esempio,

v1 = (1,−1); v2 = (−2, 1).

Siccome i due autovalori 3 e 2 sono distinti, verifichiamo che la matrice dell’operatoref rispetto alla base v1, v2 e diagonale con valori nella diagonale uguali ai due auto-valori: [

3 00 2

]Calcoliamo la matrice invertibile del cambiamento di base da v1, v2 alla base canonicae1, e2: Da v1 = e1− e2 e v2 = −2e1 + e2, abbiamo che la matrice del cambiamento dibase assume la seguente forma:

B =

[1 −2−1 1

]

128 CHAPTER 10. AUTOVETTORI E AUTOVALORI

Calcoliamo l’inversa di B con il metodo di Laplace definito alla fine del capitoloprecedente:

B−1 =

[−1 −2−1 −1

]Scriveremo R2(v1, v2) per specificare lo spazio vettoriale R2 con base v1, v2. Alloraabbiamo

R2(v1, v2)Id−→ R2(e1, e2)

f−→ R2(e1, e2)Id−→ R2(v1, v2).

In terms of matrices:R2(v1, v2)

f−→ R2(v1, v2)

B−1AB =

[−1 −2−1 −1

] [1 −21 4

] [1 −2−1 1

]=

[−3 −6−2 −2

] [1 −2−1 1

]=

[3 00 2

].

Example 85. Consideriamo una trasformazione lineare f : R3 → R3 che e unarotazione attorno all’asse y di un angolo π. Allora f(e1) = −e1, f(e2) = e2 ef(e3) = −e3. La matrice della rotazione e:

A =

−1 0 00 1 00 0 −1

Abbiamo sicuramente: (i) l’autovalore λ1 = 1 con autovettore e2; (ii) l’autovaloreλ2 = −1 con autovettori e1 ed e3. Proviamo che non vi sono altri autovalori. Ilpolinomio caratteristico della matrice diagonale A si calcola facilmente pA(t) = (t+1)(t − 1)(t + 1) = (t + 1)2(t − 1). Gli autovalori, radici di questo polinomio, sonoquindi λ1 = 1 e λ2 = −1. Quest’ultima radice e doppia.

Ricordiamo che

• Due matrici A e B sono simili se esiste una matrice invertibile P tale cheB = PAP−1 (Si consulti Definizione 8.5.1).

• Dato un operatore lineare f : V → V , due basi v1, . . . ,vn e w1, . . . ,wn di V ,la matrice A associata ad f rispetto alla base v1, . . . ,vn e simile alla matriceB associata ad f rispetto alla base w1, . . . ,wn. La matrice invertibile P taleche B = PAP−1 e la matrice del cambiamento di base (Si veda Sezione 8.5 eEsempio 84).

Lemma 10.1.4. Matrici simili determinano lo stesso polinomio caratteristico equindi gli stessi autovalori.

10.1. DEFINIZIONE DI AUTOVALORE E AUTOVETTORE 129

Proof.det(tIn −B) = det(tIn − PAP−1)

= det(tPInP−1 − PAP−1)

= det(P (tIn − A)P−1)= det(P )det(tIn − A)det(P )−1

= det(tIn − A).

Quindi possiamo definire il polinomio caratteristico pf e gli autovalori di un opera-tore lineare f : V → V , calcolandoli rispetto ad una qualsiasi matrice che rappresentaf rispetto ad una data base.

Example 86. Sia f : R2 → R2 l’operatore lineare definito da f(x, y) = (x+y, x−y).Da f(e1) = e1 + e2 e f(e2) = e1 − e2, si ricava che la matrice di f rispetto alla basecanonica e

A =

[1 11 −1

]Calcoliamo il polinomio caratteristico e gli autovalori di A:pA(t) = (t− 1)(t+ 1)− 1 = t2 − 2, con autovalori λ1 =

√2 e λ2 = −

√2.

Effettuiamo lo stesso calcolo con una base diversa v1 = [1, 1] e v2 = [2, 1] diR2. Siccome e1 = v2 − v1 e e2 = 2v1 − v2, allora f(v1) = 2e1 = 2v2 − 2v1 ef(v2) = 3e1 + e2 = 3v2− 3v1 + 2v1−v2 = 2v2−v1. La matrice B di f rispetto allabase v1,v2 e quindi

B =

[−2 −12 2

]Il polinomio caratteristico di B e lo stesso di A: pB(t) = (t+ 2)(t− 2) + 2 = t2 − 2,con gli stessi autovalori di prima.

Si noti che una matrice A e la sua trasposta AT hanno lo stesso polinomio carat-teristico, perche det(tIn − A) = det(tIn − A)T = det(tIn − AT ).

Nella parte finale di questa sezione calcoliamo i coefficienti del polinomio carat-teristico di una matrice A in termini degli elementi della matrice A. Lo facciamo pern = 2, 3.

Example 87. Sia A = (aij) una matrice quadrata di ordine 2 a coefficienti in uncampo K. Calcoliamo il determinante det(tI2 − A):

det(tI2 − A) = det

[t− a11 −a12−a21 t− a22

]= t2 − c1t+ c0,

130 CHAPTER 10. AUTOVETTORI E AUTOVALORI

dovec0 = det(A); c1 = tr(A) = a11 + a22.

Allora det(tI2 − A) = 0 sse t2 − c1t+ c0 = 0. Quindi per trovare gli autovalori di Abisogna risolvere una equazione di secondo grado nell’incognita t. Le due soluzionidell’equazione t2 − c1t + c0 = 0 esistono sempre se K = C e il campo dei numericomplessi, mentre possono non esistere nel caso in cui K = R e il campo dei numerireali. Per esempio, l’equazione t2 + 1 = 0 non ammette soluzioni reali.

Example 88. Nel caso di una matrice A = (aij) di tipo 3 × 3 a coefficienti in uncampo K si ha:

det(tI3 − A) = det

t− a11 −a12 −a13−a21 t− a22 −a23−a31 −a32 t− a33

= t3 − c2t2 + c1t− c0,

dovec0 = det(A); c2 = tr(A) = a11 + a22 + a33

e

c1 = det

[a22 a23a32 a33

]+ det

[a11 a13a31 a33

]+ det

[a11 a12a21 a22

].

Allora det(tI3 − A) = 0 sse t3 − c2t2 + c1t− c0 = 0. Quest’equazione di terzo gradoha sempre tre soluzioni t1, t2, t3 (contate con la dovuta molteplicita) nel campo deinumeri complessi. Se le tre soluzioni non sono tutte reali, allora una soluzione ereale, mentre le altre due sono complesse coniugate.

10.2 Autospazi

Proposition 10.2.1. Sia f un operatore lineare dello spazio vettoriale V . Seλ1, . . . , λk sono autovalori distinti di f e vi e un autovettore di autovalore λi (i =1, . . . , k), allora i vettori v1, . . . ,vk sono linearmente indipendenti.

Proof. Per induzione su k. Se c1v1 + · · · + ckvk = 0 con c1, . . . , ck scalari non tuttinulli, allora si ha:

0 = f(0)= f(c1v1 + · · ·+ ckvk)= f(c1v1) + · · ·+ f(ckvk)= c1f(v1) + · · ·+ ckf(vk)= c1λ1v1 + · · ·+ ckλkvk

10.2. AUTOSPAZI 131

Sostituendo ckvk = −c1v1 − · · · − ck−1vk−1 si ottiene:

c1λ1v1+· · ·+λk(−c1v1−· · ·−ck−1vk−1) = c1(λ1−λk)v1+· · ·+ck−1(λk−1−λk)vk−1 = 0.

Dal fatto che gli autovalori sono tutti distinti, si contraddice l’ipotesi induttiva chev1, . . . ,vk−1 sono linearmente indipendenti.

Definition 10.2.1. La dimensione dell’autospazio Eλ si dice molteplicita geometricadell’autovalore λ e si indica con mg(λ).

Definition 10.2.2. Sia λ un autovalore di un operatore lineare f . Si dice molteplicitaalgebrica di λ, e si indica con ma(λ), il piu grande k tale che il polinomio (t − λ)k

divide il polinomio caratteristico pf :

pf (t) = (t− λ)kq(t),

dove q e un opportuno polinomio in t tale che q(λ) 6= 0.

Proposition 10.2.2. Sia λ un autovalore di un operatore lineare f : V → V .Allora la molteplicita geometrica di λ e sempre minore o uguale alla sua molteplicitaalgebrica.

Proof. Sia r la dimensione dell’autospazio Eλ e sia v1, . . . ,vr una base di Eλ. Si notiche v1, . . . ,vr sono autovettori di autovalore λ. Completiamo v1, . . . ,vr ad una basev1, . . . ,vr,vr+1, . . . ,vn di V . Abbiamo per 1 ≤ s ≤ r e r + 1 ≤ k ≤ n:

f(vs) = λvs; f(vk) = b1kv1 + · · ·+ brkvr + c1kvr+1 + · · ·+ c(n−r)kvn.

Rispetto a questa base la matrice A di f ha quindi la forma

A =

[λIr BO C

],

dove C = (cij) e una matrice quadrata di ordine n− r. Quindi

tIn − A =

[(t− λ)Ir −BOn−r tIn−r − C

]da cui si ricava det(tIn−A) = (t−λ)rpC(t). Ne segue che la molteplicita geometricar e minore o uguale a quella algebrica, perche il polinomio pC potrebbe avere comeradice λ ed essere quindi divisibile per t− λ.

132 CHAPTER 10. AUTOVETTORI E AUTOVALORI

10.3 Esempi

Example 89. Se consideriamo una rotazione g : R2 → R2 del piano reale (si vedaSezione 13.2.1) di un angolo 0 < θ < π

2in senso antiorario, nessun vettore mantiene

la stessa direzione e quindi non devono esistere autovalori. La matrice della rotazionerispetto alla base canonica e (si consulti il Capitolo 7.4):

A =

[cos θ − sin θsin θ cos θ

]Calcoliamo il polinomio caratteristico che e il determinante della matrice

det

[t− cos θ sin θ− sin θ t− cos θ

]= (t− cos θ)2 + sin θ2 = t2 − 2 cos θt+ 1.

Se calcoliamo le soluzioni troviamo

t = cos θ ±√

cos θ2 − 1 = cos θ ±√− sin θ2 = cos θ ± i sin θ,

dove i e l’unita immaginaria. Quindi gli autovalori sono numeri complessi non reali.Siccome ogni polinomio ha radici nel campo dei numeri complessi, mentre non edetto che ne abbia nel campo dei numeri reali, conviene spesso lavorare direttamentecon trasformazioni lineari complesse. Consideriamo quindi la matrice A come unamatrice che definisce una operatore lineare complesso h : C2 → C2 rispetto allabase canonica e1 = (1, 0) e e2 = (0, 1) di C2. Calcoliamo l’autospazio associatoall’autovalore λ1 = cos θ + i sin θ. Dobbiamo risolvere il sistema lineare omogeneo

(λ1I2 − A)

[xy

]=

[i sin θ sin θ− sin θ i sin θ

] [xy

]=

[ix sin θ + y sin θ−x sin θ + iy sin θ

]=

[00

],

dove x e y sono scalari complessi. Otteniamo l’equazione della retta complessa chedescrive i vettori dell’autospazio di λ1: ix sin θ + y sin θ = 0, che dividendo per sin θdiventa y = −ix. L’altra equazione −x sin θ + iy sin θ = 0, dividendo per sin θ, siriduce a iy = x, che moltiplicando per i diventa come prima y = −ix.

Un autovettore e il vettore

[−1i

]. Analogamente, possiamo calcolare la retta

complessa y = ix degli autovettori di autovalore λ2 = cos θ − i sin θ. Un autovettore

di autovalore λ2 e il vettore

[1i

].

Example 90. Sia

A =

[1 23 4

]

10.3. ESEMPI 133

Calcoliamo il polinomio caratteristico di A:

det

[t− 1 −2−3 t− 4

]= (t− 1)(t− 4)− 6 = t2 − 5t− 2.

Le soluzioni dell’equazione sono: t = 5±√33

2. Quindi la matrice ha due autovalori

reali.

Calcoliamo ora l’autospazio associato all’autovalore λ1 = 5+√33

2. Dobbiamo risol-

vere il sistema omogeneo associato alla matrice[5+√33

2− 1 −2

−3 5+√33

2− 4

]=

[3+√33

2−2

−3 −3+√33

2

]

Otteniamo quindi due rette (3 +√

33)x− 4y = 0 e −6x+ (−3 +√

33)y = 0 passantiper l’origine. Moltiplicando la prima equazione per 3−

√33 si ottiene: 24x+ 4(3−√

33)y = 0 e dividendo per 4 si ottiene infine la seconda equazione. Quindi le dueequazioni definiscono la stessa retta per l’origine. Se poniamo x = 1 allora y = 9√

33.

Quindi l’autospazio associato all’autovalore 5+√33

2e il sottospazio vettoriale del piano

generato dal vettore [1, 9√33

].

Example 91. Sia

A =

1 0 12 0 22 2 3

Il determinante della matrice A e nullo: det(A) = −2 · det

[1 12 2

]= 0. Ne segue

che il sistema omogeneo Ax = 0 ammette soluzioni x 6= 0 non nulle. Calcoliamo ilpolinomio caratteristico di A sviluppando il determinante rispetto alla prima riga escopriremo che 0 sara un autovalore della matrice A:

det(tI3−A) = det

t− 1 0 −1−2 t −2−2 −2 t− 3

= (t−1)det

[t −2−2 t− 3

]−det

[−2 t−2 −2

]=

= (t− 1)t(t− 3)− 4(t− 1)− 4− 2t = t3 − 4t2 − 3t.

L’equazione t3−4t2−3t = 0 ammette come soluzioni gli autovalori: t = 0 e t = 2±√

7.

134 CHAPTER 10. AUTOVETTORI E AUTOVALORI

10.4 Matrici triangolabili

Lemma 10.4.1. Il polinomio caratteristico di una matrice triangolare superioreA = (aij) di ordine n e dato da

p(t) = (t− a11)(t− a22) · · · (t− ann).

Quindi una matrice triangolare superiore ha n autovalori (situati nella diagonaleprincipale) contati con la loro molteplicita.

Definition 10.4.1. 1. Una matrice A e triangolabile se e simile ad una matricetriangolare superiore.

2. Un operatore f : V → V e triangolabile se esiste una base di V rispetto allaquale f e rappresentato da una matrice triangolare superiore.

Ricordiamo che ma(λ) indica la molteplicita algebrica dell’autovalore λ.

Theorem 10.4.2. Sia V uno spazio vettoriale di dimensione n su un campo K,sia f : V → V un operatore lineare e siano λ1, . . . , λk ∈ K gli autovalori distinti dif . Allora le seguenti condizioni sono equivalenti:

(i) f e triangolabile;

(ii) ma(λ1) + · · · + ma(λk) = n, cosicche il polinomio caratteristico pf e uguale a(t− λ1)ma(λ1) . . . (t− λk)ma(λk).

Proof. (i) ⇒ (ii) Se A e una matrice triangolare associata ad f rispetto ad unaopportuna base, allora gli autovalori di A si trovano nella diagonale principale di A.Contati con la dovuta moltiplicita sono n (Si veda Lemma 10.4.1).

(ii) ⇒ (i) Siano κ1, . . . , κn gli autovalori di f , ripetuti con la dovuta molteplicitaalgebrica. Costruiamo una base v1, . . . ,vn di V tale che

(i) f(v1) = κ1v1;

(ii) f(vj+1)− κj+1vj+1 ∈ Vj, dove Vj = Span(v1, . . . ,vj).

In questo modo f(vj+1) = a1v1 + · · ·+ ajvj + κj+1vj+1 per opportuni scalari ai. Lamatrice di f rispetto alla base v1, . . . ,vn risultera triangolare superiore.

Supponiamo di aver definito v1, . . . ,vj linearmente indipendenti con le proprietavolute e cerchiamo di definire vj+1.

10.4. MATRICI TRIANGOLABILI 135

Completiamo v1, . . . ,vj ad una base v1, . . . ,vj,wj+1, . . . ,wn di V . Sia W ilsottospazio vettoriale generato da wj+1, . . . ,wn. Allora W ∩ Vj = {0}.

Consideriamo la proiezione canonica Pj : V → W definita da

Pj(a1v1 + · · ·+ ajvj + aj+1wj+1 + · · ·+ anwn) = aj+1wj+1 + · · ·+ anwn,

e Tj = Pj ◦ f|W : W → W , dove f|W e la restrizione di f al sottospazio W . Rispettoalla base v1, . . . ,vj,wj+1, . . . ,wn di V l’operatore f e rappresentato dalla matrice

A =

[B CO D

]dove B e triangolare superiore con κ1, . . . , κj sulla diagonale principale. Si vedefacilmente che D e la matrice dell’operatore Tj rispetto alla base wj+1, . . . ,wn di W .Allora,

pA(t) = det(tIn − A) = (t− κ1) . . . (t− κj)pD(t).

Quindi la matrice D ammette gli autovalori κj+1, . . . , κn. Definiamo vj+1 un au-tovettore di autovalore κj+1 nello spazio W .

Corollary 10.4.3. Ogni operatore lineare complesso e triangolabile.

Proof. Il campo dei numeri complessi e algebricamente chiuso: il polinomio carat-teristico di una matrice complessa ammette n radici con la dovuta molteplicita.

Se f : V → V e triangolabile non e detto che V abbia una base di autovettori dif , come il seguente esempio dimostra.

Example 92. Consideriamo un operatore lineare f : R2 → R2 rappresentato dallamatrice

A =

[−5 −94 7

]rispetto alla base canonica. Determiniamo il polinomio caratteristico di A:

det(tI2 − A) = det

[t+ 5 9−4 t− 7

]= (t+ 5)(t− 7) + 36 = t2 − 2t+ 1 = (t− 1)2.

L’autovalore λ = 1 ha molteplicita algebrica uguale a 2, mentre l’autospazio E1 hadimensione 1. Per trovare l’autospazio di λ = 1 dobbiamo risolvere il sistema lineare[

6 9−4 −6

] [xy

]=

[00

]

136 CHAPTER 10. AUTOVETTORI E AUTOVALORI

ovvero 6x + 9y = 0 e 2x + 3y = 0, da cui si ricava x = −(3/2)y. Quindi E1 =

Span(

[3−2

]) ha dimensione 1. L’operatore f e triangolabile rispetto alla base v =

[3,−2], e2 = [0, 1]. Infatti f e rappresentato rispetto a questa nuova base dallamatrice [

1 −30 1

]Utilizziamo l’uguaglianza e1 = 1

3[3,−2] + 2

3e2 per provare che f(e2) = −9e1 + 7e2 =

−3v + e2. In conclusione, f e triangolabile ma non diagonalizzabile come vedremonella prossima sezione.

10.5 Matrici diagonalizzabili

Lemma 10.5.1. Se una matrice A = (aij) e diagonale, allora l’elemento aii delladiagonale e un autovalore di A con autovettore il vettore ei della base canonica.

Proof. a11 0 . . . 00 a22 . . . 0...

......

...0 0 . . . ann

0...1...0

= aii

0...1...0

Per esempio, nel caso di una matrice di ordine 2 abbiamo:[2 00 5

] [10

]= 2

[10

];

[2 00 5

] [01

]= 5

[01

].

Definition 10.5.1. Un operatore lineare f : V → V e diagonalizzabile se esiste unabase rispetto alla quale f e rappresentato da una matrice diagonale.

Ricordiamo che una matrice A di ordine n (ad elementi nel campo K) definisceun operatore lineare fA : Kn → Kn tramite il prodotto matriciale: fA(x1, . . . , xn) =A[x1, . . . , xn]T . Quindi, una matrice e diagonalizzabile se e simile ad una matricediagonale. Matrici simili hanno lo stesso polinomio caratteristico e quindi gli stessi

10.5. MATRICI DIAGONALIZZABILI 137

autovalori (Si veda Lemma 10.1.4). Ne segue che una matrice e diagonalizzabile ssee simile alla matrice diagonale dei suoi autovalori, ciascuno presente nella diagonalecon la dovuta molteplicita.

Lemma 10.5.2. Una base di V e una base di autovettori di f : V → V sse lamatrice di f rispetto alla base data e diagonale.

Proposition 10.5.3. Un operatore lineare f : V → V e diagonizzabile sse V hauna base v1, . . . ,vn di autovettori di f .

Corollary 10.5.4. Se una matrice di ordine n ha n autovalori distinti, allora ediagonalizzabile.

Proof. Siano λ1, . . . , λn gli n autovalori distinti e sia vi un autovettore di λi peri = 1, . . . , n. Dalla Proposizione 10.2.1(ii) i vettori v1, . . . ,vn costituiscono unabase di autovettori dello spazio vettoriale. La conclusione segue dalla Proposizione10.5.3.

Sia A una matrice diagonalizzabile e D = P−1AP la matrice diagonale simile adA. Allora si ha:

A = PDP−1

Se A e diagonalizzabile e si conoscono la matrice invertibile P e la matrice diago-nale D, allora e facile calcolare le potenze della matrice A: A2 = AA = P−1DDP =P−1D2P , A3 = AAA = P−1D3P , etc. Se

D =

d1 0 . . . 00 d2 . . . 0

. . . . . . . . . . . .0 0 . . . dn

allora

Dk =

dk1 0 . . . 00 dk2 . . . 0

. . . . . . . . . . . .0 0 . . . dkn

Il teorema seguente precisa meglio il risultato del Lemma 10.5.2.

138 CHAPTER 10. AUTOVETTORI E AUTOVALORI

Theorem 10.5.5. Sia V uno spazio vettoriale di dimensione n sul campo K, siaf : V → V un operatore lineare e siano λ1, . . . , λk ∈ K gli autovalori distinti di f .Sia ma(λi) (resp. mg(λi)) la molteplicita algebrica (geometrica) dell’autovalore λiper i = 1, . . . , k.Allora le seguenti condizioni sono equivalenti:

(i) f e diagonalizzabile;

(ii) Per ogni vettore v ∈ V , esistono (unici) autovettori wi di autovalore λi (i =1, . . . , k) tale che v = w1 + · · ·+ wk (i.e., esiste una base di autovettori);

(iii) mg(λ1) + · · ·+mg(λk) = n;

(iv) f ha n autovalori contati con la dovuta molteplicita e ma(λi) = mg(λi) perogni i = 1, . . . , k.

Proof. (i) ⇒ (ii) Se f e diagonalizzabile, dal Lemma 10.5.2 V ammette una base diautovettori di f . Quindi i k autospazi Eλ1 , . . . , Eλk generano V , ossia ogni vettorev ∈ V e combinazione lineare di elementi di Eλ1 , . . . , Eλk .

(ii) ⇒ (iii) Per ipotesi la somma delle dimensioni degli autospazi e n:

dim Eλ1 + · · ·+ dim Eλk = mg(λ1) + · · ·+mg(λk) = n.

(iii) ⇒ (iv) Da mg(λi) ≤ ma(λi).(iv) ⇒ (i) Ovvio.

Remark 3. Non ogni matrice quadrata a coefficienti complessi e diagonalizzabile (nelcampo dei numeri complessi). Per esempio, la matrice

A =

[0 10 0

]ha 0 come autovalore doppio, mentre il nucleo dell’operatore lineare determinatodalla matrice A ha dimensione 1. Non e diagonalizzabile, perche non e simile allamatrice nulla.

Sia f : V → V diagonalizzabile ed A la matrice di f rispetto ad una basev1, . . . ,vn di V . Sia w1, . . . ,wn una base di autovettori di f , e P la matrice tale cheP i e il vettore colonna delle coordinate di wi rispetto alla base v1, . . . ,vn. AlloraP−1AP = D e una matrice diagonale. Le n colonne di P possono essere suddivise ink insiemi di cardinalita dim Eλ1 , . . . , dim Eλk . I vettori colonna del primo insieme

10.5. MATRICI DIAGONALIZZABILI 139

sono una base del sottospazio Eλ1 , e cosı via per gli altri insiemi. Gli elementi delladiagonale di D sono gli autovalori. Un autovalore occorrera tante volte in D quantola dimensione del suo autospazio.

Example 93. Calcoliamo gli autovettori ed autovalori della matrice A =

[2 13 2

].

Se x =

[x1x2

]e un autovettore di autovalore t abbiamo

(tI2 − A)x = 0.

Il precedente sistema lineare omogeneo ha soluzione non nulla sse

det(tI2 − A) = det

[t− 2 −1−3 t− 2

]= (t− 2)2 − 3 = 0.

L’equazione di secondo gradot2 − 4t+ 1 = 0

ha soluzioniλ1 = 2 +

√3; λ2 = 2−

√3.

Le due matrici che si ottengono sono:

B = (2 +√

3)I2 − A =

[ √3 −1

−3√

3

]; C = (2−

√3)I2 − A =

[−√

3 −1

−3 −√

3

].

Ora calcoliamo gli autovettori. Per λ1 = 2 +√

3 lo spazio degli autovettori, che e lospazio delle soluzioni del sistema omogeneo Bx = 0, ha dimensione 1 ed e descrittodalla retta y =

√3x. Per λ = 2−

√3 lo spazio degli autovettori, che e lo spazio delle

soluzioni del sistema omogeneo Cx = 0, ha dimensione 1 ed e descritto dalla rettay = −

√3x.

La matrice A e quindi diagonalizzabile perche esiste una base di autovettori v1 =[1,√

3] e v2 = [1,−√

3]. La matrice del cambiamento di base e

P =

[1 1√3 −

√3

]e P−1AP e la matrice diagonale con gli autovalori nella diagonale.

Calcoliamo l’inversa di P :

P−1 =1

det(P )

[−√

3 −√

3−1 1

]T=

[1/2 1/21

2√3

−12√3

]T=

[1/2 1

2√3

1/2 −12√3

]

140 CHAPTER 10. AUTOVETTORI E AUTOVALORI

Allora

P−1AP =

[1/2 1

2√3

1/2 −12√3

][2 13 2

] [1 1√3 −

√3

]=

=

[1/2 1

2√3

1/2 −12√3

] [2 +√

3 2−√

3

3 + 2√

3 3− 2√

3

]=

[2 +√

3 0

0 2−√

3

]

Example 94. Sia A =

1 0 0−1 2 0

1 0 2

una matrice. Vogliamo

1. Determinare gli autovalori di A e le relative molteplicita.

2. Determinare gli autospazi di A e trovare, se esiste, una base di R3 formata daautovettori di A.

3. Calcolare una matrice P invertibile tale che P−1AP sia diagonale.

La matrice A e triangolare inferiore. Quindi gli autovalori sono gli elementi sulladiagonale: l’autovalore 1 con molteplicita 1, e l’autovalore 2 con molteplicita 2. Unaltro modo per calcolare gli autovalori e tramite il polinomio caratteristico:

det

t− 1 0 01 t− 2 0−1 0 t− 2

= (t− 1)(t− 2)2.

Le radici del polinomio caratteristico sono 1, 2, 2.Per trovare gli autospazi bisogna risolvere i sistemi lineari omogenei 0 0 0

1 −1 0−1 0 −1

x1x2x3

=

000

e 1 0 0

1 0 0−1 0 0

x1x2x3

=

000

Il primo sistema equivale a x2 = x1 e x3 = −x1. L’autospazio delle soluzioni ha comebase il vettore (1, 1,−1). Il secondo sistema ha per soluzione il piano x1 = 0, cheha per base i vettori [0, 1, 0] e [0, 0, 1]. Quindi una base di R3 fatta di autovettori e

10.5. MATRICI DIAGONALIZZABILI 141

composta dai vettori [1, 1,−1], [0, 1, 0] e [0, 0, 1]. Rispetto alla base composta dagliautovettori [1, 1,−1], [0, 1, 0] e [0, 0, 1] la matrice diagonale D simile ad A e:

D =

1 0 00 2 00 0 2

La matrice P tale che D = P−1AP e diagonale, e la matrice le cui colonne sono gliautovettori:

P =

1 0 01 1 0−1 0 1

Example 95. Siano dati in R3 i vettori

v1 = [0, 1,−1]; v2 = [2, 0, 1]; v3 = [1, 2, 0].

1. Verificare che esiste una unica trasformazione lineare f : R3 → R3 aventev1,v2,v3 come autovettori associati, rispettivamente, agli autovalori 0, 3, 6.

2. Determinare la matrice A associata ad f rispetto alla base canonica.

Dobbiamo avere:

f(v1) = 0; f(v2) = 3v2; f(v3) = 6v3.

I tre vettori v1,v2,v3 sono linearmente indipendenti e quindi costituiscono una basedi R3, perche la matrice che ha i tre vettori come colonne ha determinante diversoda 0. Ne segue che la funzione f e unica perche e definita su ogni vettore v = c1v1 +c2v2+c3v3 di R3: f(c1v1+c2v2+c3v3) = c1f(v1)+c2f(v2)+c3f(v3) = 3c2v2+6c3v3.

La matrice di f rispetto alla base v1,v2,v3 di autovettori e la matrice diagonale

D =

0 0 00 3 00 0 6

Per calcolare la matrice A rispetto alla base canonica di R3 dobbiamo considerarela matrice P le cui colonne sono le coordinate degli autovettori rispetto alla basecanonica:

P =

0 2 11 0 2−1 1 0

142 CHAPTER 10. AUTOVETTORI E AUTOVALORI

Siccome D = P−1AP , ricaviamo che A = PDP−1. L’inversa della matrice P e:

P−1 =

2/3 −1/3 −4/32/3 −1/3 −1/3−1/3 2/3 2/3

E quindi

A = PDP−1 =

0 2 11 0 2−1 1 0

0 0 00 3 00 0 6

2/3 −1/3 −4/32/3 −1/3 −1/3−1/3 2/3 2/3

=

=

2 2 2−4 8 82 −1 −1

Chapter 11

Diagonalizzabilita e polinomiominimo

Questo capitolo e rivolto agli studenti della laurea magistrale.

Per scoprire se una matrice A e diagonalizzabile, dobbiamo calcolare gli autovaloridi A e successivamente verificare se esiste una base di autovettori. Se l’ordine diA e grande non e semplice trovare le radici del polinomio caratteristico di A. Inquesta capitolo introduciamo il polinomio minimo e presentiamo un test effettivo didiagonalizzabilita che permette di verificare la diagonalizzabilita di A senza calcolarei suoi autovalori.

Partiamo con alcuni preliminari.

(1) L’insieme K[t] dei polinomi in una variabile t a coefficienti nel campo K e unospazio vettoriale di dimensione infinita con base 1, t, t2, . . . , tn, . . . .Lo spazio vettoriale K[t] e anche un anello commutativo con unita: K[t] eun gruppo rispetto alla somma di polinomi (cioe, verifica gli assiomi SV1-SV4della Definizione 2.2.1), e un monoide commutativo rispetto alla moltiplicazionedi polinomi (cioe, verifica la proprieta associativa e commutativa della molti-plicazione, ed il polinomio costante 1 e l’unita moltiplicativa), ed inoltre lamoltiplicazione distribuisce rispetto alla somma: p(q + r) = pq + pr.

(2) L’insieme End(V ) degli operatori lineari di V e uno spazio vettoriale di dimen-sione finita: per ogni f, g ∈ End(V ) e λ ∈ K si definisce (f+g)(v) = f(v)+g(v)e (λf)(v) = λ · f(v). Lo spazio End(V ) ha dimensione n2, perche ogni oper-atore e rappresentato da una matrice di ordine n rispetto ad una base fissata(n2 e il numero di scalari presenti in una matrice di ordine n). Fissata una base

143

144 CHAPTER 11. DIAGONALIZZABILITA E POLINOMIO MINIMO

v1, . . . ,vn di V , una base di End(V ) e determinata dagli operatori fij tali chefij(vj) = vi e fij(vk) = 0, per k 6= j.Lo spazio End(V ) e anche un anello noncommutativo con unita. La molti-plicazione di f e g coincide con la composizione di funzioni f ◦ g. L’unita el’applicazione identica idV .

(3) Se f : V → V e un operatore lineare di uno spazio vettoriale V sul campo K,allora definiamo f 0 = idV e fn = f ◦ fn−1. Per esempio, f 3(v) = f(f(f(v))),per ogni v ∈ V .

(4) Se p(t) = a0 + a1t+ a2t2 + · · ·+ ant

n e un polinomio a coefficienti in K, allora

p(f) = a0f0 + a1f + a2f

2 + · · ·+ anfn : V → V

e l’operatore lineare tale che p(f)(v) = a0v +a1f(v)+a2f2(v)+ · · ·+anf

n(v).

(5) Le funzioni polinomiali commutano: p(f) ◦ q(f) = (pq)(f) = q(f) ◦ p(f), pertutti i polinomi p e q.

(6) Scriveremo f − λ per rappresentare l’operatore lineare f − λ idV .

11.1 Polinomio minimo

Fissiamo un operatore lineare f : V → V e un sottospazio X di V . Consideriamola trasformazione lineare FX : K[t] → End(X, V ) definita come segue, per ognipolinomio p ∈ K[t]:

FX(p) = p(f)|X : X → V.

Per esempio, FV (t+ t2) = f + (f ◦ f) e FV (tn − 1) = fn − 1. Ricordiamo che K[t] einfinito-dimensionale, mentre End(X, V ) e V sono spazi finito-dimensionali. Quindiil nucleo N(FX) = {p ∈ K[t] : p(f)|X = 0} di FX e uno spazio vettoriale non nullo dipolinomi. Denotiamo il nucleo di FX con IXf . Se X e di dimensione 1 generato dalvettore v, scriveremo Ivf al posto di IXf .

Lemma 11.1.1. 1. Il sottospazio vettoriale IXf ha dimensione ≥ 1 ed e un ide-alea dell’anello K[t].

2. Se X ⊆ Y sono sottospazi di V , allora IYf ⊆ IXf . In particolare, IVf e minimotra gli ideali IXf .

aUn ideale I di un anello R e un sottogruppo di R tale che x ∈ I implica Rx ⊆ I e xR ⊆ I.

11.2. TEOREMA DI CAYLEY-HAMILTON 145

Il lemma seguente prova l’esistenza del polinomio minimo.

Lemma 11.1.2. Esiste un unico polinomio monico µXf ∈ IXf di grado minimo chegenera l’ideale IXf . Inoltre, dall’inclusione IVf ⊆ IXf segue che il polinomio µXfdivide µVf , per ogni sottospazio X di V .a

aSe X e lo spazio generato da v scriveremo µvf per µX

f .

Proof. Proviamo in generale che un ideale I dell’anello K[t] e principale (generatoda un unico polinomio monico). Sia p ∈ I un polinomio monico di grado minimo esia q ∈ I. Dividendo q per p si ha q = sp+ r con r polinomio di grado strettamenteminore di p. La relazione r = q − sp ∈ I contraddice l’ipotesi di minimalita di p,perche, se r = akt

k+ak−1tk−1 + . . . , allora r

ake un polinomio monico di grado minore

di p che appartiene ad I. Quindi r = 0 ed I e generato da p.

Per brevita, scriveremo If e µf al posto di IVf e µVf . Il polinomio µf si chiamapolinomio minimo di f . Il grado del polinomio minimo di f e sicuramente minore din2. Per prima cosa osserviamo che If contiene dei polinomi non nulli. Gli operatori

f 0, f, f 2, . . . , fk, . . .

non possono essere tutti linearmente indipendenti nello spazio vettoriale End(V ) didimensione n2. Dunque c’e sicuramente una relazione lineare nulla:

a0f0 + a1f + · · ·+ an2fn

2

= 0

e il polinomio minimo ha grado minore del grado n2 del polinomio a0 + a1t + · · · +an2tn

2.

11.2 Teorema di Cayley-Hamilton

Una delle conseguenze piu importanti del Teorema di Cayley-Hamilton e che il poli-nomio caratteristico di f appartiene all’ideale If , cosicche il grado del polinomiominimo µf e minore o uguale ad n. Spieghiamo il Teorema di Cayley-Hamilton nelcaso speciale in cui f e diagonalizzabile. Sia v1, . . . ,vn una base di autovettori, i cuiautovalori con la dovuta molteplicita sono λ1, . . . , λn. Allora il polinomio caratteris-tico e pf = (t− λ1) . . . (t− λn) e pf (f) = (f − λ1) ◦ · · · ◦ (f − λn). Da pf (f)(vi) = 0segue per linearita che pf (f) = 0. Il teorema di Cayley-Hamilton generalizza questaproprieta ad ogni operatore lineare.

146 CHAPTER 11. DIAGONALIZZABILITA E POLINOMIO MINIMO

Theorem 11.2.1. (Teorema di Cayley-Hamilton) Sia f : V → V un operatorelineare di uno spazio vettoriale V di dimensione n sul campo K. Allora pf (f) = 0,cosı il polinomio caratteristico pf di f appartiene a If .

Poiche il polinomio caratteristico ha grado n ed il polinomio minimo divide ilpolinomio caratteristico, si ottiene in particolare che (i) il grado del polinomio minimoe minore o uguale ad n; (ii) le radici del polinomio minimo sono autovalori di f .

Proof. Lavorando con le coordinate possiamo supporre che V = Kn. Sia A la matrice

che rappresenta f rispetto alla base canonica di Kn. Se v =

v1...vn

, allora A

v1...vn

e il vettore delle coordinate di f(v). Sia F la chiusura algebrica di K. La matriceA rappresenta rispetto alla base canonica di Fn un operatore lineare g : Fn → Fn,che estende l’operatore f : Kn → Kn. I polinomi caratteristici di f e g coincidono,i.e., pf = pg. Siccome Fn e algebricamente chiuso, l’operatore g e triangolabile.Esiste quindi una base w1, . . . ,wn di Fn per cui g e rappresentato da una matricetriangolare superiore B che e simile ad A, cioe B = CAC−1 = (bij) per qualche Cinvertibile. Se definiamo λi = bii, allora pg(t) =

∏ni=1(t− λi). Siccome la matrice B

e triangolare superiore, allora

(g − λi)wi =i−1∑k=1

bkiwk ∈ Span(w1, . . . ,wi−1).

Abbiamo (g−λ1)w1 = 0. Supponiamo per ipotesi d’induzione che [∏j

k=1(g−λk)]wj =0 per j < i. Allora si ha

[∏i

k=1(g − λk)]wi = [∏i−1

k=1(g − λk)] ◦ (g − λi)wi

= [∏i−1

k=1(g − λk)](∑i−1

j=1 bjiwj)

=∑i−1

j=1 bji[[∏i−1

k=1(g − λk)]wj]

= 0.

Quindi pg(g) = 0. Rispetto alla base canonica di Fn l’uguaglianza pg(g) = 0 cor-risponde a pg(A) = 0, da cui pf (A) = 0 perche pf = pg.

Presentiamo la prova classica del Teorema di Cayley-Hamilton.

Proof. Le regole di Laplace (si veda Sezione 9.4.1) sullo sviluppo dei determinanti diuna matrice A forniscono la formula seguente:

(adjA)A = A(adjA) = det(A)In. (11.1)

11.2. TEOREMA DI CAYLEY-HAMILTON 147

Rappresentiamo f con una matrice A rispetto ad una data base di V . Scriviamo laformula in (11.1) per la matrice tIn − A:

(tIn − A) adj(tIn − A) = (tn + bn−1tn−1 + · · ·+ b1t+ b0)In (11.2)

dove tn + bn−1tn−1 + · · · + b1t + b0 e il polinomio caratteristico di A. La matrice

adj(tIn − A) ha per elementi polinomi in t di grado al massimo n− 1, perche i suoielementi sono determinanti di sottomatrici di tIn −A di ordine n− 1. Raccogliendoi coefficienti, possiamo scrivere

adj(tIn − A) = Bn−1tn−1 +Bn−2t

n−2 + · · ·+B1t+B0

dove leBi sono opportune matrici di scalari. Eseguendo la moltiplicazione e uguagliandoi coefficienti nella formula (11.2) si ottiene:

Bn−1tn + (Bn−2 − ABn−1)t

n−1 + · · ·+ (B1 − AB2)t2 + (B0 − AB1)t− AB0 =

= Intn + bn−1Int

n−1 + · · ·+ b1Int+ b0In

Quindi valgono le seguenti relazioni:

Bn−1 = InBn−2 − ABn−1 = bn−1InBn−3 − ABn−2 = bn−2In

. . . = . . .B1 − AB2 = b2InB0 − AB1 = b1In−AB0 = b0In

che implicano

Bn−1 = InBn−2 = A+ bn−1InBn−3 = A2 + bn−1A+ bn−2In. . . = . . .B1 = An−2 + bn−1A

n−3 + · · ·+ b2InB0 = An−1 + bn−1A

n−2 + · · ·+ b2A+ b1In0 = An + bn−1A

n−1 + · · ·+ b1A+ b0In

148 CHAPTER 11. DIAGONALIZZABILITA E POLINOMIO MINIMO

Se pf = a0 + a1t + a2t2 + · · · + an−1t

n−1 + tn e il polinomio caratteristico di f ,allora pf (f) = a0f

0 + a1f1 + a2f

2 + · · ·+ an−1fn−1 + fn = 0. La potenza n-esima di

f si puo scrivere come combinazione lineare delle potenze di grado inferiore

Potenza fn di un operatore lineare di uno spazio di dim n

fn = −(a0f0 + a1f

1 + a2f2 + · · ·+ an−1f

n−1),

con a0, a1, . . . , an−1 coefficienti del polinomio caratteristico.

Se f e invertibile, allora a0 = det(f) 6= 0 e

idV = − 1

a0(a1f

1 + a2f2 + · · ·+ an−1f

n−1 + fn)

da cui, moltiplicando ambo i membri per f−1 si ottiene

Isomorfismo inverso di un isomorfismo lineare

f−1 = − 1

a0(a1f

0 + a2f1 + · · ·+ an−1f

n−2 + fn−1)

con a0, a1, . . . , an−1 coefficienti del polinomio caratteristico.

f−1 e combinazione lineare delle potenze di f e i coefficienti della combinazionelineare si ricavano facilmente da quelli del polinomio caratteristico di f .

Nel caso di matrici abbiamo:

Potenza An di una matrice di ordine n

An = −(a0In + a1A1 + a2A

2 + · · ·+ an−1An−1),

con a0, a1, . . . , an−1 coefficienti del polinomio caratteristico.

Inversa di una matrice A di ordine n con det(A) 6= 0

A−1 = − 1

a0(a1In + a2A

1 + · · ·+ an−1An−2 + An−1)

con a0, a1, . . . , an−1 coefficienti del polinomio caratteristico.

Per esempio, dato il polinomio caratteristico t2−4t+5 della matrice A =

[1 2−1 3

],

si ha

A−1 =1

5(4I2 − A) =

1

5

[3 −21 1

]

11.3. COME CALCOLARE IL POLINOMIO MINIMO 149

11.3 Come calcolare il polinomio minimo

Con la sigla “mcm” indichiamo il minimo comune multiplo.

Proposition 11.3.1. Siano X,X1, . . . , Xk sottospazi vettoriali di V tali che X =X1 ⊕ · · · ⊕Xk. Allora,

µXf = mcm(µX1f , µX2

f , . . . , µXkf ).

Proof. Prima proviamo che IXf = IX1f ∩ · · · ∩ I

Xkf . L’inclusione ⊆ segue dal Lemma

11.1.1. Viceversa, se p ∈ IX1f ∩ · · · ∩ I

Xkf allora p(f)(Xi) = {0}, per ogni i = 1, . . . , k.

Se w = v1 + · · ·+ vk con vi ∈ Xi e un arbitrario vettore di X, p(f)(w) = p(f)(v1 +· · · + vk) = p(f)(v1) + · · · + p(f)(vk) = 0 + · · · + 0 = 0. Quindi p ∈ IXf . L’ideale

IX1f ∩ · · · ∩ I

Xkf e generato dal polinomio monico mcm(µX1

f , . . . , µXkf ) che quindi deve

coincidere con µXf .

La proposizione seguente prova che il polinomio minimo puo essere effettivamentecalcolato a partire da un numero finito di polinomi del tipo µv

f .

Corollary 11.3.2. Sia v1, . . . ,vn una base di V . Allora

µf = mcm(µv1f , µ

v2f , . . . , µ

vnf ).

Esiste un minimo k tale che i vettori v, fv, . . . , fkv sono linearmente dipendenti.Siccome si possono effettivamente calcolare gli scalari ai per cui a0v + a1fv + · · ·+akf

kv = 0, si puo ricavare un metodo effettivo per calcolare µvf .

Proposition 11.3.3. Consideriamo la matrice A di tipo n × ∞ la cui colonnai-sima e costituita dalle coordinate del vettore f iv. Allora esiste un minimo k < ntale che il sistema omogeneo x0A

0 + x1A1 + · · · + xk−1A

k−1 + Ak = 0 ammetteuna soluzione non banale a = [a0, . . . , ak−1, 1]. Allora si ha µv

f = a0 + a1t + · · · +ak−1t

k−1 + tk. (se v e un autovettore dell’autovalore λ, allora µvf = t− λ).

Proof. Se s ∈ Ivf ha grado m, allora da s(f)v = 0 segue che v, fv, f 2v, . . . , fmvsono linearmente dipendenti. Quindi m ≥ k.

Corollary 11.3.4. λ e radice del polinomio minimo di f sse e un autovalore di f .

150 CHAPTER 11. DIAGONALIZZABILITA E POLINOMIO MINIMO

Proof. Dal Teorema di Cayley-Hamilton della Sezione 11.2 segue che il polinomiominimo di f divide il polinomio caratteristico di f . Quindi ogni radice di µf eanche radice del polinomio caratteristico. La direzione opposta segue dal seguenteragionamento. Siano λ1, . . . , λk gli autovalori distinti di f e sia vi un autovettore diautovalore λi (i = 1, . . . , k). Sia v1, . . . ,vk,vk+1, . . . ,vn una base di V . Allora, perun opportuno polinomio g, si ha:

µf = (t− λ1)(t− λ2) . . . (t− λk)g,

perche dal Corollario 11.3.2 µf = mcm(µv1f , . . . , µ

vkf , µ

vk+1

f . . . , µvnf ) e mcm(µv1

f , . . . , µvkf ) =

(t− λ1)(t− λ2) . . . (t− λk).

11.3.1 Diagonalizzabilita

Lemma 11.3.5. Siano p e q polinomi relativamente primi. Allora Np(f) ∩Nq(f) = ∅.

Proof. Per ipotesi esistono polinomi r, s tali che rp+sq = 1. Allora r(f)◦p(f)+s(f)◦q(f) = idV . L’esistenza di v ∈ Np(f)∩Nq(f) contraddice l’identita precedente.

Lemma 11.3.6. Sia µf = pm11 . . . pmkk la fattorizzazione del polinomio minimo in

polinomi irriducibili distinti pi. Allora

V = Npm11 (f)⊕ · · · ⊕Npmkk (f).

Proof. Il fatto che µf (f) = 0 significa che la composizione

g = pm11 (f) ◦ · · · ◦ pmkk (f)

degli operatori lineari pmii (f) e l’operatore nullo. Allora si ha

dim V = dim Ng ≤ dim Npm11 (f) + · · ·+ dim Npmkk (f)

Siccome dal Lemma 11.3.5 Npmii (f) ∩Npmjj (f) = ∅ per ogni i 6= j, ed n e la sommadelle dimensioni dei sottospaziNpmii (f), allora la somma diretta deiNpmii (f) coincidecon V .

Theorem 11.3.7. f e diagonalizzabile sse il polinomio minimo di f e scomponibilein fattori lineari e ciascuna radice di µf ha molteplicita 1.

11.3. COME CALCOLARE IL POLINOMIO MINIMO 151

Proof. Se f e diagonalizzabile, allora V ha una base di autovettori di f . La conclu-sione segue dal Corollario 11.3.2 considerando che µv

f = t − λ per ogni autovettoredi autovalore λ.

Viceversa, sia µf = (t − λ1)(t − λ2) . . . (t − λk) il polinomio minimo di f , doveλ1, . . . , λk sono gli autovalori distinti di f . Da µf (f) = 0 e dal lemma precedentesegue che n e la somma delle dimensioni degli autospazi Eλi , che coincide con ladimensione della somma diretta degli autospazi. Abbiamo quindi una base di au-tovettori, ed f e diagonalizzabile.

Example 96. Siano f(e1) = e1, f(e2) = −e2, f(e3) = e4 e f(e4) = e3. La matricedi f rispetto alla base canonica non e triangolare superiore:

A =

1 0 0 00 −1 0 00 0 0 10 0 1 0

Calcoliamo il polinomio caratteristico di A: pf = (t−1)2(t+1)2. L’autospazio E1 hadimensione 2 con base i vettori e1 e e3+e4, cosı come l’autospazio E−1 ha dimensione2 con base e2 e e3 − e4. Quindi l’operatore lineare f e diagonalizzabile.

Il polinomio minimo µf di f , che divide pf , e µf = (t− 1)(t+ 1) perche abbiamo:

• (f − 1)(f + 1)(e3) = (f − 1)(e4 + e3) = e3 + e4 − e4 − e3 = 0;

• (f − 1)(f + 1)(e4) = (f − 1)(e3 + e4) = e4 + e3 − e3 − e4 = 0.

Moreover, (f − 1)2(ae1 + ce3 + ce4) = (f − 1)(−2be2 + (c − d)e4 + (d − c)e3) =4be2 + (c− d)e3 + (d− c)e4 − (c− d)e4 − (d− c)e3

E21 = E1

1 e E2−1 = E1

−1

Example 97. Siano f(e1) = e1, f(e2) = e1 + e2 e f(e3) = e2 + e3. La matrice di frispetto alla base canonica e triangolare superiore:

A =

1 1 00 1 10 0 1

e1 e un 1-autovettore di autovalore 1, mentre e2 e un 2-autovettore di autovalore 1e e3 e un 3-autovettore di autovalore 1:

• (f − 1)2(e2) = (f − 1)(e1 + e2 − e2) = (f − 1)(e1) = 0;

• (f − 1)3(e3) = (f − 1)2(e2 + e3 − e3) = (f − 1)2(e2) = 0.

152 CHAPTER 11. DIAGONALIZZABILITA E POLINOMIO MINIMO

11.3.2 Teorema di Sturm

Come facciamo a sapere che il polinomio minimo non ha radici multiple senza calco-lare le radici di µf? Applichiamo il seguente Teorema.

Theorem 11.3.8. Sia p ∈ K[t] un polinomio e dpdt

la sua derivata. Allora le seguenticondizioni sono equivalenti:

1. p ha una radice multipla;

2. p e dpdt

hanno una radice comune;

3. Il massimo comun divisore di p e dpdt

ha una radice in K.

Dal Teorema 11.3.7 si ricavano i seguenti due criteri di diagonabilizzabilita.

Corollary 11.3.9. Sia V uno spazio vettoriale complesso. Un operatore linearef : V → V e diagonalizzabile sse il massimo comun divisore di µf e

dµfdt

e 1.

Nel caso del campo reale abbiamo:

Corollary 11.3.10. Sia V uno spazio vettoriale reale di dimensione n. Un oper-atore f : V → V e diagonalizzabile sse il massimo comun divisore di µf e

dµfdt

e 1,e µf ha n radici in R.

Per sapere se un operatore reale ha tutte le radici in R bisogna applicare unteorema di Sturm che esemplifichiamo con un esempio.

Example 98. Sia f : R3 → R3 l’operatore dato dalla matrice1 −1 −11 −2 10 1 −3

Calcoliamo il polinomio minimo di f tramite il calcolo di µe1 :

f(e1) =

110

; f 2(e1) =

0−11

; f 3(e1) =

03−4

= −4f 2(e1)− f(e1) + e1.

Allora µe1 = t3 + 4t2 + t− 1. Siccome il grado del polinomio minimo e ≤ 3, si ha cheµV = t3 + 4t2 + t− 1. Calcoliamo la derivata µ′V = 3t2 + 8t+ 1 di µV e consideriamola sequenza p0 = t3 + 4t2 + t− 1 e p1 = 3t2 + 8t+ 1.......

Chapter 12

Forma canonica di Jordan

Questo capitolo e rivolto agli studenti della laurea magistrale.

Per scoprire se una matriceA di ordine n a coefficienti nel campo K e triangolabile,dobbiamo verificare se il polinomio caratteristico ha n radici nel campo K con ladovuta molteplicita. Se l’ordine di A e grande non e semplice trovare le radici delpolinomio caratteristico di A. In questa capitolo presentiamo: (1) Un test effettivoche permette di verificare la triangolabilita di una matrice A senza calcolarne gliautovalori; (2) La forma canonica di Jordan per matrici triangolabili.

12.1 Autovettori di periodo k

Sia V uno spazio vettoriale sul campo K ed f : V → V un operatore lineare.Ricordiamo che un sottospazio vettoriale X di V e f -invariante se f(X) ⊆ X.

Si definisce (f − λ)k = (f − λ) ◦ · · · ◦ (f − λ) con k occorrenze di f − λ.

Definition 12.1.1. Sia λ uno scalare. Il vettore v ∈ V e chiamato autovettoregeneralizzato se v ∈ N(f − λ)k per qualche k ≥ 0.

Il minimo k tale che v ∈ N(f − λ)k e chiamato il periodo di v. Se non vi epericolo di confusione, scriveremo “autovettore di periodo k” al posto di “autovettoregeneralizzato di periodo k”.

Gli autovettori di periodo 1 coincidono con gli autovettori della Definizione 10.1.1.Il vettore nullo 0 e l’unico autovettore di periodo 0.

Il sottospazio Ek = N(f − λ)k di V e chiamato k-autospazio (di autovalore λ).Si ha Ei ⊆ Ek per ogni i ≤ k.

153

154 CHAPTER 12. FORMA CANONICA DI JORDAN

Lemma 12.1.1. µvf = (t − λ)k per ogni autovettore v di periodo k relativo

all’autovalore λ. Si ha quindi µEk

f = (t − λ)k (e il polinomio (t − λ)k divide ilpolinomio minimo di f).

Proof. Da (t − λ)k ∈ Ivf segue che µvf divide (t − λ)k. Quindi, µv

f = (t − λ)i per uncerto i ≤ k. Se i < k, allora il periodo di v e minore di k. Assurdo. Si ha inoltreµE

k

f = mcm(v1, . . . ,vr) = (t− λ)k per una base v1, . . . ,vr di Ek, perche almeno unodei vi ha periodo k.

Lemma 12.1.2. Sia f : V → V un operatore lineare di uno spazio vettoriale didimensione finita e sia λ 6= 0 uno scalare.

1. Se v 6= 0 ha periodo i, allora il vettore fv e diverso dal vettore nullo ed haanch’esso periodo i, mentre il vettore (f − λ)v ha periodo i− 1.

2. La funzione f|Ek e un isomorfismo lineare da Ek in Ek che estende f|Ei, perogni i < k.

Proof. (1) Se fv = 0 allora 0 = (f − λ)iv = (−1)iλiv, che contraddice l’ipotesiv 6= 0.

Da questa catena di uguaglianze

(f − λ)i(fv) = ((f − λ)i ◦ f)v = f ◦ (f − λ)iv = f0 = 0

segue che il periodo di fv e ≤ i. Se fosse (f−λ)i−1(fv) = 0 allora f((f−λ)i−1v) = 0.Ma (f−λ)i−1v e un autovettore di periodo 1 per cui f((f−λ)i−1v) = λ(f−λ)i−1v 6=0. La contraddizione dimostra che il periodo di fv e ≥ i.

(2) e conseguenza di (1).

Sia Ek il k-autospazio dell’autovalore λ (λ puo essere uguale a 0). Si definiscefacilmente una base B di Ek tale che

• B =⋃ki=1Bi;

• Bi e una base di Ei;

• B1 ⊆ B2 ⊆ · · · ⊆ Bk;

• Gli elementi di Bi \Bi−1 hanno periodo i.

12.2. TRIANGOLABILITA 155

Lemma 12.1.3. B e una base di Ek rispetto alla quale l’operatore lineare f|Ek :Ek → Ek e rappresentato da una matrice triangolare superiore.

Proof. Per ogni v ∈ Bi\Bi−1, dal Lemma 12.1.2 si ha che fv−λv ∈ Ei−1 ha periodoi− 1; cosı si scrive come combinazione lineare degli elementi della base Bi−1.

12.2 Triangolabilita

Lemma 12.2.1. Se V e finito dimensionale, esiste un unico k ≥ 0 tale che lesequenze di insiemi

{0} = E0 ( E1 ( · · · ( Ek−1 ( Ek = Ek+1 = Ek+2 = . . .

divengono stabili da k in poi. Questo valore k si chiama λ-periodo di f e loindicheremo con mλ (oppure m quando λ e chiaro dal contesto).

Proof. Se v ∈ N(f − λ)i, allora v ∈ N(f − λ)i+r per ogni r ≥ 0. V e uno spaziofinito dimensionale, quindi la successione di autospazi generalizzati E0 ⊆ E1 ⊆ . . .diviene stabile.

Lemma 12.2.2. Siano λ, ρ autovalori distinti di f e siano mλ e mρ rispettivamenteil λ-periodo e ρ-periodo di f . Allora, Emλ ∩ Emρ = {0}.

Proof. I polinomi (t−λ)mλ e (t−ρ)mρ sono primi tra loro. Quindi esistono polinomip e q tali che p(t− λ)mλ + q(t− ρ)mρ = 1. Se v ∈ Emλ ∩Emρ , allora v = p(f) ◦ (f −λ)mλ(v) + q(f) ◦ (f − ρ)mρ(v) = p(f)0 + q(f)0 = 0.

Siano λ1, . . . , λk gli autovalori distinti di f . Dal Lemma 12.2.2 possiamo definirelo spazio vettoriale

E = Emλ1 ⊕ · · · ⊕ Emλk .

Lemma 12.2.3. µEf = (t− λ1)mλ1 . . . (t− λk)mλk .

Proof. Dalla Proposizione 11.3.1 e dal Lemma 12.1.1 abbiamo che il polinomio µEf =(t− λ1)mλ1 . . . (t− λk)mλk e il polinomio minimo di IEf .

156 CHAPTER 12. FORMA CANONICA DI JORDAN

Una matrice in forma triangolare a blocchi e una matrice triangolare superiore

A =

B1 0B2

B3

. . .

Bk−10 Bk

dove B1, . . . , Bk sono matrici quadrate triangolari superiori di ordine rispettivamenteo1, . . . , ok.

Example 99. La matrice

A =

1 1 0 00 2 0 00 0 1 00 0 0 5

e in forma triangolare a blocchi con B1 =

[1 10 2

]e B2 =

[1 00 5

].

Lemma 12.2.4. Sia E = Emλ1 ⊕ · · · ⊕ Emλk . L’operatore lineare f|E : E → E erappresentato da una matrice triangolare superiore con k blocchi.

Lemma 12.2.5. Sia f : V → V un operatore lineare e siano λ1, . . . , λk i suoiautovalori distinti. Se µf = (t− λ1)s1 . . . (t− λk)sk allora, per ogni 1 ≤ i ≤ k, si euguale al λi-periodo mλi di f .

Proof. Se v ∈ N(t − λi)mλi dal Lemma 12.1.1 si ha µv

f = (t − λi)mλi . Infine dal

Corollario 11.3.2 µvf divide µf . Quindi si ≥ mλi . Dimostriamo che si ≤ mλi . Da

µf (f) = 0 segue che la composizione

g = (f − λ1)s1 ◦ (f − λ2)s2 ◦ · · · ◦ (f − λk)sk

delle applicazioni lineari (f − λi)si e l’applicazione lineare nulla. Allora si ha

dim V = dim Ng ≤ dim N(f − λ1)s1 + · · ·+ dim N(f − λk)sk= dim N(f − λ1)mλ1 + · · ·+ dim N(f − λk)mλk da si ≥ mλi

QuindiV = N(f − λ1)mλ1 ⊕ · · · ⊕N(f − λk)mλk

12.3. FORMA DI JORDAN 157

Abbiamo quindi una base di autovettori generalizzati. Siano wi1, . . . ,w

iri

tutti glielementi di questa base che sono autovettori generalizzati relativi all’autovalore

λi. Ciascun elemento wij ha periodo kj ≤ mλi per cui µ

wij

f = (t − λi)kj . Da

mcm(µwi

1f , . . . , µ

wiri

f ) = (t− λi)ni con ni ≤ fλi , ricaviamo si ≤ mλi .

Theorem 12.2.6. Sia f : V → V un operatore lineare e siano λ1, . . . , λk i suoiautovalori distinti. Le condizioni seguenti sono equivalenti per f :

(i) f e triangolabile a blocchi;

(ii) V ammette una base di autovettori generalizzati di f ;

(iii) µf = (t− λ1)mλ1 . . . (t− λk)mλk , dove mλi e il λi-periodo di f .

Proof. (i) ⇒ (iii) Se f e triangolabile, allora il polinomio caratteristico di f e scom-ponibile in fattori lineari: pf = (t − λ1)

r1 . . . (t − λk)rk . Dal Teorema di Cayley-

Hamilton e dal Corollario 11.3.4 si ha che µf = (t − λ1)s1 . . . (t − λk)sk con si ≤ ri.Dal Lemma 12.2.5 si ha la conclusione.

(iii) ⇒ (ii) segue dal Lemma 11.3.6.(ii) ⇒ (iii) Sia v1, . . . ,vn una base di autovettori generalizzati. Dal Corollario

11.3.2 si ha µf = mcm(µv1f , µ

v2f , . . . , µ

vnf ) = (t − λ1)

s1(t − λ2)s2 . . . (t − λk)

sk . Laconclusione segue dal Lemma 12.2.5.

(iii) ⇒ (i) Da µf (f) = 0 si ha

dim V = dim N(µf (f)) ≤ dim N(f − λ1)mλ1 + · · ·+ dim N(f − λk)mλk

da cui segue V = Emλ1 ⊕ · · · ⊕ Emλk . La conclusione e conseguenza del Lemma12.2.4.

12.3 Forma di Jordan

Lemma 12.3.1. Se v e un autovettore di periodo k relativo all’autovalore λ, allorai vettori v, fv, . . . , fk−1v, che hanno tutti periodo k, sono linearmente indipendenti.

Proof. Dimostriamo che i vettori f iv (0 ≤ i < k) sono linearmente indipendenti. Sea0v+a1fv+· · ·+ak−1fk−1v = 0, allora il polinomio q = a0+a1t+· · ·+ak−1tk−1 ∈ Ivf .

Da (t − λ)k ∈ Ivf , il massimo comun divisore h di q e (t − λ)k verifica h(f)v = 0.

Poiche h ha grado ≤ k − 1 e divide (t − λ)k, si deduce che h = (t − λ)i con i < k.

158 CHAPTER 12. FORMA CANONICA DI JORDAN

Quest’ultima relazione contraddice l’ipotesi che il periodo di v e k. Quindi i vettorisono linearmente indipendenti. Dal Lemma 12.1.2 f iv ha periodo k per ogni i ≤k.

Se v ha periodo k, allora Ekv denota il sottospazio vettoriale Span(v, fv, . . . , fk−1v)

di Ek.

Lemma 12.3.2. Sia v un autovettore di periodo k. Allora Ekv e f -invariante ed

ha anche i vettori (f − λ)k−1v, . . . , (f − λ)2v, (f − λ)v,v come base.

Proof. Che i vettori (f−λ)iv (0 ≤ i < k) siano linearmente indipendenti si dimostracome nel lemma precedente.

I vettori costituiscono una base di Ekv, perche lo spazio Ek

v ha dimensione k e(f − λ)jv ∈ Ek

v in quanto (f − λ)j =∑j

i=0 cifiv ∈ Ek

v per opportuni scalari ci.Infine lo spazio Ek

v e f -invariante, perche f(fk−1v) = fkv si scrive come combi-nazione lineare di v, fv, . . . , fk−1v utilizzando la relazione (f − λ)kv = 0.

La sequenza (f −λ)k−1v, . . . , (f −λ)2v, (f −λ)v,v e detta λ-ciclo di ordine k. Ilvettore (f − λ)k−1v, che e un 1-autovettore, e chiamato generatore sinistro del ciclomentre il vettore v generatore destro del ciclo.

La matrice Jk(λ) che rappresenta f|Ekv rispetto alla base del Lemma 12.3.2 ha unaforma particolarmente semplice. La colonna i+ 1 di Jk(λ) coincide con le coordinatedella f -immagine del vettore (f − λ)iv rispetto alla base di Ek

v del Lemma 12.3.2:

f ◦ (f − λ)iv = (f − λ+ λ) ◦ (f − λ)iv = (f − λ)i+1v + λ(f − λ)iv

Jk(λ) =

λ 1 0 . . . 0 00 λ 1 . . . 0 00 0 λ . . . 0 0...

...... . . .

......

0 0 0 . . . 1 00 0 0 . . . λ 10 0 0 . . . 0 λ

La matrice Jk(λ) e chiamata blocco di Jordan di ordine k. Il suo polinomio caratter-istico e (t− λ)k, ed ha λ come unico autovalore con molteplicita algebrica k.

Lemma 12.3.3. La molteplicita geometrica dell’autovalore λ rispetto all’operatoref|Ekv e 1 con autovettore (f − λ)k−1v.

12.3. FORMA DI JORDAN 159

Quindi Jk(λ) e diagonalizzabile sse k = 1.

Una matrice in forma canonica di Jordan e una matrice

J =

J1(λ1) 0. . .

0 Jk(λk)

dove Ji(λi) e un blocco di Jordan di autovalore λi.

Lemma 12.3.4. Siano γ1, . . . , γk λ-cicli. Supponiamo che γi abbia periodo ri e siagenerato dall’ 1-autovettore (f −λ)ri−1vi (i = 1, . . . , k). Se (f −λ)r1−1v1, . . . , (f −λ)rk−1vk sono linearmente indipendenti, allora anche tutti i vettori di γ1 ∪ · · · ∪ γksono linearmente indipendenti.

Proof. La prova e per induzione sul massimo s dei periodi. Se s = 1 non vi enulla da provare. Supponiamo che l’insieme γ1 ∪ · · · ∪ γk = {w1, . . . ,wt} sia linear-mente dipendente, cioe esistono scalari tali che a1w1 + · · · + atwt = 0. Applicandol’operatore (f − λ)s−1 si ottiene una combinazione lineare nulla dei generatori conperiodo massimo s. Dall’ipotesi segue che gli scalari ai associati a questi vettori sonoidenticamente nulli. Gli altri scalari aj sono nulli applicando l’ipotesi d’induzioneai λ-cicli γ′1, . . . , γ

′k, dove γ′i = γi se il generatore di γi non ha periodo massimo s,

mentre γ′i = γi \ {vi} se γi ha periodo massimo s. In quest’ultimo caso il periodo diγ′i e s− 1.

Costruiamo una base di Emλ come segue. Sia gi = [(f −λ)i]|Ei+1 per 0 ≤ i < mλ.L’operatore lineare gi : Ei+1 → E1 ha nucleo Ngi = Ei e immagine Rgi ⊆ E1. Sinoti che Rgi = gi[E

i+1 \ Ei] e l’immagine in E1 degli elementi di periodo i+ 1.Dalla commutativita del seguente diagramma

E1gi−1←−−− Ei f−λ←−−− Ei+1 gi−−→ E1

si ha che Rgi ⊆ Rgi−1 e

Rgmλ−1 ⊆ Rgmλ−2 ⊆ · · · ⊆ Rg1 ⊆ Rg0 = E1.

Consideriamo una base B di E1 tale che B =⋃mλ−1i=0 Bi, Bi ⊇ Bj per i < j, Bi base

di Rgi ed infine Bi \Bi+1 ⊆ Rgi \Rgi+1.Sia v un vettore della base B e sia v ∈ Bi \ Bi+1. Allora esiste un vettore w

di periodo i + 1 tali che v = (f − λ)iw. Costruiamo un ciclo γ di ordine i + 1

160 CHAPTER 12. FORMA CANONICA DI JORDAN

tale che γ = {v = (f − λ)iw, . . . , (f − λ)2w, (f − λ)w,w} e generato a sinistra dav. Proseguiamo allo stesso modo per ogni vettore della base B. Otteniamo tanticicli quanti sono i vettori della base B. Tutti i vettori presenti in questi cicli sonolinearmente indipendenti dal Lemma 12.3.4. Proviamo ora per induzione sul periodoche questi vettori formano una base di Emλ . Ogni elemento di E1 e combinazionelineare di elementi della base B e quindi dei cicli. Supponiamo che ogni elementodi periodo r sia combinazione lineare di vettori presenti nei cicli e consideriamoun elemento u di Emλ di periodo r + 1. Allora gru ∈ Rgr ⊆ E1 si scrive comecombinazione lineare di elementi della base Br di Rgr:

gru = a1s1 + · · ·+ atst, s1, . . . , st ∈ Br.

Siano γ1, . . . , γt i cicli generati a sinistra rispettivamente da s1, . . . , st. Sianov1, . . . ,vt i generatori a destra dei cicli γ1, . . . , γt, cioe si ha:

γj = {sj = gpjvj, . . . , g2vj, g1vj, g0vj = vj}.

Allora pj ≥ r + 1 perche Rgr ⊇ Rgr+1 ⊇ · · · ⊇ Rgmλ−1. Consideriamo la combi-nazione lineare q = u − (a1gp1−rv1 + · · · + atgpt−rvt). Proviamo che q ha periodominore di r + 1:

gr(u)− a1gr(gp1−rv1) + · · ·+ atgr(gpt−rvt) = gru− (a1s1 + · · ·+ atst) = 0.

Quindi per ipotesi d’induzione ricaviamo la tesi, perche per ipotesi di induzioneu− (a1gp1−rv1 + · · ·+ atgpt−rvt) si scrive come combinazione lineare di elementi deicicli della base B.

Chapter 13

Il Teorema Spettrale

13.1 Matrici simmetriche e teorema spettrale

In questa sezione Rn e lo spazio vettoriale di riferimento.

Definition 13.1.1. Un operatore lineare f : Rn → Rn e simmetrico se la matrice dif rispetto alla base canonica e simmetrica.

Proposition 13.1.1. Sia f : Rn → Rn un operatore lineare. Allora le seguenticondizioni sono equivalenti:

(i) f e simmetrico;

(ii) f(x) · y = x · f(y) per ogni vettore x e y;

(iii) La matrice di f rispetto ad una qualsiasi base ortonormale e simmetrica.

Proof. Sia v1, . . . ,vn una base ortonormale. Sia A = (aij) la matrice di f rispettoalla data base e siano x = x1v1 + · · ·+ xnvn, y = y1v1 + · · ·+ ynvn due vettori. DalLemma 7.4.1 si ha:

x · f(y) = [x1 . . . xn]A[y1 . . . yn]T (13.1)

ef(x) · y = [y1 . . . yn]A[x1 . . . xn]T

= ([y1 . . . yn]A[x1 . . . xn]T )T

= [x1 . . . xn]AT [y1 . . . yn]T(13.2)

(iii) ⇒ (i) Ovvia.

161

162 CHAPTER 13. IL TEOREMA SPETTRALE

(i) ⇒ (ii) Segue da (13.1) e (13.2) considerando che la matrice A e simmetrica(i.e., A = AT ).

(ii) ⇒ (iii) Sia v1, . . . ,vn una base ortonormale. Sia A = (aij) la matrice di frispetto alla data base e siano x = x1v1 + · · · + xnvn, y = y1v1 + · · · + ynvn duevettori. Da (13.1), (13.2) e l’ipotesi si ha:

[y1 . . . yn]A[x1 . . . xn]T = [x1 . . . xn]AT [y1 . . . yn]T .

Scegliendo opportunamente x e y si verifica che A e simmetrica. Per esempio, sex2 = 1, y1 = 1, xj = 0 (j 6= 2) e yk = 0 (k 6= 1), allora [0, 1, 0, . . . , 0]A = A2 selezionala seconda riga di A, mentre [0, 1, 0, . . . , 0]AT = A2 seleziona la seconda colonna diA. Moltiplicando scalarmente per [1, 0, . . . , 0]T da (13.2) ricaviamo a21 = a12.

Theorem 13.1.2. (Teorema Spettrale) Le seguenti condizioni sono equivalenti perun operatore lineare f : Rn → Rn:

(i) f e simmetrico;

(ii) Esiste una base ortonormale costituita da autovettori di f ;

(iii) La matrice di f rispetto alla base canonica e diagonalizzabile.

Proof. (ii) ⇒ (i) La matrice di f rispetto ad una base di autovettori e diagonale,quindi simmetrica. La conclusione segue dalla Proposizione 13.1.1.

(i) ⇒ (ii) Limitiamo la prova alle dimensioni n = 2, 3. Analizziamo prima il cason = 2. Dalla Proposizione 13.1.1 la matrice A di f rispetto alla base canonica esimmetrica:

A =

[a bb c

]Se b = 0, la matrice A e diagonale e le colonne A1, A2 costituiscono una base ortog-onale di autovettori. Dividendo entrambi i vettori per la loro lunghezza otteniamouna base ortonormale di autovettori. Supponiamo quindi b 6= 0. Il polinomio carat-teristico di A e: λ2 − (a+ c)λ+ (ac− b2) = 0, da cui si ricava:

λ =(a+ c)±

√(a+ c)2 − 4ac+ b2

2=

(a+ c)±√

(a− c)2 + b2

2

Quindi abbiamo due radici λ1 e λ2 reali e distinte. Dalla Proposizione 10.2.1 dueautovettori a di λ1 e b di λ2 sono linearmente indipendenti e costituiscono una base

13.1. MATRICI SIMMETRICHE E TEOREMA SPETTRALE 163

di R2. Dall’ipotesi che f e simmetrico si ha λ1(a·b) = (λ1a)·b = f(a)·b = a·f(b) =a · (λ2b) = λ2(a · b), che implica a · b = 0.

Analizziamo ora il caso n = 3. Sia A la matrice simmetrica di f rispetto allabase canonica. Il polinomio caratteristico di f e di terzo grado e quindi ammette unaradice reale λ1. Sia v = v1e1 +v2e2 +v3e3 un autovettore di λ1 di lunghezza unitaria(cioe, f(v) = λv e ‖v‖ = 1). Consideriamo il piano v⊥ ortogonale a v di equazionev1x + v2y + v3z = 0. Siano w1,w2 ∈ v⊥ due vettori del piano, ortogonali tra loro edi lunghezza unitaria. Allora, i vettori v,w1,w2 costituiscono una base ortonormaledi R3. Dalla Proposizione 13.1.1 la matrice B di f rispetto alla base v,w1,w2 esimmetrica. Inoltre, per i = 1, 2, si ha: 0 = λ1(v · wi) = f(v) · wi = v · f(wi).Quindi f(wi) e ortogonale a v, da cui si ricava f(v⊥) ⊆ v⊥. Quindi, da f(v) = λ1v,f(w1) = aw1 + bw2 e f(w2) = dw1 + cw2 si ricava

B =

λ1 0 00 a b0 d c

Infine dalla simmetria di B si ha b = d, per cui

B =

λ1 0 00 a b0 b c

Se b = 0, la matrice B e diagonale e dal Lemma 10.5.2 v,w1,w2 costituisconouna base di autovettori. Supponiamo b 6= 0. Il polinomio caratteristico di B e:(λ− λ1)(λ2 − (a+ c)λ+ (ac− b2)). Quindi B, oltre all’autovalore λ1 gia conosciuto,ha due autovalori reali distinti (si veda il caso n = 2) λ2 e λ3. Consideriamo unautovettore ti di λi (i = 2, 3) di lunghezza unitaria. Allora come nel caso n = 2, siottiene λ2(t2 · t3) = f(t2) · t3 = t2 · f(t3) = λ3(t2 · t3), da cui t2 · t3 = 0. La base diautovettori e v, t2, t3.

Corollary 13.1.3. Sia A una matrice quadrata di ordine n a coefficienti reali. Allorale seguenti condizioni sono equivalenti:

(i) A e simmetrica;

(ii) Esiste una base ortonormale di Rn costituita da autovettori di A;

(iii) Esiste una matrice ortogonale U (cioe, le colonne U1, . . . , Un di U costituisconouna base ortonormale di Rn) tale che UTAU e diagonale.

164 CHAPTER 13. IL TEOREMA SPETTRALE

13.2 Isometrie lineari

Una isometria lineare e un isomorfismo lineare f : Rn → Rn che preserva il prodottointerno dei vettori: f(x) · f(y) = x · y e quindi anche la lunghezza dei vettori. SiaA la matrice della isometria lineare rispetto alla base canonica costituita dai vettoricolonna e1, . . . , en di Rn. Da f(ei) = Aei = Ai (la colonna i della matrice A) siricava che ‖Ai‖ = 1. Inoltre, per i 6= j, si ha: 0 = ei · ej = f(ei) · f(ej) = Ai · Aj.Quindi la matrice A e ortogonale, la sua inversa A−1 = AT e la matrice trasposta edet(A) = ±1.

13.2.1 Rotazioni e simmetrie assiali del piano

Consideriamo il piano cartesiano con la base canonica e1 = [1, 0] e e2 = [0, 1].Una isometria lineare e determinata (rispetto alla base canonica) da una matriceortogonale

A =

[a cb d

]

Rotazioni del piano

Analizziamo prima il caso in cui det(A) = 1. Valgono le seguenti proprieta: a2+b2 =1, c2 + d2 = 1, ac+ bd = 0 ed infine ad− bc = 1. Le colonne di A costituiscono unabase ortonormale ed inoltre l’orientazione di questa base coincide con quella canonicae1, e2, perche il determinante di A e 1. Se utilizziamo le coordinate polari, esiste unangolo θ tale che [a, b] = [cos θ, sin θ] e [c, d] = [cos(θ+ π

2), sin(θ+ π

2)] = [− sin θ, cos θ].

Quindi la matrice A e uguale a

A =

[cos θ − sin θsin θ cos θ

].

La matrice A corrisponde ad una rotazione Rθ in senso antiorario di un angolo θ. Ilvettore e1 viene trasformato nel vettore

Rθ(e1) = (cos θ)e1 + (sin θ)e2,

mentre il vettore e2 viene trasformato nel vettore

Rθ(e2) = (− sin θ)e1 + (cos θ)e2 = cos(θ + π/2)e1 + sin(θ + π/2)e2.

13.2. ISOMETRIE LINEARI 165

Ogni rotazione e invertibile. La matrice inversa, che corrisponde ad una rotazioneoraria di un angolo θ, e la sua trasposta:[

cos θ sin θ− sin θ cos θ

]=

[cos(−θ) cos(π

2− θ)

sin(−θ) sin(π2− θ)

]Vi e una corrispondenza bigettiva tra rotazioni e matrici[

a b−b a

]con determinante a2 + b2 = 1.

Si ricorda che un altro modo di rappresentare le rotazioni e con la moltiplicazionedei numeri complessi. Se z = cos θ + i sin θ e v = v1 + v2i, allora

zv = (v1 cos θ − v2 sin θ) + (v1 sin θ + v2 cos θ)i,

che corrisponde alla moltiplicazione di matrici:[cos θ − sin θsin θ cos θ

] [v1v2

]=

[v1 cos θ − v2 sin θv1 sin θ + v2 cos θ

]La matrice A della rotazione di angolo θ 6= 0 ammette autovalori reali soltanto

per l’angolo θ = π: ∣∣∣∣cos θ − λ − sin θsin θ cos θ − λ

∣∣∣∣ = (cos θ − λ)2 + sin θ2

(cos θ − λ)2 + sin θ2 = 0 sse θ = π. In tal caso l’autovalore λ = −1 e doppio.

Riflessioni (Simmetrie assiali) lineari del piano

Se la matrice

A =

[a cb d

].

ha determinante uguale a −1, allora le colonne di A corrispondono ad una baseortonormale con orientazione diversa da quella della base canonica e1, e2. Quindiesiste un angolo θ tale che [a, b] = [cos θ, sin θ] e [c, d] = [cos(θ − π

2), sin(θ − π

2)] =

[sin θ,− cos θ]. Quindi la matrice A e uguale a

A =

[cos θ sin θsin θ − cos θ

]

166 CHAPTER 13. IL TEOREMA SPETTRALE

ed e simmetrica. Quindi, essendo ortogonale, abbiamo AA = I2.Calcoliamo gli autovalori della matrice A:∣∣∣∣cos θ − λ sin θ

sin θ − cos θ − λ

∣∣∣∣ = (λ− cos θ)(λ+ cos θ)− sin θ2 = λ2 − 1

L’equazione λ2 − 1 = 0 ammette come soluzioni λ = ±1. Quindi esistono due retteR1 e R2 passanti per l’origine e perpendicolari tra di loro con le seguenti proprieta:la prima retta R1 e l’autospazio dell’autovalore λ = 1, mentre la seconda retta R2 el’autospazio dell’autovalore λ = −1. La matrice A agisce sulla prima retta R1 comela matrice identica, mentre agisce sulla seconda retta R2 mandando ogni vettore vche ha la direzione di R2 in −v.

La trasformazione lineare determinata dalla matrice A si chiama riflessione (sim-metria assiale) lineare di asse la retta R1 passante per l’origine. La trasformazionegeometrica lascia invariata la retta R1 e associa ad ogni punto P del piano non ap-partenente ad R1 il punto Q in modo tale che il segmento PQ sia perpendicolare allaretta R1 e abbia come punto medio H, che e il piede della perpendicolare condottada P a R1.

Il prodotto di due riflessioni lineari A e B e una rotazione, perche det(AB) =det(A)det(B) = (−1)(−1) = 1.

Example 100. Una riflessione lineare attorno all’asse delle y si rappresenta con lamatrice [

−1 00 1

]Infatti, [

−1 00 1

] [0y

]=

[0y

];

[−1 0

0 1

] [x0

]=

[−x

0

]mentre per ogni altro vettore: [

−1 00 1

] [32

]=

[−3

2

]Example 101. La matrice ortogonale:[

0 11 0

]rappresenta la riflessione lineare rispetto alla bisettrice y = x:[

0 11 0

] [xy

]=

[yx

]

13.2. ISOMETRIE LINEARI 167

Il prodotto delle due riflessioni lineari e una rotazione di un angolo θ = −π2:[

0 11 0

] [−1 0

0 1

]=

[0 1−1 0

]Il prodotto delle due riflessioni lineari in ordine inverso e una rotazione di un angoloθ = π

2: [

−1 00 1

] [0 11 0

]=

[0 −11 0

]Nella parte restante di questa sezione calcoliamo, rispetto alla base canonica

e1, e2, la matrice A di una simmetria assiale lineare rispetto alla retta R che forma unangolo φ con l’asse positivo delle x. Consideriamo il vettore unitario v1 = (cosφ)e1+(sinφ)e2 che giace nella retta R. La retta Q passante per l’origine e perpendicolaread R ha equazione lineare (cosφ)x+ (sinφ)y = 0. Un vettore unitario giacente sullaretta Q e v2 = (sinφ)e1 − (cosφ)e2. La matrice della simmetria assiale rispetto allabase v1,v2 e la matrice diagonale degli autovalori:

B =

[1 00 −1

]Infatti, [1, 0] sono le coordinate del vettore v1 rispetto alla base ortonormale v1,v2,mentre [0, 1] sono le coordinate del vettore v2 rispetto alla base v1,v2.

Per calcolare la matrice A, dobbiamo applicare alla matrice B un cambio di basedalla base canonica e1, e2 alla base v1,v2. Allora abbiamo:

A =

[cosφ sinφsinφ − cosφ

] [1 00 −1

] [cosφ sinφsinφ − cosφ

]=

[cosφ − sinφsinφ cosφ

] [cosφ sinφsinφ − cosφ

]=[

cosφ2 − sinφ2 2 cosφ sinφ2 cosφ sinφ sinφ2 − cosφ2

]=

[cos(2φ) sin(2φ)sin(2φ) − cos(2φ)

]La matrice A e ortogonale con determinante −1. Verifichiamo che AvT1 = vT1 :[

cos(2φ) sin(2φ)sin(2φ) − cos(2φ)

] [cosφsinφ

]=

[cosφ cos(2φ) + sinφ sin(2φ)cosφ sin(2φ)− sinφ cos(2φ)

]Verifichiamo che il vettore ottenuto coincide con vT1 . Per fare questo ci avvaliamo deinumeri complessi e scriviamo v1 = cosφ+i sinφ come numero complesso. Ricordiamodalla Proposizione 1.1.7 che v1v1 = v2

1 = cos(2φ) + i sin(2φ) e che il coniugato di v1

e v1 = cosφ− i sinφ. Allora, si ha (ricordando che la norma |v1| = 1):

v1 = v1|v1|2 = v1v1v1 = (cosφ cos(2φ)+sinφ sin(2φ))+i(cosφ sin(2φ)−sinφ cos(2φ))

ed abbiamo ottenuto la conclusione.

168 CHAPTER 13. IL TEOREMA SPETTRALE

Chapter 14

Applicazioni

14.1 Algoritmo di Google

Questo esempio e la terza lezione nel sito Winter2009/RalucaRemus (che troveretecon un motore di ricerca).

Supponiamo di avere quattro siti web (www.page1.com, www.page2.com, www.page3.com,www.page4.com) con links tra i siti descritti dal seguente grafo: Il nodo 1 ha tre archi

Figure 14.1: Il grafo con archi pesati

uscenti. Cio significa che vi sono nella pagina p1 tre link, il primo diretto alla paginap2, il secondo alla pagina p3 e l’ultimo alla pagina p4. Similmente per gli altri archiuscenti dagli altri nodi.

Supponiamo che un utente si trovi nella pagina p1. Immaginiamo che gli eventi“passa alla pagina p2”, “passa alla pagina p3”, “passa alla pagina p4” siano equiprob-

169

170 CHAPTER 14. APPLICAZIONI

abili. Quindi se un utente si trovera nella pagina p1 vi e una probabilita 13

che passialla pagina p2, e cosı via. Lo stesso discorso si applica per gli altri nodi con probabilitapossibilmente diverse, che dipendono dal numero di links.

Siccome il nodo 1 ha tre archi uscenti, trasferisce un terzo della sua importanza aciascuno dei tre nodi riceventi. In generale, se un nodo ha k archi uscenti, trasferisce1k

della sua importanza a ciascuno dei nodi riceventi.I principi sui quali si basa PageRank sono quindi i seguenti:

• Una pagina importante riceve links da pagine importanti.

• Una pagina importante ha pochi links verso altre pagine.

Questi principi vengono formalizzati nella seguente formula: indicando con r(p) ilrango della pagina web p (cioe la sua importanza relativa) e con |p| il numero di linksdalla pagina p verso altre pagine, abbiamo

r(p) =∑q→p

r(q)

|q|.

In questa formula, la somma e effettuata su tutte le pagine q che hanno un link versop. Il contributo di una pagina q e quindi direttamente proporzionale all’importanza(rango) di q ed inversamente proporzionale al numero di links da q verso altre pagine.

La matrice A di transizione del grafo mette in ciascuna colonna Ai il trasferi-mento di importanza dal nodo i agli altri nodi, mentre ciascuna riga Ai della matricerappresenta l’importanza che il nodo i riceve dagli altri nodi. In altre parole, si ha:

aij =

{1|pj | se esiste un link da pj a pi

0 altrimenti.

e quindi nel nostro esempio abbiamo

A =

0 0 1 1

213

0 0 013

12

0 12

13

12

0 0

La matrice A e invertibile. Sviluppiamo il determinante rispetto alla terza colonna.

det(A) = det(

13

0 013

12

12

13

12

0

=1

3· (−1

4) = − 1

12.

14.2. NUMERI DI FIBONACCI 171

Denotiamo con r =

r(p1)r(p2)r(p3)r(p4)

il rango delle quattro pagine. Allora dobbiamo avere:

Ar =

0 0 1 1

213

0 0 013

12

0 12

13

12

0 0

r(p1)r(p2)r(p3)r(p4)

=

q→p1r(q)|q|∑

q→p2r(q)|q|∑

q→p3r(q)|q|∑

q→p4r(q)|q|

=

r(p1)r(p2)r(p3)r(p4)

In altre parole, il vettore r e un autovettore di autovalore 1. Risolvendo il sistemalineare corrispondente

r(p1) = r(p3) + r(p4)2

r(p2) = r(p1)3

r(p3) = r(p1)3

+ r(p2)2

+ r(p4)2

r(p4) = r(p1)3

+ r(p2)2

si ottiene facilmente che abbiamo una retta di soluzioni c(12, 4, 9, 6) al variare di c.Prendendo il vettore la cui somma delle coordinate e 1 otteniamo

PageRank vector ≡

0.380.120.290.19

In altre parole, la pagina p1 ha importanza 0.38 e cosı via per le altre pagine. Su 100utenti, 38 visiteranno la pagina p1.

Si suggerisce di cercare con un motore di ricerca il file jkhoury/Google.pdf doveviene spiegato in dettaglio l’algoritmo di Google.

14.2 Numeri di Fibonacci

Questo esempio e preso da jkhoury/fibonacci.htmAll’inizio dell’anno abbiamo una coppia di conigli maschio e femmina. Le regole

sono le seguenti: Dopo due mesi ogni coppia produce una coppia mista (maschio,femmina) e da quel momento una nuova coppia mista ogni mese successivo. Nessunconiglio muore.

172 CHAPTER 14. APPLICAZIONI

Figure 14.2: Coppie di conigli e successione di Fibonacci

Indichiamo con Fn il numero di conigli dopo n mesi. Abbiamo:

F0 = 1; F1 = 1; Fn = Fn−1 + Fn−2.

La successione cresce rapidamente. Dopo 55 mesi abbiamo F55 = 139.583.862.445.Esiste un’espressione che ci permette di trovare Fn facilmente? La risposta e

positiva se si conosce il processo di diagonalizzazione di una matrice.Consideriamo la matrice quadrata

A =

[1 11 0

]Allora partendo dal vettore [

F1

F0

]=

[11

]

14.2. NUMERI DI FIBONACCI 173

si ricava che [Fn+1

Fn

]= A

[FnFn−1

]o in altri termini [

Fn+1

Fn

]= AA · · ·A

[11

]= An

[11

](n-volte)

La matrice A e diagonalizzabile, ossia esiste una matrice invertibile P ed una matricediagonale D tale che A = P−1DP da cui si ricava An = P−1DnP . Siccome e facilecalcolare una potenza Dn di una matrice diagonale, e anche facile calcolare An.

Calcoliamo gli autovalori di A, per cui deve essere det(tI2 − A) = 0:

det(tI2 − A) = det(

[t− 1 −1−1 t

]) = t(t− 1)− 1 = t2 − t− 1 = 0.

I due autovalori, soluzione dell’equazione t2 − t− 1 = 0, sono reali:

λ1 =1 +√

5

2; λ2 =

1−√

5

2.

Se il vettore x e un autovettore corrispondente all’autovalore λi (i = 1, 2) alloraabbiamo che Ax = λix, che si puo scrivere come (A − λiI)x = 0, che e un sistema

omogeneo. Risolvendo tale sistema omogeneo si scopre che il vettore w1 = (1+√5

2, 1)

e una base per lo spazio degli autovettori dell’autovalore λ1 = 1+√5

2, mentre il vettore

w2 = (1−√5

2, 1) e una base per lo spazio degli autovettori dell’autovalore λ2 = 1−

√5

2.

Dal Teorema 10.5.5 si ricava che i vettori w1,w2 costituiscono una base di R2.Sempre dal Teorema 10.5.5 si ricava che la matrice i cui vettori colonna sono w1

e w2 e la matrice invertibile che diagonalizza A:

P =

[1+√5

21−√5

2

1 1

]La matrice inversa e

P−1 =

[1√5

−1+√5

2√5

−12√5

1+√5

2√5

]mentre la matrice diagonale D e

D =

[1+√5

20

0 1−√5

2

]

174 CHAPTER 14. APPLICAZIONI

Allora si ha: [Fn+1

Fn

]= An

[11

]= PDnP−1

[11

]=[

1+√5

21−√5

2

1 1

][(1+√5

2)n 0

0 (1−√5

2)n

][1√5

−1+√5

2√5

−12√5

1+√5

2√5

] [11

].

Infine moltiplicando le matrici si ricava:

Fn =1√5

(1 +√

5

2

)n+1

(1−√

5

2

)n+1

Un calcolatore potente in poco tempo calcola F100 = 573147844013817084101.Il numero

φ =1 +√

5

2

e la famosa sezione aurea o divina proporzione. E utilizzato in arte e architetturaper dare simmetria alla rappresentazioni figurative geometriche (si consulti il librodi T. Livio: La sezione aurea, Rizzoli, 2012). Il rettangolo aureo e un rettangolo lecui proporzioni sono basate sulla sezione aurea. Cio significa che il rapporto a

bfra il

lato maggiore a e quello minore b e identico a quello fra il lato minore b e il segmentoa−b ottenuto sottraendo b dal lato maggiore a (il che implica che entrambi i rapportisiano φ). Se abbiamo un rettangolo aureo di lati a e b con a > b > 0 si ha:

φ =a+ b

a=a

b=

b

a− b.

Figure 14.3: Sezione aurea

Siccome φ2 − φ− 1 = 0, si ha anche che φ = 1+φφ

. Cosı il rettangolo di lati φ e 1e un rettangolo aureo.

Si ha anche che il rapporto di due numeri di Fibonacci consecutivi tende allasezione aurea quando l’indice n tende all’infinito.

φ = limn→∞FnFn−1

.

14.3. CRITTOGRAFIA 175

14.3 Crittografia

I caratteri dell’alfabeto italiano sono 26. Aggiungiamo un ulteriore carattere cherappresenta il “blank”, lo spazio vuoto. Codifichiamo questi 27 caratteri con deinumeri arbitrari. Per semplificare i conti riduciamo il numero di caratteri a 11compreso il blank:

A = 345; B = 12438; C = 79; D = 987; E = 30078; F = 675;

G = 5499; I = 9090; O = 555; R = 777; blank = 647.

Allora la frase “GIOCO BARO” viene codificata in maniera elementare dalla seguentesuccessione di numeri:

5499, 9090, 555, 79, 555, 647, 12438, 345, 777, 555

Consideriamo una matrice Z quadrata di ordine n (n molto grande) che sia invert-ibile. Immaginiamo che la matrice Z sia conosciuta soltanto ai due interlocutoriche devono scambiare il messaggio cifrato. Nel nostro esempio per ragioni di spazioprendiamo una matrice 3× 3:

Z =

1 2 34 5 67 8 9

Allora suddividiamo il messaggio con la codifica elementare in vettori di lunghezza3 avendo l’accortezza di aggiungere degli spazi finale per ottenere un multiplo del 3.5499

9090555

, 79

555647

,12438

345777

,555

647647

.Mettiamo tutti questi vettori in una matrice U di dimensione 3× 4

U =

5499 79 12438 5559090 555 345 647555 647 777 647

Consideriamo la matrice prodotto

ZU =

1 2 34 5 67 8 9

5499 79 12438 5559090 555 345 647555 647 777 647

=

176 CHAPTER 14. APPLICAZIONI 25344 3130 15459 379070776 6973 56139 9337116208 10816 96819 14884

Allora i numeri che vengono trasmessi sono

25344, 3130, 15459, 3790, 70776, 6973, 56139, 9337, 116208, 10816, 96819, 14884

Una persona che intercetta i numeri non riesce a decodificare il messaggio, mentre ilricevente semplicemente moltiplica a sinistra la matrice ZU per Z−1 e recupera U .

14.4 Compressione di Immagini

Questa sezione e presa da jkhoury/haar.htm

Figure 14.4: Compressione di immagine con differenti metodi

Consideriamo una immagine digitale come una matrice. Ogni componente dellamatrice corrisponde ad un pixel (elemento elementare della figura). Supponiamo diavere una matrice 256× 256 di pixels con valori di ciascuna componente un numeroda 0 (nero) a 255 (bianco). Nel mezzo varie sfumature di grigio1. La tecnica JPEGdivide l’immagine in blocchi 8× 8 e assegna una matrice ad ogni blocco. Utilizziamol’algebra lineare per massimizzare la compressione dell’immagine.

14.4. COMPRESSIONE DI IMMAGINI 177

Figure 14.5: Metodo JPEG