Diagorto

Scarica in formato pdf o txt
Scarica in formato pdf o txt
Sei sulla pagina 1di 3

0.1.

DIAGONALIZZAZIONE ORTOGONALE 1

0.1 Diagonalizzazione ortogonale


Nello studio della diagonalizzazione di matrici, abbiamo visto che una matrice A `e
diagonalizzabile se e solo se esiste una base di Rn costituita da autovettori per A. In
uno spazio euclideo si rivela utile a volte disporre di una base ortonormale. Possiamo
dunque domandarci se sia possibile ottenere una base ortonormale di autovettori.
Applicare il procedimento di Gram-Schmidt ad una base di autovettori non `e di aiuto
perche i vettori cos` ottenuti cessano, in generale, di essere autovettori. Il risultato
che dimostreremo `e che solo per alcune matrici si pu`o ottenere una base ortonormale
di autovettori, precisamente nel caso delle matrici simmetriche.
Prima di enunciare e dimostrare questo risultato, occorre ricordare il concetto di
matrice ortogonale:
Definizione 0.1.1. Una matrice quadrata P si dice ortogonale se P T = P 1 .
Teorema 0.1.2. Le seguenti condizioni per una matrice quadrata di ordine n sono
equivalenti
(1) P `e ortogonale;
(2) Le colonne di P sono un sistema ortonormale;
(3) Le righe di P sono un sistema ortonormale.
Dimostrazione. Se P `e ortogonale allora P P T = I. Siano r1 , . . . , rn le righe di P .
Lelemento di posto (i, j) della matrice prodotto P P T `e il prodotto scalare delli-
esima riga di P per la j-esima colonna di P T , che non `e altro che la j-esima riga di
P trasposta. Nel calcolare P P T stiamo dunque eseguendo il prodotto scalare delle
righe di P per se stesse. La condizione P P T = I equivale dunque ad affermare che
il prodotto scalare ri ri = 1, mentre ri rj = 0 se i 6= j, cio`e le righe formano un
sistema ortonormale. Un analogo ragionamento pu`o essere fatto per le colonne di P ,
osservando che P T P = I.
Definizione 0.1.3. Una matrice quadrata A si dice ortogonalmente diagonalizzabile
se esiste una matrice ortogonale P tale che P 1 AP = P T AP = D, dove D `e una
matrice diagonale.
Ci occorreranno anche alcune importanti propriet`a delle matrici simmetriche:
Lemma 0.1.4. Assegnati u, v Rn e A matrice simmetrica, sia (x1 , . . . , xn )T la
colonna delle coordinate di v e (y1 , . . . , yn )T la colonna delle coordinate di u. Allora
v Au = Av u.
Dimostrazione. Si ha: v u = x1 y1 + + xn yn = vT u, dove lultima espressione `e
il prodotto di matrici. Abbiamo dunque:
Av u = (Av)T u = vT AT u = vT Au = v Au,
avendo sfruttato la simmetria di A.
Proposizione 0.1.5. Se A `e una matrice simmetrica reale di ordine n, allora tutti
i suoi n autovalori sono reali. Inoltre, se v e u sono due autovettori di A relativi a
due autovalori distinti allora essi sono perpendicolari.
2

Dimostrazione. Sia v un autovettore, eventualmente complesso, di A: Av = v con


C. Vogliamo dimostrare che `e in effetti reale e lo dimostreremo sfruttando il
fatto che un numero complesso `e reale se e solo se esso coincide col suo complesso
coniugato: = . Sia dunque v = (x1 , x2 , . . . , xn )T un autovettore relativo a e sia
= (x1 , x2 , . . . , xn )T il suo coniugato. Allora il prodotto (v v
v ) = x1 x1 + +xn xn =
|x1 |2 + + |xn |2 `e sicuramente un numero reale positivo.

(v v
) = (v v
) = (Av) v
perche v `e un autovettore
= v A
v per il Lemma 0.1.4

= v (A
v) perche A `e reale
= v (Av) per le propriet`a del coniugio (1)
= v (X) perche X `e un autovettore
v) per le propriet`a del coniugio
= v (
v
= (v ) per la propriet`a associativa

Ora osserviamo, il primo e lultimo membro di questa catena di uguaglianze:

(v v v
) = (v )

Essendo (v v ) un numero reale positivo, la relazione si pu`o semplificare ottenendo


= come richiesto.
Verifichiamo ora la seconda affermazione dellenunciato. Assumiamo che v sia un
autovettore relativo allautovalore 1 e che u sia un autovettore relativo allautovalore
2 , allora dal Lemma 0.1.4 segue:

(1 v) u = Av u = v Au = v (2 u) = 2 (v u).

Di conseguenza allora
1 (v u) = 2 (v u)
da cui
(1 2 )(v u) = 0.
Essendo per ipotesi 1 2 6= 0, si ha necessariamente v u = 0.

Proposizione 0.1.6. Una matrice `e ortogonalmente diagonalizzabile se e solo se


esiste una base ortonormale composta di autovettori.

Dimostrazione. Ci` o segue dal fatto che se A `e ortogonalmente diagonalizzabile allora


intanto `e diagonalizzabile e quindi le colonne di P sono autovettori e inoltre P `e
ortogonale e dunque le colonne formano una base ortonormale di Rn .

Il seguente importante teorema risponde in maniera completa alla domanda posta


allinizio di questa sezione. La risposta, come vedremo `e che si pu`o avere una base che
sia allo stesso tempo ortonormale e composta da autovettori precisamente nel caso in
cui si abbia una matrice simmetrica.
0.1. DIAGONALIZZAZIONE ORTOGONALE 3

Teorema 0.1.7. (Teorema degli Assi Principali) Sia A una matrice reale di
ordine n allora A `e simmetrica se e solo se A `e ortogonalmente diagonalizzabile.
Dimostrazione. La parte pi` u consistente della dimostrazione `e far vedere che se A `e
simmetrica allora essa `e ortogonalmente diagonalizzabile. Procediamo per induzione
sullordine n della matrice. Se n = 1 il risultato `e banalmente vero: ogni matrice di
ordine 1 `e simmetrica, `e anche diagonale e ogni vettore di R `e un autovettore per essa.
Supponiamo che lenunciato sia vero per per ogni matrice di ordine < n e con-
sideriamo una matrice A simmetrica di ordine n. Sia v1 un autovettore per essa di
autovalore (reale) 1 . Possiamo supporre che v1 sia di norma 1 e sappiamo che lau-
tovalore `e reale per la Proposizione 0.1.5. Costruiamo unintera base di Rn che abbia
v1 come primo vettore, e pur di applicare il procedimento di Gram-Schmidt, possia-
mo supporre di avere una base ortonormale {v1 , v2 , . . . , vn }. In generale, a parte v1
questi vettori non sono autovettori. Se quindi prendiamo la matrice invertibile P1 che
ha questi vettori come colonne, avremo che P1 `e sicuramente una matrice ortogonale
per la Proposizione 0.1.2, e avremo, scrivendo la matrice a blocchi,
 
1 T 1 B
P1 AP1 = P1 AP1 =
0 A1
Osserviamo che P1T AP1 `e simmetrica: infatti calcolando la sua trasposta
(P1T AP1 )T = P1T AT P1 = P1T AP1
si riottiene la matrice di partenza perche A `e simmetrica. Ne segue che B = 0 e che
A1 , che `e di ordine n 1, `e anchessa simmetrica.
Possiamo allora usare lipotesi induttiva e trovare una matrice ortogonale Q di
ordine n 1 con la propriet` a che QT A1 Q = D1 , una matrice diagonale di ordine
n 1. Consideriamo quindi la matrice, scritta a blocchi,
 
1 0
P2 =
0 Q
La matrice P2 `e di nuovo ortogonale, perche le sue colonne sono ortonormali. Abbiamo
allora
(P1 P2 )T A(P1 P2 ) = P2T (P1T AP1 )P2
(2)
     
1 0 1 0 1 0 1 0
= =
0 QT 0 A1 0 Q 0 D1
e questa `e una matrice diagonale. Rimane da dimostrare che P1 P2 `e ancora una
matrice ortogonale. Ma ci`
o `e facile:
(P1 P2 )T P1 P2 = P2T (P1T P1 )P2 = P2T P2 = I (3)
come richiesto.
Viceversa: supponiamo ora che la matrice sia ortogonalmente diagonalizzabile. Si
ha: P T AP = D dove P `e ortogonale e D `e diagonale. Allora ci ricaviamo A da
questa espressione: A = P DP T . Questa matrice `e simmetrica. Infatti, calcolando la
sua trasposta AT = (P DP T )T = (P T )T DT P T = P DP T = A, in quanto una matrice
diagonale `e chiaramente simmetrica. Questo conclude la dimostrazione.

Potrebbero piacerti anche