Terza puntata (scusate il ritardo
)
Io l’avevo sempre chiamata “diagonalizzazione” ma ho scoperto che non c’è un solo modo di diagonalizzare una matrice quindi ben venga la decomposizione spettrale (forse sarebbe più corretto “scomposizione”).
Ma perché diagonalizzare? Osserviamo cosa succede quando facciamo il quadrato di una matrice
$A^2=\left(\begin{array}{ccCC}a_{00} & a_{01} \\ a_{10} & a_{11}\end{array}\right) \left(\begin{array}{ccCC}a_{00} & a_{01} \\ a_{10} & a_{11}\end{array}\right)= \left(\begin{array}{ccCC} \left(\begin{array}{cC}a_{00} & a_{01} \end{array}\right) \left(\begin{array}{cC}a_{00} \\ a_{10} \end{array}\right) & \left(\begin{array}{cC}a_{00} & a_{01} \end{array}\right) \left(\begin{array}{cC}a_{01} \\ a_{11}\end{array}\right) \\ \left(\begin{array}{cC}a_{11}\end{array}\right) \left(\begin{array}{cC}a_{00} \\ a_{10} \end{array}\right) & \left(\begin{array}{cC}a_{11}\end{array}\right) \left(\begin{array}{cC} a_{01} \\ a_{11}\end{array}\right) \end{array}\right)=\left(\begin{array}{cC}a_{00}^2+a_{01}a_{10} & a_{00}a_{01}+a_{01}a_{11} \\ a_{00}a_{10}+a_{10}a_{11} & a_{01}a_{10}+a_{11}^2\end{array}\right)$
Osserviamo ora cosa succede quando facciamo il quadrato di una matrice diagonale, $\Lambda=\text{diag}\left\{\lambda_k\right\}$
$\Lambda^2=\left(\begin{array}{cC}\lambda_0 & 0 \\ 0 & \lambda_1\end{array}\right) \left(\begin{array}{cC}\lambda_0 & 0 \\ 0 & \lambda_1\end{array}\right)= \left(\begin{array}{cC}\left(\begin{array}{cC}\lambda_0 & 0 \end{array}\right) \left(\begin{array}{cC}\lambda_0 \\ 0 \end{array}\right) & \left(\begin{array}{cC}\lambda_0 & 0\end{array}\right) \left(\begin{array}{cC} 0 \\ \lambda_1\end{array}\right) \\ \left(\begin{array}{cC}0 & \lambda_1\end{array}\right) \left(\begin{array}{cC}\lambda_0 \\ 0\end{array}\right) & \left(\begin{array}{cC}0 & \lambda_1\end{array}\right) \left(\begin{array}{cC} 0 \\ \lambda_1\end{array}\right)\end{array}\right)= \left(\begin{array}{cC}\lambda_0^2 & 0 \\ 0 & \lambda_1^2\end{array}\right)$
Applicando la definizione di potenza ricaviamo che $\Lambda^r=\text{diag}\left\{\lambda_k^r\right\}$ e, se possiamo trovare una trasformazione che dia $\Lambda=F\left(T\right)$, possiamo usare la sua inversa per ottenere $T^r=F^{-1}\left(\Lambda^r\right)=F^{-1}\left(\text{diag}\left\{\lambda_k^r\right\}\right)$.
Come si fa la decomposizione spettrale?
Per prima cosa si scrive l’equazione caratteristica, $\left|T-\lambda I\right|=0$ dove $I=\text{diag}\left\{1,\ldots,1\right\}$ è la matrice unitaria, elemento neutro della moltiplicazione di matrici.
In pratica, questa equazione si ottiene eguagliando a zero il determinante della matrice $T$ alla cui diagonale principale viene sottratta la variabile $\lambda$: ne risulta un polinomio in $\lambda$ equagliato a zero
$\displaystyle\left|T-\lambda I\right|=\left|\begin{array}{cC}\frac12-\lambda & 0 \\ \frac12 & 1-\lambda\end{array}\right|=\left(\frac12-\lambda\right)\left(1-\lambda\right)-1\cdot 0=0$
le cui soluzioni, $\lambda=\left\{\frac12,1\right\}$, vengono definite “autovalori” della matrice.
La seconda cosa che si fa è la ricerca degli “autovettori”, vettori colonna (come li scrivo io) tali che
$\displaystyle\left(T-\lambda_k I\right)\cdot\nu_k=0$
Questo è un sistema di equazioni lineari omogeneo che, come noto, ammette soluzioni solo se il determinante della matrice dei coefficienti è nullo: ma noi sappiamo che i valori di $\lambda$ sono precisamente quelli che annullano il determinante (gli autovalori). E, se gli autovalori sono tutti distinti, non vi sono problemi: esiste un autovettore per ogni autovalore.
Con il nostro esempio
$\displaystyle \lambda = \frac12\quad\Longrightarrow\quad\frac12\left(\begin{array}{cC}0 & 0 \\ 1 & 1\end{array}\right)\left(\begin{array}{cC}a \\ b\end{array}\right) = \left(\begin{array}{cC}0 \\ 0\end{array}\right) \quad\Longrightarrow\quad\left\{\begin{array}{lC}0a+0b=0 \\ a+b=0\end{array}\right.
\quad\Longrightarrow\quad b = -a\quad\Longrightarrow\quad \nu_0 = \left(\begin{array}{cC}-1 \\ 1\end{array}\right)$
e
$\displaystyle \lambda = 1\quad\Longrightarrow\quad\frac12\left(\begin{array}{cC}-1 & 0 \\ 1 & 1\end{array}\right)\left(\begin{array}{cC}a \\ b\end{array}\right) = \left(\begin{array}{cC}0 \\ 0\end{array}\right) \quad\Longrightarrow\quad\left\{\begin{array}{lC}-a+0b=0 \\ a+0b=0\end{array}\right.
\quad\Longrightarrow\quad a = 0\quad\Longrightarrow\quad \nu_1 = \left(\begin{array}{cC} 0 \\ 1\end{array}\right)$
Dovrebbe essere evidente che moltiplicare un autovettore per una costante è ininfluente: si può quindi scegliere, come abbiamo fatto in questo caso, di scrivere numeri interi.
Raccogliamo gli autovettori in una matrice $S = \nu_0 \bigsqcup \nu_1\bigsqcup \ldots\bigsqcup \nu_n $, nel nostro caso
$\displaystyle S=\left(\begin{array}{cC}-1 & 0 \\ 1 & 1\end{array}\right)$
troviamo l’inversa di $S$, nel nostro caso ancora
$\displaystyle S^{-1}=\left(\begin{array}{cC}-1 & 0 \\ 1 & 1\end{array}\right)$
ed ecco la nostra trasformazione
$\displaystyle \Lambda=S^{-1}TS=\left(\begin{array}{cC}-1 & 0 \\ 1 & 1\end{array}\right)\frac12\left(\begin{array}{cC}1 & 0 \\ 1 & 2\end{array}\right)\left(\begin{array}{cC}-1 & 0 \\ 1 & 1\end{array}\right)
=\left(\begin{array}{cC}-1 & 0 \\ 1 & 1\end{array}\right)\frac12\left(\begin{array}{cC}-1 & 0 \\ 1 & 2\end{array}\right)
=\frac12\left(\begin{array}{cC} 1 & 0 \\ 0 & 2\end{array}\right)
=\left(\begin{array}{cC} \lambda_0 & 0 \\ 0 & \lambda_1\end{array}\right)$
Miracolo: la trasformazione produce una matrice diagonale i cui elementi sono precisamente gli autovalori!
La trasformazione inversa è
$\displaystyle \Lambda =S^{-1}TS\Longrightarrow S\Lambda S^{-1}=SS^{-1}TSS^{-1}=T$
In definitiva avremo $\displaystyle y_r=T^r y_0=S\Lambda^r S^{-1}y_0$: nel nostro caso
$\displaystyle y_r=\left(\begin{array}{cC}-1 & 0 \\ 1 & 1\end{array}\right)\left(\begin{array}{cC}\left(\frac12\right)^r & 0 \\ 0 & 1\end{array}\right)\left(\begin{array}{cC}-1 & 0 \\ 1 & 1\end{array}\right)\left(\begin{array}{cC}1\\0\end{array}\right)=
\left(\begin{array}{cC}\left(\frac12\right)^r \\1-\left(\frac12\right)^r \end{array}\right)$
Alla prossima...