Bigino di algebra e geometria...

Il forum di Base5, dove è possibile postare problemi, quiz, indovinelli, rompicapo, enigmi e quant'altro riguardi la matematica ricreativa e oltre.

Moderatori: Gianfranco, Bruno

Rispondi
ZioGiò
Livello 4
Livello 4
Messaggi: 156
Iscritto il: sab gen 14, 2006 4:30 pm
Località: Mailand (Milano)
Contatta:

Bigino di algebra e geometria...

Messaggio da ZioGiò » mer gen 18, 2006 6:56 pm

Ciao a tutti!

L'algebra elementare, che, concettualmente, a molti può sembrare quasi una materia facile (se paragonata alla fisica o all'analisi), nasconde un numero notevole di teoremini che possono aiutare a risolvere problemi che altrimenti necessiterebbero laboriosi calcoli... Purtroppo questi teoremini non sono sempre riportati nei libri (e comunque non in una forma molto comprensibile. Basta pensare alla definizione formale della regola di Kronecker... Ha un qualcosa di sinistro) o si "scoprono con l'esperienza". Allora la mia domanda in breve è questa:
ipotizziamo di avere un amico che deve affrontare un esame pratico di algebra e geometria. Gli argomenti su cui verte l'esame possono essere:

- matrici simili
- autovalori
- autovettori
- diagonalizzazione di matrici
- rotazioni, traslazioni e rototraslazioni
- coniche e loro rappresentazione matriciale

Gli è concesso portare appunti: quali sono le definizioni e le regole pratiche di algebra e geometria che secondo voi deve assolutamente sapere? O, in altre parole:
si fa un bigino basecinquino di algebra e geometria riducendo al minimo indispensabile eventuali dimostrazioni?
Sarebbe bello (chissà quante cose si viene a scoprire dalle grandi menti che popolano questo forum) e utile (sia studenti che insegnanti potrebbero trovare qualcosa di valido su cui far riferimento), quindi, platonicamente parlando, perfetto. :) Poi si potrebbe passare all'analisi, ma un argomento per volta :)
Questo quesito mi è stato ispirato dall'aver scoperto oggi (in realtà non ho ancora avuto il tempo di convincermene) che una matrice idempotente ha autovalori uguali o a 0 o a 1. Ho cercato nel mio vecchio libro di algebra e non ho trovato questa magica e utile informazione... Immagino sia stata data per scontata in virtù di qualche teorema... Ah, e l'altra fonte d'ispirazione è che fra due settimane ho veramente un amico che ha l'esame di algebra e geometria nel quale gli è concesso portare appunti (sì, non fanno più gli esami come una volta) :)

Un esempio di informazione utile, ammesso che sia giusta, potrebbe essere:
Dato che, in una matrice triangolare, il determinante è dato dal prodotto degli elementi principali, gli autovalori di tale matrice sono uguali agli elementi principali.
Ciò detto, ecco una cosa banale ma utile da ricordare:
date due matrici triangolari A e B con autovalori \displaystyle\lambda_{1A},  \lambda_{2A}, \lambda_{nA} e \lambda_{1B}, \lambda_{2B}, \lambda_{nB}
gli autovalori della matrice AB sono uguali al prodotto degli autovalori delle due matrici:

\lambda_{1AB} = \lambda_{1A}\lambda_{1B},
\lambda_{1AB} = \lambda_{2A}\lambda_{2B},
\lambda_{1AB} = \lambda_{nA}\lambda_{nB}
E' utile perchè se no uno si dovrebbe fare tutta la moltiplica...

Partecipate numerosi :)
Saluti!
"Voi mi considerate un uomo sanza lettere, ma siete degli stolti perché le mie cose sono date dall'esperienza non dalle parole."
Leonardo Da Vinci

Immagine

Tino
Livello 5
Livello 5
Messaggi: 221
Iscritto il: mer mag 25, 2005 8:20 am
Località: Verona

Messaggio da Tino » ven gen 20, 2006 6:41 pm

Questo post mi sembra molto interessante, perché l'algebra lineare mi è sempre piaciuta per la sua "linearità" (scusate il giuoco di parole :) ).

Comunque se una matrice A, a cui è associata un'applicazione lineare \phi:\ V \rightarrow V (dove V è spazio vettoriale su \mathbb{R}), è idempotente, A^2=A, il che significa che:

Se \lambda è un autovalore di A, esiste un "autovettore associato", cioè 0 \neq v \in V con Av=\lambda v. Ma allora per l'idempotenza si ha che

\lambda v = Av = A^2 v = A(Av) = A(\lambda v) = \lambda Av = \lambda^2 v

\lambda v = \lambda^2 v

(\lambda-\lambda^2)v=0

Poiché v \neq 0,\ \lambda(\lambda-1)=0.

Il che significa che \lambda può assumere solo i valori 0 e 1.
In effetti il ragionamento va bene anche se V è uno spazio vettoriale su un campo \mathbb{K} qualunque.

Per il resto, mi riguardo un po' di concetti e poi eventualmente li posto.

Ciao
"Oh! But I have been blind- blind. Complex, I have said?
Complicated? Mais non. Of a simplicity extreme - extreme.
And miserable one that I am, I saw nothing - nothing."
(Peril At End House)

ZioGiò
Livello 4
Livello 4
Messaggi: 156
Iscritto il: sab gen 14, 2006 4:30 pm
Località: Mailand (Milano)
Contatta:

Messaggio da ZioGiò » sab gen 21, 2006 10:13 am

Grande Tino!!!

Quello che hai appena dimostrato è il teorema: "Una matrice idempotente ha come autovalori solo 1 o 0"?

Continuo con un po' di diagonalizzazioni di matrici (in generale):
Definiti:
detA = |A| = determinante della matrice A di ordine n
\lambda I - A matrice idempotente
|\lambda I - A| polinomio caratteristico
|\lambda I - A| = 0 equazione caratteristica
Se P^{-1}AP = B allora A e B sono simili e P è la matrice di passaggio da A a B
|\lambda I-A|X = 0 X è autovettore associato all'autovalore \lambda

1) Una matrice A si dice diagonalizzabile se e solo se è simile a una matrice diagonale
2) Una matrice A di ordine n è diagonalizzabile se e solo se possiede n autovettori linearmente indipendenti
3) Le matrici P che trasformano A in una matrice diagonale sono tutte e sole quelle che hanno come colonne n autovettori linearmente indipendenti di A
4) sia diag(\alpha_1, \alpha_2, \alpha_3) una qualunque matrice diagonale simile ad A. I suo elementi principali sono tutti e soli gli autovalori di A (dato che matrici simili hanno lo stesso polinomio caratteristico)
5) Due matrici diagonalizzabili sono simili se e solo se hanno lo stesso polinomio caratteristico
6) Una matrice A è diagonalizzabile se e solo se tutti i suoi autovalori sono regolari
7) Una matrice con autovalori tutti distinti è diagonalizzabile
8\) Dato che: ogni matrice è simile alla sua trasposta e due matrici simili hanno lo stesso rango, allora il rango di una matrice diagonalizzabile è uguale al numero dei suoi autovalori non nulli
9) Un polinomio in una variabile ha una radice multipla \alpha se e solo se \alpha è anche una radice del suo polinomio derivato.
...
Altro? 8)

Saluti!
"Voi mi considerate un uomo sanza lettere, ma siete degli stolti perché le mie cose sono date dall'esperienza non dalle parole."
Leonardo Da Vinci

Immagine

Tino
Livello 5
Livello 5
Messaggi: 221
Iscritto il: mer mag 25, 2005 8:20 am
Località: Verona

Messaggio da Tino » sab gen 21, 2006 11:36 am

Un criterio di diagonalizzabilità di una matrice quadrata A nxn in C (o di una applicazione lineare \phi: V_n(C) \rightarrow V_n(C)) è il seguente:

La matrice A è diagonalizzabile se e solo se ha tutti gli autovalori in C e ogni autovalore di A ha nullità e molteplicità uguali, dove la molteplicità di un autovalore è la sua molteplicità come radice del polinomio caratteristico, la nullità di un autovalore è la dimensione dell'autospazio associato a tale autovalore (ovvero dell'insieme degli autovettori associati a tale autovalore, che è un sottospazio vettoriale di V_n(C)).
"Oh! But I have been blind- blind. Complex, I have said?
Complicated? Mais non. Of a simplicity extreme - extreme.
And miserable one that I am, I saw nothing - nothing."
(Peril At End House)

Tino
Livello 5
Livello 5
Messaggi: 221
Iscritto il: mer mag 25, 2005 8:20 am
Località: Verona

Messaggio da Tino » sab gen 21, 2006 3:52 pm

Esempio. A \in M_4(\mathbb{R}),

A=\left( \begin{array} {cccc} 4 & -1 & 1 & 1 \\ 0 & 2 & 0 & 0 \\ -3 & -3 & 5 & 3 \\ 2 & -1 & 1 & 3 \end{array} \right)

Associamo a tale matrice pensata in base canonica l'applicazione lineare \phi:\ \mathbb{R}^4 \rightarrow \mathbb{R}^4 che manda rispettivamente i vettori della base canonica e_1, e_2, e_3, e_4 nelle colonne della matrice A.

p_A(x)=\left| \begin{array} {cccc} 4-x & -1 & 1 & 1 \\ 0 & 2-x & 0 & 0 \\ -3 & -3 & 5-x & 3 \\ 2 & -1 & 1 & 3-x \end{array} \right|=(2-x) \left| \begin{array} {ccc} 4-x & 1 & 1 \\ -3 & 5-x & 3 \\ 2 & 1 & 3-x \end{array} \right|=(2-x)[(4-x)(5-x)(3-x)+6-3-2(5-x)+3(3-x)-3(4-x)]=
=(2-x)[(20-9x+x^2)(3-x)+3-10+2x+9-3x-12+3x]=(2-x)(60-20x-27x+9x^2+3x^2-x^3-10+2x)=
=(x-2)(x^3-12x^2+45x-50)=(x-2)^2(x-5)^2

Otteniamo quindi i soli autovalori 2 e 5. Poiché il polinomio caratteristico si fattorizza completamente in \mathbb{R}, la matrice è sicuramente triangolarizzabile. Entrambi gli autovalori hanno molteplicità 2. Ora verifichiamo se le nullità sono anch'esse uguali a 2. Si ha che, indicando con V(\lambda) l'autospazio relativo all'autovalore \lambda,

V(2)=ker(A-2I_4)=ker \left(\begin{array}{cccc} 2 & -1 & 1 & 1 \\ 0 & 0 & 0 & 0 \\ -3 & -3 & 3 & 3 \\ 2 & -1 & 1 & 1 \end{array}\right)=

V(5)=ker(A-5I_4)=ker \left( \begin{array}{cccc} -1 & -1 & 1 & 1 \\ 0 & -3 & 0 & 0 \\ -3 & -3 & 0 & 3 \\ 2 & -1 & 1 & -2 \end{array} \right)=

Il che significa che l'autovalore 2 ha molteplicità 2 e nullità 2, l'autovalore 5 ha molteplicità 2 e nullità 1. Quindi la matrice A NON è diagonalizzabile, ma è triangolarizzabile. Infatti consideriamo la base di \mathbb{R}^4\ Z=\{\left( \begin{array}{c} 0 \\ 0 \\ 1 \\ -1 \end{array} \right), \left( \begin{array}{c} 0 \\ 1 \\ 1 \\ 0 \end{array} \right), \left( \begin{array}{c} 1 \\ 0 \\ 0 \\ 1 \end{array} \right), \left( \begin{array}{c} 0 \\ 0 \\ 0 \\ 1 \end{array} \right)\} scritta in base canonica. Detta P=\left( \begin{array}{cccc} 0 & 0 & 1 & 0 \\ 0 & 1 & 0 & 0 \\ 1 & 1 & 0 & 0 \\ -1 & 0 & 1 & 1 \end{array} \right), si ha che l'applicazione lineare \phi nella base Z è data dalla matrice B=P^{-1}AP. Senza fare questo conto, vediamo subito che i primi tre vettori della base Z sono autovettori di cui conosciamo l'autovalore associato, e quindi la matrice B sarà del tipo B=\left( \begin{array}{cccc} 2 & 0 & 0 & ? \\ 0 & 2 & 0 & ? \\ 0 & 0 & 5 & ? \\ 0 & 0 & 0 & 5 \end{array} \right), e quindi B è certamente triangolare superiore. L'elemento in basso a destra è certamente 5 perché il polinomio caratteristico è invariante per similitudine, e poiché gli autovalori di una matrice triangolare sono esattamente gli elementi diagonali, sulla diagonale principale devono figurare due 2 e due 5. La quarta colonna è data da \phi(\left( \begin{array}{c} 0 \\ 0 \\ 0 \\ 1 \end{array} \right))_Z = \left( \begin{array}{c} 1 \\ 0 \\ 3 \\ 3 \end{array} \right)_Z = \left( \begin{array}{c} 3 \\ 0 \\ 1 \\ 5 \end{array} \right), nel senso che:

\left( \begin{array}{c} 1 \\ 0 \\ 3 \\ 3 \end{array} \right) = 3 \left(\begin{array} 0 \\ 0 \\ 1 \\ -1 \end{array} \right) + 0 \left(\begin{array} 0 \\ 1 \\ 1 \\ 0 \end{array} \right) + 1 \left( \begin{array} 1 \\ 0 \\ 0 \\ 1 \end{array} \right) + 5 \left( \begin{array} 0 \\ 0 \\ 0 \\ 1 \end{array} \right).

In definitiva A è triangolarizzabile ed è simile alla matrice

B=P^{-1}AP=\left( \begin{array}{cccc} 2 & 0 & 0 & 3 \\ 0 & 2 & 0 & 0 \\ 0 & 0 & 5 & 1 \\ 0 & 0 & 0 & 5 \end{array} \right)

Ora cercherò di ricordare qualcosa sul polinomio minimo, ed eventualmente di postarlo. Perché mi ricordo che è abbastanza interessante.

Ah, riguardo le ultime cose dette: è chiaro che il polinomio caratteristico è invariante per similitudine, perché se A \in M_n(C) e B=P^{-1}AP con P \in GL_n(C), allora p_B(x)=\det(B-xI_n)=\det(P^{-1}AP-xI_n)=\det(P^{-1}(A-xI_n)P)=\det(P^{-1})\det(A-xI_n)\det(P)=\det(P)^{-1}\det(A-xI_n)\det(P)=\det(A-xI_n)=p_A(x) (ricorda che \det:\ GL_n(C) \rightarrow GL_n(C) è omomorfismo di gruppi moltiplicativi, cioè conserva i prodotti e gli inversi).

Un'altra cosa interessante è che la traccia di una matrice (cioè la somma degli elementi diagonali) è invariante per similitudine. Si vede guardando il coefficiente di x^{n-1} nel polinomio caratteristico. Questo significa per esempio che una matrice diagonalizzabile, di autovalori non negativi e di traccia nulla è necessariamente la matrice nulla.

Un'altra cosa che mi ricordo deriva direttamente dal teorema spettrale, ed è questa: una matrice simmetrica a valori in \mathbb{R} è diagonalizzabile.
Ma questa affermazione la vorrei giustificare meglio.

Per ora mi fermo qui. Ciao
"Oh! But I have been blind- blind. Complex, I have said?
Complicated? Mais non. Of a simplicity extreme - extreme.
And miserable one that I am, I saw nothing - nothing."
(Peril At End House)

Daniela
Livello 6
Livello 6
Messaggi: 456
Iscritto il: lun nov 21, 2005 9:40 am

Messaggio da Daniela » sab gen 21, 2006 11:23 pm

Ciao Zio,
adesso che hai gia' la dimostrazione che una matrice idempotente ha come autovalori solo zeri e uni, e io sono in ritardo, mi permetto di provare a convincerti che e' cosi'. Come vuoi che sia fatta una matrice idempotente? (Come sono fatte le entita' numeriche idempotenti? 0 e 1 in un campo, e come si estendera' questo a spazi piu' generali?) Avra' un pezzo che e' molto simile allo zero, e quello e' fatto di tutti zeri e puoi "rimescolarlo" ma non cambiera'. Ne avra' un altro che assomiglia moltissimo all'identita', e quello lo potrai cambiare un pochino permutando l'ordine delle basi dello spazio vettoriale, o se preferisci l'ordine delle righe (o colonne). Poi potra' avere un "pezzo" non nullo fuori dalla diagonale e di ordine minore o uguale al pezzo di tutti zeri.... ma quello non ha speranza di influire sugli autovalori.
Ciao

Daniela

ZioGiò
Livello 4
Livello 4
Messaggi: 156
Iscritto il: sab gen 14, 2006 4:30 pm
Località: Mailand (Milano)
Contatta:

Messaggio da ZioGiò » dom gen 22, 2006 3:28 pm

@Daniela

Ciao!
Grazie per la precisazione... Con in realtà non ho ancora avuto il tempo di convincermene intendevo, non ho ancora avuto il tempo di trovare una dimostrazione rigorosa a questo fatto :) Il buon Tino ha subito provveduto a sciogliere ogni dubbio (anche se forse, come suggerisci tu, non è necessario scomodare gli spazi vettoriali per dimostrare questo teorema)

@Tino
Grande! Sei un algebrista di professione? :)

Saluti!
"Voi mi considerate un uomo sanza lettere, ma siete degli stolti perché le mie cose sono date dall'esperienza non dalle parole."
Leonardo Da Vinci

Immagine

Tino
Livello 5
Livello 5
Messaggi: 221
Iscritto il: mer mag 25, 2005 8:20 am
Località: Verona

Messaggio da Tino » dom gen 22, 2006 4:44 pm

Ma no, qualunque testo di algebra lineare riporta i concetti di cui ho parlato... è che la materia mi è sempre piaciuta.

Comunque, tornando a noi, io credo che le matrici da sole siano molto poco "umane", se non ci stesse dietro l'algebra lineare per me la cosa sarebbe totalmente priva di interesse.

Altre cose:

---------------------------------

Abbiamo appurato che \lambda \in C è autovalore di una matrice A \in M_n(C) se e solo se è radice del polinomio caratteristico, definito da p_A(x) \equiv \det(A-xI_n). Ora, il teorema di Hamilton - Cayley ci dice che p_A(A)=0, ovvero che se p_A(x)=a_nx^n+...+a_1x+a_0, allora a_n A^n+...+a_1 A+a_0 è la matrice identicamente nulla.

Poi si definisce il polinomio minimo di A come quell'elemento di C[X] che è il generatore monico dell'ideale ker(ev_A) dove ev_A:\ C[X] \rightarrow M_n(C),\ f(x) \mapsto f(A). Detto più in soldoni, il polinomio minimo di A è il polinomio monico a coefficienti in C di grado minimo tra quelli che annullano A, cioè tra quelli che stanno in ker(ev_A), ovvero tra quei g(x) \in C[X] tali che g(A)=0. Il teorema di Hamilton - Cayley ci dice semplicemente che p_A(x) \in ker(ev_A), ovvero che il polinomio caratteristico di A valutato in A vale 0, e che quindi il polinomio minimo divide il polinomio caratteristico, e anzi un altro risultato è che:

Il polinomio minimo e il polinomio caratteristico hanno le stesse radici in una chiusura algebrica di C.

Il polinomio minimo ci regala un secondo criterio di diagonalizzabilità:

A \in M_n(C) è diagonalizzabile se e solo se ha tutti i suoi autovalori in C e il polinomio minimo non ha radici multiple, cioè si fattorizza in fattori lineari distinti.

Anche questo vorrei però giustificarlo più con calma.

---------------------------------

Ora, riprendiamoci la nostra matrice in M_4(\mathbb{R}) definita da

A=\left( \begin{array}{cccc} 4 & -1 & 1 & 1 \\ 0 & 2 & 0 & 0 \\ -3 & -3 & 5 & 3 \\ 2 & -1 & 1 & 3 \end{array} \right)

il cui polinomio caratteristico è (x-2)^2(x-5)^2. Certamente il polinomio (x-2)(x-5) divide il polinomio minimo, ma non è il polinomio minimo altrimenti la matrice A sarebbe diagonalizzabile. Siccome il polinomio minimo è unico, se considero q_A(x) \equiv (x-2)(x-5)^2 scopro che q_A(A)=0, quindi q_A(x) è proprio il polinomio minimo di A. Infatti,

q_A(A)=(A-2I_n)(A-5I_n)^2=\left( \begin{array}{cccc} 2 & -1 & 1 & 1 \\ 0 & 0 & 0 & 0 \\ -3 & -3 & 3 & 3 \\ 2 & -1 & 1 & 1 \end{array} \right) \left( \begin{array}{cccc} -1 & -1 & 1 & 1 \\ 0 & -3 & 0 & 0 \\ -3 & -3 & 0 & 3 \\ 2 & -1 & 1 & -2 \end{array} \right)^2=\left( \begin{array}{cccc} 2 & -1 & 1 & 1 \\ 0 & 0 & 0 & 0 \\ -3 & -3 & 3 & 3 \\ 2 & -1 & 1 & 1 \end{array} \right) \left( \begin{array}{cccc} 0 & 0 & 0 & 0 \\ 0 & 9 & 0 & 0 \\ 9 & 9 & 0 & -9 \\ -9 & 0 & 0 & 9 \end{array} \right)= 0_4.

Quindi (x-2)(x-5)^2 è il polinomio minimo di A.

Tutto ciò si utilizza in problemi di questo tipo: supponiamo che per esempio sia data A \in M_n(\mathbb{R}) e valga la relazione A^3=A. Allora A è diagonalizzabile. Il polinomio x^3-x annulla A, e quindi il polinomio minimo di A divide x^3-x=x(x-1)(x+1). Le possibilità per il polinomio minimo q_A(x) sono quindi x,\ x-1,\ x+1,\ x(x-1),\ x(x+1),\ (x-1)(x+1). In ognuno di questi casi il q_A(x) è fattorizzato in fattori lineari distinti! E quindi certamente A è diagonalizzabile.

Supponiamo invece che A \in M_n( \mathbb{R}) soddisfi a A^3=I_n. Allora il polinomio x^3-1=(x-1)(x^2+x+1) annulla A. Quindi q_A(x) lo divide. Una possibilità è che q_A(x)=x-1. In tal caso A=I_n è già diagonale, ovviamente. Un'altra possibilità è che q_A(x)=x^2+x+1. In tal caso A non possiede nemmeno tutti gli autovalori in \mathbb{R}, quindi non è nemmeno triangolarizzabile. Però se pensiamo A a coefficienti in \mathbb{C}, allora è certamente diagonalizzabile, perché il polinomio q_A(x) presenta una radice reale, 1, e due radici complesse non reali coniugate, e quindi ogni polinomio che lo divida si scompone in fattori lineari distinti.

Per ora mi fermo qui.

Ragazzi che bella l'algebra lineare...

Ciao
"Oh! But I have been blind- blind. Complex, I have said?
Complicated? Mais non. Of a simplicity extreme - extreme.
And miserable one that I am, I saw nothing - nothing."
(Peril At End House)

Rispondi