Diagonalizabilitate

De la Wikipedia, enciclopedia liberă.
Salt la navigare Salt la căutare

În matematică și mai precis în algebră liniară , o transformare liniară a unui spațiu vector este diagonalizabilă sau simplă dacă există o bază a spațiului cu privire la care matricea de transformare este diagonală . În mod echivalent, o matrice pătrată este diagonalizabilă sau simplă dacă este similară cu o matrice diagonală . [1]

O transformare liniară este diagonalizabilă dacă există „axe” care trec prin origine a căror direcție rămâne neschimbată în transformarea însăși: fiecare dintre aceste axe este un spațiu egal față de un vector propriu al transformării, iar transformarea îndeplinește o omotitate . Diagonalizarea unei transformări înseamnă a te plasa într-un sistem de referință care rămâne „integral” cu acesta, iar transformarea este complet definită atunci când se cunoaște comportamentul acesteia pe axele sistemului.

Definiție

Este un endomorfism al unui spațiu vectorial , adică o transformare liniară . Se spune că este diagonalizabil dacă există o bază de cu privire la care matrice o reprezintă este diagonală . [2] În special, baza care diagonalizează este compus din vectorii săi proprii .

În mod echivalent, o matrice pătrată este diagonalizabilă dacă este similară cu o matrice diagonală . [3] Matricea este deci diagonalizabil în câmpul căruia îi aparține dacă există o matrice inversabilă astfel încât:

adică:

Scris în ceea ce privește vectorii coloanei:

relația anterioară devine:

Vectorii coloană ai sunt deci vectori proprii ai , și elementele corespunzătoare ale matricei diagonale sunt valorile proprii respective. Inversibilitatea implică, de asemenea, independența liniară a vectorilor proprii, care formează o bază a spațiului.

Prin teorema spectrală , dacă atunci baza lui este normală și diagonalizabilă care este compus din vectorii săi proprii este o bază ortonormală . Atunci este unitar.

Polinom caracteristic

Pictogramă lupă mgx2.svg Același subiect în detaliu: Polinomul caracteristic și teorema diagonalizabilității .

O modalitate de a verifica dacă o aplicație este diagonalizabilă este studierea diagonalizabilității matricei sale asociate în bazele seturilor de plecare și sosire. În acest scop, un instrument de o importanță considerabilă este polinomul caracteristic, care permite obținerea valorilor proprii cu multiplicitatea lor.

Este o matrice pătrată cu valoare rânduri într-un câmp . Polinomul caracteristic al este un polinom de grad definit astfel:

Rădăcinile din aparținând domeniului sunt valorile proprii ale . [4] Orice valoare proprie are propria sa multiplicitate ca rădăcină a polinomului caracteristic, numită multiplicitate algebrică . [5] O valoare proprie cu multiplicitate algebrică 1 se spune că este simplă .

Teorema diagonalizabilității oferă un criteriu necesar și suficient pentru a stabili dacă o aplicație liniară este diagonalizabilă. O matrice pătrată cu liniile sunt diagonalizabile dacă și numai dacă ambele fapte sunt valabile:

  • Suma multiplicităților algebrice ale valorilor sale proprii este , adică polinomul caracteristic poate fi luat în considerare în câmp prin polinoame de gradul I.
  • Multiplicitățile algebrice și geometrice ale fiecărei valori proprii sunt coincidente, adică dimensiunea spațiilor proprii este egală cu multiplicitatea cu care valoarea proprie relativă este rădăcina polinomului caracteristic. Deoarece multiplicitatea geometrică este întotdeauna mai mică sau egală cu cea algebrică, dacă aplicația are valori proprii distincte în câmp atunci este diagonalizabil.

Teorema spectrală

Pictogramă lupă mgx2.svg Același subiect în detaliu: teorema spectrală .

Teorema spectrală arată că o condiție necesară și suficientă pentru a exista o bază ortonormală a vectorilor proprii ai unui endomorfism este că este autoadjunctă . Teorema poate fi extinsă la cazul complex, unde instrucțiunea este valabilă pentru clasa mai generală a operatorilor normali .

Caz cu dimensiuni finite

Este un endomorfism pe un spațiu vectorial real ca dimensiune pe care este definit un produs scalar pozitiv definit. Atunci este autoadjunct dacă și numai dacă există o bază ortonormală a realizat din vectori proprii pentru . [6] Endomorfism este deci diagonalizabil.

O versiune echivalentă a teoremei, afirmată cu matrici, afirmă că orice matrice simetrică este similară cu o matrice diagonală printr-o matrice ortogonală . [7]

Ca o consecință a teoremei, pentru orice matrice simetrică există o matrice ortogonală și o matrice diagonală astfel încât: [8]

În special, valorile proprii ale unei matrici simetrice sunt reale.

Ca o consecință a teoremei, o matrice pătrată de rangul n pe teren este diagonalizabil dacă și numai dacă suma dimensiunilor spațiului propriu este egală cu n . De fapt, această afecțiune apare dacă și numai dacă există o bază de compus din vectori proprii ai , și dacă baza există, este posibil să se definească o matrice având ca coloane vectorii acestei baze: în acest caz este diagonală, iar elementele diagonalei sunt valorile proprii ale . Condițiile de diagonalizare pentru aplicații liniare sunt echivalente cu cele pentru matrici reprezentative.

Caz infinit-dimensional

Cazul infinit-dimensional constituie o generalizare a cazului anterior și există diferite formulări ale teoremei în funcție de clasa operatorilor care trebuie luați în considerare. Principala distincție se referă la operatorii limitați și nelimitați.

Teorema spectrală afirmă că un operator mărginit și autoadjunct definit pe un spațiu Hilbert este un operator de multiplicare.

În mod echivalent, există o familie de măsuri pe spectru din și există un operator unitar :

astfel încât: [9]

cu:

O astfel de scriere a se numește reprezentarea spectrală a operatorului.

Ca corolar, rezultă că există o măsură pe un spațiu de măsurare și există un operator unitar :

astfel încât: [10]

pentru o funcție măsurabilă limitată și cu valoare reală pe .

Descompunerea spectrală

Teorema spectrală oferă condițiile pentru care este posibilă diagonalizarea unui operator în raport cu o bază ortonormală. Atunci când acest lucru este posibil în cazul finit dimensional, vectorii proprii ortogonale reciproc corespund valori proprii distincte și prin urmare eigenspaces sunt în sumă directă . Prin urmare, un operator normal poate fi scris ca o combinație liniară de proiectoare ortogonale pe spațiile egale, ai căror coeficienți sunt valorile proprii relative la fiecare spațiu egigen.

În cazul infinit-dimensional, normalitatea și, în special, auto-ajustabilitatea, nu garantează diagonalizarea. În general, un operator normal nu mai poate fi scris ca o combinație liniară de proiectoare ortogonale. Cu toate acestea, prin măsurarea cu valori ale proiectorului este posibil să se obțină o scriere integrală care să permită descrierea operatorului în funcție de spectrul său.

Caz cu dimensiuni finite

Pictogramă lupă mgx2.svg Același subiect în detaliu: Proiecția ortogonală .

Ca o consecință a teoremei spectrale, atât în ​​cazul real, cât și în cazul complex, teorema descompunerii spectrale afirmă că spațiile egale ale sunt ortogonali și în sumă directă :

În mod echivalent, dacă este proiecția ortogonală pe , avem:

Descompunerea spectrală este un caz special al descompunerii Schur . Este, de asemenea, un caz special de descompunere a valorii singulare .

Caz infinit-dimensional

Pictogramă lupă mgx2.svg Același subiect în detaliu: măsurarea valorii proiectorului .

Este un operator normal mărginit definit pe un spațiu Hilbert . Teorema descompunerii spectrale pentru operatorii normali afirmă că există o singură măsură la valorile proiectorului astfel încât:

unde este este spectrul . Se spune că este măsura evaluată de proiector asociată cu .

În special, dacă este un operator autoadjunct, se poate defini o măsură cu valori limitate ale proiectorului :

definite pe spectru din , in care este funcția indicator . Această măsură poate fi asociată în mod unic cu În felul următor:

pentru fiecare funcție limitată măsurabilă și, în acest caz, avem:

Formula din stânga se numește diagonalizarea lui . [11]

Deși este posibil să se definească în mod unic un operator autoadjunct (sau, mai general, un operator normal) începând de la o măsurare cu valori ale proiectorului și de la cealaltă dacă este posibilă diagonalizarea prin intermediul unei măsurători limitate a valorii proiectorului asa de este măsura cu valorile proiectorului asociate în mod unic cu .

Operatori nelimitați

Pictogramă lupă mgx2.svg Același subiect în detaliu: transformarea Cayley .

Luați în considerare un operator autoadjunct nu este limitat. Prin transformarea Cayley asociat cu :

este posibil să se definească, pornind de la , o măsurare la valorile proiectorului în felul următor:

Întregul este un Borellian cuprins în spectrul (real) din , Și este rezultatul obținut prin aplicarea transformării Cayley pe .

Se arată că dacă funcția de identitate , definită pe , este elegant cu privire la măsură , asa de definește o măsură la valorile proiectorului .

În special, este posibil să scrieți:

Chiar și în cazul corespondența nu limitată între iar o măsură cu valori ale proiectorului este biunivocă.

Exemple

Exemplu de calcul

Luați în considerare matricea:

Polinomul caracteristic este:

care dispare pentru valorile proprii:

Prin urmare, are 3 valori proprii distincte. Pentru primul criteriu stabilit mai sus, matricea este diagonalizabilă.

Dacă sunteți interesat să găsiți în mod explicit o bază de vector propriu, trebuie să faceți mai multe lucrări: pentru fiecare valoare proprie, setați ecuația și se rezolvă căutând valorile vectorului care îl satisfac, înlocuind de fiecare dată cele trei valori proprii calculate anterior.

O bază vectorială proprie, de exemplu, este dată de:

Este ușor de văzut că sunt independenți , prin urmare formează o bază și, de fapt, sunt vectori proprii .

Matricea de schimbare a bazei poate fi scrisă în mod explicit prin coloanarea vectorilor găsiți:

De aici și matricea inversabilă diagonaliza , așa cum se întâmplă prin calcularea:

Matricea finală trebuie să fie diagonală și să conțină valorile proprii, fiecare cu multiplicitatea sa. Este util să observăm cum este ordinea vectorilor coloanei din ordinea valorilor proprii din matrice variază ; în special, valoarea proprie a coloanei a n-a a lui D este asociată cu un vector propriu al spațiului său propriu din coloana a n-a a .

Numere complexe

Dacă câmpul la care lucrați este cel al numerelor complexe , o matrice n pentru n are n valori proprii (numărând fiecare cu multiplicitatea sa relativă, prin teorema fundamentală a algebrei ). Dacă multiplicitățile sunt toate 1, matricea este diagonalizabilă. În caz contrar, depinde. Un exemplu de matrice complexă nediagonalizabilă este descris mai jos.

Faptul că există încă n valori proprii implică faptul că este întotdeauna posibil să se reducă o matrice complexă la o formă triunghiulară : această proprietate, mai slabă decât diagonalizabilitatea, se numește triunghiularitate .

Numere reale

Pe numerele reale lucrurile se schimbă, deoarece suma multiplicităților unui polinom de grad n poate fi mai mică decât n . De exemplu matricea:

nu are valori proprii, deoarece polinomul său caracteristic nu are rădăcini reale. Deci nu există o matrice reală astfel încât fii diagonală! Pe de altă parte, aceeași matrice B văzută cu numere complexe are două valori proprii distincte i și - i și, prin urmare, este diagonalizabilă. De fapt, luând:

găsești asta este diagonală. Matricea considerat pe real în schimb nu este nici măcar triunghiabil .

Există, de asemenea, matrici care nu sunt diagonalizabile nici pe reale, nici pe complexe. Acest lucru se întâmplă în unele cazuri, în care există valori proprii cu multiplicitate mai mare decât una. De exemplu, luați în considerare:

Această matrice nu este diagonalizabilă: are 0 ca singură valoare proprie cu multiplicitate 2, iar dacă ar fi diagonalizabilă ar fi similară cu matricea nulă , ceea ce este imposibil indiferent de câmpul real sau complex.

Notă

  1. ^ F. Odetti , pagina 246 .
  2. ^ S. Lang , pagina 114 .
  3. ^ S. Lang , pagina 115 .
  4. ^ S. Lang , pagina 228 .
  5. ^ S. Lang , pagina 230 .
  6. ^ S. Lang , pagina 245 .
  7. ^ S. Lang , p. 248 .
  8. ^ S. Lang , pagina 246 .
  9. ^ Reed, Simon , pagina 227 .
  10. ^ Reed, Simon , pagina 221 .
  11. ^ Reed, Simon , p. 234 .

Bibliografie

  • Serge Lang , Algebra liniară , Torino, Bollati Boringhieri , 1992, ISBN 88-339-5035-2 .
  • ( EN ) Michael Reed, Barry Simon, Methods of Modern Mathematical Physics, Vol. 1: Functional Analysis , ed. A II-a, San Diego, California, Academic press inc., 1980, ISBN 0-12-585050-6 .
  • F. Odetti, M. Raimondo, Elements of Linear Algebra and Analytical Geometry , ECIG, 1992, ISBN 88-7545-717-4 .
  • (EN) Roger A. Horn și Charles R. Johnson, Matrix Analysis, Cambridge University Press, 1985, ISBN 978-0-521-38632-6 .

Elemente conexe

Alte proiecte

Matematica Portalul de matematică : accesați intrările Wikipedia care se ocupă de matematică