Vector propriu și valoare proprie

De la Wikipedia, enciclopedia liberă.
Salt la navigare Salt la căutare
În această transformare liniară a Mona Lisa , imaginea este modificată, dar axa verticală centrală rămâne fixă. Vectorul albastru a schimbat ușor direcția, în timp ce cel roșu nu. Deci, vectorul roșu este un vector propriu al transformării, iar cel albastru nu. Mai mult, din moment ce vectorul roșu nu a fost nici întins, comprimat, nici răsturnat, valoarea sa proprie este 1. Toți vectorii de pe axa verticală sunt multipli scalari ai vectorului roșu și toți sunt vectori proprii: împreună cu originea, formează l eigenspace în raport cu valoarea proprie 1.

În matematică , în special în algebra liniară , un vector propriu al unei funcții între spațiile vectoriale este un vector diferit de zero a cărui imagine este vectorul însuși înmulțit cu un număr (real sau complex) numit autoevaluare . [1] Dacă funcția este liniară , vectorii proprii având aceeași valoare proprie în comun, împreună cu vectorul nul, formează un spațiu vectorial , numit spațiu propriu . [2] Noțiunea de vector propriu este generalizată de conceptul de vector radical sau vector propriu generalizat .

Conceptele de vector propriu și valoare proprie sunt utilizate în multe domenii ale matematicii și fizicii ; problema găsirii valorilor proprii ale unei funcții liniare corespunde diagonalizării acesteia. Dacă un vector propriu este o funcție, se numește funcție proprie ; de exemplu în mecanica clasică este foarte frecvent să se ia în considerare funcția exponențială ca funcție proprie a derivatului . Formalismele de acest tip permit descrierea multor probleme legate de un sistem fizic: de exemplu, modurile de vibrație ale unui corp rigid sau nivelurile de energie ale orbitalilor atomici și moleculari sunt asociate cu vectorii proprii ( stări proprii) ale funcțiilor ( observabile ) care determina dinamica lor.

Termenul eigenvector a fost tradus din cuvântul german Eigenvektor , inventat de Hilbert în 1904 . Eigen înseamnă „propriu”, „caracteristic”. De asemenea, în literatura italiană se găsește adesea vectorul propriu indicat ca vector adecvat , vector caracteristic sau vector latent .

Introducere informală

Exemplu de transformare liniară: rotația unei figuri plane în jurul unui punct O
.

Planul cartezian și spațiul euclidian sunt exemple particulare de spații vectoriale : fiecare punct al spațiului poate fi descris printr-un vector , reprezentat grafic printr-un segment care leagă originea de punct. Într-un spațiu vectorial este posibil să se efectueze transformări liniare pe vectorii care îl constituie: exemple de transformări liniare sunt rotațiile , homotetica (care permit amplificarea sau contractarea unui vector) și reflexiile (care permit transformarea unui vector în imagine oglindă în raport cu un punct, linie sau plan atribuit).

Un vector propriu pentru transformarea liniară este un vector că în urma aplicării nu își schimbă direcția, limitându-se la înmulțirea cu un scalar , valoarea proprie respectivă. Prin urmare, purtătorul poate schimba modulul (doar prin amplificare sau contractare) și spre (prin răsturnare):

  • de sine versul din rămâne neschimbată, în timp ce dacă versul din schimbări
  • de sine forma de rămâne neafectat, dacă modulul crește, dacă scade.
O undă staționară într-un șir fixat la capete este o funcție proprie a transformării date de trecerea timpului.

Vectorii proprii și valorile proprii sunt definite și utilizate în matematică și fizică în contextul spațiilor vectoriale care sunt mai complexe și abstracte decât cel tridimensional al fizicii clasice. Aceste spații pot avea o dimensiune mai mare de 3 sau chiar infinită (un exemplu este dat de spațiul Hilbert ). Pozițiile posibile ale unei coarde vibrante într-o chitară formează, de asemenea, un spațiu de acest tip: o vibrație a coardei este, prin urmare, interpretată ca o transformare a acestui spațiu, iar vectorii proprii (mai precis, funcțiile proprii ) sunt undele staționare .

Definiție

Este un spațiu vector pe un câmp , care poate fi, de exemplu, câmpul numerelor reale sau domeniul complexelor . Este un endomorfism al , adică o transformare liniară :

De sine este un vector diferit de zero în Și este un scalar astfel încât:

asa de este un vector propriu de transformare , Și este valoarea sa proprie. [1]

Atâta timp cât este liniar, dacă este un vector propriu cu valoare proprie , apoi orice multiplu diferit de zero al lui este, de asemenea, un vector propriu cu aceeași valoare proprie . Într-adevăr, a spus orice vector astfel încât , cu , vei avea atâta timp cât este liniar. Dar fiind , avem asta:

acesta este .

Mai general, vectorii proprii având aceeași valoare fixă , împreună cu vectorul nul, generează un subspatiu de numit spațiu propriu raportat la valoarea proprie , indicat de obicei cu . [2]

Spectrul de este ansamblul valorilor sale proprii. Raza spectrală a este limita superioară a modulelor propriilor sale valori.

Descrierea matricei și vectorul propriu stâng

În cazul în care este de dimensiune finită , pentru fiecare alegere de baze a o matrice , numită matrice de transformare , este asociată în mod unic. [3] Prin urmare, putem vorbi de o funcție liniară atât în ​​ceea ce privește funcția (transformarea), cât și matricea, iar formalismul matricial este adesea folosit pentru a căuta vectori proprii și valori proprii.

Este vectorul coordonatelor lui în ceea ce privește o bază și ambele matricea de transformare reprezentativă față de aceeași bază. Are asta se numește vectorul propriu al dacă există un scalar valoarea proprie menționată astfel încât: [4]

În special, valorile proprii ale nu depind de baza aleasă.

Vectorul este numit vectorul propriu drept , deoarece este un vector diferit de zero se numește vector propriu stâng dacă există astfel încât: [5]

unde este este vectorul transpus complex conjugat de . De sine este vectorul propriu stâng al cu valoare proprie , asa de este, de asemenea, vectorul propriu drept al matricei de transpunere conjugate cu valoare proprie complexul conjugat .

Fără alte specificații, „vector propriu” înseamnă vectorul propriu potrivit.

Auto-funcții

Pictogramă lupă mgx2.svg Același subiect în detaliu: Auto-funcționare .

Adesea vectorii proprii sunt la rândul lor funcții și, în acest caz, vorbim despre funcțiile proprii ale unui operator . Un exemplu foarte semnificativ în matematică și fizică este cel al funcției de sine:

operatorului diferențial derivat :

căruia îi corespunde valoarea proprie la fel de:

Polinom caracteristic

Pictogramă lupă mgx2.svg Același subiect în detaliu: Polinom caracteristic .

Este definit ca un polinom caracteristic în variabilă asociat cu o matrice pătrată determinantul : [6]

unde este este matricea de identitate cu același număr de rânduri ca . Rădăcinile polinomului caracteristic sunt toate valorile proprii ale . [7]

Două matrice reprezentând un endomorfism a unui spațiu vectorial în dimensiunea finită sunt similare și, în special, au același polinom caracteristic și, prin urmare, aceleași valori proprii. Este un instrument de mare importanță, care a făcut posibilă dezvoltarea unei metode generale pentru identificarea valorilor proprii și a vectorilor proprii ai unui endomorfism în cazul în care spațiul vectorial au dimensiuni finite. [8]

Polinomul permite, de asemenea, stabilirea existenței valorilor proprii și a vectorilor proprii pentru o aplicație liniară:

  • Polinomul caracteristic al are grad , și, prin urmare, are cel mult rădăcini: rezultă că are cel mult valori proprii distincte.
  • De sine este închis algebric atunci polinomul caracteristic are întotdeauna cel puțin o rădăcină: rezultă că are cel puțin o valoare proprie și, prin urmare, de asemenea, cel puțin un vector propriu. [9] În cazul real, acest lucru nu se întâmplă întotdeauna, de exemplu pot fi găsite valori proprii complexe.
  • Dacă mărimea din este ciudat și este câmpul numerelor reale , polinomul caracteristic are grad impar, și, prin urmare, are întotdeauna cel puțin o rădăcină reală. De exemplu, orice endomorfism al are cel puțin un vector propriu.
  • Mai mult, dacă polinomul caracteristic al atunci este complet factorizabil este triangolabil, adică există o bază a astfel încât matricea asociată este o matrice triunghiulară.

Diagonalizabilitate

Pictogramă lupă mgx2.svg Același subiect în detaliu: Diagonalizabilitate .

Este un endomorfism al unui spațiu vectorial , adică o transformare liniară . Se spune că este diagonalizabil dacă există o bază de cu privire la care matrice o reprezintă este diagonală . [10] În special, baza care diagonalizează este compus din vectorii săi proprii.

În mod echivalent, o matrice pătrată este diagonalizabilă dacă este similară cu o matrice diagonală . [11] Matricea este deci diagonalizabil în câmpul căruia îi aparține dacă există o matrice inversabilă astfel încât:

adică:

Scris în ceea ce privește vectorii coloanei:

relația anterioară devine:

Vectorii coloană ai sunt deci vectori proprii ai , și elementele corespunzătoare ale matricei diagonale sunt valorile proprii respective. Inversibilitatea implică, de asemenea, independența liniară a vectorilor proprii, care formează o bază a spațiului.

Teorema spectrală

Pictogramă lupă mgx2.svg Același subiect în detaliu: teorema spectrală .

În cazul complexului cu dimensiuni finite, teorema spectrală afirmă că endomorfismul este normal dacă și numai dacă există o bază ortonormală a realizat din vectorii săi proprii . [12] În acest caz, matricea este unitar . Acest rezultat fundamental oferă condițiile pentru care este posibilă diagonalizarea unui operator liniar în raport cu o bază ortonormală: în cazul dimensiunii finite, atunci când acest lucru este posibil, se întâmplă ca vectorii proprii reciproc ortogonali să corespundă cu valori proprii distincte și, prin urmare, spațiile egale sunt în sumă directă .

Descompunerea spectrală este un caz special al descompunerii Schur . Este, de asemenea, un caz special de descompunere a valorii singulare . Prin urmare, un operator normal poate fi scris ca o combinație liniară de proiectoare ortogonale pe spațiile egale, ai căror coeficienți sunt valorile proprii relative la fiecare spațiu egigen.

În cazul infinit-dimensional, normalitatea și, în special, auto-ajustabilitatea , nu garantează diagonalizarea. În general, un operator normal nu mai poate fi scris ca o combinație liniară de proiectoare ortogonale. Cu toate acestea, printr-o măsurare a valorii proiectorului, este posibil să se obțină o scriere integrală care să permită descrierea operatorului în termeni de spectru .

Spectrul unui operator

Pictogramă lupă mgx2.svg Același subiect în detaliu: Spectru (matematică) .

Într-un spațiu cu dimensiune infinită, definiția valorii proprii este identică cu cazul dimensiunii finite. Cu toate acestea, polinomul caracteristic nu este un instrument disponibil în acest caz, deoarece este necesar să se ia în considerare alte elemente ale spectrului.

Este un operator liniar limitat definit pe un complex spațial Banach . Este definit ca setul de rezolvare a întregul de numere complexe astfel pentru care operatorul este inversabil, adică are un invers care este un operator liniar mărginit. Este definit ca rezolvarea lui functia:

Spectrul de este setul de numere complexe care nu aparțin setului de rezolvare, adică astfel încât operatorul nu este inversabil. [13]

De cand este un operator liniar , dacă inversul său există este liniar. Mai mult, prin teorema graficului închis inversul unui operator liniar mărginit este mărginit. Rezultă că setul de rezolvare este setul de valori cedante bijectiv.

Spectrul unui operator nu poate fi gol și se pot distinge trei subseturi disjuncte:

  • Este definit ca un spectru punctual sau discret de ansamblul valorilor proprii ale , adică numere complexe astfel încât:
Prin urmare, valorile proprii sunt numerele pentru care , adică : functia nu este inversabil dacă nucleul său nu este constituit doar de vectorul nul, adică există vectori astfel pentru care există o astfel încât . Echivalent, este valoarea proprie a dacă și numai dacă nu este injectiv sau dacă și numai dacă .
  • Se numește spectru continuu de setul de numere astfel pentru care nu este limitat, deși este dens definit.
  • Este definit spectrul rezidual de setul de numere care nu sunt valori proprii și altele pentru care operatorul nu are nicio imagine densă în . [14]

Operatori adăugați și autoadjuncti

Pictogramă lupă mgx2.svg Același subiect în detaliu: Adjuvant Operatorul și operatorul autoadjunct .

Definiția operatorului adăugat diferă în funcție de faptul dacă ne aflăm într-un spațiu Hilbert sau într-un spațiu Banach . Din această cauză, spectrul unui operator definit pe un spațiu Banach coincide cu cel al adjunctului său, în timp ce într-un spațiu Hilbert, denotând adjunctul lui cu , avem asta:

De asemenea, dacă aparține spectrului rezidual al , asa de aparține spectrului punctual al adjunctului . Dacă în schimb aparține spectrului punctual al , atunci aparține atât spectrului punctual, cât și spectrului rezidual al . [15]

De sine este autoadjunct pe un spațiu Hilbert, avem și:

  • nu are spectru rezidual.
  • este un subset de , adică valorile proprii sunt reale.
  • Vectorii proprii în raport cu valorile proprii distincte sunt ortogonali.

Aplicații

Studiul valorilor proprii și al vectorilor proprii legați de o transformare liniară, care constă în auto- teorie , este una dintre principalele probleme cu care se confruntă algebra liniară și are vaste aplicații în diferite domenii ale științei.

Operatori în mecanica cuantică

Pictogramă lupă mgx2.svg Același subiect în detaliu: Postulatele mecanicii cuantice .
Funcțiile de undă asociate cu stările unui electron într-un atom de hidrogen sunt vectorii proprii ai ambelor hamiltoniene ale atomului de hidrogen sunt momentul unghiular . Valorile proprii asociate sunt interpretate ca energiile lor (crescând de sus în jos n = 1,2,3, ...) și momentele unghiulare (crescând de la stânga la dreapta: s , p , d , ...). Pătratele valorilor absolute ale funcțiilor proprii sunt desenate aici. Zonele mai luminoase corespund densităților de probabilitate mai mari pentru poziția într-o măsurătoare. Centrul fiecărei figuri este nucleul atomului , un proton .

În mecanica cuantică, o „stare” sau stat propriu al obiectului considerat este asociată cu un vector (numit în acest context autoket ). În termeni informali, pentru a evidenția faptul că această stare nu este în general cunoscută, este descrisă ca o combinație liniară (sau suprapunere ) a vectorilor proprii cunoscuți ( stări proprii) ale unor operatori. Operatorul în cauză „reprezintă” un anumit observabil , căruia îi corespunde o mărime fizică: de exemplu operatorul hamiltonian este asociat cu energia obiectului. Dacă alegeți să scrieți starea obiectului printr-o combinație liniară de vectori proprii ai , la fiecare vector propriu se asociază o posibilă valoare a energiei obiectului, care este valoarea sa proprie:

O astfel de reprezentare matricială independentă de timp a ecuației Schrödinger este posibilă dacă, așa cum se întâmplă adesea (de exemplu, atunci când studiați stările legate), este o funcție pătrată însumabilă : aceste funcții formează un spațiu Hilbert cu dimensiune infinită cu produs interior .

Operația care prin aplicarea returnează una dintre valorile proprii numită măsură și determină starea obiectului să „se prăbușească” sau „să precipite” într-o stare proprie a măsurării observabile. Măsura modifică iremediabil starea sistemului, care se află într-un stat propriu foarte specific. Setul de valori (valori proprii) posibile pentru măsurarea unei mărimi observabile este spectrul operatorului asociat cu aceasta. Având în vedere cuantificarea unei mărimi fizice, este de asemenea necesar ca. este un operator hermitian : în acest fel, valorile proprii sunt reale , iar stările proprii (normalizate) formează o bază ortonormală a spațiului. Datorită produsului intern autostatul poate fi proiectat pe baza statelor proprii ale altui operator, cum ar fi baza vectorilor proprii a poziției operatorului . Proiecția:

definește funcția de undă , o descriere probabilistică a poziției obiectului. Funcția de undă este deci o funcție proprie a corespunzând valorii proprii :

Produsul interior din spațiul Hilbert este dat și de:

unde este indică conjugarea complexă . Aceasta limitează alegerea spațiului Hilbert la spațiul funcțiilor pătrate integrabile pe domeniul ales , care poate fi totul .

Teoria numerelor

Studiul valorilor proprii ale unei matrice are, de asemenea, aplicații importante în teoria numerelor . În special, se presupune că unele statistici privind zerourile non-banale ale funcției zeta Riemann , cum ar fi, de exemplu, cele de la distanța dintre zerourile consecutive, sunt aceleași cu cele referitoare la matricile hermitiene aleatorii (cu privire la Haar măsură ) de dimensiune a tinde spre la nesfârșit. Mai mult, s-a presupus că, de asemenea, distribuția valorilor funcției zeta Riemann este bine aproximată, în medie, de valorile asumate de polinomul caracteristic al acestor matrice. Considerații similare pot fi făcute și asupra altor familii cu funcții speciale , cum ar fi funcțiile Dirichlet L , care implică și alte familii de matrice aleatorii, cum ar fi matrici simplectice sau ortogonale . Această conexiune a dus la înflorirea unui număr de noi presupuneri în teoria numerelor. [16]

Autoface

Autofaces sunt exemple de vectori proprii.

În procesarea digitală a imaginilor , imaginile feței pot fi văzute ca vectori ale căror componente sunt luminozitatea pixelilor individuali. [17] Dimensiunea spațiului vectorial în care sunt setate este egală cu numărul de pixeli, iar vectorii proprii ai unei anumite matrice, numită matrice de covarianță , sunt numiți autoface . Acestea sunt foarte utile pentru exprimarea fiecărei fețe ca o combinație liniară a acestor fețe automate și, prin urmare, sunt, de asemenea, un instrument excelent de compresie a datelor pentru stocarea și identificarea unui număr mare de fețe.

Tensor de inerție

În mecanică , vectorii proprii ai tensorului de inerție definesc axele principale ale unui corp rigid. Tensorul de inerție este o cantitate cheie necesară pentru a determina rotația unui corp rigid în jurul centrului său de greutate . Vectorii proprii ai tensorului de deformare definesc axele principale de deformare.

Exemple

Exemple în plan

Printre transformările planului cartezian se pot distinge următoarele cazuri speciale:

  • Rotația unghiului în sens invers acelor de ceasornic . De sine nu este un multiplu întreg al non esiste alcun autovettore, infatti ogni vettore viene ruotato e cambia di direzione. Se invece , con intero dispari, ogni vettore viene trasformato nel suo opposto, quindi ogni vettore non nullo è autovettore della rotazione con autovalore . Se invece è pari la trasformazione non è altro che l'identità, per cui ogni vettore non nullo è autovettore con autovalore .
La rotazione può essere rappresentata dalla seguente matrice:
  • Riflessione rispetto a una retta passante per l'origine. I vettori in restano fermi e sono quindi autovettori con autovalore , mentre quelli della retta perpendicolare a e passante per l'origine vengono ribaltati, e quindi sono autovettori con autovalore . Non esistono altri autovettori.
La riflessione, nel caso di retta r orizzontale, può essere rappresentata dalla seguente matrice:
  • Omotetia . Ogni vettore viene moltiplicato per uno scalare e quindi tutti i vettori non nulli sono autovettori con autovalore .
L'omotetia può essere rappresentata dalla seguente matrice:
  • Proiezione ortogonale su una retta passante per l'origine. I vettori su restano fermi e quindi sono autovettori con autovalore , mentre i vettori sulla retta ortogonale a e passante per l'origine sono mappati tutti sull'origine e quindi sono autovettori con autovalore . Non ci sono altri autovettori.
La proiezione ortogonale può essere rappresentata dalla seguente matrice:

Esempi nello spazio

Non tutte le trasformazioni del piano e dello spazio ricadono in una delle 4 tipologie viste negli esempi del piano sopra riportate.

In generale, un endomorfismo di (cioè una trasformazione lineare di in sé) è rappresentabile tramite una matrice quadrata con n righe. Si consideri per esempio l'endomorfismo di indotto dalla matrice:

Se si considera il vettore :

e si esegue la moltiplicazione fra matrice e vettore , si vede che:

Quindi l'endomorfismo rappresentato da ha un autovettore dato da con autovalore 2. Per trovarne tutti gli autovalori si deve scrivere il polinomio caratteristico di . Poiché la trasformazione è già scritta in forma di matrice, si procede con il calcolarne il polinomio caratteristico:

Quindi gli autovalori di sono 2, 1 e −1. I tre autovettori ortogonali sono:

Per quanto detto prima, la trasformazione assume una forma molto semplice rispetto a questa base: ogni vettore in può essere scritto in modo unico come:

e dunque si ha:

Data infine una trasformazione lineare , si è visto che se il polinomio caratteristico di ha tutte le radici in con molteplicità 1, allora è diagonalizzabile. Se invece il polinomio caratteristico di ha tutte le radici in ma alcune di esse hanno molteplicità maggiore di 1, allora non è necessariamente diagonalizzabile. Ad esempio la matrice:

che rappresenta la trasformazione della Gioconda in figura ha come polinomio caratteristico , e non è diagonalizzabile per .

Esempi di calcolo

Data la matrice di trasformazione:

Deformazione dello spazio bidimensionale a seguito della trasformazione operata dalla matrice A= . I vettori blu (che hanno la stessa direzione dell'autovettore ) ei vettori viola (che hanno la stessa direzione dell'autovettore ) conservano la loro direzione anche dopo la trasformazione, a differenza dei vettori in rosso che sono orientati diversamente. Il quadrato iniziale a seguito della trasformazione si deforma diventando un rombo: i vettori blu triplicano il loro modulo avendo autovalore 3 mentre i viola restano inalterati avendo autovalore 1.

il vettore:

è un autovettore con autovalore 2. Infatti:

Per contro il vettore:

non è un autovettore in quanto il vettore trasformato è:

e, come si nota facilmente, manca la proporzionalità tra il vettore trasformato e il vettore originale , condizione necessaria per il parallelismo.

Come secondo esempio, si consideri la matrice di trasformazione:

è facile verificare che i vettori:

sono autovettori con autovalori 3 e 1 rispettivamente.

Note

  1. ^ a b S. Lang , Pag. 220 .
  2. ^ a b S. Lang , Pag. 221 .
  3. ^ S. Lang , Pag. 104 .
  4. ^ S. Lang , Pag. 105 .
  5. ^ Jim Lambers - The Unsymmetric Eigenvalue Problem
  6. ^ S. Lang , Pag. 227 .
  7. ^ S. Lang , Pag. 228 .
  8. ^ Nella pratica gli autovalori di grandi matrici non vengono calcolati usando il polinomio caratteristico, esistendo metodi numerici più veloci e sufficientemente stabili.
  9. ^ S. Lang , Pag. 223 .
  10. ^ S. Lang , Pag. 114 .
  11. ^ S. Lang , Pag. 115 .
  12. ^ S. Lang , Pag. 251 .
  13. ^ Reed, Simon , Pag. 188 .
  14. ^ Lo shift unilaterale su ne fornisce un esempio: tale operatore è una isometria , ed è quindi limitato ma non invertibile poiché non è surriettivo.
  15. ^ Reed, Simon , Pag. 194 .
  16. ^ ( EN ) Jon Keating , L-functions and the Characteristic Polynomials of Random Matrices , in Francesco Mezzadri e Nina Snaith (a cura di), Recent perspectives in random matrix theory and number theory , Cambridge, Cambridge University Press, 2005, pp. 251-278, ISBN 978-0-521-62058-1 .
  17. ^ A. Xirouhakis, G. Votsis e A. Delopoulus, Estimation of 3D motion and structure of human faces ( PDF ), Online paper in PDF format, National Technical University of Athens, 2004.

Bibliografia

Voci correlate

Altri progetti

Collegamenti esterni

Calcolatrici online
Controllo di autorità LCCN ( EN ) sh85041390 · GND ( DE ) 4013802-1