În algebra liniară , exponențialul matricei este funcția matricială corespunzătoare funcției exponențiale a unei matrice pătrate .
Matricea exponențială apare de exemplu în rezolvarea sistemelor liniare de ecuații diferențiale . Prin urmare, are o aplicație importantă în teoria sistemelor și teoria controlului automat .
Definiție
Este {\ displaystyle A} o matrice pătrată {\ displaystyle n \ times n} cu coeficienți reali sau complecși . Matricea exponențială a {\ displaystyle A} , indicat cu {\ displaystyle e ^ {A}} , este o matrice pătrată {\ displaystyle n \ times n} obținut prin dezvoltarea de serii de putere :
- {\ displaystyle e ^ {A} = \ sum _ {k = 0} ^ {\ infty} {\ frac {A ^ {k}} {k!}}}
Este o serie care este întotdeauna convergentă , deci matricea exponențială este bine definită. Se observă că dacă {\ displaystyle A} este o matrice {\ displaystyle 1 \ times 1} (asa de {\ displaystyle A} este un număr real sau complex), seria matricei exponențiale corespunde definiției formale a funcției exponențiale .
Proprietate
Matricea exponențială definește o hartă:
- {\ displaystyle \ exp \ colon M_ {n} (\ mathbb {C}) \ to \ mathrm {GL} (n, \ mathbb {C})}
din spațiul matricial {\ displaystyle n \ times n} la grupul liniar general de grad {\ displaystyle n} , acesta este grupul de matrice inversabile . Este o hartă surjectivă, de fapt fiecare matrice inversabilă poate fi scrisă ca exponențială a altei matrice (având în vedere câmpul complex).
Dați două matrice {\ displaystyle X} Și {\ displaystyle Y} , avem:
- {\ displaystyle \ | e ^ {X + Y} -e ^ {X} \ | \ leq \ | Y \ | e ^ {\ | X \ |} e ^ {\ | Y \ |}}
cu {\ displaystyle \ | \ |} norma matricei . Rezultă că matricea exponențială este continuă și Lipschitz pe subseturi compacte de {\ displaystyle M_ {n} (\ mathbb {C})} .
Lasa-i sa fie {\ displaystyle X} Și {\ displaystyle Y} două matrice complexe de dimensiune {\ displaystyle n \ times n} și sunt {\ displaystyle a} Și {\ displaystyle b} două numere complexe. Indicăm matricea de identitate cu {\ displaystyle I} iar matricea nulă cu 0. Matricea exponențială îndeplinește următoarele proprietăți:
- {\ displaystyle e ^ {0} = I}
- {\ displaystyle e ^ {aX} e ^ {bX} = e ^ {(a + b) X}}
- {\ displaystyle e ^ {X} e ^ {- X} = I}
- De sine {\ displaystyle AB = BA} , asa de {\ displaystyle e ^ {A} e ^ {B} = e ^ {A + B}} .
- De sine {\ displaystyle Y} este inversabil atunci {\ displaystyle e ^ {YXY ^ {- 1}} = Ye ^ {X} Y ^ {- 1}} .
- {\ displaystyle \ det (e ^ {X}) = e ^ {{\ mbox {tr}} (X)}}
- {\ displaystyle e ^ {X ^ {T}} = (e ^ {X}) ^ {T}} , unde este {\ displaystyle X ^ {T}} indică matricea transpusă a {\ displaystyle X} . Rezultă că dacă {\ displaystyle X} atunci este o matrice simetrică {\ displaystyle e ^ {X}} este simetric; mai mult dacă {\ displaystyle X} este atunci o matrice antisimetrică {\ displaystyle e ^ {X}} este o matrice ortogonală .
- {\ displaystyle e ^ {X ^ {*}} = (e ^ {X}) ^ {*}} , unde este {\ displaystyle X ^ {*}} denotă matricea de transpunere conjugată a {\ displaystyle X} . Rezultă că dacă {\ displaystyle X} atunci este o matrice hermitiană {\ displaystyle e ^ {X}} este o matrice hermitiană; mai mult dacă {\ displaystyle X} atunci este o matrice anti-hermitiană {\ displaystyle e ^ {X}} este o matrice unitară .
- Exponențialul unei matrice este întotdeauna o matrice inversabilă , în analogie cu faptul că exponențiala unui număr complex nu este niciodată nulă.
Derivat
Harta:
- {\ displaystyle t \ mapsto e ^ {tX} \ qquad t \ in \ mathbb {R}}
definește o curbă lină în grupul liniar general care trece prin identitate dacă {\ displaystyle t = 0} . Derivatul în {\ displaystyle t} este dat de:
- {\ displaystyle {\ frac {d} {dt}} e ^ {tX} = Xe ^ {tX} = e ^ {tX} X}
Mai general, pentru un exponent dependent de {\ displaystyle t} :
- {\ displaystyle {\ frac {d} {dt}} e ^ {X (t)} = \ int _ {0} ^ {1} e ^ {\ alpha X (t)} {\ frac {dX (t) } {dt}} e ^ {(1- \ alpha) X (t)} \, d \ alpha}
Purtând {\ displaystyle e ^ {X (t)}} din integrală și extinzând aceasta din urmă prin formula Baker-Campbell-Hausdorff , obținem expresia:
- {\ displaystyle \ left ({\ frac {d} {dt}} e ^ {X (t)} \ right) e ^ {- X (t)} = {\ frac {d} {dt}} X (t ) + {\ frac {1} {2!}} [X (t), {\ frac {d} {dt}} X (t)] + {\ frac {1} {3!}} [X (t ), [X (t), {\ frac {d} {dt}} X (t)]] + \ cdots}
Determinant
Pentru fiecare matrice pătrată pe câmpul numerelor complexe avem, datorită formulei Jacobi :
- {\ displaystyle \ det (e ^ {A}) = e ^ {\ operatorname {tr} (A)}}
Această formulă arată că o matrice exponențială este întotdeauna inversabilă , deoarece termenul din dreapta nu este niciodată nul și, prin urmare, determinantul nu este niciodată nul.
În câmpul numerelor reale, harta:
- {\ displaystyle \ exp \ colon M_ {n} (\ mathbb {R}) \ to \ mathrm {GL} (n, \ mathbb {R})}
nu este surjectiv.
Calculul matricei exponențiale
Pentru calculul matricei exponențiale {\ displaystyle e ^ {A}} seria de putere nu este utilizată, deoarece constă dintr-o sumă de adaosuri infinite. Folosind vectorii proprii obținem o serie cu un număr finit de termeni.
Având în vedere diagonalizabilitatea matricei {\ displaystyle A} există două cazuri distincte.
Caz de matrice diagonalizabilă
Dacă matricea {\ displaystyle A} este diagonalizabil înseamnă că are n vectori proprii liniar independenți {\ displaystyle \ mathbf {t} _ {1}, \ mathbf {t} _ {2}, \ dots, \ mathbf {t} _ {n}} . Prin urmare, putem scrie:
- {\ displaystyle {\ begin {matrix} A \ mathbf {t} _ {1} = \ mathbf {t} _ {1} \ lambda _ {1} \\ A \ mathbf {t} _ {2} = \ mathbf {t} _ {2} \ lambda _ {2} \\\ vdots \\ A \ mathbf {t} _ {n} = \ mathbf {t} _ {n} \ lambda _ {n} \ end {matrix} }}
Cu {\ displaystyle \ mathbf {t} _ {i}} vector propriu asociat cu valoarea proprie {\ displaystyle \ lambda _ {i}} . Toți vectorii proprii sunt grupați într-o singură matrice:
- {\ displaystyle [{\ begin {matrix} A \ mathbf {t} _ {1} & \ dots & A \ mathbf {t} _ {n} \ end {matrix}}] = [{\ begin {matrix} \ mathbf {t} _ {1} \ lambda _ {1} & \ dots & \ mathbf {t} _ {n} \ lambda _ {n} \ end {matrix}}]}
- {\ displaystyle A [{\ begin {matrix} \ mathbf {t} _ {1} & \ dots & \ mathbf {t} _ {n} \ end {matrix}}] = [{\ begin {matrix} \ mathbf {t} _ {1} & \ dots & \ mathbf {t} _ {n} \ end {matrix}} {\ begin {bmatrix} \ lambda _ {1} & 0 & 0 & 0 & \ dots \\ 0 & \ lambda _ {2} & 0 & 0 & \ dots \\ 0 & 0 & \ lambda _ {3} & 0 & \ dots \\\ vdots & \ vdots & \ vdots & \ ddots & \ vdots \\ 0 & 0 & 0 & \ dots & \ lambda _ {n} \\\ end {bmatrix}}}
Setarea matricei formate din vectorii proprii egală cu {\ displaystyle T} iar matricea diagonală a valorilor proprii egale cu {\ displaystyle \ Lambda} primesti:
- {\ displaystyle AT = T \ Lambda}
Prezentarea matricei {\ displaystyle S = T ^ {- 1}} , invers de {\ displaystyle T} , se obțin următoarele relații:
- {\ displaystyle SAT = \ Lambda \ qquad A = T \ Lambda S \ qquad SA = \ Lambda S}
Din a doua relație obținem:
- {\ displaystyle A ^ {k} = (T \ Lambda S) ^ {k} = T \ cdot \ Lambda \ cdot S \ cdot T \ cdot \ Lambda \ cdot S \ dots = T \ Lambda ^ {k} S}
Prin urmare:
- {\ displaystyle e ^ {A} = \ sum _ {k = 0} ^ {\ infty} {\ frac {A ^ {k}} {k!}} = T \ left [\ sum _ {k = 0} ^ {\ infty} {\ frac {\ Lambda ^ {k}} {k!}} \ right] S = Te ^ {\ Lambda} S}
Se calculează {\ displaystyle e ^ {\ Lambda}} :
- {\ displaystyle e ^ {\ Lambda} = \ sum _ {k = 0} ^ {\ infty} {\ frac {\ Lambda ^ {k}} {k!}} = I + {\ begin {bmatrix} \ lambda _ {1} & 0 & 0 & \ dots \\ 0 & \ lambda _ {2} & 0 & \ dots \\\ vdots & \ vdots & \ ddots & \ vdots \\ 0 & 0 & \ dots & \ lambda _ {n} \\\ end {bmatrix}} {\ frac {1} {1!}} + {\ begin {bmatrix} \ lambda _ {1} ^ {2} & 0 & 0 & \ dots \\ 0 & \ lambda _ {2} ^ {2} & 0 & \ dots \\ \ vdots & \ vdots & \ ddots & \ vdots \\ 0 & 0 & \ dots & \ lambda _ {n} ^ {2} \\ \ end {bmatrix}} {\ frac {1} {2!}} + \ dots =}
- {\ displaystyle = {\ begin {bmatrix} 1 + {\ frac {\ lambda _ {1}} {1!}} + {\ frac {\ lambda _ {1} ^ {2}} {2!}} + \ dots & 0 & 0 & \ dots \\ 0 & 1 + {\ frac {\ lambda _ {2}} {1!}} + {\ frac {\ lambda _ {2} ^ {2}} {2! }} + \ dots & 0 & \ dots \\\ vdots & \ vdots & \ ddots & \ vdots \\ 0 & 0 & \ dots & 1 + {\ frac {\ lambda _ {n}} {1!}} + {\ frac {\ lambda _ {n} ^ {2}} {2!}} + \ Dots \\\ end {bmatrix}} = {\ begin {bmatrix} e ^ {\ lambda _ {1}} & 0 & 0 & \ dots \\ 0 & e ^ {\ lambda _ {2}} & 0 & \ dots \\\ vdots & \ vdots & \ ddots & \ vdots \\ 0 & 0 & \ dots & e ^ { \ lambda _ {n}} \\\ end {bmatrix}}}
Acum luăm în considerare ultima relație obținută anterior și aplicăm transpunerea:
- {\ displaystyle SA = \ Lambda S \ Rightarrow (SA) ^ {T} = (\ Lambda S) ^ {T} \ Rightarrow A ^ {T} S ^ {T} = S ^ {T} \ Lambda ^ {T } \ Rightarrow A ^ {T} S ^ {T} = S ^ {T} \ Lambda}
Prin urmare, putem scrie:
- {\ displaystyle A ^ {T} [{\ begin {matrix} \ mathbf {s} _ {1} ^ {T} & \ dots & \ mathbf {s} _ {n} ^ {T} \ end {matrix} }] = [{\ begin {matrix} \ mathbf {s} _ {1} ^ {T} & \ dots & \ mathbf {s} _ {n} ^ {T} \ end {matrix}}] {\ begin {bmatrix} \ lambda _ {1} & 0 & 0 & 0 & \ dots \\ 0 & \ lambda _ {2} & 0 & 0 & \ dots \\ 0 & 0 & \ lambda _ {3} & 0 & \ dots \\\ vdots & \ vdots & \ vdots & \ ddots & \ vdots \\ 0 & 0 & 0 & \ dots & \ lambda _ {n} \\\ end {bmatrix}}}
Prin urmare, se observă că {\ displaystyle \ mathbf {s} _ {n} ^ {T}} sunt vectori proprii lăsați ai {\ displaystyle A} . Apoi puteți partiționa matricea {\ displaystyle S} pe linii:
- {\ displaystyle S = \ left [{\ begin {matrix} \ mathbf {s} _ {1} ^ {T} \\\ mathbf {s} _ {2} ^ {T} \\\ vdots \\\ mathbf {s} _ {n} ^ {T} \ end {matrix}} \ right]}
În acest fel obținem:
- {\ displaystyle e ^ {A} = [{\ begin {matrix} \ mathbf {t} _ {1} & \ dots & \ mathbf {t} _ {n} \ end {matrix}}] {\ begin {bmatrix } e ^ {\ lambda _ {1}} & 0 & \ dots \\\ vdots & \ ddots & \ vdots \\ 0 & \ dots & e ^ {\ lambda _ {n}} \\\ end {bmatrix} } \ left [{\ begin {matrix} \ mathbf {s} _ {1} ^ {T} \\\ vdots \\\ mathbf {s} _ {n} ^ {T} \ end {matrix}} \ right ] = \ mathbf {t} _ {1} e ^ {\ lambda _ {1}} \ mathbf {s} _ {1} ^ {T} + \ mathbf {t} _ {2} e ^ {\ lambda _ {2}} \ mathbf {s} _ {2} ^ {T} + \ dots + \ mathbf {t} _ {n} e ^ {\ lambda _ {n}} \ mathbf {s} _ {n} ^ {T}}
În concluzie, în cauză {\ displaystyle A} să fie diagonalizabile, avem:
- {\ displaystyle e ^ {A} = \ sum _ {k = 1} ^ {n} \ mathbf {t} _ {k} \ cdot \ mathbf {s} _ {k} ^ {T} \ cdot e ^ { \ lambda _ {k}}}
cu {\ displaystyle \ mathbf {t} _ {k}} dreapta vector propriu e {\ displaystyle \ mathbf {s} _ {k} ^ {T}} vector propriu stâng, ambele asociate cu valoarea proprie {\ displaystyle \ lambda _ {k}}
Cazul lui A nu este diagonalizabil
De sine {\ displaystyle A} nu este diagonalizabil, se folosește forma Jordan . În acest caz avem {\ displaystyle A = TJS} , cu {\ displaystyle J} matrice diagonală bloc:
- {\ displaystyle J = {\ begin {bmatrix} J_ {1} & 0 & 0 & \ cdots \\ 0 & J_ {2} & 0 & \ cdots \\\ vdots & \ vdots & \ ddots & \ cdots \\ 0 & 0 & \ cdots & J_ {k} \ end {bmatrix}}}
unde blocul k-este de forma:
- {\ displaystyle J_ {k} = {\ begin {bmatrix} \ lambda _ {k} & 1 & 0 & \ cdots \\ 0 & \ lambda _ {k} & 1 & \ cdots \\\ vdots & \ vdots & \ ddots & 1 \\ 0 & 0 & \ cdots & \ lambda _ {k} \ end {bmatrix}} = {\ begin {bmatrix} \ lambda _ {k} & 0 & 0 & \ cdots \\ 0 & \ lambda _ {k} & 0 & \ cdots \\\ vdots & \ vdots & \ ddots & 0 \\ 0 & 0 & \ cdots & \ lambda _ {k} \ end {bmatrix}} + {\ begin {bmatrix} 0 & 1 & 0 & \ cdots \\ 0 & 0 & 1 & \ cdots \\\ vdots & \ vdots & \ ddots & 1 \\ 0 & 0 & \ cdots & 0 \ end {bmatrix}} = \ Lambda _ {k} + J_ {k0}}
Matricile {\ displaystyle J_ {k}} se numesc blocuri Iordania . Folosind procedura urmată în cazul {\ displaystyle A} diagonalizabil se obține:
- {\ displaystyle e ^ {A} = Te ^ {J} S}
unde este:
- {\ displaystyle e ^ {J} = {\ begin {bmatrix} e ^ {J_ {1}} & 0 & 0 & \ cdots \\ 0 & e ^ {J_ {2}} & 0 & \ cdots \\\ vdots & \ vdots & \ ddots & \ cdots \\ 0 & 0 & \ cdots & e ^ {J_ {k}} \ end {bmatrix}}}
Rețineți că produsul matricilor {\ displaystyle \ Lambda _ {k}} Și {\ displaystyle J_ {k0}} este comutativ. Prin urmare, putem scrie:
- {\ displaystyle e ^ {J_ {k}} = e ^ {\ lambda _ {k} I} e ^ {J_ {k0}}}
Se calculează acum {\ displaystyle e ^ {J_ {k0}}} :
- {\ displaystyle e ^ {J_ {k0}} = \ sum _ {k = 0} ^ {\ infty} {\ frac {J_ {k0} ^ {k}} {k!}}}
Se întâmplă cu ușurință că {\ displaystyle J_ {k0} ^ {k}} se calculează mișcând diagonala formată de 1 în sus și spre dreapta:
- {\ displaystyle J_ {k0} = {\ begin {bmatrix} 0 & 1 & 0 & 0 & \ dots \\ 0 & 0 & 1 & 0 & \ dots \\ 0 & 0 & 0 & 1 & \ dots \\ \ vdots & \ vdots & \ vdots & \ ddots & 1 \\ 0 & 0 & 0 & \ dots & 0 \ end {bmatrix}} \ qquad J_ {k0} ^ {2} = {\ begin {bmatrix} 0 & 0 & 1 & \ dots & 0 \\ 0 & 0 & 0 & 1 & \ vdots \\ 0 & 0 & 0 & \ dots & \ vdots \\\ vdots & \ vdots & \ vdots & \ ddots & \ vdots \ \ 0 & 0 & 0 & \ dots & 0 \ end {bmatrix}}}
- {\ displaystyle J_ {k0} ^ {\ nu _ {k} -1} = {\ begin {bmatrix} 0 & 0 & 0 & \ dots & 1 \\ 0 & 0 & 0 & \ dots & 0 \\ 0 & 0 & 0 & \ dots & 0 \\\ vdots & \ vdots & \ vdots & \ ddots & \ vdots \\ 0 & 0 & 0 & \ dots & 0 \ end {bmatrix}} \ qquad J_ {k0} ^ {\ nu _ {k}} = {\ begin {bmatrix} 0 & 0 & 0 & \ dots & 0 \\ 0 & 0 & 0 & \ dots & 0 \\ 0 & 0 & 0 & \ dots & 0 \ \\ vdots & \ vdots & \ vdots & \ ddots & \ vdots \\ 0 & 0 & 0 & \ dots & 0 \ end {bmatrix}}}
Unde este {\ displaystyle \ nu _ {k}} este mărimea lui {\ displaystyle J_ {k0}} . Pentru puteri mai mari decât {\ displaystyle \ nu _ {k}} avem matricea nulă .
Prin urmare:
- {\ displaystyle e ^ {J_ {k0}} = \ sum _ {k = 0} ^ {\ nu _ {k} -1} {\ frac {J_ {k0} ^ {k}} {k!}}}
În plus:
- {\ displaystyle e ^ {\ lambda _ {k} I} = {\ begin {bmatrix} e ^ {\ lambda _ {k}} & 0 & 0 & 0 & \ dots \\ 0 & e ^ {\ lambda _ {k}} & 0 & 0 & \ dots \ \ 0 & 0 & e ^ {\ lambda _ {k}} & 0 & \ dots \\\ vdots & \ vdots & \ vdots & \ ddots & \ vdots \\ 0 & 0 & 0 & \ dots & e ^ {\ lambda _ {k}} \ end {bmatrix}} = e ^ {\ lambda _ {k}} I}
De aici și blocul k-al lui {\ displaystyle e ^ {J}} are următoarea expresie:
- {\ displaystyle e ^ {J_ {k}} = e ^ {\ lambda _ {k} I} e ^ {J_ {k0}} = \ sum _ {k = 0} ^ {\ nu _ {k} -1 } {\ frac {J_ {k0} ^ {k}} {k!}} e ^ {\ lambda _ {k}}}
Matricea exponențială este:
- {\ displaystyle e ^ {A} = [{\ begin {matrix} T_ {1} & \ dots & T_ {s} \ end {matrix}}] {\ begin {bmatrix} e ^ {J_ {1}} & 0 & \ dots \\\ vdots & \ ddots & \ vdots \\ 0 & \ dots & e ^ {J_ {n}} \\\ end {bmatrix}} \ left [{\ begin {matrix} S_ {1} ^ {T} \ \\ vdots \\ S_ {s} ^ {T} \ end {matrix}} \ right] = \ sum _ {k = 1} ^ {s} [T_ {k} e ^ {J_ { k}} S_ {k} ^ {T}] = \ sum _ {k = 1} ^ {s} \ sum _ {i = 1} ^ {\ nu _ {k} -1} {\ frac {T_ { k} J_ {k0} ^ {i} S_ {k} ^ {T}} {i!}} și ^ {\ lambda _ {k}}}
unde este {\ displaystyle T_ {k} \ in \ mathbb {R} ^ {n \ times \ nu _ {k}}} Și {\ displaystyle S_ {k} ^ {T} \ in \ mathbb {R} ^ {\ nu _ {k} \ times n}} . Matricea {\ displaystyle T} nu este alcătuit din vectorii proprii ai {\ displaystyle A} . Calculul matricei de transformare {\ displaystyle T} este mai complexă decât în cazul {\ displaystyle A} diagonalizabil.
Aplicarea la sisteme de ecuații diferențiale
Funcția exponențială a unei matrice este frecvent utilizată pentru rezolvarea sistemelor de ecuații diferențiale . Soluția problemei valorilor inițiale de ordinul întâi:
- {\ displaystyle y '(t) = Ay (t) \ qquad y (0) = y_ {0}}
in care {\ displaystyle A} este o matrice constantă (adică a coeficienților constanți), este dată de:
- {\ displaystyle y (t) = e ^ {At} y_ {0}}
Se poate folosi și funcția exponențială a unei matrice pentru a studia ecuația neomogenă:
- {\ displaystyle y '(t) = Ay (t) + z (t) \ qquad y (0) = y_ {0}}
Pe de altă parte, nu există nicio soluție în formă închisă pentru ecuații de tipul:
- {\ displaystyle y '(t) = A (t) \, y (t) \ qquad y (0) = y_ {0}}
cu {\ displaystyle A} nu este constantă, totuși este posibil să se găsească o soluție sub forma unei sume infinite.
Bibliografie
- ( EN ) Bhatia, R., Matrix Analysis , Graduate Texts in Mathematics, vol. 169, Springer, 1997, ISBN 978-0-387-94846-1 .
- ( EN ) Hermann Weyl, Space Time Matter , Dover, 1952, p. 142, ISBN 0-486-60267-2 .
- ( EN ) James D. Bjorken și Sidney D. Drell,Mecanica cuantică relativistă , McGraw-Hill, 1964, p. 22 .
- (EN) Roger A. Horn și Charles R. Johnson, Topics in Matrix Analysis, Cambridge University Press , 1991, ISBN 978-0-521-46713-1 .
Elemente conexe
linkuri externe