De la Wikipedia, enciclopedia liberă.
În algebra liniară , conceptul de funcție poate fi extins la matrici pătrate de orice ordin n prin asocierea unei serii Maclaurin la fiecare funcție, reducându-l la o sumă infinită de puteri ale matricilor:
- {\ displaystyle f (A) = \ sum _ {k = 0} ^ {\ infty} {\ frac {f ^ {(k)} (0)} {k!}} A ^ {k}.}
Din care este deja clar că o funcție de matrice pătrată este o matrice de același ordin ale cărei elemente sunt constituite printr-o combinație liniară a funcției elementelor matricei de pornire, în timp ce în general funcțiile elementului corespunzător al matricei de plecare. Funcțiile matriciale sunt utilizate în special pentru rezolvarea sistemelor diferențiale , dintre care cele mai simple sunt sisteme diferențiale de ordinul întâi , în a căror soluție apar în special matricea exponențială și matricea de putere.
Limitarea seriei
Mulțumim teoremei Hamilton-Cayley sub forma:
- {\ displaystyle A ^ {n} = - \ sum _ {k = 0} ^ {n-1} \ alpha _ {k} A ^ {k},}
putem reduce procedura de la calculul puterilor matriciale de la infinit dat de definiție la cel de {\ displaystyle n-2} puteri (identitatea și matricea în sine nu sunt trivial necalculate), chiar dacă complică coeficienții: înmulțindu-se de mai multe ori la dreapta și la stânga semnului egal cu matricea {\ displaystyle A} , este ușor să verificați dacă fiecare putere {\ displaystyle A ^ {n + k}} se poate exprima ca o combinație liniară numai a celei dintâi {\ displaystyle n-1} matrici.
- {\ displaystyle f (A) = \ sum _ {k = 0} ^ {n-1} \ alpha _ {k} A ^ {k}.}
Identificarea coeficienților seriei finite
Se poate observa că fiecare valoare proprie {\ displaystyle \ lambda _ {j}} a matricei de pornire {\ displaystyle A} anulează, prin definiție, polinomul caracteristic, deci în mod analog cu ceea ce se întâmplă pentru matrice:
- {\ displaystyle f (\ lambda _ {j}) = \ sum _ {k = 0} ^ {n-1} \ alpha _ {k} \ lambda _ {j} ^ {k},}
Prin urmare, scriind această relație pentru fiecare valoare proprie, obținem un sistem liniar a cărui matrice este un pătrat al tipului Vandermonde de {\ displaystyle n-1} linii și {\ displaystyle n-1} coloane, care, totuși, nu sunt inversabile atunci când există {\ displaystyle h <n} valori proprii distincte deoarece unele au multiplicitate {\ displaystyle n_ {j}> 1} cu {\ displaystyle \ sum _ {j = 1} ^ {h} n_ {j} = n} , deoarece se repetă liniile corespunzătoare:
- {\ displaystyle ([(\ lambda _ {j} ^ {k})] ^ {T}) (\ alpha _ {k}) = (f (\ lambda _ {j})), \ qquad 0 \ leq k \ leq n-1, \, 1 \ leq j \ leq h.}
Metoda de interpolare polinomială este apoi utilizată pentru a constrânge sistemul suficient, recurgând la derivatele succesive până la {\ displaystyle (n_ {j} -1)} -th:
- {\ displaystyle (\ alpha _ {k}) = ([(\ lambda _ {j} ^ {k}) ^ {(i)}] ^ {T}) ^ {- 1} \, (f ^ {( i)} (\ lambda _ {j})), \ qquad 0 \ leq k \ leq n-1, \, 1 \ leq j \ leq h, \, 0 \ leq i \ leq n_ {j} -1. }
Aceasta este o matrice inversabilă a {\ displaystyle n-1} linii și {\ displaystyle n-1} coloane care definesc în mod unic coeficienții și permit calculul acestora. Pentru o mai mare simplitate a înțelegerii, se oferă forma extinsă:
- {\ displaystyle {\ begin {bmatrix} \ alpha _ {0} \\\ alpha _ {1} \\ ... \\ ... \\ ... \\\ alpha _ {n-1} \ end {bmatrix}} = {\ begin {bmatrix} 1 & \ lambda _ {1} & \ lambda _ {1} ^ {2} & ... & \ lambda _ {1} ^ {n-1} \\ 0 & 1 & 2 \ lambda _ {1} & ... & (n-1) \ lambda _ {1} ^ {n-2} \\ ... & ... & ... & ... & ... \\ 0 & 0 & 0 & ... & {\ frac {(n-1)!} {(N-n_ {1})!}} \ Lambda _ {1} ^ {n-n_ { 1}} \\ 1 & \ lambda _ {2} & \ lambda _ {2} ^ {2} & ... & \ lambda _ {2} ^ {n-1} \\ 0 & 1 & 2 \ lambda _ {2} & ... & (n-1) \ lambda _ {2} ^ {n-2} \\ ... & ... & ... & ... & ... \\ 0 & 0 & 0 & ... & {\ frac {(n-1)!} {(N-n_ {2})!}} \ Lambda _ {1} ^ {n-n_ {2}} \\. .. & ... & ... & ... & ... \\ 1 & \ lambda _ {h} & \ lambda _ {h} ^ {2} & ... & \ lambda _ { h} ^ {n-1} \\ 0 & 1 & 2 \ lambda _ {h} & ... & (n-1) \ lambda _ {h} ^ {n-2} \\ ... & ... & ... & ... & ... \\ 0 & 0 & 0 & ... & {\ frac {(n -1)!} {(N-n_ {h})!} } \ Lambda _ {1} ^ {n-n_ {h}} \\\ end {bmatrix}} ^ {- 1} {\ begin {bmatrix} f (\ lambda _ {1}) \\ f ^ {( 1)} (\ lambda _ {1}) \\ ... \\ f ^ {(n_ {1} -1)} (\ lambda _ {1}) \\ f (\ lambda _ {2}) \ \ f ^ {(1)} (\ lambda _ {2}) \\ ... \\ f ^ {(n_ {2} -1)} (\ lambda _ {2}) \\ ... \\ f (\ lambda _ {h}) \\ f ^ {(1)} (\ lambda _ {h}) \\ ... \\ f ^ {(n_ {h} -1)} (\ lambda _ { h}) \\\ end {bmatrix}}.}
Procedură
Pe baza considerațiilor făcute, calculul unei funcții matriciale constă din următorii șase pași elementari:
- identificarea seriei MacLaurin asociate funcției;
- calcularea valorilor proprii ale matricei originale;
- calculul funcției acestor valori proprii , și în cazul valorilor proprii cu multiplicitate n j a valorilor asumate și de derivatele până la {\ displaystyle n_ {j}} -alea inclusă;
- calcularea coeficienților de putere ca soluție a sistemului Vandermonde liniar neomogen de mai sus;
- calculul puterilor matricei originale ca produs sau mult mai rapid folosind teorema Hamilton-Cayley ;
- calculul combinației liniare a acestor puteri cu coeficienții deja calculați.
Exemplu de aplicație
Să calculăm sinusul matricei:
- {\ displaystyle \ sin {\ begin {bmatrix} \ pi & 0 \\ {\ frac {\ pi} {4}} & {\ frac {\ pi} {2}} \ end {bmatrix}} = \ sum _ {n = 0} ^ {\ infty} {\ frac {(-1) ^ {n} {\ begin {bmatrix} \ pi & 0 \\ {\ frac {\ pi} {4}} & {\ frac { \ pi} {2}} \ end {bmatrix}} ^ {2n + 1}} {(2n + 1)!}}.}
Valorile proprii se dovedesc a fi {\ displaystyle \ lambda _ {1} = \ pi} cu multiplicitate {\ displaystyle n_ {1} = 1} Și {\ displaystyle \ lambda _ {2} = - \ pi / 2} cu multiplicitate {\ displaystyle n_ {2} = 1} prin urmare, coeficienții sunt:
- {\ displaystyle {\ begin {bmatrix} \ alpha _ {0} \\\ alpha _ {1} \ end {bmatrix}} = {\ begin {bmatrix} 1 & \ pi \\ 1 & - {\ frac {\ pi} {2}} \ end {bmatrix}} ^ {- 1} {\ begin {bmatrix} \ mathrm {\ sin} \ pi \\\ mathrm {\ sin (} - {\ frac {\ pi} {2 }}) \ end {bmatrix}} = {\ begin {bmatrix} 2 \\ - {\ frac {2} {\ pi}} \ end {bmatrix}},}
prin urmare, se dovedește că:
- {\ displaystyle \ sin {\ begin {bmatrix} \ pi & 0 \\ {\ frac {\ pi} {4}} & {\ frac {\ pi} {2}} \ end {bmatrix}} = 2 {\ begin {bmatrix} 1 & 0 \\ 0 & 1 \ end {bmatrix}} - {\ frac {2} {\ pi}} {\ begin {bmatrix} \ pi & 0 \\ {\ frac {\ pi} { 4}} & {\ frac {\ pi} {2}} \ end {bmatrix}} = {\ begin {bmatrix} 0 & 0 \\ - {\ frac {1} {2}} & 1 \ end {bmatrix }}.}
Puterea matricei
Puterea matricei necesară pentru calcularea oricărei alte funcții devine, de asemenea, mult mai rapidă pe baza considerentelor anterioare, cu cât este mai mică ordinea matricei {\ displaystyle n} cu privire la exponent {\ displaystyle x} și, în general, este convenabil cu privire la efectuarea tuturor multiplicărilor simple necesare atunci când {\ displaystyle n <x + 1} .
În realitate, pentru exponenții întregi este încă mult mai rapid să se exploateze teorema Hamilton-Cayley direct; totuși, acest sistem permite generalizarea definiției puterii pentru a admite un exponent complex :
- {\ displaystyle A ^ {x} = \ sum _ {k = 0} ^ {n-1} \ alpha _ {k} A ^ {k},}
unde în acest caz coeficienții sunt:
- {\ displaystyle (\ alpha _ {k}) = ([(\ lambda _ {j} ^ {k}) ^ {(i)}] ^ {T}) ^ {- 1} \, (\ prod _ { m = xi + 1} ^ {x} m \, \ lambda _ {j} ^ {xi}), \ qquad 0 \ leq k \ leq n-1, \, 1 \ leq j \ leq h, \, 0 \ leq i \ leq n_ {j} -1.}
De exemplu, vrem să calculăm:
- {\ displaystyle {\ begin {bmatrix} 1 & 1 \\ 0 & 1 \ end {bmatrix}} ^ {x},}
de la valoarea proprie {\ displaystyle \ lambda _ {1} = 1} are multiplicitate {\ displaystyle n_ {1} = 2} , matricea Vandermonde coincide cu matricea originală:
- {\ displaystyle {\ begin {bmatrix} \ alpha _ {0} \\\ alpha _ {1} \ end {bmatrix}} = {\ begin {bmatrix} 1 & \ lambda _ {1} \\ 0 & 1 \ end {bmatrix}} ^ {- 1} {\ begin {bmatrix} \ lambda _ {1} ^ {x} \\ x \ lambda _ {1} ^ {x-1} \ end {bmatrix}} = {\ începe {bmatrix} 1-x \\ x \ end {bmatrix}}}
prin urmare:
- {\ displaystyle {\ begin {bmatrix} 1 & 1 \\ 0 & 1 \ end {bmatrix}} ^ {x} = {\ begin {bmatrix} 1 & x \\ 0 & 1 \ end {bmatrix}}.}
De exemplu, putem admite cu ușurință că:
- {\ displaystyle {\ begin {bmatrix} 1 & 1 \\ 0 & 1 \ end {bmatrix}} ^ {\ pi} = {\ begin {bmatrix} 1 & \ pi \\ 0 & 1 \ end {bmatrix}} .}
Elemente conexe