În matematică , raza spectrală a unei matrice sau delimitate liniar operatorul este superioară legat de norma din modulul elementelor sale de spectru . Este adesea notat cu{\ displaystyle \ rho (\ cdot)} .
În analiza numerică , raza spectrală este utilizată pentru a determina dacă o metodă iterativă converge spre soluția unei probleme. Într-adevăr, se arată că o metodă iterativă pentru rezolvarea unui sistem liniar (cum ar fi metoda Jacobi sau metoda Gauss-Seidel ) converge la soluția sistemului dacă și numai dacă raza spectrală a matricei de iterație este strict mai mică de 1 .
Matrici
Lasa-i sa fie {\ displaystyle \ lambda _ {1}, \ dots \ lambda _ {n}} valori proprii (reale sau complexe) ale unei matrici {\ displaystyle A \ in \ mathbb {C} ^ {n \ times n}} . Apoi, fasciculul său fantomatic {\ displaystyle \ rho (A)} este definit ca:
- {\ displaystyle \ rho (A) \ equiv \ max _ {i} (| \ lambda _ {i} |)}
O limită superioară pentru raza spectrală este dată de următoarea lemă. Este {\ displaystyle A \ in \ mathbb {C} ^ {n \ times n}} o matrice complexă, {\ displaystyle \ rho (A)} raza sa spectrală e {\ displaystyle \ | \ cdot \ |} o normă matricială consistentă . Apoi pentru fiecare {\ displaystyle k \ in \ mathbb {N}} avem:
- {\ displaystyle \ rho (A) \ leq \ | A ^ {k} \ | ^ {1 / k}}
Într-adevăr, fie el {\ displaystyle (\ mathbf {v}, \ lambda)} o pereche eigenvector-eigenvalue legată de {\ displaystyle A} . Pentru proprietatea sub-multiplicativă a normei matricei:
- {\ displaystyle | \ lambda | ^ {k} \ | \ mathbf {v} \ | = \ | \ lambda ^ {k} \ mathbf {v} \ | = \ | A ^ {k} \ mathbf {v} \ | \ leq \ | A ^ {k} \ | \ cdot \ | \ mathbf {v} \ |}
și de atunci {\ displaystyle \ mathbf {v} \ neq 0} pentru fiecare {\ displaystyle \ lambda} avem:
- {\ displaystyle | \ lambda | ^ {k} \ leq \ | A ^ {k} \ |}
Așadar:
- {\ displaystyle \ rho (A) \ leq \ | A ^ {k} \ | ^ {1 / k}}
cum ai vrut să arăți.
Raza spectrală este strâns legată de comportamentul convergenței secvenței de puteri a unei matrice. În practică, se susține următoarea teoremă. Este {\ displaystyle A \ in \ mathbb {C} ^ {n \ times n}} o matrice complexă e {\ displaystyle \ rho (A)} fasciculul său spectral. Atunci {\ displaystyle \ lim _ {k \ to \ infty} A ^ {k} = 0} dacă și numai dacă {\ displaystyle \ rho (A) <1} . De asemenea, dacă {\ displaystyle \ rho (A)> 1} asa de {\ displaystyle \ | A ^ {k} \ |} nu este limitat de valori de {\ displaystyle k} crescând.
Pentru a arăta asta {\ displaystyle \ lim _ {k \ to \ infty} A ^ {k} = 0} implica {\ displaystyle \ rho (A) <1} , este {\ displaystyle (\ mathbf {v}, \ lambda)} o pereche eigenvector-eigenvalue legată de {\ displaystyle A} . De cand:
- {\ displaystyle A ^ {k} \ mathbf {v} = \ lambda ^ {k} \ mathbf {v}}
avem:
- {\ displaystyle {\ begin {align} 0 & = \ left (\ lim _ {k \ to \ infty} A ^ {k} \ right) \ mathbf {v} \\ & = \ lim _ {k \ to \ infty} A ^ {k} \ mathbf {v} \\ & = \ lim _ {k \ to \ infty} \ lambda ^ {k} \ mathbf {v} \\ & = \ mathbf {v} \ lim _ { k \ to \ infty} \ lambda ^ {k} \ end {align}}}
și dat fiind că prin ipoteză {\ displaystyle \ mathbf {v} \ neq 0} apare:
- {\ displaystyle \ lim _ {k \ to \ infty} \ lambda ^ {k} = 0}
Ceea ce implică {\ displaystyle | \ lambda | <1} . Deoarece acest lucru trebuie să fie adevărat pentru fiecare valoare proprie, se întâmplă asta {\ displaystyle \ rho (A) <1} .
Pentru a arăta asta {\ displaystyle \ rho (A) <1} implica {\ displaystyle \ lim _ {k \ to \ infty} A ^ {k} = 0} , din teorema lui Jordan rezultă că pentru orice matrice cu valori în câmpul complex {\ displaystyle A \ in \ mathbb {C} ^ {n \ times n}} există o matrice non-singulară {\ displaystyle V \ in \ mathbb {C} ^ {n \ times n}} și o matrice diagonală bloc {\ displaystyle J \ in \ mathbb {C} ^ {n \ times n}} astfel încât:
- {\ displaystyle A = VJV ^ {- 1}}
cu:
- {\ displaystyle J = {\ begin {bmatrix} J_ {m_ {1}} (\ lambda _ {1}) & 0 & 0 & \ cdots & 0 \\ 0 & J_ {m_ {2}} (\ lambda _ {2}) & 0 & \ cdots & 0 \\\ vdots & \ cdots & \ ddots & \ cdots & \ vdots \\ 0 & \ cdots & 0 & J_ {m_ {s-1}} (\ lambda _ { s-1}) & 0 \\ 0 & \ cdots & \ cdots & 0 & J_ {m_ {s}} (\ lambda _ {s}) \ end {bmatrix}}}
unde este:
- {\ displaystyle J_ {m_ {i}} (\ lambda _ {i}) = {\ begin {bmatrix} \ lambda _ {i} & 1 & 0 & \ cdots & 0 \\ 0 & \ lambda _ {i} & 1 & \ cdots & 0 \\ \ vdots & \ vdots & \ ddots & \ ddots & \ vdots \\ 0 & 0 & \ cdots & \ lambda _ {i} & 1 \\ 0 & 0 & \ cdots & 0 & \ lambda _ {i} \ end {bmatrix}} \ in \ mathbb {C} ^ {m_ {i}, m_ {i}} \ qquad 1 \ leq i \ leq s}
Este ușor de văzut că:
- {\ displaystyle A ^ {k} = VJ ^ {k} V ^ {- 1}}
și de atunci {\ displaystyle J} este diagonală bloc:
- {\ displaystyle J ^ {k} = {\ begin {bmatrix} J_ {m_ {1}} ^ {k} (\ lambda _ {1}) & 0 & 0 & \ cdots & 0 \\ 0 & J_ {m_ {2}} ^ {k} (\ lambda _ {2}) & 0 & \ cdots & 0 \\\ vdots & \ cdots & \ ddots & \ cdots & \ vdots \\ 0 & \ cdots & 0 & J_ { m_ {s-1}} ^ {k} (\ lambda _ {s-1}) și 0 \\ 0 & \ cdots & \ cdots & 0 & J_ {m_ {s}} ^ {k} (\ lambda _ {s}) \ end {bmatrix}}}
Un rezultat binecunoscut cu privire la puterea a k-a unui bloc Jordan {\ displaystyle m_ {i} \ times m_ {i}} afirmă că pentru{\ displaystyle k \ geq m_ {i} -1} avem:
- {\ displaystyle J_ {m_ {i}} ^ {k} (\ lambda _ {i}) = {\ begin {bmatrix} \ lambda _ {i} ^ {k} & {k \ choose 1} \ lambda _ { i} ^ {k-1} & {k \ choose 2} \ lambda _ {i} ^ {k-2} & \ cdots & {k \ choose m_ {i} -1} \ lambda _ {i} ^ { k-m_ {i} +1} \\ 0 & \ lambda _ {i} ^ {k} & {k \ choose 1} \ lambda _ {i} ^ {k-1} & \ cdots & {k \ choose m_ {i} -2} \ lambda _ {i} ^ {k-m_ {i} +2} \\\ vdots & \ vdots & \ ddots & \ ddots & \ vdots \\ 0 & 0 & \ cdots & \ lambda _ {i} ^ {k} & {k \ choose 1} \ lambda _ {i} ^ {k-1} \\ 0 & 0 & \ cdots & 0 & \ lambda _ {i} ^ {k} \ end {bmatrix}}}
În acest fel, dacă {\ displaystyle \ rho (A) <1} asa de {\ displaystyle | \ lambda _ {i} | <1} pentru fiecare {\ displaystyle i} , astfel încât:
- {\ displaystyle \ lim _ {k \ to \ infty} J_ {m_ {i}} ^ {k} = 0 \ \ forall i}
și aceasta implică:
- {\ displaystyle \ lim _ {k \ to \ infty} J ^ {k} = 0}
Prin urmare:
- {\ displaystyle \ lim _ {k \ to \ infty} A ^ {k} = \ lim _ {k \ to \ infty} VJ ^ {k} V ^ {- 1} = V (\ lim _ {k \ to \ infty} J ^ {k}) V ^ {- 1} = 0}
Pe de altă parte, dacă {\ displaystyle \ rho (A)> 1} atunci există cel puțin un element în {\ displaystyle J} care nu rămâne limitată pentru {\ displaystyle k} crescând, încheind dovada.
Formula Gelfand
Formula lui Gelfand (1941) afirmă că pentru fiecare normă matricială {\ displaystyle \ | \ cdot \ |} avem:
- {\ displaystyle \ rho (A) = \ lim _ {k \ to \ infty} \ | A ^ {k} \ | ^ {1 / k}}
Cu alte cuvinte, arată cum raza spectrală a {\ displaystyle A} da marimea cresterii asimptotice a normei de {\ displaystyle A ^ {k}} , acesta este:
- {\ displaystyle \ | A ^ {k} \ | \ sim \ rho (A) ^ {k}}
pentru {\ displaystyle k \ to \ infty} .
Pentru dovadă, luați în considerare matricea:
- {\ displaystyle {\ tilde {A}} = (\ rho (A) + \ epsilon) ^ {- 1} A \ qquad \ epsilon> 0}
Atunci:
- {\ displaystyle \ rho ({\ tilde {A}}) = {\ frac {\ rho (A)} {\ rho (A) + \ epsilon}} <1}
și conform teoremei anterioare:
- {\ displaystyle \ lim _ {k \ to \ infty} {\ tilde {A}} ^ {k} = 0}
Pentru definirea limitei unei secvențe , există un număr natural {\ displaystyle N_ {1} \ in \ mathbb {N}} astfel încât:
- {\ displaystyle \ | {\ tilde {A}} ^ {k} \ | <1 \ qquad \ forall k \ geq N_ {1}}
Ceea ce implică:
- {\ displaystyle \ | A ^ {k} \ | <(\ rho (A) + \ epsilon) ^ {k} \ qquad \ forall k \ geq N_ {1}}
sau echivalent:
- {\ displaystyle \ | A ^ {k} \ | ^ {1 / k} <(\ rho (A) + \ epsilon) \ qquad \ forall k \ geq N_ {1}}
Având în vedere acum matricea:
- {\ displaystyle {\ check {A}} = (\ rho (A) - \ epsilon) ^ {- 1} A}
în mod similar avem:
- {\ displaystyle \ rho ({\ check {A}}) = {\ frac {\ rho (A)} {\ rho (A) - \ epsilon}}> 1}
și prin teorema anterioară {\ displaystyle \ | {\ check {A}} ^ {k} \ |} nu este limitat. Prin urmare, există {\ displaystyle N_ {2} \ in \ mathbb {N}} astfel încât:
- {\ displaystyle \ | {\ check {A}} ^ {k} \ |> 1 \ qquad \ forall k \ geq N_ {2}}
Ceea ce implică:
- {\ displaystyle \ | A ^ {k} \ |> (\ rho (A) - \ epsilon) ^ {k} \ qquad \ forall k \ geq N_ {2}}
sau:
- {\ displaystyle \ | A ^ {k} \ | ^ {1 / k}> (\ rho (A) - \ epsilon) \ qquad \ forall k \ geq N_ {2}}
Luand in considerare:
- {\ displaystyle N: = \ max (N_ {1}, N_ {2})}
apoi pentru fiecare {\ displaystyle \ epsilon> 0} există {\ displaystyle N \ in \ mathbb {N}} astfel încât pentru fiecare {\ displaystyle k \ geq N} :
- {\ displaystyle \ rho (A) - \ epsilon <\ | A ^ {k} \ | ^ {1 / k} <\ rho (A) + \ epsilon}
asa de:
- {\ displaystyle \ lim _ {k \ to \ infty} \ | A ^ {k} \ | ^ {1 / k} = \ rho (A)}
cum ai vrut să arăți.
Formula lui Gelfand duce direct la o limită pentru raza spectrală a produsului matricilor infinite. Mai exact, presupunând că se schimbă reciproc:
- {\ displaystyle \ rho (A_ {1} A_ {2} \ ldots A_ {n}) \ leq \ rho (A_ {1}) \ rho (A_ {2}) \ ldots \ rho (A_ {n})}
Mai mult, dacă norma matricei este consecventă, grație lemei enunțate mai sus, în definiția limitei, limita inferioară stângă poate fi înlocuită cu raza spectrală în sine. Deci pentru fiecare {\ displaystyle \ epsilon> 0} există {\ displaystyle N \ in \ mathbb {N}} astfel încât:
- {\ displaystyle \ rho (A) \ leq \ | A ^ {k} \ | ^ {1 / k} <\ rho (A) + \ epsilon \ qquad \ forall k \ geq N}
Așadar:
- {\ displaystyle \ lim _ {k \ to \ infty} \ | A ^ {k} \ | ^ {1 / k} = \ rho (A) ^ {+}}
Operatori liniari delimitați
Pentru un operator liniar limitat {\ displaystyle A} și o normă de funcționare {\ displaystyle \ | \ cdot \ |} , raza spectrală {\ displaystyle \ rho (A)} din {\ displaystyle A} este dat de formula Gelfand.
Exemplu
Luați în considerare matricea:
- {\ displaystyle A = {\ begin {bmatrix} 9 & -1 & 2 \\ - 2 & 8 & 4 \\ 1 & 1 & 8 \ end {bmatrix}}}
ale căror valori proprii sunt 5, 10, 10. Prin definiție, raza sa spectrală este {\ displaystyle \ rho (A) = 10} . Tabelul următor prezintă valorile {\ displaystyle \ | A ^ {k} \ | ^ {1 / k}} pentru cele patru standarde cele mai utilizate, sortate după {\ displaystyle k} creştere. Se remarcă faptul că datorită formei particulare a matricei {\ displaystyle \ |. \ | _ {1} = \ |. \ | _ {\ infty}} .
k | {\ displaystyle \ |. \ | _ {1} = \ |. \ | _ {\ infty}} | {\ displaystyle \ |. \ | _ {F}} | {\ displaystyle \ |. \ | _ {2}} |
---|
1 | 14 | 15.362291496 | 10.681145748 |
2 | 12.649110641 | 12.328294348 | 10.595665162 |
3 | 11.934831919 | 11.532450664 | 10.500980846 |
4 | 11.501633169 | 11.151002986 | 10.418165779 |
5 | 11.216043151 | 10.921242235 | 10.351918183 |
{\ displaystyle \ vdots} | {\ displaystyle \ vdots} | {\ displaystyle \ vdots} | {\ displaystyle \ vdots} |
10 | 10.604944422 | 10.455910430 | 10.183690042 |
11 | 10.548677680 | 10.413702213 | 10.166990229 |
12 | 10.501921835 | 10.378620930 | 10.153031596 |
{\ displaystyle \ vdots} | {\ displaystyle \ vdots} | {\ displaystyle \ vdots} | {\ displaystyle \ vdots} |
20 | 10.298254399 | 10.225504447 | 10.091577411 |
30 | 10.197860892 | 10.149776921 | 10.060958900 |
40 | 10.148031640 | 10.112123681 | 10.045684426 |
50 | 10.118251035 | 10.089598820 | 10.036530875 |
{\ displaystyle \ vdots} | {\ displaystyle \ vdots} | {\ displaystyle \ vdots} | {\ displaystyle \ vdots} |
100 | 10.058951752 | 10.044699508 | 10.018248786 |
200 | 10.029432562 | 10.022324834 | 10.009120234 |
300 | 10.019612095 | 10.014877690 | 10.006079232 |
400 | 10.014705469 | 10.011156194 | 10.004559078 |
{\ displaystyle \ vdots} | {\ displaystyle \ vdots} | {\ displaystyle \ vdots} | {\ displaystyle \ vdots} |
1000 | 10.005879594 | 10.004460985 | 10.001823382 |
2000 | 10.002939365 | 10.002230244 | 10.000911649 |
3000 | 10.001959481 | 10.001486774 | 10.000607757 |
{\ displaystyle \ vdots} | {\ displaystyle \ vdots} | {\ displaystyle \ vdots} | {\ displaystyle \ vdots} |
10000 | 10.000587804 | 10.000446009 | 10.000182323 |
20000 | 10.000293898 | 10.000223002 | 10.000091161 |
30000 | 10.000195931 | 10.000148667 | 10.000060774 |
{\ displaystyle \ vdots} | {\ displaystyle \ vdots} | {\ displaystyle \ vdots} | {\ displaystyle \ vdots} |
100000 | 10.000058779 | 10.000044600 | 10.000018232 |
Bibliografie
- ( RO ) Gradshteyn, IS și Ryzhik, IM Tables of Integrals, Series și Products, ediția a VI-a . San Diego, CA: Academic Press, pp. 1115-1116, 2000.
Elemente conexe
linkuri externe