Algebră liniară

De la Wikipedia, enciclopedia liberă.
Salt la navigare Salt la căutare
Unele obiecte studiate în algebră liniară
Vector space illust.svg
Vectori
Subspatii liniare cu umbrire.svg
Spații vectoriale
Rotation illustration.png

Transformări liniare
Linii de intersecție.svg
Sisteme de ecuații liniare
Matrix.gif
Matrici

Vectori proprii și valori proprii
Ellipsoide.png
Cvadrici
Epsilontensor.svg
Tensori

Algebra liniară este ramura matematicii care se ocupă cu studiul vectorilor , spațiilor vectoriale (sau spațiilor liniare), transformărilor liniare și sistemelor de ecuații liniare . Spațiile vectoriale sunt o temă centrală în matematica modernă; Algebra liniară este utilizată pe scară largă în algebra abstractă , geometrie și analiză funcțională . Algebra liniară are, de asemenea, o reprezentare concretă în geometria analitică .

Cu algebra liniară, toate fenomenele fizice „liniare” sunt complet studiate, adică cele în care distorsiunile , turbulențele și fenomenele haotice în general nu sunt implicate intuitiv. Chiar și mai complexe fenomene, nu numai în fizică , ci și în cele naturale și științele sociale , pot fi studiate și înapoi cu aproximări datorate unui model liniar trasat.

Istorie

Istoria algebrei liniare moderne începe în anii 1843 și 1844 . În 1843, William Rowan Hamilton (care a introdus termenul de vector ) a inventat cuaternionii . În 1844, Hermann Grassmann și-a publicat cartea Die lineale Ausdehnungslehre . Arthur Cayley a introdus matrici (2 × 2), una dintre ideile fundamentale ale algebrei liniare, în 1857 .

Introducere elementară

Un spațiu vector este o colecție de obiecte, numite „vectori”, care pot fi adăugate și redimensionate.

Algebra liniară își are originea în studiul vectorilor în spații carteziene bidimensionale și tridimensionale. Un vector, în acest caz, este un segment orientat, caracterizat prin lungime (sau magnitudine), direcție și direcție. Vectorii pot fi folosiți pentru a reprezenta anumite entități fizice, cum ar fi forțele , și pot fi adăugați împreună și înmulțiți cu un scalar , formând astfel primul exemplu de spațiu vectorial pe reali .

Algebra liniară modernă a fost extinsă pentru a include spații de dimensiuni arbitrare sau infinite. Un spațiu vectorial de dimensiune n se numește spațiu n . Multe dintre rezultatele utile în 2 spații și 3 spații pot fi extinse la spații cu dimensiuni mai mari. Deși mulți oameni nu pot vizualiza cu ușurință vectori în n- spații, acești vectori sau n-tupluri sunt utile pentru reprezentarea datelor. Deoarece vectori, cum ar fi tupluri n-, sunt liste ordonate de n componente, mulți oameni să înțeleagă și să manipuleze datele eficient în această structură. De exemplu, în economie , se pot crea și utiliza vectori cu 8 dimensiuni (octuple) pentru a reprezenta produsul intern brut din 8 state. Puteți decide să afișați PIB-ul a 8 state pentru un anumit an, de exemplu ( Italia , Statele Unite , Marea Britanie , Franța , Germania , Spania , Japonia , Australia ), folosind un vector (v 1 , v 2 , v 3 , v 4 , v 5 , v 6 , v 7 , v 8 ) unde PIB-ul fiecărui stat se află în poziția sa respectivă.

Un spațiu vectorial este definit deasupra unui câmp , cum ar fi câmpul numărului real sau câmpul numărului complex . Operatorii liniari mapează elemente de la un spațiu vectorial la altul (sau la sine), astfel încât să se mențină compatibilitatea cu adunarea și multiplicarea scalară definite în spațiile vectoriale. Mulțimea tuturor acestor transformări este, de asemenea, un spațiu vectorial. Dacă o bază este fixată pentru un spațiu vectorial, fiecare transformare liniară poate fi reprezentată printr-un tabel numit matrice . În algebra liniară, prin urmare, studiem proprietățile matricilor și algoritmii pentru calcularea mărimilor importante care le caracterizează, cum ar fi rangul , determinantul și setul valorilor proprii ale acestuia.

Un spațiu vectorial (sau spațiu liniar), ca un concept pur abstract pe care sunt dovedite teoremele , face parte din algebra abstractă și este bine integrat în acest câmp: unele obiecte algebrice conexe, de exemplu, sunt inelul de hartă liniară dintr-un spațiu vectorial în sine, sau grupul de hărți liniare (sau matrice ) inversabile. Algebra liniară joacă, de asemenea, un rol important în analiză , în special în descrierea derivatelor de ordin superior în analiza vectorială și în rezolvarea ecuațiilor diferențiale .

În concluzie, se poate spune pur și simplu că problemele liniare în matematică - cele care prezintă „linearitate” în comportamentul lor - sunt cele mai ușor de rezolvat și că problemele „neliniare” sunt deseori studiate prin aproximarea lor cu situații liniare. De exemplu, în analiză , derivata este o primă încercare de aproximare liniară a unei funcții. Diferența față de problemele neliniare este foarte importantă în practică: metoda generală de găsire a unei formulări liniare a unei probleme, în termeni de algebră liniară și rezolvarea acesteia, dacă este necesar cu calcule matriciale, este una dintre cele mai generale metode aplicabile în matematică.

Noțiuni de bază

Spațiu vectorial

Pictogramă lupă mgx2.svg Același subiect în detaliu: spațiul vectorial .
Un vector poate fi recalificat, adică înmulțit cu un număr. Vectorii sunt afișați aici Și , obținut prin multiplicare pentru 2 și, respectiv, -1.

Cea mai importantă noțiune în algebră liniară este cea a spațiului vectorial . Un spațiu vector este un set de elemente, numite vectori , având proprietăți care le fac similare vectorilor aplicați unui punct fix ( originea ) planului sau spațiului.

Mai precis, ele sunt definite pe câteva operații binare : [1]

  • doi vectori Și ele pot fi adăugate, dând astfel naștere unui nou vector . Proprietățile sumei vectoriale sunt asociativitatea , comutativitatea , existența elementului neutru , existența elementului invers ;
  • un vector poate fi redimensionat, adică înmulțit cu un număr , dând astfel naștere unui nou vector . proprietățile multiplicării prin scalar sunt asociativitatea, existența unui neutru;
  • suma vectorială este distributivă în raport cu produsul , în timp ce produsul este distributiv în raport cu suma.
Doi transportatori Și pot fi adăugate folosind regula paralelogramului .

Numarul (numit scalar ) aparține unui câmp fixat de la început: acesta poate fi de exemplu câmpul a numerelor reale sau a câmpului de numere complexe .

Planul cartezian este exemplul fundamental al spațiului vectorial. Fiecare punct din plan este de fapt identificat în mod unic ca o pereche de numere reale. Originea este punctul . Ideea poate fi interpretat alternativ ca un punct al planului sau ca un vector aplicat în originea pornind de la și intră .

În mod similar, spațiul cartezian este format din tripluri de puncte . Mai general, tuplurile de numere reale

formează un spațiu vectorial care este indicat cu . Chiar mai general, poate fi înlocuit cu alt câmp și astfel obțineți spațiul vectorial .

Aplicații liniare

Pictogramă lupă mgx2.svg Același subiect în detaliu: Transformarea liniară .
O rotație a planului cartezian centrat la origine (0,0) este o transformare liniară.

O hartă liniară este o funcție între două spații vectoriale

că este compatibil cu operațiile definite pe ambele. Adică trebuie să se aplice următoarele proprietăți:

pentru fiecare pereche de vectori în și la fiecare urcare . Termenii „aplicație”, „funcție”, „transformare”, „hartă” și „omomorfism” sunt sinonimi în acest context. Termenul „liniar” înseamnă compatibilitatea cu operațiile. O aplicație liniară trimite în mod necesar originea (de ) în originea (de ):

O transformare liniară poate distorsiona obiectele.

Spațiile Și pot coincide. În acest caz, aplicația este mai bine o transformare a , care este o funcție care schimbă punctele cu , numit și endomorfism . O transformare a trebuie neapărat să mențină originea O fixată.

Multe transformări ale planului cartezian sau ale spațiului care mențin originea O fixă ​​sunt liniare: printre acestea, rotațiile (în jurul lui O), reflexiile față de o linie sau un plan (care trece prin O), omotetica (centrată în O) și proiecțiile (pe o linie dreaptă sau plan care trece prin O).

O transformare liniară poate întinde un obiect orizontal și îl poate comprima vertical.

Aplicațiile liniare apar în contexte foarte diferite. De exemplu, funcțional

care se asociază cu o funcție integrala sa este o aplicație liniară

din spatiu a funcțiilor continue cu valoare reală în .

Baze și dimensiuni

Pictogramă lupă mgx2.svg Același subiect în detaliu: Baza (algebră liniară) și Dimensiunea (spațiul vectorial) .
Purtători Și formează baza canonică a planului cartezian . Orice alt vector este scris (unic) ca o combinație liniară a acestor doi vectori. De exemplu, vectorul este scris ca .

Un punct are dimensiunea zero, o linie are dimensiunea unu, un plan are dimensiunea doi și un spațiu are dimensiunea trei. Algebra liniară ne permite să definim riguros și să tratăm spații mai mari decât al treilea. Spațiul fundamental al dimensiunii este spațiul vectorial al tuplelor, notat cu . Pentru , acesta este planul cartezian obișnuit.

Orice spațiu vectorial are o dimensiune. Aceasta este definită algebric, ca număr de elemente dintr-o bază pentru : o bază este un set de vectori care servește ca sistem de referință pentru . Strict, o bază este o succesiune

de vectori independenți care generează spațiu . Un spațiu vectorial poate avea, de asemenea, dimensiune infinită: spațiile vectoriale de dimensiune infinită sunt adesea mai complicate și multe teoreme de algebră liniară necesită ca ipoteze că au dimensiuni finite.

Noțiunile de bază și dimensiunea se aplică (care are dimensiunea ) Și subspațiile conținute în acesta. Cu toate acestea, fiind definite într-un mod pur algebric, ele se aplică și în contexte foarte diferite: de exemplu, matrice formează un spațiu vectorial de dimensiune . Polinoamele dintr-o variabilă formează un spațiu vectorial de dimensiune infinită: totuși, prin restrângerea gradului polinoamelor la o anumită valoare maximă obținem un spațiu vectorial de dimensiune .

Produs scalar

Pictogramă lupă mgx2.svg Același subiect în detaliu: produs Dot .
Produsul scalar euclidian în planul dintre doi vectori Și este definit ca produsul lungimilor de și proiecția de pe . Cu toate acestea, există multe alte modalități utile de a defini un produs dot, în spații de dimensiuni arbitrare.

Doi transportatori Și a unui spațiu vectorial poate fi adăugat : rezultatul este un vector . De asemenea, un vector și o urcare poate fi multiplicat : rezultatul este un vector . Cu toate acestea, în definiția spațiului vectorial, nu există nicio operațiune de produs între doi vectori.

Cu toate acestea, în unele contexte, este util să adăugați o operație binară suplimentară între vectori, care se comportă ca un produs. Rezultatul acestui produs poate fi la rândul său un vector sau un scalar. În primul caz, această operație se numește produs vector , iar în al doilea produs scalar . Cu toate acestea, funcționarea produsului vector este interesantă doar în dimensiunea a treia, în timp ce produsele scalare există (și sunt utile) în toate dimensiunile: din acest motiv, acestea din urmă sunt mult mai studiate.

Mai mult, definiția spațiului vectorial nu oferă nici măcar o noțiune de lungime (echivalent, normă ) pentru vectori și nici de unghi între doi dintre ei. Cu toate acestea, ambele noțiuni de lungime și unghi sunt definite dacă este fixat un produs scalar adecvat. [2]

Aplicații

Sisteme liniare

Pictogramă lupă mgx2.svg Același subiect în detaliu: Sistem de ecuații liniare .

Un sistem de ecuații liniare este baza unui anumit număr de ecuații liniare în unele variabile . Folosind tablouri șimultiplicare rând cu coloană , un sistem poate fi scris într-un mod strict, după cum urmează:

În această expresie este o matrice , este vectorul variabilelor , ..., Și este un alt vector format din constante.

Algebra liniară oferă numeroși algoritmi pentru determinarea soluțiilor unui sistem liniar. Legătura dintre sistemele de ecuații și algebra liniară constă în faptul că matricea poate fi interpretat ca o aplicație liniară de în : conform acestei interpretări, soluțiile sunt exact contra - imaginile .

Teorema Rouché-Capelli oferă o metodă de numărare a soluțiilor, fără a le determina neapărat complet. [3] În cazul în care sistemul este pătrat și are o singură soluție, aceasta poate fi scrisă în mod explicit folosind regula lui Cramer . Cu toate acestea, această soluție teoretică este practic utilizabilă doar pentru a rezolva sisteme foarte mici. [4] În timp ce metodele de eliminare (de exemplu Gauss și cele iterative (de exemplu Gauss-Seidel ) ne permit să calculăm în mod eficient soluțiile unui sistem liniar, chiar și de dimensiuni mari.

Geometrie analitică

O linie dreaptă în plan cartezian este descrisă printr-o ecuație liniară de tip . Două linii distincte sunt paralele dacă sistemul format din cele două ecuații nu are nicio soluție.
Trei planuri în spațiu pot avea diverse configurații diferite: în acest caz se intersectează la un moment dat. Fiecare plan este descris printr-o ecuație. Punctul de intersecție se obține ca soluție a unui sistem cu 3 ecuații și 3 variabile.

În geometria analitică, o linie dreaptă sau un plan sunt descrise prin sisteme de ecuații liniare: așa cum tocmai am văzut, acestea pot fi studiate cu ușurință cu instrumentele algebrei liniare. Prin urmare, ne putem confrunta cu probleme precum pozițiile reciproce a două linii (sau plane) în spațiu (care pot fi incidente, paralele sau înclinate) și modul în care acestea variază pentru transformări liniare.

Conicile din plan precum elipsa , parabola și hiperbola sunt determinate de ecuații de gradul al doilea . Aceste ecuații sunt mai complicate decât cele liniare, care sunt de gradul I. În ciuda acestui fapt, clasificarea conicelor se realizează eficient cu instrumentele algebrei liniare, datorită teoremelor non-banale precum teorema spectrală și teorema lui Sylvester . Cu aceleași instrumente clasificăm cvadricele în spațiu.

Calcul diferențial

Analiza matematică a funcțiilor într-o singură variabilă nu folosește algebră liniară. Pe de altă parte, analiza funcțiilor în mai multe variabile depinde puternic de acest sector. Noțiunea de derivată este de fapt extinsă în mai multe variabile la cea a diferențialului : în timp ce derivata este un număr real simplu care indică panta unei funcții într-un punct, diferențialul este o aplicație liniară, care indică întotdeauna „panta” lui o funcție (multi-variabilă) la un moment dat.

Noțiunea de derivată secundară se extinde și asupra mai multor variabile: rezultatul este o matrice numită matrice Hessian . Dacă această matrice este simetrică , de exemplu, atunci când ipotezele teoremei lui Schwarz sunt valabile, poate fi ușor reprezentată ca o diagonală grație teoremei spectrale .

Analiza funcțională

Multe probleme de analiză funcțională , cum ar fi căutarea unei soluții pentru o ecuație diferențială , se confruntă cu analiza unui anumit spațiu de funcții . Un spațiu de funcții este un spațiu vector ale cărui elemente sunt funcții de un anumit tip (de exemplu continuu, integrabil, diferențiat ... definit pe un domeniu fix). Spațiile de acest tip sunt în general de dimensiune infinită și sunt echipate cu unele structuri suplimentare, cum ar fi un produs scalar (în spațiile Hilbert ), o normă (în spațiile Banach ) sau o topologie mai generală (în spațiile vectoriale topologice ).

Exemple de spații funcționale includ spații Lp și spații Sobolev .

Mecanica cuantică

Funcțiile de undă asociate cu stările unui electron într-un atom de hidrogen sunt vectorii proprii ai unor operatori auto-adiacenți utilizați în mecanica cuantică.

Mecanica cuantică utilizează pe larg cele mai avansate teoreme ale algebrei liniare. Modelul matematic utilizat în acest domeniu al fizicii (formalizat în principal de Paul Dirac și John Von Neumann ) descrie stările posibile ale unui sistem cuantic ca elemente ale unui anumit spațiu Hilbert și mărimile observabile (cum ar fi poziția, viteza etc.) ca operatori autoadjuncti . Valorile pe care aceste cantități le pot asuma atunci când sunt măsurate efectiv sunt valorile proprii ale operatorului.

Introducerea și utilizarea acestor concepte matematice non-banale în fizica cuantică a fost unul dintre stimulii majori pentru dezvoltarea algebrei liniare în secolul al XX-lea .

Instrumente

Matrici

Pictogramă lupă mgx2.svg Același subiect în detaliu: Matrix .

O matrice este un tabel de numere, cum ar fi:

Matricile sunt utile în algebra liniară pentru reprezentarea hărților liniare. Acest lucru se face prinînmulțirea rând cu coloană . De exemplu, matricea descrisă reprezintă o transformare a planului cartezian in sinea lui. Această transformare trimite punctul în sens

Această transformare nu este altceva decât o rotație de 90º în sens invers acelor de ceasornic cu originea centrată.

Relația dintre matrice și hărți liniare este foarte puternică. Orice aplicație liniară între spații vectoriale de dimensiune Și poate fi descris prin intermediul unei matrici de tip asociat , cu condiția ca bazele să fie fixate în ambele spații vectoriale. Efectul unei schimbări de bază este codificat de schimbarea matricei de bază, iar compoziția funcțiilor are ca rezultat omultiplicare între matrice .

Eliminarea lui Gauss

Pictogramă lupă mgx2.svg Același subiect în detaliu: eliminarea lui Gauss .

Eliminarea lui Gauss este un algoritm care permite reducerea unei matrice într-o formă mai simplă prin mișcări oportune pe linii. Acest algoritm este utilizat în principal pentru a determina soluțiile unui sistem de ecuații liniare, dar are și mai multe aplicații interne la algebra liniară: cu eliminarea lui Gauss putem determina rangul , determinantul sau inversul unei matrice, putem extrage o bază dintr-un set de generatoare .

Determinant

Pictogramă lupă mgx2.svg Același subiect în detaliu: Determinant (algebră) .
O transformare liniară a planului cartezian descrisă de o matrice pătrată . Determinantul matricei oferă informații despre transformare: valoarea absolută descrie schimbarea zonei, în timp ce semnul descrie schimbarea orientării . În exemplul prezentat aici, matricea are determinant -1: prin urmare transformarea păstrează zonele (un pătrat al zonei 1 se transformă într-un paralelogram al zonei 1), dar inversează orientarea planului (schimbă direcția săgeții circulare).

Determinantul este un număr asociat cu o matrice pătrată , denumit în general . Din punct de vedere algebric, determinantul este important deoarece este zero exact atunci când matricea nu este inversabilă ; când nu este zero, oferă și o metodă pentru descrierea matricei inverse folosind regula lui Cramer .

Din punct de vedere geometric, determinantul oferă multe informații despre transformarea asociată : semnul său (pe numere reale) indică dacă transformarea menține orientarea spațiului, iar valoarea sa absolută indică modul în care zonele obiectelor se schimbă după transformare.

Valori proprii și vectori proprii

Pictogramă lupă mgx2.svg Același subiect în detaliu: Eigenvalue și eigenvector .
În această transformare liniară a Mona Lisa , imaginea este modificată, dar axa centrală verticală rămâne fixă. Vectorul albastru a schimbat ușor direcția, în timp ce cel roșu nu. Deci, vectorul roșu este un vector propriu al transformării, iar cel albastru nu.

Pentru a caracteriza un endomorfism este util să studiem unii vectori, numiți vectori proprii . Geometric, un vector propriu este un vector care nu schimbă direcția. Din punct de vedere algebric, este un vector astfel încât

pentru unele alpinism , numită valoare proprie . Endomorfismul este deosebit de simplu de descris dacă este diagonalizabil : geometric, aceasta înseamnă că există o bază de vectori proprii; algebric, înseamnă că endomorfismul poate fi reprezentat printr-o matrice diagonală , cum ar fi

Valorile proprii pot fi ușor găsite calculând polinomul caracteristic al matricei asociate, definit ca

Valorile proprii ale sunt tocmai rădăcinile acestui polinom. Vectorii proprii se organizează în subespaiuri vectoriale numite spații proprii. Când spațiul vectorial este un spațiu de funcții, valoarea proprie este o funcție specială, numită funcție proprie .

Forma canonică Iordania

Pictogramă lupă mgx2.svg Același subiect în detaliu: forma canonică a Iordaniei .

Un endomorfism diagonalizabil poate fi ușor reprezentat prin intermediul unei matrice diagonale. Cu toate acestea, nu toate endomorfismele sunt diagonalizabile: de exemplu, o rotație în sens invers acelor de ceasornic a planului cartezian de unghi este reprezentat de matrice

că pentru diferit de 0 e ) nu are nici valori proprii, nici vectori proprii și, prin urmare, a fortiori nu poate fi diagonalizabilă. Un alt exemplu de matrice non-diagonalizabilă este următorul

Cu toate acestea, dacă câmpul considerat este câmpul de numere complexe , este totuși posibil să se reprezinte endomorfismul printr-o matrice care seamănă pe cât posibil cu o matrice diagonală, ca în al doilea exemplu prezentat. Această reprezentare, numită forma canonică a lui Jordan , caracterizează complet endomorfismele. Există o reprezentare similară în domeniul real, puțin mai complicată.

Ortogonalizare

Pictogramă lupă mgx2.svg Același subiect în detaliu: ortogonalizarea Gram-Schmidt și algoritmul lui Lagrange .

Similar unui endomorfism, un produs scalar poate fi reprezentat și de o matrice pătrată . Anche in questo contesto, la forma più semplice da trattare è quella in cui la matrice risulta essere diagonale, e questo accade precisamente quando si fissa una base ortogonale .

A differenza degli endomorfismi, in questo contesto è sempre possibile trovare una matrice diagonale. In altre parole, per qualsiasi prodotto scalare è possibile trovare basi ortogonali. Se il prodotto scalare è definito positivo , un algoritmo efficiente a questo scopo è l' ortogonalizzazione di Gram-Schmidt . Per prodotti scalari più generali si può usare l' algoritmo di Lagrange .

Teoremi

Teorema della dimensione

Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: Teorema della dimensione .

Il teorema della dimensione (o del rango ) è un teorema che mette in relazione le dimensioni del nucleo e dell' immagine di un'applicazione lineare , secondo la formula:

Qui Im e Ker denotano immagine e nucleo, mentre è la dimensione del dominio di . Questo risultato è anche chiamato teorema del rango , perché tradotto nel linguaggio delle matrici assume la forma seguente:

Qui rk e null indicano rispettivamente il rango e l' indice di nullità di una matrice del tipo .

Teorema di Rouché-Capelli

Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: Teorema di Rouché-Capelli .

Il teorema di Rouché-Capelli dà alcune informazioni sull'insieme delle soluzioni di un generico sistema lineare:

Il teorema afferma due cose:

  • il sistema ha soluzione se e solo se le matrici e hanno lo stesso rango ;
  • se ci sono soluzioni, queste formano un sottospazio affine di dimensione , dove è il numero di incognite (cioè il numero di colonne di ).

In particolare, il numero di soluzioni può essere solo zero, uno o infinito (se le equazioni sono a coefficienti reali o complessi).

Il teorema è generalmente usato per determinare rapidamente se un sistema ammette una o più soluzioni: non può però essere usato per determinarle esplicitamente. Uno strumento per questo scopo è il metodo di eliminazione di Gauss .

Relazione di Grassmann

Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: Formula di Grassmann .

La formula di Grassmann mette in relazione le dimensioni di vari sottospazi, definiti a partire da due sottospazi e entrambi contenuti uno spazio fissato . La formula è la seguente:

Nell'espressione compaiono i sottospazi ottenuti come somma e intersezione di e .

Teorema spettrale

Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: Teorema spettrale .

Il teorema spettrale fornisce una condizione forte di diagonalizzabilità per alcuni endomorfismi, detti simmetrici o autoaggiunti (a volte il termine operatore è usato come sinonimo di endomorfismo). La nozione di endomorfismo simmetrico (o operatore autoaggiunto) dipende dalla presenza di un fissato prodotto scalare definito positivo (o hermitiano se si usano spazi vettoriali complessi ). Il teorema spettrale asserisce che un tale endomorfismo ha una base ortonormale formata da autovettori .

Generalizzazione e argomenti correlati

I metodi dell'algebra lineare sono stati estesi ad altre branche della matematica, grazie al loro successo. Nella teoria dei moduli si sostituisce il campo degli scalari con un anello . L' algebra multilineare si occupa dei problemi che mappano linearmente 'molte variabili' in un numero differente di variabili, portando inevitabilmente al concetto di tensore . Nella teoria spettrale degli operatori si riescono a gestire matrici di dimensione infinita applicando l' analisi matematica in una teoria non puramente algebrica. In tutti questi casi le difficoltà tecniche sono maggiori. Inoltre, l'algebra lineare viene a essere fondamentale per ambiti riguardanti l'ottimizzazione, in particolare la ricerca operativa .

Note

  1. ^ Gatto, Letterio., Lezioni di algebra lineare e geometria per l'ingegneria : i veri appunti del corso , CLUT, 2013, ISBN 9788879923439 , OCLC 956082822 . URL consultato il 19 marzo 2019 .
  2. ^ Più precisamente, questo accade per uno spazio vettoriale reale dotato di un prodotto scalare definito positivo .
  3. ^ Lo spazio delle soluzioni di un sistema è uno spazio affine , ed il teorema di Rouché-Capelli fornisce un metodo per calcolarne la dimensione. Il numero di soluzioni può essere solo 0, 1 o infinito.
  4. ^ Problemi computazionali che limitano l'uso della Regola di Cramer

Bibliografia

Voci correlate

Altri progetti

Collegamenti esterni

Controllo di autorità Thesaurus BNCF 17729 · LCCN ( EN ) sh85003441 · GND ( DE ) 4035811-2 · BNF ( FR ) cb11937509n (data) · BNE ( ES ) XX527736 (data) · NDL ( EN , JA ) 00570681
Matematica Portale Matematica : accedi alle voci di Wikipedia che trattano di matematica