În matematică , în special în calcul , diferențialul unei funcții cuantifică variația infinitesimală a funcției în raport cu o variabilă independentă. Pentru o funcție {\ displaystyle y = f (x)} a unei singure variabile {\ displaystyle x} , de exemplu, diferențialul {\ displaystyle dy} din {\ displaystyle f} este definit de forma 1 :
- {\ displaystyle dy (x, dx) = f '(x) dx}
unde este {\ displaystyle f '} denotă derivatul lui {\ displaystyle f} în comparație cu {\ displaystyle x} , care este limita raportului incremental {\ displaystyle \ Delta f / \ Delta x} pentru {\ displaystyle \ Delta x} infinit de mic, e {\ displaystyle dx} creșterea variabilei independente.
Când se ia în considerare o funcție {\ displaystyle f: U \ to \ mathbb {R}} derivabil , cu {\ displaystyle U} deschide în {\ displaystyle \ mathbb {R}} , poate fi aproximat într-un vecinătate din orice punct {\ displaystyle x_ {0}} a domeniului folosind funcția:
- {\ displaystyle l (x) = f '(x_ {0}) (x-x_ {0}) + f (x_ {0})}
al cărui grafic este linia tangentă la graficul lui {\ displaystyle f} în {\ displaystyle (x_ {0}, f (x_ {0}))} . Functia {\ displaystyle l} este o aplicație conexă de la {\ displaystyle \ mathbb {R}} în sine, adică o aplicație liniară la distanță de {\ displaystyle x_ {0}} compus cu o traducere (adăugarea termenului {\ displaystyle + f (x_ {0})} ). Diferențialul este apoi partea liniară a {\ displaystyle l} .
Derivatele direcționale ale unei funcții indică cât de mult variază funcția de prim ordin de-a lungul unui vector dat, în timp ce diferențialul este aplicația liniară care asociază variația de prim ordin la acel vector. Prin urmare, este un obiect util pentru a obține informații locale despre funcția de pornire, de exemplu, arată dacă este inversabilă local.
Definiție
În tratamentul modern al calculului, diferențialul unei funcții {\ displaystyle f (x)} a unei singure variabile {\ displaystyle x} este funcția {\ displaystyle df} a două variabile independente {\ displaystyle x} Și {\ displaystyle h} dat de:
- {\ displaystyle df (x, h) {\ stackrel {\ rm {def}} {=}} f '(x) h}
unde este {\ displaystyle f '} este derivatul lui {\ displaystyle f} . Această noțiune își găsește aplicația principală în aproximarea liniară a unei funcții.
Lasa-i sa fie {\ displaystyle E} Și {\ displaystyle F} două spații Banach (de ex. {\ displaystyle E} poate coincide cu {\ displaystyle \ mathbb {R} ^ {m}} Și {\ displaystyle F} cu {\ displaystyle \ mathbb {R} ^ {n}} ) și {\ displaystyle U \ subset E} deschis.
O functie {\ displaystyle f: U \ to F} se spune că este diferențiat în {\ displaystyle x \ în U} dacă variația sa când se îndepărtează de {\ displaystyle x} poate fi aproximat printr-o aplicație liniară continuă (dacă {\ displaystyle E} are asigurată continuitatea mărimii finite). Explicit, ele există {\ displaystyle \ phi: E \ to F} liniar și {\ displaystyle \ sigma: U \ to F} astfel încât: [1]
- {\ displaystyle f (x + h) = f (x) + \ phi (h) + \ | h \ | \ sigma (h) \ qquad \ lim _ {h \ to 0} \ sigma (h) = 0}
folosind notația cu small-o avem, într-un mod echivalent:
- {\ displaystyle f (x + h) = f (x) + \ phi (h) + o (\ | h \ |)}
De sine {\ displaystyle f} este diferențiat în {\ displaystyle x} , aplicația liniară {\ displaystyle \ phi} se numește diferențial de {\ displaystyle f} în {\ displaystyle x} și este uneori notat cu {\ displaystyle df (x)} , {\ displaystyle f '(x)} sau, de asemenea {\ displaystyle Df (x)} .
Diferențialul este partea liniară a aplicației afine care are graficul tangent la cel al funcției
Prezența micului o indică faptul că graficele lui {\ displaystyle f} Și {\ displaystyle f (x) + df (x)} sunt mită în {\ displaystyle x} . Puteți gândi asta intuitiv {\ displaystyle f} este o funcție din {\ displaystyle \ mathbb {R} ^ {2}} în {\ displaystyle \ mathbb {R}} , și, prin urmare, că graficul de {\ displaystyle f} atât o suprafață cât și cea a {\ displaystyle f (x) + df (x)} un plan. În acest caz, dacă cele două grafice se întâlnesc în {\ displaystyle x} a format un colț {\ displaystyle \ theta} atunci diferența:
- {\ displaystyle \ varepsilon (h) = f (x + h) - (f (x) + df (x) (h))}
ar trebui să se apropie liniar {\ displaystyle x} într-o anumită direcție și relație {\ displaystyle \ varepsilon / {\ | h \ |}} ar tinde spre tangenta unghiului {\ displaystyle \ theta} format între plan și suprafață în direcția considerată. Rezultă că dacă {\ displaystyle f} este diferențiat în {\ displaystyle x} diferențialul {\ displaystyle df (x)} este partea liniară a aplicației afine al cărei grafic este tangent cu cel al lui {\ displaystyle f} în {\ displaystyle x} .
În mod echivalent, dacă {\ displaystyle f} este diferențiat în {\ displaystyle x} poti sa scrii:
- {\ displaystyle f (x + h) -f (x) - \ phi (h) = o (\ | h \ |)}
și prin definiția lui o-small:
- {\ displaystyle {\ frac {f (x + h) -f (x) - \ phi (h)} {\ | h \ |}} \ to 0 \ qquad h \ to 0}
Considerând această expresie ca o definiție, {\ displaystyle f} este diferențiat în {\ displaystyle x} dacă există {\ displaystyle \ phi} astfel încât limita este zero (cealaltă implicație pentru demonstrarea echivalenței sale se obține prin luarea {\ displaystyle \ sigma (h) = \ | h \ | ^ {- 1} (f (x + h) -f (x) - \ phi (h)))} .
Alegerea bazelor pentru {\ displaystyle E} Și {\ displaystyle F} , dacă acestea sunt de dimensiune finită, atunci acesta poate fi reprezentat {\ displaystyle \ phi} cu o matrice numită matrice iacobiană . În special, se pot distinge trei cazuri:
- Este {\ displaystyle f: D \ subset \ mathbb {R} \ to \ mathbb {R}} . Conceptul de diferențial coincide cu cel de derivată, fiind diferențialul de {\ displaystyle f} în {\ displaystyle x} o aplicație liniară {\ displaystyle df: \ mathbb {R} \ to \ mathbb {R}} și deci o funcție de tip {\ displaystyle df (x) (h) = ah} pentru un număr real {\ displaystyle a} (toate aplicațiile liniare {\ displaystyle \ mathbb {R} \ to \ mathbb {R}} baza canonică este de această formă). Numarul {\ displaystyle a} este derivatul lui {\ displaystyle f} în {\ displaystyle x} , de fapt prin definiție:
- {\ displaystyle f (x + h) -f (x) = ah + \ sigma (h) \ | h \ |}
- Dividend de {\ displaystyle h} și luând în considerare limita {\ displaystyle h \ to 0} primesti {\ displaystyle f '(x) = a} in aceea {\ displaystyle \ lim _ {h \ to 0} \ sigma (h) = 0} .
- Este {\ displaystyle f: D \ subset \ mathbb {R} ^ {n} \ to \ mathbb {R}} . Jacobianul este în acest caz o matrice {\ displaystyle 1 \ times n} deoarece reprezintă o aplicație liniară {\ displaystyle \ mathbb {R} ^ {n} \ to \ mathbb {R}} (a luat întotdeauna bazele canonice pentru domeniu și interval) și, prin urmare, este un vector linie numit gradient . Acest vector poate fi considerat un vector coloană (luându-și transpunerea) și, în acest caz, imaginea lui {\ displaystyle h} prin gradientul de {\ displaystyle f} făcându-l produs scalar și nu multiplicarea între matrice.
- De obicei se folosesc funcții {\ displaystyle f: D \ subset \ mathbb {R} ^ {n} \ to \ mathbb {R}} pentru a defini implicit hipersuprafețele pe {\ displaystyle D} . De exemplu, pentru {\ displaystyle n = 2} puteți defini o curbă {\ displaystyle \ gamma} ca setul de {\ displaystyle x \ în D} pentru care {\ displaystyle f (x) = 0} , în timp ce pentru {\ displaystyle n = 3} ai avea o suprafață. De asemenea, este posibil să se arate că, dacă gradientul unei funcții nu este zero, nucleul funcției, tradus corespunzător, este subspaiul afin tangent la hipersuprafață în {\ displaystyle x} (când vectorul coloanei este luat ca gradient, nucleul este subspaiul ortogonal gradientului).
- Este {\ displaystyle f: [a, b] \ subset \ mathbb {R} \ to \ mathbb {R} ^ {n}} . Imaginea lui {\ displaystyle f} este o curbă în {\ displaystyle \ mathbb {R} ^ {n}} . Jacobianul {\ displaystyle n \ times 1} are aceleași componente ca vectorul obținut ca limita raportului incremental . Cand {\ displaystyle f} reprezintă poziția unui punct material în spațiu, de exemplu, {\ displaystyle df} este viteza . Setul tuturor multiplilor săi (sau luând în considerare {\ displaystyle df} ca aplicație liniară, imaginea sa) este o linie dreaptă care, atunci când este tradusă corespunzător, este tangentă curbei.
Notarea Leibniz în cazul funcțiilor din {\ displaystyle \ mathbb {R}} în {\ displaystyle \ mathbb {R}}
Justificarea notării lui Leibniz în ceea ce privește diferențialul funcțional
Funcția de identitate se leagă {\ displaystyle x} pentru sine și este liniar și diferențiat. Ca orice funcție liniară, diferențialul său este egal cu funcția în sine și independent de punct {\ displaystyle x} în care se calculează. Dacă o indicați cu {\ displaystyle dx (x)} avem, indiferent de {\ displaystyle x} :
- {\ displaystyle dx (x) (h) = h}
Deoarece derivata este Jacobianul diferențialului pentru funcții din {\ displaystyle \ mathbb {R}} în {\ displaystyle \ mathbb {R}} primesti:
- {\ displaystyle df (x) (h) = f '(x) h = f' (x) dx (h)}
de la care:
- {\ displaystyle f '(x) = {\ frac {df (x) (h)} {dx (h)}}}
Prin urmare, raportul celor două funcții liniare (cele două diferențiale) este constant și este egal cu derivata din punct. În acest fel este posibil să se acorde o semnificație riguroasă notației lui Leibniz , care exprimă derivata unei funcții ca fiind coeficientul dintre diferențialul funcției și cel al variabilei independente. Cu toate acestea, tratamentul efectuat în această formă nu este în măsură să justifice operațiile aritmetice pe diferențiale care, în notația lui Leibniz, în ciuda lipsei unei baze riguroase, oferă o metodă mnemonică simplă pentru scrierea proprietăților derivatelor. Pentru o recuperare riguroasă a metodelor leibniziene este în schimb necesar să ne referim la metode care aparțin analizei nestandardizate , formulată de Abraham Robinson în anii șaizeci .
Diferențial în mai multe variabile
Având o funcție {\ displaystyle y = f (x_ {1}, \ dots, x_ {n})} , diferențialul parțial al {\ displaystyle y} în raport cu fiecare dintre variabile {\ displaystyle x_ {1}, \ dots, x_ {n}} Și {\ displaystyle (\ partial y / \ partial x_ {i}) dx_ {i}} , unde este {\ displaystyle \ partial y / \ partial x_ {i}} este derivata parțială în ceea ce privește coordonata i-a. Diferențialul total al funcției este dat de suma diferențialelor parțiale în raport cu toate variabilele independente:
- {\ displaystyle dy = {\ frac {\ partial y} {\ partial x_ {1}}} dx_ {1} + \ cdots + {\ frac {\ partial y} {\ partial x_ {n}}} dx_ {n }}
Mai compact, poate fi indicat ca:
- {\ displaystyle dy = \ nabla y \ cdot d \ mathbf {x}}
Unde cu {\ displaystyle \ nabla y} gradientul de {\ displaystyle y} , cu{\ displaystyle d \ mathbf {x}} variația infinitesimală care este un vector cu componente infinitesimale și cu {\ displaystyle \ cdot} produsul scalar.
Într-un context mai formal, dacă {\ displaystyle f} este o funcție diferențiată, creșterea este dată de:
- {\ displaystyle \ Delta y \ equiv f (x_ {1} + \ Delta x_ {1}, \ dots, x_ {n} + \ Delta x_ {n}) - f (x_ {1}, \ dots, x_ { n})}
- {\ displaystyle = {\ frac {\ partial y} {\ partial x_ {1}}} \ Delta x_ {1} + \ cdots + {\ frac {\ partial y} {\ partial x_ {n}}} \ Delta x_ {n} + \ varepsilon _ {1} \ Delta x_ {1} + \ cdots + \ varepsilon _ {n} \ Delta x_ {n}}
unde termenii de eroare {\ displaystyle \ varepsilon _ {i}} anulați când anulați {\ displaystyle \ Delta x_ {i}} . Prin urmare, diferențialul total este strict definit astfel:
- {\ displaystyle dy = {\ frac {\ partial y} {\ partial x_ {1}}} \ Delta x_ {1} + \ cdots + {\ frac {\ partial y} {\ partial x_ {n}}} \ Delta x_ {n}}
Cu această definiție avem:
- {\ displaystyle dx_ {i} (\ Delta x_ {1}, \ dots, \ Delta x_ {n}) = \ Delta x_ {i}}
și, prin urmare, puteți scrie:
- {\ displaystyle dy = {\ frac {\ partial y} {\ partial x_ {1}}} \, dx_ {1} + \ cdots + {\ frac {\ partial y} {\ partial x_ {n}}} \ , dx_ {n}}
În mod similar cu cazul unei singure variabile, aproximarea are:
- {\ displaystyle dy \ approx \ Delta y}
în care eroarea totală poate fi făcută cât de mică se dorește față de {\ displaystyle {\ sqrt {\ Delta x_ {1} ^ {2} + \ cdots + \ Delta x_ {n} ^ {2}}}} considerate incremente suficient de mici.
Diferențiale de ordin superior
Diferențialele de ordin superior ale unei funcții {\ displaystyle y = f (x)} a unei singure variabile {\ displaystyle x} poate fi definit astfel:
- {\ displaystyle d ^ {2} y = d (dy) = d (f '(x) dx) = f' '(x) \, (dx) ^ {2}}
și mai general:
- {\ displaystyle d ^ {n} y = f ^ {(n)} (x) \, (dx) ^ {n}}
În mod informal, acest lucru justifică utilizarea notației Leibniz pentru derivate de ordin superior:
- {\ displaystyle f ^ {(n)} (x) = {\ frac {d ^ {n} f} {dx ^ {n}}}}
Când variabila independentă {\ displaystyle x} depinde de alte variabile, expresia devine mai complexă, de exemplu:
- {\ displaystyle d ^ {2} y = f '' (x) \, (dx) ^ {2} + f '(x) d ^ {2} x}
- {\ displaystyle d ^ {3} y = f '' '(x) \, (dx) ^ {3} + 3f' '(x) dx \, d ^ {2} x + f' (x) d ^ {3} x}
Considerații similare permit definirea diferențialelor de funcții de ordin superior în mai multe variabile. De exemplu, dacă {\ displaystyle f} depinde de două variabile {\ displaystyle x} Și {\ displaystyle y} avem:
- {\ displaystyle d ^ {n} f = \ sum _ {k = 0} ^ {n} {\ binom {n} {k}} {\ frac {\ partial ^ {n} f} {\ partial x ^ { k} \ partial y ^ {nk}}} (dx) ^ {k} (dy) ^ {nk}}
unde este {\ displaystyle \ scriptstyle {\ binom {n} {k}}} este coeficientul binomial . În mai multe variabile, expresia este analogă atât timp cât se utilizează expansiunea multinomială adecvată.
Diferențialele de ordin superior în mai multe variabile devin mai complexe atunci când variabilele independente la rândul lor depind de alte variabile. De exemplu, dacă {\ displaystyle x} Și {\ displaystyle y} depind de alte variabile:
- {\ displaystyle d ^ {2} f = \ left ({\ frac {\ partial ^ {2} f} {\ partial x ^ {2}}} (dx) ^ {2} +2 {\ frac {\ partial ^ {2} f} {\ partial x \ partial y}} dx \, dy + {\ frac {\ partial ^ {2} f} {\ partial y ^ {2}}} (dy) ^ {2} \ dreapta) + {\ frac {\ partial f} {\ partial x}} d ^ {2} x + {\ frac {\ partial f} {\ partial y}} d ^ {2} y}
Diferențialul ordinului n al unei funcții {\ displaystyle f} și o creștere {\ displaystyle \ Delta x} poate fi definit și ca:
- {\ displaystyle d ^ {n} f (x, \ Delta x) = \ left. {\ frac {d ^ {n}} {dt ^ {n}}} f (x + t \ Delta x) \ right | _ {t = 0}}
sau, echivalent, ca {\ displaystyle \ lim _ {t \ to 0} {\ frac {\ Delta _ {t \ Delta x} ^ {n} f} {t ^ {n}}}} , unde este{\ displaystyle \ Delta _ {t \ Delta x} ^ {n} f} este o diferență finită înainte cu increment {\ displaystyle t \ Delta x} . Această definiție are sens și pentru una {\ displaystyle f} a mai multor variabile.
Diferențial de morfisme între soiuri
Luați în considerare două soiuri netede {\ displaystyle M} Și {\ displaystyle N} , și un morfism între ele, sau o aplicație diferențiată {\ displaystyle f: M \ to N} . Diferențialul poate fi definit {\ displaystyle df_ {m}} din {\ displaystyle f} în {\ displaystyle m \ în M} ca o hartă liniară din spațiul tangent {\ displaystyle T_ {m} M} la {\ displaystyle M} în {\ displaystyle m} la spațiul tangent {\ displaystyle T_ {f (m)} N} la {\ displaystyle N} în {\ displaystyle f (m)} care trimite {\ displaystyle v \ in T_ {m} M} în {\ displaystyle df_ {m} (v) \ în T_ {f (m)} N} , cu:
- {\ displaystyle df_ {m} (v) (g) = v (g \ circ f)}
pentru fiecare{\ displaystyle g \ in {C ^ {\ infty}} (f (m))} , unde vectorii tangenți au fost considerați ca derivări. [2] Considerând vectorii tangenți ca clase de echivalență a curbelor care trec {\ displaystyle m} se obține definiția corespunzătoare:
- {\ displaystyle df_ {m} ([\ gamma]) = [f _ {*} \ gamma] = [f \ circ \ gamma]}
Harta {\ displaystyle df_ {p}} (scris și ca {\ displaystyle Tf_ {p}} , {\ displaystyle Df_ {p}} , {\ displaystyle f _ {*}} , {\ displaystyle f '(p)} ) se mai numește și hartă tangentă , deoarece simbolul {\ displaystyle T} definește un functor covariant din categoria varietăților diferențiate în cea a pachetelor vectoriale .
Diferențial exact
Un diferențial exact este o formă 1 :
- {\ displaystyle \ operatorname {d} Q = A_ {1} (x_ {1}, x_ {2}, \ dots) dx_ {1} + A_ {2} (x_ {1}, x_ {2}, \ dots ) dx_ {2} + \ dots}
astfel încât există o funcție {\ displaystyle Q (x_ {1}, x_ {2}, \ dots)} , numit potențial , care satisface: [3]
- {\ displaystyle A_ {1} = {\ frac {\ partial Q} {\ partial x_ {1}}} \ qquad A_ {2} = {\ frac {\ partial Q} {\ partial x_ {2}}} \ qquad \ dots}
Cu alte cuvinte, luând în considerare un spațiu tridimensional și o formă diferențială {\ displaystyle A (x, y, z) dx + B (x, y, z) dy + C (x, y, z) dz} , este o formă exactă pe un domeniu {\ displaystyle D \ subset \ mathbb {R} ^ {3}} dacă există o anumită funcție scalară {\ displaystyle Q = Q (x, y, z)} definit pe {\ displaystyle D} astfel încât:
- {\ displaystyle dQ \ equiv \ left ({\ frac {\ partial Q} {\ partial x}} \ right) _ {y, z} dx + \ left ({\ frac {\ partial Q} {\ partial y} } \ right) _ {z, x} dy + \ left ({\ frac {\ partial Q} {\ partial z}} \ right) _ {x, y} dz = Adx + Bdy + Cdz}
în ansamblu {\ displaystyle D} . Acest lucru este echivalent cu a spune câmpul vector {\ displaystyle (A, B, C)} este un câmp vector conservator , corespunzător gradientului unui câmp scalar (numit potențial ) {\ displaystyle Q} .
Într-o dimensiune, o formă diferențială {\ displaystyle A (x) dx} este exact dacă {\ displaystyle A} are un primitiv . În caz contrar, dacă {\ displaystyle A} nu posedă primitiv nu poate fi scris {\ displaystyle dQ = A (x) dx} iar forma nu este exactă.
Notă
Bibliografie
- Nicola Fusco , Paolo Marcellini , Carlo Sbordone , Lessons in Mathematical Analysis Due , Bologna, Zanichelli, 2020, ISBN 9788808520203 . (capitolul 3, paragraful 29)
- Nicola Fusco , Paolo Marcellini , Carlo Sbordone , Elements of Mathematical Analysis Due , Naples, Liguori Editore, 2001, ISBN 9788820731373 . (capitolul 2, paragraful 13)
- M. Abate, F. Tovena, Geometrie diferențială , Springer, 2011, ISBN 978-88-470-1919-5 .
- Walter Rudin, Principiile analizei matematice , Milano, McGraw-Hill, 1991, ISBN 88-386-0647-1 .
- Giuseppe De Marco, Analysis Two , Decibel-Zanichelli, 1999.
- ( EN ) Serge Lang, Analiza universitară , Springer, 1997.
- ( EN ) Serge Lang, Analiza reală și funcțională , Springer, 1993.
- (EN) James Munkres, Analiza asupra varietăților, Westview Press, 1991.
- ( EN ) Frank Warner, Fundamente ale varietăților diferențiate și ale grupurilor de minciuni , Springer, 1983.
Elemente conexe
Alte proiecte
linkuri externe