În fizică , propagarea erorii înseamnă efectul erorii (sau variabilității ) unui vector de variabile aleatorii asupra erorii asociate cu o funcție a acestuia. Aceste variabile, atunci când sunt supuse detectării experimentale, sunt, de asemenea, supuse variabilității observaționale datorită limitărilor măsurătorii (datorită, de exemplu, preciziei instrumentelor de măsurare ), care se propagă în funcție de observații.
O singură variabilă {\ displaystyle X} este posibil să se asocieze o eroare aleatorie {\ displaystyle \ Delta X} respectiva eroare absolută , care exprimă gradul de incertitudine în măsurarea valorii {\ displaystyle X} , deși mai des această eroare este exprimată în deviație standard {\ displaystyle \ sigma} sau, în cazul analizelor chimice, incertitudinii compuse {\ displaystyle u_ {c} (x)} . O măsură frecvent utilizată este eroarea relativă {\ displaystyle {\ frac {\ Delta X} {X}}} , care poate fi exprimat și ca procent sau, mai general, coeficientul de variație , exprimat prin intermediul raportului {\ displaystyle {\ frac {\ Delta X} {| \ mu |}}} , unde cu {\ displaystyle \ mu} ne referim la valoarea așteptată ( valoare medie sau chiar adevărată ) a {\ displaystyle X} .
Dacă distribuția probabilității variabilei care se măsoară este cunoscută sau poate fi ipotezată, este, de asemenea, posibilă probabilizarea intervalelor de valori în care variabila poate fi inclusă. Normalitatea este adesea asumată în distribuția pentru această cantitate, cu media zero în absența erorilor sistematice ( părtinire ) și cu deviația standard egală cu eroarea absolută . Sub această ipoteză, intervalul de amplitudine {\ displaystyle 2 \ sigma} {\ displaystyle [X- \ Delta X, X + \ Delta X]} a asociat o probabilitate de aproximativ 0,68, în timp ce intervalul {\ displaystyle [X-2 \ Delta X, X + 2 \ Delta X]} o probabilitate de aproximativ 0,95.
Formula generală
Tendința grafică a formulei de propagare a erorilor
Este{\ displaystyle f (x_ {1}, x_ {2}, ..., x_ {n})} o funcție dependentă de {\ displaystyle n} tip variabile {\ displaystyle x_ {1}, x_ {2}, ..., x_ {n}} ; incertitudinea fiecărei variabile este dată de {\ displaystyle \ Delta x_ {i}} :
- {\ displaystyle x_ {i} \ pm \ Delta x_ {i} \,.}
Dacă variabilele nu au legătură , eroarea poate fi calculată {\ displaystyle \ Delta f} din {\ displaystyle f} pornind de la incertitudinile variabilelor unice:
- {\ displaystyle \ Delta f = \ Delta f \ left (x_ {1}, x_ {2}, ..., x_ {n}, \ Delta x_ {1}, \ Delta x_ {2}, ..., \ Delta x_ {n} \ right) = \ left (\ sum _ {i = 1} ^ {n} \ left ({\ frac {\ partial f} {\ partial x_ {i}}} \ Delta x_ {i } \ right) ^ {2} \ right) ^ {1/2} \ ,,}
unde este {\ displaystyle {\ frac {\ partial f} {\ partial x_ {i}}}} este derivata parțială a {\ displaystyle f} pentru {\ displaystyle i} -a variabilă.
Dacă variabilele sunt corelate, se introduce covarianța între perechile de variabile{\ displaystyle C_ {i, k} = cov (x_ {i}, x_ {k})} ca o sumă dublă între fiecare pereche {\ displaystyle (i, k)} :
- {\ displaystyle \ Delta f = \ left (\ sum _ {i = 1} ^ {n} \ sum _ {k = 1} ^ {n} \ left ({\ frac {\ partial f} {\ partial x_ { i}}} {\ frac {\ partial f} {\ partial x_ {k}}} C_ {i, k} \ right) \ right) ^ {1/2} \,.}
După calcul {\ displaystyle \ Delta f} , prin urmare, putem spune că valoarea funcției cu incertitudinea ei este egală cu:
{\ displaystyle f \ pm \ Delta f \,.}
Cu siguranță nu este un rezultat surprinzător: incertitudinile despre {\ displaystyle x} afectează variabila {\ displaystyle y} în funcție de modul în care variabilele sunt legate între ele. Prin dezvoltarea funcției folosind un polinom Taylor {\ displaystyle f (x)} până la primul ordin (în ipoteza că toți termenii de ordine mai mari decât primul sunt neglijabili), derivatele din primul ordin descriu bine [1] cursul funcției în sine.
Prin urmare, oferim câteva formule pentru calcularea incertitudinii anumitor funcții, presupunând întotdeauna prezența covarianței între variabile ca {\ displaystyle C_ {i, k}} , unde este {\ displaystyle i} Și {\ displaystyle k} sunt două variabile generice, exprimate în exemple ca {\ displaystyle A} , {\ displaystyle B} sau {\ displaystyle C} .
Exemple
Funcţie | Incertitudine |
---|
{\ displaystyle X = A \ pm B} | {\ displaystyle (\ Delta X) ^ {2} = (\ Delta A) ^ {2} + (\ Delta B) ^ {2} \ pm 2 \ cdot C_ {A, B}} |
{\ displaystyle X = cA} | {\ displaystyle \ Delta X = | c | \ cdot \ Delta A} |
{\ displaystyle X = A \ cdot B \,} | {\ displaystyle (\ Delta X) ^ {2} = B ^ {2} (\ Delta A) ^ {2} + A ^ {2} (\ Delta B) ^ {2} + AB \ cdot 2 \ cdot C_ {A, B}} |
{\ displaystyle X = A \ cdot B \ cdot C} | {\ displaystyle (\ Delta X) ^ {2} = (BC) ^ {2} (\ Delta A) ^ {2} + (AC) ^ {2} (\ Delta B) ^ {2} + (AB) ^ {2} (\ Delta C) ^ {2} +2 \ cdot BC \ cdot AC \ cdot}
{\ displaystyle \ cdot C_ {A, B} +2 \ cdot BC \ cdot AB \ cdot C_ {A, C} +2 \ cdot AC \ cdot AB \ cdot C_ {B, C}} |
{\ displaystyle X = A ^ {i} \ cdot B ^ {j}} | {\ displaystyle (\ Delta X) ^ {2} = i ^ {2} A ^ {2i-2} B ^ {2j} (\ Delta A) ^ {2} + j ^ {2} A ^ {2i} B ^ {2j-2} (\ Delta B) ^ {2} +2 \ cdot iA ^ {2i-1} \ cdot jB ^ {2j-1} \ cdot C_ {A, B}} |
{\ displaystyle X = {\ frac {A} {B}}} | {\ displaystyle (\ Delta X) ^ {2} = {\ frac {(\ Delta A) ^ {2}} {B ^ {2}}} + {\ frac {A ^ {2}} {B ^ { 4}}} \ cdot (\ Delta B) ^ {2} -2 \ cdot {\ frac {A} {B ^ {2}}} \ cdot {\ frac {1} {B}} \ cdot C_ {A , B}} |
{\ displaystyle X = \ ln (A)} | {\ displaystyle \ Delta X = {\ frac {\ Delta A} {A}}} |
{\ displaystyle X = e ^ {A}} | {\ displaystyle \ Delta X = e ^ {A} \ cdot \ Delta A} |
Aplicații
Calculul extremelor
O primă aplicație simplă constă în inserarea în calcule a extremelor intervalului de erori; dacă măsura este valabilă:
- x ± Δ x
atunci „valoarea reală” este inclusă în intervalul [ x -Δ x ; x + Δ x ].
Prin urmare, se calculează:
- y 1 = ƒ ( x -Δ x )
- y 2 = ƒ ( x + Δ x )
și, conform ordinii y 1 și y 2 , considerăm [ y 1 ; y 2 ] sau [ y 2 ; y 1 ] ca interval de eroare.
Această metodă poate fi utilizată numai dacă funcția este monotonă în intervalul [ x -Δ x ; x + Δ x ].
Calculul derivatei
O metodă simplă adesea utilizată în fizică implică utilizarea polinomului Taylor arestat la primul ordin, adică înlocuirea funcției ƒ cu linia sa tangentă pentru a estima eroarea. Avem:
- ƒ ( x ) = ƒ ( a ) + ƒ '( a ) ( x - a ) + o ( x )
unde o ( x ) este o funcție care tinde la zero. Dacă înlocuim x cu a + Δ a , obținem:
- ƒ ( a + Δ a ) = ƒ ( a ) + ƒ '( a ) Δ a + o ( a + Δ a )
Prin urmare, se poate deduce că:
- Δ y ≈ ƒ '( a ) · Δ a
Calculul diferențialelor
Legea gazelor ideale poate fi folosită ca exemplu:
- {\ displaystyle P \ times V = n \ times R \ times T}
unde este
Presiunea în funcție de n , R , T și V este exprimată ca:
- {\ displaystyle P = {\ frac {n \ times R \ times T} {V}}}
și scriind diferențialele respective avem:
- {\ displaystyle dP = {\ frac {n \ times R} {V}} dT + {\ frac {n \ times T} {V}} dR + {\ frac {R \ times T} {V}} dn - {\ frac {n \ times R \ times T} {V ^ {2}}} dV}
Dacă înlocuiți diferitele dx-uri cu erorile respective, veți obține:
- {\ displaystyle \ delta P = {\ frac {n \ times R} {V}} \ delta T + {\ frac {n \ times T} {V}} \ delta R + {\ frac {R \ times T} {V}} \ delta n + {\ frac {n \ times R \ times T} {V ^ {2}}} \ delta V}
ceea ce dă eroarea absolută a valorii lui P cunoscând erorile lui T , R , n și V. În plus, din această formulă obținem:
- {\ displaystyle {\ frac {\ delta P} {P}} = {\ frac {\ delta T} {T}} + {\ frac {\ delta R} {R}} + {\ frac {\ delta n} {n}} + {\ frac {\ delta V} {V}}}
care arată cum eroarea relativă de pe P este egală cu suma erorilor relative de pe cantitățile unice care contribuie la calcularea ei.
Alte exemple în acest sens sunt:
- calculul ariei unui dreptunghi:
- {\ displaystyle S = Ll} Și {\ displaystyle S + dS = (L + dL) (l + dl) = Ll + Ldl + ldL + dldL}
- poate fi scris ca:
- {\ displaystyle dS = ((L + dL) (l + dl) -Ll) = Ldl + ldL + dLdl}
- aproximabil în:
- {\ displaystyle dS = Ldl + ldL}
- calculul unui volum V = x y z :
- {\ displaystyle V (x + dx, y + dy, z + dz) = (x + dx) (y + dy) (z + dz) =}
- {\ displaystyle = xyz + dxyz + xdyz + xydz + xdydz + ydxdz + zdxdy + dxdydz}
- devine:
- {\ displaystyle dV = yzdx + zxdy + xydz + dxdydz}
- aproximabil în {\ displaystyle dV = yzdx + zxdy + xydz}
- observând că:
- {\ displaystyle dV = yzdx + zxdy + xydz = {\ frac {\ partial (xyz)} {\ partial x}} dx + {\ frac {\ partial (xyz)} {\ partial y}} dy + {\ frac {\ partial (xyz)} {\ partial z}} dz}
- unde este: {\ displaystyle {\ frac {\ partial (xyz)} {\ partial x}} = yz; {\ frac {\ partial (xyz)} {\ partial y}} = xz; {\ frac {\ partial (xyz) } {\ partial z}} = xy}
- în general, calculul variației unei funcții ƒ ( x, y, z ).
- {\ displaystyle df (x, y, z) = {\ frac {\ partial f (x, y, z)} {\ partial x}} dx + {\ frac {\ partial f (x, y, z)} {\ partial y}} dy + {\ frac {\ partial f (x, y, z)} {\ partial z}} dz}
Calculul funcției tangente inverse
Propagarea erorii pentru funcția tangentă inversă poate fi calculată ca exemplu de utilizare a derivatelor parțiale. Funcția este apoi definită:
- {\ displaystyle f (\ theta) = \ arctan {\ theta}} ,
in timp ce {\ displaystyle \ sigma _ {\ theta}} este incertitudinea absolută a măsurii de {\ displaystyle \ theta} .
Derivata parțială a {\ displaystyle f (\ theta)} în comparație cu {\ displaystyle \ theta} Și:
- {\ displaystyle {\ frac {\ partial f} {\ partial \ theta}} = {\ frac {1} {1+ \ theta ^ {2}}}} .
Prin urmare, propagarea erorii {\ displaystyle \ sigma _ {f}} este egal cu:
- {\ displaystyle \ sigma _ {f} = {\ frac {\ sigma _ {\ theta}} {1+ \ theta ^ {2}}}} ,
Calculul rezistenței electrice
O aplicație practică poate fi găsită în măsurarea curentului electric I și a tensiunii V a unui rezistor cu scopul de a determina rezistența electrică R folosind legea lui Ohm :
{\ displaystyle R = V / I.}
Exprimând cantitățile măsurate cu incertitudinile respective ( I ± Δ I și V ± Δ V ), incertitudinea Δ R a rezultatului este egală cu:
- {\ displaystyle \ Delta R = \ left (\ left ({\ frac {\ Delta V} {I}} \ right) ^ {2} + \ left ({\ frac {V} {I ^ {2}}} \ Delta I \ right) ^ {2} \ right) ^ {1/2} = R {\ sqrt {\ left ({\ frac {\ Delta V} {V}} \ right) ^ {2} + \ left ({\ frac {\ Delta I} {I}} \ dreapta) ^ {2}}}.}
Deci, în acest caz simplu, eroarea relativă Δ R / R este egală cu rădăcina pătrată a sumei pătratelor erorilor relative ale celor două mărimi măsurate.
Notă
Bibliografie
Elemente conexe