Sistem critic

De la Wikipedia, enciclopedia liberă.
Salt la navigare Salt la căutare
Exemple [1] de sisteme critice de siguranță. În sensul acelor de ceasornic de sus: cabina de sticlă a unui C-141 , un stimulator cardiac , o cameră de control a unei centrale nucleare și naveta spațială .

Un sistem critic (din engleză critic system ) este un sistem generic care, în caz de eșec în funcționarea sa, poate provoca daune care nu sunt considerate acceptabile. Acestea se disting între sistemele critice pentru siguranță și sistemele critice ale misiunii, mai bine cunoscute prin cuvintele lor respective în limba engleză safety-critical și mission-critical. Ingineria de siguranță și fiabilitatea sunt ramurile ingineriei care se ocupă de coordonarea activităților de proiectare ale acestor sisteme.

Un sistem critic de siguranță este definit ca un sistem a cărui defecțiune poate duce la [1] [2] :

  • moartea sau rănirea persoanelor
  • pierderea sau deteriorarea gravă a vehiculelor și a sistemelor de valoare specială
  • daune grave asupra mediului .

Exemple de astfel de sisteme includ dispozitive medicale , sisteme avionice , rachete sau rachete , instalații nucleare [1] .

Un sistem critic pentru misiune este definit ca un sistem al cărui eșec poate provoca daune economice potențial ireparabile companiei care produce și / sau folosește sistemul. Un exemplu al acestor sisteme sunt sateliții artificiali [2] sau sistemele bancare [3] [4] .

Clasificarea sistemelor

Regimuri de fiabilitate

Un lift este un sistem sigur [5] : în cazul ruperii cablului, frânele de siguranță de pe șinele laterale asigură că ascensorul nu se prăbușește chiar dacă nu mai este funcțional. Un caz particular pot fi lifturile de stingere a incendiilor, în unele cazuri clasificate ca fiind sigure-operaționale [6] .

O distincție între sistemele critice se referă la comportamentul lor așteptat în caz de eșec. Au fost propuși mai mulți termeni și clasificări, printre care cele mai frecvente sunt:

  • Sisteme de funcționare defectuoasă [7] : sistemul în ansamblu continuă să funcționeze corect chiar și atunci când un subsistem (sau o componentă) eșuează. Această categorie include diverse tipuri de echipamente, inclusiv unele sisteme auto [8] , sisteme fly-by-wire [9] și sisteme de protecție a centralelor nucleare [10] .
  • Sisteme sigure la defecțiuni [11] [12] : sistemul sau o parte a acestuia devine inoperant, dar se află într-o stare sigură. Multe instrumente medicale se încadrează în această categorie, cum ar fi dispozitivele de transfuzie de sânge , care împiedică pătrunderea bulelor de gaz în sistemul circulator al pacientului chiar și atunci când nu mai funcționează. Un alt exemplu clasic îl constituie unele sisteme feroviare, care activează frânele de urgență în caz de avarie.
  • Sisteme soft-fail [13] [14] : în urma unei defecțiuni, sistemul este capabil să furnizeze doar unele funcționalități sau toate funcționalitățile, dar cu performanțe reduse.
  • Sisteme pasive de eșec [15] : termen intermediar între eșec și funcțional. Dacă un subsistem eșuează, acesta nu cauzează probleme pentru sistemul mai mare, dar de obicei trebuie luate măsuri externe pentru ca sistemul complet să funcționeze. Acest mod este tipic pentru piloții automat [16] : dacă sistemul autoland eșuează, este garantat că nu provoacă probleme în zbor, dar necesită intervenția umană a pilotului pentru a permite aterizarea.
  • Sisteme de securitate la defecțiuni [17] : concept similar cu securitatea la defecțiuni, dar mijloace de securitate împotriva atacurilor terților. Un exemplu sunt blocările electronice [18] , care rămân blocate în cazul unei întreruperi a curentului (stare sigură).

Nu este întotdeauna posibil să se clasifice regimul de fiabilitate cerut de un sistem înainte de analiza cerințelor de siguranță. De exemplu, un pilot automat poate fi clasificat pur și simplu ca fail-passive, deoarece defecțiunile sale pot fi gestionate de piloți, dar trebuie să fie fail-operational dacă oferă capabilități de aterizare complet automate , în care piloții nu ar avea suficient timp pentru a reacționa la o defecțiune a pilotului.pilot automat [15] .

Ingineria probabilității de eșec

Deoarece este imposibil din punct de vedere fizic construirea unui sistem care nu dă greș niciodată, ingineria sistemelor critice implică controlul probabilității de eșec sau, mai general, reducerea riscului . Pentru a obține aceste rezultate, se aplică analize aprofundate (de exemplu , analiza materialelor ) și îmbunătățirea sistemelor de siguranță. Atunci când nu este posibil să se îmbunătățească în continuare o componentă dată sau dacă nu este avantajos din punct de vedere economic, se aplică tehnici de redundanță .

Cerințele unui sistem critic

Conform standardului IEC 61508, cerințele în termeni de probabilitate de eșec ale unui sistem critic sunt exprimate prin:

  • PFH - Probabilitatea de eșec catastrofal pe unitate de timp
  • PFD - Probabilitatea unui eșec catastrofal la cerere

Alegerea dintre cele două cerințe depinde de frecvența cu care este activată funcția critică a sistemului. Dacă este continuu , se va alege PFH, dacă va fi considerat sporadic , cerința va fi exprimată de PFD. Distincția deliberat non-obiectă rămâne în sarcina proiectantului și a eventualului organism de certificare, evaluarea cerinței fiind mai adecvată.

O valoare tipică utilizată pentru sistemele de aviație critice este a , adică în fiecare oră trebuie să se producă un accident catastrofal cu o probabilitate mai mică de [19] . Cu alte cuvinte, timpul mediu până la primul eșec catastrofal este de aproximativ 100.000 de ani .

Estimarea probabilității de eșec

Unul dintre cele mai frecvent utilizate modele pentru estimarea probabilității unei defecțiuni a sistemului este curba căzii .

Rezistența la eșec

Pictogramă lupă mgx2.svg Același subiect în detaliu: Toleranță la erori .

Sisteme informatice critice

În sistemele critice moderne, sistemele informatice joacă un rol fundamental în funcționarea și securitatea sistemului în sine. Majoritatea acestor sisteme pot fi clasificate de obicei ca sisteme în timp real , deoarece funcționarea acestor sisteme este determinată și de timpul lor de răspuns. Acest lucru necesită ca cel mai prost timp de execuție al unui program să fie corect estimat.

Notă

  1. ^ a b c ( EN ) JC Knight, Sisteme critice de siguranță: provocări și direcții , IEEE, 2002.
  2. ^ a b Ian Summerville, Critical Systems ( PDF ) [ link rupt ] , pe courses.cs.washington.edu . Adus în februarie 2020 .
  3. ^ Misiune critică de calcul , la susedefines.suse.com , SUSE. Adus în februarie 2020 .
  4. ^ Stephen MW, De ce criptarea misiunii critice rămâne o necesitate pentru securitatea IT , la techgenix.com , TechGenix, 2019. Accesat în februarie 2020 .
  5. ^ Scufundările ascensorului sunt rare, deoarece frânele și cablurile asigură protecții sigure , Washington Post, 2013.
  6. ^ SISTEME UPS UTILIZATE PENTRU SPRIJINIREA SISTEMELOR DE URGENȚĂ, ASA CĂ ASCENȚELE DE EVACUARE TREBUIE SĂ RESPECTE REGULAMENTUL BS EN 50171 , pe powercontrol.co.uk . Adus pe 24 februarie 2020 .
  7. ^ (EN) Adam Schnellbach, Automotive Fail-operational systems - Teză de doctorat , Universitatea Tehnologică din Graz, 2016.
  8. ^ (EN) Bülent Sari, Hans-Christian Reuss, Fail-Operational Safety Architecture for ADAS Systems Considering Domain ECUs , SAE International, 2018, DOI : 10.4271 / 2018-01-1069 .
  9. ^ (EN) Hitt F. Ellis, Dennis Mulcare, Fault-Tolerant Avionics (PDF) pe cs.unc.edu, 2001. Adus în februarie 2020.
  10. ^ (EN) Automatizare sigură și fiabilă , pe men.de, MEN Mikro Elektronik GmbH. Adus în februarie 2020 .
  11. ^ Nancy Leveson, Basic Design for Safety Principles ( PDF ), pe ocw.mit.edu , MIT, 2016. Accesat la 24 februarie 2020 .
  12. ^ 10 exemple sigure , simplicable.com , 2016. Accesat la 24 februarie 2020 .
  13. ^ fail soft - Glosar , la csrc.nist.gov , NIST. Adus pe 24 februarie 2020 .
  14. ^ Duane Kritzinger, Aircraft System Safety , Woodhead Publishing, 2006, ISBN 9781845691363 .
  15. ^ a b ( EN ) O explicație detaliată a termenilor Fail Operational și Fail Passive , la iasa.com.au , Asociația Internațională pentru Siguranța Aviației. Adus în februarie 2020 .
  16. ^ Autoland , la skybrary.aero , SkyBrary. Adus pe 24 februarie 2020 .
  17. ^ Lawrence J. Fennelly, Securitate fizică eficientă , Elsevier, 2003, ISBN 9780080470047 .
  18. ^ (EN) Lori Greene, Decoded: Fail Safe vs. Fail Secure - Când și unde? ( PDF ), pe us.allegion.com , Allegion, 2018. Accesat la 24 februarie 2020 .
  19. ^ Sistemul de proiectare și analiză armonizare și actualizare tehnologică ( PDF ), la faa.gov , FAA , 2002. Accesat în februarie 2020 .

Bibliografie

  • Marvin Rausand, Fiabilitatea sistemelor critice de siguranță , Wiley, 2014, ISBN 9781118112724 .

Elemente conexe