Trei legi de robotica

De la Wikipedia, enciclopedia liberă.
Salt la navigare Salt la căutare

În ficțiune , cele trei legi ale roboticii sunt un set de legi scrise de Isaac Asimov , care ascultă toți roboții pozitronice (adică acei roboți cu creier pozitronic ) care apar în poveștile sale (și în multe povești de alți autori). Cele trei legi au fost supuse unor modificări care trec de la traducere la traducere, dar chiar și în cazul în care conținutul rămâne mereu același lucru este mai bine să-și exprime cele trei legi pentru prima dată în versiunea originală:

( EN )

"

  1. Un robot nu poate răni o ființă umană sau, prin inacțiune, permite o ființă umană să vină la rău.
  2. Un robot trebuie să se supună ordinelor date de către ființele umane, cu excepția cazului în care astfel de ordine ar intra în conflict cu Legea întâi.
  3. Un robot trebuie să protejeze propria existență, atâta timp cât o astfel de protecție nu intră în conflict cu prima sau a doua lege. "
( IT )

"

  1. Un robot nu poate afecta o ființă umană și nici nu poate permite o ființă umană să primească daune din cauza incapacității sale de a interveni.
  2. Un robot trebuie să se supună ordinelor date de ființe umane, atâta timp cât aceste ordine nu merg împotriva Legii întâi.
  3. Un robot trebuie să protejeze existența acesteia, atâta timp cât apărarea nu intră în conflict cu prima sau a doua lege ".
(Handbook of Robotica Edition 56th - 2058 AD [1] )

Ideea

Legile s- au născut la începutul patruzeci de ani , din mintea lui Asimov, datorită discuțiilor fructuoase cu privire la poveștile sale robotice cu John W. Campbell , prieten și editor al Astounding Science Fiction . Asimov a fost de părere că, dacă o mașină a fost proiectat de bine, nu a putut prezenta nici un risc, în cazul în care, evident, nu a fost utilizat în mod abuziv. [2] El a pus în aplicare aceste legi în robotul său respectând necesar de securitate (Legea întâi), serviciul (Legea a doua) și de auto-conservare (a treia lege) din aceste „instrumente“ sofisticate. [3]

Deși Asimov stabilește o dată pentru crearea legilor, apariția lor în lucrările sale au avut loc pe o perioadă lungă de timp. El a scris două povestiri fără a menționa lista celor trei legi ( Robbie și A fi rațional ); Asimov a asumat, cu toate acestea, că roboții ar avea un oarecare măsură de siguranță intrinsecă. „ Mincinosule! “ A treia poveste de roboți Asimov, pentru prima dată , menționează Legea întâi (și caracterul lui Susan Calvin ), dar nu și cealaltă. Cele trei legi au apărut în mod explicit toate cerc vicios . [3] Atunci când aceste și alte povestiri au fost adunate împreună în antologia I, Robot , povestea fiind rațională a fost actualizat pentru a include cele trei legi.

Prin crearea lor, legile de robotica dovedit a fi atât de popular și de bun-simț că în curând alți scriitori au început să le folosească, dar niciodată nu le mai vorbim, cum numai Asimov se putea. După invenția lor, poveștile de roboți ca „distrugători creatorul lor“ aproape a încetat să mai existe. [4]

Cu toate că legile au fost inițial măsuri de protecție, pur și simplu cu atenție și inginerie, în povești mai târziu Asimov afirmă că ar lua o investiție semnificativă în cercetare pentru a crea roboți inteligenți care sunt libere de aceste legi, deoarece acestea sunt o parte inalienabilă a fundației matematice care stă la baza Funcționarea creierul pozitronic.

În general , în povestirile scrise de Asimov noi nu sunt consolidate cele trei legi de Robotica [5] . Dimpotrivă, cele mai multe dintre ele au ca tac lor să apară defecte și neînțelegeri, care derivă din impulsuri eronate. [3] O excepție, cu toate acestea unele povești , cum ar fi Sally , dacă suntem uniți , segregaționiste , că tu însuți , care are grija și Crăciun fără Rodney , în cazul în care legile roboticii nu sunt respectate.

Aberațiile și evoluția legilor

Într - o poveste de Asimov ( Micul Lost Robot ) diferite de robot NS-2 (Nestor) au fost create cu doar o parte din Legea întâi, cu această formulare:

1. Un robot nu poate afecta o ființă umană.

Acest lucru a permis roboți să lucreze alături oameni chiar și atunci când au fost supuse la doze mici de radiații: nu periculoase, dar încă „efecte adverse“, în conformitate cu Legea întâi. Prin urmare, formularea inițială a Legii întâi forțat roboți să intervină, dar fiind mai vulnerabile decât oamenii la radiatii, ele invariabil se deteriorate. În stilul tipic Asimov, această modificare a dus la diverse probleme pe a cărei soluție se bazează parcela de poveste. [6]

În sfârșit, „Solarienii“ roboți cu trei legi normale create, dar cu un concept distorsionată a „ființei umane“. Similar cu o poveste scurtă în care roboți au fost în stare să facă daune străinilor, a declarat Solarienii roboți că numai persoanele care au vorbit Solariană erau oameni. În acest fel, roboți lor a avut nici o problema a afecta oamenii non-Solariană (și într-adevăr, au avut ordine specifice cu privire la aceasta). [7]

Problema de roboți care se consideră uman a fost făcut aluzie de multe ori. roboți antropomorfi a făcut problema mai evidentă. Exemple pot fi găsite în romanul roboților și povestiri scurte Evidență și bicentenar Man .

După o crimă pe Solaria, în Soarele gol , Ilie Baley a susținut că legile au fost greșit interpretate în mod deliberat pentru că roboții le - ar putea rupe fără să știe.

Gaia , lumea inteligentă a romanelor Fundației , să adopte o lege similară cu Legea întâi ca filosofia lui:

Gaia nu poate afecta viața, și nici nu poate ea permite vieții să fie afectat de eșecul ei de a interveni.

Legile nu sunt considerate absolut de cele mai avansate roboți. În multe povești, cum ar fi cerc vicios , potențialul și severitatea tuturor acțiunilor în care sunt cântărite și un robot poate rupe legile cât mai puțin posibil, mai degrabă decât a face nimic. Într-o altă poveste, au fost evidențiate problemele Legii Prima - de exemplu, un robot nu ar putea funcționa ca un chirurg, pentru că ar fi cauzat daune unei persoane; nici nu putea concepe strategii pentru fotbal , deoarece acestea ar putea provoca rănirea jucătorilor.

Odată cu evoluția roboți în povești, lacune concepute pentru a by-pass cele trei legi devin din ce în ce rafinat. Într - una din ultimele povești robot, Că le avea grijă de ei , Guvernul Mondial intenționează să demonteze roboților din SUA, din diverse motive, dintre care unele sunt parțial legate de defectele celor trei legi. Keith Harriman, director al SUA Roboți, folosește doi roboți (George Nono și Decimo) să elaboreze un truc companie de salvare. Această pereche de roboți extrem de sofisticate are primele două legi modificate:

  1. În primul rând este introdus un criteriu calitativ, adică, există ființe umane mai bune decât altele (tineri cu vârsta de peste, polițiști peste criminali), deși limitată la cazul în care două acțiuni alternative atât cauza daune.
  2. Al doilea este radical rescris. Înainte de a se supune unui om, robotul va trebui să se gândească dacă faci asta, nu doar cum. Robotul va deveni astfel mai lent, dar, de asemenea, mai eficient.

George ideeranno ca un plan pe termen lung, creând cu raționamentul lor , o reinterpretare a celor trei legi, oferindu - le statutul de „mai bine umane“ (și legile nu mai sunt cele de Robotică, dar cei de „bărbătesc). [8]

O parodie a trei legi a fost făcută de Gerald negru (fizic eteric angajat ca cercetător pentru hiper-motor) despre Susan Calvin , subliniind devotamentul complet al acestui personaj pentru robotul pozitronică:

  1. Va trebui să protejeze roboți cu toată puterea ta și toată inima ta și din tot sufletul tău.
  2. Sacru Vei lua în considerare interesele SUA roboți și bărbați mecanice, Inc , cu condiția să nu interfereze cu Legea întâi.
  3. Va trebui să dea oamenilor atenția distrasă, atâta timp cât acest lucru nu interferează cu primul și al doilea Legile. [9]

Legea Zero

Cele trei legi au fost extinse cu o a patra lege, „Legea Zero“, numit pentru menținerea faptul că o lege cu un număr mai mic soprassedesse la un număr mai mare. El a fost enunțat de un caracter din Asimov, R. Daneel Olivaw (R reprezintă Robot), în noile roboți și Imperiu , deși a fost menționat anterior în conflict pot fi prevenite prin Susan Calvin . În roboți și Imperiul, R. Giskard Reventlov a fost primul robot să acționeze în conformitate cu Legea Zero, chiar dacă sa dovedit a fi distructive pentru creierul lui pozitronic, când a încălcat Legea întâi. Daneel, peste multe mii de ani, a fost capabil să se adapteze pe deplin și să asculte de Legea Zero, care prevede:

0. Un robot nu poate răni omenirea, și nici nu își poate permite că, din cauza lipsei de acțiune, omenirea să vină la rău.

Celelalte 3 legi se modifică în consecință:

  1. Un robot nu poate afecta o ființă umană și nici nu poate permite o ființă umană să primească daune din cauza incapacității sale de a interveni. Cu condițiaacest lucru nu intră în conflict cu Legea Zero
  2. Un robot trebuie să se supună ordinelor date de ființe umane, atâta timp cât astfel de ordine nu contravin Legii Zero și Legea întâi.
  3. Un robot trebuie să protejeze existența acesteia, atâta timp cât această auto-apărare nu intră în conflict cu Legea Zero, Legea întâi și Legea a doua.

Legea de zero, cu toate acestea, se dovedește a fi extrem de complex în ceea ce privește programarea creierul pozitronice de roboți, din moment ce postulează că este posibil, într-un fel și unele situații, să încalce prima lege de robotica (nr robot poate dăuna unei ființe umane) , în funcție de o mai largă și mai bună durată decât întreaga omenire. În practică, un robot ar putea ucide o ființă umană, cu încălcarea deschisă a primei legi, comiterea unui prejudiciu real și cert, în fața unui bun ipotetic și nesigur pentru omenire. Contradicția este în centrul a sfârșitului romanului Roboții și Imperiul, din moment ce robotul R. Giskard Reventlov va alege să permită o întreagă planetă, Pământul, să fie condamnat la o agonie nucleară foarte lent, împreună cu toate locuitori, pentru a împinge întreaga omenire să părăsească sânul planetei mamă și colonizează întregul univers. Creierul lui pozitronic va fi deteriorat iremediabil.

inspirații mai târziu

Un set trilogie în universul fictiv Asimov, a fost scrisă în anii nouăzeci de către Roger MacBride Allen ( Caliban Asimov , Asimov Hell și Utopia Asimov ). În această trilogie, este introdus un nou set de legi, care au fost concepute de către autor în timpul unei discuții cu Asimov însuși. În trilogia MacBride Allen, oamenii de știință Hell a creat roboți cu un nou set de legi. Aceste legi nu au nevoie de mai mult decât să servească oamenii, dar robotul programat pentru a găsi un motiv pentru existența lor, și chiar dacă ar putea face nici un rău la om, nu au obligația de a preveni deteriorarea. Această lipsă de respect față de prima lege originală permite liderului roboți supuse noii legi robotice, Prospero, pentru a planifica asasinarea perfectă. Caliban, un alt personaj robotic în această trilogie, este singurul robot pentru a fi programate fără a fi supus nici unei legi. [10]

O scurtă poveste parodie de John Sladek , semnat sub pseudonimul „I-clic ca-I-Move“ și intitulat Brute Force (Broot Force, 1972), [11] este despre un grup de roboți Asimov stil, ale căror acțiuni sunt limitate prin „trei legi ale Robish“, care sunt „coincidență“ identice cu legile lui Asimov. Roboți, din povestea lui Sladek, respectând în același timp cele trei legi scrisoarea, au comportamente care duc la rezultate sângeroase, deoarece concepția lor despre realitatea este oarecum greșită. De exemplu, unul dintre roboți refuză să se supună oamenilor, deoarece el se consideră un om și altul omoară oameni pentru că el crede că sunt roboți și încearcă să le ia în afară pentru revizie.

În seria Robot oraș scrise de oameni tineri care intră în lumea science fiction sub sfatul Asimov, este postulat dell'umanica trei legi . Aceste legi, create de roboți special self-made, se bazează pe speculații directe ale omologilor lor robotice. [10]

La Zero Drept, și poveștile Asimov, a fost inspirat de filmului 2004 I, Robot (I, Robot) , Alex Proyas .

Legile și lumea reală

Pictogramă lupă mgx2.svg Același subiect în detaliu: Artificial Intelligence și Roboethics .

În lumea reală, legile sunt în prezent dificil sau imposibil de implementat: va dura progrese semnificative în domeniul " inteligenței artificiale , astfel încât roboții pot înțelege. De asemenea, din moment ce armata este una dintre cele mai importante surse de finantare pentru cercetare robotica, este puțin probabil ca astfel de legi sunt aplicate (cel puțin în roboți de război ). [12]

Roger Clarke a scris câteva lucrări care analizează complicațiile punerii în aplicare a acestor legi, în cazul în care sistemele au fost cumva în stare să le folosească. . El a argumentat că „legile Asimov de robotica au fost un instrument literar de succes Poate că în mod ironic, sau poate pentru că era artistic adecvat, suma de povestiri Asimov infirmă teza cu care a început: Nu este posibil să se limiteze cu certitudine comportamentul robot, inventarea și aplicarea unui set de reguli. " [13]

Notă

  1. ^ Traducerea Roberta Rambelli, I, Robot , Simon and Schuster, 1963
  2. ^ Robot Visions , Înțelept roboți care am cunoscut.
  3. ^ A b c Viziuni de roboți , robotul meu Înțelept.
  4. ^ Robot Visions , Sage Legile robotica.
  5. ^ În Evasion povestea conținută în antologia I Robot , The robopsychologist Susan Calvin, cu toate acestea, compară cele trei legi ale roboticii cu principiile esențiale ale sistemelor etice majore ale lumii, concluzionând că cei care urmează echivalentul uman al celor trei legi ar fi pur și simplu un cetățean exemplar.
  6. ^ Povestea Asimov Micul Lost Robot .
  7. ^ Romanul Asimov Roboți și imperiu .
  8. ^ Povestea lui Asimov Că te avea grijă de ei .
  9. ^ Tale Asimov de risc .
  10. ^ A b Fabricanții universuri Filed 17 septembrie 2013 în Internet Archive . Asimov și EMULES LUI
  11. ^ Probleme brute force pe catalogul Vegetti al literaturii fantasy, Fantascienza.com . (actualizat până în ianuarie 2010)
  12. ^ Sfwriter Robot de etică de Robert J. Sawyer
  13. ^ Partea I și partea a II -

Elemente conexe

linkuri externe