Singularitate tehnologică

De la Wikipedia, enciclopedia liberă.
Salt la navigare Salt la căutare
15 liste diferite de schimbări paradigmatice pentru istoria umană , inserate într-un grafic la scară logaritmică, care arată o creștere exponențială . Listele au fost pregătite, printre altele, de Carl Sagan , Paul D. Boyer , Encyclopædia Britannica , American Museum of Natural History și University of Arizona și compilate de Ray Kurzweil .

În futurologie , o singularitate tehnologică este un punct, presupus în dezvoltarea unei civilizații, în care progresul tehnologic accelerează dincolo de capacitatea de a înțelege și a prezice ființele umane. Singularitatea se poate referi, mai specific, la apariția mai mult decât omul (chiar artificial ) și la progresele tehnologice pe care, în cascadă, se presupune că le-ar urma dintr-un astfel de eveniment, cu excepția faptului că nu intervine o creștere importantă a facultățile intelectuale artificiale ale fiecărui individ . Dacă s-ar putea întâmpla vreodată o singularitate este o chestiune de dezbatere.

Prezentare generală a singularității

Conceptul inițial

Deși se crede în mod obișnuit că conceptul de singularitate s-a născut în ultimii 20 de ani ai secolului al XX-lea, el sa născut cu adevărat în anii cincizeci ai secolului al XX-lea:

O conversație centrată pe progresul mereu accelerat al tehnologiei și schimbarea modurilor de viață ale ființelor umane, care dă aspectul apropierii unei singularități fundamentale în istoria rasei dincolo de care, grijile ființelor umane, așa cum am cunoaște-i, nu pot continua. "

( Stanislaw Ulam , în mai 1958, referindu-se la o conversație cu John von Neumann )

Acest citat a fost adesea extrapolat din contextul său și atribuit însuși lui von Neumann, probabil datorită marii sale faime și influență.

În 1965 , statisticianul IJ Good a descris un concept și mai asemănător cu semnificația contemporană a singularității, în care a inclus apariția inteligenței supraomenești:

„Să presupunem că o mașină ultrainteligentă este definită ca o mașină care poate depăși cu mult toate activitățile intelectuale ale oricărui om oricât de inteligent ar fi. Deoarece proiectarea acestor mașini este una dintre aceste căutări intelectuale, o mașină ultra-inteligentă ar putea proiecta mașini din ce în ce mai bune; prin urmare, ar exista o „explozie de inteligență”, iar inteligența omului ar fi lăsată mult în urmă. Prin urmare, prima mașină ultrainteligentă va fi ultima invenție pe care omul va trebui să o facă. "

Mai devreme, în 1954, scriitorul de science fiction Fredric Brown , în nuvela Răspunsul, anticipând conceptul de singularitate tehnologică imaginând construcția unui „supercomputer galactic” căruia i se pune prima întrebare, după putere, dacă Dumnezeu există; supercomputerul a răspuns „Acum da”.

Singularitatea Vingeană

Conceptul de singularitate tehnologică așa cum este cunoscut astăzi este atribuit matematicianului și romancierului Vernor Vinge . Vinge a început să vorbească despre singularitate în anii optzeci și și-a adunat gândurile în primul articol despre acest subiect în 1993 , cu eseul Singularitate tehnologică. [1] De atunci, aceasta a devenit subiectul multor povești și scrieri futuriste și science fiction.

Eseul lui Vinge conține afirmația adesea citată conform căreia "în treizeci de ani, vom avea mijloacele tehnologice pentru a crea inteligență supraomenească. La scurt timp după aceea, era ființelor umane se va încheia".

Singularitatea lui Vinge este interpretată în mod obișnuit și eronat ca afirmația că progresul tehnologic va crește până la infinit , ca într-o singularitate matematică . În realitate, termenul a fost ales, ca metaforă, luându-l din fizică și nu din matematică: pe măsură ce ne apropiem de singularitate, modelele de predicție viitoare devin mai puțin fiabile, la fel cum modelele de fizică devin ineficiente în proximitate, cum ar fi, de exemplu, un gravitațional singularitate .

Singularitatea este adesea văzută ca sfârșitul civilizației umane și nașterea unei noi civilizații. În eseul său, Vinge se întreabă de ce ar trebui să se încheie era umană și susține că oamenii vor fi transformați în timpul singularității într-o formă superioară de inteligență. După crearea inteligenței supraomenești, potrivit lui Vinge, oamenii vor fi, prin comparație, o formă de viață inferioară.

Nu este foarte clar ce se înțelege, potrivit lui Vinge, prin noi forme de civilizație. Vinge a scris o poveste despre cele mai inteligente mașini ale omului și despre modul în care acestea concep lumea. Editorul său i-a spus că nimeni nu poate să scrie o astfel de poveste, pentru că înțelegerea modului în care un observator mai inteligent al omului vede lumea este imposibilă pentru omul însuși. Când ființele umane construiesc o mașină care va putea deveni mai inteligentă, va începe o nouă eră, care va fi trăită dintr-un punct de vedere diferit: o eră pe care nu va fi posibil să o calificați a priori drept bună sau rea, dar va fi pur și simplu diferit.

Legea lui Kurzweil a revenirilor accelerate

Pictogramă lupă mgx2.svg Același subiect în detaliu: legea accelerării randamentelor .

Analiza istorică a progresului tehnologic demonstrează că evoluția tehnologiei urmează un proces exponențial și neliniar așa cum ar fi condus la gândire. În eseul său, The Law of Accelerating Returns, [2] Ray Kurzweil propune o generalizare a Legii lui Moore , care stă la baza credințelor multor oameni despre singularitate. Legea lui Moore descrie o creștere exponențială a complexității circuitelor integrate semiconductoare, care are de obicei o asimptotă (un „punct de maxim”): totuși, creșterea exponențială a performanței pare să fi suferit o încetinire drastică după 2000.
Kurzweil extinde această tendință prin includerea tehnologiilor mult mai devreme decât circuitele integrate și extinderea acesteia spre viitor. El crede că creșterea exponențială a legii lui Moore va continua dincolo de utilizarea circuitelor integrate, cu utilizarea tehnologiilor care vor conduce singularitatea.

Legea descrisă de Ray Kurzweil a modificat în multe moduri percepția publicului asupra legii lui Moore. Este o credință obișnuită (dar eronată) că legea lui Moore face predicții care se aplică tuturor formelor de tehnologie, atunci când în realitate afectează doar circuitele semiconductoare. Mulți futurologi încă folosesc termenul „legea lui Moore” pentru a descrie idei precum cele prezentate de Kurzweil. Este practic imposibil să faci predicții pe termen lung, cel puțin parțial corecte, despre unde va merge tehnologia. Încă prea des progresul tehnologic este gândit ca ceva care se desfășoară într-un mod liniar, în conformitate cu ceea ce este linia intuitivă de progres.

Se poate presupune că tehnologia este legată de un produs, cu o tendință evolutivă, un ciclu de viață , o viață utilă : se naște, crește, moare. Fiecare tehnologie are curba sa de difuzie și rentabilă pentru o perioadă de timp ( durata de viață utilă a tehnologiei), apoi este abandonată și înlocuită cu una nouă. Veți obține apoi un grafic cost-timp și performanță-timp pentru fiecare tehnologie. Fiind definită într-un interval de timp închis și limitat (durata de viață utilă), curba are un maxim maxim sau un minim absolut ( teorema Weierstrass ).
Odată cu adoptarea unei noi tehnologii (așa-numita „schimbare radicală”, comparabilă cu noțiunea de schimbare de paradigmă ), contul repornește de la un „nou zero”, cu o nouă curbă exponențială de reducere a costurilor și îmbunătățire a performanței, în timp : cu toate acestea, zero este plasat nu în originea axelor, ci la costul sau valoarea de performanță care a fost deja atinsă cu tehnologia anterioară. Dacă o tehnologie urmează o curbă de clopot (sau o curbă U), atunci când a atins extremul „teoretic” (costul de producție minim, performanță maximă) pe care o poate oferi, este abandonată înainte de faza de declin (dacă există alternative mai bune).
Adoptarea unei noi tehnologii determină un punct de discontinuitate (un pas), din care o nouă curbă exponențială. Sumând graficele fiecărei tehnologii pe verticală, pentru a construi un grafic unic cost-timp și performanță-timp, obținem n curbe exponențiale una după alta și „în creștere”: unde se termină una și începe următoarea, există un singur pas.

Pentru a exprima conceptul în termeni matematici, ne-am putea gândi să reprezentăm această viteză cu o curbă exponențială. Cu toate acestea, acest lucru nu este încă corect; o tendință exponențială este de fapt corectă, dar numai pentru perioade scurte de timp: dacă luăm în considerare, de exemplu, o perioadă de 100 de ani, o curbă exponențială, aceasta nu va fi corectă. De obicei, jurnaliștii își fac predicțiile atunci când iau în considerare viitorul, extrapolând rata actuală de evoluție pentru a determina ce se poate aștepta în următorii zece sau o sută de ani. Aceasta este ceea ce Ray Kurzweil numește vedere liniară intuitivă.

Ceea ce Kurzweil numește legea accelerării randamentelor, puteți fi prezentat după cum urmează:

  • dezvoltarea aplică răspunsuri pozitive, ca cea mai bună metodă derivată dintr-o etapă de progres. Aceste răspunsuri pozitive constituie baza dezvoltării ulterioare;
  • în consecință rata de progres a unui proces evolutiv crește exponențial în timp. În timp, ordinea de mărime a informațiilor care sunt incluse în procesul de dezvoltare crește;
  • în consecință, câștigul în ceea ce privește tehnologia crește exponențial;
  • într-un alt ciclu de răspunsuri pozitive, al unui anumit proces evolutiv, acestea sunt folosite ca o trambulină pentru progresul ulterior. Acest lucru determină un al doilea nivel de dezvoltare exponențială și procesul de dezvoltare exponențială în sine crește exponențial;
  • dezvoltarea biologică este, de asemenea, una dintre aceste evoluții;
  • dezvoltarea tehnologică face parte din acest proces evolutiv. Într-adevăr, prima tehnologie care a generat specia a stat la baza dezvoltării tehnologiei ulterioare: dezvoltarea tehnologică este o consecință și o continuare a dezvoltării biologice;
  • o anumită paradigmă (= metodă) (cum ar fi creșterea numărului de tranzistoare pe circuitele integrate pentru a face computerele mai puternice) garantează o creștere exponențială până când acesta rămâne fără potențial; atunci are loc o schimbare care permite dezvoltarea exponențială să continue.

Șase ere ale lui Kurzweil

Dacă aplicați aceste principii evoluției Pământului, puteți vedea că participă la procesul de dezvoltare care a avut loc: [3]

  • Epoca I: fizică și chimie, informații în structuri atomice. Îl puteți compara cu crearea celulei, combinații de aminoacizi în proteine ​​și acizi nucleici (ARN, ADN ulterior) și anume introducerea paradigmei biologiei.
  • Epoca II: biologie, informații în ADN. În consecință, ADN a furnizat o metodă „digitală” pentru înregistrarea rezultatelor experimentelor evolutive.
  • Epoca III: creier, informații în configurații neuronale. Evoluția speciei a unit gândirea rațională.
  • Epoca a IV-a: tehnologie, proiecte de informare în hardware și software . Acest lucru a mutat decisiv paradigma de la biologie la tehnologie.
  • A 5-a epocă: fuziunea dintre tehnologie și inteligența umană, tehnologia stăpânește metodele biologiei (inclusiv pe cele ale inteligenței umane). Ceea ce va urma este trecerea de la inteligența biologică la o combinație de inteligență biologică și non-biologică. (vezi și cercetarea prof. Hiroshi Ishiguro )
  • A șasea epocă: universul se trezește, inteligența umană enorm extinsă (majoritatea non-biologică) se răspândește în întregul univers.

Examinând momentul acestor pași, puteți vedea cum procesul accelerează continuu. Evoluția formelor de viață, de exemplu, a durat câteva milioane de ani pentru primul pas (de exemplu, celule primitive), dar apoi s-a accelerat din ce în ce mai mult. Acum „tehnologia biologică” a devenit prea lentă în comparație cu tehnologia creată de om, care își folosește propriile rezultate pentru a avansa semnificativ mai repede decât poate natura.

Curbele de creștere asimptotice

Se presupune că o creștere tehnologică din ce în ce mai rapidă va veni odată cu dezvoltarea unui „ inteligență supraomenească”, fie îmbunătățind direct mințile umane (poate cu cibernetică ), fie construind inteligența artificială . Aceste inteligențe supraomenești ar fi probabil capabile să inventeze modalități de a se împuternici chiar mai repede, producând un efect de feedback care ar depăși inteligențele preexistente.

Pur și simplu, având inteligență artificială la fel cu inteligența umană, presupun alții [ cine? ], Ar putea produce același efect, dacă legea lui Kurzweil continuă la nesfârșit. La început, se presupune, o astfel de inteligență ar trebui să fie egală cu cea a oamenilor. Optsprezece luni mai târziu ar fi de două ori mai rapid. Trei ani mai târziu, ar fi de patru ori mai rapid și așa mai departe. Dar, având în vedere că inteligențele artificiale accelerate proiectează computerele la acel moment, fiecare pas următor ar dura aproximativ optsprezece luni subiective și proporțional mai puțin timp real la fiecare pas. Dacă legea lui Kurzweil continuă să se aplice neschimbată, fiecare pas ar dura jumătate din timp. În trei ani (36 de luni = 18 + 9 + 4,5 + 2,25 + ...) viteza computerului ar ajunge teoretic la infinit. Acest exemplu este ilustrativ și, în orice caz, mulți futurologi sunt de acord că nu se poate presupune că legea lui Kurzweil este valabilă chiar și în timpul singularității sau că poate rămâne adevărată la propriu pentru totdeauna , așa cum ar fi necesar pentru a produce, în acest fel, un ' inteligenta cu adevarat infinita.

O posibilă confirmare a imposibilității unei astfel de singularități tehnologice, referitoare la limitele dezvoltării unei inteligențe durabile, a venit cu ceva timp în urmă de la un cunoscut cosmolog englez, Martin Rees, care a susținut că dimensiunea organică actuală a creierului uman este în realitate deja limita superioară a capacității animalului de a dezvolta concepte inteligente, dincolo de care informațiile dintre sinapse ar dura prea mult timp pentru a constitui un raționament cuprinzător constructiv și evolutiv și ar fi limitată la acumularea de concepte destinate memoriei pe termen lung. [ citație necesară ] Pentru a fi înțeles, un creier care era dublu față de cel al unei ființe umane ar stoca de două ori mai multe date posibil, dar la dublu timp și la jumătate din viteza de învățare (și așa mai departe exponențial), făcând, de fapt, progresul este negativ. Dacă această teoremă ar fi aplicată și sistemelor informatice avansate, prin urmare, vom avea și aici o limită fizică superioară, dincolo de care distanța fizică dintre procesoare și viteza de procesare ipotetică a datelor originală consecventă ar fi supusă unor limite care, deși ridicate, ar fi culminează cel mult.într-o memorie super-masă mai mult decât într-un super-computer cu inteligență infinită.

Implicații sociale ale singularității tehnologice

Potrivit multor cercetători [ cine? ], Dezvoltarea tehnologică care duce la singularități va avea efecte importante asupra multor aspecte ale vieții noastre de zi cu zi, atât la nivel individual, cât și social. La nivel politic, avansarea tehnologiei permite crearea unor forme alternative de asociere cu statul modern: chiar și fără a lua în considerare colonizarea altor planete (perspectivă oricum analizată de mulți transumaniști, inclusiv Ray Kurzweil ), există deja planuri concrete pentru crearea comunitate autonomă de libertarieni în apele non-teritoriale - ca Fundație Seasteading a lui Patri Friedman (nepotul câștigătorului premiului Nobel Milton Friedman ).

Alți cercetători - inclusiv fondatorul „ Institutului de cercetare a inteligenței generale artificiale Ben Goertzel [4] și cofondatorul iLabs Gabriele Rossi [5] - contemplă în mod explicit posibilitatea unei„ societăți în societate ”, el trăiește astfel„ practic ” în relațiile dintre membri și nu se limitează la un spațiu fizic specific (o extremă a ceea ce se întâmplă deja astăzi, într-un mod primitiv, cu Second Life și rețeaua socială ).

Abordarea singularității va schimba în cele din urmă economia și justiția [6] . Disponibilitatea AI va revoluționa piața muncii, introducând, pe lângă problemele etice adesea citate, noi provocări de producție [7] ; extinderea vieții radicale, va necesita schimbări în toate sectoarele implicate, de la asistență medicală la asigurări [8] . În cele din urmă - realizează un vis pe care l-a avut deja Norbert Wiener , tatăl ciberneticii - creșterea exponențială a cunoașterii realității și îmbunătățirea sistemelor expert va permite o înlocuire treptată a justiției umane cu o justiție auto mai eficientă și obiectivă [9]. .

Critici

Există două tipuri principale de critici ale prezicerii singularității: cele care pun sub semnul întrebării dacă singularitatea este probabilă sau chiar posibilă și cele care se întreabă dacă este de dorit sau nu mai degrabă să fie considerat periculos și să li se opună cât mai mult posibil .

Posibilitatea și probabilitatea singularității

Unii ca Federico Faggin , [10] dezvoltator al tehnologiei MOS care a permis fabricarea primelor microprocesoare, se îndoiesc că o singularitate tehnologică are multe oportunități de dezvoltare personală. Detractorii se referă ironic la aceasta drept „presupunerea în ceruri pentru tocilari”.

Majoritatea speculațiilor despre singularitate presupun posibilitatea unei inteligențe artificiale superioare celei oamenilor. Este controversat dacă este posibilă crearea unei astfel de inteligențe artificiale. Mulți cred că progresele practice în inteligența artificială nu au dovedit încă acest lucru empiric. Vezi intrarea despre „ inteligență artificială pentru detalii despre dezbatere.

Unii [ cine? ] Argumentează că viteza progresului tehnologic crește. Creșterea exponențială a schimbărilor tehnologice poate fi liniară sau flexibilă sau ar putea începe să se aplatizeze într-o curbă care permite o creștere limitată.

Scriitorul Roberto Vacca se concentrează, în special, pe afirmația lui Kurzweil asupra „exponențialului” „progresului în fiecare aspect al informației”, contracarând faptul că niciun progres nu urmează o lege exponențială [11] .

Dezirabilitatea și siguranța singularității

S-au speculat adesea, în science fiction și în alte genuri, că IA avansată ar putea avea probabil obiective care nu coincid cu cele ale umanității și care ar putea amenința existența acesteia. Este de conceput, deși nu este probabil, că o inteligență artificială ( AI ) superinteligentă elimină pur și simplu rasa umană inferioară din punct de vedere intelectual, iar oamenii nu ar putea să o oprească. Aceasta este una dintre problemele majore care îi preocupă atât pe susținătorii singularității pe care criticii săi, cât și subiectul unui articol de Bill Joy apărut pe Wired Magazine , intitulat De ce viitorul nu are nevoie de noi. [12]

Unii critici [ cine? ] Ei spun că tehnologiile avansate sunt pur și simplu prea periculoase pentru a ne permite să provoace o singularitate și propun să lucrăm pentru a o preveni. Poate că cel mai faimos susținător al acestui punct de vedere este Theodore Kaczynski , Unabomber , care a scris în „manifestul” său că AI ar putea împuternici clasele superioare ale societății să „decidă pur și simplu să extermine masa umanității”. Alternativ, dacă AI nu este creată, Kaczynski susține că oamenii „vor fi reduși la nivelul animalelor de companie” după ce s-au realizat progrese tehnologice suficiente. O parte din scrierile lui Kaczynski au fost incluse fie în articolul de Bill Joy într-o carte recentă a lui Ray Kurzweil . Trebuie remarcat faptul că nu numai Kaczynski este opus singularității, ci este un luddit și mulți oameni se opun singularității fără opoziție față de tehnologia modernă, cum ar fi luddiții.

Desigur, scenarii precum cele descrise de Kaczynski sunt considerate nedorite chiar și de către susținătorii singularității. Mulți susținători ai singularității, totuși, nu cred că acestea sunt atât de probabile și sunt mai optimisti cu privire la viitorul tehnologiei. Alții cred că, indiferent de pericolele pe care le prezintă singularitatea, este pur și simplu inevitabil - trebuie să avansăm tehnologic pentru că nu avem altă cale de urmat.

Susținătorii „ Inteligenței artificiale prietenoase și, în special, Institutul de singularitate , recunosc că singularitatea este potențial foarte periculoasă și lucrează pentru a o face mai sigură prin crearea AI de semințe care va acționa binevoitor față de oameni și va elimina riscurile existențiale . Această idee este atât de înrădăcinată în cele trei legi ale roboticii Asimov, care împiedică logica unui robot cu inteligență artificială să acționeze cu răutate față de oameni. Cu toate acestea, într-una dintre poveștile lui Asimov, în ciuda acestor legi, roboții ajung să provoace rău unei singure ființe umane ca urmare a formulării legii zero . Structura teoretică a „ Inteligenței artificiale prietenoase” este proiectată în prezent de Singolaritiano Eliezer Yudkowsky.

O altă concepție, deși mai puțin obișnuită, este că AI va domina în cele din urmă sau va distruge rasa umană și că acest scenariu este de dorit. Prof. dr. Hugo de Garis este cel mai cunoscut susținător al acestui punct de vedere.

Opinia tehno-individualiștilor este că fiecare individ ar trebui să poată crește în mod artificial fiecare facultate (intelectuală sau de altă natură), pentru a aborda atât singularitatea este elita puterii . Potrivit acestora, investițiile , cercetarea și dezvoltarea în tehnologie ar trebui să împuternicească indivizii, nu Autoritatea , iar casta conducătoare nu este conștientă de perspectivele sale. Fundamentale, pentru ei, este puterea completă libertatea de comunicare între indivizi ( inter-individualismul , Transumanism , Teoria Swarm - inteligenta roire).

Organizații

Singularity Institute for Artificial Intelligence (Singularity Institute), un institut de cercetare și educație nonprofit, a fost creat pentru a lucra la anumite îmbunătățiri cognitive (adică o singularitate benefică). Ei subliniază „ Inteligența artificială prietenoasă , deoarece consideră că un inteligență artificială generalistă și mai probabil poate crește în mod substanțial capacitatea cognitivă înainte ca inteligența umană să poată fi crescută semnificativ prin neurotehnologii sau prin terapia genică somatică .

Singularitatea în fantezie și în cultura modernă

Puteți găsi urme ale ideii unui moment în care un nou tip de mașini îl vor înlocui pe om deja în scrierile lui Samuel Butler

„Ce s-ar întâmpla dacă tehnologia continuă să evolueze mult mai repede decât regatele animale și vegetale? Ne-ar înlocui în supremația planetei? Așa cum regatul vegetal s-a dezvoltat încet din mineral, iar la rândul său regnul animal a reușit cel vegetal, tot așa în ultimii ani a apărut un regat complet nou, din care am văzut, până acum, doar ce într-o zi va fi considerat prototipul antediluvian al unei noi rase ... Noi încredințăm mașini, zi de zi, cu tot mai multă putere și le oferim, prin cele mai disparate și ingenioase mecanisme, acele capacități de autoreglare și autonomie de acțiune care va constitui pentru ei ceea ce a fost intelectul pentru rasa umană. "

( Samuel Butler , 1855)

precum și conceptul de bărbați robi mașinilor

„Mașinile sunt folosite de om numai atât timp cât vor fi servite și își pun propriile condiții ale acestui contract de împrumut [...]. Câți bărbați trăiesc astăzi într-o stare de sclavie față de mașini? Câți își petrec întreaga viață, de la leagăn până la moarte, având grijă de mașini noaptea și ziua? Gândiți-vă la numărul tot mai mare de oameni pe care i-au înrobit sau care sunt dedicați trup și suflet progresului tărâmului mecanic: nu este evident că mașinile ne stăpânesc? [...] Nu sunt mai mulți bărbați angajați să aibă grijă de mașini decât să aibă grijă de semenii lor? "

( Samuel Butler , 1871, Erewhon )

Puteți găsi concepte similare cu cele referitoare la dezvoltarea post-singularității în descrierea Omega Point formulată de Pierre Teilhard de Chardin .

Pe lângă poveștile originale ale lui Vernor Vinge, care a fost pionierul primelor idei despre singularitate, alți autori de știință-ficțiune au scris povești care au ca temă centrală singularitatea. Autorii notei includ Charles Stross , Greg Egan și Rudy Rucker .

Alfa Centauri al jocului pe computer Sid Meier prezintă, de asemenea, ceva asemănător cu o singularitate, numită „Ascensiunea către transcendență”, ca temă principală în acesta.

Conceptul de singularitate este menționat în jocul video „celule la singularitate” ca obiectiv al jocului

Conceptul de singularitate este folosit și de Isaac Asimov în nuvela sa Ultima întrebare .

Referințele la conceptul de singularitate pot fi urmărite și în filmul Transcendence , 2014 cu Johnny Depp și Chappie, 2015.

Notă

  1. ^ (EN) Vernon Vinge, The Coming Technological Singularity: How to Survive in the Post-Human was (PDF), în Vision-21 Interdisciplinary Science and Engineering in the Era of cyberspace, Proceedings of a symposium co-sponsorizat de NASA Lewis Research Center și Ohio Aerospace Institute și a avut loc la Westlake, Ohio, 1993, p. 11-22. Adus la 8 iunie 2015 .
  2. ^ Ray Kurzweil, The Law of Accelerating Returns , kurzweilai.net la 7 martie 2001. Adus la 8 iunie 2015.
  3. ^ Ray Kurzweil, Singularitatea este aproape, Viking Press, 2005.
  4. ^ „Va scădea deficitul ne va permite o abordare optimă (meta-) societate?”
  5. ^ The Law in the Society of Semi-Immortality Depus la 23 iulie 2011 în Internet Archive .
  6. ^ Transvision 2010
  7. ^ R. Hanson, „Dacă se încarcă ca primul”
  8. ^ Dossier Lombardia, Jurnalul, iulie 2010
  9. ^ Domnule, iulie 2010
  10. ^ Federico Faggin (viu) și decalajul de netăgăduit dintre om și mașină , pe filosofiaescienza.it.
  11. ^ Roberto Vacca, How to stop time and fill it with good ideas, 2016
  12. ^ Bill Joy, De ce viitorul nu are nevoie de noi. Pe wired.com, Wired, aprilie 2000. Adus pe 8 iunie 2015.

Bibliografie

Voci correlate

Collegamenti esterni

In italiano

In inglese

Controllo di autorità LCCN ( EN ) sh2017004997