Cameră chineză

De la Wikipedia, enciclopedia liberă.
Salt la navigare Salt la căutare

The Chinese Room este un experiment gândit conceput de John Searle ca contraexemplu al teoriei inteligenței artificiale puternice . Raționamentul care stă la baza lui Searle este ideea că sintaxa nu este o condiție suficientă pentru determinarea semanticii . [1]

Searle a prezentat argumentul Chinese Room în articolul Minds, Brains and Programs (Minds, Brains, and Programs), publicat în 1980 în revista științifică The Behavioral and Brain Sciences (în limba italiană The Sciences [2] ). De atunci, acest argument a fost un pilon al dezbaterii în jurul subiectului inteligenței artificiale puternice . [3]

John Searle

Experimentul minții: „Mașinile pot gândi?”

Inteligență artificială puternică și slabă

În 1980, John Searle a publicat Minds, Brains and Programs în revista The Behavioral and Brain Sciences . [4] În acest articol, Searle și-a expus argumentele și apoi a răspuns principalelor obiecții care au fost ridicate în timpul prezentărilor sale în diferite campusuri universitare. În plus, articolul lui Searle a fost publicat în jurnal împreună cu comentarii și critici din partea a 27 de cercetători în științe cognitive . Aceste 27 de comentarii au fost urmate de răspunsurile lui Searle la criticii săi. În ultimele două decenii ale secolului al XX-lea, argumentul Camerei chineze a făcut obiectul unei mari discuții. [3]

În 1984, Searle a prezentat argumentul Chinese Room în cartea sa Minds, Brains and Science, iar în ianuarie 1990, popularul periodic Scientific American a adus dezbaterea în atenția lumii științifice. Searle, apoi, a inclus argumentul Chinese Room în articolul „Is the Brain's Mind a Computer Program?” care a fost urmat de un articol de răspuns, „ Ar putea o mașină să gândească? ”, scris de Paul și Patricia Churchland. La scurt timp după aceea, o comparație a fost publicată în camera chineză între Searle și un alt filosof proeminent, Jerry Fodor (în Rosenthal (ed.) 1991). [3]

În textul Minti, creiere și programe , filosoful John Searle abordează problema lui Alan Turing despre posibilitatea mașinilor de a gândi, opunându-se tezei conform căreia inteligența umană poate fi reprodusă în interiorul unei mașini, care urmează un program prestabilit. Cu alte cuvinte, teza susținută de Turing și, prin urmare, de o inteligență artificială puternică , vede posibilitatea ca un computer să obțină aceleași rezultate ca o minte umană, adică posibilitatea de a gândi, de a avea stări cognitive, de a înțelege discursurile și întrebările către răspunde. Configurarea unui program permite mașinii să proceseze intrările primite pentru a emite în consecință o ieșire. Programul este alcătuit din simboluri și reguli de calcul care permit mașinii să efectueze un proces specific de manipulare a simbolurilor cu care compune răspunsuri. [5]

Ideea principală a puternicului program AI este că identifică o corespondență în structură și funcționare între mintea umană și un computer. De fapt, sa stabilit că mintea, primind date ( intrare ), modificându-le și oferind altora ( ieșire ), funcționează prin intermediul simbolurilor elaborate de o unitate centrală de execuție care indică procedurile care trebuie efectuate. [4]

Două teorii care susțin programul puternic de inteligență artificială sunt funcționalismul și calculul.

  • Primul susține că o stare mentală este orice condiție cauzală interpusă între intrare și ieșire, prin urmare, conform acestei teorii, două sisteme cu aceleași procese cauzale au aceleași stări mentale.
  • Conform computaționalismului, procesele mentale constau în procese de calcul care funcționează pe simboluri și aceste procese sunt echivalente cu cele efectuate de un computer. [6]

Împotriva acestui program, Searle face o obiecție conform căreia mintea umană nu poate fi reprodusă doar în termeni sintactici , întrucât în ​​acest fel nu este luată în considerare calitatea sa principală, adică intenționalitatea , care se referă la semantică . Intenționalitatea este componenta principală a minții umane și este strâns legată de evenimentul conștiinței. Evenimentul de conștiință și intenționalitatea sunt considerate proprietăți primitive și se referă la capacitatea unei ființe umane de a-și formula obiectivele și de a simți emoții. Prin urmare, fiecare acțiune și fiecare stare cognitivă necesită, în cauzalitatea lor, un tratament diferit de cel sintactic, întrucât operează nu numai sintactic, ci și semantic, în raport cu sensul termenilor. [3]

Prin urmare, Searle susține că inteligența artificială nu poate fi echivalentă cu inteligența umană, deoarece nu este suficient să se elaboreze programe de manipulare a simbolurilor conform regulilor sintactice pentru a genera activitate mentală. Faptul este că mintea umană înțelege, procesează și se exprimă printr-un limbaj ale cărui cuvinte, pe de o parte, sunt investite cu sens și, pe de altă parte, determină modul în care va fi dat un răspuns. Searle reiterează modul în care intenționalitatea, împletită cu experiența subiectivă, este mult mai complexă decât performanța mașinii. [3]

Inteligența umană și artificială comparată

Searle consideră apariția intenționalității un fenomen biologic legat de constituirea creierului uman și de relațiile biologico-chimice care au loc acolo. Într-adevăr, susține un naturalism biologic în ceea ce privește ideea că intenționalitatea și conștiința sunt proprietăți care ies din creier. [7]

El critică funcționalismul care pretinde că poate extrage inteligența din substratul său, deoarece procesele sale mentale, bazate pe manipularea simbolurilor conform regulilor sintactice, nu ar necesita păstrarea software - ului împreună cu hardware - ul . În loc să afirme o poziție care amintește dualismul cartezian (independența ontologică a substanței gânditoare față de substanța extinsă), Searle menține o legătură esențială între minte și corp, propunând soluția naturalismului biologic, adică ideea că proprietățile chimice ale creierului produc evenimente mentale, a căror dezvoltare reflectă istoria noastră naturală și evolutivă. [6]

Se poate observa că această poziție rămâne, cel puțin pentru cei care au sugerat obiecții la propunerile lui Searle, în ambiguitatea dintre dualismul clasic și teoria identității . De fapt, dualismul se bazează pe distincția a două elemente (corp și minte), ale căror interacțiuni, totuși, conduc în mod necesar la o stare de indistinguibilitate substanțială între elementele implicate, care se auto-implică în așa fel încât să fie confundate ( teoria identității). În acest sens, mintea umană ar fi, așa cum susțin și Dreyfus și Edelman , complet identificată cu substratul neurofiziologic al creierului. [8]

Cu toate acestea, Searle nu se identifică cu teoria identității, deoarece se referă la mintea umană ca o proprietate emergentă, menținând astfel distincția. În același timp, el respinge ipoteza funcționalistă, argumentând că particularitatea minții umane constă în subiectivitatea ontologică ireductibilă funcțiilor sintactice. [9]

Rezultatul discuției despre posibilitatea ca inteligența artificială să suplinească inteligența umană este că, potrivit lui Searle, nu putem reduce proprietatea principală a inteligenței umane, și anume intenționalitatea, la executarea sarcinilor de calcul folosind simboluri care respectă regulile de sintaxă. Motivul este că aceste inteligențe pot produce aparent aceleași răspunsuri datorită instrucțiunilor, dar trebuie avut în vedere că inteligența artificială, cu setarea sa actuală, nu permite să înțeleagă instrucțiunile menționate mai sus, deoarece elementele pe care le manipulează o fac nu trebuie să fie înțeles. Prin urmare, mașinile nu îndeplinesc aceleași sarcini în același mod și, prin urmare, inteligența artificială nu este aceeași cu inteligența umană. [6]

„[...] niciun model pur formal nu va fi vreodată suficient în sine pentru intenționalitate, deoarece proprietățile formale nu sunt în sine constitutive ale intenționalității și nu au în sine puteri cauzale [...]”. [10] „Cu excepția cazului în care cineva crede că mintea este separabilă de creier atât conceptual cât și empiric - dualismul într-o formă puternică - nu putem spera să reproducem mentalul scriind și rulând programe, deoarece programele trebuie să fie independente de creier [..] .]. " [11]

La întrebarea „ Mașinile pot gândi? „, Searle răspunde că pot gândi de fapt numai dacă configurația lor materială atinge un nivel de complexitate (echivalent cu cel al creierului uman), astfel încât să constituie un substrat biologico-chimic și neurofiziologic care permite să apară o inteligență dotată cu intenționalitate. Dacă structura de bază ( hardware ) nu corespunde acestor nevoi, nu se poate spune că mașinile gândesc. Obiecția lui John Searle este îndreptată exclusiv către programul „puternic” al inteligenței artificiale și nu exclude perspectiva programului slab . Prin urmare, oportunitatea rămâne întotdeauna deschisă pentru ca mașinile să fie instrumente de calcul mult mai puternice și mai acute decât ființele umane, cel puțin în anumite zone. [1]

Descrierea experimentului

Obiecție împotriva unui program puternic de inteligență artificială

Pentru a-și formula obiecția împotriva funcționalismului aplicat programului puternic al inteligenței artificiale, John Searle reconstruiește o situație similară cu cea a testului Turing , în care o ființă umană, fără cunoștințele sale, interacționează cu o mașină. [5] Sarcina pentru om este de a judeca, pe baza răspunsurilor la întrebările pe care le pune, dacă discută cu un alt om sau cu o mașină, atribuindu-i inteligența unui interlocutor. Ideea inițială a lui Turing era să demonstreze că mașina, după ce a reprodus aceeași procedură logico-rațională ca și omul într-o situație de calcul, ar putea oferi același rezultat și a-l păcăli pe judecător, care nu a putut să o distingă de o ființă umană. Cu alte cuvinte, a fost vorba de identificarea caracteristicilor inteligenței umane atât din punct de vedere al execuției computaționale, cât și logice și secvențiale ale unei sarcini. În acest sens, inteligența umană a fost identificată printr-un program central ( software ) care a permis tratarea informațiilor pornind din simboluri și conform regulilor sintactice universale, indiferent de suportul computerului ( hardware ). [12]

John Searle preia acest model, dar înlocuiește mașina. Să ne imaginăm că se închide în cameră și trebuie să interacționeze cu cineva din afară care nu știe nimic despre el. Să presupunem atunci că persoana din afară vorbește chineză ca vorbitor nativ și că Searle nu cunoaște limba chineză. Să ne imaginăm din nou că o serie de caractere chinezești sunt aranjate pe masa din cameră pe care Searle va trebui să o folosească pentru a răspunde persoanei din afară. Deoarece chineza nu atestă nicio apropiere lingvistică și semiotică de limba engleză (limba maternă a lui Searle), el nu are capacitatea de a recunoaște ceva și de a formula o propoziție: există doar simboluri. [13]

Deci, să ne imaginăm că în interiorul camerei există o carte de instrucțiuni cu câteva seturi de caractere chinezești, asociată conform regulilor scrise în limba engleză. Searle încă nu înțelege chineza, dar înțelege informații în limba engleză, care îi spune cum să răspundă la orice întrebări pe care le primește în chineză. Aceste reguli, care constituie ceea ce Searle numește „ programul ”, îi permit să relaționeze o serie de simboluri formale cu o altă serie de simboluri formale, adică îi permit să dea un răspuns ( ieșire ) la fiecare întrebare ( intrare ). [13]

Până acum, Searle este capabil să aibă o conversație cu un vorbitor nativ de chineză și, urmând programul, poate oferi date personale, spune o poveste sau pune o întrebare. Cu cât programul este mai complicat, cu atât sunt adăugate instrucțiuni mai complexe de urmat pentru a oferi răspunsuri din ce în ce mai precise. Drept urmare, acuratețea programului și buna execuție a lui Searle îi permit să fie văzut de persoana din exterior ca vorbitor nativ de chineză, care răspunde și reacționează normal, fără a înșela. [13]

Searle subliniază că nu a trebuit niciodată să interpreteze simbolurile chinezești pentru a înțelege întrebarea și pentru a da răspunsul corect. De fapt, s-a comportat de parcă ar fi un computer care trebuie să calculeze o formulă bazată pe un program și simboluri formale. Prin urmare, nu era necesar ca el să înțeleagă ce trebuia să facă, deoarece trebuia doar să urmeze instrucțiunile furnizate. [13]

Relația cu limba chineză a fost de tip sintactic (manipularea corectă a simbolurilor), în timp ce cea cu limba engleză a fost de tip semantic (conectând sensul unui termen), combinația celor două îi permite să introducă caractere chinezești în comandă. [4]

Prin urmare, potrivit lui Searle, AI puternică nu este suficientă pentru a explica modul în care rolul intenționalității se desfășoară în inteligența umană, prin urmare, gradul de înțelegere a acesteia din urmă nu poate fi comparat sau înlocuit de inteligența artificială, care nu produce o astfel de înțelegere. Ideea este că, în orice caz, Searle nu înțelege ce face în timpul experimentului. Din aceasta rezultă că inteligența disponibilă pentru un om nu este reductibilă la o manipulare a simbolurilor, dar are și legătură cu semantica. [4]

Argument complet

Cea mai recentă prezentare a argumentului Chinese Room (1990) prezintă o derivare formală din următoarele trei axiome: [1]

Un program folosește sintaxa pentru a manipula simbolurile și nu acordă nicio atenție semanticii lor; el știe unde să pună simbolurile și cum să le folosească, dar nu înțelege ce reprezintă sau ce înseamnă. Pentru program, simbolurile sunt doar obiecte ca altele. [14]

  • (A2) „Mintile au conținut mental (semantic)”. [14]

Spre deosebire de simbolurile folosite de un program, gândurile noastre au sens : ele reprezintă lucruri și știm ce reprezintă. [14]

  • (A3) „ Sintaxa în sine nu este nici o condiție esențială, nici suficientă pentru determinarea semanticii ”. [14]

Această ultimă axiomă este ceea ce intenționează să demonstreze Searle, cu experimentul camerei chineze: camera chineză are sintaxă (există un bărbat în interior care manipulează simbolurile), dar nu are semantică (nu există nimic și nimeni în cameră care înțelege ce înseamnă simbolurile chinezești). Din aceasta rezultă că a avea sintaxă nu este suficient pentru a genera semantică. [14]

Searle afirmă că din aceste trei axiome se poate trage următoarea concluzie:

  • (C1) „ Programele nu sunt nici condiții esențiale, nici suficiente pentru ca o minte să fie dată”. [14]

Programele au doar sintaxă și nu este suficientă pentru semantică. Fiecare minte, pe de altă parte, are semantică, deci programele nu sunt comparabile cu mințile. [14]

Cu acest argument, Searle intenționează să arate că inteligența artificială , prin construirea de programe care manipulează simboluri, nu poate produce niciodată o mașină care are o minte. [15]

Din acest moment al derivării, Searle, propunând o a patra axiomă, intenționează să răspundă la o altă întrebare: creierul uman urmează un program? Cu alte cuvinte, teoria corectă a minții este corectă? [16]

  • (A4) „Creierele provoacă minți”. [16]

Potrivit lui Searle putem deduce imediat că:

  • (C2) „Orice alt sistem capabil să producă minți ar trebui să aibă puteri cauzale echivalente, cel puțin, cu cele ale creierului.” [16]

De aici rezultă că orice creier artificial nu trebuie doar să urmeze un program, ci ar trebui să poată reproduce puterile cauzale ale creierului. [16]

De aici rezultă următoarele concluzii:

  • (C3) „Orice artefact care produce fenomene mentale, orice minte artificială, ar trebui să poată dubla puterea cauzală specifică a creierului și nu ar putea face acest lucru doar prin executarea unui program formal”. [15]
  • (C4) „Modul în care creierul uman produce în prezent fenomene mentale nu poate fi dat doar prin executarea unui program de computer”. [15]

Critica țărilor bisericești

Printre răspunsurile la argumentul lui Searle îl găsim și pe cel făcut de Paul și Patricia Churchland , care, cu toate acestea, spre deosebire de celelalte, nu este prezent în articolul Creierele și programele Minds . [17]

Pentru Churchlands, răspunsurile date de vorbitorul de limbă engleză care manipulează simbolurile chinezești sunt sensibile, dar nu atât pentru că camera înțelege chineza, de fapt sunt de acord cu Searle că nu o înțelege, ci mai degrabă pentru că conțin o respingere a celei de-a treia. axiomelor la baza argumentului lui Searle prezentat în 1990: „sintaxa nu este nici o condiție esențială, nici suficientă pentru determinarea semanticii” [1] .

Potrivit Churchlands, Searle nu poate întări această axiomă cu argumentul Chinese Room, întrucât adevărul acesteia nu este dovedit; a treia axiomă, de altfel, ia de la sine ceea ce doriți să demonstrați și acest lucru devine clar atunci când îl comparați cu concluzia C1: „Programele nu sunt nici condiții esențiale, nici suficiente pentru ca o minte să fie dată”. [1] Această concluzie este deja exprimată în mare măsură de A3, pentru care Searle cu experimentul conceptual încearcă să dea valoare axiomei A3. Pentru Churchland Searles cu experimentul Chinese Room nu reușește să furnizeze axioma 3 cu o bază solidă și, prin urmare, oferă un argument similar care poate servi drept contraexemplu . Argumentul, cunoscut sub numele de Camera luminoasă, este articulat pe următoarele trei axiome și pe concluzia rezultată [18] :

A1: „Electricitatea și magnetismul sunt forțe”. [18]

A2: „Proprietatea esențială a luminii este luminozitatea ”. [18]

A3. „ Forțele , singure, nu sunt nici esențiale, nici suficiente pentru a da luminozitate”. [18]

C1: „Electricitatea și magnetismul nu sunt nici esențiale, nici suficiente pentru a da lumină”. [18]

Dacă presupunem că acest argument a fost elaborat după ipoteza lui Maxwell despre natura electromagnetică a luminii, dar înainte ca valabilitatea sa să fie recunoscută, ar fi putut fi o obiecție la această ipoteză, mai ales dacă A3 ar fi fost întărit de un experiment conceptual. Churchlands, în această privință, cere să-și imagineze că în interiorul unei camere întunecate există un om care ține un obiect încărcat electric, de exemplu, un magnet . Conform teoriei lui Maxwell, omul care face magnetul face mișcări verticale (în sus și în jos) ar crea un cerc din ce în ce mai larg de unde electromagnetice care ar face ca magnetul să devină luminos. Cu toate acestea, încercând să faceți acest experiment, puteți vedea că mișcarea oricărui obiect încărcat nu produce strălucire. [19]

Pentru a putea contracara aceste dovezi, Maxwell nu poate insista decât asupra celor trei axiome, susținând, în primul rând, că A3 este fals: este plauzibil posibil, dar el ia de la sine ceea ce de fapt nu este verificabil. În al doilea rând, experimentul nu spune nimic important despre natura luminii și, în cele din urmă, susține că doar un program sistematic de cercetare, care permite demonstrarea paralelismului dintre proprietățile luminii și undele electromagnetice, poate rezolva problema luminii. [19]

Traducând acest rezultat în experimentul lui Searle, este clar că, chiar dacă aparent nici o semantică nu poate fi atribuită Camerei chinezești, nu există, totuși, nicio justificare pentru afirmația, bazată pe această aparență, că manipularea simbolurilor chinezești, conform anumitor reguli, nu poate da naștere niciodată la fenomene semantice. [20]

Răspunsuri la argumentul lui Searle

Răspunsul sistemului

Prima obiecție majoră la experimentul cunoscut sub numele de „camera chineză” este cunoscută sub numele de replică (sau răspuns) a sistemului . Acesta susține că: [21]

„Deși este adevărat că individul încuiat în cameră nu înțelege istoria, adevărul este că el face parte pur și simplu dintr-un întreg sistem, iar sistemul înțelege de fapt înțelegerea istoriei [...] nu este atribuită individului izolat, ci mai degrabă la sistemul general din care face parte " [22]

Persoana din cameră este un vorbitor nativ de engleză și nu știe deloc chineza . La aceasta, însă, sunt date câteva instrumente (un registru de reguli referitoare la simbolurile chineze, hârtie și stilou) datorită cărora putem vorbi de un sistem. Acesta din urmă este cumva încorporat de către individ și așa cum spune Searle: [21]

„Nu există nimic în sistem care să nu fie în el. Dacă el nu înțelege, nu există nicio modalitate în care sistemul poate înțelege, deoarece este doar o parte din el " [22]

Pe scurt, replicarea sistemelor constă în faptul că, deși individul din cameră nu înțelege limba chineză, poate fi posibil să înțeleagă această limbă datorită sistemului general: adică, datorită persoanei, instrumentele pe care le folosește și camera., considerată ca un întreg. Deoarece nu există nicio persoană care să poată vorbi limba chineză în interiorul camerei, camera în ansamblu nu ar trebui să înțeleagă limba. Răspunsul sistemului, însă, se sustrage întrebării, reiterând iar și iar că sistemul trebuie să înțeleagă chineza [22]

Searle răspunde la această obiecție propunând o situație anume: întreabă ce s-ar întâmpla dacă persoana din cameră ar memora regulile și diferitele mecanisme, ținând cont de toate informațiile prezente în mintea sa. Acest lucru i-ar permite să interacționeze ca și cum ar înțelege de fapt chineza; cu toate acestea, el ar continua să respecte un set de reguli, fără a înțelege semnificația simbolurilor pe care le folosește. [23]

Răspunsul robotului

A doua obiecție la argumentul camerei chineze este cunoscută sub numele de „Replica robotului[24] .

Această abordare ne cere să ne gândim la un program complet nou. De fapt, ni se propune să presupunem că punem un computer în interiorul unui robot, ale cărui caracteristici sunt multiple. De fapt, nu numai că primește simboluri formale ca intrare și introduce simboluri formale ca ieșire , dar face posibilă acționarea robotului în așa fel încât să-și facă acțiunile similare cu cele ale comportamentului uman. Ideea este că robotul este controlat de un creier computerizat care permite robotului însuși să poată vedea printr-o cameră încorporată și să se poată mișca datorită prezenței brațelor și picioarelor care i-ar permite să acționeze. [24] În acest fel, un robot ar fi capabil să înțeleagă în mod eficient și, mai presus de toate, ar avea alte stări mentale. Implicit, răspunsul robotului ar pretinde că activitatea cunoscută sub numele de capacitate cognitivă nu implică o simplă manipulare a simbolurilor formale, ci că există un complex de relații cauzale (precum și intenționale) cu lumea exterioară. Această abordare ar relua cumva abordarea proceselor cognitive încorporate, care subliniază faptul că așa-numitele „procese cognitive” își găsesc realizarea într-un corp, care este inserat într-un mediu. [23]

Searle răspunde că o astfel de simulare nu ar reproduce cele mai importante trăsături ale creierului - stările sale cauzale și intenționate . Tot ce ar face robotul ar fi să poată urma instrucțiuni formale pentru a manipula simbolurile formale. El nu ar înțelege nimic în afară de regulile de manipulare a acestor simboluri. Pe scurt, nu ar ști ce se întâmplă în jurul său și nici de ce se comportă așa cum o face. Conform concepției lui Searle , el ar pierde treptat facultatea de înțelegere reală. [24]

Replica simulatorului de creier

Replica simulatorului cerebral vă cere să vă imaginați că programul de computer (sau persoana din cameră) simulează secvența de declanșare neuronală și sinapsă în creierul unui vorbitor de limba chineză atunci când înțelege și răspunde la poveștile chinezești. Conform acestor date, mașina, prin simularea structurii formale a creierului chinez în înțelegerea acestor povești și oferindu-le un răspuns, le înțelege. Dacă negăm acest lucru, ar trebui să negăm și faptul că vorbitorii de chineză îi înțeleg, deoarece la nivelul sinapselor nu există diferențe între programul de calculator și programul creierului chinez. [25]

Searle răspunde la această obiecție propunând un exemplu: să presupunem că, în locul omului care manipulează simbolurile chinezești în timp ce nu cunoaște limba chineză, suntem în prezența unui om care operează un complex elaborat de conducte de apă unite prin supape. Când omul primește anumite simboluri chinezești ca intrare, consultând programul în limba engleză, el acționează deschizând sau închizând supapele indicate. [25] Fiecare conexiune a conductelor de apă corespunde unei sinapse în creierul chinez și întregul sistem este conectat astfel încât, după activarea tuturor robinetelor corecte, răspunsurile în chineză declanșează ieșirile. Searle crede că bărbatul a acționat ca un simplu executant al indicațiilor reprezentate de simboluri și că, totuși, la sfârșitul lucrării sale nu înțelege nici chinezii, nici funcționarea complexului de conducte de apă. Problema cu simulatorul creierului este că simulează doar structura formală a secvenței de tragere neuronală și nu ceea ce este important, care este capacitatea creierului de a produce stări intenționate; Searle folosește acest exemplu pentru a evidenția inadecvarea proprietăților formale față de cele cauzale. [25]

Replica combinației

Replica combinației este alcătuită din toate cele trei replici anterioare (sistem-robot-simulator creier), astfel încât să fie mai eficientă. În această replică, un robot este dat ca exemplu, cu un computer în interiorul „ craniului ”, care simulează toate sinapsele unui creier uman și al cărui comportament este similar cu cel al unui om; se clarifică și faptul că trebuie să ne gândim la acest robot ca la un sistem unificat și nu la un simplu calculator cu intrări și ieșiri. Din acest răspuns rezultă că este necesar să se atribuie intenționalitatea sistemului. [26]

Potrivit lui Searle, inițial suntem conduși să conferim intenționalitate robotului și asta mai ales pentru că implementează un comportament apropiat de al nostru, dar demonstrând cum, în realitate, pentru a lucra computerul execută un program formal, este posibil să infirmăm ipoteza. a atribuirii acestuia.stărilor mentale. Ca o demonstrație a acestei afirmații, Searle propune să presupună că în interiorul robotului există un om care manipulează, în conformitate cu anumite reguli, o serie de simboluri formale neinterpretate primite de la senzorii robotului și care trimite, ca ieșire, către mecanismele motorii. simboluri formale neinterpretate corespunzătoare. Dacă presupunem că omul de acolo știe doar ce operațiuni să efectueze și ce simboluri fără sens să folosească, atunci ipoteza că robotul are intenționalitate nu ar fi justificată. Prin urmare, aflăm că comportamentul acestui robot este rezultatul unui program formal și, prin urmare, trebuie să abandonăm ipoteza intenționalității. [27]

Replicarea altor minți

Răspunsul altor minți se referă la faptul că, pentru a ști dacă oamenii au înțeles chineza sau orice altceva, trebuie să se refere la comportamentul lor: dacă computerul trece teste comportamentale, așa cum le-ar trece o persoană, atunci dacă cunoașterea este atribuită unor astfel de o persoană, în principiu, trebuie atribuită și computerului. [28]

Searle răspunde spunând că această replică nu are sens: „nu știu cum alte persoane au stări cognitive, ci mai degrabă ce le atribuiesc atunci când le cred cu stări cognitive” [29] . Nu este posibil să se evalueze doar procesele de calcul cu intrări și ieșiri corecte , deoarece acestea pot exista chiar și fără starea cognitivă. [28]

Replicarea numeroaselor locații

Conform replicii multor birouri, mai devreme sau mai târziu va fi posibil să se construiască dispozitive care să aibă procedurile cauzale care, potrivit lui Searle, sunt necesare pentru intenționalitate și aceasta se va numi Inteligență artificială. [30]

Searle susține că această replică reprezintă greșit proiectul AI puternic redefinindu-l ca orice lucru care produce și explică în mod artificial cunoașterea, abandonând astfel afirmația inițială făcută în numele AI că „procesele mentale sunt procese de calcul care funcționează pe elemente definite formal”. Searle, quindi, si rifiuta di rispondere a tale obiezione dal momento che non rispecchia una ben definita premessa su cui si è basata la sua intera argomentazione. [31]

Note

  1. ^ a b c d e John R. Searle, Is the Brain's Mind a Computer Program? , in Scientific American , vol. 262, n. 1, gennaio 1990.
  2. ^ John R. Searle, La mente è un programma? , in Le scienze , n. 259, 1990.
  3. ^ a b c d e The Chinese Room Argument , su plato.stanford.edu . URL consultato il 29 gennaio 2020 .
  4. ^ a b c d John. R. Searle, Minds, brains, and programs. , in Behavioral and Brain Sciences , vol. 3, 1980.
  5. ^ a b Alan Turing, Computing Machinery and Intelligence , in Mind , LIX (236), pp. 433-460.
  6. ^ a b c Larry Hauser, Chinese room argument , pp. 1-2.
  7. ^ JRSearle, La riscoperta della mente , Torino, Bollati Borghieri, 1994, p. 110.
  8. ^ John R. Searle,5 , in The Rediscovery of the Mind , MIT press, 1992.
  9. ^ Larry Hauser, Searle's chinese room , 2006, p. 8.
  10. ^ John R. Searle, Mente, cervello, intelligenza , Bompiani, 1988, p. 64.
  11. ^ John R. Searle, Mente, cervello, intelligenza , bompiani, 1988, p. 70.
  12. ^ Test di Turing , su it.wikipedia.org . URL consultato il 29 gennaio 2020 .
  13. ^ a b c d John R. Searle, Menti, cervelli e programmi , traduzione di Graziella Tonfoni, Milano, 1984, pp. 48-49.
  14. ^ a b c d e f g h John R. Searle, Is the Brain's Mind a Computer Program? , in Scientific American , vol. 262, n. 1, gennaio 1990, p. 27.
  15. ^ a b c Larry Hauser, Chinese room argument , p. 6.
  16. ^ a b c d John R. Searle, Is the Brain's Mind a Computer Program? , in Scientific American , vol. 262, n. 1, p. 29.
  17. ^ Paul M. Churchland and Patricia Smith Churchland, Could a.Machine Think? , in Scientific America , 1990.
  18. ^ a b c d e Paul M. Churchland and Patricia Smith Churchland, Could a.Machine Think? , in Scientific America , 1990, p. 32.
  19. ^ a b Paul M. Churchland and Patricia Smith Churchland, Può una macchina pensare? , in Le scienze , n. 259, marzo 1990.
  20. ^ Paul M. Churchland and Patricia Smith Churchland, Could a machine think? , in Scientific American , 1990, p. 34.
  21. ^ a b Larry Hauser, Chinese room argument , p. 3.
  22. ^ a b c John R. Searle, Menti, cervelli e programmi , traduzione di Graziella Tonfoni, Milano, 1984, pp. 53-57.
  23. ^ a b Larry Hauser, Chinese room argument , 2001, p. 3.
  24. ^ a b c John R. Searle,, Menti, cervelli e programmi , traduzione di Graziella Tonfoni, 1984, pp. 57-58.
  25. ^ a b c John R. Searle, Menti, cervelli e programmi , traduzione di Graziella Tonfoni,, 1984, pp. 58-60.
  26. ^ John R. Searle, Menti, cervelli e programmi , traduzione di Graziella Tonfoni, Milano, 1984, pp. 60-62.
  27. ^ Larry Hauser, Chinese room argument , 2001, p. 4.
  28. ^ a b John R. Searle,, Menti, cervelli e programmi, , traduzione di Graziella Tonfoni,, Milano, 1984, pp. 62-63.
  29. ^ John R. Searle, Menti, cervelli e programmi , traduzione di Graziella Tonfoni, Milano, 1984, p. 63.
  30. ^ Larry Huser, Chinese room argument , 2001, p. 5.
  31. ^ John R. Searle, Menti, cervelli e programmi , traduzione di Graziella Tonfoni, Milano, 1984, pp. 63-64.

Bibliografia

  • John R. Searle e Graziella Tonfoni, Menti, cervelli e programmi: un dibattito sull'intelligenza artificiale , Milano, 1984, ISBN 8870056147 .
  • John R. Searle, La mente è un programma? , in Le scienze , n. 259, 1990.
  • John R. Searle, Mente, cervello, intelligenza , Bompiani, 1988.
  • John R. Searle, Is the Brain's Mind a Computer Program? , in Scientific American , vol. 262, n. 1, gennaio 1990.
  • Larry Hauser, Chinese room argument , 12 aprile 2001.
  • David Anderson, Jack Copeland, Artificial life and the chinese room argument , Febbraio 2002.
  • Mariano de Dompablo Cordio, Searle's Chinese Room Argument and its Replies: A Constructive Re-Warming and the Future of Artificial Intelligence , in Indiana Undergraduate Journal of Cognitive Science , 2008.
  • Michele Braccini, Intelligenza artificiale: test di Turing e alcune questioni filosofiche.
  • Paul M. Churchland and Patricia Smith Churchland, Può una macchina pensare? , in Le scienze , n. 259, marzo 1990.
  • Stanford Encyclopedia of Philosophy , su plato.stanford.edu . URL consultato il 20 gennaio 2020 .

Collegamenti esterni

Controllo di autorità GND ( DE ) 4730171-5
Neuroscienze Portale Neuroscienze : accedi alle voci di Wikipedia che trattano di neuroscienze