camera chineză

De la Wikipedia, enciclopedia liberă.
Salt la navigare Salt la căutare

Camera chineză este un experiment de gândire conceput de John Searle ca un contraexemplu respect al „teoriei puternice inteligenței artificiale . La baza argumentului lui Searle este ideea că sintaxa nu este o condiție suficientă pentru determinarea semantica . [1]

Searle a prezentat argumentul de cameră chinez în articol Minds, creierul și programe (Minds, creierul, și programe), publicat în 1980 în revista științifică comportamental și Brain Sciences (în limba italiană Științele [2] ). De atunci, acest argument a fost un pilon al dezbaterii în jurul temei " inteligență artificială puternică . [3]

John Searle

Mind Experiment: "Can Machines crezi?"

Inteligență artificială puternic și slab

În 1980 John Searle a publicat Minds, creierul și programe în revista comportamental Brain Sciences. [4] Acest articol a explicat Searle argumentul său și mai târziu a declarat că principalele obiecții care au fost ridicate în timpul prezentărilor sale la diferite campusuri universitare. Articol de Searle , de asemenea , a fost publicat în revista , împreună cu comentarii și critici din 27 de cercetători din științele cognitive . Aceste 27 de comentarii au fost urmate de răspunsurile lui Searle față de criticii săi. În ultimele două decenii ale secolului al XX-lea, argumentul Sala chinez a fost subiectul unei multe discuții. [3]

În 1984, Searle a prezentat argumentul chinez cameră în cartea Minds, creierul și știință, iar în ianuarie 1990, revista Scientific American populare adus dezbaterea în atenția lumii științifice. Searle, apoi, a inclus argumentul cameră chinez în articol „este mintea Creierii un program de calculator?“ care a fost urmat de un articol de răspuns, „ar putea gândi o mașină?“, scrisă de Paul și Patricia Churchland. Un scurt timp mai târziu, el a fost eliberat pe o comparație între cameră chinez Searle și un alt filosof eminent Jerry Fodor (în Rosenthal (ed.) , 1991). [3]

În mintea text, creierul și programe filozoful John Searle preia problema lui Alan Turing cu privire la posibilitatea de mașini de gândire, se opune argumentul că inteligența umană poate fi reprodusă într - o mașină, care urmează un program de prestabilit. Cu alte cuvinte, teza susținută de Turing și , prin urmare , de puternică inteligență artificială , vede posibilitatea ca un calculator pentru a obține aceleași rezultate ca o minte umana, care este posibilitatea de a gândi, de a avea stări cognitive, de discursuri înțelegere și întrebări răspunde. Configurarea unui program permite aparatului să intrările de proces a primit, prin urmare, să emită o ieșire. Programul este alcătuit din simboluri și reguli de calcul care permit aparatului să efectueze un proces specific de manipulare a simbolurilor cu care compune răspunsuri. [5]

Ideea principală a „program puternic AI - ul este unul care identifică o corespondență în structura și funcționarea între mintea umană și un calculator. Faptul că mintea, primirea de date ( de intrare), modificandu - le și dând altele (ieșire), funcțiile prin intermediul simbolurilor procesate de către unitatea centrală de execuție care indică procedurile care trebuie efectuate se determină în efecte. [4]

Două teorii în sprijinul puternic program de inteligență artificială sunt funcționalismului și computaționalism.

  • Primul susține că o stare mentală este orice condiție de cauzalitate interpus între intrare și ieșire, prin urmare, potrivit acestei teorii, două sisteme cu aceleași procese cauzale au aceleași stări mentale.
  • Potrivit computaționalism, procesele mentale constau în procese de calcul care operează pe simboluri și aceste procese sunt echivalente cu cele efectuate de un computer. [6]

În acest program de Searle formula obiecții în conformitate cu care mintea umană nu poate fi reprodus numai în termeni sintactice , din moment ce acest lucru nu se ține cont de calitatea sa de principal, și anume " intenție , care se referă la semantica . Intentionalitatea este componenta principală a minții umane și este strâns legată de evenimentul conștiinței. eveniment Constiinta si intentionalitate sunt considerate proprietăți primitive și se referă la capacitatea unei ființe umane de a formula obiectivele lor și să se simtă emoții. Prin urmare, fiecare acțiune și fiecare stat cognitive necesită, în cauzalitatea lor, un tratament diferit de cel sintactică, deoarece acestea operează nu numai sintactic, ci și semantic, în ceea ce privește semnificația termenilor. [3]

Searle, prin urmare, susține că inteligența artificială nu poate fi echivalentă cu inteligența umană, pentru că nu este suficient să se elaboreze programe de manipulare a simbolurilor conform regulilor sintactice pentru a genera activitate mentală. Faptul este că mintea umană înțelege, procese și se exprimă printr-un limbaj ale cărui cuvinte, pe de o parte sunt investite cu sens, iar pe de altă parte, determină modul în care se va da un răspuns. Searle reiterează modul în care intenționalitatea, împletesc cu experiență subiectivă, este mult mai complexă decât performanța mașinii. [3]

Umană și inteligență artificială comparat

Searle consideră că apariția intenționalității un fenomen biologic legătură cu pregătirea creierului uman și relațiile biologice și chimice care au loc acolo. Într-adevăr, susține un naturalism biologic în ceea ce privește ideea că intenționalitate și conștiința sunt proprietăți emergente din creier. [7]

El a adresat o critică funcționalismului care pretinde a fi capabil de a inteligenței abstracte din substratul său, ca procesele sale mentale, bazate pe manipularea simbolurilor conform regulilor sintactice, nu ar avea nevoie să păstreze software - ul cu toate " hardware - ul . În loc de a afirma o pozitie care aminteste de dualismul cartezian (independența ontologică a substanței de gândire în ceea ce privește substanța extinsă), Searle menține o legătură esențială între minte și corp, propunând soluția de naturalism biologic, adică ideea că biological- proprietăţile chimice ale creierului produc evenimente mentale, dezvoltarea de care oglinzi istoria noastră naturală și evolutivă. [6]

Se poate observa că această poziție rămâne, cel puțin pentru cei care au sugerat obiecții cu privire la propunerile de Searle, ambiguitatea dintre dualismul clasică și teoria identității . De fapt, dualismul se bazează pe distincția dintre două elemente (corpului și minții), ale căror interacțiuni, cu toate acestea, să conducă în mod necesar la o stare de indistinguishability substanțiale între elementele implicate, care sunt auto-implicându în așa fel încât să fie confundat ( teoria identității). În acest sens, mintea umană ar fi la fel de bine susținută Dreyfus și Edelman , complet identificat cu substratul neurofiziologic al creierului. [8]

Searle, cu toate acestea, nu se identifică cu teoria identității, deoarece el se referă la mintea umană ca o proprietate emergentă, menținând astfel distincția. În același timp, el respinge ipoteza funcționalistă, susținând că particularitatea minții umane constă în subiectivitatea ontologică, care este ireductibilă la funcțiile sintactice. [9]

Rezultatul discuției cu privire la posibilitatea de inteligență artificială a inteligenței umane este că înlocui, în conformitate cu Searle, nu putem reduce proprietatea principală a inteligenței umane, și anume intenționalitate, la executarea sarcinilor de calcul , folosind simboluri ca urmare a regulilor de sintaxă. Motivul este că aceste inteligențe pot produce aparent aceleași răspunsuri , datorită instrucțiunilor, dar trebuie să se țină seama de faptul că inteligența artificială, cu setarea sa actuală, nu permite să înțeleagă instrucțiunile menționate mai sus, acest lucru se datorează faptului că elementele pe care le manipuleaza face nu trebuie să fie înțeles. Prin urmare, mașinile nu execută aceleași sarcini în același mod și inteligență artificială, prin urmare, nu este același lucru ca și inteligența umană. [6]

„[...] modelul nu pur formală va fi niciodată suficient în sine pentru intenționalitate, deoarece proprietățile formale nu sunt în ele însele constitutive ale intenționalității, și nu în ele însele au puteri cauzale [...].“ [10] : „Dacă nu crede că mintea este separabilă de creier , atât conceptual și empiric - dualismului într - o formă puternică - nu se poate spera de a reproduce mental prin scrierea și rularea programelor, din moment ce programele trebuie să fie independentă de creierul [.. .]. " [11]

La întrebarea „mașinile pot gândi? “, Searle răspunde că ei pot gândi de fapt , doar în cazul în care configurația lor materială ajunge la un nivel de complexitate (echivalent cu cel al creierului uman) , cum ar fi să constituie un substrat biologic-chimic și neurofiziologice , care permite o inteligență înzestrată cu intentionalitate să iasă.. În cazul în care structura de bază ( hardware ) nu corespunde acestor cerințe, nu se poate spune că mașinile cred. Obiecția John Searle este îndreptată exclusiv la programul „puternic“ de inteligență artificială și nu exclude perspectiva programului slab . Oportunitatea rămâne, prin urmare, întotdeauna deschisă pentru mașinile să fie mult mai puternice instrumente de calcul și acute decât ființele umane, cel puțin în anumite zone. [1]

Descrierea experimentului

Obiecție împotriva puternic program de inteligență artificială

Pentru a formula obiecții împotriva funcționalismului aplicat la programul de inteligență artificială puternic, John Searle reconstruiește o situație similară cu cea a testului Turing , în cazul în care o ființă umană, fără știrea lui, interacționează cu o mașină. [5] Sarcina pentru om este de a judeca, pe baza răspunsurilor la întrebările pe care le pune, dacă vorbești cu un alt om sau o mașină, atribuind inteligența unui partid. Turing ideea inițială a fost de a demonstra că mașina, care au reprodus aceeași procedură logică-rațională ca om într-o situație de calcul, ar putea da aceeași ieșire și păcăli judecătorul, care nu ar putea distinge de o ființă umană. Cu alte cuvinte, a fost de a identifica caracteristicile inteligenței umane în ceea ce privește atât logica de calcul și execuție secvențială a unui compito.In acest sens, inteligența umană a fost identificat printr - un program central (software) , care a permis să proceseze informațiile de simboluri și în conformitate cu regulile sintactice universale, indiferent de suport IT (hardware). [12]

John Searle preia acest model, dar ia locul mașinii. Să ne imaginăm că el se închide în interiorul camerei și trebuie să interacționeze cu exteriorul cineva care nu știe nimic despre el. Să presupunem apoi că persoana pe care vorbi de chinezi ca limbă maternă și că Searle nu are cunoștințe de limba chineză. Să ne imaginăm din nou că o serie de caractere chinezești sunt aranjate pe masa in camera pe care Searle va trebui să folosească pentru a răspunde la persoană din afară. Din moment ce China nu atestă nicio apropiere lingvistică și semiotică cu engleza (Searle limba maternă), el nu are capacitatea de a recunoaște ceva și de a formula o propoziție: există doar simboluri. [13]

Așa că haideți să ne imaginăm că în interiorul camerei există o carte de instrucțiuni cu unele seturi de caractere chinezești, asociate în conformitate cu normele scrise în limba engleză. Searle încă nu înțelege nimic despre chinezi, cu toate acestea, include informații în limba engleză, care să indice modul în care să răspundă la orice solicitare primită în limba chineză. Aceste norme, care constituie ceea ce Searle numește „ programul “, face posibil ca el să se refere o serie de simboluri formale la o altă serie de simboluri formale, adică, ei îi permit să dea un răspuns (output) la fiecare întrebare (intrare ). [13]

Până acum, Searle este capabil de a avea o conversație cu un vorbitor nativ din China și, urmând program, este în măsură să furnizeze date cu caracter personal, spune o poveste sau pune o întrebare. Cu cât este mai complicat programul, instrucțiunile de mai complexe sunt adăugate urmeze pentru a da răspunsuri mai multe și mai precise. Ca urmare, acuratețea programului și executarea bună Searle îi permit să fie văzut de către persoana pe exterior ca un vorbitor nativ chinez, care răspunde și reacționează în mod normal, fără a înșela. [13]

Searle subliniază faptul că nu a trebuit să interpreteze simboluri chinezești pentru a înțelege întrebarea și să dea răspunsul corect. De fapt, el sa comportat ca și cum ar fi un computer care trebuie să calculeze o formulă bazată pe un program și simboluri formale. Deci, nu era necesar ca el a înțeles ce trebuie să facă, pentru că el doar a trebuit să urmați instrucțiunile furnizate. [13]

Relația cu limba chineză a fost un sintactică tip (manipulare corectă a simbolurilor), în timp ce cu limba engleza a fost o semantică de tip ( care leagă sensul unui termen), combinația dintre cele două îi permite să pună caractere chinezești în comandă.. [4]

Prin urmare, în conformitate cu Searle, puternic AI nu este suficient pentru a explica modul în care rolul intenționalității joacă în inteligența umană, prin urmare , gradul de înțelegere a doua nu poate fi comparat sau înlocuită de inteligență artificială, care nu produce o astfel de înțelegere. Ideea este că, în orice caz, Searle nu înțelege ce face în timpul experimentului. Din aceasta rezultă că inteligența disponibilă la un om care nu este reductibilă la o manipulare a simbolurilor, dar, de asemenea, are ceva de-a face cu semantica. [4]

argumentul complet

Cea mai recentă prezentare a Sălii chinez subiectului (1990) prezintă o derivare formală a următoarelor trei axiome: [1]

Un program de utilizează sintaxa pentru manipularea simbolurilor și nu acorde atenție lor semantica ; el știe unde să pună simbolurile și cum să le folosească, dar el nu înțelege ceea ce reprezintă sau ceea ce înseamnă acestea. Pentru programul, simbolurile sunt obiecte la fel ca și altele. [14]

  • (A2) „Minds au conținuturi mentale (semantice)“. [14]

Spre deosebire de simbolurile folosite de un program, gândurile noastre au sensul : ele reprezintă lucruri și știm ce reprezintă. [14]

  • (A3) „The Sintaxa în sine nu este nici o condiție , nici suficientă pentru determinarea semantica .“ [14]

Această ultimă axiomă este ceea ce Searle, cu experimentul din camera din China, intenționează să dovedească: camera chineză are sintaxa (există un om în interiorul OMS simboluri manipuleaza), dar nu are semantica (nu există nimic și nimeni în cameră care înțelege ce înseamnă simbolurile chinezești). Din aceasta rezultă că având sintaxa nu este suficient pentru a genera semantica. [14]

Searle afirmă că din aceste trei axiome următoarea concluzie poate fi derivată:

  • (C1) „Cele Programele nu sunt esențiale și nici o condiție suficientă pentru ca acesta să se acorde o minte.“ [14]

Programele au sintaxa numai și nu este suficientă pentru o semantică. Fiecare minte, pe de altă parte, are semantica, astfel încât programele nu sunt comparabile cu mintea. [14]

Cu acest argument Searle intenționează să arate că " inteligența artificială , construirea de programe care manipuleaza simboluri, nu se poate produce o masina care are o minte. [15]

Din acest punct de derivarea începând Searle, propunând o a patra axiomă, își propune să răspundă la o altă întrebare: are creierul uman urmeze un program? Cu alte cuvinte, este teoria computațională a minții corecte? [16]

  • (A4) "Creierele provoca mintea." [16]

Potrivit lui Searle, putem deduce imediat că:

  • (C2) „Orice alt sistem capabil să producă mintea trebuie să aibă puteri cauzale echivalent, cel puțin, cu cele ale creierului.“ [16]

Din aceasta rezultă că orice creier artificial nu trebuie doar să urmeze un program, dar ar trebui să poată să reproducă puterile cauzale ale creierului. [16]

De aici derivă alte concluzii:

  • (C3) „Orice artefact care produce fenomene psihice, orice minte artificiala, ar trebui să fie în măsură să dubleze puterea cauzală specifică a creierului și nu a putut face acest lucru doar prin rularea unui program formal.“ [15]
  • (C4) „Modul în care creierul uman produc în prezent fenomene mentale nu pot fi date doar prin executarea unui program de calculator“. [15]

Prizarea Churchland

Printre răspunsurile la subiectul Searle vom găsi , de asemenea că mutarea de Paul și Patricia Churchland , care, cu toate acestea, spre deosebire de ceilalți, care nu este prezent în creierul și programele Minds articol. [17]

Pentru soți Churchland răspunsurile date de către vorbitor de limba engleză , care manipuleaza simboluri din China sunt sensibile, dar nu atât de mult , deoarece camera înțelege chineză, de fapt, sunt de acord cu Searle că nu înțelege, ci mai degrabă pentru că ele conțin o respingere a treia a axiomele la argument bazat Searle prezentat în 1990: „sintaxa nu este o condiție suficientă și nici pentru determinarea semantica“ [1] .

Potrivit lui Churchland, Searle nu poate întări această axiomă cu argumentul de cameră din China , deoarece nu este dovedit adevărul ; a treia axioma, în plus, ia acordat pentru ceea ce vrei să dovedească și acest lucru devine clar atunci când îl compară cu C1 concluzia: „Programele nu sunt nici condiții esențiale, nici suficiente pentru o minte să fie dat“. [1] Această concluzie a indicat deja la fel de mult de A3 de ce Searle cu " experimentul încearcă conceptul pentru a da valoarea axioma A3. Pentru Churchland Searle cu experimentul din camera chinez nu reușește să ofere o bază solidă axiomă 3 și , astfel , acestea oferă un subiect similar , care poate servi ca un contraexemplu . Argumentul, cunoscut sub numele de Camera luminoasă este împărțit în următoarele trei axiome și concluzia rezultată [18] :

A1: „Electricitatea și magnetismul sunt forțe.“ [18]

A2: „Proprietatea esențială a luminii este luminozitatea .“ [18]

A3. „The forțe , prin ele însele, nu sunt esențiale, nici suficiente pentru a da luminozitate.“ [18]

C1: „Electricitatea și magnetismul nu sunt nici esentiale, nici suficiente pentru a da lumină“. [18]

Dacă presupunem că acest argument a fost dezvoltat după ipoteza Maxwell despre natura electromagnetica a luminii, dar înainte ca acesta a fost recunoscut validitatea, ar fi fost o obiecție la această ipoteză, mai ales în cazul în care A3 a fost întărită printr - un experiment conceptual . Churchland, în acest sens, cer să ne imaginăm că într - o cameră întunecată există un om care deține un obiect încărcat electric, de exemplu, un magnet . Conform teoriei lui Maxwell, omul face prin mișcările verticale cu magneți ( în sus și în jos) ar crea un cerc de unde electromagnetice întotdeauna mai largi , care ar transforma magnet luminos. Cu toate acestea, încercarea de a face acest experiment este de remarcat faptul că mișcarea oricărui obiect încărcat nu produce luminozitate. [19]

Pentru a putea contracara aceste dovezi, Maxwell poate insista numai pe cele trei axiome, susținând, în primul rând, că A3 este falsă: este plauzibil posibil, dar el ia de la sine ceea ce este, de fapt, nu verificabile. În al doilea rând, experimentul nu spune nimic important despre natura luminii și, în cele din urmă, susține că doar un program de cercetare sistematică, care permite să demonstreze paralelismul dintre proprietățile undelor electromagnetice de lumină și, poate rezolva problema luminii. [19]

Traducerea acestui rezultat experimentului lui Searle, este clar că, chiar dacă aparent nici o semantica poate fi atribuită camera chineză, există, cu toate acestea, nici o justificare pentru cererea, pe baza acestui aspect, că manipularea simbolurilor chinezești, în conformitate cu anumite reguli, nu pot da naștere la fenomene semantice. [20]

Răspunsurile la argumentul lui Searle

Răspunsul sistemului

Prima obiecție importantă abordată de experiment cunoscut sub numele de „Camera chineză“ este cunoscut ca replică (sau răspuns) sistemului . Aceasta susține că: [21]

„Deși este adevărat că individul încuiat în camera nu înțelege istoria, faptul este că el este pur și simplu o parte a unui întreg sistem, iar sistemul înțelege de fapt, istoria [...] Înțelegerea este atribuită nu Izolate individuale, ci mai degrabă la sistemul global de care el face parte " [22]

Persoana din interiorul camerei este vorbește limba engleză și nu în ultimul rând știu chinezii . Pentru acest lucru, cu toate acestea, unele instrumente sunt date (un registru al normelor referitoare la simboluri chinezești, hârtie și stilou), datorită cărora putem vorbi de un sistem. Acesta din urmă este într -un fel încorporat de individ și modul în care spune Searle: [21]

„Nu există nimic în sistem care nu este în el. Dacă el nu înțelege, nu există nici un fel că sistemul poate înțelege, pentru că este doar o parte din ea " [22]

Pe scurt, replicarea sistemelor constă în faptul că, deși individul în camera nu înțelege chineză, poate fi posibil pentru a înțelege această limbă datorită sistemului global: adică, datorită persoanei, uneltele el folosește și camera., considerat ca un întreg. Deoarece nu există nici o persoană care poate vorbi limba chineză în interiorul camerei, camera ca întreg nu ar trebui să înțeleagă limba. Răspunsul sistemului ocoleste problema, cu toate acestea, reiterând din nou și din nou că sistemul trebuie să înțeleagă chinez [22]

Searle răspunde la această obiecție propunând o situație specială: el întreabă ce se va întâmpla în cazul în care persoana în interiorul camerei memorate regulile și diferitele mecanisme, luând în considerare toate informațiile prezente în mintea lui. Acest lucru ar permite-o să interacționeze ca și cum ar înțelege de fapt, din China; Cu toate acestea, el va continua să urmeze un set de reguli, fără a înțelege semnificația simbolurilor pe care le folosește. [23]

Răspunsul robotului

A doua obiecție la subiectul Camera chinez este cunoscut sub numele de „Răspunde Robot[24] .

Această abordare ne cere să se gândească la un program complet nou. Există într - adevăr a propus să presupunem că pentru a pune un calculator în interiorul unui robot, ale cărui caracteristici sunt multiple. De fapt, ea primește nu numai simboluri formale de intrare și de a introduce simboluri formale ca ieșire , dar face posibilă funcționarea robotului în așa fel încât să facă acțiunile sale similare cu cele ale unui comportament uman. Ideea este că robotul este controlat de un creier de robot computerizat care permite același lucru să fie capabil de a vedea printr - un aparat de fotografiat încorporate și să fie capabil să se deplaseze datorită prezenței brațelor și picioarelor , care să îi permită să acționeze. [24] În acest fel, ar avea un robot care poate înțelege de fapt și ar mai ales alte stări mentale. Implicit, răspunsul robotului ar pretinde că activitatea cunoscută sub numele de capacitate cognitivă nu implică o simplă manipulare a simbolurilor oficiale, dar că există un complex de cauzalitate (precum și intenționată) relațiile cu lumea exterioară. Această setare ar trebui să fie într -un anumit mod de a relua abordarea proceselor cognitive încorporate, care subliniază faptul că așa-numitele „procesele cognitive“ găsesc realizarea lor într - un organism, care este introdus într - un mediu. [23]

Searle răspunde că astfel de simulări nu reproduc cele mai multe caracteristici importante ale creierului - stările sale cauzale și intenționate . Tot robotul ar face ar fi să fie în măsură să urmeze instrucțiunile oficiale pentru a manipula simboluri formale. El ar înțelege nimic altceva decât regulile de manipulare a acestor simboluri. Pe scurt, el nu ar ști ce se întâmplă în jurul lui, și nici de ce se comportă așa cum face el. Conform concepției de Searle își pierd treptat dreptul la o înțelegere reală. [24]

Replica a simulatorului creierului

Replica a simulatorului a creierului cere să -și imagineze că programul este format din computer (sau persoana in camera) simulează secvența de pornire și de sinapselor neuronale in creierul unui vorbitor chinez atunci când el înțelege povești în limba chineză și răspunsul pentru ei. Conform acestor date, aparatul, prin simularea structura formală a creierului chinez în înțelegerea acestor povești și oferindu-le un răspuns, le înțelege. Dacă vom nega acest lucru ar trebui să negăm faptul că, de asemenea, vorbitorii chinezi să înțeleagă, deoarece la nivelul sinapselor nu există diferențe între programul de calculator și programul creierului chinez. [25]

Searle răspunde la această obiecție propunând un exemplu: să presupunem că, în loc de omul care manipulează simboluri chinezești în timp ce nu știe chineză, suntem în prezența unui om care operează un complex elaborat de conducte de apă unite prin supape. Când omul primește anumite simboluri chinezești ca date de intrare, consultarea programului în limba engleză, el acționează prin deschiderea sau închiderea valvelor indicate. [25] Fiecare dintre conductele conectate la apă corespunde unei sinapse din creier din China, și întregul sistem este atât de conectat , după ce ați activat toate dreptul de robinete , răspunsurile chineze declanșează ieșiri. Searle consideră că omul a acționat ca un simplu executor al indicațiilor reprezentate de simbolurile și că, cu toate acestea, la sfârșitul lucrării sale el nu înțelege nici chinezii sau funcționarea complexului de conducte de apă. Problema cu simulatorul de creier este că simulează doar structura formală a secvenței de aprinderi neuronale și nu ceea ce este important, sau creierul capacitatea de a produce stări intenționale; Searle folosește acest exemplu pentru a sublinia caracterul inadecvat al proprietăților formale asupra celor cauzale. [25]

Replica combinației

Replica combinației este formată din ansamblul celor trei replici anterioare (simulator de sistem robot-creier), astfel încât să fie mai eficiente. În această replică este luat ca exemplu un robot de , cu un computer în cadrul „ craniului “, care simulează toate sinapselor unui creier uman și al căror comportament se dovedește a fi similar cu cel al unui om; De asemenea , este clar că trebuie să ne gândim acest robot ca un sistem unificat și nu la un simplu calculator cu intrare și de ieșire. Din acest răspuns rezultă că este necesar să se atribuie intenționalitatea la sistem. [26]

Potrivit lui Searle, inițial suntem conduși la intenționalitatea conferă pe robot și acest lucru, în principal, deoarece pune în aplicare un apropiat comportament al nostru, ci prin demonstrarea faptului că, în realitate, pentru a lucra computerul execută un program formal, este posibil să se respingă ipoteza atribuirii acestuia. stărilor mentale. Ca o demonstrație a acestei afirmații, Searle propune să presupunem că în interiorul robotului este un om care manipulează, în conformitate cu anumite reguli, o serie de simboluri oficiale uninterpreted primite de la robotului senzori și care trimite, ca ieșire, la mecanismele motorii simboluri formale uninterpreted corespunzătoare. Dacă presupunem că omul acolo știe doar ce operații pentru a efectua și ce simboluri lipsite de sens pentru utilizare, atunci ipoteza că robotul are intenționalității nu ar fi justificată. Prin urmare, aflăm că comportamentul acestui robot este rezultatul unui program formal și, prin urmare, trebuie să abandonăm ipoteza intenționalității. [27]

Replicarea altor minți

Răspunsul altor minți se referă la faptul că, pentru a ști dacă oamenii au înțeles din China sau orice altcineva trebuie să facă referire la comportamentul lor: în cazul în care computerul trece de comportament teste , ca o persoană care le - ar trece, atunci în cazul în care cunoașterea este atribuită o astfel o persoană care, în principiu, trebuie de asemenea să fie atribuit la calculator. [28]

Searle a răspuns că la acest răspuns trece aproape de punctul de problema: „nu e ca și cum aș ști că alte persoane au stări cognitive, ci mai degrabă ceea ce este faptul că le - am atribui la creditarea lor cu stări cognitive“ [29] . Poti evalua numai proceselor de calcul cu intrare și de ieșire corectă , deoarece acestea pot exista fără nici un statut cognitiv. [28]

Replicarea multe locații

Potrivit replica a multor locații , mai devreme sau mai târziu , va fi posibil să se construiască dispozitive care au procesele cauzale care, potrivit Searle, sunt necesare pentru intenționată și ce va fi numit Inteligenta Artificiala. [30]

Searle susține că această reproducere denatureaza puternic AI proiect prin redefinirea ca pe ceva care produce în mod artificial și explică cogniție, renunțându -se astfel cererea inițială făcută în numele AI care „procesele mentale sunt procese de calcul care operează elemente definite pe formal“. Searle, quindi, si rifiuta di rispondere a tale obiezione dal momento che non rispecchia una ben definita premessa su cui si è basata la sua intera argomentazione. [31]

Note

  1. ^ a b c d e John R. Searle, Is the Brain's Mind a Computer Program? , in Scientific American , vol. 262, n. 1, gennaio 1990.
  2. ^ John R. Searle, La mente è un programma? , in Le scienze , n. 259, 1990.
  3. ^ a b c d e The Chinese Room Argument , su plato.stanford.edu . URL consultato il 29 gennaio 2020 .
  4. ^ a b c d John. R. Searle, Minds, brains, and programs. , in Behavioral and Brain Sciences , vol. 3, 1980.
  5. ^ a b Alan Turing, Computing Machinery and Intelligence , in Mind , LIX (236), pp. 433-460.
  6. ^ a b c Larry Hauser, Chinese room argument , pp. 1-2.
  7. ^ JRSearle, La riscoperta della mente , Torino, Bollati Borghieri, 1994, p. 110.
  8. ^ John R. Searle,5 , in The Rediscovery of the Mind , MIT press, 1992.
  9. ^ Larry Hauser, Searle's chinese room , 2006, p. 8.
  10. ^ John R. Searle, Mente, cervello, intelligenza , Bompiani, 1988, p. 64.
  11. ^ John R. Searle, Mente, cervello, intelligenza , bompiani, 1988, p. 70.
  12. ^ Test di Turing , su it.wikipedia.org . URL consultato il 29 gennaio 2020 .
  13. ^ a b c d John R. Searle, Menti, cervelli e programmi , traduzione di Graziella Tonfoni, Milano, 1984, pp. 48-49.
  14. ^ a b c d e f g h John R. Searle, Is the Brain's Mind a Computer Program? , in Scientific American , vol. 262, n. 1, gennaio 1990, p. 27.
  15. ^ a b c Larry Hauser, Chinese room argument , p. 6.
  16. ^ a b c d John R. Searle, Is the Brain's Mind a Computer Program? , in Scientific American , vol. 262, n. 1, p. 29.
  17. ^ Paul M. Churchland and Patricia Smith Churchland, Could a.Machine Think? , in Scientific America , 1990.
  18. ^ a b c d e Paul M. Churchland and Patricia Smith Churchland, Could a.Machine Think? , in Scientific America , 1990, p. 32.
  19. ^ a b Paul M. Churchland and Patricia Smith Churchland, Può una macchina pensare? , in Le scienze , n. 259, marzo 1990.
  20. ^ Paul M. Churchland and Patricia Smith Churchland, Could a machine think? , in Scientific American , 1990, p. 34.
  21. ^ a b Larry Hauser, Chinese room argument , p. 3.
  22. ^ a b c John R. Searle, Menti, cervelli e programmi , traduzione di Graziella Tonfoni, Milano, 1984, pp. 53-57.
  23. ^ a b Larry Hauser, Chinese room argument , 2001, p. 3.
  24. ^ a b c John R. Searle,, Menti, cervelli e programmi , traduzione di Graziella Tonfoni, 1984, pp. 57-58.
  25. ^ a b c John R. Searle, Menti, cervelli e programmi , traduzione di Graziella Tonfoni,, 1984, pp. 58-60.
  26. ^ John R. Searle, Menti, cervelli e programmi , traduzione di Graziella Tonfoni, Milano, 1984, pp. 60-62.
  27. ^ Larry Hauser, Chinese room argument , 2001, p. 4.
  28. ^ a b John R. Searle,, Menti, cervelli e programmi, , traduzione di Graziella Tonfoni,, Milano, 1984, pp. 62-63.
  29. ^ John R. Searle, Menti, cervelli e programmi , traduzione di Graziella Tonfoni, Milano, 1984, p. 63.
  30. ^ Larry Huser, Chinese room argument , 2001, p. 5.
  31. ^ John R. Searle, Menti, cervelli e programmi , traduzione di Graziella Tonfoni, Milano, 1984, pp. 63-64.

Bibliografia

  • John R. Searle e Graziella Tonfoni, Menti, cervelli e programmi: un dibattito sull'intelligenza artificiale , Milano, 1984, ISBN 8870056147 .
  • John R. Searle, La mente è un programma? , in Le scienze , n. 259, 1990.
  • John R. Searle, Mente, cervello, intelligenza , Bompiani, 1988.
  • John R. Searle, Is the Brain's Mind a Computer Program? , in Scientific American , vol. 262, n. 1, gennaio 1990.
  • Larry Hauser, Chinese room argument , 12 aprile 2001.
  • David Anderson, Jack Copeland, Artificial life and the chinese room argument , Febbraio 2002.
  • Mariano de Dompablo Cordio, Searle's Chinese Room Argument and its Replies: A Constructive Re-Warming and the Future of Artificial Intelligence , in Indiana Undergraduate Journal of Cognitive Science , 2008.
  • Michele Braccini, Intelligenza artificiale: test di Turing e alcune questioni filosofiche.
  • Paul M. Churchland and Patricia Smith Churchland, Può una macchina pensare? , in Le scienze , n. 259, marzo 1990.
  • Stanford Encyclopedia of Philosophy , su plato.stanford.edu . URL consultato il 20 gennaio 2020 .

Collegamenti esterni

Controllo di autorità GND ( DE ) 4730171-5
Neuroscienze Portale Neuroscienze : accedi alle voci di Wikipedia che trattano di neuroscienze