Inteligență artificială

De la Wikipedia, enciclopedia liberă.
Salt la navigare Salt la căutare

Inteligența artificială (sau AI , de la inițialele celor două cuvinte, în italiană [1] ) este o disciplină aparținând informaticii care studiază bazele teoretice, metodologiile și tehnicile care permit proiectarea sistemelor hardware și a programelor software de sisteme capabile de furnizarea computerului electronic cu performanțe care, pentru un observator comun, ar părea a fi responsabilitatea exclusivă a inteligenței umane. "

( Marco Somalvico )

Definițiile specifice pot fi date concentrându-se fie pe procesele interne de raționament, fie pe comportamentul extern al sistemului inteligent și folosind ca măsură a eficacității sau a asemănării cu comportamentul uman sau cu un comportament ideal, numit rațional:

  1. Acționați uman: rezultatul operației efectuate de sistemul inteligent nu se distinge de cel efectuat de un om.
  2. Gândirea umană: procesul care conduce sistemul inteligent să rezolve o problemă este similar cu cel uman. Această abordare este asociată cu știința cognitivă .
  3. Gândirea rațională: procesul care conduce sistemul inteligent să rezolve o problemă este o procedură formală care revine la logică .
  4. Acționați rațional: procesul care conduce sistemul inteligent să rezolve problema este cel care îi permite să obțină cel mai bun rezultat așteptat având în vedere informațiile disponibile.

Inteligența artificială este o disciplină controversată în rândul oamenilor de știință și filosofilor , deoarece manifestă aspecte etice, precum și teoretice și practice. [2] Stephen Hawking în 2014 a avertizat despre pericolele inteligenței artificiale, considerând-o o amenințare la adresa supraviețuirii umanității. [3] [4] Pe 2 august al aceluiași an, Elon Musk a scris de asemenea pe Twitter: «Trebuie să fim foarte atenți la inteligența artificială. Potențial mai periculos decât energia nucleară ". [5]

Istorie

Tradiția cercetării

Au fost mulți pași care au dus la nașterea acestei discipline. Primul, atât în ​​ceea ce privește importanța, cât și ordinea cronologică, este apariția computerelor și interesul continuu pentru acestea. Deja în 1623, datorită lui Willhelm Sickhart , a fost posibil să se creeze mașini capabile să efectueze calcule matematice cu numere de până la șase cifre, chiar dacă nu în mod autonom. În 1642 Blaise Pascal a construit o mașină capabilă să facă operațiuni folosind transportul automat, în timp ce în 1674 Gottfried Wilhelm von Leibniz a creat o mașină capabilă să adauge, să diferențieze și să se înmulțească recursiv. Între 1834 și 1837 Charles Babbage a lucrat la un model de mașină numită motor analitic , ale cărui caracteristici anticipau parțial pe cele ale computerelor moderne. În secolul al XX-lea, accentul pe computere a revenit la lumină: în 1937, de exemplu, Claude Shannon , de la Universitatea Yale, a arătat cum algebra booleană și operațiile binare ar putea reprezenta schimbarea circuitului în interiorul telefoanelor.

Un alt pas important a fost articolul lui Alan Turing scris în 1936, Despre numere computabile, cu o aplicație la problema Entscheidungs [6] , care pune bazele unor concepte precum calculabilitatea , calculabilitatea , mașina Turing , definițiile cardinale pentru computere până la ziua de azi. Mai târziu, în 1943, McCulloch și Pitts au creat ceea ce se crede că este prima lucrare despre inteligența artificială [7] . Acest sistem folosește un model de neuroni artificiali în care starea acestor neuroni poate fi „pornită” sau „oprită”, cu trecerea la „pornit” în prezența stimulilor cauzați de un număr suficient de neuroni înconjurător.

McCulloch și Pitts au ajuns astfel să arate, de exemplu, că orice funcție calculabilă poate fi reprezentată de o rețea de neuroni și că toate conexiunile logice („și”, „sau„, ...) pot fi implementate printr-o structură simplă neuronală . Șapte ani mai târziu, în 1950, doi studenți ai Universității Harvard, Marvin Minsky și Dean Edmonds , au creat ceea ce este recunoscut ca prima rețea neuronală, cunoscută sub numele de SNARC .

Nașterea efectivă a disciplinei (1956)

În 1956, în New Hampshire , la Colegiul Dartmouth , a avut loc o conferință la care au participat câteva dintre figurile de frunte ale câmpului național de calcul dedicat dezvoltării sistemelor inteligente: John McCarthy , Marvin Minsky , Claude Shannon și Nathaniel Rochester . La inițiativa lui McCarthy, o echipă de zece oameni trebuia să creeze o mașină în două luni care să poată simula fiecare aspect al învățării și inteligenței umane. Unii cercetători s-au alăturat acestei inițiative, inclusiv Trenchard More de la Princeton , Arthur Samuel de la IBM și Ray Solomonoff și Oliver Selfridge de la MIT . La aceeași conferință, o altă inițiativă a atras atenția dincolo de proiectul lui McCarthy: programul Allen Newell și Herbert Simon . Acești doi cercetători, spre deosebire de McCarthy, aveau deja un program capabil de o anumită formă de raționament, cunoscut sub numele de teoreticul logicii sau LP, capabil să demonstreze teoreme pornind de la principiile matematicii. Totuși, în aceeași conferință, McCarthy a introdus expresia inteligență artificială , care a marcat de neșters nașterea efectivă a acestei discipline, oferindu-i propria sa natură.

Primele mari așteptări (1950-1965)

Programul creat de Newell și Simon le-a permis să progreseze și să creeze un program numit General Problem Solver sau GPS. Spre deosebire de LP, GPS-ul a fost conceput cu scopul de a imita procesele de rezolvare a problemelor utilizate de oameni (în special așa-numita „euristică a mijloacelor” [8] ). În cazurile limitate în care programul ar putea funcționa, sa observat că abordarea cu care programul a luat în considerare obiectivele și acțiunile era comparabilă cu una umană. În aceiași ani, la IBM, Rochester și colegii săi au început să dezvolte alte programe capabile să raționeze.

În 1959, Herbert Gelemter a creat Geometry Theorem Prover , un program capabil să demonstreze teoreme geometrice complexe. Anul precedent, la MIT, McCarthy a adus o altă contribuție la domeniul inteligenței artificiale prin definirea a ceea ce timp de treizeci de ani a fost recunoscut drept limbajul de programare dominant pentru realizarea sistemelor de inteligență artificială: Lisp . În plus, McCarthy a scris o lucrare intitulată Programs with Common Sense [9] , în care descrie un program ideal, numit Advice Taker , care poate fi văzut ca primul sistem inteligent complet. Spre deosebire de LP și GPS, Advice Taker a fost conceput pentru a găsi soluții la probleme de diferite tipuri, care nu sunt strict matematice.

Minsky, în timpul petrecut la MIT, a coordonat crearea de programe pentru a aborda ceea ce se numește micro lumi , adică probleme limitate descrise de afirmații care necesită utilizarea raționamentului pentru a rezolva. Dintre acestea, programul lui James Slagle din 1963, SAINT , a reușit să rezolve probleme cu calcul integral în formă închisă, tipic primului an de facultate.

Primele dificultăți (1966-1969)

Printre diferitele aspirații ale cercetătorilor a fost în principal aceea de a crea mașini capabile să prezinte abilități de raționament similare cu cele ale oamenilor. De exemplu, Herbert Simon , în 1957, a estimat că în zece ani vor exista mașini capabile să concureze cu campioni de șah (predicție care se va împlini, dar după patruzeci de ani). Aceste aspirații, însă, au trebuit să se confrunte cu unele dificultăți: în primul rând, lipsa absolută a cunoștințelor semantice referitoare la domeniile tratate de mașini, deoarece capacitatea lor de raționament era limitată la o simplă manipulare sintactică. Datorită acestei dificultăți, în 1966 guvernul Statelor Unite ale Americii a oprit finanțarea pentru dezvoltarea de mașini de traducere. O altă problemă a fost imposibilitatea de a face față multor probleme propuse de inteligența artificială. Acest lucru se datorează faptului că se credea că „scalarea” dimensiunii unei probleme era doar o chestiune de hardware și memorie.

Acest tip de optimism a fost curând stins când cercetătorii nu au reușit să demonstreze teoremele din mai mult de o duzină de axiome. Prin urmare, s-a înțeles că a avea un algoritm care, la nivel teoretic, era capabil să găsească o soluție la o problemă nu însemna că un program corespunzător era capabil să îl calculeze efectiv la un nivel practic. Un al treilea tip de dificultate au fost limitările care stau la baza logicii, în sensul raționamentului, a computerelor. În lucrarea de Minsky și Papert, intitulată Perceptrons (1969), s-a arătat că, deși un perceptron (o formă simplă de rețea neuronală) era capabil să învețe orice funcție ar putea reprezenta, un perceptron cu două intrări nu era capabil să reprezinte un funcție care recunoaște când cele două intrări sunt diferite.

Sisteme bazate pe cunoaștere (1969-1979)

Dificultățile anterioare au condus la definirea abordărilor adoptate de mașini ca abordări slabe , necesitând astfel o cunoaștere mai mare inerentă domeniului de aplicare. În 1969, grație lui Ed Feigenbaum (elevul lui Herbert Simon ), Bruce Buchanam și Joshua Lederberg , a fost creat programul DENDRAL . Acest program a fost capabil, pornind de la informațiile privind masa moleculară obținute de la un spectrometru, să reconstruiască structura unei molecule. Prin urmare, acest program a fost primul dintre sistemele bazate pe o utilizare intensivă a cunoștințelor, care ulterior a ajuns să încorporeze toate conceptele teoretizate de McCarthy pentru Advice Taker . Ulterior, Feigenbaum a început proiectul programului euristic ( HPP ) împreună cu alți cercetători din Stanford, pentru a extinde scenariile de aplicare a acestor sisteme, începând cu sistemul MYCIN în domeniul diagnosticului infecției cu sânge. Apoi am început să teoretizăm sisteme cunoscute sub numele de sisteme expert , adică capabile să dețină cunoștințe expert într-un scenariu de aplicație dat.

De la mediul academic la industrie (1980-1985)

Primul sistem comercial de inteligență artificială a fost R1, utilizat de Digital Equipment în 1982. Scopul programului a fost de a ajuta la configurarea comenzilor pentru computerele noi. În 1986, a reușit să economisească companiei 40 de milioane de dolari pe an. De asemenea, DuPont a folosit sisteme similare, economisind aproximativ zece milioane de dolari pe an. În anii 1980, aproape fiecare mare companie americană avea propriul sistem expert în funcțiune și studia sisteme mai avansate. În 1981, în Japonia a fost anunțat proiectul Fifth Generation , un plan pe zece ani pentru construirea de sisteme inteligente bazate pe Prolog . Ca răspuns, Statele Unite ale Americii au creat Microelectronics and Computer Technology Corporation (MCC), ca un consorțiu de cercetare pentru a asigura competitivitatea națională. În Anglia, raportul Alvey a recuperat fondurile reduse din raportul Lighthill , care, în 1973, a condus guvernul britanic să înceteze să susțină cercetarea în domeniul inteligenței artificiale. Cu toate acestea, aceste proiecte nu și-au atins obiectivele propuse. Industria inteligenței artificiale a atins o cifră de ordinul miliardelor de dolari în 1988, inclusiv sute de companii care creează sisteme de experți, roboți și software și hardware specializat în aceste sectoare.

Revenirea rețelelor neuronale (1986-)

La mijlocul anilor 1980, algoritmul de învățare pentru rețelele neuronale numit propagare înapoi , conceput inițial în 1969 de Bryson și Ho, a fost reinventat. Algoritmul a fost aplicat multor probleme legate de învățare, inerente atât în ​​partea informatică, cât și în cea a psihologiei. Așa-numitele modele conexioniste pentru realizarea sistemelor inteligente au fost văzute ca alternative la modelele simbolice concepute de Newell și Simon, de McCarthy și colaboratorii lor. Aceste modele au încercat să răspundă acelor întrebări la care modelele anterioare nu reușiseră, dar parțial și ele au eșuat. În consecință, modelele bazate pe abordarea simbolică și cele cu abordare conexionistă au fost văzute ca fiind complementare.

Inteligența artificială în zilele noastre (1986-)

În zilele noastre, sistemele inteligente sunt prezente în toate domeniile, chiar și în activitățile zilnice și excelează în jocuri, așa cum au teoretizat ani mai devreme exponenții inteligenței artificiale. Există programe care au reușit să concureze cu campioni de șah , precum Deep Blue ; altele care au fost utilizate în misiuni spațiale, cum ar fi în 1998 când NASA a folosit un program numit Remote Agent capabil să gestioneze activități legate de un sistem spațial; unele mașini sunt acum echipate cu un sistem capabil să le conducă fără utilizarea unui șofer uman, deci într-un mod complet autonom. În contextul unor scenarii mai cotidiene, în schimb, gândiți-vă la termostate pentru încălzire și aer condiționat capabile să anticipeze schimbarea temperaturii, să gestioneze nevoile locuitorilor și să interacționeze cu alte dispozitive. În domeniul economic, rata ocupării forței de muncă în general este deosebit de sensibilă la schimbări [10], ca în fintech, unde are loc cea mai profundă revoluție. [11] [12] [13]

Principiile Asilomar

În 2017, în urma conferinței experților mondiali în inteligență artificială promovată de Institutul Viitorul Vieții, a fost elaborat un vademecum cu 23 de principii cu un consens foarte larg pentru a aborda problemele etice, sociale, culturale și militare ale AI. Documentul a fost imediat semnat de peste 800 de experți și ulterior de alți mii [14] [15] .

Principiile Asilomar

1. OBIECTIVUL CERCETĂRII: Scopul cercetării AI trebuie să fie acela de a crea o inteligență de care puteți beneficia și nu o inteligență fără un scop. 2. FINANȚAREA CERCETĂRII: Investițiile în AI trebuie să fie corelate cu finanțarea cercetării pentru a asigura o utilizare de care poate beneficia, inclusiv probleme spinoase în IT, economie, drept, etică și studii economice: - Cum putem face sistemele de AI de viitorul foarte robust, astfel încât să nu funcționeze defectuos sau să fie piratat? - Cum ne putem crește prosperitatea prin automatizare, menținând în același timp resursele și scopurile oamenilor? - Cum ne putem actualiza sistemele juridice pentru a le face mai corecte și mai eficiente, pentru a merge mână în mână cu AI și pentru a gestiona riscurile asociate acesteia? - Cu ce ​​fel de valori ar trebui să aliniem IA și cu ce statuturi juridice și etice să îi atribuim? 3. LEGĂTURI ÎNTRE POLITICĂ ȘI ȘTIINȚĂ: Ar trebui să existe un schimb constructiv și sănătos între cercetătorii AI și politicieni. 4. CULTURA CERCETĂRII: o cultură a cooperării, încrederii și transparenței ar trebui să constituie baza celor implicați în cercetarea și dezvoltarea AI. 5. EVITAȚI RUNSURILE: Echipele de dezvoltare a sistemelor AI trebuie să coopereze activ pentru a evita comenzile rapide în detrimentul sistemelor de securitate. 6. SECURITATE: Sistemele AI trebuie să fie sigure și protejate pe tot parcursul ciclului lor de viață și verificabile în fezabilitatea lor. 7. TRANSPARENȚA ÎN CAZ DE ECHIPAMENT: atunci când un sistem AI provoacă daune, ar fi posibil să se descopere cauzele. 8. TRANSPARENȚA HOTĂRĂRILOR: Orice implicare a unui sistem autonom de luare a deciziilor în materie de justiție ar trebui să ofere explicații satisfăcătoare și verificabile de către autoritățile umane competente. 9. RESPONSABILITATE: Proiectanții și constructorii de sisteme avansate de AI joacă un rol activ în implicațiile morale ale utilizării și abuzului lor, precum și acțiunilor și au responsabilitatea și oportunitatea de a modela aceste implicații. 10. ALINIEREA VALORILOR: Sistemele AI extrem de autonome ar trebui proiectate astfel încât obiectivele și comportamentele lor să poată asigura că sunt aliniate cu valorile umane la fiecare operație. 11. VALORI UMANE: Sistemele de IA trebuie proiectate și gestionate pentru a fi compatibile cu idealurile demnității umane, drepturilor, libertăților și diversității culturale. 12. CONFIDENȚIALITATE PERSONALĂ: Persoanele fizice ar trebui să aibă dreptul de a accesa, gestiona și controla datele pe care le generează și, în același timp, să ofere sistemelor de IA capacitatea de a analiza și utiliza aceste date. 13. LIBERTATE ȘI CONFIDENȚIALITATE: aplicarea AI la datele cu caracter personal nu trebuie să limiteze nerezonabil ideea de libertate a oamenilor, atât reală, cât și percepută. 14. BENEFICII ÎMPĂRȚITE: tehnologiile AI ar trebui să beneficieze și să potențeze cât mai mulți oameni posibil. 15. PROSPERITATE COMUNĂ: prosperitatea economică creată de AI ar trebui împărtășită pe scară largă, în beneficiul întregii umanități. 16. CONTROLUL UMAN: Omul ar trebui să aleagă cum și dacă să delege deciziile către sistemele de IA pentru a-și atinge obiectivele umane. 17. NON-SUPRAVERSIE: Puterea conferită de controlul sistemelor de IA foarte avansate ar trebui să respecte și să consolideze, mai degrabă decât să subverseze, procesele sociale și civile din bunăstarea societății. 18. CURSA ARMELOR AI: ar trebui evitată o cursă de înarmare cu arme autonome letale. 19. GRADE DE PRECAUȚIE: În cazul lipsei consimțământului, ar trebui să evităm ipotezele puternice cu privire la limitele maxime ale capacităților viitoare ale AI. 20. IMPORTANȚĂ: IA avansată ar putea reprezenta o schimbare profundă în istoria vieții pe Pământ și ar trebui să fie planificată și gestionată cu grijă și resurse proporționale. 21. RISCURI: riscurile asociate sistemelor de IA, în special riscurile catastrofale sau existențiale, trebuie să fie supuse eforturilor de planificare și atenuare, astfel încât să fie proporționale cu impactul lor așteptat. 22. ÎMBUNĂTĂȚIRE PERSONALĂ RECURSIVĂ: Sistemele de IA concepute să se auto-îmbunătățească sau să se auto-reproducă în mod recurent, astfel încât să poată duce la o creștere rapidă a calității sau cantității, trebuie să fie supuse unor măsuri stricte de securitate și control. 23. BINE COMUN: Superinteligența ar trebui dezvoltată exclusiv în serviciul idealurilor etice împărtășite pe scară largă și în beneficiul întregii umanități, mai degrabă decât a unei singure țări sau organizații.

Codul etic al UE pentru inteligența artificială

Pictogramă lupă mgx2.svg Același subiect în detaliu: Etica inteligenței artificiale .

Plecând de la premisa că guvernele trebuie să garanteze utilizarea inteligenței artificiale cu cel mai mare respect pentru etică, în aprilie 2019, Uniunea Europeană a elaborat Codul său de etică , care conține orientări privind utilizarea și dezvoltarea sistemelor de inteligență artificială. Documentul, care a fost pregătit de un grup de 52 de experți, reprezentați de informaticieni, ingineri, dar și de juriști, filosofi, industriași, matematicieni, a avut un proces îndelungat și diferite etape de studiu [16] .

Punctul de plecare al întregului document și al tuturor principiilor juridice care au apărut din acesta este că Inteligența artificială trebuie să aibă omul în centru și trebuie să fie în slujba binelui comun pentru a îmbunătăți bunăstarea și a garanta libertatea. În primul rând, grupul de experți a identificat bazele juridice pe care ar trebui să se sprijine codul, căutându-le în Tratatele UE , Carta drepturilor și dreptul internațional al drepturilor omului . Din această analiză, au fost identificate acele drepturi obligatorii care, în Uniunea Europeană, trebuie respectate pentru inteligența artificială, și anume:

  • Respectarea demnității omului
  • Libertatea individului
  • Respect pentru democrație și justiție
  • Egalitate și nediscriminare
  • Drepturile cetățenilor

În acest moment a fost posibil să se ofere indicații cu privire la care au fost principiile etice care trebuie urmate în Uniune pentru a se asigura că sistemele de inteligență artificială sunt exploatate în mod fiabil, adică: respectarea autonomiei umane, prevenirea vătămării, corectitudinea și corectitudinea [17] .

Ultima fază a activității grupului de experți a fost elaborarea liniilor directoare ale UE privind codul de etică pe care companiile, cercetătorii și comunitățile în general vor trebui să le urmeze și care reprezintă traducerea operațională și sinteza drepturilor și principiilor fundamentale enumerate. de mai sus. [18] .

Instrucțiuni

  • Supravegherea umană: Inteligența artificială trebuie să fie în serviciul omului și nu trebuie să reducă, să limiteze sau să inducă în eroare autonomia acesteia, în plus, nu trebuie dezvoltate sisteme care pun în pericol drepturile fundamentale ale omului. Persoana trebuie să rămână autonomă și capabilă să supravegheze sistemul în sine.
  • Robustețe și securitate tehnică: algoritmii trebuie să fie fiabili și dezvoltați astfel încât securitatea să nu fie pusă în pericol pe parcursul întregului ciclu de viață al sistemului.
  • Confidențialitate și guvernare a datelor: cetățenii trebuie să fie informați întotdeauna cu privire la utilizarea datelor lor cu caracter personal, în deplină conformitate cu legislația UE privind confidențialitatea pentru întregul ciclu de viață al sistemului care utilizează inteligența artificială.
  • Transparență: transparența înseamnă trasabilitatea sistemelor de inteligență artificială. Toate datele utilizate, inclusiv algoritmii, trebuie să fie documentate, doar astfel se vor putea înțelege motivele pentru care, de exemplu, o decizie bazată pe inteligența artificială a fost luată incorect.
  • Diversitate, absența discriminării, corectitudine: sistemele de inteligență artificială trebuie să ia în considerare toate capacitățile și abilitățile umane, garantând accesibilitatea tuturor.
  • Bunăstare socială și de mediu: sistemele de inteligență artificială trebuie utilizate pentru a sprijini schimbările pozitive de mediu și pentru a urmări obiective de dezvoltare durabilă [19] .
  • Responsabilitate: trebuie adoptate mecanisme de responsabilitate în raportarea datelor și algoritmilor utilizați în sistemele de inteligență artificială. Acest proces de evaluare vă permite să minimizați orice impact negativ.

Cercetare

Problema complexă a dezvoltării sistemelor care prezintă comportamente inteligente a fost abordată prin descompunerea în subprobleme, fiecare cu un domeniu de cercetare specific. Fiecare subproblemă constă în studierea anumitor abilități și proprietăți care caracterizează sistemul inteligent.

În ceea ce privește domeniul de aplicare al unui sistem inteligent dat, acesta va prezenta soluții mai mult sau mai puțin avansate pentru fiecare subproblemă.

Inteligență artificială puternică și slabă

O distincție principală în cercetarea în domeniul inteligenței artificiale este aceea a inteligenței artificiale slabe și a inteligenței artificiale puternice în funcție de faptul dacă sunt reproduse doar unele sau toate funcțiile minții umane.

Deducerea, raționamentul și rezolvarea problemelor

Cercetătorii s-au concentrat inițial pe dezvoltarea algoritmilor care imitau cu fidelitate raționamentul folosit de oameni pentru a rezolva jocuri sau pentru a face deducții logice, astfel încât acestea să poată fi integrate în sisteme inteligente. Astfel de algoritmi se bazează de obicei pe o reprezentare simbolică a stării lumii și caută secvențe de acțiuni care ating o stare dorită. Evoluțiile acestor algoritmi au fost făcute luând în considerare aspecte mai complexe, cum ar fi incertitudinea sau incompletitudinea informațiilor, inclusiv concepte din probabilitate , statistici și economie .

Datorită dificultăților legate de complexitatea intrinsecă a problemelor luate în considerare, algoritmii pentru rezolvarea lor pot necesita uneori resurse de calcul enorme. Optimizarea algoritmului este o prioritate absolută în cadrul cercetărilor în acest domeniu.

Reprezentarea cunoștințelor

Pictogramă lupă mgx2.svg Același subiect în detaliu: reprezentarea cunoștințelor și ingineria cunoștințelor .

Reprezentarea cunoștințelor și ingineria cunoștințelor sunt contribuții centrale la cercetarea în inteligență artificială.

În special, aceste discipline se concentrează asupra tipului de cunoștințe care este necesar sau adecvat pentru a se integra într-un sistem inteligent și asupra modului de reprezentare a diferitelor tipuri de informații. Printre lucrurile pe care trebuie să le reprezinte un sistem inteligent le găsim frecvent: obiecte, proprietăți, categorii și relații între obiecte, situații, evenimente, stări, timp, cauze și efecte, cunoștințe posedate de alții. Reprezentarea și ingineria cunoașterii sunt adesea asociate cu disciplina filosofică a ontologiei .

Cunoașterea și reprezentarea sa sunt deosebit de importante pentru acea categorie de sisteme inteligente care își bazează comportamentul pe o reprezentare explicită extinsă a cunoașterii mediului în care operează.

Planificare

Pictogramă lupă mgx2.svg Același subiect în detaliu: Planificarea .

Pentru a permite sistemelor inteligente să prezică și să reprezinte statele viitoare ale lumii și să ia decizii pentru a ajunge la acele state prin maximizarea valorii așteptate a acțiunilor, acestea trebuie să fie capabile să definească obiectivele și să le urmărească.

În problemele clasice de planificare, un sistem inteligent poate presupune că este singura entitate care operează în mediu și poate fi absolut sigur de consecințele oricărei acțiuni întreprinse. Dacă nu este singurul actor din mediu sau dacă mediul nu este determinist, un sistem inteligent trebuie să monitorizeze constant rezultatul acțiunilor sale și să actualizeze previziunile și planurile viitoare.

Învăţare

Pictogramă lupă mgx2.svg Același subiect în detaliu: Învățarea automată și rețeaua neuronală artificială .

Învățarea automată este disciplina care studiază algoritmi capabili să îmbunătățească automat performanța cuiva prin experiență. A fost un domeniu crucial de cercetare în cadrul inteligenței artificiale încă de la începuturile sale.

Învățarea automată este deosebit de importantă pentru dezvoltarea sistemelor inteligente, în principal din trei motive:

  • Dezvoltatorii unui sistem inteligent cu greu pot prevedea toate situațiile posibile în care sistemul în sine poate fi găsit să funcționeze, cu excepția contextelor extrem de simple.
  • Dezvoltatorii unui sistem inteligent cu greu pot prezice toate schimbările posibile ale mediului în timp.
  • O categorie largă de probleme poate fi rezolvată mai eficient utilizând soluții care implică învățarea automată. Această categorie de probleme include, de exemplu, jocul de șah și recunoașterea obiectelor.

Prelucrarea limbajului natural

Pictogramă lupă mgx2.svg Același subiect în detaliu: Prelucrarea limbajului natural .

Capacitatea de a procesa limbajul natural oferă sistemelor inteligente capacitatea de a citi și a înțelege limbajul folosit de oameni. Această capacitate se dovedește esențială în toate aplicațiile de inteligență artificială care necesită căutarea informațiilor, răspunsul la întrebări, traducerea sau analiza textelor.

La difficoltà principale di questo processo è l'intrinseca ambiguità che caratterizza i linguaggi naturali, per questo motivo le soluzioni richiedono un'estesa conoscenza del mondo e una notevole abilità nel manipolarlo.

Movimento e manipolazione

Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: Robotica .

La robotica è una disciplina strettamente correlata con l'intelligenza artificiale.

I robot possono essere considerati sistemi intelligenti per tutti quei compiti che richiedono capacità di livello cognitivo per la manipolazione o lo spostamento di oggetti e per la locomozione, con i sotto-problemi della localizzazione (determinare la propria posizione e quella di altre entità nello spazio), della costruzione di mappe (apprendere le caratteristiche dello spazio circostante), e della pianificazione ed esecuzione dei movimenti.

Metodi

Agente intelligente

Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: Agente intelligente .

Il concetto di agente intelligente (o agente razionale ) è centrale in molti degli approcci più comuni all'intelligenza artificiale.

Un agente è un'entità in grado di percepire l'ambiente attraverso l'utilizzo di sensori e in grado di agire sull'ambiente attraverso l'utilizzo di attuatori . Ogni agente è quindi associato a una sequenza di percezioni , intesa come la cronologia completa di tutti i rilevamenti effettuati da ciascun sensore, ea una funzione agente , che specifica il comportamento dell'agente associando a ogni sequenza di percezioni un'azione da compiere.

Definita misura della performance una funzione che associa a ogni stato (o sequenza di stati) dell'ambiente un valore di utilità, un agente è intelligente (o razionale ) se per ogni possibile sequenza di percezioni la sua funzione agente lo porta a compiere sempre l'azione che massimizza il valore atteso della misura della performance, data la sua conoscenza definita dalla sequenza di percezioni stessa e dalla conoscenza integrata nell'agente.

Esistono metodologie differenti per l'implementazione concreta della funzione agente, ciascuna più o meno adatta al tipo di ambiente in cui è posto l'agente.

Agenti reattivi semplici

Questa categoria di agenti seleziona l'azione da compiere sulla base della percezione corrente, ignorando completamente la cronologia delle percezioni.

Agenti basati su modello

Questa categoria di agenti è caratterizzata dal mantenere uno stato interno che dipende dalla cronologia delle percezioni e contemporaneamente riflette alcuni degli aspetti dell'ambiente non osservati.

L'aggiornamento dello stato richiede due tipi di conoscenza:

  • dei modelli che descrivono l'evoluzione dell'ambiente indipendentemente dalle azioni compiute dall'agente,
  • dei modelli che descrivono l'effetto delle azioni dell'agente sull'ambiente.

Agenti basati su obiettivi

In molte applicazioni, tenere traccia dello stato attuale dell'ambiente non è sufficiente per determinare le azioni da compiere, ma l'agente necessita di informazioni che rappresentano situazioni desiderabili, che prendono il nome di obiettivi, o goal . Questo tipo di agenti intelligenti è quello in cui maggiormente vengono impiegati i concetti di pianificazione e ricerca per problem solving.

Agenti basati su utilità

Il concetto di goal da solo non è sufficiente per ottenere dei comportamenti qualitativamente elevati in molte applicazioni, poiché l'informazione contenuta può essere utilizzata esclusivamente per distinguere gli stati desiderabili dagli stati non desiderabili. Attraverso il concetto di utilità è invece possibile caratterizzare in maniera precisa ogni stato, determinando quanto ogni stato è utile al fine del buon comportamento dell'agente.

Applicazioni

L'intelligenza artificiale è stata impiegata in un'ampia varietà di campi e applicazioni come la medicina , il mercato azionario , la robotica , la legge , la ricerca scientifica e perfino i giocattoli. In alcune applicazioni, l'intelligenza artificiale si è radicata a tal punto all'interno della società o dell'industria da non essere più percepita come intelligenza artificiale. [20]

Anche nel campo dell'informatica stessa, molte soluzioni sviluppate originariamente per rispondere a problemi o necessità dell'intelligenza artificiale sono state adottate da altre discipline e non vengono più considerate parte dell'intelligenza artificiale. In particolare: time-sharing , interprete (informatica) , interfaccia grafica , mouse , la struttura dati lista concatenata , la programmazione funzionale , la programmazione simbolica , la programmazione dinamica e laprogrammazione orientata agli oggetti .

Il primo utilizzo dell'intelligenza artificiale nelle banche è datato 1987 quando la Security Pacific National Bank negli USA organizzò una task force per la prevenzione delle frodi legate all'utilizzo non autorizzato delle carte di credito. Attualmente, e non solo in ambito bancario, le reti neurali vengono utilizzate per identificare fenomeni non riconducibili a un comportamento nominale e che richiedono un intervento umano.

Le reti neurali sono anche largamente impiegate per supportare le diagnosi mediche, e molte altre applicazioni sono attualmente in sviluppo, come ad esempio:

  • Interpretazione delle immagini mediche.
  • Analisi del suono del cuore [21] .
  • Diagnosi del cancro [22] .
  • Creazione di medicine.
  • Robot di accompagnamento per gli anziani [23] .

L'intelligenza artificiale è largamente utilizzata per la realizzazione di assistenti automatici online principalmente dalle compagnie telefoniche e di telecomunicazione, con l'intento di ridurre i costi di assunzione e formazione del personale.

Anche nell'ambito dei trasporti l'utilizzo dell'intelligenza artificiale sta aumentando rapidamente [24] . Applicazioni della logica fuzzy sono state impiegate nella realizzazione di cambi di velocità per le automobili. Le automobili a guida autonoma sviluppate da Google e Tesla fanno largamente uso di tecniche di intelligenza artificiale [25] [26] .

L'intelligenza artificiale viene anche impiegata nel campo della videosorveglianza. Gli algoritmi consentono il riconoscimento degli oggetti presenti nella scena al fine di generare allarmi.

Ultimo, ma non per importanza, è l'applicazione di reti neurali complesse nella generazione di testi, o meglio, nella trasformazione di un input generalmente testuale in un output anch'esso espresso in caratteri. In particolar modo negli ultimi anni, OpenAI ha rilasciato numerose versioni del suo "modello" denominato GPT, il quale ha riscontrato notevole successo e scalpore. Attraverso questo modello basato su una particolare rete neurale, è stato possibile generare dei racconti, riassumere automaticamente dei testi, tradurre in maniera sempre più precisa da una lingua all'altra. Attraverso questa disciplina le applicazioni sono le più disparate, tra cui, degno di nota ea forte impatto sociale, quello riguardo al binomio giornalismo e scrittura. Il Washington Post ad esempio, gìà nel 2017 dichiarò di aver pubblicato in un anno 850 news elaborate da un'intelligenza artificiale. Storykube [27] sfrutta l'intelligenza artificiale a supporto della stesura di news e loro fact-checking. E infine il giornale canadese The Globe and Mail, interamente diretto da una intelligenza artificiale [28] .

Il mercato dell'intelligenza artificiale in Italia

Il mercato italiano dell'intelligenza artificiale si presenta ancora agli albori, ma le prospettive per il futuro sono positive: nel 2018 ha raggiunto un valore di 85 milioni di euro , una cifra che fa riferimento agli investimenti nello sviluppo e nell'implementazione di progetti come:

  • sviluppo di algoritmi di IA;
  • hardware per l'immagazzinamento e l'elaborazione di dati;
  • software per la gestione dei dati;
  • servizi di integrazione e personalizzazione.

Per capire il valore dell'intelligenza artificiale nel contesto tecnologico italiano, è sufficiente notare come si intreccia con altre tendenze digitali come la Cloud Transformation e l' Internet of Things [29] . Il primo rende scalabile l'infrastruttura necessaria alla raccolta ed elaborazione dei dati , mentre il secondo crea dispositivi e sensori utili non solo per la raccolta dati ma anche per veicolare servizi basati sull'IA [29] .

Il significato di IA per le aziende italiane

I media e le aziende stanno rivolgendo sempre più l'attenzione verso il tema dell'intelligenza artificiale, ma questo talvolta comporta una visione poco chiara su questa tecnologia. Infatti, spesso le aziende ritengono che si tratti di una soluzione in grado di replicare completamente l'intelligenza umana, ma questa definizione, che si rifà all'approccio dell' intelligenza artificiale forte , ha poco a che fare con le applicazioni effettive di questa disciplina. D'altra parte, le aziende con una maggiore consapevolezza sul tema, ritengono che l'IA si definisca come un insieme di sistemi dotati di capacità tipiche degli esseri umani.

Intelligenza Artificiale e disoccupazione

Un grande problema economico legato all'implementazione di intelligenze artificiali nel mondo del lavoro è la disoccupazione che essa inevitabilmente provoca. Sempre più persone infatti perdono il lavoro perché un'IA li ha sostituiti.

Il futuro dell'intelligenza artificiale in Italia

Benché le aziende italiane nel complesso non abbiano ancora una visione omogenea sul tema, si individuano già aree di sviluppo particolarmente interessanti:

  • Smart home speaker

Si tratta di assistenti vocali intelligenti in grado di gestire oggetti intelligenti presenti in casa . Sono stati introdotti di recente, ma il loro mercato in Italia vale già 60 milioni di euro e il valore sembra destinato a crescere: in un futuro non troppo lontano, questi assistenti potrebbero fungere da canale con cui veicolare servizi e applicazioni legate al mondo dell'AI, creando nuove opportunità di sviluppo per le aziende del settore.

  • Robot intelligenti

A questa categoria appartengono i collaborative robot e gli AGV ( Automated Guided Vehicle ). I primi collaborano con un operatore umano e sono in grado di adattare il proprio comportamento agli stimoli esterni, mentre i secondi si adattano all'ambiente esterno muovendosi in autonomia, senza il supporto di guide fisiche o percorsi predeterminati. [30]

  • Tutor Intelligenti

A questa categoria appartengono gli avatar degli Edugames oppure dei robot che all'interno dei musei, e altri luoghi dell'apprendimento, guidano i discenti-visitatori e fungere dai docenti-educatori artificiali [31] [32] [33] [34] .

AI for Good

AI for Good è la piattaforma informatica dell' ONU che ha l'obiettivo di promuovere il dialogo nella comunità scientifica finalizzato allo sviluppo di progetti concreti nell'ambito dell'intelligenza artificiale, mediante un uso etico e orientato al bene comune di questa famiglia di tecnologie.

A partire dal 2017, AI for Good organizza ogni anno un evento globale, la cui quarta edizione è fissata per il 21 settembre 2020 a Ginevra, in Svizzera. L'iniziativa operando in relazione a obiettivi di respiro globale [35] [36] , in particolare riguardo allo sviluppo sostenibile , e si propone di ottenere risultati più immediati e concreti rispetto ai documenti programmatici e di indirizzo generalmente prodotti dai meeting dell'ONU.

Le applicazioni di intelligenza artificiale sono state classificate in tre macrocategorie: AI per la Terra ( AI for Earth ) [37] [38] , AI per fini umanitari ( Humanitarian AI ) [39] [40] e AI per l' assistenza sanitaria ( AI for Healthcare ). [41]

Il primo AI for Good Global Summit si è tenuto dal 7 al 9 giugno 2017 a Ginevra [42] [43] [44] è stata la creazione di un focus group del' ITU-T in tema di apprendimento automatico per la tecnologia di connessione 5G . [45]

Il secondo AI for Good Global Summit si è svolto dal 15 al 17 maggio 2018 presso la sede dell' ITU a Ginevra, e ha prodotto un totale di 35 progetti [46] , anche in collaborazione con l' OMS per la categoria AI 4 Health (FG-AI4H). [47] [48] [49]
Fra i relatori erano presenti Roger Penrose e Samantha Cristoforetti . [50] [51] In tale occasione, è stato attivato un repository dei progetti di AI for Goods e dei relativi esempi finalizzato agli obbiettivi dello sviluppo sostenibile [52] [53] , mentre l'ITU ha lanciato la rivista ICT Discoveries [54] , la cui prima edizione straordinaria è stata dedicata all'intelligenza artificiale. [55]

Il terzo AI for Good Global Summit ha avuto luogo dal 28 maggio al 31 maggio 2019, sempre nella città svizzera che è sede dell'ONU [56] , relativamente alle applicazioni civili e militari dell'AI nello spazio, quali ad esempio le previsioni meteorologiche affidabili entro un orizzonte temporale di 2 settimane, la previsione di asteroidi e corpi celesti in rotta di collisione con la Terra, il monitoraggio delle migrazioni animali di balene o specie in via di estinzione, la gestione satellitare di servizi basati sula geolocalizzazione (come il controllo automatico di autoveicoli privi di guidatore). [57]

Critiche e controversie

Una maggiore attenzione è rivolta alle implicazioni etiche, ambientali e sociali dell'intelligenza artificiale e alla necessità di aumentare la trasparenza e la responsabilità delle grandi aziende tecnologiche per i loro algoritmi. Le principali critiche si riferiscono a:

  • Pregiudizio algoritmico
  • La mancanza di responsabilità per i risultati generati dagli algoritmi "black-box” [58]
  • Approvvigionamento non etico di minerali rari utilizzati nei dispositivi alimentati dall'IA [59]
  • Impronta ambientale dei datacenter, il loro utilizzo di energia e acqua [60] [61]
  • Sfruttamento del lavoro digitale "clickwork" coinvolto nell'etichettatura dei dati per IA training e nella moderazione dei contenuti [60]
  • Manipolazione algoritmica delle preferenze di consumo e di voto degli utenti [62]

Dibattito filosofico

Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: Funzionalismo (filosofia della mente) e Qualia .

Rispondere alla domanda “Può una macchina pensare?” è dibattito tuttora aperto a causa di argomentazioni a favore ( Daniel Dennett , Hilary Putnam , Roger Penrose ) e contro ( Hubert Dreyfus , John Searle , Gerald Edelman , Jerry Fodor ) .

Esistono due correnti filosofiche diverse che cercano di definire una macchina intelligente come prodotto della:

  • Intelligenza artificiale debole (weak AI) : alla base di questo pensiero sta la convinzione che una macchina possa essere programmata con delle regole ben definite, in modo da comportarsi in modo intelligente.
  • Intelligenza artificiale forte (strong AI) : alla base di questo pensiero sta il fatto che una macchina agisca in modo intelligente implica che essa sia anche cosciente di come realmente si comporta.

Nel 1950 Alan Turing , nel suo articolo “Computing Machinery and Intelligence” [63] , porta il dibattito filosofico a un livello più pragmatico, dando una definizione operativa di intelligenza basata su un test comportamentale inventato da lui stesso, chiamato "The Imitation Game" e ricordato anche come " Test di Turing ".

Il test si basa sull'esistenza di tre stanze allineate in cui nella prima c'è un uomo e nell'ultima una donna; in quella centrale invece risiede l'interrogante. L'uomo e la donna possono comunicare messaggi di testo solamente con l'interrogatore scrivendo tramite una tastiera e leggendo tramite uno schermo. L'obiettivo della donna è quello di farsi identificare come donna, mentre quello dell'uomo è quello di trarre in inganno l'interrogante, facendogli credere di essere una donna. Il gioco è ripetuto una seconda volta, scambiando l'uomo con una macchina.

La macchina è definita come intelligente se la frequenza con cui l'interrogante individua correttamente l'uomo e la donna è almeno la stessa con cui individua correttamente la macchina e la donna.

Una macchina può quindi ritenersi intelligente se e solo se si comporta come un essere umano, quindi solo se riesce a ingannare l'interrogante come farebbe un uomo.

In seguito, John Searle descrive nell'articolo "Minds, Brains and Programs" [64] un esperimento mentale contro l'intelligenza artificiale forte, chiamato “la stanza cinese ”. Egli vuole dimostrare che una macchina in grado di superare il test di Turing, non è capace di capire cosa succede al suo interno; non è, quindi, cosciente di come agisce. L'esperimento consiste in una persona che conosce solo l'inglese, munita di un libro di grammatica cinese scritto in inglese e vari fogli, alcuni bianchi e alcuni con dei simboli. La persona è dentro alla stanza con una piccola finestra verso l'esterno. Attraverso la finestra appaiono simboli indecifrabili. La persona trova delle corrispondenze con i simboli del libro delle regole e segue le istruzioni. Le istruzioni possono includere scrivere simboli su un nuovo foglio, trovare nuovi simboli, ecc. Infine, questi fogli scritti verranno passati al mondo esterno, attraverso la finestra. Per un osservatore esterno, la macchina sta ricevendo simboli cinesi, li sta elaborando e sta rispondendo con altri simboli, esattamente come farebbe un uomo cosciente. In questo senso, secondo il test di Turing dovrebbe essere ritenuta intelligente. Il problema, che sottolinea Searle, è che in realtà al suo interno, niente della macchina conosce effettivamente il cinese, per cui non è cosciente di quello che sta effettivamente facendo. Secondo Searle essa sta semplicemente seguendo un insieme di regole descritte nel libro. Secondo Daniel Dennett il dibattito rimane però aperto in quanto Searle non riesce a dimostrare pragmaticamente la sua tesi, dovendo far così ricorso alla intuizione.

Fantascienza

Magnifying glass icon mgx2.svg Lo stesso argomento in dettaglio: Ribellione della macchina .
Arrows-folder-categorize.svg Le singole voci sono elencate nella Categoria:Androidi e robot immaginari e Categoria:Computer immaginari
L'"occhio" di HAL 9000 , supercomputer senziente del film 2001: Odissea nello spazio (1968) di Stanley Kubrick
Robby il robot nella locandina del film Il pianeta proibito

Nelle opere di fantascienza l'intelligenza artificiale è un tema ricorrente, come semplice elemento narrativo o come argomento centrale della storia. Generalmente è presentata sotto forma di computer avanzati, robot o androidi . Il tema è spesso legato a quello classico della ribellione della macchina , in cui un computer (nella maggior parte dei casi senziente) si rivolta contro gli esseri umani che l'avevano costruito. [65]

Tra i computer senzienti rientrano ad esempio Multivac , presente in alcuni racconti di Isaac Asimov , paragonabile ai moderni sistemi di grid computing , e HAL 9000 del film 2001: Odissea nello spazio (1968) di Stanley Kubrick . Invece Pensiero Profondo , nella Guida galattica per autostoppisti , è un'intelligenza artificiale capace di fornire la risposta alla "domanda fondamentale sulla vita, l'universo e tutto quanto" . Nella serie cinematografica di Terminator , il supercomputer Skynet è presentato come un evolutissimo insieme di network che, costruiti dal Dipartimento della difesa degli Stati Uniti verso la fine della guerra fredda , finiranno per divenire un insieme autocosciente e intraprendere, al comando di un esercito di robot e cyborg , una spietata guerra per lo sterminio della specie umana. Nel film Matrix le macchine intelligenti tengono in schiavitù miliardi di esseri umani, per trarre da essi energia elettrica.

Oltre a quello del cinema e della televisione, anche il mondo dei cartoni animati e dei videogiochi ha sfruttato il tema dell'intelligenza artificiale. Un esempio è Cortana, l'intelligenza artificiale presente nella saga di Halo (nome affidato da Microsoft anche alla propria assistente virtuale: Cortana su Windows 10 ).

I robot o androidi senzienti sono anch'essi un classico. Nell'ipotesi che le macchine possano man mano diventare più simili agli esseri umani, gli autori hanno ipotizzato macchine con enorme capacità di calcolo e dotate di personalità . I " robot positronici " come il robot R. Daneel Olivaw del romanzo Fondazione , Marvin l'androide paranoico , R2-D2 e C-3PO di Guerre stellari , Data di Star Trek: The Next Generation e Chappie di Humandroid sono solo alcuni esempi tra i più noti. Queste macchine si distinguono dai semplici robot per una personalità spiccata e "umanizzata", resa possibile da un'intelligenza artificiale estremamente evoluta.

Note

  1. ^ L'acronimo invertito, AI, in italiano, sta per "agenti intelligenti", mentre corrispondenti inglesi sono a loro volta invertiti: l'intelligenza artificiale si indica con AI, da Artificial Intelligence , mentre gli agenti intelligenti si indicano con IA, da Intelligent Agents
  2. ^ ( EN ) Kaplan Andreas e Haenlein Michael, Siri, Siri in my Hand, who's the Fairest in the Land? On the Interpretations, Illustrations and Implications of Artificial Intelligence , 2018, DOI : 10.1016/j.bushor.2018.08.004 .
  3. ^ ( EN ) Rory Cellan-Jones, Hawking: AI could end human race , in BBC News , 2 dicembre 2014. URL consultato il 27 ottobre 2018 .
  4. ^ ( EN ) Rory Cellan-Jones, Stephen Hawking - will AI kill or save? , in BBC News , 20 ottobre 2016. URL consultato il 28 ottobre 2018 .
  5. ^ tweet di Elon Musk del 2 agosto 2014
  6. ^ https://www.cs.virginia.edu/~robins/Turing_Paper_1936.pdf
  7. ^ Copia archiviata ( PDF ), su minicomplexity.org . URL consultato il 14 dicembre 2016 (archiviato dall' url originale il 10 febbraio 2017) .
  8. ^ Antonio Lieto, Cognitive Design for Artificial Minds , London, UK, Routledge, Taylor & Francis, 2021, ISBN 978-1-138-20792-9 .
  9. ^ https://www.cs.cornell.edu/selman/cs672/readings/mccarthy-upd.pdf
  10. ^ Eugenio Occorsio, Intelligenza artificiale e Big Data. Così i robot cambiano il lavoro , su repubblica.it . URL consultato il 6 ottobre 2019 .
  11. ^ Marco Ciotola, 5 modi in cui l'intelligenza artificiale sta rivoluzionando la finanza , su money.it . URL consultato il 6 ottobre 2019 .
  12. ^ Alessandra Caparello, FinTech e Intelligenza Artificiale: come cambia la finanza , su wallstreetitalia.com . URL consultato il 6 ottobre 2019 .
  13. ^ Riccardo Barlaam, La rivoluzione dei robot taglierà 200mila posti nelle banche Usa , su ilsole24ore.com . URL consultato il 6 ottobre 2019 .
  14. ^ https://www.digitalic.it/economia-digitale/stephen-hawking-elon-musk-firmano-23-principi-per-ai
  15. ^ https://futureoflife.org/ai-principles/?cn-reloaded=1
  16. ^ https://www.ilsole24ore.com// L'Europa pubblica un codice etico sull'intelligenza artificiale di L. Tremolada
  17. ^ https://www.hdblog.it
  18. ^ https://www.ilsole24ore.com Intelligenza artificiale,ecco le nuove linee guida dell'Europa di L.Tre
  19. ^ https://www.ai4business.it
  20. ^ Nick Bostrom
  21. ^ TR Reed, NE Reed e P. Fritzson, Heart sound analysis for symptom detection and computer-aided diagnosis , in Simulation Modelling Practice and Theory , vol. 12, n. 2, 2004, p. 129, DOI : 10.1016/j.simpat.2003.11.005 .
  22. ^ "IBM Watson for Oncology" , su ibm.com .
  23. ^ A. Yorita e N. Kubota, Cognitive Development in Partner Robots for Information Support to Elderly People , in IEEE Transactions on Autonomous Mental Development , vol. 3, n. 1, 1º marzo 2011, pp. 64-73, DOI : 10.1109/TAMD.2011.2105868 , ISSN 1943-0604 ( WC · ACNP ) .
  24. ^ Transportation | One Hundred Year Study on Artificial Intelligence (AI100) , su ai100.stanford.edu . URL consultato il 18 novembre 2016 .
  25. ^ Google Self-Driving Car Project , su google.com .
  26. ^ Tesla Explains How AI Is Making Its Self-Driving Cars Smarter , su inc.com .
  27. ^ Storykube - The first newsroom where journalists and artificial intelligence team up to bring you the news every day. , su storykube.com .
  28. ^ Il giornale diretto da una intelligenza artificiale funziona , su la Repubblica , 20 ottobre 2020. URL consultato il 24 novembre 2020 .
  29. ^ a b ( EN ) Massimo Merenda, Carlo Porcaro e Demetrio Iero, Edge Machine Learning for AI-Enabled IoT Devices: A Review , in Sensors , vol. 20, n. 9, 29 aprile 2020, p. 2533, DOI : 10.3390/s20092533 . URL consultato il 23 novembre 2020 .
  30. ^ Osservatori Digital Innovation, L'Intelligenza Artificiale in Italia: mercato, trend e prospettive , su blog.osservatori.net . URL consultato il 30 maggio 2019 .
  31. ^ Todino MD, Di Tore S, De Simone G, and Sibilio M (2018). Virtual Reality Head-Mounted Display Used In Online & Distance Education. In: (a cura di): Papanikos G, Athens: ATINER'S Conference Paper Series, No: EDU2017-2407. , in ATINER'S CONFERENCE PAPER SERIES, p. 1-21, Athens:Athens Institute for Education and Research, ISBN 9789605981150 , ISSN 2241-2891 .
  32. ^ Di Tore S., TODINO MD, Sibilio M (2020). La realtà virtuale come strumento didattico per favorire lo sviluppo della presa di prospettiva. , in In: (a cura di): Panciroli C., Animazione digitale per la didattica. p. 155-164, MILANO:FrancoAngeli, ISBN 978-88-351-0728-6 .
  33. ^ TODINO MD, Di Tore S., De Simone G. (2020). Media Education e formazione docenti: contestualizzare le esperienze videoludiche dei propri studenti. , in STUDI SULLA FORMAZIONE, vol. 23, ISSN 2036-6981, doi: 10.13128/ssf-11625 .
  34. ^ TODINO MD, Di Tore S, Maffei S, De Simone G, Sibilio M (2017). L'utilizzo di tecnologie head-mounted display a supporto della didattica attraverso ambienti di apprendimento virtuali in contesti non formali . , in GIORNALE ITALIANO DELLA RICERCA EDUCATIVA, p. 165-176, ISSN 2038-9744 .
  35. ^ ( EN ) Declan Butler, AI summit aims to help world's poorest , in Nature , vol. 546, n. 7657, 6 giugno 2017, pp. 196-197, DOI : 10.1038/546196a , ISSN 0028-0836 ( WC · ACNP ) (archiviato dall' url originale il 30 aprile 2019) .
  36. ^ ( EN ) How Can We Optimize AI for the Greatest Good, Instead of Profit? [ collegamento interrotto ] , su www.technologyreview.com . URL consultato il 29 giugno 2018 .
  37. ^ ( EN ) National Geographic Society, RFP: AI for Earth Innovation , su www.nationalgeographic.org . URL consultato il 10 marzo 2019 .
  38. ^ ( EN ) Microsoft AI for Earth , su www.microsoft.com . URL consultato il 10 marzo 2019 .
  39. ^ ( EN ) AI for Humanitarian Action , su www.microsoft.com . URL consultato il 10 marzo 2019 .
  40. ^ ( EN ) Humanitarian AI (Cambridge, MA) , su Meetup . URL consultato il 10 marzo 2019 .
  41. ^ ( EN ) Yongjun Wang, Haipeng Shen, Qiang Dong, Yilong Wang, Sufeng Ma, Hao Li, Yi Dong, Hui Zhi e Yong Jiang, Artificial intelligence in healthcare: past, present and future , in Stroke and Vascular Neurology , vol. 2, n. 4, 1º dicembre 2017, pp. 230-243, DOI : 10.1136/svn-2017-000101 , ISSN 2059-8688 ( WC · ACNP ) , PMC 5829945 , PMID 29507784 .
  42. ^ AI for Good Global Summit 2017 , su ITU .
  43. ^ ( EN ) AI for Good - YouTube , su YouTube . URL consultato il 2 luglio 2018 .
  44. ^ ( EN ) AI for Good Global Summit - 2017 Report , su slideshare.net .
  45. ^ Machine Learning for 5G , su itu.int .
  46. ^ ( EN ) ITU annual global summit generates 35 pioneering AI for Good proposals | OpenGovAsia , su www.opengovasia.com . URL consultato il 29 giugno 2018 .
  47. ^ Simon Bradley, AI has 'enormous' potential to transform health sector , in SWI swissinfo.ch . URL consultato il 29 giugno 2018 .
  48. ^ An AI can now tell how malnourished a child is just from a photo | New Scientist , su www.newscientist.com . URL consultato il 21 giugno 2018 .
  49. ^ ITU, Artificial Intelligence for Health: ITU and WHO call for proposals , su ITU News , 2 ottobre 2018. URL consultato il 21 giugno 2019 .
  50. ^ Meet the Experts , su www.itu.int . URL consultato il 2 giugno 2018 ( archiviato il 14 dicembre 2018) .
  51. ^ ( EN ) AI for Good Global Summit 15-17 May 2018, Geneva - YouTube , su YouTube . URL consultato il 2 luglio 2018 .
  52. ^ ( EN ) AI Repository , su www.itu.int . URL consultato il 29 giugno 2018 .
  53. ^ ITU, Tell the world about your AI for Good project on ITU's AI Repository , in ITU News , 25 aprile 2018.
  54. ^ Sito della rivista ICT Discoveries , su itu.int .
  55. ^ ( EN ) The impact of Artificial Intelligence , su www.itu.int . URL consultato il 3 luglio 2018 ( archiviato il 24 maggio 2019) .
  56. ^ Day 1, 28 May 2019 Programme , su AI for Good Global Summit . URL consultato il 28 maggio 2019 (archiviato dall' url originale il 5 novembre 2019) .
  57. ^ AI for Good Global Summit 2019: AI for Space [ collegamento interrotto ] , su AI + News , 1º giugno 2019.
  58. ^ Kirsten Martin, Ethical Implications and Accountability of Algorithms , in Journal of Business Ethics , 2018, DOI : https://doi.org/10.1007/s10551-018-3921-3 .
  59. ^ Kate Crawford e Vladan Joler, Anatomy of an AI System , 2018.
  60. ^ a b Kate Crawford, The Atlas of AI. , Yale University Press, 2021, DOI : https://doi.org/10.12987/9780300252392 .
  61. ^ ( EN ) Mél Hogan, Data flows and water woes: The Utah Data Center , in Big Data & Society , vol. 2, n. 2, 1º dicembre 2015, p. 2053951715592429, DOI : 10.1177/2053951715592429 . URL consultato il 24 giugno 2021 .
  62. ^ Shoshana Zuboff, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power , 2019.
  63. ^ ( EN ) Alan Mathison Turing, Computing machinery and intelligence , in Mind . URL consultato l'11 novembre 2016 (archiviato dall' url originale il 2 luglio 2008) .
  64. ^ http://cogprints.org/7150/1/10.1.1.83.5248.pdf
  65. ^ ( EN ) Robert B. Fisher, AI and Cinema - Does artificial insanity rule? , University of Edinburgh

Bibliografia

Voci correlate

Altri progetti

Collegamenti esterni

Scienze cognitive
Phrenology1.jpg Nicolas P. Rougier's rendering of the human brain.png
Filosofia della mente · Intelligenza artificiale · Linguistica cognitiva · Neuroscienze cognitive · Psicologia cognitiva
Antropologia cognitiva · Economia cognitiva · Ergonomia cognitiva · Etologia umana · Finanza comportamentale · Genetica comportamentale
Mente · Cervello · Cognizione · Comportamento · Comunicazione
Tutte le voci
Controllo di autorità Thesaurus BNCF 7253 · LCCN ( EN ) sh85008180 · GND ( DE ) 4033447-8 · BNF ( FR ) cb11932084t (data) · BNE ( ES ) XX4659822 (data) · NDL ( EN , JA ) 00574798