Învățare automată

De la Wikipedia, enciclopedia liberă.
Salt la navigare Salt la căutare

Învățarea automată (în limba engleză-saxonă a literaturii de învățare automată ) este o ramură a inteligenței artificiale care colectează metode dezvoltate în ultimele decenii ale secolului al XX-lea în diferite comunități științifice, sub diferite nume, cum ar fi: statisticile computaționale , recunoașterea modelelor , neuronale artificiale rețele , filtrare adaptivă, teoria sistemelor dinamice , procesarea imaginilor , extragerea datelor , algoritmi adaptivi , etc; care utilizează metode statistice pentru a îmbunătăți performanța unui algoritm în identificarea tiparelor din date. În domeniul informaticii, învățarea automată este o variantă a programării tradiționale în care o mașină pregătește abilitatea de a învăța ceva din date în mod autonom, fără instrucțiuni explicite [1] [2] .

Arthur Samuel, care a inventat termenul în 1959 [3] , identifică în principiu două abordări distincte. Prima metodă, denumită rețea neuronală, dezvoltă mașini de învățare automată cu scop general al căror comportament este învățat dintr-o rețea de comutare conectată aleatoriu, urmând o rutină de învățare bazată pe recompensă și pedeapsă ( învățare de întărire ). A doua metodă, mai specifică, este de a reproduce echivalentul unei rețele foarte organizate concepute pentru a învăța doar activități specifice. A doua procedură, care necesită supraveghere și necesită reprogramare pentru fiecare aplicație nouă, este mult mai eficientă din punct de vedere al calculului.

Învățarea automată este strâns legată de recunoașterea modelelor și teoria calculațională a învățării [4] și explorează studiul și construcția algoritmilor care pot învăța dintr-un set de date și pot face predicții despre aceasta, [5] construind în mod inductiv un model bazat pe eșantioane . Învățarea automată este utilizată în acele domenii ale informaticii în care proiectarea și programarea algoritmilor expliciți este impracticabilă; posibilele aplicații includ filtrarea e-mailurilor pentru a evita spamul , detectarea intrușilor într-o rețea sau intrușii care încearcă să încalce datele, [6] recunoașterea optică a caracterelor [7] , motoarele de căutare și viziunea computerizată .

Învățarea automată este legată și se suprapune adesea cu statisticile de calcul , care se ocupă cu efectuarea de predicții folosind computerele . Învățarea automată este, de asemenea, puternic legată de optimizarea matematică , care oferă metode, teorii și domenii de aplicații în acest domeniu. Pentru utilizări comerciale, învățarea automată este cunoscută sub numele de analiză predictivă .

fundal

Învățarea automată se dezvoltă odată cu studiul inteligenței artificiale și este strâns legată de aceasta: de fapt, încă de la primele încercări de a defini inteligența artificială ca disciplină academică, unii cercetători și-au arătat interesul pentru posibilitatea ca mașinile să învețe din date. Acești cercetători, în special Marvin Minsky , Arthur Samuel și Frank Rosenblatt , au încercat să abordeze problema atât prin diferite metode formale, cât și prin ceea ce se numesc rețele neuronale la sfârșitul anilor 1950. Rețelele neuronale erau apoi alcătuite din perceptroni unici și modele matematice derivate din modelul liniar generalizat al statisticii, precum ADALINE al lui Widrow [8] [9] . S-a încercat și raționamentul probabilistic , în special în diagnosticul medical automat [10] .

Tot în anii 1950, Alan Turing a propus ideea unei mașini care învață , adică capabilă să învețe și, prin urmare, să devină inteligentă. Propunerea specifică a lui Turing anticipează algoritmi genetici [11] .

Cu toate acestea, de la mijlocul anilor 1950, studiul inteligenței artificiale se concentra pe abordări logice bazate pe cunoaștere , cunoscute astăzi sub numele de GOFAI , provocând un decalaj între studiul AI și cel al învățării automate. Sistemele probabiliste au fost invadate atât de probleme teoretice, cât și de practice în ceea ce privește achiziția și reprezentarea datelor [10] . În anii 1980, sistemele expert au dominat domeniul AI, iar sistemele bazate pe statistici nu au mai fost studiate [12] . Studiul învățării simbolice și bazate pe cunoaștere a continuat în domeniul AI, ducând la dezvoltarea programării logice inductive , dar acum cercetarea mai pur statistică a avut loc în afara câmpului real al inteligenței artificiale, în modelul de recunoaștere și recuperarea informațiilor [ 10] . Un alt motiv pentru care studiul învățării automate a fost abandonat a fost publicarea cărții Perceptrons: o introducere în geometria de calcul de către Marvin Minsky și Seymour Papert , care a descris câteva dintre limitările perceptorilor și rețelelor neuronale . Cercetările privind rețelele neuronale au încetinit semnificativ datorită interpretării cărții, care le-a descris ca fiind inerent limitate [13] [14] . Linia de cercetare privind rețelele neuronale a continuat, de asemenea, în afara domeniului AI, efectuată de cercetători din alte discipline, cum ar fi Hopfield , Rumelhart , Hinton și Fukushima. Principalul lor succes a fost la mijlocul anilor '80, odată cu redescoperirea propagării înapoi [10] și a autoorganizării [15] .

Învățarea automată, care s-a dezvoltat ca un domeniu de studiu separat de AI clasică, a început să înflorească în anii '90. Scopul său s-a schimbat de la obținerea inteligenței artificiale la abordarea problemelor rezolvabile de natură practică. De asemenea, și-a îndepărtat atenția de la abordările simbolice pe care le-a moștenit de la AI și sa îndreptat către metode și modele împrumutate din statistici și teoria probabilității [12] . Învățarea automată a beneficiat, de asemenea, de apariția internetului , care a făcut ca informațiile digitale să fie mai ușor disponibile și distribuibile.

Generalitate

Tom M. Mitchell a furnizat cea mai citată definiție a învățării automate în cartea sa „ Învățarea automată ”: „ Se spune că un program învață din experiența E cu referire la anumite clase de sarcini T și cu măsurarea performanței P, dacă performanța sa în sarcina T , măsurat prin P, se îmbunătățește cu experiența E. " [16] Pe scurt, ar putea fi simplificat spunând că un program învață dacă există o îmbunătățire a performanței după o sarcină efectuată. Această definiție Mitchell este relevantă, deoarece oferă o definiție operațională a învățării automate, mai degrabă decât în ​​termeni cognitivi. Furnizând această definiție, Mitchell urmează de fapt propunerea făcută de Alan Turing în articolul său „ Mașini de calcul și inteligență ”, înlocuind întrebarea „ Mașinile pot gândi? ” Cu întrebarea „ Mașinile pot face ceea ce noi (ca entități gânditoare) putem face ? " [17] .

Teoria învățării

Scopul principal al învățării automate este acela că o mașină este capabilă să generalizeze din propria experiență [18] , adică să fie capabilă să efectueze raționamente inductive . În acest context, generalizarea se referă la capacitatea unei mașini de a completa cu exactitate noi exemple sau sarcini, pe care nu le-a confruntat niciodată, după ce a experimentat un set de date de învățare. Exemplele de instruire (în engleză numite exemple de instruire ) se presupune că provin dintr-o anumită distribuție de probabilitate, în general necunoscută și considerată reprezentativă pentru spațiul de apariție al fenomenului care trebuie învățat; mașina are sarcina de a construi un model probabilistic general al spațiului evenimentelor, în așa fel încât să poată produce predicții suficient de precise atunci când este supus unor cazuri noi.

Analiza computațională a algoritmilor de învățare automată și a performanței acestora este o ramură a informaticii teoretice numită teoria învățării . Deoarece exemplele de instruire sunt seturi finite de date și nu există nicio modalitate de a cunoaște evoluția viitoare a unui model, teoria învățării nu oferă nicio garanție cu privire la performanța algoritmilor. Pe de altă parte, este destul de obișnuit ca astfel de performanțe să fie constrânse de limite probabiliste. Compensarea diferenței de părtinire este una dintre modalitățile de cuantificare a erorii de generalizare.

Pentru ca generalizarea să ofere cea mai bună performanță posibilă, complexitatea ipotezei inductive trebuie să fie egală cu complexitatea funcției care stă la baza datelor. Dacă ipoteza este mai puțin complexă decât funcția, atunci modelul se manifestă subacordat . Pe măsură ce complexitatea modelului crește ca răspuns, atunci eroarea de învățare scade. Dimpotrivă, dacă ipoteza este prea complexă, atunci modelul manifestă supraadaptare și generalizarea va fi mai slabă [19] .

Pe lângă limitările de performanță, teoreticienii învățării studiază complexitatea timpului și fezabilitatea învățării în sine. Un calcul este considerat fezabil dacă poate fi efectuat în timp polinomial .

Tipuri de probleme și sarcini

Sarcinile de învățare automată sunt de obicei clasificate în trei mari categorii, în funcție de natura „semnalului” utilizat pentru învățare sau „feedback-ul” disponibil sistemului de învățare. Aceste categorii, numite și paradigme, sunt: [10]

  • învățare supravegheată , în care modelului i se oferă exemple sub formă de intrări posibile și rezultatele dorite ale acestora și scopul este extragerea unei reguli generale care asociază intrarea cu rezultatul corect;
  • învățare nesupravegheată , în care modelul își propune să găsească o structură în intrările furnizate, fără ca intrările să fie etichetate în vreun fel;
  • învățarea prin întărire , în care modelul interacționează cu un mediu dinamic în care încearcă să atingă un scop (de exemplu, să conducă un vehicul), având un profesor care îi spune doar dacă a atins obiectivul. Un alt exemplu este să înveți cum să joci un joc jucând împotriva unui adversar [20] .

La jumătatea distanței dintre învățarea supravegheată și cea supravegheată este învățarea semi-supravegheată , în care profesorul oferă un set de date incomplet pentru instruire, adică un set de date de formare printre care există date fără rezultatul dorit respectiv. Transducția este un caz special al acestui principiu, în care întregul set de instanțe problemă este cunoscut în timpul învățării, cu excepția părții din rezultatele dorite care lipsește.

O altă clasificare a sarcinilor de învățare automată apare atunci când se ia în considerare rezultatul dorit al sistemului de învățare automată. [20]

  • În clasificare , rezultatele sunt împărțite în două sau mai multe clase, iar sistemul de învățare trebuie să producă un model care atribuie intrările nevăzute încă uneia sau mai multora dintre acestea. Acest lucru este de obicei abordat într-un mod supravegheat. Filtrarea spamului este un exemplu de clasificare, unde intrările sunt e-mailuri, iar clasele sunt „spam” și „nu spam”.
  • În regresie , care este și o problemă supravegheată, ieșirea și modelul utilizat sunt continue . Un exemplu de regresie este determinarea cantității de ulei prezentă într-o conductă, având măsurători ale atenuării razelor gamma care trec prin conductă. Un alt exemplu este prezicerea valorii cursului de schimb al unei valute în viitor, având în vedere valorile acesteia din ultima vreme. [21]
  • În grupare, un set de intrări este împărțit în grupuri. Spre deosebire de clasificare, grupurile nu sunt cunoscute înainte, făcându-l de obicei o sarcină nesupravegheată. Un exemplu tipic de clusterizare este analiza comportamentului utilizatorilor site-ului web.

Statistici și învățare automată

Pictogramă lupă mgx2.svg Același subiect în detaliu: Statistici .

Învățarea automată și statisticile sunt discipline strâns legate. Potrivit lui Michael I. Jordan , ideile învățării automate, de la principiile metodologice la instrumentele teoretice, au fost dezvoltate mai întâi în statistici [22] . Iordania a sugerat, de asemenea, termenul știință a datelor ca nume prin care să se numească întregul câmp de studiu [22] .

Leo Breiman a distins două paradigme de modelare statistică: model bazat pe date și model bazat pe algoritmi [23] , unde „model bazat pe algoritmi” se referă aproximativ la algoritmi de învățare automată, cum ar fi pădurea aleatorie .

Unii statistici au adoptat metode din învățarea automată, ceea ce a condus la crearea unei discipline combinate numită „învățare statistică” [24] .

Exploatarea datelor și învățarea automată

Pictogramă lupă mgx2.svg Același subiect în detaliu: Data mining .

Învățarea automată este uneori combinată cu extragerea datelor [25], care se concentrează mai mult pe analiza datelor exploratorii și utilizează în principal paradigma învățării numită „ învățare nesupravegheată[26] . În schimb, învățarea automată poate fi, de asemenea, supravegheată [27] .

De fapt, învățarea automată și extragerea datelor se suprapun semnificativ, dar în timp ce învățarea automată se concentrează pe predicție bazată pe proprietățile cunoscute învățate din date, extragerea datelor se concentrează pe descoperirea proprietăților necunoscute anterior în date. Exploatarea datelor exploatează metodele de învățare automată, dar cu obiective diferite; pe de altă parte, învățarea automată utilizează metode de extragere a datelor ca metode de învățare nesupravegheate sau ca pași de preprocesare pentru a crește precizia învățării. O mare parte din confuzia dintre cele două comunități de cercetare provine din presupunerea de bază a muncii lor: în procesul de învățare automată, performanța este în general evaluată pe capacitatea de a reproduce cunoștințele deja dobândite, în timp ce în mineritul datelor sarcina cheie este descoperirea cunoștințelor pe care le-ați făcut. nu mai am înainte.

Optimizare și învățare automată

Pictogramă lupă mgx2.svg Același subiect în detaliu: Optimizare .

Învățarea automată are legături foarte strânse cu optimizarea: multe probleme de învățare sunt formulate ca minimizarea unor funcții de cost pe un set de exemple de învățare. Funcția de cost (sau funcția de pierdere) reprezintă discrepanța dintre predicțiile modelului pe care îl instruiți și instanțele problemei reale. Diferențele dintre cele două câmpuri (învățarea automată și optimizarea) apar din scopul generalizării: în timp ce algoritmii de optimizare pot reduce la minimum pierderile dintr-un set de învățare, învățarea automată se preocupă de minimizarea pierderilor din eșantioane. Niciodată văzut din mașină [28] .

Soft computing și învățare automată

Pictogramă lupă mgx2.svg Același subiect în detaliu: Soft computing .

Rezolvarea automată a problemelor are loc, în domeniul tehnologiei informației, în două moduri diferite: prin paradigme de calcul greu sau prin paradigme de calcul ușor . Calculul dur înseamnă rezolvarea unei probleme executând un algoritm bine definit și decis. Majoritatea paradigmelor de calcul dur sunt metode consolidate, dar au unele laturi negative: de fapt, ele necesită întotdeauna un model analitic precis și definibil și, adesea, un timp de calcul ridicat. Tehnicile de calcul soft , pe de altă parte, plasează câștigul în înțelegerea comportamentului unui sistem în detrimentul preciziei, care este adesea inutilă. Paradigmele soft computing se bazează pe două principii [29] :

  • Învățarea din datele experimentale;
  • Integrarea cunoștințelor umane structurate și preexistente în modele matematice calculabile.

Învățarea automată utilizează tehnici de calcul soft .

Abordari

Programare logică inductivă

Pictogramă lupă mgx2.svg Același subiect în detaliu: programare logică inductivă .

Programarea logică inductivă (de asemenea, ILP, din engleză programarea logică inductivă ) este o abordare a regulilor de învățare care utilizează programarea logică ca reprezentare uniformă pentru exemple de intrare, pentru cunoașterea de bază a mașinii și pentru ipoteze. Având în vedere o codificare a cunoștințelor de fond (cunoscute) și un set de exemple reprezentate ca fapte într-o bază de date logică, un sistem ILP derivă un program logic ipotetic din care urmează toate exemplele pozitive și niciunul dintre cele negative. Programarea inductivă este un câmp similar care consideră că orice tip de limbaj de programare reprezintă mai degrabă presupuneri decât doar programarea logică, cum ar fi programele funcționale .

Arborele deciziei

Pictogramă lupă mgx2.svg Același subiect în detaliu: Arborele deciziei .

Arborele decizional este o metodă de învățare prin aproximare a unei funcții obiective discrete în care elementul de învățare este reprezentat de un arborele decizional. Arborii de decizie pot fi reprezentați de un set de reguli if-else pentru a îmbunătăți lizibilitatea umană.

Regulile de asociere

Pictogramă lupă mgx2.svg Același subiect în detaliu: reguli de asociere .

Învățarea automată bazată pe reguli de asociere este o metodă de învățare care identifică, învață și evoluează „reguli” cu intenția de a stoca, manipula și aplica cunoștințe. Principala caracteristică a acestui tip de învățare este identificarea și utilizarea unui set de reguli relaționale care reprezintă cunoștințele captate de sistemul în ansamblu. Acest lucru este în contrast cu alte tipuri de învățare automată care identifică în mod normal un singur model care poate fi aplicat universal fiecărei instanțe pentru a putea face o predicție asupra acestuia [30] . Abordările învățării bazate pe reguli de asociere includ sistemul imunitar artificial .

Rețele neuronale artificiale

Pictogramă lupă mgx2.svg Același subiect în detaliu: Rețea neuronală artificială .

O rețea neuronală artificială este un sistem adaptiv care își schimbă structura pe baza informațiilor externe sau interne care curg prin rețea în timpul fazei de învățare. În termeni practici, rețelele neuronale sunt structuri neliniare ale datelor statistice organizate ca instrumente de modelare. Ele pot fi utilizate pentru a simula relații complexe între intrări și ieșiri pe care alte funcții analitice nu le pot reprezenta. În plus, sunt robuste la erorile prezente în datele de instruire.

Programare genetică

Pictogramă lupă mgx2.svg Același subiect în detaliu: algoritm genetic .

Algoritmii genetici oferă o abordare a învățării care este inspirată în mod vag de evoluția simulată. Căutarea unei soluții la problemă începe cu o populație inițială de soluții. Membrii populației actuale dau naștere unei noi generații de populație prin intermediul unor operații precum mutația aleatorie și încrucișarea, care sunt modelate pe procesele de evoluție biologică. La fiecare pas, soluțiile populației actuale sunt evaluate în raport cu o anumită măsură de fitness, cu cele mai potrivite ipoteze selectate probabilistic ca semințe pentru producția următoarei generații. Algoritmii genetici au fost aplicați cu succes la o varietate de sarcini de învățare și alte probleme de optimizare. De exemplu, au fost folosite pentru a învăța colecții de norme de control al robotului și pentru a optimiza topologia parametrilor de învățare pentru rețelele neuronale artificiale.

Rețele bayesiene

Pictogramă lupă mgx2.svg Același subiect în detaliu: rețele bayesiene .

Raționamentul bayesian oferă o abordare probabilistică a inferenței. Se bazează pe presupunerea că cantitățile de interes sunt guvernate de distribuții de probabilitate și că pot fi luate decizii optime în urma analizei acestor probabilități împreună cu datele observate. În domeniul învățării automate, teoria bayesiană este importantă deoarece oferă o abordare cantitativă pentru evaluarea dovezilor care susțin ipoteza alternativă. Raționamentul Bayesian oferă baza învățării în algoritmi care manipulează direct probabilitățile.

Suporta mașini vectoriale

Pictogramă lupă mgx2.svg Același subiect în detaliu: suport pentru mașina vectorială .

Mașina vectorială suport (Support Vector Machine, SVM) este un set de metode de învățare supravegheate utilizate pentru clasificare și model de regresie. Având în vedere un set de exemple de instruire, marcate fiecare ca aparținând a două categorii posibile, un algoritm de formare SVM construiește un model care poate prezice cărei categorii ar trebui să aparțină un nou exemplu de intrare.

Invatare profunda

Pictogramă lupă mgx2.svg Același subiect în detaliu: Învățare profundă .

Scăderea prețurilor la hardware și dezvoltarea GPU-urilor pentru uz personal în ultimii ani au contribuit la dezvoltarea conceptului de învățare profundă , care constă în dezvoltarea mai multor straturi ascunse în rețelele neuronale artificiale. Această abordare încearcă să modeleze modul în care creierul uman procesează lumina și sunetul și le interpretează la vedere și auz. Unele dintre aplicațiile mai consacrate ale învățării profunde sunt viziunea pe computer și recunoașterea vorbirii [31] .

Tehnici nesupravegheate

Clustering

Pictogramă lupă mgx2.svg Același subiect în detaliu: Clustering .

Analiza clusterului, sau clustering , este capabilă să detecteze similitudini structurale între observațiile unui set de date prin atribuirea unui set de observații în subgrupuri ( clustere ) de elemente omogene [1] . Clusterizarea este o metodă de învățare nesupravegheată și o tehnică comună pentru analiza datelor statistice.

Exemple de aplicații practice

Recunoașterea vocală a textului

Toate cele mai reușite sisteme de recunoaștere a vorbirii folosesc metode de învățare automată. De exemplu, sistemul SPHINX [32] învață strategii specifice vorbitorului pentru a recunoaște sunetele primitive (foneme) și cuvintele semnalului de vorbire observat. Metodele de învățare bazate pe rețele neuronale și modele ascunse Markov sunt eficiente pentru personalizarea automată a vocabularelor, caracteristicilor microfonului, zgomotului de fond etc.

Conducerea automată a vehiculelor

Metode de învățare automată au fost folosite pentru a antrena vehicule controlate de computer. De exemplu, sistemul ALVINN [33] și-a folosit strategiile pentru a învăța să conducă fără asistență cu 70 de mile pe oră pentru 90 de mile pe drumurile publice, printre alte mașini. Cu tehnici similare, sunt posibile aplicații în multe probleme de control bazate pe senzori.

Clasificarea noilor structuri astronomice

Metodele de învățare automată au fost aplicate la o varietate de baze de date mari pentru a afla regularități generale implicite în date. De exemplu, algoritmii de învățare pe bază de arbori de decizie au fost folosiți de NASA pentru a clasifica obiectele cerești încă de la al doilea sondaj al observatorului Palomar Observatory Sky [34] . Acest sistem este acum folosit pentru a clasifica automat toate obiectele din Sky Survey, care constă din trei terabyți de date de imagine.

Jucător de table de talie mondială

Cele mai de succes programe de calculator pentru jocul de table se bazează pe algoritmi de învățare. De exemplu, cel mai bun program de calculator pentru table, TD-Gammon [35] , și-a dezvoltat strategia jucând peste un milion de jocuri de testare împotriva sa. Tehnici similare au aplicații în multe probleme practice în care spațiile de căutare foarte relevante trebuie examinate eficient.

Relațiile cu alte discipline

Reprezentări simbolice ale conceptelor de învățare.
Învățarea automată ca o problemă de cercetare.
Învățarea ca o abordare alternativă pentru a îmbunătăți rezolvarea problemelor.
  • Metode bayesiene.
Teorema lui Bayes ca bază pentru calcularea probabilităților de ipoteză.
Clasificatorul Naive Bayes .
Limite teoretice ale complexității intrinseci a diferitelor sarcini de învățare, măsurate în termeni de efort de calcul.
Proceduri pentru învățarea controlului proceselor pentru optimizarea obiectivelor predefinite și învățarea predicției următoarei stări a procesului controlat.
Măsuri de entropie și conținut informațional.
Descrierea lungimii minime a modurilor de învățare.
Coduri optime și relația lor cu secvențe de antrenament optime pentru codificarea unei ipoteze.
  • Filozofie.
Briciul lui Occam sugerează că cea mai simplă ipoteză este cea mai bună.
Analiza justificării pentru a generaliza datele observate.
  • Psihologie și neurobiologie.
Legea puterii din practică , care afirmă că într-o gamă foarte largă de probleme de învățare, timpul de răspuns al oamenilor se îmbunătățește odată cu practica conform unei legi a puterii.
Studiile neurobiologice motivează modelele de învățare ale rețelelor neuronale artificiale.

Etică

Învățarea automată ridică o serie de probleme etice. Sistemele instruite cu seturi de date părtinitoare sau prejudiciabile pot prezenta aceste părtiniri atunci când sunt puse la îndoială: în acest fel pot fi digitalizate prejudecăți culturale, cum ar fi rasismul instituțional și clasismul [36] . Ca urmare, colectarea responsabilă a datelor poate deveni un aspect critic al învățării automate.

Datorită ambiguității înnăscute a limbajelor naturale, mașinile instruite pe corpuri lingvistice vor învăța în mod necesar această ambiguitate [37] .

Notă

  1. ^ a b De Mauro, Andrea., Analiza datelor mari: ghid pentru a începe clasificarea și interpretarea datelor cu învățarea automată , Apogeo, 2019, ISBN 9788850334780 ,OCLC 1065010076 . Adus pe 10 noiembrie 2019 .
  2. ^ Bishop, Christopher M., Recunoașterea modelelor și învățarea automată , Springer, 2006, ISBN 0387310738 ,OCLC 71008143 . Adus pe 10 noiembrie 2019 .
  3. ^ Arthur L. Samuel, Unele studii în învățarea automată folosind jocul de dame , în IBM Journal of research and development , 1959.
  4. ^ https://www.britannica.com/EBchecked/topic/1116194/machine-learning
  5. ^ Ron Kohavi; Foster Provost (1998). "Glosar de termeni". Învățare automată. 30: 271-27
  6. ^ TechCrunch .
  7. ^ Wernick, Yang, Brankov, Yourganov and Strother, Machine Learning in Medical Imaging, IEEE Signal Processing Magazine, vol. 27, no. 4, July 2010, pp. 25-38
  8. ^ B. Widrow, ME Hoff (1960), Adaptive switching circuits , in IRE WESCON, Conv. Rec. , pt. 4, pp. 96-104.
  9. ^ Science in Action (TV series) television program produced by the California Academy of Sciences , su youtube.com .
  10. ^ a b c d e Russell, Stuart; Norvig, Peter (2003) [1995]. Artificial Intelligence: A Modern Approach (2nd ed.). Prentice Hall. ISBN 978-0-13-790395-5
  11. ^ ( EN ) Alan Turing, COMPUTING MACHINERY AND INTELLIGENCE , in MIND , vol. 59, n. 236, ottobre 1950, pp. 433–460, DOI : 10.1093/mind/LIX.236.433 . URL consultato l'8 giugno 2016 (archiviato dall' url originale il 12 aprile 2016) .
  12. ^ a b ( EN ) Pat Langley, The changing science of machine learning , in Machine Learning , vol. 82, ottobre 2011, pp. 275–279, DOI : 10.1007/s10994-011-5242-y .
  13. ^ ( EN ) Harvey Cohen, The Perceptron , su harveycohen.net . URL consultato il 5 giugno 2016 .
  14. ^ ( EN ) Robert Colner, A brief history of machine learning , su slideshare.net . URL consultato il 5 giugno 2016 .
  15. ^ ( EN ) Kunihiko Fukushima, Cognitron: A self-organizing multilayered neural network , in Biological Cybernetics , vol. 20, n. 3, 1º settembre 1975, pp. 121–136, DOI : 10.1007/BF00342633 . URL consultato il 12 novembre 2019 .
  16. ^ Mitchell, T. (1997). Machine Learning. McGraw Hill. p. 2. ISBN 0-07-042807-7 .
  17. ^ Harnad, Stevan (2008), "The Annotation Game: On Turing (1950) on Computing, Machinery, and Intelligence", in Epstein, Robert; Peters, Grace, The Turing Test Sourcebook: Philosophical and Methodological Issues in the Quest for the Thinking Computer, Kluwer
  18. ^ Bishop, CM (2006), Pattern Recognition and Machine Learning, Springer, ISBN 0-387-31073-8
  19. ^ Ethem Alpaydin. " Introduction to Machine Learning " The MIT Press, 2010
  20. ^ a b Machine learning and pattern recognition "can be viewed as two facets of the same field."
  21. ^ Bishop, CM (2006), Machine Learning and Pattern Recognition, Clarendon Press, pp. 5–6
  22. ^ a b ( EN ) MI Jordan, statistics and machine learning , su reddit , 10 settembre 2014. URL consultato il 1º ottobre 2014 .
  23. ^ ( EN ) L. Breiman, Statistical Modeling: The Two Cultures , su projecteuclid , Cornell University Library. URL consultato l'8 agosto 2015 .
  24. ^ ( EN ) Gareth James, Daniela Witten, Trevor Hastie e Robert Tibshirani, An Introduction to Statistical Learning , Springer, 2013, p. vii.
  25. ^ Mannila, Heikki (1996). Data mining: machine learning, statistics, and databases. Int'l Conf. Scientific and Statistical Database Management. IEEE Computer Society.
  26. ^ Friedman, Jerome H. (1998). "Data Mining and Statistics: What's the connection?". Computing Science and Statistics. 29 (1): 3–9.
  27. ^ http://www.darkreading.com/threat-intelligence/3-flavors-of-machine-learning--who-what-and-where/a/d-id/1324278
  28. ^ Nicolas Le Roux, Yoshua Bengio e Andrew Fitzgibbon, Improving First and Second-Order Methods by Modeling Uncertainty , in Suvrit Sra, Sebastian Nowozin e Stephen J. Wright (a cura di), Optimization for Machine Learning , MIT Press, 2012, p. 404.
  29. ^ Kecman, V (2001), Learning and Soft Computing, MIT Press , ISBN 978-0-262-52790-3
  30. ^ ( EN ) George W. Bassel, Enrico Blaab, Julietta Marquez, Michael J. Holdsworth e Jaume Bacardit, Functional Network Construction in Arabidopsis Using Rule-Based Machine Learning on Large-Scale Data Sets , in The Plant Cell , vol. 23, n. 9, settembre 2011, pp. 3101–3116, DOI : 10.1105/tpc.111.088153 , ISSN 1532-298X ( WC · ACNP ) , PMID 21896882 .
  31. ^ Honglak Lee, Roger Grosse, Rajesh Ranganath, Andrew Y. Ng. " Convolutional Deep Belief Networks for Scalable Unsupervised Learning of Hierarchical Representations " Proceedings of the 26th Annual International Conference on Machine Learning, 2009
  32. ^ Automatic speech recognition: the development of the SPHINX system, Lee 1989
  33. ^ D. Pomerleau. Alvinn: An autonomous land vehicle in a neural network. In Advances in Neural Information Processing Systems 1, 1989.
  34. ^ Automated Star/Galaxy Classification for Digitized Poss-II, Weir, N., Fayyad, UM, & Djorgovski, S, Astronomical Journal v.109, p.2401
  35. ^ G. Tesauro, "Temporal difference learning and TD-Gammon." Comm. of the ACM 38:3, 58-68 (1995). TML version at: https://www.research.ibm.com/massive/tdl.html Archiviato l'11 gennaio 2013 in Internet Archive .
  36. ^ ( EN ) Nick Bostrom, The Ethics of Artificial Intelligence ( PDF ), su nickbostrom.com , 2011. URL consultato l'11 aprile 2016 (archiviato dall' url originale il 4 marzo 2016) .
  37. ^ [1]

Bibliografia

Voci correlate

Altri progetti

Collegamenti esterni

Controllo di autorità Thesaurus BNCF 58790 · LCCN ( EN ) sh85079324 · GND ( DE ) 4193754-5 · NDL ( EN , JA ) 001210569