Învățare supravegheată

De la Wikipedia, enciclopedia liberă.
Salt la navigare Salt la căutare

Învățarea supravegheată este o tehnică de învățare automată care are ca scop instruirea unui sistem computerizat în așa fel încât să îi permită să facă automat predicții asupra valorilor de ieșire ale unui sistem în raport cu o intrare bazată pe o serie de exemple ideale, constând din perechi de intrări și ieșiri , care sunt furnizate inițial.

Algoritmii de învățare supravegheați pot fi utilizați într-o varietate de sectoare. Exemplele se referă la domeniul medical în care izbucnirea unor crize particulare poate fi prevăzută pe baza experienței datelor biometrice din trecut, identificarea vocală care se îmbunătățește pe baza ascultărilor audio din trecut, identificarea scrisului de mână care îmbunătățește observațiile exemplelor prezentate de utilizator.

Descriere

Scopul unui sistem bazat pe învățarea supravegheată este de a produce o ipoteză inductivă care este o funcție capabilă să „învețe” din rezultatele furnizate în timpul fazei de exemplu și capabile să abordeze rezultatele dorite pentru toate exemplele care nu sunt furnizate. Seria de ieșiri poate fi foarte variată; cu toate acestea diferențiază învățarea valorilor cantitative (denumite în mod obișnuit „ regresie ”) de valorile calitative (numite „clasificare”) [1] .

Componente logice

În mod logic, o implementare clasică de învățare supravegheată constă din:

  • Un set de experiență E care conține exemple de comportament pe care îl doriți în sistem. Este reprezentat ca un set de perechi intrare-ieșire.
  • Intrări I care reprezintă intrările în sistem și care sunt de obicei furnizate sub formă de vectori.
  • Ieșiri O care reprezintă răspunsurile sistemului și care pot lua forma unor valori continue sau a unei etichete numerice.
  • O funcție h a , numită ipoteză inductivă , care asociază răspunsul corect ipotetic al sistemului O la fiecare dată de intrare I. h a reprezintă partea sistemului care trebuie să se schimbe pentru a optimiza eficiența comportamentului său.
  • O ipotetică funcție h b, numită funcția obiectiv , care asociază răspunsul corect dorit de către proiectant-utilizator la fiecare intrare de date I. Este o formalizare teoretică a dorințelor proiectantului-utilizator.
  • Un parametru de eficiență F care reprezintă eficiența sistemului. În general, cu aceeași intrare, constă în diferența de ieșire între h a și h b .

Funcționare generală

Toți algoritmii de învățare supravegheați presupun că, dacă oferim sistemului un număr adecvat de exemple, va acumula suficientă experiență E pentru a-i permite să creeze o funcție h a adecvată pentru a aproxima funcția h b (și, prin urmare, comportamentul dorit de la cine a furnizat exemplele). Având în vedere similaritatea dintre funcțiile h a și h b , atunci când propunem sistemului unele date de intrare care nu sunt prezente în experiența sa E , funcția h a ar trebui să fie capabilă să aproximeze într-un mod suficient de precis funcția h b și să ofere răspunsuri O suficient de satisfăcătoare.

Pentru a atinge acest obiectiv, sistemul folosește adesea două principii care sunt cele ale distribuției (matematică) și cele ale funcției de probabilitate . Odată identificată distribuția matematică care leagă variația valorilor de intrare de valorile de ieșire dorite, sistemul alege parametrii care maximizează probabilitatea datelor și exprimă funcția de probabilitate adecvată.

Considerații

Mulți dintre acești algoritmi funcționează eficient dacă funcționează într-o lume liniară, presupunând că intrări similare corespund unor ieșiri similare. Există multe condiții în care o astfel de aproximare este acceptabilă, dar acest lucru nu este întotdeauna cazul. Estimarea funcției de probabilitate servește la atenuarea problemelor care decurg din tratarea problemelor nu complet liniare.

Se poate înțelege cu ușurință că funcționarea corectă și eficientă a acestor algoritmi depinde în mod semnificativ de experiență; dacă oferiți puțină experiență, este posibil ca algoritmul să nu creeze o funcție internă eficientă, în timp ce cu o experiență excesivă funcția internă poate deveni suficient de complexă pentru a încetini executarea algoritmului.

Acești algoritmi sunt foarte sensibili la zgomot, chiar și date puțin proaste ar putea face tot sistemul nesigur și ar putea duce la decizii greșite. O soluție la această problemă este asocierea lor cu controlere care se bazează pe logica fuzzy .

În mod tradițional, principalii algoritmi au fost:

Cercetările se concentrează astăzi pe cele considerate a fi cele două clase principale de posibili algoritmi:

  • metode generative;
  • metode discriminative.

Metodele generative se bazează pe crearea unui model de date care este apoi utilizat pentru a prezice răspunsurile dorite (sau date de ieșire). Exemple sunt rețelele bayesiene sau mai general modele grafice .

Dimpotrivă, metodele discriminative încearcă să modeleze direct relația dintre datele primite și cele de ieșire, pentru a minimiza o funcție obiectivă ( funcția de pierdere în literatură). Exemple de acest tip de model sunt ca mașini vector de suport (Support Vector Machines) și, mai general, metodele bazate pe funcțiile kernel .

Notă

  1. ^ (EN) Trevor Hastie, Robert Tibshirani și Jerome H. Friedman, Elementele învățării statistice: extragerea datelor, inferența și predicția , ediția a doua, p. 10, ISBN 9780387848570 ,OCLC 300478243 . Adus pe 21 decembrie 2018 .

Elemente conexe

Controlul autorității LCCN ( EN ) sh94008290
Informatică Portal IT : accesați intrările Wikipedia care se ocupă cu IT