Regula Delta
Regula Delta este o regulă de coborâre în gradient pentru a actualiza greutățile semnalelor de intrare care sosesc la un perceptron . Calculăm valoarea derivatei funcției sigmoide pentru o valoare care va fi util mai târziu:
Deoarece unul sau mai mulți neuroni au capacitatea de a interpola datele furnizate pentru a învăța o funcție care le apropie cel mai bine, putem lua în considerare condiția de juxtapunere a metodei celor mai mici pătrate , pentru a evalua eroarea generală a calculului datelor primite dintr-un singur neuron:
În acest fel se încearcă obținerea unei valori minime de , suma pătratului erorilor . Deoarece este important ca eroarea minimă a întregului neuron să corespundă unei greutăți date, atunci variația pantei va fi negativă pentru a muta greutatea în direcția negativă a gradientului. Apoi urmează următoarea corelație:
Această formulă poate fi, de asemenea, scrisă ca:
Pentru a obține formula generală a regulii delta putem spune că
este asta
- .
și, prin urmare, putem scrie următoarea identitate:
În plus, avem asta
Obținem astfel formula generală a regulii delta :
Greutățile vor fi actualizate adăugând variația găsită la greutatea neuronului anterior (sau valoarea de intrare), după efectuarea comparației, conform regulii delta după cum urmează:
În cazul unui singur neuron ( perceptron ), putem aproxima funcția astfel:
Tabel rezumat
- este rata de învățare (valoarea între 0 și 1). Valorile scăzute necesită un număr mai mare de antrenamente - numite epoci - dar avem tendința de a obține un rezultat mai precis
- este eroarea, diferența dintre ieșirea neuronului și ieșirea așteptată, dată de
- este derivatul funcției sigmoide , numită funcția de declanșare care returnează ieșirea.
- este suma ponderată a valorilor de intrare la ieșirea neuronului ținând cont de greutățile lor respective :
Bibliografie
- Tom Mitchell, Învățarea automată , McGraw Hill, 1997.
- Ben Krose, Patrick van der Smagt, An Introduction to Neural Networks , Universitatea din Amsterdam