![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Fehler-Rückpropagation
Die typische Objektfunktion (eine Fehlerfunktion) summiert
die Quadrate der Ausgabefehler an den einzelnen Ausgabe-Knoten.
Nach der Berechnung aller Signale werden für jeden Ausgabe-Knoten
( Menge der Ausgabe-Knoten) das tatsächliche Signal
und das gewünschte Signal
verglichen:
Gewichts-Änderungen
berechnen sich mit Hilfe der Fehler-Signale nach
Fehler-Signale für Ausgabe-Knoten i ()
ergeben sich unmittelbar aus
Für versteckte Knoten gilt ():
(Für Eingabe-Knoten werden keine Fehler-Signale benötigt.)
Bei vorwärtsgerichteten Verbindungen können die Fehlersignale,
beginnend an den Ausgabe-Knoten, sukzessive berechnet werden.
Sollen mehrere Muster auf einmal berücksichtigt werden
( Batch Learning ),
so werden für jedes Muster entsprechende Fehler-Signale berechnet.
Deren Beiträge zu den einzelnen Gewichts-Änderungen werden dann
einfach summiert. Dies entspricht einer Summe über alle
Lern-Muster in der Objektfunktion.
Überwachtes Lernen funktioniert häufig besser mit linearen
Ausgabeknoten
(Sigmoidfunktion = Identität), da die Fehlersignale
besser weitergegeben werden.
Binäre Eingabedaten sollten aus
(statt aus
) gewählt werden,
da Null-Signale nicht zum Lernen beitragen.
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |