Fehler-Rückpropagation
Die typische Objektfunktion (eine Fehlerfunktion) summiert die Quadrate der Ausgabefehler an den einzelnen Ausgabe-Knoten. Nach der Berechnung aller Signale werden für jeden Ausgabe-Knoten ( Menge der Ausgabe-Knoten) das tatsächliche Signal und das gewünschte Signal verglichen:
Gewichts-Änderungen berechnen sich mit Hilfe der Fehler-Signale nach
Fehler-Signale für Ausgabe-Knoten i () ergeben sich unmittelbar aus
Für versteckte Knoten gilt ():
(Für Eingabe-Knoten werden keine Fehler-Signale benötigt.)
Bei vorwärtsgerichteten Verbindungen können die Fehlersignale,
beginnend an den Ausgabe-Knoten, sukzessive berechnet werden.
Sollen mehrere Muster auf einmal berücksichtigt werden
( Batch Learning ),
so werden für jedes Muster entsprechende Fehler-Signale berechnet.
Deren Beiträge zu den einzelnen Gewichts-Änderungen werden dann
einfach summiert. Dies entspricht einer Summe über alle
Lern-Muster in der Objektfunktion.
Überwachtes Lernen funktioniert häufig besser mit linearen
Ausgabeknoten
(Sigmoidfunktion = Identität), da die Fehlersignale
besser weitergegeben werden.
Binäre Eingabedaten sollten aus
(statt aus ) gewählt werden,
da Null-Signale nicht zum Lernen beitragen.