(t wird als dimensionslos angenommen.)
Bei ausreichender Genauigkeit der numerischen Integration
treten keine Oszillationen auf.
Die Größe der Gewichte sollte so gewählt werden, daß die
überwiegend im nichtlinearen Bereich der Sigmoidfunktion liegen.
Jedem Hopfield-Netz ist eine bestimmte
Speicherkapazität
zu eigen. Große, vollständig verbundene Netze mit N Knoten können etwa
unkorrelierte Muster speichern.
Werden mehr Muster in den Lernsatz integriert, als das Netz
zu speichern vermag, bricht die Wiedergabefähigkeit unter
Umständen völlig zusammen.
Die Größe der Attraktoren
nimmt mit der Zahl der gespeicherten Muster ab.
Da die zugehörige Objektfunktion (hier wegen physikalischer
Analogien auch Energiefunktion genannt) nur Paritäten von
Signal-Vorzeichen berücksichtigt, können Hopfield-Netze ausschließlich
Vorzeichen-Paritäten (also binäre Muster)
speichern und reproduzieren.
Hopfield-Netze können verdünnt
werden, indem man Verbindungen entfernt.
Die Speicherkapazität ist dabei etwa
proportional zur Zahl der Verbindungen.
Durch asymmetrische Verbindungen
können Oszillationen oder chaotisches Verhalten auftreten.
Selbstverbindungen (Gewichte )
wirken sich meist negativ auf die Leistungsfähigkeit eines
Hopfield-Netzes aus.
Iterative Lernregel für
Autoassoziativ-Speicher:
Eine asymmetrische, iterative Lernregel,
in der gut repräsentierte Muster jeweils weniger stark beitragen,
läßt sich (ähnlich dem Backpropagation-Algorithmus) aus dem
Gradienten einer entsprechenden Fehlerfunktion bilden:
Wie beim Backpropagation-Algorithmus werden die Muster in Zyklen
präsentiert.
Hiermit (und mit einer entsprechenden diskreten Version)
lassen sich deutlich höhere Speicherkapazitäten
erreichen als mit reinen Hebb-Gewichten.