Die Grundzüge der statistischen Physik des Lernens werden am Beispiel mehrschichtiger neuronaler Netzwerke skizziert. Diese Systeme lernen eine Regel durch Parameteranpassung an gegebene Beispieldaten.
Zunächst wird die Interpretation des sogenannten
Als wichtiges Beispiel-Resultat wird diskutiert, wie sich die unvermeidbaren Symmetrien des Lernproblems auf das Training auswirken. Die notwendige Spezialisierung der verschiedenen Einheiten des Netzwerkes ist bei einer kleinen Anzahl von bekannten Beispieldaten noch nicht möglich. Im On-line-Szenario erfolgt die Symmetriebrechung mit wachsender Beispielzahl kontinuierlich. Demgegenüber treten im Off-line-Training sprunghafte Änderungen des Lernerfolges auf, die Phasenübergängen in Vielteilchensystemen entsprechen.