Hebbsche Regel
Psychologie
Basiswissen
Je öfters zwei Neurononen an Signalübertragungen beteiligt sind desto stärker bildet sich die Verbindung zwischen diesen Neuronen aus. Man spricht von synaptischer Plastizität. Dieses Prinzip scheint als realen neuronalen Lernprozessen beteiligt zu sein, kann aber Lernen als alleiniges Phänomen nicht hinreichend - auch nicht ansatzweise - erklären. Das Konzept inspirierte aber schon früh die Entstehung spezieller Formen einer Künstlichen Intelligenz[2]. Siehe auch neuronales Netz ↗
Fußnoten
- [1] Donald Hebb: The organization of behavior. A neuropsychological theory. Erlbaum Books, Mahwah, N.J. 2002, ISBN 0-8058-4300-0 (Nachdruck der Ausgabe New York 1949)
- [2] Die Hebb'sche Regel als Kern einer bereits 1965 vorhergesagten neuronalen Superintelligenz: "an attempt is made to take more of the magic out of the brain by means of a 'subassembly' theory, which is a modification of Hebb's famous speculative cell-assembly theory. My belief is that the first ultraintelligent machine is most likely to incorporate vast artificial neural circuitry […]" Und die Technik wird lernfähig sein: "the artificial neural network will largely take care of it, provided that the parameters are correctly chosen, and provided that the network is adequately integrated with its sensorium and motorium (input and output). For, if these conditions are met, the machine will be able to learn from experience, by means of positive and negative reinforcement, and the instruction of the machine will resemble that of a child." In: Irving John Good: Speculations Concerning the First Ultraintelligent Machine. Trinity College. Oxford. 1965. Basierend auf Vorträgen der "Conference on the Conceptual Aspects of Biocommunications" des Neuropsychiatric Institute, University of California, Los Angeles, Oktober 1962 und der "Artificial Intelligence Session" des "Winter General Meetings" der IEEE vom Januar 1963. Zur Realisierung gut 60 Jahre später siehe zum Beispiel ChatGPT ↗