Forschungs-Nachricht
Weniger ist mehr: Warum sparsame spärliche Vernetzung von Nervenzellen das Lernen effizienter macht
Im Science-Fiction-Film Lucy von 2014 erlangt die Protagonistin durch die vollständige Nutzung ihres Gehirns eine übermenschliche Intelligenz. Dieses Szenario bietet zwar Stoff für einen spannenden Film, hat aber nicht viel mit der Realität zu tun. Unser Gehirn besteht aus etwa 86 Milliarden Nervenzellen (Neuronen). Diese sind jedoch entgegen unserer Vorstellung nicht dicht miteinander vernetzt – eher im Gegenteil: Weniger als 1 % der möglichen Verbindungen zwischen Nervenzellen werden tatsächlich ausgebildet. Diese „Spärliche Konnektivität“ erscheint zunächst nicht gerade leistungsfähig. Eine neue Studie unserer Forschenden in der Fachzeitschrift Frontiers in Neural Circuits legt jedoch nahe, dass diese scheinbare Ineffizienz sogar eher eine Stärke des Gehirns als eine Schwäche ist.
Oft stellen wir uns das Gehirn als ein dicht vernetztes Geflecht von Neuronen vor. Doch die Forschung hat gezeigt, dass Neuronen in der Großhirnrinde nur sehr spärlich verbunden sind. Selbst wenn sich ihre Fortsätze, die Axone und Dendriten, überlappen, ist es äußerst unwahrscheinlich, dass sie sich über Kontaktstellen, sogenannte Synapsen, verbinden(siehe auch Udvary et al). Aber warum ist das so und sollten dichte Verknüpfungen nicht eigentlich von Vorteil sein? Forschende unserer Gruppe In Silico Brain Sciences, geleitet von Prof. Dr. Marcel Oberlaender, haben nun eine Studie veröffentlicht, die die weit verbreitete Annahme, dass mehr Verbindungen zu besserem Lernen führen, infrage stellt.
In typischen künstlichen neuronalen Netzwerken, sogenannten ANNs (artificial neuronal networks), hat sich gezeigt, dass spärliche Konnektivität die Informationsverarbeitung beeinträchtigen kann. Aber gilt das auch für biologische Netzwerke - und wäre das Gehirn demnach aufgrund seiner geringen Dichte von Nervenverbindungen dann nicht optimal strukturiert? Um dieser Frage auf den Grund zu gehen, nutzen unsere Forschenden ANNs, die sich an realen Strukturen der Großhirnrinde orientieren. Sie fanden heraus, dass die spärliche Konnektivität die Verarbeitung von Signalen nicht verlangsamt, sondern im Gegenteil die Effizienz sogar steigert! Im Vergleich zu dicht vernetzten Systemen lernen große, spärlich vernetzte und rückkoppelnde Netzwerke – ähnlich denen im Gehirn – deutlich schneller, benötigen weniger Daten und passen sich besser an, wenn Neuronen Fehlfunktionen aufwiesen. Eine genauere Analyse dieses überraschenden Ergebnisses ergab, dass dicht vernetzte ANNs Informationen nur auf einen sehr kleinen Bruchteil ihrer Verknüpfungspunkte verteilen, während spärliche ANNs Informationen breiter streuen. Diese Eigenschaft macht sie robuster und anpassungsfähiger. Dieser Effekt ist bei den Netzwerken, deren Struktur der Großhirnrinde ähnelt, besonders stark ausgeprägt.
Zusammengefasst zeigt unsere neue Studie, dass die Art und Weise, wie die Neurone im Gehirn verknüpft sind, möglichweise perfekt für effizientes Lernen ausgelegt ist. Zudem zeigte die Studie, dass künstliche ANNs eine vielversprechende Methode bieten, um die Bedeutung komplexerer Vernetzung im Gehirn zu untersuchen. Besonders spannend ist, dass die neuen Daten in Frage stellen, dass dichte Verbindungen zu besseren Leistungen führen - eine gängige Annahme im Bereich Künstlicher Intelligenz. Im Gegenteil konnten unsere Forschenden sogar belegen, dass dichte Verbindungen den Lernprozess sogar verlangsamen können. Dies könnte Auswirkungen auf das zukünftige Design rückkoppelnder (rekurrenter) künstlicher neuronaler Netzwerke haben und die Inspiration aus der Biologie könnte sie effizienter werden lassen. Erstautorin Rieke Fruengel, Doktorandin in der In Silico Brain Sciences Gruppe, fasst zusammen: „Die spärliche Konnektivität des Gehirns ist keine Einschränkung – sie ist eine Optimierung!“
Die Arbeit wurde in Frontiers in Neural Circuits am 13.03.2025 veröffentlicht. Hier geht es zur Veröffentlichung.