Freitag, 10. Oktober 2025

Synaptische Plastizität und künstliche Intelligenz.

Abstrakte Darstellung eines menschlichen Gehirns mit einer komplexen Anordnung von leuchtenden, vernetzten Linien und Knotenpunkten, die neuronale Netzwerke und Aktivität symbolisieren. Farben wie Blau, Gelb und Rot heben die Verbindungen und Aktivität hervor.
aus derStandard.at, 4. 10. 2025                                                                            zu Jochen Ebmeiers Realien

Synaptische Plastizität

Was KI vom Gehirn lernen kann
Lernprozesse im menschlichen Gehirn beruhen auf der fortlaufenden Anpassung interner Modelle. Dieses Prinzip inspiriert auch die Entwicklung von Künstlicher Intelligenz

von Mario Wasserfaller

"Hat der alte Hexenmeister sich doch einmal wegbegeben! Und nun sollen seine Geister auch nach meinem Willen leben ..." Schön wäre es gewesen, sich in der Schulzeit Goethes Zauberlehrling ad hoc ins Gedächtnis zu zaubern. Wunderkinder ausgenommen, hieß das allerdings: lesen, noch einmal lesen, und alles von vorn, bis der Stoff sitzt und man ihn vor versammelter Klasse herunterrattern kann.

Der wichtigste Mechanismus des Lernens ist Wiederholung, da sie die synaptischen Verbindungen zwischen Neuronen im Gehirn verstärkt. Der Neurotransmitter Dopamin signalisiert dabei, welche Erfahrungen lohnend sind, und verstärkt gezielt die entsprechenden Synapsen. So wird wiederholtes Lernen effizienter und nachhaltiger.

Bestärkendes Lernen

Von diesem Prinzip machen auch künstliche neuronale Netzwerke (KNN) unter dem Begriff bestärkendes Lernen (Reinforcement Learning) Gebrauch. Die vom Gehirn inspirierten Systeme aus Knoten (Neuronen) und gewichteten Verbindungen (Synapsen) werden in Suchmaschinen, Apps, Empfehlungssystemen oder der Medizin eingesetzt, um durch Analyse großer Datenmengen Zusammenhänge zu erfassen und Vorhersagen zu treffen. Wer sich also im Streamingdienst Komödien wie Die nackte Kanone ansieht, verdankt einem KNN die Vorschläge für die Fortsetzungen 2 1/2, 33 1/3 und ähnlichen Klamauk wie Mr. Bean.

Anders als im biologischen Gehirn geschieht das nicht über Botenstoffe wie Dopamin, sondern durch mathematische Optimierungsverfahren, die Fehler minimieren. Wo das Gehirn durch Wiederholung und Belohnung synaptische Verbindungen verstärkt, passen KNN ihre Gewichte an, um Muster in Daten zu erkennen. Für den Neurowissenschafter Johannes Passecker von Institut für Systemische Neurowissenschaften ist das ein Paradebeispiel dafür, wie sich Neurowissenschaften und Künstliche Intelligenz gegenseitig befruchten können: "Das Konzept des Reinforcement Learning kommt zwar ursprünglich aus der Verhaltensforschung, ist aber gleichzeitig im Computing hochgekommen. Heute ist es ein integraler Bestandteil unseres Verständnisses darüber, wie das Gehirn über Dopamin Lernprozesse optimiert."

Bestmögliche Entscheidungen

Doch damit nicht genug der Parallelen. Im Passecker Lab geht man vor allem der Frage nach, wie verschiedene Gehirnregionen kooperieren, um bestmöglich Entscheidungen zu treffen: "Entscheidungen basieren auf Wissen. Aber wie entsteht dieses Wissen, und wie nehmen wir neue Informationen auf? Das ist es, was wir untersuchen, und es hängt direkt mit dem Lernen zusammen." Konkret will das Team um Passecker im Rahmen eines FWF-Projekts neue Einblicke in die neuronale Kommunikation zwischen präfrontalem Cortex und Striatum gewinnen.

Der präfrontale Cortex bewertet Entscheidungen, während das Striatum das Verhalten anhand von Belohnungen steuert. Zusammen koordinieren sie Fehlerkorrektur und Belohnungslernen, um Verhaltensweisen zu optimieren. In früheren Experimenten zeigte sich bereits, dass die Aktivität bestimmter Neuronen im präfrontalen Cortex vorhersagen kann, ob Ratten risikofreudige oder sichere Entscheidungen treffen. Eine gezielte Manipulation dieser Zellen beeinflusste das Lernverhalten der Tiere, was auf die Bedeutung dieser Prozesse für Entscheidungsfindung und potenziell für Erkrankungen wie Spielsucht hinweist.

Vorhersagen und Fehlerkorrektur

Eine der wichtigsten Theorien dahinter ist die prädiktive Kodierung, und sie ist sowohl für die Neurowissenschaften als auch für das maschinelle Lernen von neuronalen Netzwerken bedeutsam. Prädiktive Kodierung beschreibt, wie das Gehirn fortlaufend Hypothesen über die Umwelt bildet, diese mit eingehenden Signalen abgleicht und Unsicherheiten reduziert. Maschinelles Lernen nutzt ähnliche Strategien, indem Modelle Wahrscheinlichkeiten berechnen und durch Feedback verbessern.

Ähnliche Parallelen zeigen sich beim Mechanismus der Aufmerksamkeit, der im Gehirn die relevanten neuronalen Verbindungen stärkt und Nebensächliches ausblendet. Moderne Sprachmodelle (Large Language Models) wie ChatGPT, Gemini oder Grok funktionieren auf Basis der Transformer-Architektur: Sie gewichten Teile einer Eingabe unterschiedlich stark und richten den Fokus (Aufmerksamkeit) auf die wichtigsten Elemente. So können beide Systeme effizienter lernen, indem sie Ressourcen gezielter einsetzen.

Interne Modelle im Blick

Prädiktive Kodierung und Aufmerksamkeit sind wiederum eng mit sogenannten internen Modellen des Gehirns verbunden. Diese stehen im Mittelpunkt des ambitionierten neurowissenschaftlichen Großprojekts Scene (Simons Collaboration on Ecological Neuroscience), an dem Forschende der Central European University (CEU) maßgeblich beteiligt sind.

"Wir konzentrieren uns darauf, wie das Gehirn interne Modelle bildet, insbesondere in Bezug auf eine Klassifikation: Bilden diese Modelle alles Vorhersehbare ab, oder fokussieren sie sich besonders auf Dinge, die handlungsrelevant sind, wie Belohnungen und Strafen?", beschreibt Máté Lengyel, Professor für Kognitionswissenschaft und Projektleiter an der CEU, das zentrale Forschungsinteresse.

Inspiration für KI

Das im Juli gestartete und von der Simons Foundation mit acht Millionen US-Dollar jährlich geförderte Projekt vereint sechs internationale Forschungsteams aus Kognitionswissenschaft, Neurowissenschaften und Künstlicher Intelligenz. Im Laufe der nächsten zehn Jahre will man erforschen, wie lebende Organismen Vorhersagen treffen, ihre Umwelt interpretieren und mit dynamischen, natürlichen Gegebenheiten interagieren.

Mit dem Ansatz der ökologischen Neurowissenschaft soll die Brücke zwischen kontrollierten Laborexperimenten und dem Verhalten in komplexen, realen Szenarien geschlagen werden. Die Forschenden hoffen, Prinzipien zu entdecken, die nicht nur natürliche Intelligenz erklären, sondern auch die Entwicklung von KI-Systemen der nächsten Generation vorantreiben können. "Wir stoßen in komplett unbekannte Bereiche vor, und auch mit diesem Zeithorizont ist das absolut einzigartig in den Neurowissenschaften", sagt Lengyel, der selbst die Theoriegruppe des Projekts leitet.

Zielgerichtetes Handeln

Pionierarbeit leistet dabei unter anderen Jonathan Kominsky, Assistenzprofessor für Kognitionswissenschaft an der CEU. Er untersucht, wie Säuglinge neue motorische Fähigkeiten erlernen und dabei interne Modelle aufbauen, die zielgerichtetes Handeln ermöglichen. Gerade die langsame motorische Entwicklung des Menschen erlaubt es, die Veränderung solcher Modelle über die Zeit zu beobachten. "Wie verändert Erfahrung diese internen Modelle, wie schnell werden sie aktualisiert – und ermöglicht sie vielleicht sogar den Zugang zu internen Modellen, die schon vorhanden, aber bisher ungenutzt waren?", ist die Kernfrage, auf die er nach Antworten sucht.

Die Geister der KI sind gerufen, doch wer weiß schon, wie lange sie vom "alten Meister" Gehirn noch im Zaum gehalten werden? Kominsky erkennt jedenfalls einen markanten Unterschied zwischen der menschlichen Entwicklung und jener von künstlich geschaffenen Systemen: "Maschinelles Lernen erfordert oft gigantische Mengen an Trainingsdaten, während Menschen in vielen Bereichen mit vergleichsweise wenig Erfahrung erstaunlich effizient lernen." 

 

Nota. - Wie weit man immer das maschinelle Organ dem lebenden Gehirn anglei-chen wird - eins lässt sich schlechterdings nicht ändern: Es lebt nicht in einem Or-ganismus, der als Ganzer "in der Welt ist" und sich seine Informationen absichtsvoll dort herholt, wo er sie finden kann; sondern bleibt angewiesen auf die Brocken, die ihm serviert werden. Das ist kein quantitativer Unterschied, sondern ein dimensio-naler.
JE

 

Keine Kommentare:

Kommentar veröffentlichen

Blog-Archiv

Angst.

  eingeschlossen aus derStandard.at, 11. 10. 2025                                                                                      zu   ...