aus derStandard.at, 12. 3. 2025 zu öffentliche Angelegenheiten
Das menschliche Gehirn ist viel effizienter als jede KI
Unser Gehirn
schafft enorme Leistungen bei verblüffend niedrigem Energiebedarf.
Grazer Forschende arbeiten daran, dieses Prinzip auf künstliche
neuronale Netzwerke zu übertragen
Es ist naheliegend, sich also nicht nur die Rechenstruktur der neuronalen Netze vom Gehirn abzuschauen, sondern auch dessen energieeffiziente Arbeitsweise. Bionische Ansätze dieser Art werden in der Forschung "neuromorphe Systeme" genannt. Robert Legenstein und sein Team am Institute of Machine Learning and Neural Computation an der TU Graz sind in diesem Bereich tätig. Die Forschenden sind aktuell Teil eines Projekts der University of California in Santa Barbara, das sich der Entwicklung neuer Hardware widmet, die nach grundlegend anderen Prinzipien als konventionelle Computersysteme arbeiten. Die Grazer steuern Modellierungen und entsprechende Lernalgorithmen bei, die das Training dieser neuen Systeme organisieren.
"Man könnte sagen, dass Neuronen im Gehirn nur dann feuern, wenn sie etwas zu sagen haben", skizziert Legenstein, der sich eingehend mit der Arbeitsweise des menschlichen Gehirns beschäftigt hat. "Jedes Neuron empfängt elektrische Impulse der verbundenen Neuronen, was zu Veränderungen in der sogenannten Membranspannung der Neuronen führt. Erreicht diese Spannung einen bestimmten Schwellenwert, feuert das Neuron auch selbst und gibt damit Information weiter – wir sprechen dann von einem Spike." In der gegenwärtig eingesetzten digitalen Hardware haben die Knotenpunkte dagegen nicht die Möglichkeit, nur nach Bedarf Informationen weiterzugeben.
Derzeitige neuronale Netzwerke arbeiten auf Prozessoren, bei denen sehr viele Operationen parallel – und organisiert von einer hohen Taktfrequenz – ausgeführt werden. "Mit jedem der Milliarden Taktschläge pro Sekunde werden Informationen von den Knotenpunkten in Form von Gleitkommazahlen weitergegeben – auch wenn sich die Werte zwischen den Taktschlägen nicht geändert haben", erklärt Legenstein. Umgelegt aufs Gehirn wäre das so, als ob ständig alle Neuronen feuern würden. Wenn man die Systeme also auf "Spiking Neural Networks" umstellen kann, fällt mit einem Schlag der Großteil der energieaufwendigen Impulse weg. Bei passender Hardware geht Legenstein davon aus, dass die Arbeitsweise bis zu 10.000-mal effizienter sein könnte als bisher.
Vorbild Synapsen
Umgesetzt können Systeme dieser Art mittels analoger Rechenchips werden. An die Stelle von digitalen Speicherzellen treten sogenannte Memristoren, die Speicher und Rechenelement in einem sind. Setzt der Stromfluss an einem Memristor aus, "merkt" sich der Bauteil den letzten elektrischen Widerstand, der selbst ein Ergebnis aller bisherigen Stromflüsse ist. Wie im Gehirn ist kein ständiger Austausch elektrischer Signale nötig. Dieselben Elemente sind für Kalkulation und Speicherung zuständig. Und es entsteht eine natürliche Gewichtung, die jener der Synapsen im Gehirn ähnelt: Zum Beispiel können jene Knotenpunkte, die stark beansprucht werden, ihren Zustand entsprechend anpassen und weisen dann den geringsten Widerstand auf.
Trainiert werden die Spiking Neural Networks direkt auf der Hardware durch die allmählichen Zustandsveränderungen der Memristoren. Allerdings braucht es – zumindest heute noch – digitale Systeme, die das Training steuern und Resultate auslesen. Bei den Lernalgorithmen, die den analogen Systemen ihre Fähigkeiten geben, kommen Legenstein und sein Team ins Spiel. In einem früheren Projekt, das gemeinsam mit IBM umgesetzt und vom Wissenschaftsfonds FWF unterstützt wurde, haben die Forschenden auf diese Art bereits das schnelle Erlernen einer Bewegung durch einen Roboterarm umgesetzt. Dabei kam spezielle Hardware zum Einsatz, die auf eine Kombination aus analogen und digitalen Elementen zurückgreift.
Vortrainierte Fähigkeiten
Gemeinsam mit den Kollegen in Santa Barbara arbeiten die Grazer nun unter anderem daran, den neuromorphen Systemen zwei Lerngeschwindigkeiten zu geben. "Auch Menschen haben ein Vorwissen, das ihnen erlaubt, einfache Aufgaben im Anlassfall sehr schnell zu lernen. Ähnlich soll es auch hier funktionieren", sagt Legenstein. "Das wollen wir erreichen, indem durch ein umfassendes Training ein Spektrum an Aufgaben vorgeprägt wird. Diese Vorbereitung erlaubt, dass später konkrete Aufgaben anhand weniger Beispiele trainierbar sind."
Besonders nützlich ist diese Lernfähigkeit etwa bei autonomen Systemen, also beispielsweise bei Robotern, die man dann nur kurz auf die konkrete Aufgabe "einschulen" muss. "In diesem Bereich werden wahrscheinlich erste praktische Anwendungen des Technologieansatzes liegen", betont Legenstein. "Längerfristig möchte man aber weg von den Spezialanwendungen und künstliche Intelligenzen schaffen, die sich für alle möglichen Zwecke eignen und auch für Endnutzer interessant sind." Dass neuromorphe Chips in Handys oder Notebooks verbaut werden, ist für den Computerwissenschafter lediglich eine Frage der Zeit – und könnte in weniger als zehn Jahren der Fall sein.
Nota. - "Noch"; Zweck dieser Forschung ist, dieses noch hinter ich zu bringen. Würde damit KI den Hiatus zur organischen Intelligenz überbrücken?
Hier geht es um Geschwindigkeit, und die ist eine Sache der Ökonomie: Ersparnis. Es geht um Quantitäten. Den sachlichen - qualitativen - Unterschied berührt es gar nicht.
JE
Keine Kommentare:
Kommentar veröffentlichen