aus scinexx.de, 26. Oktober 2023 zu Philosophierungen, zuJochen Ebmeiers Realien
KI lernt das Verallgemeinern
Neues neuronales Netz übertrifft beim logischen Generalisieren erstmals uns Menschen Wie gut sind künstliche Intelligenzen im Generalisieren? Ein neues KI-System beweist es.
Neues Level erreicht: Forschende haben ein KI-System
entwickelt, das gelernte Konzepte erstmals ähnlich gut verallgemeinern
kann wie wir Menschen. Bisherige künstliche Intelligenzen hatten
Probleme, wenn es darum ging, bekannte Komponenten neu zu kombinieren
und dabei logische Verknüpfungen zu beachten. Das jetzt in „Nature“
vorgestellte KI-System auf Basis eines neuronalen Netzes zeigt diese
Fähigkeit jedoch – das ist ein weiterer Schritt in der Nachahmung der
menschlichen Kognition.
Künstliche Intelligenzen wie ChatGPT, Alphafold und Co. sind zu beeindruckenden Leistungen in der Lage. Sie können Texte und Bilder erstellen, Krankheiten voraussagen, Grundprinzipien der Wissenschaft herleiten und sogar Kreativität zeigen. Doch bisher weisen sie ein entscheidendes Manko auf: Selbst einfache logische Umkehrschlüsse wie „wenn A gleich B ist, ist auch B gleich A“ stellen sie oft vor Probleme.
Durch
Neukombination schon bekannter Dinge wie hier das Hüpfen und die
zweimalige Wiederholung können wir Menschen generalisieren – kann das
auch die KI?
Kombinieren für KIs
Bereits Ende der 1980er Jahre argumentierten Forschende deshalb, dass
künstliche neuronale Netze niemals in der Lage sein würden, es in
Sachen Verallgemeinerung mit der menschlichen Kognition aufzunehmen.
„Seitdem haben sich neuronale Netze erheblich weiterentwickelt, doch das
Problem mit der systematischen Generalisierung blieb bestehen“,
erklären Brenden Lake von der New York University und Marco Baroni von
der Universität Pompeu Fabra in Barcelona.
Die grundlegende Herausforderung dabei: Für uns Menschen ist es
selbstverständlich, gelernte Konzepte miteinander zu verknüpfen. Wenn
wir wissen, was hüpfen und was rückwärts bedeutet, können wir problemlos
auf Anweisung rückwärts hüpfen, ohne dies als neues Konzept eigens
lernen zu müssen. Auch die Verbindung dieser Merkmale mit neuen Objekten
oder Personen fällt uns leicht. Bisherige KIs dagegen wären mit einer
solchen Verknüpfung überfordert.
Doch mit einer neuartigen künstlichen Intelligenz haben Lake und
Baroni nun den Gegenbeweis angetreten. „Wir haben nachgewiesen, dass
neuronale Netze eine menschenähnliche Systematik erreichen können, wenn
ihre kombinatorischen Fähigkeiten dafür optimiert wurden“, berichten
sie.
Das neue KI-System konnte auch mehr als zwei zuvor gelernte Bewegungen neu kombinieren
Systematisch und flexibel
Um ein künstliches neuronales Netz speziell für solche systematischen
Verallgemeinerungen zu trainieren, wählten die Forscher einen neuen
Ansatz des maschinellen Lernens, das sogenannte Meta-Lernen für
Kompositionalität (MCL). Statt einen statischen Trainingsdatensatz zu
verwenden, ermöglichten sie dem System dabei, sich nach jeder gelösten
Aufgabe mit den neuen Informationen zu aktualisieren. Die Aufgaben
passten sich dabei dynamisch dem jeweiligen Wissensstand des Systems an.
So lernte die KI beispielsweise die Bedeutung der Begriffe
„rückwärts“, „auf Zehenspitzen“ und „um einen Kegel“, jeweils mit
piktografischen Darstellungen. Im nächsten Schritt sollte sie
eigenständig aufzeichnen, wie ein Strichmännchen „rückwärts auf
Zehenspitzen um einen Kegel“ geht. Anschließend erhielt sie die richtige
Lösung zum Vergleich und konnte sich damit aktualisieren.
Andere Modelle des maschinellen Lernens sind laut Lake und Baroni
entweder zu unflexibel oder zu unsystematisch, um solche Aufgaben zu
bewältigen. „Im Gegensatz dazu erreicht das Meta-Lernen für
Kompositionalität sowohl die notwendige Systematik, als auch die
Flexibilität, die für eine menschenähnliche Generalisierung erforderlich
sind“, schreiben sie.
Um ihr auf diese Weise trainiertes neuronales Netz zu testen, ließen
die beiden Forscher es gegen 25 menschliche Versuchspersonen antreten.
Damit die Menschen keinen Vorteil dadurch hatten, dass sie bestimmte
Wörter schon vorab kannten, erfanden die Forscher Fantasiebezeichnungen
für die Farben rot, grün, grau und blau. Beispielsweise bedeutete „dax“
rot und „wif“ grün. Zusätzlich erfanden sie Wörter, die Verknüpfungen
beschreiben. So bedeutete „kiki“ so viel wie vertauschen. „dax wif“
stand somit für rot grün, „dax kiki wif“ für grün rot.
Sowohl die menschlichen Testpersonen als auch die KI mussten sich
diese Regeln aus einer kleinen Anzahl von Beispielen herleiten und
anschließend auf neue Aufgaben anwenden. Dabei erhielten sie neue,
komplexere Kombinationen von Anweisungen in der Phantasiesprache und
sollten auf dieser Basis farbige Punkte in der korrekten Reihenfolge
anordnen.
KI erreicht oder übertrifft menschliche Leistungen
Das Ergebnis: Die menschlichen Probanden wendeten die zuvor
abgeleiteten Prinzipien in 80,7 Prozent der Fälle richtig an und fanden
die korrekte Lösung. Auch bei Anweisungen, die deutlich komplexer waren
als die Trainingsbeispiele, lagen sie in 72,5 Prozent der Fälle richtig.
„Mit dieser Art der Generalisierung haben die meisten neuronalen
Netzwerke Probleme“, ordnen die Forscher ein.
Nicht jedoch ihr eigens dafür trainiertes Modell: Im besten Durchlauf
erreichte es eine Trefferquote von 100 Prozent und übertraf damit die
besten menschlichen Versuchspersonen. In anderen Versuchen lag die
Trefferquote mit 82,4 Prozent nahe der menschlichen Leistung und auch
die Art der Fehler ähnelte denen, die auch die Menschen machten, wie die
Wissenschaftler berichten. Beispielsweise neigten sowohl die Menschen
als auch die KI dazu, Verknüpfungswörter mit Farbwörtern zu verwechseln.
„Unsere Ergebnisse zeigen erstmals, dass ein generisches neuronales
Netz die systematische Generalisierung des Menschen in einem direkten
Vergleich nachahmen oder sogar übertreffen kann“, sagt Lake. Während
ChatGPT und Co. mit solchen Aufgaben bislang noch überfordert sind,
könnte der neue Ansatz des maschinellen Lernens auch ihre
Leistungsfähigkeit in Zukunft steigern. (Nature, 2023, doi: 10.1038/s41586-023-06668-3)
Quelle: Nature, New York University
Keine Kommentare:
Kommentar veröffentlichen