aus derStandard.at, 18. April 2024 zuJochen Ebmeiers Realien, zu Philosophierungen
Wie lange wird es noch dauern, bis Künstliche Intelligenz (KI) unsere menschliche Hirnleistung in jeder Hinsicht übertrumpft? Diese Frage beflügelt schon lange die Fantasie, nicht nur von Science-Fiction- und Tech-Aficionados. Einigkeit gibt es darüber längst nicht.
Elon Musk, einst Mitbegründer von OpenAI, der Firma, die mit ChatGPT KI-Systeme in neue Sphären katapultierte, verlautbarte vergangene Woche, dass KI bereits 2025 oder 2026 intelligenter als der intelligenteste Mensch sein wird. Andere führende Köpfe der Branche gehen davon aus, dass es mindestens bis 2030 oder länger dauern werde, bis Künstliche Intelligenz ein Level erreicht, auf dem sie mit den meisten der bedeutenden intellektuellen Fähigkeiten des Menschen mithalten kann oder sie übertrifft, was auch als Künstliche Allgemeine Intelligenz bezeichnet wird. Welche kognitiven Fähigkeiten der Begriff umfasst, ist allerdings auch keineswegs klar.
Unumstritten ist, dass sogenannte generative KI – die nicht nur menschliches Verhalten nachahmt, sondern fähig ist, selbstständig neue Inhalte zu generieren – in den letzten Jahren einen kometenhaften Aufstieg hingelegt hat. Wie weit sie entwickelt ist, untersucht seit 2017 jährlich der Artificial Intelligence Report der kalifornischen Universität Stanford. Der vor wenigen Tagen veröffentlichte neueste Bericht zeigt, dass Künstliche Intelligenz den Menschen bereits in vielen grundlegenden Fähigkeiten schlägt.
Überlegen bei Texten und Bildern
Die großen KI-Sprachmodelle (Large Language Models) haben demonstriert, dass sie insbesondere bei visuellen Aufgaben wie Bildanalyse und Objekterkennung, aber auch was Sprach- und Leseverständnis angeht, den Menschen "routinemäßig" übertreffen, wie es in dem Bericht heißt. Beim Benchmark Massive Multitask Language Understanding (MMLU) haben die Systeme ebenfalls an der Schwelle der menschlichen Performance gekratzt. Googles Gemini war das erste KI-System, das im vergangenen Jahr den Test, bei dem 57 Bereiche wie Mathematik, Physik, Medizin und Geschichte abgefragt werden, bestand.
In anderen Feldern wie höherer Mathematik auf Wettbewerbslevel, visuellem Denken, das logische Begründungen einschließt, sowie bei Planungsaufgaben hinkt die Künstliche Intelligenz (noch) hinterher. "Die derzeitige KI-Technologie kann nicht zuverlässig mit Fakten umgehen, komplexe Überlegungen anstellen oder ihre Schlussfolgerungen erklären", heißt es.
Wenn es nach kürzlichen Ankündigungen von OpenAI und Meta geht, wird es einem Bericht der "Financial Times" zufolge aber nicht mehr lange dauern, bis auch diese Schwelle übertreten wird. Die nächste Generation an KI-Systemen wie Metas Lllama 3 oder auch OpenAIs GPT-5, die angeblich demnächst ausgerollt werden, soll komplexe Aufgaben viel raffinierter als bisher lösen können, insbesondere was logisches Denken, die Fähigkeit zu planen und die Abschätzung von Konsequenzen angeht.
"Verblüffendes" Tempo
Enorm verbessert haben sich zuletzt schon multimodale Modelle wie Gemini und OpenAIs GPT-4, die in der Lage sind, Texte, Videos und Bilder sowie fallweise auch Audio zu verarbeiten und nicht nur auf eine Art von Inhalten spezialisiert sind.
Einer der neuesten Tests namens Graduate-Level Google-Proof Q&A Benchmark (GPQA) zeigt, wie rasant die Fortschritte sind: Fachleute mit Doktorat in dem jeweils abgefragten Gebiet konnten 65 Prozent der Multiple-Choice-Fragen richtig beantworten, solche außerhalb des Gebiets schafften trotz erlaubter Internetnutzung nur 35 Prozent. KI-Systeme konnten im Vorjahr etwa 30 bis 40 Prozent der Fragen korrekt beantworten. Der Chatbot Claude 3 kam heuer auf rund 60 Prozent.
Mit diesen Entwicklungen werden somit auch die Benchmarks, also standardisierte Tests für KI-Modelle, immer schneller obsolet. Neue Methoden wären nötig, um das Abschneiden in komplexen Aufgaben wie Abstraktion und logischem Denken oder moralischen Erwägungen zu evaluieren. "Das Tempo des Leistungszuwachses ist verblüffend schnell", sagt Nestor Maslej, Sozialwissenschafter in Stanford und Chefredakteur des "AI Index".
Erschöpfte Datenressourcen
Auf knapp 500 Seiten – die mithilfe von KI bearbeitet und gestrafft wurden – liefert die Stanford-Studie eine Unmenge an Daten über die Forschung zu Künstlicher Intelligenz, die Industrie dahinter, Ethik, Kosten und vielem mehr. Sie zeigt, dass sowohl die Entwicklung als auch die Anwendungen explodieren. Auf der Entwicklerplattform Github ist die Zahl der KI-Projekte allein im letzten Jahr um knapp 60 Prozent auf rund 1,8 Millionen gestiegen. Von kommerzieller Seite wurden 51 relevante Machine-Learning-Systeme im vergangenen Jahr herausgebracht, dazu kommen 15 von akademischer Seite. Besonders KI-Anwendungen in der Wissenschaft sind stark am Ansteigen.
In die Höhe schießen auch die Kosten für die immer besseren Modelle, ebenso wie die Investitionen. 25,2 Milliarden Dollar flossen dem Bericht zufolge im vergangenen Jahr in generative KI, das ist fast achtmal so viel wie im Jahr davor. Mit immer besserer Leistung ist auch der Energieverbrauch enorm angestiegen, genauso wie die Wassermengen, die nötig sind, um die Datenzentren zu kühlen.
Keine Kommentare:
Kommentar veröffentlichen