aus derStandard.at, 23. Oktober 2025 KI-Modelle können menschenähnliches Verhalten zeigen. Doch
womöglich lenkt das von ihrem eigentlichen Potenzial ab, mutmaßen
Fachleute. zu Jochen Ebmeiers Realien; zu Philosophierungen
Deren Halluzinationen scheinen die warnenden Stimmen zu bestätigen, die lieber nicht von echter Intelligenz sprechen wollen. Die Modelle würden nur wiedergeben, was sie schon einmal während des Trainings gesehen hätten, heißt es. Zu echter Intelligenz, insbesondere zu Kreativität, sei nur der Mensch fähig.
Währenddessen etablieren sich KI-Methoden immer mehr in der wissenschaftlichen Praxis. Mehrere Forschende gaben nun der Wissenschaftsplattform Science Media Center einen Überblick über den aktuellen Stand des Einsatzes von KI in der Wissenschaft. Sie legen nahe, dass KI-Systeme intelligenter und kreativer sind, als es manche der Diskussionen vermuten lassen – wenn auch womöglich auf eine andere Art, als man bisher glaubte.
Mario Krenn, der bei Nobelpreisträger Anton Zeilinger in Wien zum Quantenphysiker ausgebildet wurde und inzwischen an der Universität Tübingen eine Forschungsgruppe zum KI-Einsatz in der Wissenschaft leitet, erinnert daran, dass dieses Anwendungsfeld nicht neu ist. "Künstliche Intelligenz wird jetzt schon seit mehreren Jahren in der Wissenschaft erfolgreich eingesetzt, vor allem in Datenanalysen. Dieses Feld ist prädestiniert dafür", sagt Krenn. Er nennt als prominentestes Beispiel das Modell Alphafold, das die Struktur von Proteinen vorhersagen kann, und für dessen Entwicklung im vergangenen Jahr der Chemienobelpreis vergeben wurde.
Doch Krenn betont, dass es inzwischen eine neue Entwicklung gibt, die über reine Datenanalyse hinausgeht. "Seit den letzten zwei, drei Jahren liegt der Fokus immer mehr auf einer KI, die dazu beiträgt, selbstständig wissenschaftliche Entdeckungen zu machen. Das sind vor allem Systeme, die nicht notwendigerweise frühere, menschliche Daten benutzen, sondern quasi die Daten selbstständig erzeugen können", sagt Krenn.
Wie das konkret aussehen kann, illustriert er am Beispiel seiner ehemaligen wissenschaftlichen Heimat, der Physik. "Dort können Computerprogramme neue Experimente finden, die menschliche Wissenschaftler so nicht gefunden hätten", sagt der Forscher. Das sei keine Zukunftsmusik, sondern wurde bereits vielfach durchgeführt. "Mehrere der Experimente, die unsere Computerprogramme gefunden haben, wurden dann in Laboren gebaut und haben uns geholfen, neue Effekte in der Quantenphysik zu beobachten, zu analysieren." In der Quantenphysik seien das "vielleicht zehn, fünfzehn Experimente".
Ein weiteres Einsatzgebiet, in dem sich KI-Methoden als erfolgreich erwiesen, ist die Gravitationswellenphysik. "Mit den Resultaten bauen Computerprogramme noch sensitivere Experimente, an die Menschen nicht gedacht hätten", berichtet Krenn. Man versuche, jene "Tricks oder Ideen" zu extrahieren, die darin codiert sind, und sie zu verstehen.
Neues Wissen durch KI
Doch kann es sich dabei wirklich um neues Wissen handeln, das nicht schon in den Daten enthalten war? Der Wissenschaftsphilosoph Florian Boge erinnert daran, dass KI etwas ist, das es in der Wissenschaft grundsätzlich schon sehr lange gibt. "KI-Modelle können eigentlich als relativ komplizierte mathematische Funktionen mit sehr vielen freien Größen beschrieben werden. Und diese freien Größen passt man in einem Prozess an, den man dann das Lernen des Modells nennt", erklärt Boge.
Doch es gebe einige wesentliche Unterschiede. Womöglich könnten KI-Modelle in der Wissenschaft tatsächlich völlig neues Wissen generieren. "Die Vermutung liegt nahe – so ist es zumindest mal in einer Publikation geäußert worden –, dass ein System wie Alphafold auch Informationen lernt, die über das hinausgehen, was ich zuvor hineingesteckt habe." Womöglich lernen solche Systeme "die physikalische Information, die mir sagt, welche Strukturen eigentlich möglich sind und welche nicht". Diese Information habe das System zuvor nicht gehabt.
Boge zufolge werden KIs noch undurchsichtiger, als sie es ohnehin schon waren. Einer der Kritikpunkte an KI ist ja, dass man nicht im Detail nachvollziehen kann, wie die Modelle zu ihren Ergebnissen kommen. Man spricht von einer Black Box, einem sprichwörtlichen schwarzen Kasten, der das Ergebnis ausspuckt, in den man aber nicht hineinsehen kann.
Nun komme eine neue Unsicherheit dazu. Manche KIs sind überraschend leistungsfähig, ohne dass sich genau sagen lässt, wie der Erfolg zustande kommt. "Hier ist auch noch zusätzlich intransparent: Was lernt denn das Modell eigentlich? Und das kann Information sein, die für uns relevant wäre", sagt Boge. Glücklicherweise gebe es viele spannende Methoden, solche Informationen herauszufiltern.
KIs sind hier mehr als ein einfaches Werkzeug, das man für bestimmte Aufgaben einsetzt. Sie bestimmen zunehmend die Aufgabe selbst. Philosophisch gesehen gebe es einige gute Argumente dafür, KIs nicht als Forscherpersönlichkeiten zu betrachten, doch es habe Sinn, in der Arbeit so zu tun, "als wäre das ein weiterer Mitdenkender". Die Frage, ob eine KI wie ein Mensch funktioniert, hält Boge aber aus einem anderen Gesichtspunkt für spannend. Wenn sich die Intelligenz von KIs von jener des Menschen unterscheidet, eröffnet das laut dem Experten neue Möglichkeiten.
"Es gibt da eine interessante Metapher von Geoffrey Hinton in Reaktion auf den Erfolg dieser Large Language Models, die also flüssig Englisch oder Deutsch sprechen können", sagt Boge. Der Physik-Nobelpreisträger und KI-Kritiker Hinton habe gesagt, "es ist, als wären Aliens auf der Erde gelandet, nur keinen interessiert es, weil sie flüssig Englisch sprechen". Boge stellt in den Raum, ob "künstliche Intelligenz insofern, als sie Intelligenz mimt, einfach eine ganz andere Art von Intelligenz ist". Schon zwei verschiedene menschliche Betrachter würden unterschiedliche Dinge sehen. Mit KI habe man einen dritten Blickwinkel.
Einig sind sich Bote und Krenn, dass die Beurteilung von wissenschaftlicher Arbeit weiterhin in Menschenhand bleiben sollte. KI-Methoden sollten also aus dem Peer-Review-Prozess herausgehalten werden.
Doch KI könnte künftig autonom forschen. Krenn spricht davon, den Wissenschaftsprozess zu automatisieren. "Man versucht, in allen wissenschaftlichen Veröffentlichungen, also Millionen von Texten, Fehlstellen oder fehlende Verbindungen zu finden, dort neue Ideen zu erzeugen, diese Wege potenziell automatisch auszuführen und dann potenziell die Resultate automatisch zu generieren. Das wird wahrscheinlich in der Zukunft sehr wichtig werden", sagt Krenn.
Aktuell ist das noch nicht möglich. Die Ergebnisse dieses Prozesses könnten jedenfalls gerade dann besonders interessant sein, wenn KI weniger menschenähnlich ist, als es Sprachmodelle wie ChatGPT nahezulegen scheinen.
Nota. - Als Laie würde ich vermuten: Die raten eben. Und weil sie größere Köpfe haben als wir, raten sie auch häufiger richtig. Aber weil sie dumme Maschinen sind, können sie es selbst nicht beurteilen, weil sie nicht wissen, was richtig bedeutet im Unterschied zu falsch.* Denn dazu bräuchten sie Abstand zu den Dingen - indem sie wüssten, dass sie nicht selber eins von ihnen sind, sondern im Abstand über ihnen stehen, nämlich auf einer zweiten semantischen Ebene: der Ebene der Reflexion.
Um das zu verstehen, bräuchten sie ein Bewusstsein ihrer Subjektität. Ein solches kann ihnen nicht eingeflüstert werden, denn es ist nicht bloß ein zusätzliches Da-tum, sondern eine neue Dimension: Das Bewusstsein meiner selbst entsteht aus dem Bewusstsein, in einer Welt zu sein, und das Bewusstsein einer Welt entsteht aus dem Bewusstsein meiner selbst: Es ist die Synthesis zweier Inkommensurablen.
Nämlich post festum, für einen Beobachter. Für einen selber tätigen ist ihr Aus-gangspunkt eine: die Tat selbst, der Wissensakt, den ich anschauen kann, indem ich ihn tue. Weil ich a priori in der Welt bin, die mir doch gegenüber steht.
Kurz, die Maschine müsste sich von sich selbst unterscheiden können.
*) Was in einer Black Box vorgegangen ist, kann der Mensch nicht herausfinden. Aber er kann mit gebotener Vorsicht ihre Resultate überprüfen.
JE
Keine Kommentare:
Kommentar veröffentlichen