Dienstag, 31. Januar 2023

Rechnen und lernen können Maschinen tatsächlich besser.

 Nürnberger Trichter                                  zu Levana, oder Erziehlehre
aus derStandard.at, 30. 1. 2023

Forscherin kritisiert "stupides Auswendiglernen" an Schulen und Unis
Die Informatikerin Ute Schmid mahnt ein moderneres Bildungssystem ein. Auch die Geisteswissenschaften könnten auf einen radikalen Umbruch zusteuern
.

von Martin Stepanek

Der Hype und die Diskussionen um das Sprachmodell Chat GPT reißen nicht ab. Während Schulen und Universitäten noch zwischen Verbot und bewusstem Einsatz lavieren – etwa was das Erstellen von Hausaufgaben und Seminararbeiten, aber auch die Zuhilfenahme bei Prüfungen betrifft –, finden Forscherinnen wie die Informatikerin Ute Schmid von der Otto-Friedrich-Universität Bamberg deutliche Worte.

"Sprachmodelle wie Chat GPT machen einmal mehr deutlich, dass stupides Auswendig-lernen und die Abfrage von derartigem Wissen an Schulen und Unis ein überholtes Kon-zept sind", sagt Schmid auf STANDARD-Nachfrage. Jahreszahlen auswendig zu lernen oder in Mathematik und Physik nur zu rechnen, anstatt diese Rechengänge tatsächlich ver-stehen, herleiten und formalisieren zu können, sei kaum zielführend. Denn diese Art von Wissen könne man sehr schnell online abrufen, und es sage wenig über die tatsächlichen Kompetenzen einer Person aus.

Im Zeitalter von künstlicher Intelligenz (KI) müsse man sich in Europa gut überlegen, "was wir mit Bildung meinen und wie wir Kompetenzen sinnvoll abprüfen". Denn die Art, wie geprüft werde, bedinge auch, wie gelernt und welche Fähigkeiten trainiert werden. Anstatt Wissen massenweise über Multiple-Choice-Tests abzufragen, schlägt die Forscherin ein Mehr an persönlichen Prüfungsgesprächen vor. Dass so ein Umbruch sehr personalintensiv und mit entsprechenden Kosten verbunden ist, liege allerdings auf der Hand.

Problem für die Geisteswissenschaft?


KI-Ethik-Experte Thilo Hagendorff von der Eberhard-Karls-Universität Tübingen geht noch einen Schritt weiter und glaubt, dass sich große Teile der Geisteswissenschaften neu erfinden müssen – vor allem die nicht empirisch arbeitenden Fächer. "Forschung basiert dort vielerorts auf der Exegese vergangener Texte. Bücher zu studieren und aus diesen Texten etwa für eine Dissertation zusammenzusetzen kann durch Sprachmodelle über-nommen werden", ist Hagendorff überzeugt.

Viele der tiefgreifenden Veränderungen durch künstliche Intelligenz, die sich auch in den Medien, in der Wirtschaft, aber ganz generell im menschlichen Zusammenleben wider-spiegeln werden, seien derzeit noch gar nicht abschätz- und vorstellbar. Von der in akademischen Kreisen diskutierten Forderung, dass Sprachmodelle wie Chat GPT in wissenschaftlichen Arbeiten angeführt werden sollten, hält er hingegen wenig: "Früher oder später wird jeder Sprachmodelle benutzen. Es geht dann aber weniger ums Schreiben solcher Texte, sondern wie man diese editiert."

Editieren statt schreiben

Die Frage, wie und ob Forschende beim Schreiben ihrer Arbeiten von künstlicher Intelligenz ersetzt werden können, bleibt umstritten. So wies Schmid etwa auf ein abgeblasenes EU-Projekt hin, bei dem das dolmetschende Personal von einem Sprachmodell hätte unterstützt werden sollen. Da das Editieren und Verbessern der maschinell übersetzten Texte teilweise so aufwendig war, dass die Übersetzer und Übersetzerinnen länger an einem Schriftstück saßen, als wenn sie es von vornherein selbst in eine andere Sprache übersetzt hätten, verzichteten sie auf dessen Einsatz.

Robotikprofessor Oliver Brock von der TU Berlin widerspricht Hagendorff ebenfalls, was das Verfassen akademischer Arbeiten betrifft. Existierende Texte so zu kombinieren, dass sich daraus eine relevante und interessante Forschungsarbeit ergebe, sei eine komplexe Aufgabe und mache genau die Leistung von Menschen aus. Er bezweifelt auch, ob Chat GPT dazu jetzt in der Lage wäre. "In all dem aktuellen Hype und Enthusiasmus um Chat GPT dominieren derzeit die Berichte darüber, was alles funktioniert. Darüber, was nicht funktioniert, liest man viel weniger", sagt Brock.

Wenn Chat GPT schwurbelt

Dass der Sprachbot auch im wissenschaftlichen Kontext überzeugend falsche Antworten liefert – der Fachbegriff dafür lautet "Halluzinieren" –, konnte DER STANDARD bereits in eigenen Experimenten dokumentieren. So beantwortete Chat GPT etwa die Frage nach dem pseudowissenschaftlichen Fantasiebegriff "linguistischer Magnetismus" mit einer selbstbewussten Erklärung, die von vorn bis hinten erfunden war. Die Zuordnung des angeblichen Phänomens zur Soziolinguistik machte die Erklärung ein Stück weit überzeugender, aber nicht weniger falsch.

Für Brock stellt sich überhaupt die Frage, ob man bei Chat GPT von künstlicher Intelligenz reden könne. "Vom Ziel, biologische Intelligenz zu synthetisieren, sind wir weiterhin weit entfernt. Chat GPT stellt dabei sicherlich keinen Durchbruch für die KI-Forschung dar", erklärt der Robotik- und KI-Experte. Zwar habe man beim maschinellen Lernen auf niedrigen Dimensionalitäten wie Sprache und Bilder viele Fortschritte gemacht. Aber bereits bei Videos oder auch beim Einsatz von Robotern in der viel höher dimensionierten realen Welt stoße man auf Herausforderungen, die man mit den Fähigkeiten von Sprachmodellen nicht lösen könne.

Wie funktioniert Intelligenz?

Um die Intelligenz von Lebewesen wie Menschen oder Tieren künstlich reproduzieren zu können, gibt es laut Ansicht von Brock eine wesentliche Hürde. So fehle es immer noch am tiefen wissenschaftlichen Verständnis, wie Intelligenz zustande komme und funktioniere. Dazu sei ein interdisziplinärer Ansatz notwendig, der neben der Neurowissenschaft auch die Psychologie und Erziehungswissenschaften umfassen müsse. "Wir müssen Wissenschafter trainieren, an diesen Grenzbereichen zu forschen. Dafür wird es auch neue wissenschaftliche Methoden brauchen", ist Brock überzeugt.

Für Diskussionspotenzial sorgt immer wieder auch der Umstand, dass viel KI-Forschung in der Hand kommerzieller Unternehmen stattfindet. Ethikexperte Hagendorff erachtet die Kommerzialisierung per se nicht als problematisch. Viele Modelle und die Technologien dahinter würden zudem als Open Source teilweise frei zur Verfügung gestellt. Heikel werde es allerdings, wenn die zentralisiert gesteuerten Modelle normative, wertende Antworten geben – etwa auf Fragen, ob dies oder jenes Konzept gut oder schlecht sei. "Wenn diese Maschinenmoral von einer einzelnen Firma bestimmt wird, sehe ich das als sehr problematisch", sagt Hagendorff auf STANDARD-Nachfrage.


Nota. - Was ein Wissen taugt, nämlich für objektivierbare Zwecke,  macht womöglich nicht seine Qualität aus, denn die wäre eventuell selber Zweck. Und eine Qualität lässt sich durch formalisierte Tests vermutlich nicht erfassen, weil die es auf Relationen abgesehen haben und nicht auf Qualitäten. Die nicht erst  gegenwärtige Bildungsdiskussion dreht sich im Kreis, weil immer zu viele überkommene Gegebenheiten als selbstverständlich vorausge-setzt bleiben. Eine Bildung, die auf absehbare Nützlichkeit abgestimmt ist, ist eo ipso unzweckmäßig - ganz prosaisch gedacht und gesprochen. Der technische Fortschritt ist so rasant, dass, was heute dem Schüler als allerletzter Schrei beigebracht wird, schon veraltet ist, wenn er die Schule verlässt. 

Das war schon vor zwanzig, dreißig Jahren so, doch mit der KI wird es auch für didaktische Laien evident: Bildung entsteht nicht durch Akkumulation von sachlichen Informationen, sondern durch Ermächtigen zum Selberurteilen. Und das ist schlechterdings etwas anderes. Es ist jedenfalls nichts, was der eine hat und dem andern, der's noch nicht hat, beibringt: Der wird es selbst erfahren müssen.

Ach ja, "Herr E., wo bleibt das Positive?" - Weiß ich doch nicht. Aber ihr tätet schon einen gewaltigen Schritt, wenn ihr einsehen wolltet, was auf jeden Fall nicht (mehr) richtig ist (wenn's das je war).
JE

Keine Kommentare:

Kommentar veröffentlichen

Blog-Archiv

Pausen sind gut und nötig; der Pausenhof ist ein Übel.

                                                          aus Levana, oder Erziehlehre Die Schule ist ein Ort, der Kinder in einer so ...