Mittwoch, 15. März 2023

Wie die Philosophie ChatGPT erfunden hat.

aus welt.de, 15. 3. 2023                        Jacques Derrida, der Mann, der ChatGPT erfand                               zu Philosophierungen 

PHILOSOPHIE UND KI
„Artificial Generative Intelligence“? Deep Learning? Wie genau funktioniert ChatGPT? Um die Künstliche Intelligenz zu verstehen, hilft die Philosophie. Denn die hat den modernen Chatbot schon vor Jahrzehnten vorweggenommen.

Von Frank Diering

Ein Großteil der französischen Poststrukturalisten hätte an den modernen Chatbots der Generation „Artificial Generative Intelligence“ (AGI) sicher seine holde Freude gehabt. Als Ausdruck der Evidenz ihrer Sprachtheorien, versteht sich.

In ChatGPT ist der Name Programm und fußt ohne Zweifel auf den Erkenntnissen der frankofonen Klassiker. Das G P T im GPT-3 bedeutet „Generative Pre-Trainend Trans-former“. Das Ganze basiert auf Deep Learning – dem Versuch, natürliche Sprache zu verarbeiten oder anzufertigen.

Was also verbindet die Ideen der Literaturwissenschaftler und Sprachkünstler wie Roland Barthes, Julia Kristeva oder Jacques Derrida mit den Large Language Models (LLM) heutiger Zeit, die in Chatbots wie ChatGPT der amerikanischen Firma Open AI zum Einsatz kommen? Nun. Ähnlich wie bei der „generativen Vorstellung“ eines Barthes versuchen LLM, aus einem endlichen Vorrat von Elementen und Regeln eine unendliche Menge von Sätzen zu erzeugen.


Der unerschöpfliche Fundus des Internets

In Die Lust am Text (1973) konstatiert Barthes: „Text heißt Gewebe; aber während man dieses Gewebe bisher immer als ein Produkt, einen fertigen Schleier aufgefasst hat, hinter dem sich, mehr oder weniger verborgen, der Sinn (die Wahrheit) aufhält, betonen wir jetzt bei dem Gewebe die generative Vorstellung, dass der Text durch ein ständiges Flechten entsteht und sich selbst bearbeitet“.

Die Ansicht des Schriftstellers und Literaturkritikers über das ständige Wechselspiel zwischen Leser, Text und Autoren entspricht auf jeden Fall recht präzise der Funktions-Beschreibung der Chatbot-Technologie.

Die Grundidee der computergenerierten Sprachspiele entpuppt sich eigentlich als recht simpel. Die AGI wird zunächst im wahrsten Sinne des Wortes mit Wörtern gefüttert. Im Falle von GPT-3 ungefähr einer Billion (10
12Zeichen, die es in Wörtern, Sätzen und Aussagen im Internet, in Büchern und anderen Dokumenten zu finden gibt.

Aus diesem Fundus niedergeschriebener Sprache bedient sich der Bot, wenn die AGI auf eine Frage den bestmöglichen Satz in der zu erwartenden Wahrscheinlichkeit als Antwort formuliert. Ähnlich versteht Derrida seinen Begriff der „Écriture“, die als Medium und Mittler semantisch stets Neues bestimmt. „Der Text existiert einzig in einem Kontinuum von Texten, wobei der Vorgänger-Text in den nachfolgenden transformiert wird (Inter-textualität)“. Die Worte des Literaturwissenschaftlers Axel Schmitt lesen sich, als hätte Derrida den Entwicklern beim Berechnen ihrer Modelle beratend zur Seite gestanden.


In Pre-Trained indes steckt die ewig währende Differenz zwischen Autor und Leser, der Barthes im Tod des Autors (1967) zufolge die Bedeutung des Textes nicht vom Autor, sondern vom Leser definiert wird. Für den irischen Dichter Paul Muldoon beinhaltet dieser Gedanke die „Vorstellung, dass Lesen bis zu einem gewissen Grad auch das Schreiben oder sogar Neuschreiben eines Textes erforderlich macht“.

Iterative Schleifen für mehr Intertextualität

Vor diesem Hintergrund betrachtet, wirken die Techniker mit ihren Rechenmodulationen, als folgten sie exakt der Regie, der von den Romanciers inszenierten Wortspielen. Es ist eben kein Zufall, dass im Pre-trained-Verfahren in unzähligen iterativen Schleifen dem Chatbot Fragen gestellt und im Nachklapp von Menschen die Antworten der AGI als richtig oder falsch, nützlich oder unbrauchbar bewertet werden. Zudem jedes Richtigstellen einer nicht genehmen Antwort die Grundlage der Resultate verbessert.

Alles dient der Lösungsstrategie des Transformierens. In der Gedankenwelt von Derrida und Kristeva gesprochen, der Intertextualität. Kein Wunder also, dass es bei Informatiker Marcel Waldvogel wie aus den Schriften der Sprachtheoretiker klingt, wenn er die Funktion der Programme erläutert.

Der AGI sei darauf trainiert, aus vorherigen Texten Wörter zu erkennen; Satzstrukturen zu analysieren; vorauszuahnen, welches Objekt sich auf welches Verb bezieht; zu wissen, worauf sich ein Pronomen bezieht; das Thema des Textes im Blick zu behalten, genauer gesagt, den Blickwinkel nicht zu verlieren; Strukturen einzuhalten – etwa die Form eines Essays, Gedichts oder die eines Rezepts.

In den sprachphilosophischen Reflexionen der bulgarisch-französischen Literaturtheo-retikerin Kristeva transformiert jeder Text grenzenlos, kristallisiert einen Durchgangspunkt, einen semantischen Schnittpunkt einer Vielzahl von Texten. Jeder einzelne Wortbaustein, sei es wörtlich, stilistisch oder strukturell, avanciert zu einem „Mosaik von Zitaten“. Sie spricht gar davon, dass sich der Autor während dieses Prozesses praktisch auflöst.

Und hier treffen die beiden Welten aufeinander. Denn genau dieses Erlebnis widerfährt den Nutzern von ChatGPT, wenn sie nach gestellter Frage fasziniert auf den Bildschirm blicken, wie die Buchstaben von magischer Hand verfasst, peu à peu einen für einen Leser sinnvollen Zusammenhang ergeben.

Für die Computertechniker führt der Schlüssel zum Erfolg über „Aufmerksamkeit“ – eine technische Methode, in der automatisch statistische Zusammenhänge zwischen den verwen-deten Bigrammen und ihren direkten und indirekten Vorläufersymbolen hergestellt werden. Es geht also auch um die Häufigkeit und Relevanz selbst von Buchstaben, ähnlich wie es in der Kryptografie gehandhabt wird. Zahlreiche auf der Transformer-Architektur basierende neuronale Sprachmodelle wie das Megatron-Turing Natural Language Generation Model (MT-NLG), Google LaMDA oder BERT machen davon Gebrauch.

Ohne Kontext kein gutes Resultat

Diese philologische Akribie bei der Wortkonstruktion erinnert an den literarischen Impres-sionisten Gustav Flaubert, der für seine Gegenwartsstoffe Witzblätter, Gerichtsakten, Stiche, Modejournale, Waschzettel, Adressbücher, Straßenkarten durchforstete, sich selbst laut vorlas, um so die sinnliche Klangfarbe der gebrauchten Wörter zu prüfen, wie sein Zeitgenosse und Literaturkritiker Émile Faguet zu berichten weiß.

Fortwährende Interaktion zwischen Autor und Leser mittels des Textes. Alles zusammen verschmolzen zu einem dynamischen, holistischen System. So hatten sich die Poststruk-turalisten nicht nur die literarische, sondern auch die philosophische Welt vorgestellt. Wörter „flechten“ laut Barthes „einen Text des Lebens“, sind letztlich „Arbeit und ein Spiel“, „ein Volumen sich verschiebender Spuren“.

Wer sich daher mit den Chatbots an die wechselseitige Frage-Antwort-Zusammenar-beit macht, sollte ein klares Ziel vor seinem sprachlichen Auge verfolgen. Ist die gestellte Frage vage, spiegelt auch die Antwort diesen Charakter wider. Sich kurzzufassen, zählt ebenso zu einer treffsicheren Vorgehensweise wie das Vermeiden unnötiger Wörter oder Informationen.

Gute Resultate erzielt, wer leicht verständlich schreibt, auf Alltagssprache zurückgreift. Und während Derrida mit seinem Verständnis von Dekonstruktion die unbändige Kraft der Ambiguität als treibenden Anlass seiner Verschiebung sieht, gibt der Bot recht schnell zu verstehen, dass mehrdeutige Wörter und Phrasen eine AGI nur verwirren.

Wer nicht genügend Kontext liefert, sorgt dafür, dass es im bereitgestellten Wörter- und Sätze-Arsenal nichts Adäquates zu finden gibt. Eine der möglichen Folgen ist, dass die Bots halluzinieren, weil die Modelle ungenaue Schlüsse über ein Thema oder eine Situation ziehen, wenn sie nicht im Trainingsdatensatz enthalten sind.

Das ist der Moment, wenn sich der fertige Schleier nicht mehr lichtet, „hinter dem sich, mehr oder weniger verborgen, der Sinn (die Wahrheit) aufhält.“


Nota. - Ich versichere, als ich meinen gestrigen Text postete, nicht geahnt zu haben, dass die Welt heute diesen Beitrag bringen würde. Ich kenne den Autor überhaupt nicht und würde mich wundern, wenn er mich kennte. Ob er ein Spötter ist oder ein seriöser Litera-turwissenschaftler kann ich nicht besser beurteilen als jeder andere unvoreingenommene Leser.
JE


Nota. - Das obige Foto gehört mir nicht, ich habe es im Internet gefunden. Wenn Sie der Eigentümer sind und seine Verwendung an dieser Stelle nicht wünschen, bitte ich um Nachricht auf diesem Blog. JE

Keine Kommentare:

Kommentar veröffentlichen

Pausen sind gut und nötig; der Pausenhof ist ein Übel.

                                                          aus Levana, oder Erziehlehre Die Schule ist ein Ort, der Kinder in einer so ...