Mittwoch, 21. Dezember 2022

Ach, schon wieder ChatGPT!


aus spektrum.de, 19.12.2022                                             zu öffentliche Angelegenheiten

Was ein Chatbot über unser Denken verrät
Kann eine künstliche Intelligenz kluge Antworten auf philosophische Fragen geben? Der Philosoph Matthias Warkus ist fasziniert, aber nicht überzeugt. Eine Kolumne.


von Matthias Warkus

Wenn Sie sich in den vergangenen Tagen in den sozialen Medien umgesehen haben, dann sind Sie vermutlich nicht daran vorbeigekommen: Screenshots von Texten unterschiedlich-ster Art, denen eine Frage oder Aufforderung wie »Schreibe die Inhaltsangabe einer Liebes-komödie über Weihnachten in Belgien!« voransteht. Es handelt sich hier um die jüngste Welle von automatisch generiertem »Content«, der im Netz Furore macht, produziert von »ChatGPT«, einer interaktiven Oberfläche zu einem Sprachverarbeitungssystem des Silicon-Valley-Unternehmens OpenAI aus San Francisco. ChatGPT benimmt sich wie ein »Chatbot«: Man kann ihm Fragen stellen und ihm Aufgaben aufgeben, und die Software antwortet prompt.roduktion von ChatGPT ist auf eigenartige Weise faszinierend. Die generierten Texte sind nur selten völliger Unsinn, oft aber auf merkwürdige Weise nebulös und unverbindlich, als versuchte jemand, kompetenter zu erscheinen, als er oder sie ist. Das liegt daran, dass die »künstliche Intelligenz« (KI), die hier am Werk ist, grundlegend anders funktioniert, als man es sich noch vor wenigen Jahrzehnten vorgestellt hat. Die Beschäf-tigung damit, wie ChatGPT funktioniert, hat daher durchaus auch philosophischen Wert. Sie stellt nämlich möglicherweise eine sehr verbreitete Grundannahme der philosophischen Auseinandersetzung mit Vernunft und Bewusstsein in Frage: dass es dabei um Repräsen-tation geht.


Ein bekanntes KI-Projekt der 1980er und 1990er Jahre, »Cyc«, konnte Fragen beantworten; es wurden sogar ganze »Interviews« mit ihm veröffentlicht. Man könnte oberflächlich denken, dass so ein System eine Art früher Vorgänger von ChatGPT war. Es handelte sich aber um etwas völlig anderes. Cyc und vergleichbare Systeme waren im Grunde komplexe Datenbanken, in die Wissen über die Welt eingespeist wurde. Dazu wurden bestimmte Beschreibungsvokabulare und formale Sprachen verwendet. Die Struktur dieser Datenbank und der zu ihrer Befüllung verwendeten Sprachen entsprach der Struktur der Welt – sie stellt Beziehungen dar wie »Günter ist eine Katze«, »Jede Katze ist ein Tier« und »Jedes Tier ist ein Lebewesen«. Man könnte sagen, dass dem System eine Art Abbildung, eine (zumin-dest ausschnittsweise) Repräsentation der Welt vermittelt wurde.

Es handelt sich um eine ungeheuer komplexe mathematische Abbildungsvorschrift

ChatGPT funktioniert, wie alle aktuell erfolgreichen KI-Systeme, völlig anders. Es handelt sich dabei vereinfacht gesagt um eine ungeheuer komplexe mathematische Abbildungs-vorschrift, die Zeichenfolgen in andere Zeichenfolgen überführt. Durch »Training« mit einer absurd großen Menge unterschiedlichster Texte ist diese Abbildungsvorschrift in der Lage, Eingabetexte wie Fragen oder Anweisungen in Ausgabetexte zu überführen, die grammatikalisch nahezu perfekt sind, eigentlich immer eine Art Sinn ergeben und häufig – nur eben nicht immer – eine sinnvolle Bearbeitung der gestellten Aufgabe darstellen.

Dahinter steht aber keine strukturierte Datenbank mit »Weltwissen«. Ich kann ChatGPT zwar fragen, ob es der Meinung ist, dass ein Gegenstand etwas grundsätzlich anderes ist als eine Eigenschaft. Aber ich brauche keine Antwort zu erwarten, die etwas mit der begriff-lichen Struktur seiner Repräsentation der Welt zu tun hat. Selbst wenn ich eine sinnvolle Antwort bekomme, kann ich nirgendwo nachschauen, um zu überprüfen, ob das wirklich so stimmt oder ob es nur Geplapper ist. Andererseits hat das »Geplapper« der KI unbe-streitbar Wissensgehalt, weil sich in ihrer Arbeit das vorherige Training mit mehreren hundert Milliarden Wörtern niederschlägt.

Wenn das Bewusstsein von uns Menschen (was an sich schon umstritten ist) in irgendeiner Weise ähnlich funktioniert wie Computersysteme, dann legen die Antworten von ChatGPT einerseits nahe, dass wir vielleicht gar keine Repräsentationen von irgendetwas haben müssen, um denken zu können. Es könnte reichen, dass wir selbst nur hochkomplizierte Filter sind, die Eingaben auf Ausgaben abbilden. Andererseits ist es unbestreitbar, dass wir die Fähigkeit haben, uns zu reflektieren und über genau solche Fragen nachzudenken, das heißt: Philosophie zu treiben. Sciencefiction und die moderne Philosophie des Geistes beschäftigen sich mit solchen Fragen, seit es Computer gibt. Wir sind einer Antwort aber noch nicht näher – unter anderem, weil wir nicht wissen, woran wir überhaupt erkennen würden, dass ein KI-System wirklich philosophiert.


Nota. - Ein (erster?) gravierender Mangel an ChatGPT ist offenbar, dass er nicht hierar-chisch verfasst ist: dass er keine Bedeutungsebenen unterscheidet, von denen eine der andern ihren Platz zuweist. 'Die Erde ist ein Planet' und 'Die Erde dreht sich um die Sonne' sind sinnvoll, sofern ich den einen Satz dem andern unterordne - egal wieviele 'Informatio-nen' sie jeweils enthalten. Beide gleich-gewichtig nebeneinandergestellt würden alle Einzel'-informationen' sinnlos vermengen, so dass aller Quatsch denkbar wäre. 

Ob der eine dem andern oder der andre dem einen übergeordnet wird, hängt aber nicht von 'der Welt' - wer könnte das sein? - ab, sondern von der Absicht, in der jeweils die Fragen ge-stellt werden. Die nämlich stiften die (logische!) Rangordnung: Der Wissenwollende muss ins System immer hineingedacht werden.
JE

Keine Kommentare:

Kommentar veröffentlichen

Pausen sind gut und nötig; der Pausenhof ist ein Übel.

                                                          aus Levana, oder Erziehlehre Die Schule ist ein Ort, der Kinder in einer so ...