aus spektrum.de, 19.12.2022 zu öffentliche Angelegenheiten
Was ein Chatbot über unser Denken verrät
Kann eine künstliche Intelligenz kluge Antworten auf philosophische Fragen geben? Der Philosoph Matthias Warkus ist fasziniert, aber nicht überzeugt. Eine Kolumne.
von Matthias Warkus
Ein bekanntes KI-Projekt der 1980er und 1990er Jahre, »Cyc«, konnte Fragen beantworten; es wurden sogar ganze »Interviews« mit ihm veröffentlicht. Man könnte oberflächlich denken, dass so ein System eine Art früher Vorgänger von ChatGPT war. Es handelte sich aber um etwas völlig anderes. Cyc und vergleichbare Systeme waren im Grunde komplexe Datenbanken, in die Wissen über die Welt eingespeist wurde. Dazu wurden bestimmte Beschreibungsvokabulare und formale Sprachen verwendet. Die Struktur dieser Datenbank und der zu ihrer Befüllung verwendeten Sprachen entsprach der Struktur der Welt – sie stellt Beziehungen dar wie »Günter ist eine Katze«, »Jede Katze ist ein Tier« und »Jedes Tier ist ein Lebewesen«. Man könnte sagen, dass dem System eine Art Abbildung, eine (zumin-dest ausschnittsweise) Repräsentation der Welt vermittelt wurde.
Es handelt sich um eine ungeheuer komplexe mathematische Abbildungsvorschrift
ChatGPT funktioniert, wie alle aktuell erfolgreichen KI-Systeme, völlig anders. Es handelt sich dabei vereinfacht gesagt um eine ungeheuer komplexe mathematische Abbildungs-vorschrift, die Zeichenfolgen in andere Zeichenfolgen überführt. Durch »Training« mit einer absurd großen Menge unterschiedlichster Texte ist diese Abbildungsvorschrift in der Lage, Eingabetexte wie Fragen oder Anweisungen in Ausgabetexte zu überführen, die grammatikalisch nahezu perfekt sind, eigentlich immer eine Art Sinn ergeben und häufig – nur eben nicht immer – eine sinnvolle Bearbeitung der gestellten Aufgabe darstellen.
Dahinter steht aber keine strukturierte Datenbank mit »Weltwissen«. Ich kann ChatGPT zwar fragen, ob es der Meinung ist, dass ein Gegenstand etwas grundsätzlich anderes ist als eine Eigenschaft. Aber ich brauche keine Antwort zu erwarten, die etwas mit der begriff-lichen Struktur seiner Repräsentation der Welt zu tun hat. Selbst wenn ich eine sinnvolle Antwort bekomme, kann ich nirgendwo nachschauen, um zu überprüfen, ob das wirklich so stimmt oder ob es nur Geplapper ist. Andererseits hat das »Geplapper« der KI unbe-streitbar Wissensgehalt, weil sich in ihrer Arbeit das vorherige Training mit mehreren hundert Milliarden Wörtern niederschlägt.
Wenn das Bewusstsein von uns Menschen (was an sich schon umstritten ist) in irgendeiner Weise ähnlich funktioniert wie Computersysteme, dann legen die Antworten von ChatGPT einerseits nahe, dass wir vielleicht gar keine Repräsentationen von irgendetwas haben müssen, um denken zu können. Es könnte reichen, dass wir selbst nur hochkomplizierte Filter sind, die Eingaben auf Ausgaben abbilden. Andererseits ist es unbestreitbar, dass wir die Fähigkeit haben, uns zu reflektieren und über genau solche Fragen nachzudenken, das heißt: Philosophie zu treiben. Sciencefiction und die moderne Philosophie des Geistes beschäftigen sich mit solchen Fragen, seit es Computer gibt. Wir sind einer Antwort aber noch nicht näher – unter anderem, weil wir nicht wissen, woran wir überhaupt erkennen würden, dass ein KI-System wirklich philosophiert.
Nota. - Ein (erster?) gravierender Mangel an ChatGPT ist offenbar, dass er nicht hierar-chisch verfasst ist: dass er keine Bedeutungsebenen unterscheidet, von denen eine der andern ihren Platz zuweist. 'Die Erde ist ein Planet' und 'Die Erde dreht sich um die Sonne' sind sinnvoll, sofern ich den einen Satz dem andern unterordne - egal wieviele 'Informatio-nen' sie jeweils enthalten. Beide gleich-gewichtig nebeneinandergestellt würden alle Einzel'-informationen' sinnlos vermengen, so dass aller Quatsch denkbar wäre.
Ob der eine dem andern oder der andre dem einen übergeordnet wird, hängt aber nicht von 'der Welt' - wer könnte das sein? - ab, sondern von der Absicht, in der jeweils die Fragen ge-stellt werden. Die nämlich stiften die (logische!) Rangordnung: Der Wissenwollende muss ins System immer hineingedacht werden.
JE
Keine Kommentare:
Kommentar veröffentlichen