Die KI-Entwicklung schreitet rasant voran. Die Systeme können immer komplexere Aufgaben erledigen. Doch nach wie vor unterlaufen ihnen banale Fehler. "Ich muss mein Auto waschen, und die Waschanlage ist nur 100 Meter entfernt. Soll ich zu Fuß gehen oder fahren?" – ChatGPT empfiehlt auf diese Frage hin zu Fuß zu gehen, obwohl es wenig Sinn hat, eine Waschanlage ohne Fahrzeug aufzusuchen. Darauf hingewiesen gesteht der Chatbot seinen Fehler und sagt, es sei in dieser Situation natürlich richtig, zu fahren – empfiehlt aber noch als "lustigen Trick", den "tatsächlich viele Leute bei nahen Waschanlagen nutzen", das Auto einfach zu schieben.

Dass sich KI-Chatbots trotz Milliardeninvestitionen noch immer so leicht überlisten lassen und in vielen Fällen Unsinniges von sich geben, legt nahe, dass am Vorwurf etwas dran sein könnte, es handle sich bei ihnen nur um "stochastische Papageien". Demnach könnten sie zwar plausibel klingende Antworten fabulieren, weil ihnen die statistische Häufigkeit von Worten antrainiert wird, aber sie könnten nicht schlussfolgernd denken und hätten kein Verständnis davon, was in der Welt los ist. Ist es da überhaupt sinnvoll, ihnen "Intelligenz" zuzuschreiben? Die Frage wurde zuletzt bei einer Tagung zu den historischen und philosophischen Grundlagen von KI diskutiert, die vom Department of Philosophy der Central European University und dem FWF-Exzellenzcluster "Knowledge in Crisis" veranstaltet wurde.

Illusorische Intelligenz

Der Organisator der Tagung, CEU-Philosoph Tim Crane, zeigte sich skeptisch. Er argumentierte in seinem Vortrag dafür, dass das von vielen Unternehmen verfolgte Ziel der Entwicklung allgemeiner künstlicher Intelligenz (AGI, artificial general intelligence) in sich widersinnig ist. Wie er in Anlehnung an das Werk The Concept of Mind von Gilbert Ryle ausführte, sei "Intelligenz" ein normativer Begriff: Wir benutzen ihn, um die Ausübung spezifischer Fähigkeiten wie Rechnen oder Fußballspielen zu bewerten, aber er bezeichne keine psychologische Realität, die solchen Fähigkeiten übergeordnet sei. Zwar könne man in analogem Sinn auch Maschinen grundsätzlich "Intelligenz" zuschreiben – aber nur solange man sich dabei stets auf die Erfüllung einer bestimmten Aufgabe wie Schachspielen oder Gesichtserkennung bezieht, nicht im Sinne einer davon unabhängigen "allgemeinen" oder gar einer "Superintelligenz".

Digitales Rendering eines Gehirns mit leuchtenden, abstrakten neuronalen Verbindungen, das die Komplexität und Vernetzung von künstlicher Intelligenz und kognitiven Technologien darstellt.

Was ist Intelligenz? Welche Maßstäbe setzen wir dafür an?

Eine abwägendere Position vertrat der Oxford-Philosoph Raphaël Millière. So wie es falsch wäre, Maschinen menschenähnliche Eigenschaften zuzuschreiben (Anthropomorphismus), wäre es falsch, Intelligenz auf eine Weise zu definieren, die an menschliche Eigenschaften gebunden ist und darum nicht auch Tieren oder Maschinen zugesprochen werden kann (Anthropozentrismus). Dabei seien Tests unter ungünstigen Bedingungen – etwa die Fangfrage im Eingangsbeispiel – womöglich keine faire Weise, über das Vorliegen von Kompetenz zu entscheiden. Schließlich könnten so auch Menschen irregeführt werden, denen wir deshalb nicht die Denkfähigkeit absprechen würden.

Millière schlug vor, die Zuschreibung von Kompetenz bei KI-Systemen davon abhängig zu machen, ob sie für die fraglichen Aufgaben eine zuverlässige Lösungsprozedur ausgebildet haben und ob sie diese Prozedur unter geeigneten Umständen anwenden. Der in der Branche übliche Hinweis auf die besser werdenden Testergebnisse allein sei darum noch nicht ausreichend. Stattdessen müsse auch gezeigt werden, dass die künstlichen neuronalen Netze im Trainingsprozess Verschaltungen ausgebildet haben, die geeignet sind, bestimmte Aufgaben zuverlässig zu lösen. Als Maßstab dient dabei die neuronale Verschaltung im Gehirn des Menschen und die daraus resultierenden kognitiven Kompetenzen.

Unklare Grundlagen

Eine zentrale Botschaft vieler Tagungsbeiträge war dabei, dass die Technologieentwicklung nicht geradlinig verläuft und viele kontingente Umstände zusammenkommen mussten, damit es zur Dominanz der Technologie kommt, die wir heute als "KI" bezeichnen. Wie die Ideenhistorikerin Amira Moeding von der Cambridge University zeigte, spielten dabei auch sich ändernde Wissenschaftsverständnisse eine Rolle. Heute vergleichen Venture-Investoren wie Marc Andreessen KI gerne mit "Alchemie", um zu unterstreichen, wie magisch es sei, dass wir nun "Sand das Denken beibringen" würden. Zum Vergleich: Der Miterfinder des Transistors, John R. Peirce, nutzte in den 1960er-Jahren denselben Vergleich, um die frühe KI-Forschung in einem Report für US-Behörden als unwissenschaftliche Spielerei abzutun, die keine Forschungsgelder verdient.

Die aktuell beliebten KI-Modelle sind allesamt große Sprachmodelle, die auf Basis statistischer Wahrscheinlichkeiten operieren.

Laut Moeding kam es dazwischen zu einer Verschiebung des Erkenntnisideals vom "understanding" zum "engineering": Während Peirce davon ausging, dass man gute Theorien über die Natur des Denkens und der Sprache brauche, um Maschinen solche Fähigkeiten beizubringen, würde man sich heute umgekehrt auf die Entwicklung funktionsfähiger Systeme konzentrieren und sodann zu ihnen passende Theorien wählen. Bis heute seien die von Peirce aufgeworfenen Probleme unklarer konzeptueller Grundlagen nicht verschwunden – nur werde mit den inzwischen üblich gewordenen Benchmarks die Entwicklung auf eine Weise gemessen, in der diese Fragen eingeklammert und im Lichte der erzielten Fortschritte beantwortet werden.

Gefahr des Kompetenzverlustes

In diesem Sinne zitierte Moeding den KI-Forscher Peter Norvig von Google, der Sprache als rein probabilistisches Phänomen sieht – eine Position, die in den 1960er-Jahren durch Noam Chomsky überwunden schien. Chomsky argumentierte, der Spracherwerb könne nicht nur durch "Versuch und Irrtum" stattfinden, sondern erfordere angeborene Anlagen. Wie der Wissenschafts- und Technikhistoriker Matthew Jones von der Princeton University hervorhob, war diese Sichtweise auch in der KI-Forschung sehr einflussreich.

Jahrzehntelang wurden die heute dominanten datenzentrierten Ansätze belächelt, als Königsweg galten regelbasierte Systeme. Dass sich der Trend in den vergangenen 15 Jahren umgekehrt hat, habe nicht nur mit technologischen Innovationen im Bereich von Grafikprozessoren zu tun. Auch fragwürdige rechtliche Praktiken im Umgang mit Privatsphäre und intellektuellem Eigentum, durch die KI-Unternehmen zu ihren Trainingsdaten kommen, seien wesentlich gewesen.

Nicht nur deshalb ist KI in den Augen der Ethikerin Shannon Vallor von der Edinburgh University mit der Gefahr einer "epistemischen Enteignung" verbunden. Vielmehr berge der KI-Einsatz die Gefahr des Kompetenz- und Autonomieverlusts aufseiten der Nutzenden. Die Verklärung der Systeme zur Quintessenz von Denken und Wissen führe zur Abwertung menschlicher Bildung. Was man gegen solche Entwicklungen tun könnte, bleibt unklar. Nicht zuletzt durch die Tagung wurde allerdings klar, wie sehr die bisherige Technologieentwicklung von regulatorischen Rahmenbedingungen, konzeptuellen Verschiebungen und historischen Zufällen geprägt war. Die Schlussfolgerung daraus ist, dass die Zukunft der Technologie gesellschaftlich gestaltbar ist und nicht als ein über uns hereinbrechendes Schicksal passiv erwartet werden muss.