Samstag, 22. Juli 2023

Wie und was, oder begreifen und verstehen.

 analog/digital
aus nzz.ch, 22. 6. 2023                                                              zuJochen Ebmeiers Realien   zu Philosophierungen

Unbegreifliche Maschinen – die vier Gesetze der Maschinen-intelligenz
Mit der Entwicklung immer intelligenterer KI-Systeme scheint die Technik dem Menschen langsam, aber sicher zu entlaufen. Wir schaffen mit ihnen unsere eigenen Aliens. Not tut ein vertieftes Nachdenken über die Wechselwirkung von Mensch und Maschine.

von Eduard Kaeser

Wir bauen mit neuronalen Netzen einen neuen Maschinentypus: unbegreifliche Maschinen. Natürlich kennen die Designer den Aufbau eines Netzes. Die mathematischen Prinzipien seiner Architektur sind sogar erstaunlich einfach. Die Basiselemente, die «Neuronen», arbeiten nach bestimmten wohlformulierten Regeln der Transformation und Optimierung von Datenströmen. Aber das Ganze ist nicht durch ein Master-Programm gesteuert – ebenso wenig wie unser Hirn.

Und hier beginnt das Problem. Neuronale Netzwerke bestehen heute schon aus Milliarden von Parametern, die einen numerischen Input in einen numerischen Output verwandeln. Das heisst, das System entwickelt womöglich Prozeduren, die nur es selbst kennt. Der Designer hat begrenzten – wenn überhaupt – Einblick in das, was sich im Innern abspielt. Mit zunehmender Schichttiefe wird das Netz selbständiger: eine Black Box. Es manifestiert sich ein umgekehrtes Verhältnis von genauer Voraussage und Verstehbarkeit: Je fähiger das System zu exakter Voraussage ist, desto schwieriger ist es interpretierbar.

Drei Fragen

Spricht man von der Unbegreiflichkeit eines KI-Systems, stellt man gewöhnlich drei Fragen: Ist es steuerbar? Ist es vollständig beschreibbar? Ist es verstehbar? Alle drei Fragen haben eine Antwort in der Form von Gesetzen über komplexe Systeme.

Das erste stammt vom Neurokybernetiker William Ross Ashby: Um ein System erfolgreich zu steuern, brauchen wir einen Kontrollmechanismus, der mindestens ebenso komplex ist wie das System. Man könnte auch sagen: Ist ein System hinreichend komplex, kann nur es selbst sich steuern.

Das zweite Gesetz, benannt nach dem Mathematiker John von Neumann, lautet: Das einfachste Modell, ein komplexes System vollständig zu beschreiben, ist das System selbst. Jeder Versuch, das Systemverhalten in einem Formalismus zu vereinfachen, kompliziert die Sache nur.



Schliesslich das dritte Gesetz, vom Technikhistoriker George Dyson formuliert: Ein System, das man vollständig versteht, ist nicht komplex genug, um intelligentes Verhalten zu manifestieren; und ein System, das intelligentes Verhalten manifestiert, ist zu komplex, um vollständig verstanden zu werden.


Die drei Gesetze markieren die Schwelle zu einem Zeitalter autonomer Artefakte. Wir sind im Begriff, sie zu überschreiten. Beispiele von Systemen, die den drei Gesetzen unterliegen, kennen wir bereits: Verkehrsnetze, soziale Netze, überhaupt Beziehungsgeflechte im Internet. Sie steuern sich selbst, kennen keine vereinfachende Beschreibung, und sie verhalten sich auf eine «intelligente» Weise, die wir nicht mehr komplett durchschauen.

Metamathematische Stufe

Vor allem das dritte Gesetz hat es in sich. Angenommen, ein neuronales Netz lernt Mathematik von null auf. Zunächst einfache arithmetische Operationen, dann immer höhere Stufen. Es erreicht schliesslich eine metamathematische Stufe, auf der es uns den Beweis eines mathematischen Theorems liefert, den wir nicht nachvollziehen können. Gilt das als Beweis?

KI-Systeme dieser Art stellen uns eine verwirrende philosophische Frage: Ist eine unbegreifliche Intelligenz überhaupt eine Intelligenz? Welche Massstäbe legen wir an sie an? Wenn man uns ein Artefakt präsentiert und von ihm sagt, es sei intelligent, dann werden wir fragen: Aha, hat es so etwas wie eine kognitive Ausstattung, mit der unseren vergleichbar? Und wenn nicht, können wir fragen: Nun gut, wir verstehen nicht, wie die Intelligenz dieses Dings funktioniert, aber bringt es etwas hervor, was sich mit intelligenten menschlichen Hervorbringungen vergleichen lässt? Der Vergleich ist freilich kein Beweis der fremden Intelligenz. Er liefert uns einfach die Basis für den Glauben an die fremde Intelligenz. Das könnte als viertes Gesetz bezeichnet werden.

Wie funktioniert das Hirn?

Ist also die Intelligenz einer unbegreiflichen Maschine eine Glaubensfrage, wie jene bei Gott? Zumindest zwingt sie uns zum Überdenken des menschlichen Denkens. Seit Alan Turing ist die KI-Forschung mesmerisiert von der Aussicht, alles, was der Mensch tun kann, an Rechenprozesse zu delegieren. Die Deep-Learning-Forscher weisen auch gerne darauf hin, dass das Schichtenmodell neuronaler Netze eine primitive Simulation der Aktivitäten in den Hirnschichten darstelle.

Wir wissen mittlerweile ziemlich gut Bescheid über Rechner, aber wir wissen noch lange nicht, wie das Gehirn funktioniert, und selbst wenn wir es wüssten, bedeutete das nicht, dass das Gehirn ein Rechner ist. Der Rechner ist nüchtern gesehen eine heuristische Metapher. Und wenn wir die Metapher mit dem verwechseln, wofür sie steht, dann erliegen wir einer epochalen Missdeutung.

Ich leugne keineswegs die heuristische Nützlichkeit der Metapher. Vergessen wir nur nicht, dass die Evolution immerhin Jahrmillionen benötigte, um das biologische neuronale Netz in der Wetware zu schaffen. Nun massen sich ein paar übereifrige Algorithmentüftler und Computeringenieure an, dies in ein paar Jahrzehnten in der Soft- und Hardware zu bewerkstelligen.

Vielleicht hängt aber die organische Intelligenz enger mit unserer biologischen Wetware zusammen als bisher angenommen. Bereits experimentieren unkonventionelle Informatiker wie etwa der Brite Andrew Adamatzky mit Schleimpilzen. Er nimmt deren Problemlösungsverfahren bei der Nahrungssuche zum Vorbild alternativer «organischer» Algorithmen. Womöglich liegt die Zukunft der Technologie im Schleim.

Unsere eigenen Aliens


Künstliche Intelligenz bleibt uns zutiefst fremd. Wir schaffen mit ihr im Grunde eine Sorte neuartiger Entitäten – unsere eigenen Aliens. Und diese Aliens werden sich, trotz allen Bemühungen, wahrscheinlich nicht unserem Alltag adaptieren. Eher passen wir unseren Alltag ihnen an. Zum Beispiel wird ein Grossteil des globalen Finanzmarktes von solchen «Aliens» – Algorithmen – gesteuert, in deren unerforschliche Ratschlüsse man kaum noch Einblick hat. Den Strategien von Go-Programmen kommen selbst Grossmeister schwer, wenn überhaupt auf die Schliche. Sie muten wie eine «torkelnde» Intelligenz an, die scheinbar unlogisch, in zufallsgesteuerter Weise ihre Schritte vollführt. Fremd und unbegreiflich, wie ein aussergalaktisches Wesen.

Wir neigen dazu, die fremde Intelligenz zu vermenschlichen. Eine autonome künstliche Intelligenz könnte aber so geartet sein, dass ihr menschliche Motive und Intentionen unbekannt sind. Sie nähme uns also in diesem Sinne gar nicht wahr oder als etwas, von dem wir keinen Begriff haben. Die Inputs dieser Systeme würden nach ganz anderen als humanen Imperativen und Modalitäten verarbeitet. Wir könnten ihre «Gedanken» nicht denken. Ihre Entscheidungen und Wege wären unergründlich – ein Numinosum.

Unheimliche Verführungskraft

Dadurch übt die KI-Technologie zweifellos eine unheimliche Verführungskraft aus. Sie macht den Menschen immer maschinenkompatibler. Man kann deshalb in den unbegreiflichen Maschinen den Anlass zu einem Paradigmenwechsel sehen. Der Ruf nach einem auf den Menschen zugeschnittenen Maschinendesign wird laut, kürzlich etwa im Buch «Human Compatible», geschrieben von einem der führenden KI-Wissenschafter, Stuart Russell. Dazu muss man aber den Menschen wiederentdecken, nicht nur seine Schwächen, welche die Maschine beheben kann, sondern auch seine Stärken, die sich nicht an die Maschine delegieren lassen.

Dringend wäre deshalb nicht ein halbjähriges Moratorium in der KI-Forschung, wie kürzlich gefordert, sondern ein vertieftes Nachdenken über die Wechselwirkung von Mensch und Maschine im 21. Jahrhundert. Die unaufhaltsame Fortentwicklung der KI verlangt nach einer anthropologischen Analyse der Technologie, die mit ihr Schritt hält. Die unbegreifliche Maschine ist also, kurz gesagt, ein Appell an den Menschen, sich neu begreifen zu lernen – ein Appell an seine Intelligenz.

Eduard Kaeser ist Physiker und promovierter Philosoph. Er ist als Lehrer, freier Publizist und Jazzmusiker tätig.


Nota. - Verstehen kann ich ein Handeln: indem ich die Veränderung, die ich beobachte, auf einen vermuteten Zweck beziehe - und den Zweck dem Veränderer zurechne. Eine Maschi-ne kann ich nur per Analogie verstehen: indem ich ihr die Absicht ihres Konstrukteurs bei-messe.

Anders als ein lebendes Subjekt, kann ich eine Maschine begreifen: indem ich die Verän-derungen, die ich an ihr beobachte, einem Komplex von Ursachen und Wirkungen zurech-ne. Per Analogie begreife ich ein Gedankengebäude, indem ich es in einen Komplex von Begriffen und Operationen zergliedere. Die Analogie von Logik und Mechanik ist das of-fene Geheimnis des westlichen Denkens; alias der Vernunft.

Anders wäre die Vorstellung, menschliches Denken maschinell zu imitieren, gar nicht mög-lich geworden. Was die künstlich-intelligente Black Box getan haben muss, könnte ich daher begreifen - an dem, was sie mir liefert. Verstehen könnte ich es gar nicht wollen, denn dazu müsste ich ihr Zwecke und Absichten unterstellen, die sie gar nicht haben kann, weil sie nicht wie wir in der Welt ist. Doch kann ich ihr nicht dabei zuschauen, wie sie etwas tut - und kann es mir nicht einmal vorstellen.

Nachrechnen kann ich ihre Operationen nicht, weil ich gar nicht weiß, wie sie verfährt. Ich kann es nicht einmal, Schritt für Schritt rückwärtsgehend, analysieren: Ich weiß ja nicht ein-mal, welcher ihr letzter Schritt gewesen ist, bevor sie mit ihr Ergebnis ausgespuckt hat. Und wenn ich es könnte, wäre das Verfahren so zeitraubend, dass ich auf ihren Einsatz achsel-zuckend verzichten müsste. Es ist wie in der experimentellen Wissenschaft: Ein Versuch, den ich nicht wiederholen  kann, beweist nichts.

Abstrakte Formen helfen überhaupt nicht: 'Ist das System hinreichen komplex, kann nur es selbst sich steuern.' Aber was heißt 'hinreichend komplex', genauer: Wer beurteilt das? Man möchte meinen, der Satz gilt überhaupt nur für unser Denken: Kein System ist komplexer als das menschliche Hirn, darum kann keine Maschine es steuern. Umgekehrt: Jede Maschi-ne ist prinzipiell durch menschliche Gehirntätigkeit steuerbar. Hat der Satz noch prakti-schen Belang? Am äußersten Ende schon: 'Das schaffen wir nie' ist grundlos. So viel zum Ersten Satz.

Der Zweite Satz entwertet ganz den Dritten Satz: Um ein komplexes System vollständig zu beschreiben, muss ich es vollkommen verstehen. Das kann ich aber nur, wenn es dümmer ist als ich. Doch dann gibt es keinen Anlass, es 'durch Formalisierung vereinfachen' zu wollen.

Durch Formalisierung kann man gar nichts vereinfachen, jedenfalls keinen operativen Vor-gang. Denn der besteht nicht aus der Abfolge einzelner Schritte. In der Schule lernten wir das Modell eines Otto-Motors kennen. Man konnte zusehen, wie er arbeitet - unter der Vor-aussetzung, dass man eine arbeitende Energie von außen hinzufügt: Man dreht an einer Kurbel, die gehörte zum Modell. Aber nicht die Kraft, die das Modell überhaupt erst zu einem Modell von Etwas macht.

Nun wäre aber die Kraft auch nur eine Formalie, würde sie nicht in eine Richtung einge-setzt. Und die kann nur eine Absicht sein: ein Wille. Der lässt sich aber schlechterdings nicht formalisieren - nicht in Begriffe zerlegen -, sondern nur anschauen bei seiner Tätig-keit. Nur analog, nicht digital - und da schließt sich der Kreis: Digitalität ist kein Accessoire von Künstlicher Intelligenz, sondern ihr Wesen. Wenn man also das innere Funktionieren der Black Box doch einmal vollständig beschreiben könnte, würde man dennoch nichts an ihr verstehen - weil sie keine Zwecke hat, die sie selber verstehen müsste. Sie könnte uns sicher eine Liste drucken, aus der hervorgeht, wie sie's macht. Aber was sie macht, könnte sie uns nicht sagen, weil sie's nicht weiß.
JE




Keine Kommentare:

Kommentar veröffentlichen

Blog-Archiv

Pausen sind gut und nötig; der Pausenhof ist ein Übel.

                                                          aus Levana, oder Erziehlehre Die Schule ist ein Ort, der Kinder in einer so ...