Mittwoch, 10. April 2024

KI kann keine Absichten haben, und das macht sie gefährlich.

Rosafarbener Staub explodiert aus dem zerreißenden Kopf eines abstrakt gehaltenen, bläulichen Androiden                                      zu Jochen Ebmeiers Realien
aus spektrum.de, 8. 4. 2024

Fehlbare Instrumente der Erkenntnis
Mit künstlicher Intelligenz lassen sich Probleme lösen, an denen Menschen scheitern. Aber auf dem Weg zu besserer Wissenschaft laufen die Programme Gefahr, den gleichen Illusionen zu erliegen wie ihre Schöpfer.

Im März 2017 erschien in »Spektrum der Wissenschaft« eine Sciencefiction-Story von Ted Chiang, während in den Kinos noch der hochgelobte Film »Arrival« lief, nach einer anderen Kurzgeschichte desselben Autors. Bei »Spektrum« fingierte Chiang eine »Offizielle Erklärung zum Stand der menschlichen Forschung«, ange-siedelt im Jahr 2117. In jener Zukunftswelt wird die Menschheit daran scheitern, die von Trägern künstlicher Intelligenz – so genannten Metamenschen – gelieferten Forschungsresultate nachzuvollziehen. Fachzeitschriften können nur noch »Berich-te aus zweiter Hand« liefern – »Übersetzungen in die menschliche Sprache«.

Wenn man aktuellen Meldungen über das Potenzial lernfähiger Maschinen lauscht, könnte man fast meinen: Gleich ist es so weit! KI-Programme kreieren Proteinfal-tungen, auf die weder der Mensch noch die Natur bisher gekommen sind; sie ent-werfen Medikamente und Materialien mit ungeahnten Eigenschaften; sie führen mathematische Beweise, denen kaum jemand zu folgen vermag. Werden lernfähige KI-Steuerelemente demnächst die notorisch instabilen Plasmen in Kernfusionsre-aktoren zähmen und so der Menschheit schneller zu dieser lange vergeblich er-strebten Quelle unerschöpflicher Energie verhelfen?

Auf den ersten Blick ist die künstliche Intelligenz der natürlichen schon heute über-legen. Sie verarbeitet in Windeseile riesige Datenmengen, wird nie müde oder un-aufmerksam, und am Ende serviert sie ein eindeutiges Ergebnis mit der geballten Autorität eines sich selbst verbessernden Systems. Die lernfähige Maschine präsentiert sich als eine autonom agierende, in den Details undurchschaubare Blackbox, die quasi ein Innenleben besitzt. Man könnte versucht sein, darin den Keim eines Verstandeswesens zu ahnen, welches sich eines Tages zu Chiangs »Metamenschen« entwickeln wird.

Die Vision einer schönen neuen Welt, in der wir am Ende bloß mehr oder weniger verständnisvoll zusehen, wie autonome Apparate die Forschungsarbeit erledigen, hat aber nicht nur ihre euphorischen Propheten. Als Spielverderberinnen melden sich die Anthropologin Lisa Messeri von der Yale University und die Psychologin Molly Crockett von der Princeton University zu Wort. Sie warnen davor, den wissenschaftlichen Erkenntnisprozess kritiklos an Algorithmen zu delegieren. Das wecke die Illusion, man verstehe die Welt immer besser, ohne dass dies tatsächlich der Fall sei.

Dagegen betonen Messeri und Crockett: Sowohl die Daten als auch die Algorithmen stammen von fehlbaren Menschen – und sind unweigerlich von impliziten Vorentscheidungen und Vorurteilen geprägt. Die Inputs tragen die Spuren einer »wissenschaftlichen Monokultur«, die von bestimmten Denktraditionen geprägt ist sowie von der Eigenart des akademischen Milieus.

Zwar hat – vor allem in den USA, aber nicht nur dort – eine Diskussion über mangelnde Diversität der Forschenden begonnen, aber allein die achtlos oder nach gewissen Strategien selektierte Datenmasse bewirkt eine Tendenz zum Business as usual. Während diversifizierte Teams dazu neigen, übliche Verfahren in Frage zu stellen, einander mit Rückfragen auf die Nerven zu gehen und Neues auszuprobieren, zementiert die automatische Anwendung bewährter Algorithmen das methodische Einerlei.

Gut, dass eine Anthropologin und eine Psychologin daran erinnern, dass Naturforschung eine soziale Aktivität ist, deren Automatisierung falsche Gewissheiten suggeriert und die methodische Innovation hemmt. Obendrein, so die Autorinnen, sind die KI-Systeme in der Hand privater Firmen, die ihr Produkt als Betriebsgeheimnis hüten. Eine patentierte Intelligenz widerspricht dem Ideal transparenter Forschung.

 

Nota. - Die Maschinen können, was Menschen nicht können: Sie können den Zu-fall in ihren  Dienst stellen. Zwar können sie nur mit Algotithmen operieren, die letzten Endes von Menschen ersonnen wurden, und können, was wir auch können: sie kombinieren. Aber sie können in Blitzesschnelle Millionen und Milliarden mit-einander verrechnen. Das ist nach menschlichem Maß 'so gut wie unendlich', und da werden Kombinationen fällig, die Menschenhirne in hunderten von Jahren nicht ersinnen würden: Und das ist 'so gut wie' der Zufall

Welche von diesen Zufallsdaten aber zu welchem Zweck genutzt werden soll, müss-ten wieder Menschenhirne entscheiden. Maschinen können das nicht, denn sie kön-nen nicht 'ganz von vorn anfangen'. Das ist aber das Vermögen des menschlichen Einbildens: Bilder erfinden, denen nichts 'zu Grunde liegt'. Das Vorstellen von Bildern ist ein analoger Akt und hat einen qualitativen Kern. Die Maschine kann aber nichts als digital prozedieren: Symbole kombinieren. Sie kann nicht einmal herausfinden, welche Qualitäten in den Symbolen kodiet sind, weil sie nicht ahnt, was eine Qualität ausmacht - dass sie nämlich Zwecke setzt, zwischen denen ge-wählt werden muss.

Kann uns das beruhigen, dass die Maschine ihre Zwecke nicht wählen kann? Sie könnte ja meinen, der Zufall sei 'so gut als ob', und das läuft mir kalt über den Rücken.
JE

Keine Kommentare:

Kommentar veröffentlichen

Blog-Archiv

Pausen sind gut und nötig; der Pausenhof ist ein Übel.

                                                          aus Levana, oder Erziehlehre Die Schule ist ein Ort, der Kinder in einer so ...