Montag, 23. Januar 2023

Die Maschine kann nicht abstrahieren.

 Tinguely
aus derStandard.de, 23. 1. 2023

Warum Maschinen sexistisch sind und schlecht abstrahieren können
Künstliche Intelligenz kann bereits viele Probleme lösen, schafft vielerorts aber auch neue. Diskriminierende Algorithmen und fehlendes assoziatives Denken sind zwei davon


von Martin Stepanek

Der Hype um das Sprachsystem Chat GPT ist grenzenlos. An Schulen wird diskutiert, ob die künstliche Intelligenz verboten oder kreativ in den Unterricht eingebunden werden soll. Aber auch die Wissenschaft tut sich schwer mit einem System, das selbst Fachleute in ihrem Gebiet hinters Licht führen kann. Für viele KI-Expertinnen und -Experten greift die aktuelle Diskussion um Chat GPT allerdings zu kurz. Denn künstliche Intelligenz wird künftig in vielen Bereichen bestehende Abläufe durcheinanderwirbeln.

"Die Verlässlichkeit derartiger Systeme ist eine der großen Fragen im Umgang mit künstlicher Intelligenz", sagt Legenstein. Warum entscheidet es sich für eine bestimmte Antwort? Welche Trainingsdaten liegen ihm zugrunde? Gerade bei selbstlernenden komplexen Systemen sei es selbst für involvierte Fachleute oft nicht nachvollziehbar, wie künstliche Intelligenz zu ihrer Schlussfolgerung komme.



Wie zuverlässig KI-Systeme Entscheidungen treffen, spielt besonders dann eine Rolle, wenn es um Leben und Tod geht. So macht es naturgemäß einen Unterschied, ob ein Chat-Programm abstruse Antworten liefert oder ob ein selbstfahrendes Auto in einer gefährlichen Situation die falsche Entscheidung trifft. Ähnlich folgenschwer sind Fehldiagnosen in der Medizin oder wenn ein Industrieroboter sich in einer Umgebung mit Menschen fälschlicherweise so verhält, dass er diese verletzen oder gar töten kann. Ähnliches gilt für den Einsatz zu militärischen Zwecken, den manche Unternehmen und Forschungsinstitute von vornherein kategorisch ablehnen.

Dass künstliche Intelligenz unser Leben schon heute zum Positiven verändert, ist unbestritten. Selbstlernende Modelle helfen uns, bessere Wetter- und Klimavorhersagen zu treffen oder bahnbrechende Medikamente zu entwickeln. Sie können medizinisches Personal bei der Diagnose von Krankheiten unterstützen oder beitragen, die Energie- und Wasserversorgung zu sichern. Mit ihren Fähigkeiten zur Sprach-, Bild- und Objekterkennung sind sie auf Handys seit Jahren treue Begleiter, ohne dass wir die künstliche Intelligenz dahinter bewusst wahrnehmen. Und das Autofahren betreffend, rechnen Fachleute damit, dass funktionierende autonome Systeme die Zahl schwerer Verkehrsunfälle künftig deutlich verringern können.

Schlecht im Abstrahieren

So beeindruckend künstliche Intelligenz in abgegrenzten Bereichen funktioniert – man denke an das komplexe Strategiespiel Go –, so schwer tut sie sich, wenn sie Gelerntes abstrahieren muss. "Im Gegensatz zu künstlichen neuronalen Netzen kann das menschliche Gehirn auf Basis einiger weniger Erfahrungen viel besser generalisieren und das erworbene Wissen in neuartigen Situationen anwenden", sagt Legenstein.

"Wir verstehen, was ein Fußgänger ist, egal ob es draußen regnet, neblig ist oder dieser in einer Umgebung auftaucht, wo man ihn nicht erwarten würde. Ein mit Schönwetterbilder trainiertes System hingegen tut sich in der realen Welt schwer, den Fußgänger zu erkennen, wenn die Situation von den Trainingsdaten abweicht."

Menschen könnten zudem auf einer abstrakten Ebene schlussfolgern. "Wenn ich erfahre, dass mein normaler Verkehrsweg in die Arbeit gesperrt ist, denke ich mir, dass das wohl auf Ausweichrouten zu viel Verkehr führt, ich mit dem Auto zudem einen großen Umweg fahren muss und daher lieber die U-Bahn nehme", gibt Legenstein ein Beispiel. Zu solchen Gedankenassoziationen, die schließlich zu einer Entscheidung führen, seien KI-Systeme allerdings kaum in der Lage.


Die Themenvorgabe für diese Illustration lautete: "ein hochentwickelter Chatbot, der auf dem Planeten Erde kommuniziert."

Selbst aus der Tierwelt gibt es Beispiele, bei denen künstliche Intelligenz nicht mithalten kann. Versuche mit Mäusen in einem Labyrinth haben gezeigt, dass diese sich nicht nur den schnellsten Weg von A nach B einprägen können, sondern nach einer Zeit das abstrakte Konzept verstehen, dass eine Tür in der Wand eine Abkürzung bedeuten kann. Dazu komme, dass gesammelte Erfahrungen teilweise zeitverzögert – etwa über Nacht im Schlaf – weiterverarbeitet und in ein abstrakteres, generalisiertes Wissensmodell eingearbeitet werden können. Auch diese spezielle Art der kontinuierlichen Wissenserweiterung sei bestehenden KI-Systemen noch fremd.

Diskriminierende Algorithmen

Eine weitere große Baustelle liegt darin, dass künstliche Intelligenz in vielen Fällen diskriminierende Entscheidungen trifft, problematische Vorurteile reproduziert oder schlichtweg nicht funktioniert. Lange Zeit taten sich Bildsysteme etwa mit Personen schwarzer Hautfarbe schwer. Abgesehen davon, dass die Gesichtserkennung zum Entsperren von Handys schlechter funktionierte, führte der Einsatz durch Polizeibehörden wiederholt zu fälschlicherweise Beschuldigten. Der Hintergrund: Die Systeme wurden lange Zeit überproportional mit Fotos weißer Personen trainiert und funktionierten deshalb bei Schwarzen weniger präzise.

Neben Trainingsdaten, die einseitig sein können, fließen unbewusst oder bewusst aber auch die Annahmen von Entwicklerinnen und Entwicklern in die Algorithmen ein. Dies sorgt erst recht wieder dafür, dass die als objektiv erscheinenden Maschinen vom Start weg eine programmierte Schieflage aufweisen. "Die Welt und unsere Gesellschaft sind von Ungleichheit geprägt, wie sollen da die Daten für eine künstliche Intelligenz völlig objektiv sein. Das ist utopisch", erklärt Miriam Fahimi, die am Digital Age Research Center der Universität Klagenfurt zum Thema "faire Algorithmen" forscht.

Wenn ein System auf Basis vergangener Einstellungspolitik lerne, dass Männer in technischen Positionen in Bewerbungsgesprächen vorgezogen werden, werde es die Ungleichheit fortschreiben. Ähnliches gelte für Wohngegenden, die eine hohe Kriminalität aufweisen. Orte seien eine nur scheinbar neutrale Variable. Sie würden indirekt aber auch den sozioökonomischen Status und andere Faktoren abbilden.


Diese Neuinterpretation von Klimts "Der Kuss" durch Midjourney ist ein Ausdruck von Diversität. Es gibt allerdings viele Beispiele, in denen gerade Frauen, aber auch Schwarze diskriminierend und klischeehaft dargestellt werden.

Durch KI-Systeme könne es zudem zu einer verstärkenden Feedback-Schleife kommen. "Künstliche Intelligenz schickt die Streifenpolizei in eine Gegend, in der schon viele Vorfälle dokumentiert sind. Diese Datenhäufung kann aber zustande gekommen sein, weil die Polizei in ärmeren Wohngegenden sowieso schon verstärkt anwesend ist", erklärt Fahimi. Dazu kommt die gerade auch in den USA dokumentierte rassistisch motivierte Ungleichbehandlung durch Polizei und Behörden. Auch sie kann dazu beitragen, dass Gegenden mit überwiegend schwarzer Bevölkerung überproportional viele Vorfälle aufweisen.

Nicht immer sind es die irreführenden Trainingsdaten, durch die selbstlernende Systeme in die eine oder andere Richtung beeinflusst werden. Vielmehr haben Verantwortliche hinter solchen Algorithmen genaue Vorstellungen, wie eine künstliche Intelligenz entscheiden soll. "Beim umstrittenen AMS-Algorithmus, der Menschen mit geringeren Jobchancen – darunter vor allem Frauen – weniger Ausbildungsförderung zuteilt, ist das ja auch keine Frage der technischen Implementierung oder eines fehlerhaften Algorithmus, sondern weil das AMS das bewusst so möchte", nennt Fahimi ein Beispiel.

Ruf nach mehr Transparenz

Bei Kreditvergaben wiederum werden im Hintergrund ebenfalls Parameter festgelegt, die für eine Zuteilung oder Ablehnung berücksichtigt werden. Problematischer als der Umstand, dass gewisse Faktoren in Algorithmen einen Niederschlag finden, ist der Forscherin zufolge die damit einhergehende Intransparenz. Ein faireres System müsste Betroffenen auch erklären können, wie es zu seiner Entscheidung gekommen sei. "Welche Voraussetzungen muss ich mitbringen, damit ich doch noch einen Kredit bekomme? Was muss ich wissen, um der Entscheidung widersprechen zu können? Eine solche Möglichkeit wäre wünschenswert und würde beitragen, sozial bedingte Ungerechtigkeiten oder unfaire Annahmen adressieren zu können", sagt Fahimi.

Viele der aufgezeigten Herausforderungen machen deutlich, dass der Weg zu einer menschenähnlichen künstlichen Intelligenz lang und steinig bleibt. Eine feindliche Übernahme der Welt durch Terminatoren, Zylonen oder andere hochintelligente Killerroboter erscheint zum jetzigen Zeitpunkt daher alles andere als wahrscheinlich. Davon geht auch der Künstliche-Intelligenz-Experte Legenstein von der TU Graz aus: "Früher war die Angst groß, dass intelligente System Menschen und ihre Jobs vielerorts komplett ersetzen werden. In den vergangenen Jahren hat sich jedoch gezeigt, dass sich das Ganze viel mehr zu einer kooperativen, symbiotischen Beziehung entwickeln könnte, als wir das eigentlich angenommen hatten." 

Nota. - Natürlich kann sie nicht abstrahieren. Abstrahieren ist die Umkehrung von reflek-tieren. Und natürlich kann sie nicht reflektieren. Denn dazu muss sie wählen können, wor-auf. Man muss absehen können auf das, was einem wichtig ist, und absehen können von dem, was im Moment nicht zur Sache gehört. Zur SacheWürde sie der Maschine vorgege-ben, bräuchte sie nur zu subsumieren. Doch das ist keine Abstraktion. Man kommt nicht drumrum: Reflektieren und abstrahieren setzen einen freien Willen voraus.

Von im Internet aufgelesenen Vorurteilen abstrahieren könnte sie nur durch freien Willen, den sie nicht hat. Man könnte es ihr auftragen; aber dann unterwirft sie die gesammelten Vorurteile einem neuen - einem äußeren und willkürlichen. Dem kann sie sich unterwerfen.

PS. Was wir landläufig denken nennen, besteht aus reflektieren und abstrahieren.
JE


Keine Kommentare:

Kommentar veröffentlichen

Blog-Archiv

Pausen sind gut und nötig; der Pausenhof ist ein Übel.

                                                          aus Levana, oder Erziehlehre Die Schule ist ein Ort, der Kinder in einer so ...