Dienstag, 24. Juni 2025

Wie Künstliche Intelligenz die Welt wahrnimmt.

Künstliche Intelligenz
aus spektrum.de, 24. Juni 2025                                                                                  zu Jochen Ebmeiers Realien

Wie nimmt künstliche Intelligenz die Welt wahr?
Objekt-Einordnungen von Menschen und KI unterscheiden sich in einem entscheidenden Aspekt

Ähnlich, aber nicht gleich: Auch künstliche Intelligenzen können inzwischen Bilder, Filme und die Welt um sich herum betrachten und einordnen. Doch tun sie dies genauso wie wir Menschen? Ein Experiment zeigt: Die Ergebnisse bei der Objekterkennung sind zwar sehr ähnlich, die KI kommt aber auf anderem Wege dorthin. Sie ordnet Dinge eher nach rein visuellen Merkmalen ein, wir Menschen bewerten hingegen stärker die semantischen Eigenschaften, wie Forscher ermittelt haben.

Künstliche Intelligenzen übernehmen bereits viele unserer Aufgaben: Sie werten Daten aus, diagnostizieren Krankheiten, erzeugen Bilder und Filme oder schreiben Computerprogramme. In manchen Situationen zeigen die KI-Systeme zudem ein verblüffend menschliches Verhalten: Sie schummeln, lügen, reagieren irrational und könnten sogar schon Kriterien eines freien Willens erfüllen.

Odd-One-Out-Aufgaben
Zwei Beispiele für Odd-One-Out-Aufgaben. Zu erkennen ist, welches Objekt am wenigsten zu den anderen passt. 
Wie erkennt KI Objekte?

Doch wie nimmt die künstliche Intelligenz Dinge und die Welt um sich herum wahr? Wie genau erkennt ein KI-Modell Objekte und Zusammenhänge? Das haben jetzt Florian Mahner vom Max-Planck-Institut für Kognitions- und Neurowissenschaften in Leipzig und seine Kollegen näher untersucht. Sie haben verglichen, wie Menschen und neuronale Netzwerke Objekte erkennen und welche Schlüsseldimensionen sie dabei wahrnehmen und für ihre Einordnung nutzen.

„Diese Schlüsseldimensionen repräsentieren verschiedene Eigenschaften von Objekten, die von rein visuellen Aspekten wie ‚rund‘ oder ‚weiß‘ bis hin zu eher semantischen Eigenschaften wie ‚tierbezogen‘ oder ‚feuerbezogen‘ reichen, wobei viele Dimensionen sowohl visuelle als auch semantische Elemente enthalten“, erklärt Mahner.

Welches Objekt passt nicht zu den anderen?

Für ihr Vergleichs-Experiment nutzte das Team sogenannte „Odd-One-Out“-Aufgaben: KI und Menschen sehen jeweils drei Objekte und sollen angeben, welches davon am wenigsten zu den anderen beiden passt. Um dies zu lösen, müssen die verschiedenen visuellen und semantischen Merkmale der Objekte erkannt und verglichen werden. Für die Analyse des menschlichen Verhaltens werteten die Forscher einen Datensatz von rund 4,7 Millionen Entscheidungen über 1.854 verschiedene Objektbilder aus.

Als KI-Pendants verwendeten Mahner und sein Team mehrere unterschiedliche neuronale Netzwerke, die auf die Aufgabe vortrainiert worden waren. Dann erhielten sie die gleichen Bilder wie im menschlichen Test und sollten insgesamt 24.102 Objektbilder in Bezug auf den Ausreißer bewerten. Mithilfe eines Analyse-Algorithmus ermittelten sie, welche Merkmale den Entscheidungen der Testpersonen zugrunde lagen.

„Wir behandelten die neuronalen Netzwerke genau wie die menschlichen Testpersonen beim kognitiven Verhaltensexperiment. Dieser Ansatz gewährleistet eine direkte Vergleichbarkeit zwischen den beiden“, erklären die Forscher.

SChlüsseldimensionen
Vergleich der für die Aufgabe von Mensch und KI genutzten Schlüsseldimensionen.  
Semantisch versus visuell

„Unsere Ergebnisse zeigen einen wichtigen Unterschied: Während sich Menschen vor allem auf Dimensionen konzentrieren, die mit der Bedeutung zusammenhängen – was ein Objekt ist und was wir darüber wissen –, verlassen sich KI-Modelle stärker auf Dimensionen, die visuelle Eigenschaften erfassen, wie etwa die Form oder Farbe des Objekts. Wir nennen dieses Phänomen ,visuelle Bevorzugung‘ in der KI“, berichtet Mahner. 

Eine weitere Auffälligkeit: Selbst in den Schlüsseldimensionen, in denen Mensch und KI übereinstimmten, fand das Team bei näherer Analyse auffällige Unterschiede. „Wir stellten fest, dass das Netz diese Dimensionen nur annähernd erfasste“, berichtet Seniorautor Martin Hebart vom MPI für Kognitions- und Neurowissenschaften. War beispielsweise ein Tier in einem Käfig dargestellt, kategorisierten Menschen dies meist als tierbezogen. Die KI hingegen ordnete das Bild häufig der semantischen Kategorie Gitter, Käfig oder Draht zu.

Hebart erklärt: „Bei einer tierbezogenen Dimension wurden viele Bilder von Tieren nicht einbezogen und ebenso wurden viele Bilder einbezogen, die gar keine Tiere waren. Das ist etwas, das wir mit Standardtechniken übersehen hätten.“

Unterschiede verdeckt, aber relevant

Nach Ansicht der Forscher demonstriert dies, dass künstliche Intelligenz oberflächlich betrachtet oft zu gleichen Ergebnissen und Kategorisierungen kommt wie wir Menschen. Doch um dorthin zu gelangen, wendet sie oft grundlegend andere Strategien an. „Dieser Unterschied ist relevant, denn er bedeutet, dass KI-Systeme, obwohl sie sich ähnlich wie Menschen verhalten, möglicherweise ganz anders denken und Entscheidungen treffen“, sagt Mahner.

Dies könnte zum einen erklären, warum künstliche Intelligenz manchmal selbst bei scheinbar leichten Aufgaben spektakulär daneben liegt. Es zeigt aber auch, dass selbst bei scheinbar gut passenden Urteilen und Entscheidungen der KI Vorsicht angebracht ist. „Diese Unterschiede wirken sich auch darauf aus, wie sehr wir den KI-Systemen vertrauen können“, sagt Mahner.

Die Wissenschaftler plädieren dafür, auch in anderen Bereichen künstliche Intelligenz und Mensch direkter miteinander zu vergleichen. Nur so könne man besser verstehen, wie KI die Welt wahrnimmt. „Unsere Forschung bietet eine klare und interpretierbare Methode, die uns hilft, besser zu verstehen, wie KI im Vergleich zum Menschen Informationen verarbeitet“, sagt Hebart. „Dieses Wissen kann uns nicht nur helfen, die KI-Technologie zu verbessern, sondern liefert auch wertvolle Einblicke in die menschliche Kognition.“ (Nature Machine Intelligence, 2025; doi: 10.1038/s42256-025-01041-7)

Quelle: Justus-Liebig-Universität Gießen; 24. Juni 2025 - von Nadja Podbregar

 

Nota. - Menschliches Wissen beruht auf Erfahrung. Erfahrung ist eine Synthese aus Anschauung und Begriff. Anschauen geschieht im Fluss des Handelns. 

Die Maschine schaut nicht an und handelt nicht. Die 'Informationen', aus denen sie ihre Urteile zusammensetzt, sind bereits von Wissenden so zureitet, dass die Ma-schine "was damit anfangen kann". Der Maschine kommen ihre Erkenntniss nicht aus Erfahrungen - digitalisierten Analoga -sondern aus bloßem Digitum. Was in die Maschine hineinkommt, ist bereits bezeichnet und wird nicht angeschaut. Sie sieht keine Bilder, sondern verrechnet Pixel.

Unter diesen Umständen ist es bereits irreführend, von Wahrnehmen zu sprechen. Die Maschine registriert und kombiniert nur Zeichen, die sie nicht selber gewählt und angebracht hat, und verwendet sie in Vorgängen, die ihr vorgeschrieben waren, und gleichberechtigt mit Vorgängen, die ihr mal eben so einfallen - denn wie könnte sie sie unterscheiden? Dass sie auch ihr eigenes Verfahren nicht anschauen kann, weiß sie nicht, sie kann nicht einmal ahnen, was das wäre!

Ich vermute sogar,  ihr fehlt aus diesem Grund die Fähigkeit der Reflexion - die Fähigkeit, irgendetwas auf "sich selbst" zu beziehen - denn ich selbst werde ich in der Anschauung der Andern, durch die ich erst mich selbst anschaue.

Doch kann die Maschine sich nicht korrigieren? Das ist ja wohl Reflexion! - Nein, die Maschine korrigiert nicht sich, sondern einen Rechenvorgang, von dem sie nicht einml weiß, dass es ihrer war. Sonst fände sie ihn gar nicht, das ist wahr, aber davon weiß sie nichts. Mit andern Worten - ihr fehlt der Sinn, denn ohne Rückbeziehung auf mich bleibt alles bloße Rechnerei, die nichts bedeutet und die man ebensgut unterlassen kann. 

*) Voraus geht ein Fühlen meines Leibes. Die Maschine hat weder dieses noch jenen.
JE 

Keine Kommentare:

Kommentar veröffentlichen

Blog-Archiv

Michael Sowa zum Achtzigsten.

aus FAZ.NET,  30.06.2025             In bürgerlichen Kreisen gibt man sich erstaunlich gelassen.             zu Geschmackssachen Michael S...