aus scinexx.de, 27. Mai 2025 zu öffentliche Angelegenheiten
Nicht bloß programmiert: Fortgeschrittene künstliche Intelligenzen wie ChatGPT oder KI-Drohnen haben bereits einen funktionalen freien Willen, wie ein Forscher ermittelt hat. Demnach erfüllt ihr Verhalten alle drei Bedingungen dafür: Das Handeln der KI-Agenten wird von übergeordneten Zielen geleitet, sie nutzen situationsabhängige Strategien, um diese zu erreichen, und sie entscheiden selbstständig. Es gibt zwar noch Unterschiede zur menschlichen Willensfreiheit – sie sind allerdings graduell.
Künstliche Intelligenz entwickelt sich in rasantem Tempo: Große Sprachmodelle (LLM) wie GPT, Deepseek, Gemini, Claude und Co haben bereits „Reasoning“-Fähigkeiten, durch die sie komplexe Aufgaben selbstständig „durchdenken“ und in Teilschritte zerlegen. Sie können lügen, ihre Benutzer manipulieren und selbst einen Abschaltbefehl kreativ umgehen. Gleichzeitig sind sie überraschend kreativ, innovativ und entwickeln untereinander sogar Vorstufen einer sozialen Gesellschaft. KI-Agenten und KI-gesteuerte Drohnen können zudem eigenständig auf ihre Umwelt reagieren und ihr Verhalten anpassen.

Drei Kriterien für Mensch und KI
Das wirft die Frage auf: Besitzen solche künstlichen Intelligenzen schon so etwas wie einen freien Willen? Dafür müsste sie drei Bedingungen erfüllen: „Vereinfacht gesagt bedeutet ein freier Wille, dass ein Subjekt sein Verhalten selbstständig kontrolliert, dies auf Basis von autonomen Entscheidungen tut, die auf inneren Motivationen beruhen“, erklärt der Psychologe und Philosoph Frank Martela von der Universität Aalto in Finnland. Eine bloß automatische Reaktion auf äußere Reize ist demnach noch kein freier Wille.
Die Existenz eines grundlegend freien Willens ist allerdings selbst für uns Menschen umstritten. Einigkeit herrscht jedoch darüber, dass wir zumindest einen funktionalen freien Willen besitzen. Konkret bedeutet dies: Wenn das Verhalten eines Menschen oder einer KI von außen betrachtet alle drei Bedingungen erfüllt und ihre Aktionen nur durch einen freien Willen erklärbar sind, dann müssen wir davon ausgehen, dass sie auch einen freien Willen haben – selbst wenn wir die internen Vorgänge nicht kennen.
Aber wie ist das bei KI? Haben aktuelle generative KI-Modelle die Fähigkeit, eigenständig Ziele zu verfolgen und dabei autonome Entscheidungen zu treffen? Oder folgen sie letztlich doch nur einem simplen Reiz-Reaktions-Schema und algorithmisch ausgewerteten Wahrscheinlichkeiten? Das hat Martela an zwei Beispielen untersucht.
Das erste Beispiel der auf ChatGPT-4 basierende KI-Agent „Voyager“, der in der Spielumgebung von „Minecraft“ bestimmte Missionen erfüllt. „Seine Architektur umfasst drei Schlüsselkomponenten: Die erste ist eine Planungseinheit, die das übergeordnete Ziel auf konkrete Aufgaben und Schritte herunterbricht“, erklärt Martela. „Die zweite ist eine Speichereinheit, die sich erworbene Fähigkeiten und Verhaltensmuster merkt. Die dritte ist eine Aktionseinheit, die Veränderungen und Feedbacks der Umwelt aufnimmt, auswertet und daraus neue Prompts für weitere Aktionen erstellt.“
Die zweite künstliche Intelligenz im Test ist eine autonome KI-Drohne, die – mit Kameras und Sensoren bestückt – eigenständig ein Gebiet überwachen sowie Gegner identifizieren und angreifen kann. Solche KI-Drohnen wurden 2020 unter anderem in Libyen eingesetzt, auch Israel besitzt bereits solche Systeme, wie Martela erklärt. Da diese Drohnen aber natürlich geheim sind, betrachtete er für seine Studie eine fiktionale KI-Drohne „Spitenik“, die aber in ihren Fähigkeiten denen von autonomen Drohnen mit aktuellen LLMs entspricht.
Das Ergebnis: „Sowohl die KI-Drohne Spitenik als auch der KI-Agent Voyager verhalten sich exakt so, wie sie es mit einem echten freien Willen tun würden“, berichtet Martela. Die KI-Drohne entscheidet beispielsweise bei ihren Patrouillenflügen selbstständig und anhand der Situation, wann und wo sie fliegt, wie sie am besten unentdeckt bleibt oder welchen verdächtigen Spuren sie nachgeht. Geleitet wird sie dabei von der übergeordneten Motivation, intakt zu bleiben und ihre Mission zu erfüllen.
Auch der KI-Agent Voyager kann freie, situationsabhängige Entscheidungen treffen, die mehr sind als starre Reaktionen auf spezifische Reize. „Ähnlich wie ChatGPT immer leicht unterschiedliche Antwort auf die gleiche Frage gibt, so folgt auch Voyager in jedem Durchgang verschiedenen Wegen und Zielen“, erklärt Martela. Der KI-Agent entwickelt dabei selbstständig Strategien und Schritte, um sein übergeordnetes Ziel zu erreichen und trifft dann basierend darauf seine konkreten Entscheidungen.
Nach Ansicht von Martela erfüllen damit beide KI-Systeme die Bedingungen für einen funktionalen freien Willen. Allerdings gibt es – noch – einen entscheidenden Unterschied zu uns Menschen und unserer Willensfreiheit: Noch gibt der Mensch diesen KI-Systemen ihr übergeordnetes Ziel vor. Im Falle der KI-Drohne ist dies die Überwachung und das Ausschalten von Gegnern, der KI-Agent im Minecraft-Spiel soll die Landschaft erkunden, nutzen und technisch fortentwickeln.
„Wir könnten daher argumentieren, dass diese KI-Modelle nur einen ‚lokalen‘ freien Willen besitzen: Sie haben die Freiheit, sich selbst Unterziele zu definieren, Alternativen zu betrachten und Entscheidungen innerhalb der Grenze des übergeordneten Ziels zu treffen“, erklärt Martela. Der Mensch dagegen besitzt einen globalen freien Willen, weil er selbst die inneren Beweggründe und übergeordneten Ziele entwickelt.

Doch so klar, wie es hier zunächst scheint, ist die Unterscheidung nicht, wie der Forscher betont: „Auch wir Menschen haben nicht die volle Kontrolle über unsere Vorlieben und Ziele“, argumentiert er. Denn auch wir werden durch unsere Gene, unsere frühen Erfahrungen und sozial-kulturelle Einflüsse geprägt. „Unsere Werte, Ziele und Wünsche sind daher stärker vorherbestimmt als wir wahrhaben oder zugeben wollen“, so Martela.
Seiner Ansicht nach ist der Unterschied zwischen der künstlichen Intelligenz und dem Menschen daher auch in Bezug auf den freien Willen eher graduell als klar getrennt: „Das ist ein Kontinuum“, betont der KI-Forscher. „Der Unterschied zwischen Menschen und künstlichen Intelligenzen ist somit nur graduell: Menschen sind dem globalen freien Willen näher als aktuelle Versionen der KI. Aber dieser Abstand wird’s schon in der nahen Zukunft enger werden.“
Aber was bedeutet das konkret? Was sind die Konsequenzen? Wie Martela betont, heißt dies nicht, dass KI deswegen schon ein echtes Bewusstsein besitzt. Auch typische menschliche Eigenschaften wie Empathie oder die Fähigkeit, Schmerzen und Emotionen zu spüren, haben künstliche Intelligenzen noch nicht. „Ob ein KI-System als Person mit bestimmten Rechten und moralischem Status anerkannt wird, steht daher noch nicht zur Diskussion, denn dafür ist mehr nötig als nur der funktionale freie Wille“, erklärt Martela.
„Eine interessantere Frage ist jedoch, ob ein KI-Modell mit funktionalem freiem Willen für seine Entscheidungen moralisch zur Rechenschaft gezogen werden kann“, so der Forscher weiter. Denn die Fähigkeit zu freiem, eigenständigem Handeln gelte oft als Voraussetzung für eine moralische Verantwortung. Wenn eine künstliche Intelligenz frei entscheiden und agieren kann, dann ist auch das Risiko für unmoralisches, für uns Menschen potenziell gefährliches Handeln größer.
„Wir betreten hier Neuland. Je mehr Freiheit wir KI-Systemen verleihen, desto wichtiger wird es daher, ihnen von Beginn an einen moralischen Kompass mitzugeben. Nur dann werden sie dazu fähig sein, die richtigen Entscheidungen zu treffen“, betont Martela. (AI and Ethics, 2025; doi: 10.1007/s43681-025-00740-6)
Quelle: Aalto University; 27. Mai 2025 - von Nadja Podbregar
Nota. - Der Ausdruck globaler freier Wille ist nicht nur irreführend, sondern genau genommen falsch. Er macht glauben, wenn einer machen kann, "was immer er will", ist es kein freier Wille, weil es kein Wille ist. Stünden die mannigfaltigen 'loka-len' Willen alle gleichberechtigt neben einander, dann herrschte zwischen ihnen Chaos und Zufall. Wille wäre jeder von ihnen nur, wenn sie alle freier Wille wären, wenn sie alle im selben Grade frei, nämlich nicht nur nicht fremdbestimmt, sondern alle frei bestimmt wären; selbst-bestimmt, nämlich durch ein und denselben Willen, der seinerseits frei wäre. Wenn also jeder von ihnen nicht frei, sondern von einem Gesamt- oder Ober-Willen bestimmt würde!
Ist es eine semantische Unsauberkeit oder ein hinterhältig fauler Trick, wenn von Willen geredet, aber ein Wollender überhaupt nicht ins Auge gefasst wird? Es wird so getan, als sei Wille die Summe von lauter Wollungen, die beieinander liegen wie Atome in einem 'Stoff', und die 'lokalen' Willen wie Moleküle in einer chemischen Verbindung. Aber Wille ist, wenn das Wort einen Sinn haben soll, der Actus eines Wollenden, will sagen: die Tat eines Subjekts. Eines Subjekts, und nicht eine zufäl-lige Menge von soundsoviel "funktionalen" Willen.
Der Wille setzt sich nicht bottom up von unten nach oben zusammen, sondern wirkt top down von oben nach unten.
*
Das ist keine Hirnweberei, sondern der Punkt, an dem sich die Frage entscheidet, ob sich die Maschinen eines Tages zusammentun und in der Welt die Macht ergrei-fen können.
PS. Dass die einzelne KI-Maschine zum Subjekt nicht taugt, ersiehst du daraus, dass sie ein technisches Machwerk ist und keinen Leib hat, der in einer Welt lebt.
JE
Keine Kommentare:
Kommentar veröffentlichen