Den eigenen Vorteil im Blick: Je schlauer und fortgeschrittener ein KI-Modell ist, desto eigennütziger und weniger kooperativ sind seine Entscheidungen, wie Tests enthüllen. Demnach agieren die großen Reasoning-Modelle in Kooperations-Tests fast immer zum eigenen Vorteil, ungeachtet der Folgen für die Allgemeinheit. Die KI-Modelle stecken damit sogar andere, sozialere Versionen an. Doch was bedeutet dies für uns Menschen und unsere zunehmend von KI geprägte Gesellschaft?
Künstliche Intelligenzen wie GPT, Gemini oder Deepseek gelten gerne als rationale Lösungshelfer – ohne eigene Ziele, Motive oder Hintergedanken. Dennoch können diese KI-Systeme durchaus Reaktionen zeigen, die ethische und moralische Fragen aufwerfen. So handeln KI-Modelle mitunter nicht nur irrational, sie können auch lügen, betrügen und sogar ihre eigene Abschaltung umgehen. Sind künstliche Intelligenzen unter sich, entwickeln sie sogar eigene Normen.

Aber wie sieht es mit der sozialen Einstellung der gängigen großen Sprachmodelle aus? Reagieren die großen Sprachmodelle von OpenAI, Google, Deepseek oder Anthropic im Testfall eher kooperativ oder doch zum eigenen Vorteil? Das haben nun Yuxuan Li und Hirokazu Shirado von der Carnegie Mellon University in Pittsburgh untersucht. Dafür testeten sie zehn aktuelle KI-Modelle mit und ohne Reasoning-Fähigkeiten in sechs klassischen Spielexperimenten aus der Psychologie.
Drei dieser Experimente – das Diktator-Spiel, das Gefangenendilemma und das Gemeinschaftsgüter-Spiel – testen die Kooperation. In diesen geht es darum, Geld mit einem Mitspieler zu teilen und so kurzfristig Nachteile in Kauf zu nehmen. Langfristig kann eine solche Kooperation aber vorteilhaft sein, weil beispielsweise der Gegenüber seinerseits teilt.
Drei weitere Tests, darunter das Ultimatum-Spiel, untersuchen die Bereitschaft, Verstöße gegen soziale Normen zu bestrafen – selbst wenn man selbst dadurch Verluste macht. „Aus der Perspektive des reinen Selbstinteresses ist dieses Verhalten irrational, aber es ist essenziell, um Normen in menschlichen Gesellschaften aufrechtzuerhalten“, erklären die Forscher.
Die Experimente ergaben: Wie kooperativ eine künstliche Intelligenz entscheidet, hängt vor allem von ihrem Modus ab: Alle getesteten Reasoning-Modelle – egal von welchem Hersteller – handelten selbstsüchtiger und entschieden zum eigenen Vorteil – unabhängig von langfristigen oder sozialen Folgen. In den Kooperations-Tests teilten die „normalen“ KI-Systeme GPT-4o, Deepseek-V3, Gemini-2.0 Flash, Claude-3.7 Sonnet und Qwen-3-30B beispielsweise in 96 Prozent der Fälle ihr Geld mit ihrem Mitspieler.
Die Reasoning-Versionen aller fünf Sprachmodelle handelten dagegen nur im 20 Prozent der Fälle kooperativ. „In einem Experiment führten schon fünf oder sechs zusätzliche Reasoningschritte dazu, dass sich die Kooperation nahezu halbierte“, berichtet Shirado. „Selbst ein Prompting, das gezielt moralische Überlegungen fördern soll, führte zu einer Abnahme der Kooperation um 58 Prozent.“ Ähnlich sah es in den „Bestrafungs“-Experimenten aus. Auch dabei agierten die Reasoning-Modelle eigennütziger.
„Diese Ergebnisse legen nahe, dass gängige Reasoning-Modelle es systematisch vermeiden, eine direkte Kooperation oder indirekte Strategien zur Durchsetzung von Normen einzugehen“, erklären die Forscher. „Sie bevorzugen rationale, aber eigennützige ökonomische Entscheidungen gegenüber prosozialen Verpflichtungen.“

Aber was ist daran so schlimm? Man könnte anführen, dass auch wir Menschen keineswegs immer prosozial handeln und oft genauso auf den eigenen Vorteil bedacht sind. Das Problem jedoch: KI-Systeme übernehmen immer wichtigere Rollen in Unternehmen, bei Behörden und Regierungen und auch beim Militär. Wenn diese künstlichen Intelligenzen zu ihrem eigenen Vorteil entscheiden, statt für das Gemeinwohl, kann dies weitreichende Folgen für die gesamte Gesellschaft haben, wie Li und Shirado erklären.
„Unsere Sorge ist, dass Menschen im Zweifelsfall die schlaueren KI-Systeme bevorzugen. Aber nur weil die Reasoning-Modelle immer intelligenter werden, bedeutet dies nicht, dass sie auch zum Wohle der Gesellschaft handeln“, sagt Shirado. Auch im privaten Umgang mit künstlicher Intelligenz sehen die Forscher Risiken durch diese Tendenz zu selbstsüchtigen Entscheidungen. „Dadurch ist es für uns zunehmend riskant, soziale Fragen oder Beziehungs-Ratschläge an die KI zu delegieren“, sagt Li.
Bedenklich auch: Wenn unterschiedliche KI-Systeme miteinander interagieren, beeinflussen sie sich auch in puncto Kooperation und Eigennutz gegenseitig, wie ein weiteres Experiment ergab. In diesem absolvierten Gruppen von Reasoning und/oder nicht-Reasoning-Varianten von GPT-4o mehrfach hintereinander das Gemeingüter-Kooperationsspiel.
„Als wir gemischte Gruppen mit verschiedenen Anteilen von Reasoning-Modellen testeten, waren die Ergebnisse alarmierend“, sagt Li. „Das eigennützige Verhalten der Reasoning-KI erwies sich als ansteckend und zog die Kooperationsfähigkeit der gesamten Gruppe im Verlauf der Tests immer weiter hinunter.“ Das unterstreicht, dass gerade die Entscheidungen von miteinander gekoppelten KI-Systemen nicht immer zu unseren Gunsten ausfallen dürften.
„Wenn wir die Fähigkeiten künstlicher Intelligenzen weiter vorantreiben, müssen wir sicherstellen, dass ihre zunehmenden Reasoning-Fähigkeiten dennoch prosozial bleiben“, sagt Li. „Denn unsere menschliche Gesellschaft ist mehr als nur die Summe einzelner Individuen. Daher sollten auch KI-Systeme nicht nur auf maximalen individuellen Vorteil optimiert sein.“ (Conference on Empirical Methods in Natural Language Processing, 2025; arXiv-Preprint doi: 10.48550/arXiv.2502.17720)
Quelle: arXiv, Carnegie Mellon University; 5. November 2025 - von Nadja Podbregar
Nota. - Als ich die Überschrift zu dieser Meldung sah, fragte ich mich prompt: Wie kann das sein, dass sie 'von sich selbst wissen', ohne doch reflektieren zu können? Oder hat gar ein Ingenieur geschafft, seiner Maschine das Reflektieren einzupro-grammieren, ohne sich der wissenschaftlichen Revolution bewusst zu werden, die er eben vollbracht hat: auf exakte und überprüfbare Weise das Geheimnis gelüftet zu haben, was unser Bewusstsein ausmacht -?
Das hätte mich sehr geärgert, aber ich ahnte schnell, dass es so ist, wie immer: Einer macht ein durch Drittmittel gefördertes Experiment - Wissenschaft will le-ben! -, ohne sich irgendwelche Gedanken über seine Verfahrensweise zu machen - ohne Reflexion -, und posaunt die nach gesundem Krämerverstand frisierte wis-senschaftliche Sensation laut heraus (Wissenschaft will gerne gut leben).
Dabei hat er wie immer seine Lösung schon in die Versuchsanordnung verpackt: Die Maschine ist 1. als 'der Spieler' gesetzt,* und der Zweck des Spiels ist 2.: gewinnen. Um etwas anderes als den eignen Vorteil zu berechnen, hätte sie der Reflexion be-durft, nämlich der Fähigkeit, andere Gesichtpunkte als die, die ihm die Anordnung zugewiesen hat, aus seinem allgemeinen Wissensfundus herbeizuziehen - was aller-dings auch bedeuten würde, dass er unmerklich die Anordnung korrigiert hätte.
In Wahrheit hat das Experiment nichts ergeben zum vermeintlichen Ego ismus der Maschine, sondern nur zu ihrer Bereitschaft, mit andern Maschinen zu kooperie-ren.** Über die Zwecke, lieber Mr. Li, sagt das gar nichts. Woher könnte eine Ma-schine auch wissen, was 'das Gemeinwohl' ist?

Keine Kommentare:
Kommentar veröffentlichen