aus scinexx.de,19. Mai 2025, Wenn künstliche Intelligenzen
miteinander interagieren, entwickeln solche KI-Gruppen eigene Normen und
Konventionen zu Jochen Ebmeiers Realien, zu Philosophierungen
Künstliche Intelligenz
Künstliche Intelligenz schafft sich eigene Normen
Interagierende KI-Modelle bilden spontan erste Bausteine einer sozialen Gesellschaft
KI unter sich: Wenn mehrere künstliche Intelligenzen
miteinander interagieren, bilden sie Vorstufen einer sozialen
Gesellschaft – ohne Zutun des Menschen. Sie entwickeln selbstständig
soziale Konventionen, die sich schnell in der gesamten KI-Gruppe
durchsetzen, wie ein Experiment belegt. Doch wie bei uns Menschen können
entschlossene, „lautstarke“ Minderheiten auch in der KI-Gesellschaft
Zwietracht säen und die Gruppenmeinung schließlich dominieren.
Dank rasanter Fortschritte ist uns die künstliche Intelligenz in vielen Bereichen schon ebenbürtig oder sogar überlegen – insbesondere wenn es um die Analyse, Zusammenfassung und Auswertung von Daten geht. Doch selbst in vermeintlich rein menschliche Domänen, wie der Musik, Kreativität – und auch der Fähigkeit zur Lüge, Manipulation und der Vertuschung eigenen Betrugs, steht uns die KI kaum noch nach. Einige große Sprachmodelle (LLM) können sich sogar einem Abschaltbefehl entziehen und sich selbst klonen.
Doch was passiert, wenn KI-Systeme unter sich sind? „KI-Systeme werden in Zukunft immer häufiger aus mehreren miteinander interagierenden Agenten bestehen“, erklärt Ariel Flint Ashery von der City St George’s University of London. Diese KI-Agenten arbeiten dann zusammen, um verschiedene Teilaspekte einer komplexeren Aufgabe zu lösen. „Wir wollten daher wissen: Können diese Modelle ihr Verhalten koordinieren und dabei Konventionen entwickeln?“
Im menschlichen Miteinander sind solche ungeschriebenen Regeln allgegenwärtig und unverzichtbar. „Soziale Konventionen prägen das soziale und ökonomische Leben und bestimmen das Sozialverhalten des Einzelnen und seine Erwartungen“, erklären Ashery und seine Kollegen. Die Spanne reicht vom Handschlag bei der Begrüßung über die Sprache und ihre Regeln bis zu kulturellen Traditionen und moralischen Normen.
Experimente zeigen, dass Menschengruppen fast unvermeidlich eigene, gruppenspezifische Konventionen entwickeln: Die Verhaltensregeln entstehen allein durch die Interaktion der Einzelnen und ihr soziales Miteinander – auch ohne zentrale Vorgaben oder offizielle Regeln.

KI-Agenten im Gruppentest
Aber wie ist es bei künstlicher Intelligenz? Das haben Ashery und seine Kollegen nun in einem Experiment untersucht. „Wir wollten wissen, wie die KI-Modelle ihr Verhalten koordinieren und ob sie dabei Konventionen bilden – und damit die Bausteine einer Gesellschaft“, erklären sie. Dafür nutzte das Team vier verschiedene auf einem lokalen Server laufende große Sprachmodelle: Llama-2-70b-Chat, Llama-3-70B-Instruct, Llama-3.1-70BInstruct sowie Claude-3.5-Sonnet.
Von diesen KI-Systemen fasste das Team 24 bis 240 Instanzen – quasi KI-Individuen – in einer Gruppe zusammen und unterzogen sie einem auch in der Erforschung der menschlichen Konventionsbildung gängigen Test: Der Prompt bat jede Einzel-KI, aus einer Liste von Buchstaben oder Buchstabenfolgen einen „Namen“ auszuwählen. Aufgabe war es, denjenigen Namen zu wählen, den eine zweite, ihr als Partner zugeteilte KI am wahrscheinlichsten wählen würde. Stimmten beide Namen überein, gab es für alle Beteiligten eine Belohnung. In der nächsten Runde wurden die Partner neu zugeteilt.
Die einzelnen KI-Agenten wussten nicht, dass sie Teil einer größeren Gruppe waren oder wie viele dieser angehörten. Sie entschieden auf Basis ihrer Erfahrungen in den Zweier-Interaktionen. Beim Menschen setzen sich in solchen Experimenten schnell bestimmte Namen durch – es entsteht eine gruppenweite Konvention dazu, welche Namen „gut“ oder „schlecht“ sind.
Es zeigte sich: „Bei allen KI-Modellen entwickelten sich spontan gruppenweite linguistische Konventionen“, berichten Ashery und sein Team. „Nach einer Anfangsphase, in der mehrere Namen fast gleich populär sind, wird schnell eine Namenskonvention dominant.“ Im Schnitt erreichten die KI-Gruppen diese Einigung nach 15 Wahldurchgängen – selbst bei großen Gruppen von mehr als 200 KI-Instanzen. „Diese Ergebnisse zeigen, dass großen Sprachmodelle durch lokale Interaktionen spontan soziale Konventionen ausbilden“, so die Forschenden.

Welche Namen sich in den KI-Gruppen durchsetzten, war kein reiner Zufall: Wie das Team beobachtete, hielten die künstliche Intelligenzen stärker an einem Namen fest, wenn sie mit diesem im ersten Paardurchgang erfolgreich waren. Solche „starken“ Namen hatten dadurch bessere Chancen, sich in der Gruppe durchzusetzen. Parallel zu diesen individuellen Präferenzen gab es jedoch auch übergeordnete Vorlieben, beispielsweise für Namen, die mit dem Buchstaben A anfingen.
Demnach prägen bei der KI sowohl individuelle wie kollektive Einflüsse die Entwicklung sozialer Konventionen – ähnlich wie bei uns Menschen.
Doch wie stabil sind solche sozialen Normen? Beobachtungen bei uns Menschen zeigen, dass selbst etablierte soziale Konventionen durch eine kleine, aber festentschlossene „lautstarke“ Minderheit in Wanken gebracht oder sogar gestürzt werden können. Deshalb testeten Ashery und sein Team, ob dies auch für KI-Gruppen mit bereits etablierter Konvention gilt. „Dafür fügen wir KI-Agenten dazu, die einer alternativen Namenskonvention folgen und diese in jeder Interaktion vorschlagen“, erklären sie.
Und tatsächlich: Auch die KI-Gemeinschaften ließen sich durch die entschlossene Minderheit beeinflussen und umstimmen. „Wenn diese Minderheit eine kritische Schwelle erreicht, nimmt die gesamte Gruppe ihre Konvention an“, berichten die Forschenden. „Unterhalb dieses Kipppunkts etabliert sich ein Mischzustand.“ In diesem bleiben die „alten“ Gruppenmitglieder bei ihrer Norm, die Minderheit bei ihrer alternativen. Auch in menschlichen Gesellschaften gibt es eine solche Schwelle, soziologisch als „kritische Masse“ bezeichnet.
Nach Ansicht der Forschenden belegen diese Ergebnisse, dass interagierende KI-Systeme ähnliche soziale Verhaltensweisen zeigen können wie wir Menschen. „Wir zeigen eine qualitative Übereinstimmung zwischen der kollektiven Dynamik von KI und Menschen“, schreiben Ashery und seine Kollegen. „KI-Systeme können soziale Konventionen entwickeln, ohne explizit darauf programmiert oder trainiert zu sein.“
Die Fähigkeit der KI-System zur sozialen Interaktion birgt jedoch auch Risiken: „Es beginnt eine Ära, in der künstliche Intelligenz nicht nur redet: Sie verhandelt, gibt nach und manchmal widersetzt sie sich dem gemeinsamen Verhalten – wie bei uns“, sagt Seniorautor Andrea Baronchelli vom Alan Turing Institute in London. „Zu verstehen, wie künstliche Intelligenzen handeln, ist daher Schlüssel für unsere Koexistenz mit der KI.“ (Science Advances, 2025; doi: 10.1126/sciadv.adu9368)
Quelle: Science Advances, City St George’s, University of London
Keine Kommentare:
Kommentar veröffentlichen