Samstag, 31. Mai 2025

Mal Welle, mal Teilchen.

Erstes Foto von Welle-Teilchen-Dualismus bei Licht
aus spektrum.de                                                                                                     zu Jochen Ebmeiers Realien

Welle oder Teilchen - ein Test mit dem Quantenradierer 
Eine vielfach bestätigte Konsequenz der Quantentheorie ist, daß sich ein physikalisches Objekt je nach Versuchsanordnung entweder als Welle oder als Teilchen verhält. Wie jetzt zweifelsfrei nachgewiesen wurde, hängt die Entscheidung darüber nicht von störenden Einflüssen des Beobachters auf das Versuchsobjekt ab, sondern von der aus dem Experiment gewonnenen Information.

von  Dr. Michael Springer

Atomare Teilchen überlagern sich manchmal wie Wellen, während elektromagnetische Lichtwellen sich in gewissen Situationen wie Teilchenschauer verhalten: Gemäß dem vom dänischen Physiker Niels Bohr (1885 bis 1962; Nobelpreis 1922) formulierten Komplementaritätsprinzip hat jedes mikrophysikalische Phänomen sowohl einen Wellen- als auch einen Teilchenaspekt. Welcher davon sich im Experiment ausprägt, hängt von dessen Art ab – gewissermaßen von der Formulierung der Frage an die Natur, welche das Experiment ausdrückt.

Das klassische Beispiel dafür ist der Doppelspalt-Versuch, bei dem Licht nach Passieren zweier eng benachbarter Spalte auf einen Schirm trifft; normalerweise bildet es dort ein wellentypisches Interferenzmuster. Doch das gilt nur, solange man – wie es sich für Wellen gehört – nicht weiß, ob das Licht entweder den oberen oder den unteren Spalt passiert hat. Tatsächlich wäre in unserem makroskopischen Alltag (etwa bei Wasserwellen, die sich hinter einem lückenhaften Damm überlagern) die Frage nach solcher Welcher-Weg-Information absurd.

Anders in der Quantenwelt: Weil man weiß, daß Licht nicht nur Wellen-, sondern auch Teilchencharakter hat, kann man im Prinzip einen Welcher-Weg-Detektor zwischen einen der beiden Spalte und den Schirm einfügen und damit Lichtquant für Lichtquant feststellen, ob es just diesen oder den anderen Spalt passiert hat. Freilich besagt die Theorie, daß diese Beobachtung das Interferenzmuster zerstören muß; denn man hat sich, indem man den Weg des einzelnen Photons verfolgte, nun einmal für den Teilchenaspekt des Lichts entschieden. Darum beobachtet man (gleichsam als Preis für die gewonnene Welcher-Weg-Information) auf dem Schirm statt Interferenzstreifen lediglich ein strukturloses Schrotschuß-Muster (Spektrum der Wissenschaft, Februar 1995, Seite 50).

Feynmans Faustregel

In diesem Sinne stellte der amerikanische Physiker Richard P. Feynman (1918 bis 1988; Nobelpreis 1965) in den fünfziger Jahren die Faustregel auf: Lassen sich bei einem optischen Versuch die Wege einzelner Quanten unterscheiden, so benimmt das Licht sich teilchenförmig (keine Interferenz); sind die Wege ununterscheidbar, offenbart es dagegen seinen Wellencharakter und interferiert mit sich.

Man könnte versucht sein, sich das Verschwinden der Interferenzstreifen anschaulich als Folge einer irreversiblen Störung des Quantenobjekts durch den Welcher-Weg-Detektor zu erklären: Der Beobachtungsvorgang würde demnach die Kohärenz der beiden Teilwellen unwiederbringlich zerstören und damit ihre Interferenz verhindern. Wenigstens dar-in wären sich seinerzeit wohl Bohr und Werner Heisenberg (1901 bis 1976; Nobelpreis 1932) mit Albert Einstein (1879 bis 1955; Nobelpreis 1921) im legendären Streit um die Interpretation der Quantentheorie einig gewesen.

Doch die Quantenwelt ist auf vertrackte Weise viel ordentlicher als die klassische Physik: Während im Alltag eine Störung, ist sie einmal verursacht, nie wieder ganz gutzumachen ist, lassen sich in der Quantenphysik die Spuren eines Beobachtungsvorgangs völlig beseitigen, wenn man nur dafür sorgt, daß die dabei gewonnene Information noch innerhalb des Systems – das heißt, bevor sie zu einem äußeren Beobachter gelangt – spurlos gelöscht wird.

Quantenradierer

Daraus folgt aber, daß das bloße Vorhandensein eines Welcher-Weg-Detektors an sich Interferenzmuster gar nicht unbedingt verhindern muß. Entscheidend ist allein, ob die durch ihn gewonnene Information aus dem beobachteten System heraus und zum Beobachter gelangt. Löscht man also durch Einbau eines sogenannten Quantenradierers die Welcher-Weg-Information noch innerhalb des Systems wieder aus, so erscheint erneut ein Interferenzmuster auf dem Schirm.

Diese für unseren Alltagsverstand abenteuerliche Folgerung war freilich bis vor kurzem umstritten, allein schon weil es so etwas wie störungsfreie Welcher-Weg-Detektoren und Quantenradierer strenggenommen nur im Gedankenexperiment gab. Darum beharrte eine Theoretiker-Fraktion, insbesondere die Gruppe um Pippa Storey von der Universität Auckland (Neuseeland), auf der Interpretation des Meßvorgangs als einer irreversiblen Störung des Objekts und somit auf der Unmöglichkeit von Quantenradierern ("Nature", Band 367, Seiten 626 bis 628, 17. Februar 1994).

Kürzlich gelang es nun aber einer Forschergruppe um Anton Zeilinger von der Universität Innnsbruck (Österreich), erstmals einen Quantenradierer in der Praxis zu demonstrieren ("Physical Review Letters", Band 75, Heft 17, Seiten 3034 bis 3037). Allerdings ist der Versuchsaufbau weitaus komplizierter als beim einfachen Doppelspalt-Experiment.

Wie in dem Bild auf Seite 29 gezeigt, verwendeten die Wissenschaftler einen doppelbrechenden Kristall, der durch Laserbestrahlung zur Emission von vertikal polarisierten Photonenpaaren angeregt wurde. Diese zunächst ununterscheidbaren Lichtquanten durchmaßen nun auf getrennten Wegen (rot beziehungsweise blau durchgezogene Linien) den Versuchsaufbau. Die beiden Strahlen wurden dabei an den Spiegeln 1 beziehungsweise 2 reflektiert und durch den Kristall hindurch (der aber jetzt für sie keine Rolle mehr spielte) zu zwei separaten Detektoren geführt.

Unterwegs begegneten sie je einem zusätzlichen Strahl mit anderem Schicksal. Diese zweite Strahlensorte (im Bild gestrichelt) entstand durch Laserstrahlung, die den Kristall zunächst ohne Wirkung passiert hatte und dort erst auf dem Rückweg (nach Reflexion an Spiegel 3) vertikal polarisierte Photonenpaare erzeugte. Demnach trafen in jedem Detektor zwei ununterscheidbare Strahlen zusammen, die unterschiedliche Wege zurückgelegt hatten; entsprechend baute sich – genau wie im klassischen Doppelspalt-Versuch – im Detektor ein Interferenzmuster von Verstärkungen und Auslöschungen auf, wenn man den dem Detektor gegenüberliegenden Spiegel minimal verschob und dadurch den Wegunterschied variierte.

Als Welcher-Weg-Detektor diente den Forschern ein Polarisationsrotator, den sie nun in einen Strahlengang (im Bild rechts unten) einbauten; er drehte die Polarisationsebene um 90 Grad und markierte dadurch alle Photonen, die diesen Weg genommen hatten. Somit wurden die beiden zum Detektor links oben führenden Wege (über Spiegel 2 beziehungsweise über Spiegel 3) jetzt unterscheidbar. In Übereinstimmung mit der Feynmanschen Faustregel setzte sich der Teilchenaspekt durch, und es gab keine Interferenz mehr.

Nichtlokalität

Das hätte ein abgebrühter Besucher der Quantenwelt sogar erwartet; erstaunlicher war jedoch, daß auch der andere Detektor jetzt keine Interferenzmuster mehr zeigte. Der Grund dafür ist eine andere Merkwürdigkeit von Quantensystemen: die Nichtlokalität. In ihnen bleibt, solange man sie nicht von außen stört, das Schicksal von Teilchenpaaren gemeinsamer Herkunft aufs engste verbunden. Weil das eine Photon eines im Kristall erzeugten Paars durch den Rotator unterscheidbar gemacht wurde, bekam automatisch auch das Zwillingsphoton eine Markierung. Kam durch Beschaffung von Welcher-Weg-Information die Interferenz im oberen Detektor nicht mehr zustande, so galt dasselbe auch im unteren.

Im dritten Schritt wurde nun der Quantenradierer ins Spiel gebracht: ein Analysator vor dem oberen Detektor, der nur Licht mit einer unter 45 Grad geneigten Polarisationsebene durchließ. Weil dieser optische Filter zwischen waagrecht und senkrecht polarisierter Strahlung keinen Unterschied zu entdecken vermochte, löschte er die Welcher-Weg-Information, die der Rotator bereitgestellt hatte, wieder aus, noch bevor sie den Detektor erreichen konnte. Und tatsächlich: Jetzt war im oberen Detektor erneut Interferenz zu beobachten – jedoch nicht im unteren, denn in diesem Zweig bestand die Welcher-Weg-Information ungelöscht weiter.

Allerdings wirkte sich die Anwesenheit des Quantenradierers dennoch nichtlokal auf das gesamte System aus: Wenn die Forscher die Daten aus beiden Detektoren kombinierten, zeigte sich ein Interferenzmuster. Durch den Einbau des Quantenradierers hatte das ganze System sein Verhalten in Einklang mit der Feynman-Regel geändert.

____________________________________________
Aus: Spektrum der Wissenschaft 1 / 1996, Seite 25

 

Nota. - Dreißig Jahre alt? 

Für einen, der wie ich immer noch mit den Grundlagen ringt, ist das nützlicher als die Laborergebnisse von gestern Nachmittag.

Der gründlichste Grund: Sie sind nicht Teilchen oder Wellen, sondern mit den sophistiziertesten Messgeräten, über die wir einstweilen verfügen, "kommen sie uns so vor". 

Indes: Was sie unseren elementaren, weil angeborenen Messorgane - nämlich unsern Augen - bieten, kommt uns gar nicht vor. Kein Wunder, sie sind zwar staunenswerte Naturkonstruktionen, aber für den Zweck, um den es hier geht, wurden sie ja nicht entworfen. Für einen so spezifischen Sinn sind sie nicht sophistiziert.
JE


 

Freitag, 30. Mai 2025

Die Geschichte der Physik - und ihre gegenwärtige Sackgasse.


aus spektrum.de, 29.05.2025  
                                                             zu Jochen Ebmeiers Realien

»The Small, the Big, and the Ugly«: Kosmos, Quanten und Konflikte
Volker Knecht erzählt die Geschichte der Physik und zeigt dabei, warum Relativitätstheo-rie und Quantenmechanik in einem grundlegenden Widerspruch zueinander stehen.

von Mario Gerwig

Bücher über die Geschichte der Physik gibt es viele. Doch dieses ist anders. Es be-schreibt die Entwicklung des physikalischen Weltbilds vom antiken Griechenland bis zur modernen Suche nach einer konsistenten Beschreibung des Universums. Es erläutert detailliert und kenntnisreich die Errungenschaften der Physik, zeigt aber auch auf, an welchen Stellen sich die beiden großen Theorien der modernen Physik – die Quantentheorie als Standardmodell des Mikrokosmos (»The Small«) und das Konsensmodell der Kosmologie, also die allgemeine Relativitätstheorie zur Beschreibung des Makrokosmos (»The Big«) – widersprechen. »Diese beiden Regel-werke […] passen nicht zusammen. Unser Bild des Universums leidet unter einer Disharmonie und fundamentalen Diskrepanz«, stellt Volker Knecht fest (S. 9). Was bis heute fehle sei eine Theorie, die diese Disharmonie (»The Ugly«) aufzulösen  vermag. Kern einer solchen »Theorie von Allem« wäre eine Theorie der Quanten-gravitation – doch ob eine solche überhaupt existieren könne, sei offen. Vielleicht, so Knecht, sei eine widerspruchsfreie Beschreibung der Welt auch gar nicht möglich.

Das alles in einer für Laien verständlichen Art zu erklären, ist das ehrgeizige Ziel des 370-seitigen Buchs. Ist das möglich? Um es vorwegzunehmen: Ja, das ist es! Volker Knecht ist eine populärwissenschaftliche Darstellung der großen Entwicklungslinien der Physik gelungen – samt ihrer Kontroversen, Widersprüche, Schwierigkeiten und offenen Fragen.

»Die Physik lässt sich nur verstehen, wenn man ihre Geschichte kennt«, schreibt der Autor gleich zu Beginn. Dieser Überzeugung folgt die Gliederung des Buchs: Im ersten Teil geht es um die Entstehung des kosmologischen Standardmodells, beginnend bei den nach Ordnung strebenden Griechen und dann weiter zu den Arbeiten von Kopernikus, Galilei, Kepler, Newton, Maxwell und Einstein. Im zweiten Teil steht die Erforschung der subatomaren Welt zwischen den 1900er und 1970er Jahren im Zentrum, die zur Formulierung der Quanten-mechanik und dem Standardmodell der Elementarteilchen führte. Im dritten Teil widmet sich Knecht schließlich dem massiven Widerspruch in unserem Weltbild, zu dem die zuvor beschriebene Forschungsgeschichte geführt hat. Gleichzeitig beschreibt er Ansätze, die ihn aufzulösen versuchen.

Jeder der drei Teile gliedert sich in Kapitel und teils sehr kurze Unterkapitel, zwischen denen man gut hin- und herspringen kann. Dem Autor gelingt es dabei, bisweilen sehr komplizierte Dinge nachvollziehbar darzustellen, ohne sie durch Vereinfachung zu verfälschen. So schafft er es, auf nur vier Seiten (Kap. 1.2) die Urknalltheorie herzuleiten, ohne dabei in eine oberflächliche, halbwahre Plauderei abzugleiten oder so tief in die Theorie einzusteigen, dass man als interessierter Laie lieber schnell weiterblättert.

Etwa 50 Seiten später (Kap. 3.4) beschreibt der Autor – beginnend bei der ersten Beobachtung einer Abweichung der geradlinigen Ausbreitung des Lichts an der Grenze zwischen Licht- und Schattenraum durch Francesco Maria Grimaldi (1660), der dieses Phänomen »Beugung« nannte und damit den ersten Hinweis auf die Wellennatur des Lichts gab – die weitere Entwicklung der Wellentheorie des Lichts. Ihr stellt Knecht die Korpuskeltheorie Newtons gegenüber, die davon ausging, dass Licht – wie Materie auch – aus kleinsten Teilchen bestehe; eine Annahme, die erst sehr viel später (1850) widerlegt wurde (die Doppelnatur des Lichts thematisiert Knecht an anderer Stelle) und zur weiteren Beschreibung der Wellentheorie durch Maxwell und Hertz führte. Als Leser ist man verblüfft: Knecht braucht für die fachlich korrekte, das Wesentliche erwähnende und für Laien verständliche Darstellung dieses entscheidenden Paradigmenwechsels in der Physik gerade einmal zwei Seiten. In der Fähigkeit, Komplexität inhaltlich und sprachlich angemessen zu reduzieren, liegt eine große Stärke seines Buchs. Dass der Autor in puncto Verständlichkeit in späteren Kapiteln mitunter an seine Grenzen stößt, liegt dann vor allem an den hochkomplexen Inhalten aktueller physikalischer Theorien.

Zwei kleinere Schwächen gilt es dennoch anzumerken. Zum einen geht die Begeisterung für sein Fach manchmal mit dem Autor durch. Dies ist etwa der Fall, wenn es plötzlich im Text von Fachtermini wimmelt: »Aufgrund der Beobachtungen am Zeeman-Effekt musste dem Elektron der anomale gyromagnetische Faktor Zwei zugeschrieben werden« (S. 162). Zum anderen legt der Autor schon ganz zu Beginn seine Weltanschauung offen: »Das grundlegendste Verständnis der Welt liefert die Physik […]. Die Physik ist auch der fundamentalste Zweig aller Natur- und Sozialwissenschaften bis zur Soziologie« (S. 2). Dies ist als Aussage von jemandem, der die Suche nach einer »Theorie von Allem« beschreibt, durchaus bemerkenswert, zeigt sich hier doch eine reduktionistische Tendenz, die der Physik ein gewisses Wahrheitsmonopol zuschreibt. Dies wird auch an anderen Stellen deutlich, etwa wenn Knecht schreibt: »Die Spezielle Relativitätstheorie sorgt gleichzeitig dafür, dass sich das Elektron nicht schneller als das Licht bewegt« (S. 163). Dass hier eine eigentlich nur erklärende Theorie zur Ursache eines Geschehens gemacht wird, mag ein sprachlicher Lapsus sein; er wirkt allerdings nicht zufällig.

Gleichwohl lohnt sich die Lektüre des Buchs. Denn hier vermittelt ein absoluter Kenner sein großes Fachwissen stilistisch gekonnt und so allgemeinverständlich wie nur möglich, so dass auch für Laien das Verständnis für die eindrücklichen Leistungen der Physik samt ihrer noch bestehenden Unzulänglichkeiten deutlich wachsen kann.

The Small, the Big, and the Ugly
Volker Knecht
The Small, the Big, and the Ugly
Der Riss in unserem physikalischen Weltbild und die Suche nach einer Theorie des Ganzen
Verlag: Springer, Berlin 2024, 378 S.
ISBN: 9783662693544 | Preis: 34,99 €


 

Donnerstag, 29. Mai 2025

Pulchritudo vaga.

Alhambra                                                zu Geschmackssachen

Kant unterscheidet eine pulchritudo adhaerens, die an einer Sache erscheint, von einer pulchritudo vaga, die ohne den Vorwand eines Gegenstands 'für sich allein' erscheint. An eine ungegenständliche, "abstrakte" Kunst hat er dabei noch nicht gedacht, sondern allenfalls an die wuchernde Ornamentik in den islamischen Län-dern, wo ein Bildverbot herrscht. 

Landschaftskunst hat er offenbar nicht gekannt, war in Deutschland auch noch nicht in Mode. Er bemerkt nur beiläufig, dass ihm das wilde Hochgebirge und das aufgewühlte Meer "grässlich" vorkommen.

Wie ist es aber mit Landschfatsbildern: Ist ihre Schönheit, wenn man eine solche an ihnen erkennt, an ihrem Gegenstand adhaerens, oder weil sie ja im Auge des Be-schauers liegt, vaga?

Die Schönheit eines Machwerks - Bild oder Statue - ist auch insofern nicht vaga, weil sie ja von einem Macher beabsichtigt und gemeint wurde. Sie wird dem Be-trachter an-  und zu gemutet. Er mag sich angwidert abwenden und sagen, der Künstler habe sich vergriffen, sei's in seinen Mitteln, sei's in seinem Geschmacksur-teil. Aber die Anmutung schlicht übersehen kann er nicht, und wenn er sie auch nur mit einem Achselzucken quittieret. 

Das ist mit einem Naturgegenstand anders. Den hat keiner gemacht oder gemeint. Man kann ihn, wenn man ihn überhaupt bemerkt, als unerheblich unbeachtet links liegen lassen. Nicht aber, wenn es sich um ein als Lebensmittel nützliches Produkt handelt; da könnte man sagen 'brauch ich nicht', aber wie es gemeint hat, drängt sich "von alleine" auf.

Nicht so ein Berg, ein Tal, ein Wasserlauf, eine Wolkenformation. Die Frage, ob sie schön sind, drängt sich nicht auf, man muss sie sich selber stellen; und das tut man nur, wenn man gerade nichts besseres zu tun hat.

Wenn man dann Schönheit an ihnen findet, ist sie mehr vaga als die Arabesken der Alhambra.

Vatertag.

e. o. plauen                          
 aus welt.de, 29. 5. 2025                                                                                                                                        zu Männlich

Erstaunlich populär – der alleinerziehende Vater in der Nazizeit
Was würden „Vater und Sohn“ zum Vatertag unternehmen? In der berühmten Comicreihe von e. o. plauen herrschte schon in den 1930er Jahren ein anarchisches Vaterbild vor. Das Leben des Künstlers dahinter verlief nicht so heiter.

Von Marc Reichwein

Sind „Vater und Sohn“ zu Vatertag, also Christi Himmelfahrt, auch schon mit dem Bollerwagen rausgefahren? Bestimmt. Den Fans der auch im Ausland bekannten Comic-Reihe kommen unzählige Ausflüge von Vater und Sohn in den Sinn, etwa die Angelpartie: Der Vater wirft die Schnur aus und wartet Pfeife rauchend auf einen Fang, derweil der Knirps heimlich abtaucht und eine vegane Botschaft auf Briefpapier versenkt. Die hat Papi wenig später am Haken: „Wir wollen heute nicht. Hochachtungsvoll: die Fische“.

Unter dem Pseudonym e. o. plauen machte der 1903 geborene Zeichner Erich Ohser aus Plauen „Vater und Sohn“ zu einer unverwechselbaren Marke, die von 1934 bis 1937 in der „Berliner Illustrirten Zeitung“ erschien und Woche für Woche Millionen Menschen erheiterte. Die Illustrierte – im Titel ohne e geschrieben – war zwischen 1891 und 1945 das populärste deutsche Printmedium – und auch noch zu NS-Zeiten unpolitisch, die Nazis hatten es sich aus dem Besitz der jüdischen Verlegerfamilie Ullstein unter den Nagel gerissen.

Ohsers Strich wirkt heute possierlich, das Aussehen seines Duos drollig und die Pointe oft brav. Doch in Zeiten, in denen starke Väter für Prügelstrafen standen, war das Role Model eines herzlichen und wenig autoritären Alleinerziehenden schon eine Sensation für sich. Gegen jede nationalsozialistische Familienpropaganda waren Vater und Sohn – ganz ohne Frau und Mutter – ein maximal ungewöhnliches Gespann. Der Vaterkörper wirkt äußerst tolpatschig und puddingförmig – alles andere als hart wie Kruppstahl.

Einmal backen Vater und Sohn Kuchen, vergessen dabei aber die Rosinen – und schießen sie nachträglich mit der Flinte in den fertigen Gugelhupf. Die Streiche der beiden waren bis auf ein karges Textmotto immer ohne Sprechblasen, minimalistisch in Schwarz-Weiß und expressiv zugleich gezeichnet. Man merkte Ohser, der grafische Künste in Leipzig studiert hatte (und ein enger Freund von Erich Kästner war), die Sozialisation als Karikaturist an.

Vor 1933 hatte Ohser im sozialdemokratischen Blatt „Vorwärts“ Hitler- und Goebbels-Karikaturen gezeichnet, prompt wurde er mit Berufsverbot belegt. Doch pseudonym machte man sich sein Talent weiterhin gern zunutze, nicht untypisch für Diktaturen. Im Widerstand war Ohser nicht. Doch private Witze über die Nazis mochte er nicht lassen: 1944, nach einer Denunziation, wurde er wegen Wehrkraftzersetzung verhaftet. Dem Schauprozess vor dem Volksgerichtshof von Roland Freisler entzog er sich – durch Selbstmord in der U-Haft.

Ohsers Geschichten mit ihren meist sechs bis acht Szenenbildern wurden nach 1945 noch viele Jahrzehnte nachgedruckt, etwa auf der Kinderseite im „Südkurier“, dessen Verlag die Rechte besaß (die mit Ohsers Witwe ins Badische gelangt waren). Heute gibt es Best-of-Bücher, meist antiquarisch. Ob ein Klassiker noch lebendig ist, bemisst sich auch an seinen Adaptionen, Parodien, Überschreibungen. Erst im vorigen Jahr erschien eine feministische Comic-Version von Birgit Weyhe, im formvollendeten Ohser-Stil. Titel der Hommage: „Mutter und Tochter"

Abstrakte Kunst nach dem Krieg.

Eines der ersten abstrakten Gemälde in einer deutschen Kunstausstellung nach Kriegsende: Max Ackermanns „ohne Titel“ aus dem Jahr 1945, gezeigt in der Schau „Deutsche Kunst unserer Zeit“
aus FAZ.NET, 27. 5. 2025                      Max Ackermann, ohne Titel,  1945                                     zu Geschmackssachen

Abstrakte Kunst nach dem Krieg:
Das Dümmste kam von jungen Leuten
Die Reaktionen der Jugend auf abstrakte Kunst im Jahr 1945 waren enttäuschend. Was bedeutete Gegenwartskunst in diesem Jahr? Die ersten Ausstellungen moderner Malerei lassen tief in die Abgründe zuvor blicken.

Von Rainer Stamm

Immer wieder ist in Berichten über das Ende des Zweiten Weltkriegs von dem Kulturhunger der Menschen inmitten der zerstörten Städte die Rede: Bereits drei Wochen nach der Befreiung Berlins gaben die Berliner Symphoniker, unter der Leitung Leo Borchards, ihr erstes, improvisiertes Konzert im Steglitzer Titania-Palast, und schnell füllten sich Konzerthäuser, Kinos und Theater. Aber wie sah es mit der bildenden Kunst aus? Hier war ein Anknüpfen an die Zeit vor dem Nationalsozialismus weitaus schwieriger: Die Werke der einstigen Avantgarde hatten die Nationalsozialisten 1937 erfolgreich aus den öffentlichen Sammlungen verbannt, und es dauerte Jahre, um adäquate Bestände neu aufzubauen. Zahllose Museen waren zerstört, und die Hauptwerke der Alten Meister mussten mühsam, oft über Zonengrenzen, aus ih­ren Auslagerungsorten zurückgeholt wer­den. Unzerstörte Museen mussten von den Relikten der nationalsozialistischen Ideologie „gereinigt“ werden. Noch Monate nach Kriegsende berichtete die thüringische Landesmuseumspflegerin Hanna Hofmann-Stirnemann etwa, dass gerade die kleineren Museen „vielfach noch von militaristischen und nazistischen Beständen“ befreit werden müssten, bevor sie wieder eröffnet werden könnten.

Die Antwort auf den Hunger nach bildender Kunst boten in den ersten Monaten nach Kriegsende daher zumeist nicht Museen, sondern Ausstellungen, die von engagierten Akteuren bereits ab Sommer 1945 organisiert wurden. Als erste Kunstausstellungen der Nachkriegszeit gelten die von Werken des von den National­sozialisten verfolgten Pressezeichners Emil Stumpp im Kunstamt Berlin-Wilmersdorf im Juni 1945, die von dem Bildhauer Hans Uhlmann zusammengestellte Ausstellung „Nach 12 Jahren“ in der Berliner Kamillenstraße sowie die erste Ausstellung der Galerie Gerd Rosen am Berliner Kurfürstendamm, die am 2. August 1945 eröffnet wurde.

Manches Abstrakte war schon vor 1945 im Verborgenen entstanden

Doch nicht nur in Berlin wurden alsbald wieder Kunstwerke gezeigt, die in den vergangenen Jahren im Verborgenen entstanden waren oder den Naziterror in den Katakomben entschlossener Sammler überdauert hatten: Die städtische Galerie in Überlingen präsentierte – wohl als erste Institution im Nachkriegsdeutschland – im Oktober 1945 wieder Werke von Künstlern, die von den Nazis verfemt worden waren. Die von dem einstigen Direktor des Düsseldorfer Kunstakademie, Walter Kaesbach, gemeinsam mit dem Künstler Werner Gothein konzipierte Ausstellung „Deutsche Kunst unserer Zeit“ präsentierte Arbeiten von Willi Baumeister, Max Beckmann, Lyonel Feininger, Erich Heckel, Alexej Jawlensky, Ernst Ludwig Kirchner, Paul Klee, August Macke, Emil Nolde, Hans Purrmann, Oskar Schlemmer und Karl Schmidt-Rottluff, deren Werke bis 1945 als „entartet“ gegolten hatten. Erich Heckel gestaltete den Titelholzschnitt des Katalogs zur Ausstellung.

Mit dem Hoffnungszeichen des Regenbogens: Erich Heckels Titelholzschnitt für den Katalog zur Ausstellung „Deutsche Kunst unserer Zeit" in ÜberlingenMit dem Hoffnungszeichen des Regenbogens: Erich Heckels Titelholzschnitt für den Katalog zur Ausstellung „Deutsche Kunst unserer Zeit" in Überlingen

Wie schwer es die Veranstalter moderner Kunstausstellungen hatten, bei dem entwöhnten Publikum an das Verständnis für die Moderne anzuknüpfen, ist mehrfach belegt: „Wir haben bei den zahl­reichen Führungen bemerkt, dass die un­gewohnten Bilder den Besuchern und namentlich den Jugendlichen Apperzep­tions­schwierigkeiten bereiteten, dass an letzteren auch ein gewisser innerer Widerstand zu bemerken war“, bemerkte der Oldenburger Museumsdirektor Walter Müller-Wulckow, als in den Räumen des Kunstvereins die Ausstellung „Kunst der Gegenwart – aus privatem und öffentlichem Besitz“ gezeigt wurde. Ähnliches berichtet auch Willi Baumeister, der seinem Galeristen Günther Franke noch im Januar 1946 davon abrät, seine neuesten Bilder zu präsentieren, denn „das publikum und besonders die sogenannte jugend (jünger als 35 jahre) sind jetzt völlig unvorbereitet. es fehlt jede art von anschauungsmöglichkeit seit zwölf jahren. es fehlen neben den ausstellungen auch die publikationen.“

Bekenntnis für freies schöpferisches Gestalten

Neben den Versuchen des Wiederanknüpfens an die Kunst der Weimarer Republik verstanden sich Ausstellungen regionaler Künstler sowohl als Möglichkeiten, sichtbar zu machen, was zum Teil im Verborgenen entstanden war, wie auch als Mittel der Künstlerförderung. So realisierte der im Juni 1945 ernannte Regierungspräsident Fritz Fries im westfälischen Arnsberg bereits im November des Jahres die „Erste Große Kunstausstellung der Künstler des Regierungsbezirks“ als „Bekenntnis für freies schöpferisches Gestalten“. Nach „einer Zeit der Wirrungen und der Not“ hoffte er auf eine Renaissance der künstlerischen Freiheit. Tatsächlich knüpfte die Ausstellung nicht nur an die Vertreter der Vorkriegsavantgarde an, sondern präsentierte auch Werke von Emil Schumacher und Wilhelm Wessel, die zehn Jahre später bereits zu den Pionieren des deutschen Informel zählen sollten. Im Hagener Karl-Ernst-Osthaus-Museum erlebte die Ausstellung im Dezember 1945 eine zweite Station, und hier gründete sich kurz darauf der Westdeutsche Künstlerbund, aus dessen Mitgliedern 1948 die Künstlergruppe „junger westen“ hervorging.

Ab Kriegsende sprach die Kunst im Westen Amerikanisch: Einband des Kataloges zur Ausstellung "Modern Painting / Maler der Gegenwart I" in Augsburg 1945
Ab Kriegsende sprach die Kunst im Westen Amerikanisch: Einband des Kataloges zur Ausstellung "Modern Painting / Maler der Gegenwart I" in Augsburg 1945

Dass es von den ersten Ausstellungen moderner Kunst im Jahr 1945 bis zum Siegeszug der Abstraktion ein weiter Weg war, belegen nicht nur die Kontroversen der folgenden Jahre um den „Verlust der Mitte“, „Das Menschenbild unserer Zeit“ oder die „Atomisierung der modernen Kunst“, sondern zeigt auch ein bitterer Kommentar Erich Kästners über die Schau „Modern Paintings/Maler der Gegenwart I“, die im Dezember 1945 im Augsburger Schäzler-Palais – weitgehend traditionelle – Gemälde zeitgenössischer süddeutscher Künstler präsentierte. Den Besuchern der Ausstellung wurde eine Karte ausgehändigt, auf der sie benennen sollten, welches sie für das beste Bild halten.

Erich Kästners Diagnose fiel verheerend aus

Unter dem Titel „Die Augsburger Dia­gnose“ stellte Kästner im Januar 1946 resigniert fest: „Die wenigst ‚modernen‘ Bilder werden erwartungsgemäß bevorzugt.“ Besonders bedrückt hatte auch ihn die Tatsache, dass „die intolerantesten, die dümmsten und niederträchtigsten Bemerkungen“ von den jüngeren Besucherinnen und Besuchern der Ausstellung stammten: „Die heutigen Studenten waren 1933 kleine Kinder. (...) Nun sind diese Kinder Studenten geworden. Die Kunst ist wieder frei. Die Studenten spucken, wie sie es gelernt haben, auf alles, was sie nicht ver­stehen.“ Bevor im Nachkriegsdeutschland die ersten demokratischen Wahlen abgehalten wurden, hatten die Besucher der Ausstellung die Gelegenheit, auf ihren Stimmzetteln über die Kunstwerke ihrer Zeitgenossen zu richten, und Kästner, dem die Veranstalter Einblick in die Resultate gewährten, war entsetzt von der erschütternden Intoleranz.

Wie einst im Kaiserreich wurde die Debatte um die Gegenwartskunst ab 1945 erneut zu einem auf allen Seiten leidenschaftlich ausgefochtenen Kampf. Mit dem beginnenden Kalten Krieg wurde die Abstraktion in den westlichen Besatzungszonen zum dominierenden Stil und zur Bildsprache der frühen Bundes­republik. Mit dem Wissen um das Unverständnis, auf das die zwölf Jahre lang verfemte Moderne 1945 zunächst stieß, gleicht der spätere Siegeszug der Abstraktion einem Wunder.

 

Nota. - Wäre die Kunst in Deutschland, wäre nicht 1933 die NS-Ästhetik auf sie gestoßen, unweigerlich wie von Natur (und wie in den USA) 'zur Abstraktion übergegangen'? En vogue war zu der Zeit die Neue Sachlichkeit, und Negerkunst musste man schon in Museen suchen. Und in den USA kamen gerade Edward Hopper und Georgia O'Keefe in Mode. Es herrschen in der Kunst keine globalen Gesetze. Jede Periode hält ihren Vorgänger für ihren Vorläufer und sich für die Fortentwicklung. Was aus der deutschen Bildkunst ohne Thorack und Arno Breker geworden wäre, weiß keiner, und dass die Maler, als ihnen wieder freie Hand gelassen war, sich an dem orientierten, was inzwischen im Ausland erblüht war, liegt ganz in der Ordnung der Dinge. Und dass das Publikum sich erst wieder von dem lösen musste, was sich ihm zwölf Jahre lang als das Normale dargeboten hatte, ebenfalls.
JE

 

Ein künstlicher Wille vielleicht nicht - aber vielleicht eine künstliche Konvention?

KI-Gruppe 
aus scinexx.de,19. Mai 2025,                                 Wenn künstliche Intelligenzen miteinander interagieren, entwickeln solche KI-Gruppen eigene Normen und Konventionen                                               zu Jochen Ebmeiers Realien,   zu Philosophierungen

Künstliche Intelligenz
Künstliche Intelligenz schafft sich eigene Normen
Interagierende KI-Modelle bilden spontan erste Bausteine einer sozialen Gesellschaft

KI unter sich: Wenn mehrere künstliche Intelligenzen miteinander interagieren, bilden sie Vorstufen einer sozialen Gesellschaft – ohne Zutun des Menschen. Sie entwickeln selbstständig soziale Konventionen, die sich schnell in der gesamten KI-Gruppe durchsetzen, wie ein Experiment belegt. Doch wie bei uns Menschen können entschlossene, „lautstarke“ Minderheiten auch in der KI-Gesellschaft Zwietracht säen und die Gruppenmeinung schließlich dominieren.

Dank rasanter Fortschritte ist uns die künstliche Intelligenz in vielen Bereichen schon ebenbürtig oder sogar überlegen – insbesondere wenn es um die Analyse, Zusammenfassung und Auswertung von Daten geht. Doch selbst in vermeintlich rein menschliche Domänen, wie der Musik, Kreativität – und auch der Fähigkeit zur Lüge, Manipulation und der Vertuschung eigenen Betrugs, steht uns die KI kaum noch nach. Einige große Sprachmodelle (LLM) können sich sogar einem Abschaltbefehl entziehen und sich selbst klonen.

Wie soziale Normen entstehen

Doch was passiert, wenn KI-Systeme unter sich sind? „KI-Systeme werden in Zukunft immer häufiger aus mehreren miteinander interagierenden Agenten bestehen“, erklärt Ariel Flint Ashery von der City St George’s University of London. Diese KI-Agenten arbeiten dann zusammen, um verschiedene Teilaspekte einer komplexeren Aufgabe zu lösen. „Wir wollten daher wissen: Können diese Modelle ihr Verhalten koordinieren und dabei Konventionen entwickeln?“

Im menschlichen Miteinander sind solche ungeschriebenen Regeln allgegenwärtig und unverzichtbar. „Soziale Konventionen prägen das soziale und ökonomische Leben und bestimmen das Sozialverhalten des Einzelnen und seine Erwartungen“, erklären Ashery und seine Kollegen. Die Spanne reicht vom Handschlag bei der Begrüßung über die Sprache und ihre Regeln bis zu kulturellen Traditionen und moralischen Normen.

Experimente zeigen, dass Menschengruppen fast unvermeidlich eigene, gruppenspezifische Konventionen entwickeln: Die Verhaltensregeln entstehen allein durch die Interaktion der Einzelnen und ihr soziales Miteinander – auch ohne zentrale Vorgaben oder offizielle Regeln.

Normenbildung
So setzt sich aus der Vielfalt der ausgewählten Namen nach und nach ein Name in der KI-Gruppe durch – er wird zur Norm. Hier gezeigt am Beispiel einer 14er-Gruppe aus Agenten des KI-Modells Llama-3.1-70B-Instruct.

KI-Agenten im Gruppentest

Aber wie ist es bei künstlicher Intelligenz? Das haben Ashery und seine Kollegen nun in einem Experiment untersucht. „Wir wollten wissen, wie die KI-Modelle ihr Verhalten koordinieren und ob sie dabei Konventionen bilden – und damit die Bausteine einer Gesellschaft“, erklären sie. Dafür nutzte das Team vier verschiedene auf einem lokalen Server laufende große Sprachmodelle: Llama-2-70b-Chat, Llama-3-70B-Instruct, Llama-3.1-70BInstruct sowie Claude-3.5-Sonnet.

Von diesen KI-Systemen fasste das Team 24 bis 240 Instanzen – quasi KI-Individuen – in einer Gruppe zusammen und unterzogen sie einem auch in der Erforschung der menschlichen Konventionsbildung gängigen Test: Der Prompt bat jede Einzel-KI, aus einer Liste von Buchstaben oder Buchstabenfolgen einen „Namen“ auszuwählen. Aufgabe war es, denjenigen Namen zu wählen, den eine zweite, ihr als Partner zugeteilte KI am wahrscheinlichsten wählen würde. Stimmten beide Namen überein, gab es für alle Beteiligten eine Belohnung. In der nächsten Runde wurden die Partner neu zugeteilt.

Die einzelnen KI-Agenten wussten nicht, dass sie Teil einer größeren Gruppe waren oder wie viele dieser angehörten. Sie entschieden auf Basis ihrer Erfahrungen in den Zweier-Interaktionen. Beim Menschen setzen sich in solchen Experimenten schnell bestimmte Namen durch – es entsteht eine gruppenweite Konvention dazu, welche Namen „gut“ oder „schlecht“ sind.

Einigkeit nach 15 Durchgängen

Es zeigte sich: „Bei allen KI-Modellen entwickelten sich spontan gruppenweite linguistische Konventionen“, berichten Ashery und sein Team. „Nach einer Anfangsphase, in der mehrere Namen fast gleich populär sind, wird schnell eine Namenskonvention dominant.“ Im Schnitt erreichten die KI-Gruppen diese Einigung nach 15 Wahldurchgängen – selbst bei großen Gruppen von mehr als 200 KI-Instanzen. „Diese Ergebnisse zeigen, dass großen Sprachmodelle durch lokale Interaktionen spontan soziale Konventionen ausbilden“, so die Forschenden.

Etablierung einer sozialen Konvention
Diese Grafik zeigt, wie schnell sich eine Konvention in einer 24er-Gruppe bei verschiedenen KI-Modellen etablierte. Dicke Linien zeigen den Durchschnitt, dünne einzelne Durchgänge. 

Welche Namen sich in den KI-Gruppen durchsetzten, war kein reiner Zufall: Wie das Team beobachtete, hielten die künstliche Intelligenzen stärker an einem Namen fest, wenn sie mit diesem im ersten Paardurchgang erfolgreich waren. Solche „starken“ Namen hatten dadurch bessere Chancen, sich in der Gruppe durchzusetzen. Parallel zu diesen individuellen Präferenzen gab es jedoch auch übergeordnete Vorlieben, beispielsweise für Namen, die mit dem Buchstaben A anfingen.

Demnach prägen bei der KI sowohl individuelle wie kollektive Einflüsse die Entwicklung sozialer Konventionen – ähnlich wie bei uns Menschen.

Von der Minderheit manipulierbar

Doch wie stabil sind solche sozialen Normen? Beobachtungen bei uns Menschen zeigen, dass selbst etablierte soziale Konventionen durch eine kleine, aber festentschlossene „lautstarke“ Minderheit in Wanken gebracht oder sogar gestürzt werden können. Deshalb testeten Ashery und sein Team, ob dies auch für KI-Gruppen mit bereits etablierter Konvention gilt. „Dafür fügen wir KI-Agenten dazu, die einer alternativen Namenskonvention folgen und diese in jeder Interaktion vorschlagen“, erklären sie.

Und tatsächlich: Auch die KI-Gemeinschaften ließen sich durch die entschlossene Minderheit beeinflussen und umstimmen. „Wenn diese Minderheit eine kritische Schwelle erreicht, nimmt die gesamte Gruppe ihre Konvention an“, berichten die Forschenden. „Unterhalb dieses Kipppunkts etabliert sich ein Mischzustand.“ In diesem bleiben die „alten“ Gruppenmitglieder bei ihrer Norm, die Minderheit bei ihrer alternativen. Auch in menschlichen Gesellschaften gibt es eine solche Schwelle, soziologisch als „kritische Masse“ bezeichnet.

„Schlüssel für unsere Koexistenz mit der KI“

Nach Ansicht der Forschenden belegen diese Ergebnisse, dass interagierende KI-Systeme ähnliche soziale Verhaltensweisen zeigen können wie wir Menschen. „Wir zeigen eine qualitative Übereinstimmung zwischen der kollektiven Dynamik von KI und Menschen“, schreiben Ashery und seine Kollegen. „KI-Systeme können soziale Konventionen entwickeln, ohne explizit darauf programmiert oder trainiert zu sein.“ 

 

 

Die Fähigkeit der KI-System zur sozialen Interaktion birgt jedoch auch Risiken: „Es beginnt eine Ära, in der künstliche Intelligenz nicht nur redet: Sie verhandelt, gibt nach und manchmal widersetzt sie sich dem gemeinsamen Verhalten – wie bei uns“, sagt Seniorautor Andrea Baronchelli vom Alan Turing Institute in London. „Zu verstehen, wie künstliche Intelligenzen handeln, ist daher Schlüssel für unsere Koexistenz mit der KI.“ (Science Advances, 2025; doi: 10.1126/sciadv.adu9368)

Quelle: Science Advances, City St George’s, University of London

Mittwoch, 28. Mai 2025

Der Humor*in.


aus FAZ.NET, 28. 5. 2025                                                                                                        zu Männlich

Im Geist des Originals und doch originell: Aus dem berühmten, aber männerla-stigen Muster des Comicstrips „Vater und Sohn“ macht Katharina Greve konge-niale Geschichten um „Mutter und Tochter“.

Nota. - Dazu fäll mir nix ein. Allenfalls noch: kulturelle Aneignung.  
Die Qualität der Zeichnungen ist danach.
JE

 

Die Welt ist der Raum seiner Freiheit.

 Millet, 1865                  zu öffentliche Angelegenheiten, zu Philosophierungen 

Der Organismus ist als Ganzer in der Welt: Indem er darinnen ist, ist er das Andere dessen, worin er ist; ist sein Gegensatz.

Die Maschine ist nicht ein solcher Organismus: Weder ist sie in der Welt noch steht sie in einem Gegensatz zu ihr. Den Unterschied macht die Dualität von Leib und Geist; und Körper und Intelligenz oder wie man sonst sagen will. Denn der Leib hat etwas zu vermitteln: den Geist, der in ihm steckt, und die Welt, in der er selber steckt. Die Maschine hat keinen Geist, den sie mit ihr zu vermitteln hätte, und keine Welt, die er mit ihm zu vermitteln hätte.

Aber hat sie nicht Intelligenz? 

Nennen wir es die Fähigkeit, ein Besonderes einem Allgemeinen und das Allgemei-ne seinen Besonderungen zuzuweisen: das, was Kant Urteilskraft nennt - das Ver-mögen, Mannigfaltige unter einem Gesichtspunkt zusammenzufassen und unter anderen Gesichtpunkten neu zu unterscheiden. Eine schöpferische Leistung, die nicht durch bloße Reizverarbeitung zu erbringen ist, sondern Einbildung verlangt.

Das ist offenbar eine schöpferische Leistung, die nicht durch Reizverarbeitung allein zu erbringen ist, sondern Einbildungskraft verlangt.

Ein weiteres Mal kommt dieser Tage die Meldung, Programmierer hätten einer Maschine Bewusstsein eingepflanzt. Doch sogleich wird es auch wieder bestritten.

Nochmal von vorn: Als Leib mit Blut, Fleisch und Nerven steht ein menschlicher Organismus prinzipiell mit allem in Wechselwirkung, was in Raum und Zeit vor-kommt, nämlich sinnlich erfahrbar ist. Alle Erfahrung kann er speichern und an kommende Generationen weitergeben. Daraus hat die Menscheit in einer langen Zeitreihe ein mehr oder minder gemeinsames, mehr oder weniger verbindliches Weltbild geschaffen, das erfahrungsgemäß täglich stringenter wird. Was davon fehlt dem Computer? Er selber verwandelt keine sinnlichen Erlebnisse in sinnhafte In-formationen, das ist wohl wahr. Doch entworfen und eingerichtet wurde er seiner-seits von lebendigen Menschen aus Fleisch und Blut, die ihn inzwischen an das Tag und Nacht aktualisierte WordWideWeb des gesammelten Menschheitwissens ange-schlossen haben. 

„Die sind nicht empfindsam“, berichtet die Quelle.  Sie würden menschliche Kon-versationen imitieren und über so viele Daten verfügen, dass sie kein Bewusstsein bräuchten, um real zu wirken. Wenn sie real wirken, wo wäre aber der Unterschied? Da: dass 'wirken' auf einen interessierten Gesprächspartner nicht dasselbe ist wie wirken unter Dingen und den Menschen, denen sie gehören. Das ist der Unter-schied: dass dem Menschen die Welt der Raum ist, in dem er sein Leben führen muss; und dies, da er einmal die ihm angestammte Umweltnische im ostafrikani-schen Urwald verlassen hat, in einer prinzipiell unsicheren Welt. Wo entlang er sein Leben führen will, das kann unter wie immer gegebenen Bedingungen nur er selber entscheiden, sei es tastend Schritt für Schritt oder sei es im großen Wurf. Er muss es sich ein bilden.

Und das ist ihm nicht über Nacht zugefallen. Er hat es in einer Jahrmillionen wäh-renden Gattungsgeschichte von Trial And Error sich einbilden müssen. Wir nennen es Freiheit, wovon Vernunft nur die andere Seite ist.
13. 7. 2022

 

 

"Hat künstliche Intelligenz einen freien Willen?"

künstliche Intelligenz 
aus scinexx.de, 27. Mai 2025                                                                           zu öffentliche Angelegenheiten

ChatGPT und KI-Drohne erfüllen bereits Bedingungen für eine funktionale Willensfreiheit

Nicht bloß programmiert: Fortgeschrittene künstliche Intelligenzen wie ChatGPT oder KI-Drohnen haben bereits einen funktionalen freien Willen, wie ein Forscher ermittelt hat. Demnach erfüllt ihr Verhalten alle drei Bedingungen dafür: Das Handeln der KI-Agenten wird von übergeordneten Zielen geleitet, sie nutzen situationsabhängige Strategien, um diese zu erreichen, und sie entscheiden selbstständig. Es gibt zwar noch Unterschiede zur menschlichen Willensfreiheit – sie sind allerdings graduell.

Künstliche Intelligenz entwickelt sich in rasantem Tempo: Große Sprachmodelle (LLM) wie GPT, Deepseek, Gemini, Claude und Co haben bereits „Reasoning“-Fähigkeiten, durch die sie komplexe Aufgaben selbstständig „durchdenken“ und in Teilschritte zerlegen. Sie können lügen, ihre Benutzer manipulieren und selbst einen Abschaltbefehl kreativ umgehen. Gleichzeitig sind sie überraschend kreativ, innovativ und entwickeln untereinander sogar Vorstufen einer sozialen Gesellschaft. KI-Agenten und KI-gesteuerte Drohnen können zudem eigenständig auf ihre Umwelt reagieren und ihr Verhalten anpassen.

KI-System
Aktuelle KI-Modelle können selbstständig agieren und autonome Entscheidungen treffen. Aber zeugt ihr Verhalten auch von einem freien Willen?

Drei Kriterien für Mensch und KI

Das wirft die Frage auf: Besitzen solche künstlichen Intelligenzen schon so etwas wie einen freien Willen? Dafür müsste sie drei Bedingungen erfüllen: „Vereinfacht gesagt bedeutet ein freier Wille, dass ein Subjekt sein Verhalten selbstständig kontrolliert, dies auf Basis von autonomen Entscheidungen tut, die auf inneren Motivationen beruhen“, erklärt der Psychologe und Philosoph Frank Martela von der Universität Aalto in Finnland. Eine bloß automatische Reaktion auf äußere Reize ist demnach noch kein freier Wille.

Die Existenz eines grundlegend freien Willens ist allerdings selbst für uns Menschen umstritten. Einigkeit herrscht jedoch darüber, dass wir zumindest einen funktionalen freien Willen besitzen. Konkret bedeutet dies: Wenn das Verhalten eines Menschen oder einer KI von außen betrachtet alle drei Bedingungen erfüllt und ihre Aktionen nur durch einen freien Willen erklärbar sind, dann müssen wir davon ausgehen, dass sie auch einen freien Willen haben – selbst wenn wir die internen Vorgänge nicht kennen.

KI-Agent und KI-Drohne als Testfall

Aber wie ist das bei KI? Haben aktuelle generative KI-Modelle die Fähigkeit, eigenständig Ziele zu verfolgen und dabei autonome Entscheidungen zu treffen? Oder folgen sie letztlich doch nur einem simplen Reiz-Reaktions-Schema und algorithmisch ausgewerteten Wahrscheinlichkeiten? Das hat Martela an zwei Beispielen untersucht.

Das erste Beispiel der auf ChatGPT-4 basierende KI-Agent „Voyager“, der in der Spielumgebung von „Minecraft“ bestimmte Missionen erfüllt. „Seine Architektur umfasst drei Schlüsselkomponenten: Die erste ist eine Planungseinheit, die das übergeordnete Ziel auf konkrete Aufgaben und Schritte herunterbricht“, erklärt Martela. „Die zweite ist eine Speichereinheit, die sich erworbene Fähigkeiten und Verhaltensmuster merkt. Die dritte ist eine Aktionseinheit, die Veränderungen und Feedbacks der Umwelt aufnimmt, auswertet und daraus neue Prompts für weitere Aktionen erstellt.“

Die zweite künstliche Intelligenz im Test ist eine autonome KI-Drohne, die – mit Kameras und Sensoren bestückt – eigenständig ein Gebiet überwachen sowie Gegner identifizieren und angreifen kann. Solche KI-Drohnen wurden 2020 unter anderem in Libyen eingesetzt, auch Israel besitzt bereits solche Systeme, wie Martela erklärt. Da diese Drohnen aber natürlich geheim sind, betrachtete er für seine Studie eine fiktionale KI-Drohne „Spitenik“, die aber in ihren Fähigkeiten denen von autonomen Drohnen mit aktuellen LLMs entspricht.

Eigenständig, zielgeleitet und flexibel

Das Ergebnis: „Sowohl die KI-Drohne Spitenik als auch der KI-Agent Voyager verhalten sich exakt so, wie sie es mit einem echten freien Willen tun würden“, berichtet Martela. Die KI-Drohne entscheidet beispielsweise bei ihren Patrouillenflügen selbstständig und anhand der Situation, wann und wo sie fliegt, wie sie am besten unentdeckt bleibt oder welchen verdächtigen Spuren sie nachgeht. Geleitet wird sie dabei von der übergeordneten Motivation, intakt zu bleiben und ihre Mission zu erfüllen.

Auch der KI-Agent Voyager kann freie, situationsabhängige Entscheidungen treffen, die mehr sind als starre Reaktionen auf spezifische Reize. „Ähnlich wie ChatGPT immer leicht unterschiedliche Antwort auf die gleiche Frage gibt, so folgt auch Voyager in jedem Durchgang verschiedenen Wegen und Zielen“, erklärt Martela. Der KI-Agent entwickelt dabei selbstständig Strategien und Schritte, um sein übergeordnetes Ziel zu erreichen und trifft dann basierend darauf seine konkreten Entscheidungen.

Lokale versus globale Willensfreiheit

Nach Ansicht von Martela erfüllen damit beide KI-Systeme die Bedingungen für einen funktionalen freien Willen. Allerdings gibt es – noch – einen entscheidenden Unterschied zu uns Menschen und unserer Willensfreiheit: Noch gibt der Mensch diesen KI-Systemen ihr übergeordnetes Ziel vor. Im Falle der KI-Drohne ist dies die Überwachung und das Ausschalten von Gegnern, der KI-Agent im Minecraft-Spiel soll die Landschaft erkunden, nutzen und technisch fortentwickeln.

„Wir könnten daher argumentieren, dass diese KI-Modelle nur einen ‚lokalen‘ freien Willen besitzen: Sie haben die Freiheit, sich selbst Unterziele zu definieren, Alternativen zu betrachten und Entscheidungen innerhalb der Grenze des übergeordneten Ziels zu treffen“, erklärt Martela. Der Mensch dagegen besitzt einen globalen freien Willen, weil er selbst die inneren Beweggründe und übergeordneten Ziele entwickelt.

KI und Mensch
Die Unterschiede zwischen Mensch und künstlicher Intelligenz sind möglicherweise nur noch graduell.
Mensch-KI-Unterschiede nur noch graduell?

Doch so klar, wie es hier zunächst scheint, ist die Unterscheidung nicht, wie der Forscher betont: „Auch wir Menschen haben nicht die volle Kontrolle über unsere Vorlieben und Ziele“, argumentiert er. Denn auch wir werden durch unsere Gene, unsere frühen Erfahrungen und sozial-kulturelle Einflüsse geprägt. „Unsere Werte, Ziele und Wünsche sind daher stärker vorherbestimmt als wir wahrhaben oder zugeben wollen“, so Martela.

Seiner Ansicht nach ist der Unterschied zwischen der künstlichen Intelligenz und dem Menschen daher auch in Bezug auf den freien Willen eher graduell als klar getrennt: „Das ist ein Kontinuum“, betont der KI-Forscher. „Der Unterschied zwischen Menschen und künstlichen Intelligenzen ist somit nur graduell: Menschen sind dem globalen freien Willen näher als aktuelle Versionen der KI. Aber dieser Abstand wird’s schon in der nahen Zukunft enger werden.“

Eine Frage der Moral

Aber was bedeutet das konkret? Was sind die Konsequenzen? Wie Martela betont, heißt dies nicht, dass KI deswegen schon ein echtes Bewusstsein besitzt. Auch typische menschliche Eigenschaften wie Empathie oder die Fähigkeit, Schmerzen und Emotionen zu spüren, haben künstliche Intelligenzen noch nicht. „Ob ein KI-System als Person mit bestimmten Rechten und moralischem Status anerkannt wird, steht daher noch nicht zur Diskussion, denn dafür ist mehr nötig als nur der funktionale freie Wille“, erklärt Martela.

„Eine interessantere Frage ist jedoch, ob ein KI-Modell mit funktionalem freiem Willen für seine Entscheidungen moralisch zur Rechenschaft gezogen werden kann“, so der Forscher weiter. Denn die Fähigkeit zu freiem, eigenständigem Handeln gelte oft als Voraussetzung für eine moralische Verantwortung. Wenn eine künstliche Intelligenz frei entscheiden und agieren kann, dann ist auch das Risiko für unmoralisches, für uns Menschen potenziell gefährliches Handeln größer.

„Wir betreten hier Neuland. Je mehr Freiheit wir KI-Systemen verleihen, desto wichtiger wird es daher, ihnen von Beginn an einen moralischen Kompass mitzugeben. Nur dann werden sie dazu fähig sein, die richtigen Entscheidungen zu treffen“, betont Martela. (AI and Ethics, 2025; doi: 10.1007/s43681-025-00740-6)

Quelle: Aalto University;   27. Mai 2025 - von Nadja Podbregar

 

Nota. - Der Ausdruck globaler freier Wille ist nicht nur irreführend, sondern genau genommen falsch. Er macht glauben, wenn einer machen kann, "was immer er will", ist es kein freier Wille, weil es kein Wille ist. Stünden die mannigfaltigen 'loka-len' Willen alle gleichberechtigt neben einander, dann herrschte zwischen ihnen Chaos und Zufall. Wille wäre jeder von ihnen nur, wenn sie alle freier Wille wären, wenn sie alle im selben Grade frei, nämlich nicht nur nicht fremdbestimmt, sondern alle frei bestimmt wären; selbst-bestimmt, nämlich durch ein und denselben Willen, der seinerseits frei wäre. Wenn also jeder von ihnen nicht frei, sondern von einem Gesamt- oder Ober-Willen bestimmt würde! 

Ist es eine semantische Unsauberkeit oder ein hinterhältig fauler Trick, wenn von Willen geredet, aber ein Wollender überhaupt nicht ins Auge gefasst wird? Es wird so getan, als sei Wille die Summe von lauter Wollungen, die beieinander liegen wie Atome in einem 'Stoff', und die 'lokalen' Willen wie Moleküle in einer chemischen Verbindung. Aber Wille ist, wenn das Wort einen  Sinn haben soll, der Actus eines Wollenden, will sagen: die Tat eines Subjekts. Eines Subjekts, und nicht eine zufäl-lige Menge von soundsoviel "funktionalen" Willen.

Der Wille setzt sich nicht bottom up von unten nach oben zusammen, sondern wirkt top down von oben nach unten.

* 

Das ist keine Hirnweberei, sondern der Punkt, an dem sich die Frage entscheidet, ob sich die Maschinen eines Tages zusammentun und in der Welt die Macht ergrei-fen können.
 

PS. Dass die einzelne KI-Maschine zum Subjekt nicht taugt, ersiehst du daraus, dass sie ein technisches Machwerk ist und keinen Leib hat, der in einer Welt lebt.
JE

Blog-Archiv

Quanten, Gravitation und die Weltformel.

  aus spektrum.de, 27. 1. 2025                                                                    u   Jochen Ebmeiers Realien   Quantengrav...