Dienstag, 14. Oktober 2025

Der Gipfel des Wirtschaftswunders.

Gerd Schröder mit 11                   zu öffentliche Angelegenheiten 

In keinem Land hat das Jahr '68 so sehr Epoche gemacht wie in Deutschland; schon gar nicht in Frankreich, wo zwei, drei Jahre später alles wieder war, wie zuvor.

Warum? In Deutschland war es das Jahr der Abrechnung mit der Generation der Väter, die Stalingrad erlebt und von Auschwitz nie etwas gewusst hatte. 

Und außerdem war es... Höhe- und Zielpunkt unseres Wirtschaftswunders

Die Väter dachten, der phantastische Fleiß der Adenauerjahre wäre tätige Reue und es würde schon Gras drüber wachsen. Doch dann wurde '68 zum Erntedankfest. Die Alten waren tief gekränkt von der Undankbarkeit der Jungen: "Wer hat denn Deutschland wieder aufgebaut?!" Und haben damit die Frage beantwortet, wer es denn in den Dreck geritten hatte.

Das war das Generationserlebnis der Boomer. Sie waren von vornherein über alles erhaben und es hatte sie nichts gekostet als einige Aufläufe in den Universitätsstäd-ten. Sie konnten gottlob mit sich zufrieden sein und unter Helmut Schmidt sich ihrem persönlichen Fortkommen widmen. 

Und verstehen bis heute nicht, was an vanitas eine Todsünde sein soll.

 

 

Montag, 13. Oktober 2025

Stoische Selbstoptimierung.

aus 54books, 8. 10. 2025                                                               zu Männlich, zu Philosophierungen
 
Die römischen Kaiser von LinkedIn 
Das Elend der zeitgenössischen Begeisterung für die Stoa

Sonntag, 12. Oktober 2025

Man mags nicht glauben.

                                                zu öffentliche Angelegenheiten

Dass einer im Namen der Wissenschaft der Kirche in ihre Dogmen reinreden will, hat es nach Kant bis eben nicht mehr gegeben. Anything goes.

Dass eine Kirche namens ihrer Dogmen der Wissenschaft reinreden wollte, bis heute nicht. Geht das jetzt auch wieder?

Hat Habermas nur privat und nicht als Wissenschaftler gesprochen? - Das kann er öffentlich gar nicht mehr.

 

Mir ahnt Schlimmes: Er hat sich von der woken Philosophie anstecken lassen, für Gesinnung gebe es  keinerlei Grenzen.

 

 

Auf die Situation kommts an.

Links ist ein pinkfarbener Kreis von größeren türkisfarbenen Kreisen umgeben, rechts ein pinkfarbener Kreis von kleineren türkisfarbenen Kreisen. Obwohl die pinkfarbenen Kreise gleich groß sind, erscheint der linke kleiner.
aus spektrum.de, 8. 4. 2025                      Vergleichen Sie die beiden pinkfarbenen Kreise in der Mitte: Ist einer größer als der andere?                                                                                                                                               zu Jochen Ebmeiers Realien

Lassen Sie sich nicht täuschen!
Viele optische Illusionen beruhen darauf, dass wir Details nicht isoliert, sondern in ihrem Kontext sehen. Doch mit viel Übung kann man die Welt auch anders wahrnehmen.

von Martin Doherty und Radoslaw Wincza

Optische Täuschungen machen Spaß und führen praktisch jeden hinters Licht. Aber haben Sie sich jemals gefragt, ob man lernen kann, nicht auf die Illusionen hereinzufallen? Unsere neuesten Forschungsergebnisse legen nahe, dass das möglich ist. Zunächst einmal sagen optische Täuschungen viel darüber aus, wie wir Menschen Dinge wahrnehmen. Schauen Sie sich etwa das Bild oben an. Die beiden pinkfarbenen Kreise sind identisch, aber der rechte wirkt größer. Warum? Das liegt daran, dass wir den Kontext einbeziehen, um zu verstehen, was wir da sehen. Etwas, das von kleineren Dingen umgeben ist, ist in der Regel ziemlich groß. Unser visuelles System berücksichtigt solche Informationen und beurteilt daher den pinkfarbenen Kreis auf der rechten Seite als größer als den auf der linken. Diese Illusion hat der deutsche Psychologe Hermann Ebbinghaus bereits im 19. Jahrhundert entdeckt. Seitdem untersuchen Psychologinnen und Psychologen diese und ähnliche geometrische Täuschungen.

Wie sehr Sie sich täuschen lassen, hängt davon ab, wer Sie sind. Frauen sind zum Beispiel anfälliger für optische Täuschungen als Männer – sie sehen die Dinge eher im Kontext. Kleinkinder lassen sich nicht täuschen. Für ein fünfjähriges Kind sehen die beiden pinkfarbenen Kreise gleich groß aus. Denn es braucht Zeit, um zu lernen, wie man Kontexthinweise interpretiert. Auch psychische Störungen wirken sich auf die Wahrnehmung von optischen Illusionen aus. Menschen mit Autismus oder Schizophrenie erliegen ihnen seltener, weil sie dazu neigen, dem zentralen Kreis mehr Aufmerksamkeit zu schenken und den umgebenden Kreisen weniger.

Die Kultur, in der Sie aufgewachsen sind, beeinflusst ebenfalls, wie sehr Sie den Kontext beachten. Untersuchungen haben ergeben, dass Menschen in Ostasien ganzheitlicher wahrnehmen und dabei mehr Teile des Ganzen berücksichtigen. Wir im Westen nehmen die Umgebung hingegen analytischer wahr und konzentrieren uns eher auf zentrale Objekte. Diese Unterschiede lassen vermuten, dass die Menschen in Ostasien anfälliger für Illusionen sind. Und tatsächlich werden Japaner offenbar viel eher als Briten von dieser Art Bilder getäuscht, wie eine Studie zeigte.

Solche Unterschiede können allerdings auch von der Umgebung abhängen. Japaner leben in der Regel in Städten, und dort ist es wichtiger, Größenverhältnisse von Objekten richtig einzuschätzen. Das erfordert wiederum, mehr auf die Umgebung zu achten. Mitglieder des nomadischen Himba-Stamms in der fast unbewohnten namibischen Wüste lassen sich dagegen von der obigen Ebbinghaus-Illusion nicht täuschen.

Psychologen: Sensibel für den Kontext

Dass optische Täuschungen von Geschlecht und Alter abhängen, von Kultur und von psychischen Störungen: All das ist bereits lange bekannt. Allerdings wusste die Wissenschaft bisher nicht, ob Menschen ihre Wahrnehmung so verändern können, dass die Illusionen bei ihnen nicht wirken.

Ein Hinweis darauf kam aus einer unserer früheren Arbeiten: Darin verglichen wir, wie Mathematiker und Sozialwissenschaftler Illusionen wahrnehmen. (Da wir an Universitäten arbeiten, liegt es nahe, die eigenen Kollegen zu untersuchen.) Es zeigte sich, dass Sozialwissenschaftler, zum Beispiel Psychologen, optischen Täuschungen stärker erlagen.

Als Sozialwissenschaftler müssen wir viele Faktoren berücksichtigen. Vielleicht macht uns das mit der Zeit sensibler für den Kontext und verändert die Art und Weise, wie wir Dinge betrachten. Aber umgekehrt könnte es ebenso sein, dass die Studienfachwahl mit der visuellen Wahrnehmung zusammenhängt. Einer von uns (Martin Doherty) studierte zunächst Physik; seinen Abschluss machte er aber schließlich in Psychologie. Zufälligerweise ist seine Wahrnehmung von Illusionen viel stärker ausgeprägt als üblich!

Radiologen: Blick fürs Detail

Bislang waren Forschende der Meinung, man habe keinen Einfluss darauf, ob man sich optisch täuschen lässt oder nicht. Unsere aktuelle Forschung stellt diese Ansicht jedoch in Frage. Radiologen etwa müssen in der Lage sein, auf Bildern schnell das Wichtigste zu erkennen. Dazu müssen sie oft bestimmte Details auf den Aufnahmen ignorieren – eine Fähigkeit, die sie ausgiebig trainieren. Lassen sie sich daher weniger durch Illusionen täuschen?

Das ist tatsächlich der Fall, wie wir festgestellt haben. In einer Studie haben wir 44 Radiologinnen und Radiologen mit mehr als 100 Studierenden aus der Psychologie und der Medizin verglichen. Unten sehen Sie eines unserer Bilder, das wir in den Experimenten verwendet haben. Der linke pinkfarbene Kreis ist sechs Prozent kleiner als der auf der rechten Seite. Die meisten Probandinnen und Probanden schätzten ihn jedoch als größer ein.

Das Bild zeigt zwei Gruppen von Kreisen auf schwarzem Hintergrund. Links befindet sich ein pinkfarbener Kreis umgeben von kleineren, türkisfarbenen Kreisen, rechts ein pinkfarbener Kreis umgeben von größeren, türkisfarbenen Kreisen.
Optische Illusion 1 | Der pinkfarbene Kreis links ist tatsächlich kleiner als der rechte, erscheint vielen aber größer.

Nun ein zweites Bild aus der Studie: Die Mehrheit der Nichtradiologen sah das linke Bild immer noch als größer an – dabei ist es zehn Prozent kleiner. Die meisten Radiologen dagegen lagen mit ihrer Einschätzung richtig.

Das Bild zeigt Kreise auf schwarzem Hintergrund. Links befindet sich ein pinkfarbener Kreis umgeben von kleineren, türkisfarbenen Kreisen, rechts ein pinkfarbener Kreis umgeben von größeren, türkisfarbenen Kreisen. Tatsächlich ist der linke kleiner, doch wegen der ihn umgebenden Kreise wirkt er größer oder gleich groß.
Optische Illusion 2 | Hier ist der linke Mittelkreis noch etwas kleiner, erscheint aber weiterhin den meisten größer.

Erst als der Unterschied fast 18 Prozent betrug, wie im dritten Bild, durchschauten auch die meisten Nichtradiologen die Illusion.

Das Bild zeigt zwei Gruppen von Kreisen auf schwarzem Hintergrund. Links befindet sich ein pinkfarbener Kreis umgeben von kleineren türkisfarbenen Kreisen, rechts ein pinkfarbener Kreis umgeben von größeren türkisfarbenen Kreisen.
Optische Illusion 3 | Die meisten Menschen erkennen hier die wahren Größenverhältnisse: Der linke Kreis ist kleiner.

Radiologen sind zwar nicht völlig immun gegen die optische Täuschung, aber viel weniger anfällig dafür. Wir haben auch Ärztinnen und Ärzte getestet, die gerade erst mit ihrer radiologischen Ausbildung begonnen hatten. Im Schnitt ließen sie sich von den optischen Illusionen ähnlich oft täuschen wie Nichtradiologinnen und -radiologen. Das legt nahe, dass die geringere Anfälligkeit für optische Täuschungen das Ergebnis der Ausbildung ist.

Doch gemäß heutiger Theorien über Fachwissen sollte das eigentlich nicht möglich sein. Schachprofis etwa werden dank Übung besser im Schachspielen, aber in nichts anderem. Unsere Ergebnisse deuten jedoch darauf hin, dass man durch die Ausbildung in der medizinischen Bildanalyse besser darin wird, manchen optischen Täuschungen zu entgehen.

Es gibt also noch viel zu erforschen. Besonders faszinierend wäre, wenn Mediziner ihre radiologische Expertise verbessern könnten, indem sie mit optischen Illusionen trainieren. Und wie können Sie lernen, optische Täuschungen zu durchschauen? Ganz einfach. Fünf Jahre Medizinstudium und dann sieben weitere Jahre Radiologieausbildung genügen. 

 
Nota. - 'Kontextualisierung' ist eine vielleicht unbewusste, aber doch beabsichtigte Verflachung. Sie lässt nämlich vermuten, der Kontext sei etwas Sekundäres, das zu den Gegenständen "relativierend" hinzukam.  

Ja gewiss, was erscheint - und alles, was real ist, erscheint -, ist nicht an und für sich. Alles ist irgendwo irgwendwie situiert, es befindet sich - nämlich für den, dem es er-scheint  - in einem Zusammenhang mit andern 'Gegenständen', der seine momenta-ne Bestimmtheit ausmacht.

Wir sehen zunächst das Bild, dann nehmen wir wahr, was darauf zu erkennen ist; und das alles ist getönt und eingefärbt von dem Tableau, auf dem es mir zuerst begegnet ist. Zuerst ist eine Situation 'da', von der alles Besondere sich ab hebt. Es wäre nicht angemessen, das schlicht und einfach zu ignorieren. Man könnte aller-dings willentlich davon absehen - wenn man einen benennbaren Grund dafür hat.

Denn was immer danach kommt, ist Reflexion: ist erwogen, ermessen, ajustiert - und eventuell hinterher zu einem Bild wieder zusammengesetzt und womöglich das Spiel von vorn angefangen. Es ist jedesmal eine höhere Reflexions/Abstraktions-stufe. Und dabei ist Absicht am Werk; hier spätestens fällt es auf, doch war sie von Anfang an mit am Zuge; in dem wörtlichsten Sinne, nämlich je nach dem, ob ich nach vorn oder und nach links oder rechts sehe. Nicht was die Absicht hervorbringt taugt also zur Bewertung, sondern was sie selber wert ist.

Ein fauler Trick ist es, wenn ich ganzheitlich und analytisch hineinbringe. Die sind ja selber wertbeladen und werden gegeneinander nur verwendet von Autoren, in denen Ganzheitliches dem Analytischen vor- und übergeordnet werden; von andern Leuten nicht. Das ist natürlich statthaft, aber es sollte korrekterweise ausgesprochen werden; von begründen will ich schon gar nicht reden.

Und wer hätte das gedacht: Es ist selber absichtsvoll! Denn "ganzheitlich" nehmen Frauen, Asiaten und Kinder wahr; alte weiße Männer sehen analytisch, die Bekla-genswerten

Man könnte es ja auch andersrum drehen: Ganzheitlich könnte man eine Sicht finden, die das Ganze Bild auffasst und die Elemente nicht jedes für sich alleine, sondern in ihrem Verhältnis zueinander darstellt. Und wenn ichs recht überlege, kommt mir das sachgerechter vor.

Nota II. - Habe ich Sie irreführen können? Was die Autoren ganzheitlich und was sie analytisch nennen, habe ich vermengt. Es braucht allerhand Reflexion, sie wieder auseinander zu puzzeln.
JE

 


Samstag, 11. Oktober 2025

Früher galt links als scharf und radikal, heut gilt seicht und wabblig als links .

                                  zu öffentliche Angelegenheiten

Früher war die Linke radikal - je linker, desto radikaler: Radikal sein heißt, die Dinge bei der Wurzel packen.

Das Woke, das sich nicht nur in Amerika, sondern auch bei uns als die zeitge-nössische Linke ausgibt, ist nicht radikal, sondern totalitär, und geht den Dingen nicht an die Wurzel, sondern fällt ihrem Anschein auf den Leim. Statt scharfer Begriffe überhitztes Geflenn. 

 

 

Dann eben nich.


Genie wird stets verkannt. 

 

Vernunftsystem.

 itzehoer                             zu Wissenschaftslehre - die fast vollendete Vernunftkritik

Gedankengebäude mag es unzählige geben. Sie alle beginnen mit einem oder gar mehreren Grundsatz oder -begriff, den sie voraussetzen und von dem sie nicht wissen, wo sie ihn herhaben.

Das einzige System, das seinen Grund aufsucht und ausspricht, wäre das Vernunft-system: Es müsste ihn durch seine Ausführung erst erweisen. Oder anders gesagt: Nur ein System, das seine Voraussetzungen selbst erweist, ist vernünftig.

Das ist eine logische Bestimmung, keine onto logische

 

Freitag, 10. Oktober 2025

Nicht brav, sondern scharf.

 wissen                 zu öffentliche Angelegenheiten, zu  Philosophierungen

Vernunft gilt, wo von ihr noch die Rede ist, als ein Balsam, der alles Entzündete heilt. Nichts für den Kampf also, sondern was fürs Ausbügeln. Kein Wunder, dass sie niemanden vom Hocker reißt. 

Aber als sie aufkam, begrüßte man sie als ein Richtschwert - über die Anmaßungen der Dogmen.

Doch gerade da, wo sie sich erstmals zu erkennen gab, wurde sie, allein und einzig, je ausdrücklich bestritten. Dem hat ein Weltkrieg gottlob ein Ende gesetzt, doch seither haben ihre Feinde den Ausweg gefunden, sie als schiedlichfriedliches Kin-dertantenideal lächerlich zu machen.

Eine Zeit, in der sie nun wieder öffentlich verspottet wird, ist genau die, wo sie ihre Schlagkraft neu erweisen muss und darf. Sie ist nicht ein Weichmittel des Vertra-gens, sondern die Klinge des Entscheidens: Für mich oder gegen mich?

So aber nur, wenn sie einer in die Hand nimmt. 

 

Übrigens...

                                                   zu öffentliche Angelegenheiten 

... hat Trump bislang nicht gegen das demokratische Prinzip verstoßen: die Mehr-heit entscheidetDie systematischen Vorstöße zielen auf den Rechsstaat ab und die bürgerlichen Freiheiten. 

Doch nicht nur seine: Woke hat es ihm vorgemacht. Widerstand wäre dringend ge-boten - gegen das beiderseits psalmodierte Hohelied der Mehrheitsdikatatur, und für Freiheit und Recht.

 

 

Synaptische Plastizität und künstliche Intelligenz.

Abstrakte Darstellung eines menschlichen Gehirns mit einer komplexen Anordnung von leuchtenden, vernetzten Linien und Knotenpunkten, die neuronale Netzwerke und Aktivität symbolisieren. Farben wie Blau, Gelb und Rot heben die Verbindungen und Aktivität hervor.
aus derStandard.at, 4. 10. 2025                                                                            zu Jochen Ebmeiers Realien

Synaptische Plastizität

Was KI vom Gehirn lernen kann
Lernprozesse im menschlichen Gehirn beruhen auf der fortlaufenden Anpassung interner Modelle. Dieses Prinzip inspiriert auch die Entwicklung von Künstlicher Intelligenz

von Mario Wasserfaller

"Hat der alte Hexenmeister sich doch einmal wegbegeben! Und nun sollen seine Geister auch nach meinem Willen leben ..." Schön wäre es gewesen, sich in der Schulzeit Goethes Zauberlehrling ad hoc ins Gedächtnis zu zaubern. Wunderkinder ausgenommen, hieß das allerdings: lesen, noch einmal lesen, und alles von vorn, bis der Stoff sitzt und man ihn vor versammelter Klasse herunterrattern kann.

Der wichtigste Mechanismus des Lernens ist Wiederholung, da sie die synaptischen Verbindungen zwischen Neuronen im Gehirn verstärkt. Der Neurotransmitter Dopamin signalisiert dabei, welche Erfahrungen lohnend sind, und verstärkt gezielt die entsprechenden Synapsen. So wird wiederholtes Lernen effizienter und nachhaltiger.

Bestärkendes Lernen

Von diesem Prinzip machen auch künstliche neuronale Netzwerke (KNN) unter dem Begriff bestärkendes Lernen (Reinforcement Learning) Gebrauch. Die vom Gehirn inspirierten Systeme aus Knoten (Neuronen) und gewichteten Verbindungen (Synapsen) werden in Suchmaschinen, Apps, Empfehlungssystemen oder der Medizin eingesetzt, um durch Analyse großer Datenmengen Zusammenhänge zu erfassen und Vorhersagen zu treffen. Wer sich also im Streamingdienst Komödien wie Die nackte Kanone ansieht, verdankt einem KNN die Vorschläge für die Fortsetzungen 2 1/2, 33 1/3 und ähnlichen Klamauk wie Mr. Bean.

Anders als im biologischen Gehirn geschieht das nicht über Botenstoffe wie Dopamin, sondern durch mathematische Optimierungsverfahren, die Fehler minimieren. Wo das Gehirn durch Wiederholung und Belohnung synaptische Verbindungen verstärkt, passen KNN ihre Gewichte an, um Muster in Daten zu erkennen. Für den Neurowissenschafter Johannes Passecker von Institut für Systemische Neurowissenschaften ist das ein Paradebeispiel dafür, wie sich Neurowissenschaften und Künstliche Intelligenz gegenseitig befruchten können: "Das Konzept des Reinforcement Learning kommt zwar ursprünglich aus der Verhaltensforschung, ist aber gleichzeitig im Computing hochgekommen. Heute ist es ein integraler Bestandteil unseres Verständnisses darüber, wie das Gehirn über Dopamin Lernprozesse optimiert."

Bestmögliche Entscheidungen

Doch damit nicht genug der Parallelen. Im Passecker Lab geht man vor allem der Frage nach, wie verschiedene Gehirnregionen kooperieren, um bestmöglich Entscheidungen zu treffen: "Entscheidungen basieren auf Wissen. Aber wie entsteht dieses Wissen, und wie nehmen wir neue Informationen auf? Das ist es, was wir untersuchen, und es hängt direkt mit dem Lernen zusammen." Konkret will das Team um Passecker im Rahmen eines FWF-Projekts neue Einblicke in die neuronale Kommunikation zwischen präfrontalem Cortex und Striatum gewinnen.

Der präfrontale Cortex bewertet Entscheidungen, während das Striatum das Verhalten anhand von Belohnungen steuert. Zusammen koordinieren sie Fehlerkorrektur und Belohnungslernen, um Verhaltensweisen zu optimieren. In früheren Experimenten zeigte sich bereits, dass die Aktivität bestimmter Neuronen im präfrontalen Cortex vorhersagen kann, ob Ratten risikofreudige oder sichere Entscheidungen treffen. Eine gezielte Manipulation dieser Zellen beeinflusste das Lernverhalten der Tiere, was auf die Bedeutung dieser Prozesse für Entscheidungsfindung und potenziell für Erkrankungen wie Spielsucht hinweist.

Vorhersagen und Fehlerkorrektur

Eine der wichtigsten Theorien dahinter ist die prädiktive Kodierung, und sie ist sowohl für die Neurowissenschaften als auch für das maschinelle Lernen von neuronalen Netzwerken bedeutsam. Prädiktive Kodierung beschreibt, wie das Gehirn fortlaufend Hypothesen über die Umwelt bildet, diese mit eingehenden Signalen abgleicht und Unsicherheiten reduziert. Maschinelles Lernen nutzt ähnliche Strategien, indem Modelle Wahrscheinlichkeiten berechnen und durch Feedback verbessern.

Ähnliche Parallelen zeigen sich beim Mechanismus der Aufmerksamkeit, der im Gehirn die relevanten neuronalen Verbindungen stärkt und Nebensächliches ausblendet. Moderne Sprachmodelle (Large Language Models) wie ChatGPT, Gemini oder Grok funktionieren auf Basis der Transformer-Architektur: Sie gewichten Teile einer Eingabe unterschiedlich stark und richten den Fokus (Aufmerksamkeit) auf die wichtigsten Elemente. So können beide Systeme effizienter lernen, indem sie Ressourcen gezielter einsetzen.

Interne Modelle im Blick

Prädiktive Kodierung und Aufmerksamkeit sind wiederum eng mit sogenannten internen Modellen des Gehirns verbunden. Diese stehen im Mittelpunkt des ambitionierten neurowissenschaftlichen Großprojekts Scene (Simons Collaboration on Ecological Neuroscience), an dem Forschende der Central European University (CEU) maßgeblich beteiligt sind.

"Wir konzentrieren uns darauf, wie das Gehirn interne Modelle bildet, insbesondere in Bezug auf eine Klassifikation: Bilden diese Modelle alles Vorhersehbare ab, oder fokussieren sie sich besonders auf Dinge, die handlungsrelevant sind, wie Belohnungen und Strafen?", beschreibt Máté Lengyel, Professor für Kognitionswissenschaft und Projektleiter an der CEU, das zentrale Forschungsinteresse.

Inspiration für KI

Das im Juli gestartete und von der Simons Foundation mit acht Millionen US-Dollar jährlich geförderte Projekt vereint sechs internationale Forschungsteams aus Kognitionswissenschaft, Neurowissenschaften und Künstlicher Intelligenz. Im Laufe der nächsten zehn Jahre will man erforschen, wie lebende Organismen Vorhersagen treffen, ihre Umwelt interpretieren und mit dynamischen, natürlichen Gegebenheiten interagieren.

Mit dem Ansatz der ökologischen Neurowissenschaft soll die Brücke zwischen kontrollierten Laborexperimenten und dem Verhalten in komplexen, realen Szenarien geschlagen werden. Die Forschenden hoffen, Prinzipien zu entdecken, die nicht nur natürliche Intelligenz erklären, sondern auch die Entwicklung von KI-Systemen der nächsten Generation vorantreiben können. "Wir stoßen in komplett unbekannte Bereiche vor, und auch mit diesem Zeithorizont ist das absolut einzigartig in den Neurowissenschaften", sagt Lengyel, der selbst die Theoriegruppe des Projekts leitet.

Zielgerichtetes Handeln

Pionierarbeit leistet dabei unter anderen Jonathan Kominsky, Assistenzprofessor für Kognitionswissenschaft an der CEU. Er untersucht, wie Säuglinge neue motorische Fähigkeiten erlernen und dabei interne Modelle aufbauen, die zielgerichtetes Handeln ermöglichen. Gerade die langsame motorische Entwicklung des Menschen erlaubt es, die Veränderung solcher Modelle über die Zeit zu beobachten. "Wie verändert Erfahrung diese internen Modelle, wie schnell werden sie aktualisiert – und ermöglicht sie vielleicht sogar den Zugang zu internen Modellen, die schon vorhanden, aber bisher ungenutzt waren?", ist die Kernfrage, auf die er nach Antworten sucht.

Die Geister der KI sind gerufen, doch wer weiß schon, wie lange sie vom "alten Meister" Gehirn noch im Zaum gehalten werden? Kominsky erkennt jedenfalls einen markanten Unterschied zwischen der menschlichen Entwicklung und jener von künstlich geschaffenen Systemen: "Maschinelles Lernen erfordert oft gigantische Mengen an Trainingsdaten, während Menschen in vielen Bereichen mit vergleichsweise wenig Erfahrung erstaunlich effizient lernen." 

 

Nota. - Wie weit man immer das maschinelle Organ dem lebenden Gehirn anglei-chen wird - eins lässt sich schlechterdings nicht ändern: Es lebt nicht in einem Or-ganismus, der als Ganzer "in der Welt ist" und sich seine Informationen absichtsvoll dort herholt, wo er sie finden kann; sondern bleibt angewiesen auf die Brocken, die ihm serviert werden. Das ist kein quantitativer Unterschied, sondern ein dimensio-naler.
JE

 

Donnerstag, 9. Oktober 2025

Meinungsfreiheit in Magalonien.


aus Tagesspiegel, 9. 10. 2025                                            zu öffentliche Angelegenheiten 

Wir haben die Meinungsfreiheit weggenommen, weil dies durch die Gerichte entschieden wurde, und die Gerichte haben gesagt, dass Sie Meinungsfreiheit haben, aber was passiert ist, ist, dass das Verbrennen der Flagge die Menschen aufwühlt und irritiert. Ich habe so etwas noch nie gesehen, auf beiden Seiten, und am Ende kommt es zu Ausschreitungen.
Tronald Dump 

Nota. - Sagt er, was er, meint oder meint er, was er sagt?
JE 

 

Können Menschen künstliche Intelligenz kontrollieren?

Im Zirkus der KI bleibt die Frage, wer die Leine hält: Mensch oder Maschine? 
aus FAZ.NET, 8. 10. 2025                                           zu öffentliche Angelegenheiten, zu Jochen Ebmeiers Realien 

Wie menschliche Aufsicht über Künstliche Intelligenz gelingt.
Während die KI-Verordnung fordert, dass Menschen die Risiken von KI kontrollieren, streiten Experten, ob Menschen dazu überhaupt in der Lage sind. Was Politik und Wissenschaft jetzt tun können.

Gastbeitrag
von 
Johann Laux, Markus Langer

Wirksame menschliche Aufsicht über KI-Systeme ist in dreifacher Hinsicht ein Gewinn: Sie ist erstens ein wesentlicher Baustein für die Konformität von KI-Systemen mit der KI-Verordnung und ethischen Prinzipien. Zweitens verbessert menschliche Aufsicht die Qualität der in Europa auf dem Markt befindlichen KI-Systeme. Drittens wirkt menschliche Aufsicht wertschöpfend, weil ihre Wirksamkeit Investitionen in neue Technologien, Dienstleistungen und menschliche Fähigkeiten voraussetzt. Es liegt jetzt an Wissenschaft und Politik, dieses Innovationspotential gemeinsam zu heben.

Aber eins nach dem anderen: Hinter einem tödlichen Unfall verbirgt sich eine zentrale Herausforderung für den sicheren und vertrauenswürdigen Einsatz von KI in unserer Gesellschaft: Wie kann menschliche Aufsicht von KI gelingen?

Im Südwesten der USA ereignete sich im Jahr 2018 eine Tragödie der Technologiegeschichte: Ein vermeidbarer Unfall führte zum ersten Todesopfer eines selbstfahrenden Autos. Die Plattform Uber testete einen mit Künstlicher Intelligenz (KI) gesteuerten Volvo im Straßenverkehr in einem Vorort von Phoenix (Arizona), als eine neunundvierzigjährige Frau ihr Fahrrad über die Straße schob und vom Auto erfasst wurde.

Verantwortlich für ihren Tod war laut der amerikanischen Behörde für Verkehrssicherheit sowie für ein Gericht in Arizona weder Uber noch die KI, sondern ein Mensch. Die im selbstfahrenden Auto sitzende Sicherheitsfahrerin hätte eingreifen sollen und aufgrund des moderaten Tempos, mit dem der Wagen unterwegs war, wohl auch können.

Doch anstatt auf die Straße zu schauen, streamte sie eine Folge der Fernsehshow „The Voice„ auf ihrem Smartphone. Ihre Langeweile beim Überwachen der KI kostete ein Menschenleben.

Diese Herausforderung wird umso drängender, je stärker KI-Systeme in sensiblen Bereichen wie Medizin, Verkehr oder Grenzkontrolle eingesetzt werden. In diesen Bereichen baut die Politik auf menschliche Aufsicht, um mit der Technologie verbundene Risiken abzufedern. So verpflichtet etwa Artikel 14 der europäischen KI-Verordnung dazu, bei der Nutzung von Hochrisiko-KI-Systemen Menschen gezielt einzusetzen, um „Risiken für Gesundheit, Sicherheit und Grundrechte“ zu verhindern oder wenigstens zu minimieren. Was sich technisch nicht vollständig ausschließen lässt, soll durch menschliche Kontrolle aufgefangen werden.

Doch manche Wissenschaftler bezweifeln, dass Menschen dazu überhaupt in der Lage sind. Auch wenn sie gerade mal nicht auf ihr Handy schauen, haben Menschen in den meisten Fällen zu wenig Zeit und Informationen, um Risiken im laufenden Betrieb der KI abzuwenden. Anstatt KI effektiv zu überwachen, laufen sie damit Gefahr, zu Sündenböcken für die Risikobereitschaft von Technologieentwicklern zu verkommen.

Die Sichtweise, dass Menschen KI-Systeme kaum wirksam überwachen können, greift allerdings in vielen Anwendungsbereichen zu kurz. Denn unter den richtigen Voraussetzungen sind Menschen durchaus in der Lage, KI zu überwachen und in laufende Prozesse einzugreifen. Der eigentliche Kern der Herausforderung liegt daher darin, diese anspruchsvollen Bedingungen zu verstehen und sicherzustellen.

Die Dagstuhl-Definition von menschlicher Aufsicht

Einen Eindruck vom aktuellen Stand der Forschung bot Anfang Juli ein Seminar auf Schloss Dagstuhl, in einer Einrichtung der Leibniz-Gemeinschaft im Saarland. Internationale Expertinnen und Experten aus Informatik, Psychologie, Recht, Ethik, Kognitionswissenschaft und Technikgestaltung nahmen sich der Frage an, wie wirksame menschliche Aufsicht von KI-Systemen gestaltet werden kann.

Schon die Verständigung auf eine hinreichend breite, zugleich aber klar von anderen Dimensionen menschlicher Mitgestaltung von KI-Prozessen – etwa bei der Systemwartung oder regulatorischen Aufsicht – abgegrenzte Bedeutung von ‚menschlicher Aufsicht‘ war eine Herausforderung. Das enge Begriffsverständnis in der KI-Verordnung steht dabei im Kontrast zur interdisziplinären Zusammensetzung des Forschungsfeldes. Gerade diese Interdisziplinarität erwies sich jedoch als Schlüssel, um die spezifische Funktion menschlicher Aufsicht herauszuarbeiten: Menschliche Aufsicht liegt vor, wenn eine Person (oder mehrere Personen) systematisch vorbereitet die Möglichkeit hat, bewusst den Betrieb von KI-Systemen zu überwachen und bei Bedarf einzugreifen, um die von der KI ausgehenden Risiken substanziell zu mindern.

Menschliche Aufsicht ist also keine bloße „Checkbox“-Aufgabe oder bürokratische Übung, sondern verantwortungsvolle Arbeit. Aus der Definition folgt zugleich, dass niemand spontan oder zufällig in die Rolle einer Aufsichtsperson eines KI-Systems geraten kann – ganz so, wie es auch die KI-Verordnung in Artikel 26 verlangt, muss eine Aufsichtsperson ausdrücklich benannt und systematisch vorbereitet werden. Insbesondere genügt es nicht, Menschen in einem KI-getriebenen Entscheidungsprozess lediglich eine nominelle Rolle als „Knöpfchendrücker“ ohne Befugnisse, Einsicht, Zeit und Schulung zuzuweisen. So werden sie womöglich Teil einer technologiegestützten Fehlentscheidung. Damit Menschen Risiken abwenden, Fehlentwicklungen korrigieren oder Schäden verhindern können, ist ihre Rolle gezielt und wirksam zu gestalten.

So lässt sich menschliche Aufsicht von KI wirksam gestalten

Zwar kann es die Effizienz erhöhen, wenn KI-Systeme Ärztinnen und Ärzte in der Diagnostik durch Vorschläge unterstützen. Doch wenn diese Vorschläge unreflektiert übernommen werden, droht eine unkritische Übernahme jeglicher KI-Urteile. Fehler oder Verzerrungen können so unbemerkt in die Praxis einfließen. Zum Beispiel können verzerrte Trainingsdaten dazu führen, dass bestimmte Symptome oder Patientengruppen systematisch übersehen oder falsch eingeschätzt werden, mit der Folge einer strukturellen Benachteiligung. Ebenso besteht die Gefahr, dass unauffällige Befunde kaum noch eigenständig überprüft werden und die ärztliche Aufmerksamkeit für individuelle Patienten abnimmt.

Solche Dynamiken lassen sich auch psychologisch erklären: Das Phänomen des Automatisierungsbias führt dazu, dass Menschen KI-Vorschlägen oft mehr Vertrauen schenken, als angemessen wäre. Hinzu kommt Confirmation Bias, durch den Befunde eher so gelesen werden, dass sie die KI-Vorschläge bestätigen, anstatt sie kritisch zu hinterfragen. Die Ursachen sind vielfältig, reine Bequemlichkeit ist nur eine davon.

Gestalterische Maßnahmen, die Nutzer zwingen, ihre Entscheidungen aktiv zu reflektieren, bevor sie diese bestätigen, können solche Verzerrungen reduzieren. Zum Beispiel könnten KI-Systeme so gestaltet werden, dass eine Ärztin oder ein Arzt nicht nur eine Diagnose von der KI vorgeschlagen bekommt, sondern zusätzlich eine kurze schriftliche Begründung für die Zustimmung oder Ablehnung des Vorschlags dokumentieren muss. Ein solches Design verlangsamt zwar die Arbeit mit der KI, fördert aber kritisches Denken. Damit stellt sich natürlich die weiter gehende Frage, ob menschliche Aufsicht überhaupt von denselben Personen übernommen werden sollte, die unmittelbar mit der KI arbeiten.

In der ärztlichen Praxis kann die Rolle der medizinischen Fachkraft mit der der KI-Aufsichtsperson zusammenfallen. In anderen Hochrisikokontexten sind Beteiligung und Aufsicht im Entscheiden mit der KI klarer getrennt. Selbstfahrende Autos sind inzwischen ohne menschlichen Beifahrer unterwegs. In Austin und San Francisco befördern vollständig autonome Robotaxis ihre Fahrgäste durch die Stadt. Das Aufsichtspersonal sitzt in einer zentralen Leitstelle, die über Schnittstellen gleichzeitig mehrere Fahrzeuge überwacht.

Ganz gleich ob der Mensch unmittelbar im KI-gestützten Entscheidungsprozess eingebettet ist, wie Ärzte, oder aus der Ferne über eine Flotte von Robotaxis wacht, drei Bereiche sind für eine wirksame Aufsicht zentral: technische Faktoren wie etwa Systemdesign, Erklärbarkeitsmethoden und Benutzeroberflächen; menschliche Faktoren wie Fachkompetenz, Motivation und psychologische Eigenschaften der Aufsichtsperson; sowie umgebungsbedingte Faktoren wie Arbeitsplatzgestaltung und organisatorische Rahmenbedingungen.

Werden diese Faktoren ganzheitlich berücksichtigt, kann menschliche Aufsicht wirksam werden. Diese Erkenntnis unterstreicht die Bedeutung interdisziplinärer Forschung zu den Erfolgsfaktoren effektiver menschlicher Aufsicht sowohl für die Umsetzung der KI-Verordnung als auch für einen verantwortungsvollen Einsatz von KI in unserer Gesellschaft.

Verbleibende Herausforderungen sind gemeinsam mit der Politik zu lösen

All dies zeigt: Die Wissenschaft hat bereits Erkenntnisse darüber gesammelt, wie menschliche Aufsicht gelingen kann. Gemeinsam mit der Politik sollte nun über Problemfelder der Umsetzung der KI-Verordnung beraten werden, um sinnvolle Lösungsansätze zu erarbeiten.

Zunächst stellt sich das Problem der Verantwortbarkeit. Wie lässt sich verhindern, dass die Aufsichtsperson zur bloßen Symbolfigur wird, die trügerisches Vertrauen in die Sicherheit von KI erzeugt und letztlich nur ökonomische Interessen absichert – und so zum Placebo verkommt? Ein wesentlicher Beitrag kann hier das experimentelle Testen von Aufsichtssystemen leisten. Ob menschliche Aufsicht auch wirksam ist, sollte empirisch geprüft werden müssen, bevor das KI-System in Betrieb genommen wird. Standardisierte Vorlagen, Guidelines oder Checklisten, wie solche Prüfverfahren aussehen sollten oder welche Erkenntnisse bereits vor dem tatsächlichen Einsatz einer durch Menschen überwachten KI vorliegen müssen, können Anbieter und Betreiber beim Testen unterstützen.

Damit sind wir beim nächsten Problem, der Erfolgsmessung. Welche Maßstäbe gelten für die Effektivität menschlicher Aufsicht? Es bedarf quantitativer und qualitativer Benchmarks, die sich in technische Standards überführen lassen. Die Gründung eines Deutschen AI-Safety-Instituts (DAISI) wird schon seit Längerem von führenden KI-Forschern und -Praktikern gefordert. Das DAISI könnte wissenschaftlich fundierte Sicherheitsrichtlinien entwickeln und den Dialog zwischen Wissenschaft, Politik und Gesellschaft fördern. Dabei muss kein neues Bürokratiemonster geschaffen werden; vielmehr sollte eine agile Agentur entstehen.

Schließlich ist das Problem der technischen und organisatorischen Unterstützung zu bearbeiten. Wie können Aufsichtspersonen dabei unterstützt werden, den richtigen Zeitpunkt für ein Eingreifen zu erkennen, und wie lässt sich verhindern, dass ihre Eingriffe mehr Risiken schaffen, als sie mindern? Zwar erscheint eine völlig fehlerunanfällige Lösung unrealistisch, die Politik kann dennoch auf die Dynamik wissenschaftlicher Erkenntnis setzen. So sollten sich KI-Anbieter und -Nutzer am Stand der Forschung zur Mensch-KI-Interaktion, der sich mit dem fortschreitenden Einsatz von KI-Systemen in unserer Gesellschaft immer weiterentwickelt, nachweisbar orientieren müssen.

Die Liste an ungeklärten Fragen ließe sich verlängern. Klar ist: Menschliche Aufsicht als Auffangnetz im Risikomanagement der KI-Verordnung bedeutet, dass in Europa KI-Systeme mit beachtlichen Restrisiken auf den Markt kommen werden. Deren Beherrschung hängt von den technischen Möglichkeiten, den individuellen Fähigkeiten und der Motivation der Aufsichtspersonen sowie den konkreten Arbeitsbedingungen ab.

Menschliche Aufsicht kann ein Wirtschaftsfaktor sein

Die Entwicklung von Lösungen zur Beherrschung technologischer Risiken ist nicht zuletzt ein Wirtschaftsfaktor. Im Wettbewerb mit den KI-Großmächten USA und China wird die KI-Verordnung der EU oft als Innovationsbremse gesehen. Dabei ist Regulierung oder Innovation ein falsches Dilemma, da mit der dritten Option, verantwortungsvolle Innovation zu fördern, selbst Wirtschaftspolitik zu machen ist. Es bedarf signifikanter Investitionen sowohl aus öffentlicher als auch aus privater Hand, damit die Umsetzung von Regulierungsvorschriften wie dem Verlangen menschlicher Aufsicht von KI gelingt. Benchmarks entwickeln, Aufsichtssysteme testen, Menschen mit KI-Kompetenzen ausstatten – all dies erfordert Kapital und Know-how, das sich in Europa durch die Implementierung der KI-Verordnung ansammeln kann.

Während mit der Umsetzung menschlicher Aufsicht zwar ein kleiner Teil des Effizienzpotentials von KI verringert wird, schafft die effektive Verschaltung menschlicher und maschineller Kompetenzen durch bessere Outputs und verringerte Risiken jedoch echten Wert. Daraus ergeben sich beträchtliche Chancen für neue Geschäftsmodelle für technische Produkte und Dienstleistungen. Darüber hinaus ist zu erwarten, dass in Bereichen wie der Medizin KI überhaupt erst zum akzeptierten Einsatz kommen wird, wenn wirksame menschliche Aufsicht sichergestellt ist.

Wirksame menschliche Aufsicht über KI-Systeme ist in dreifacher Hinsicht ein Gewinn: Sie ist erstens ein wesentlicher Baustein für die Konformität von KI-Systemen mit der KI-Verordnung und ethischen Prinzipien. Zweitens verbessert menschliche Aufsicht die Qualität der in Europa auf dem Markt befindlichen KI-Systeme. Drittens wirkt menschliche Aufsicht wertschöpfend, weil ihre Wirksamkeit Investitionen in neue Technologien, Dienstleistungen und menschliche Fähigkeiten voraussetzt. Es liegt jetzt an Wissenschaft und Politik, dieses Innovationspotential gemeinsam zu heben.

 
Nota. - Viel verstehe ich nicht von diesen Dingen, sondern sogar herzlich wenig. Doch soviel glaubte ich, zurückbehalten zu sollen: 
 
Künstliche Intelligenz  'findet statt' in einem maschinellen System - und zwar auf Grund eines Algorithmus: Wer das System erdacht und konstruiert hat, kennt ihn, weil er ihn hineingesteckt hat. Das ist das Künstliche daran. Doch Intelligenz nennt man es deshalb, weil es, wenn es einmal in Gang gesetzt wurde, aus seiner eignen Tätigkeit lernt. Und das heißt: den Algorithmus aus ihrer eigenen Erfahrungen fortschreibt
 
Menschliche Kontrolleure mögen dort, wo die Maschine ihren Output spendet, ggf. deren Handeln unterbrechen, unterbinden, blockieren: weil ihre Intelligenz außerhalb des Systems ist und seine Außenwirkungen beurteilt. Freilich erst, wenn sie bereits eintreten. 
 
Was das System 'im Sinn hat', kann er aber vorher nicht erkennen. Denn dazu müsste er den Algorithmus, bzw. das, was er inzwischen aus sich gemacht hat, entziffern können. Er müsste nicht erst aktuell in seinen "laufenden Betrieb" ein-blicken können, sondern prozessual wissen, wo er suchen soll. Das kann er aber nicht nur deshalb nicht wissen, weil seine Rechenkapazität nicht ausreicht (und er immer zu spät käme), sondern nicht ahnen kann, wonach er während des Rechen-vorgangs suchen soll. Der Algorithmus ist eine Black Box, und man weiß immer nur (hernach), was er taugt, aber nicht (in processu), wer er ist. 
 
Es fragt sich nicht erst, wenn die Maschinen die Macht ergreifen, wie man sie stop-pen soll, denn das wäre zu spät, sondern vorher, wie man es verhindern kann.
 
Dazu bringt obiger Beitrag keine Einsicht. 
JE  
 

Blog-Archiv

Der Gipfel des Wirtschaftswunders.

Gerd Schröder mit 11                     zu  öffentliche Angelegenheiten   In keinem Land hat das Jahr '68 so sehr Epoche gemacht wi...