Samstag, 19. Oktober 2024

Kurze Geschichte der Digitalisierung.

https://static.spektrum.de/fm/912/f2000x857/Fotolia_21905214_Wahlroboter_Kirsty_Pargeter.jpg
aus spektrum.de, 14. 10. 25                                                                                       zu öffentliche Angelegenheiten
 
Digitalisierung und Künstliche Intelligenz
Das Buch »Demokratie neu denken« von Andrea Römmele behandelt Szenarien für die Zukunft in Bezug auf Digitalisierung, Urbanisierung, demografischen Wandel, Klimawandel und Globalisierung. Eine Leseprobe

Das Aufkommen des World Wide Web und die Verbreitung des Smartphones in den 2000er Jahren sehen viele als den Startschuss der Digitalisierung an. Es war die Zeit, in der wir vom Analogen ins Digitale, von offline zu online gewechselt sind. Aber in jenen Jahren ist die Digitalisierung für die breite Öffentlichkeit nur sichtbar und erfahrbar geworden, indem sie in den Alltag eingewandert ist. Der eigentliche Prozess fing schon viel früher an. Die Entwicklung von Computern begann bereits in den 1940er Jahren. Der ENIAC (Electronic Numerical Integrator and Computer), der 1946 in Betrieb genommen wurde, gilt als einer der ersten elektronischen Allzweckrechner. Programmiersprachen wie Fortran und COBOL, die die Programmierung von Computern erleichterten, wurden in den 1950er und 1960er Jahren entwickelt. Die Einführung von Mikroprozessoren in den 1970er Jahren ermöglichte die Konstruktion von persönlichen Computern, von sogenannten PCs, wodurch Computer mehr und mehr auch für Privat nutzer zugänglich wurden.

Das Internet war bereits Ende der 1960er Jahre im Rahmen eines Netzwerkprojekts (mit dem Namen ARPANET) des US-Verteidigungsministeriums entstanden. Dem lag die Idee zugrunde, ein dezentrales Kommunikationsnetzwerk zu schaffen, das auch im Fall von Angriffen auf Teile des Netzwerkes funktionsfähig bleiben würde. 1984 wurde die erste E-Mail in Deutschland an der Universität Karlsruhe empfangen. Ich selbst kann mich noch gut an die Versendung meiner ersten E-Mail 1994 an eine Kollegin in die USA erinnern, aus meinem damaligen Büro an der Universität Mannheim. Heute werden weltweit täglich mehr als 300 Milliarden E-Mails verschickt.

Im Jahr 1993 wurde das World Wide Web (WWW) öffentlich zugänglich gemacht. In den darauffolgenden Jahren stieg die Zahl der Nutzer global rasant an – 2005 nutzten bereits eine Milliarde Menschen weltweit das Internet. 2017 hatte die Hälfte der Menschheit einen Online-Zugang. Allerdings unterscheiden sich die jeweiligen Weltregionen bis heute stark, wenn es um die Anzahl von Menschen mit und ohne Internetzugang geht. Noch 2022 hatten laut Statistischem Bundesamt immer noch 34 Prozent der Weltbevölkerung keinen Zugang zum Internet, was rund 2,7 Milliarden Menschen entspricht.

Schaut man sich die Verteilung nach unterschiedlichen Ländern an, so werden große Unterschiede sichtbar. Reiche westliche Staaten sind stärker digitalisiert: 2021 lag der Anteil der Internetnutzer an der Gesamtbevölkerung in Deutschland bei 94 Prozent, in den USA bei 90 Prozent, in Japan bei 93 Prozent, in Großbritannien bei 96 Prozent. China fiel demgegenüber etwas ab: Im Jahr 2021 hatten 65 Prozent der chinesischen Bevölkerung Zugang zum Internet, was angesichts dessen, dass China bis vor wenigen Jahren noch als Entwicklungsland galt, als erstaunlich gewertet werden kann. Ganz anders in Ländern des afrikanischen Kontinents: In Äthiopien sind es 20 Prozent der Bevölkerung, in Niger lediglich 15 Prozent, in Tansania 25 Prozent, in Kenia aber immerhin schon 40 Prozent mit Internetzugang. Zudem zeigen sich in den afrikanischen Staaten große Unterschiede mit Blick auf die Verteilung von Internetzugang und -nutzung zwischen Männern und Frauen, ein Phänomen, das als digital gender gap bezeichnet wird. Laut Daten von 2023 nutzen Frauen auf dem afrikanischen Kontinent mit einer 37 Prozent geringeren Wahrscheinlichkeit mobiles Internet im Vergleich zu Männern. Das ist ein beachtlicher Unterschied, der fast in der Größenordnung des gender pay gap in dieser Region liegt. 

Einige Länder betrachten den Zugang zum Internet mittlerweile als Grundrecht, das für die Meinungsfreiheit, für Bildungsmöglichkeiten, für wirtschaftliche Entfaltung und soziale Teilhabe unerlässlich sei. So war Estland 2000 das erste Land der Welt, das den Zugang zum Internet als Grundrecht anerkannte, Finnland hat den Breitbandzugang zum Internet 2010 in der Verfassung verankert. Die UN betont in diversen Dokumenten, dass der Zugang zum Internet für Meinungsfreiheit von entscheidender Bedeutung sei. So heißt es beispielsweise in einer wegweisenden UN-Resolution von 2018, »dass die gleichen Rechte, die Menschen offline haben, auch online geschützt werden müssen, einschließlich des Rechts auf Privatheit.«

Die technischen Möglichkeiten entwickelten sich weiter und so wurde aus dem Web 1.0 das Web 2.0. Erstmalig wurde dieser Begriff 2004 von Dale Dougherty von O’Reilly Media auf einer Konferenz in San Francisco verwendet. Er wurde schnell zu einem geflügelten Wort, das die gesamte zweite Generation des World Wide Web beschreibt, die sich durch interaktive und kollaborative Online-Plattformen auszeichnet. Im Vergleich zum eher statischen Charakter des Web 1.0 ermöglicht das Web 2.0 seinen Nutzern eine aktive dynamische Teilhabe. Sie können selbstständig Beiträge erstellen und posten, Beiträge anderer teilen oder kommentieren. Die Nutzer werden so zu »Prosumern«: Der Begriff meint das gleichzeitige Produzieren und Konsumieren von Nachrichten und ist aus Teilen beider Worte zusammengesetzt. Social- Media-Plattformen, Blogs, Wikis und Foren sind typische Beispiele fürs Prosumieren und verdeutlichen, dass beim Web 2.0 die soziale Interaktion der Nutzer im Mittelpunkt steht. 

Das Web 2.0, die schnellere und interaktive Internetnutzung, wurde erst durch die Einführung einer zuverlässigeren Breitbandtechnologie, durch eine Hochgeschwindigkeits-Internetverbindung ermöglicht. Diese erlaubt eine erheblich höhere Übertragungsrate der digitalisierten Daten im Vergleich zu älteren Technologien wie Einwahlverbindungen über DSL. In der Praxis bedeutet es, dass man leichter »Surfen«, größere Dateien herunterladen und damit überhaupt erst Online-Formate problemlos »Streamen« kann. Kurz gesagt: Die Qualität und Effizienz von Online-Kommunikation wurden dadurch erheblich verbessert: Video-Anrufe und -Konferenzen sind nun über große Entfernungen problemlos möglich. Auch E-Learning-Module, der Besuch von Online-Kursen, wären ohne Breitband nicht durchführbar. Der in Deutschland noch stockende, flächendeckende Glasfaserausbau ist der nächste Schritt zu einer schnelleren und leistungsfähigeren Infrastruktur der Datenübertragung für alle.

Künstliche Intelligenz ist ein Kind der Digitalisierung. Sie spielt in der immer weiter fortschreitenden Datafizierung mittlerweile eine zentrale Rolle. Auch ihre Entwicklung begann bereits in der Mitte des 20. Jahrhunderts – Computerwissenschaftler und Mathematiker wie Alan Turing und John McCarthy legten den Grundstein für die Entwicklung von Maschinen, die in der Lage sind, menschenähnliche Intelligenz zu simulieren. Alan Turing und sein Team spielten bei der Entschlüsselung der deutschen Enigma-Maschine im Zweiten Weltkrieg eine entscheidende Rolle. Die »Enigma« war eine elektromechanische Verschlüsselungsmaschine, die unter anderem von der deutschen Wehrmacht für ihre geheime Kommunikation verwendet wurde. Die Alliierten benötigten dringend einen Weg, um die von der Enigma-Maschine verschlüsselten Nachrichten zu knacken. Nur so konnten sie an wichtige Informationen über deutsche Militäraktionen gelangen. Turing entwickelte mit einem Team von Kryptoanalytikern die sogenannte »Turing-Bombe«, einen speziellen Typ von Entschlüsselungsmaschine. Sie bestand aus einer Reihe von elektromechanischen Bauteilen, die darauf ausgelegt waren, die richtigen Einstellungen des Kodierungsschlüssels zu identifizieren. Die Geschichte rund um Alan Turing, sein Team und die Turing-Bombe ist übrigens wunderbar nachzusehen in dem Kinofilm The Imitation Game – Ein streng geheimes Leben, der 2014 auch mehrere Auszeichnungen erhielt.

In den ersten Jahrzehnten der KI-Forschung lag der Schwerpunkt auf grundlegenden Algorithmen, auf symbolischer Logik und Expertensystemen. Mit dem Aufkommen leistungsstarker Computer und der digitalen Verfügbarkeit großer Datenmengen begann die KI-Forschung, von datengetriebenen Ansätzen zu profitieren. Maschinelles Lernen, insbesondere Deep Learning, ermöglichte es algorithmischen Systemen, Muster und komplexe Zusammenhänge in großen Datensätzen zu erkennen und von diesen zu lernen, um Vorhersagen zu treffen oder um ähnliche Daten, Bilder oder Texte zu generieren.

Leseprobe aus

 Demokratie neu denken

Nota. - Ein Bild nennen wir analog, weil wir es mit unseren Sinnen anschauen kön-nen. Ein Zeichen, das für eine mentale Bestimmung, eine Bedeutung steht, die ihm konventionell, durch Vereinbarung zugedacht wird und die man kennen muss, um es zu verstehen, nennen wir ein digit, von lat. digitus, (Zeige-)Finger.  

Digitalisierung ist uralt, aber doch nicht ganz so alt, wie die Menschheit selber: Sie geschah zum erstenmal, als mehrere Menschen sich darauf verständigten, einen ge-wissen Gegenstand mit einem bestimmten Laut zu kenn zeichnen. Diese Kenn-zeichnung mochte nicht länger Bestand haben, als die Gruppe selbst. Aber seit das Sprechen zur maßgebenden Verkehrsweise von h. sapiens geworden ist, konkurriert der digitale Modus ohn' Unterlass mit dem analogen, den Bildern, um den Vorrang; umso mehr, als die digitale Technik den bildgebenden Verfahren einen stetigen Auf-schwung beschert.

Soviel zur Semantik.
JE

Keine Kommentare:

Kommentar veröffentlichen

Blog-Archiv

Die Sonderstellung des Menschen.

Maxwell Parrish aus scinexx.de, 15. 11. 2024                                                 zu   öffentliche Angelegenheiten ; zu Joch...