aus spektrum.de, 14. Sep. 2010 zu Jochen Ebmeiers Realien
Der Begriff der Information spielte lange Zeit in der Physik keine Rolle. Wie sollte er auch? Die Physik beschäftigt sich ja mit den unbelebten Dingen dieser Welt, mit Planeten, elektromagnetischen Feldern, Gasen, festen Körpern, mit Elektronen und Atomen.
Information ist aber zunächst etwas, was von einem Gehirn, einem Denkorgan eines lebenden Wesens in die Welt gesetzt wird oder was im Gehirn eines solchen Wesens einen Denkvorgang beeinflussen kann. Gedanken sind somit keine Dinge, mit denen sich die Physik beschäftigt, und bei der Wechselwirkung von Dingen der Physik spielt die Information keine Rolle. Physikalische Systeme können z.B. Ener-gie austauschen, aber keine Information, sie werden durch Kräfte beeinflusst, nicht durch Information. In einer Welt, in der es noch keine denkenden Wesen gab, hat es nach allem, was wir wissen, die anderen Dinge dieser Welt schon gegeben und sie werden sich nicht anders verhalten haben als heute. Information aber – was sollte das in einer solchen Welt gewesen sein?
Dennoch tauchte im Laufe des 20. Jahrhunderts im Umfeld der Physik der Begriff der Information auf und heute spekulieren manche Physiker, dass die Information eine bestimmte Form einer fundamentalen Ursubstanz sei so wie Materie eine Form der Energie ist. Ich kann dieser Spekulation nichts abgewinnen. Viel bedeu-tender für die Rolle des Informationsbegriffes in der Physik ist die Tatsache, dass im Gefolge der Entwicklung der Quantenphysik die Halbleiter-Technologie ent-wickelt, der elektronische Rechenautomat und schließlich der PC erfunden wurde. Das stimulierte mathematische Untersuchungen zur systematischen Verarbeitung von Information, die heute im Fach Informatik oder „Computer science“ ange-siedelt sind. Insofern ist also die Physik ein Wegbereiter der Informatik gewesen.
Wenn also die Wissenschaft von der Informationsverarbeitung auch ein Kind der Physik ist, dann muss ja wohl der Begriff der Information irgendwie in der Physik angelegt sein, und ich will beschreiben, wie das auf verschiedene Weise der Fall ist.
Der heute am meisten zitierte Versuch, den Begriff der Information in der Physik heimisch zu machen, geschah im Zusammenhang mit dem Begriff der Entropie. Diesen Begriff kennt kaum ein Nichtphysiker, und sogar manche Physiker haben ihre Probleme damit. In der Tat ist das ein sehr abstrakter Begriff, ähnlich wie die Energie. Aber an die Energie haben sich alle gewöhnt und viele können auch feh-lerfrei damit umgehen. Während aber die Energie eine physikalische Eigenschaft ist, die jedem einzelnem Teilchen, Elektron oder Atom zukommt, ist Entropie eine Größe, mit der man sinnvoll nur Systeme von vielen Teilchen beschreibt, also z.B. Gase, die ja aus Abermilliarden von einzelnen Molekülen oder Atomen bestehen, die sich in heftigster regelloser Bewegung befinden.
Den Zustand eines solchen Gases zu einer bestimmten Zeit kann man auf zwei verschiedene Weisen beschreiben.
Einmal auf der Ebene der Moleküle, indem man die Orte und Geschwindigkeiten der einzelnen Moleküle zu jeder Zeit angibt. Das definiert den so genannten Mikro-zustand, also den Zustand auf der Mikroebene.
Die Orte und Geschwindigkeiten der einzelnen Moleküle zu jeder Zeit sind natür-lich keine Größen, mit denen man die in der Praxis relevanten Eigenschaften eines Gases beschreibt. Dazu taugen eher Begriffe wie die Gesamtenergie eines Gases, das Volumen, in dem es sich befindet, oder die Anzahl der Moleküle, ebenso auch Größen wie Temperatur oder Druck. Alle diese Größen charakterisieren das Gas als solches, das – wie wir Menschen auch – zur Welt mittlerer bzw. makroskopischer Dimensionen gehört, und man nennt sie deshalb auch makroskopische Größen.
Man hat gelernt, dass man bei einem einfachen Gas nur die Werte von dreien dieser Größen vorgeben muss. Die Werte der anderen makroskopischen Größen stellen sich dann aufgrund physikalischer Gesetzmäßigkeiten ein. Auf der Ebene dieser makroskopischen Größen genügt also z.B. die Angabe von Energie, Teilchenzahl und Volumen, um den Zustand eines Gases zu beschreiben. Das definiert den Makrozustand des Gases.
Nun ist offensichtlich, dass ein bestimmter Makrozustand durch sehr viele ver-schiedene Mikrozustände realisiert werden kann. Die Energien der einzelnen Teilchen müssen sich ja z.B. nur zu der Energie des Gases aufsummieren, und das kann auf sehr viele Weisen geschehen. Die Entropie des Gases ist nun, bis auf eine Konstante, nichts anderes als eine simple Funktion der Anzahl der Mikrozustände in Abhängigkeit vom Makrozustand. Diese Funktion muss übrigens aus bestimm-ten Gründen eine Logarithmus-Funktion sein.
Man könnte noch viel Genaueres zur Entropie sagen, mit welchen Argumenten sie 1865 von Rudolf Clausius eingeführt worden ist, wie man sie allgemeiner definiert, wie sie den Abstand des Zustands eines Gases vom thermodynamischen Gleichge-wicht beschreibt und wie sie irreversible Vorgänge charakterisieren kann. Aber hier soll ja keine Einführung in die Thermodynamik gegeben werden, sondern es geht um den Begriff der Information. Und der Begründer der Informationstheorie, Claude Shannon, der 1948 in seiner Arbeit „A Mathematical Theory of Commu-nication“ den Begriff der Information so präzisiert hat, dass er zu einer messbaren Größe wurde, hat sich von dem Begriff der Entropie stark inspirieren lassen. Und ausschlaggebend dabei war genau der Aspekt der Entropie, der oben erwähnt wur-de, nämlich, dass die Entropie ein Maß ist für die Anzahl der Mikrozustände bei gegebenem Makrozustand.
Wenn man die Entropie mit irgendeiner Vorstellung von Information in Verbin-dung bringen will, muss man allerdings einen Perspektivwechsel vornehmen, und zwar von der reinen Betrachtung der Natur zur Beobachtung dieser Betrachtung. Die Anzahl der Mikrozustände bei gegebenem Makrozustand ist eine reine Sache der Natur. Andererseits kann ich als denkendes Wesen, das die Natur analysiert, aber auch fragen, welchen Mikrozustand ich zu einer bestimmten Zeit bei gege-benem Makrozustand finden würde, wenn ich denn so etwas messen könnte. Oder: Wir groß ist die Wahrscheinlichkeit dafür, bei einer Messung einen ganz bestimm-ten Mikrozustand zu finden? Wenn alle Mikrozustände gleich wahrscheinlich sind, ist das leicht anzugeben und es ist sofort klar: Je größer die Anzahl der Mikrozu-stände ist, umso kleiner ist die Wahrscheinlichkeit für einen einzelnen, also dafür, einen ganz bestimmten von diesen zu finden – umso weniger Information hat man also darüber, welcher von diesen gerade realisiert ist.
Die Entropie, die Anzahl der Mikrozustände, ist somit ein Maß für den Mangel an Information darüber, welcher der Mikrozustände zu bestimmter Zeit vorliegt. Man sieht, der Begriff der Information erscheint erst, wenn man einen betrachtenden, denkenden Menschen ins Spiel bringt.
Physik wird aber wie jede Wissenschaft von denkenden Wesen betrieben, und somit ist es plausibel, dass die Information, die über ein physikalisches System, in welcher Form auch immer, vorliegt, in die Beschreibung des Systems mit eingeht. Im Prin-zip gilt das natürlich immer, aber praktisch relevant wurde das erst, als man im letz-ten Jahrhundert allmählich begann, auch komplexere Systeme, z.B. die Brownsche Bewegung zu untersuchen. So nennt man die regellose Zitterbewegung von klein-sten in einem Gas oder einer Flüssigkeit schwebenden Teilchen. Schon im Jahre 1827 hatte der schottische Botaniker Robert Brown entdeckt, dass sich kleine, nur unter einem Mikroskop sichtbare Teilchen, wie z.B. Pollen- oder Stärkekörner, in wässriger Lösung in einer permanent unregelmäßigen Bewegung befinden. Im Jahre 1900 hat dann Felix Exner die richtige Erklärung gegeben: Die suspendierten Teil-chen werden ununterbrochen durch die Moleküle des Lösungsmittels gestoßen. Die Kräfte, die die Moleküle dabei auf die sichtbaren Teilchen ausüben, kann man im Einzelnen nicht spezifizieren, man hat nur grobe Anhaltspunkte, z.B., dass sie im Mittel mit der Temperatur der Lösung stärker werden. Trotz dieser Unkenntnis, dieses Mangels an Information möchte man aber eine mathematische Gleichung für die Bewegung der schwebenden Teilchen formulieren.
Albert Einstein hat das in einer seiner berühmten Arbeiten von 1905 getan, indem er den Einfluss der Moleküle des Lösungsmittels durch eine stochastische Kraft – also durch eine Zufallsvariable, die eine Kraft darstellt – beschrieb und alle Infor-mation, die man über die Kräfte kennt, in die Eigenschaft dieser Zufallskraft steck-te. Er entwickelte so die erste Bewegungsgleichung in der Physik, in der Zufallsgrö-ßen auftreten, und diese Gleichung wurde zum Prototyp für die mathematische Be-schreibung eines physikalischen Szenariums, in dem man nicht alle Eigenschaften der Objekte zu jeder Zeit genau kennt, in dem eben Mangel an Information herrscht.
Statistische Physik: Quantitative Beschreibung bei unvollständigem Wissen
Damit wurde ein ganz neuer Phänomenbereich für die Physik zugänglich. Die bis dahin so spektakulären Erfolge der Physiker auf dem Gebiet der Mechanik und Elektrodynamik fußten ja immer auf der Annahme, dass das Verhalten der Objekte nur von wenigen anderen Objekten entscheidend beeinflusst wird. So ließ sich mit relativ wenigen Objekten ein physikalisches System konstruieren, das man als iso-liert von der übrigen Welt betrachten durfte. Man konnte so z.B. die Bahnen der Planeten um die Sonne genau berechnen und auch Sonnenfinsternisse exakt vor-aussagen. Man nennt solche Systeme abschließbar, was eben ausdrückt, dass man ihr Verhalten auch ohne Berücksichtigung einer Beeinflussung von außen schon genügend gut beschreiben kann.
Für die Entwicklung der Physik war es ganz wesentlich, dass man solche abschließ-baren Systeme in der Natur überhaupt finden kann, dass also nicht alles mit allem unentwirrbar zusammenhängt, sondern dass sich eben Teile der Welt aus sich her-aus erklären lassen. Aber manchmal kann – wie bei der Brownschen Bewegung – eine Aufteilung in System und in Umgebung des Systems nicht so gelingen, dass die Umgebung nur einen vernachlässigbaren Einfluss auf die Dinge im System hat. Dann muss man diesen Einfluss der Umgebung irgendwie berücksichtigen, auch wenn er nicht präzise spezifizierbar ist. Dieser Mangel an Information führt dazu, dass man stochastische Größen einführen muss, um zu einer Formulierung einer Gesetzmäßigkeit zu gelangen. Die Ergebnisse solcher Rechnungen lassen sich na-türlich dann auch nur durch statistische Größen wie Mittelwerte und Varianzen ausdrücken.
Albert Einstein gehört neben Ludwig Boltzmann so zu den Vätern der Statistischen Physik, in der man alle solche Systeme untersucht, bei denen man aus Mangel an Information stochastische Größen wie Wahrscheinlichkeitsverteilungen oder Zu-fallsvariablen einführen muss.
Dass es bei dem Versuch, ein physikalisches System mathematisch zu modellieren, einen Mangel an Information geben kann, ist eigentlich selbstverständlich. Bemer-kenswert ist aber die Tatsache, dass man damit umgehen kann, dass man aus sol-chen stochastischen Gleichungen trotz des Mangels noch verlässliche Schlüsse zie-hen kann. So konnte Einstein aus seinen Gleichungen „Tatsachen finden, welche die Existenz von Atomen von bestimmter endlicher Größe“ sicherstellen.
Es ist plausibel, dass man immer mehr solche Methoden nutzen muss, je komplexer die Systeme sind, und in unserem täglichen Leben erfährt man ja mehr scheinbar Zufälliges als Deterministisches, denn viele Einflüsse lassen sich nicht exakt bes-chreiben, sondern höchstens durch ihre statistischen Eigenschaften charakterisie-ren. In der Statistischen Physik hat man gelernt, mit dem Mangel an Information umzugehen. Auch bei unvollständigem Wissen, mit dem man bei komplexen Sy-stemen der Natur immer zu rechnen hat, muss man also auf eine quantitative Be-schreibung nicht verzichten.
Keine Kommentare:
Kommentar veröffentlichen