aus scinexx.de, 4. 4. 2025 zu öffentliche Angelegenheiten
von Manon Bischoff
Ich bin eine Null im Kopfrechnen. Jeder weiß, was mit dieser – in meinem Fall leider wahren – Aussage gemeint ist: Ich bin schlecht im Kopfrechnen. Das liegt daran, dass wir in unserer Sprache die Null oft mit Negativem gleichsetzen. Dabei ist sie als einzige der reellen Zahlen weder positiv noch negativ. Sie ist die einzig neutrale Zahl. Trotzdem hegte die Menschheit ihr gegenüber stets starke Gefühle; eine Zeit lang wurde die Null sogar verboten. Doch nun ist nicht nur ein Leben ohne Null undenkbar – tatsächlich baut die gesamte Mathematik ausgerechnet auf dieser Zahl auf.
Zahlen begleiten die Menschheit bereits von Beginn an. Selbst in den ältesten Schriftstücken gibt es Aufzeichnungen davon. Ohne sie lässt sich kein Handel treiben, ebenso ist man an vielen anderen Stellen auf Zahlen angewiesen, sei es um Land zu vermessen oder um Bier zu brauen. Die Null ist dafür aber nicht zwingend notwendig. Schließlich muss man kein beliebig kleines Stück Land dokumentieren oder bei einem Rezept eine verschwindend geringe Menge an Hopfen hinzufügen.
Die Babylonier hatten vor rund 5000 Jahren zwar schon eine Art Null, allerdings nicht als Zahl, die für sich selbst steht. Stattdessen nutzten sie – wie wir heute auch – ein Stellenwertsystem, um Zahlen anzugeben: Wenn ich drei Zahlen hintereinander notiere, wie 145, dann entspricht die erste Zahl der Stelle der Hunderter, die zweite der Zehner und die letzte der Einer. Die Babylonier gingen ähnlich vor, nur dass ihr System nicht auf der Zehn basierte, sondern auf der 60. Doch das spielt für die Geschichte keine Rolle. In einem Stellenwertsystem braucht man nämlich zwingend eine Null, um etwa eine Zahl wie 105 von 15 zu unterscheiden. Die Babylonier halfen sich dabei meist mit Leerstellen aus; das ist einer der ältesten Hinweise auf so etwas wie eine Null. Aber so richtig zählt das nicht.
Ebenso wenig hatten andere Kulturen ein eigenständiges Symbol für die Zahl Null – zumindest gibt es bislang keine Hinweise darauf. Im antiken Griechenland wurden zwar auch schon allerlei fortgeschrittene mathematische Überlegungen angestellt (man denke nur an den Satz des Pythagoras oder die Grundpfeiler der Logik von Aristoteles), doch eine Null an sich gab es auch da nicht. Das abstrakte Konzept des Nichts war den antiken Griechen durchaus bekannt, sie betrachteten es aber als Teil der Logik. Als Zahl taugte es nicht wirklich; schließlich kann man die Null – im Gegensatz zu allen anderen Zahlen – nicht durch einen Wert teilen. Diese Eigenschaft missfiel den antiken Griechen. Das ist nicht allzu verwunderlich; auch heute noch schließen wir die Null bei der Division aus, zumindest im Nenner.
Erst im 7. Jahrhundert nach Beginn unserer Zeitrechnung führte der geniale indische Gelehrte Brahmagupta die Null als Zahl ein – und mit ihr negative Zahlen, die zuvor ebenfalls nicht genutzt wurden. Vorher wurden mathematische Probleme meist durch geometrische Objekte veranschaulicht. Zum Beispiel könnte man wissen wollen, wie sich zwei rechteckige Felder zu einem in Summe gleich großen quadratischen Stück Land verbinden lassen. Für derlei Aufgaben sind negative Zahlen irrelevant, ebenso wie die Null.
Brahmagupta interessierte sich jedoch auch für solche abstrakten Probleme. Um die neuen Zahlen richtig verwenden zu können, brauchte er allerdings erst ein funktionierendes Regelwerk, das klar vorgibt, wie mit diesen Größen umzugehen ist. So schrieb er beispielsweise in seinem Buch »Brahmasphutasiddhanta«: »Die Summe zweier Positiver ist positiv, die zweier Negativer negativ. Die Summe eines Positiven und eines Negativen ist deren Differenz; wenn sie gleich sind, ist sie null. Die Summe von einem Negativen und null ist negativ, die eines Positiven und null positiv; und die Summe von zwei Nullen ist null.« In ähnlichem Stil beschrieb Brahmagupta auch, wie die neuen Zahlen zu multiplizieren und zu dividieren sind. Die Regeln, die er vor rund 1400 Jahren aufstellte, sind noch dieselben, die wir heute in der Schule lernen – bis auf eine. Er definierte null durch null als null, was aus heutiger Sicht falsch ist.
Die Null breitet sich allmählich ausBrahmaguptas Regeln verbreiteten sich zusammen mit dem indischen Dezimalzahlensystem schnell in der Welt. Arabische Gelehrte griffen die Konzepte auf und entwickelten das arabische Zahlensystem, auf dem unsere modernen Zahlen fußen. Und von dort aus gelangte die Null samt neuer Zahlen nach Europa – allerdings zum denkbar ungünstigsten Zeitpunkt. Denn zwischen dem 11. und 13. Jahrhundert fanden die Kreuzzüge statt. Und mit ihnen gab es eine immense Ablehnung gegen alle Ideen und alles Wissen arabischer oder islamischer Herkunft.
In Florenz gipfelte diese Entwicklung darin, dass die Zahl Null im Jahr 1299 verboten wurde. Damals florierte die Wirtschaft in der italienischen Stadt, Händler aus aller Welt trafen zusammen, um ihre Waren zu verkaufen. Auch die ersten Banken entstanden dort. Und dabei stellte die Null ein echtes Problem dar: Ganz einfach ließ sich eine Zahl auf einem Stück Papier vergrößern, indem man ihr bloß ein paar Nullen hinzufügte. Aus einer 10 wurde schnell mal eine 100 oder gar eine 1000. Das römische Zahlensystem ließ eine solche Manipulation hingegen nicht zu. Deshalb entschloss man sich, die Null zu verbannen und auf die altbewährten römischen Zahlen zu setzen.
Aber
jeder, der schon einmal versucht hat, etwas mit römischen Zahlen
auszurechnen, wird festgestellt haben, wie unfassbar kompliziert und
umständlich das ist. Deshalb musste es so kommen: Irgendwann setzten
sich die arabischen Zahlen inklusive der Null durch. Doch das dauerte.
Erst im 15. Jahrhundert kamen die Konzepte in der breiten
Gesellschaft an.
Ich
finde es immer wieder unglaublich, dass es mehrere Jahrtausende
gedauert hat, bis die Null als für sich stehende Zahl akzeptiert wurde.
Menschen haben sich immer wieder gegen sie gewehrt. Und nun ist ohne sie
nicht nur ein Zahlensystem undenkbar. Tatsächlich gäbe es alle anderen
Zahlen – und die gesamte moderne Mathematik – ohne die Null gar nicht.
Diese Entwicklung verdanken wir unter anderem dem Mathematiker Ernst Zermelo. Der hat zu Beginn des 20. Jahrhunderts das Regelwerk geschaffen, auf dem die heutige Mathematik beruht. Damals suchten Logiker nach möglichst simplen Regeln, aus denen sich alles ableiten lässt, was es in der Mathematik gibt. Ob Zahlen, Gleichungssysteme, Ableitungen oder geometrische Objekte – alles sollte einigen wenigen Grundannahmen entspringen.
Zermelo fand neun einfache Axiome, das heißt
unbewiesene Grundannahmen, auf denen alles aufbaut. Und diese werden bis
heute verwendet. Eines der Axiome lautet: »Es gibt eine leere Menge.«
Das ist so etwas wie die Null der Mengenlehre. Damit fängt alles an, es
ist das »Es werde Licht!« der Mathematik. Und tatsächlich ist das die
einzige Menge, die Zermelo so explizit konstruierte. Die übrigen Regeln
sagen Dinge aus wie, dass man zwei Mengen zu einer dritten Menge
miteinander verbinden oder ein Element aus einer Menge auswählen kann.
Aus
der leeren Menge, der »Null«, folgt alles weitere. Zum Beispiel werden
darüber die Zahlen konstruiert. Dafür hilft es, sich eine Menge wie
einen Sack vorzustellen, in den man Objekte packen kann. Eine leere
Menge entspricht einem leeren Sack. Beim Aufbau der Zahlen begann
Zermelo mit der Null. Sie entspricht der leeren Menge, also einem leeren
Sack. Die Eins ist die Menge, in die man die zuvor definierte Null
hineinpackt, also ein Sack mit einem leeren Sack darin. Die Zwei ist die
Menge mit der 1 und der 0, also ein Sack mit einem Sack, in dem ein
Sack ist, sowie ein zusätzlicher Sack. Die Drei ist dann die Menge mit
der 2, der 1 und der 0 – also ein Sack mit einem Sack mit … Okay, ich
gebe zu, das wird unübersichtlich.
Definition der Zahlen durch die Mengenlehre
Damit hat Zermelo die Grundlagen für ganze Zahlen geschaffen. Von hier aus lassen sich alle weiteren Zahlen definieren, also negative Zahlen, Bruchzahlen, irrationale Zahlen und so weiter. Und auch mathematische Konzepte abseits der Zahlen erhält man auf diese Weise. Nach und nach kann man sich in der Komplexität immer weiterarbeiten, bis man bei den abstraktesten Strukturen der modernen Mathematik landet. Und das alles mit der Null als Startpunkt. Ein Glück, dass die Menschheit irgendwann doch zur Einsicht gekommen ist und sie akzeptiert hat.
Nota. - Ich glaube, Frau Bischoff hat es sich mit ihrer Kolumne noch nie so leicht gemacht: Statt uns das logische Paradox der Null aufzulösen, verschiebt sie es in eine semantische Absurdität. Eine Menge (quantity, quantité) ist groß oder klein, sie enthält viel oder wenig. Enthält sie nichts, ist sie keine Menge.
Wer das verstehen will - wie der Zögling Törleß die Wurzel aus minus Eins -, er-fährt auch hier nichts, was sein Befremden lindert. Man könnte ebensogut sagen, rechnen sei nicht dasselbe wie reden und denken nicht dasselbe wie zählen und Mathematik sei keine Philosophie: Es ist wahr, aber es erklärt nichts.
(Sollte ich schreiben: niemandem nichts? Frau Bischoff schreibt, sie - die Null - habe sich allmählich ausgebreitet. Ich hielt das für einen Kalauer - wars keiner?)
JE
Keine Kommentare:
Kommentar veröffentlichen