aus scinexx.de, 7. 1. 2025 Die
Zahl Null hat eine Sonderstellung im Zahlenraum und in der Mathematik –
und sie ist auch in der Geschichte ein Nachzügler zuJochen Ebmeiers Realien
Kinder verstehen das Konzept der Null erst mit rund sechs Jahren und auch in der Geschichte der Zahlen ist die Null ein echter Nachzügler: Bei uns in Europa etab-lierte sie sich erst im späten Mittelalter. Davor waren bei uns weder das Dezimalsys-tem noch die Null als Rechengröße gebräuchlich. Anders war dies dagegen in zwei entgegengesetzten Regionen der Erde: in Indien und in Mittelamerika. Doch war-um haben nur zwei Kulturen sie erfunden? Und wie kam die Null zu uns?
Die Null ist mehr als nur die Abwesenheit von Etwas: In vielen Bereichen unseres Alltags spielt sie eine wichtige, teilweise sogar unverzichtbare Rolle. Umso erstaun-licher, dass viele mathematisch fortgeschrittene Kulturen ohne die Zahl Null aus-kamen. Selbst so berühmte Mathematiker wie Thales, Pythagoras oder Euklid rechneten sehr wahrscheinlich ohne eine Null.

„Heute halten wir es für selbstverständlich, dass das Konzept der Null in der gesamten Welt genutzt wird, es ist ein Grundbaustein unserer digitalen Welt“, erklärt der Mathematiker Marcus du Sautoy von der University of Oxford. „Aber die Erschaffung der Null als eigenständiger Zahl war einer der größten Durch-brüche in der Geschichte der Mathematik.“ Erst durch sie funktioniert unser heutiges Zahlensystem, können wir komplexe mathematische Operationen durchführen oder die Buchhaltung machen. Sie ist der zentrale Bezugspunkt in Koordinatensystemen und bildet in Computern den digitalen Gegenpart zur 1.
Doch warum ist die Null trotz dieser großen Bedeutung ein solcher Nachzügler unter den Zahlensymbolen und Zahlen? Was macht sie besonders? Um dies nachzuvollziehen, müssen wir uns zunächst anschauen, was genau die Null eigentlich ist. Denn obwohl sie immer gleich aussieht, hat die Null je nach Kontext ganz verschiedene Funktionen.
Die erste Aufgabe der Null ist die eines Platzhalters und Wertgebers in unserem Dezimalsystem. Erst ihre Präsenz macht beispielsweise den 100-Euro-Schein wertvoller als die 10-Euro-Banknote. Sie unterscheidet aber auch das Jahr 2025 vom Jahr 225 oder eine Länge von 100 Millimetern von 0,01 Millimetern. In all diesen Beispielen dient die Null als Anzeiger und Platzhalter für eine Dezimalstelle. Fehlt sie, verändert dies den Wert der Angaben erheblich. Die Null ist daher für das dezimale Stellenwertsystem der Moderne unverzichtbar.

Doch in vielen früheren Kulturen – und noch bis ins frühe Mittelalter hinein – war dies völlig anders. Eine Null war damals nicht nur unbekannt, sie war auch schlicht nicht nötig. Ein Beispiel sind die antiken Griechen. In ihrem milesischen Zahlensystem stand jeweils ein Buchstabe des griechischen Alphabets für die Zahlen von 1 bis 9, 10 bis 90 und 100 bis 900. Durch die Kombination dieser Buchstaben ließ sich jede beliebige Zahl bis 999 darstellen. Für noch höhere Zahlen ergänzte man die Buchstaben durch einen kleinen Haken, der anzeigte, dass diese Zahl mit tausend zu multiplizieren sei.
Durch dieses alphabetische System benötigte man keine Dezimalplatzhalter – und damit auch keine Nullstelle. Die Zahlen 303 und 330 waren im griechischen System beispielsweise τ γ (Tau Gamma = 300 + 3) und τ λ (Tau Lambda = 300 + 30). Nach diesen Regeln rechneten alle großen Mathematiker der griechischen Antike. Noch heute werden diese Alphabet-Zahlen in Griechenland beispielsweise für die Bezeichnung der Klassenstufen verwendet.

Auch das zweite große Zahlensystem der europäischen Antike – das der Römer – kam ohne Null aus. Denn auch dieses war kein Stellenwertsystem wie unser Dezimalsystem. Stattdessen nutzten die Römer ein additives System. Dabei standen Buchstaben nur für bestimmte runde Zahlen: I für 1, V für 5, X für 10, L für 50 oder C für 100. Die dazwischenliegenden Werte wurden durch eine Kombination dieser Symbole dargestellt – je nach Position wurde diese addiert oder subtrahiert. VII steht beispielsweise für sieben (5+2), IX dagegen für neun (10 – 1).
Das Zahlensystem der Römer wurde bei uns in Mitteleuropa noch bis ins 16. Jahrhundert verwendet – folglich verwendeten auch unsere mittelalterlichen Vorfahren noch keine Null. Sie schrieben Jahreszahlen, Münzwerte oder auch Rechenergebnisse mit den römischen Symbolen. Und sogar bis heute ist diese Null-lose Schreibweise auf Gebäuden, auf Uhrenzifferblättern oder bei der Kapitelzählung in Büchern zu sehen.
Doch wie kam die Null dann zu uns? Und wer hat die Null als Platzhalter erfunden? Diese Geschichte umspannt die halbe Welt, mehrere Kulturen und rund zwei Jahrtausende…
Die Suche nach den Ursprüngen der Null beginnt im alten Mesopotamien – bei den Hochkulturen der Sumerer und Babylonier. Sie erbauen schon vor rund 4.000 Jahren die ersten Großstädte, entwickeln die früheste Schrift und verfügen über ein fortgeschrittenes Wirtschaftssystem samt Buchhaltung. Auf Keilschrifttafeln und tönernen Etiketten verzeichnen sie akribisch, wie viele Ziegen, Getreidesäcke oder Ölgefäße den Besitzer wechseln.

Um ihre Besitztümer und Transaktionen zu dokumentieren, verwenden die Babylonier ein eine Mischung aus additivem und Stellenwertsystem. Dabei ergeben sich Zahlen bis 59 aus der Kombination der Keilschriftsymbole Eins und Zehn. Das Zeichen für Eins kann aber je nach Kontext auch für 60 oder 360 stehen. Auf dieses Hexagesimalsystem geht noch heute unsere Zeitzählung in Sekunden, Minuten und Stunden zurück.
„Man könnte denken, dass mit der Erfindung eines solchen Stellenwertsystem auch die Null als Platzhalter notwendig wurde“, sagt John O’Connor von der University of St. Andrews in Großbritannien. Denn auf den ersten Blick sehen beispielsweise die Zahlen drei und 62 in dieser Keilschriftnotation identisch aus: Sie bestehen jeweils aus drei Einer-Symbolen. Nur eine Lücke zwischen der ersten Eins, die für 60 steht, und den beiden folgenden Einsen zeigt an, dass hier 62 gemeint ist. „Dennoch gibt es keinerlei Anzeichen dafür, dass die Babylonier dies als Problem empfanden. Sie kamen mehr als tausend Jahre ohne die Null aus“, sagt O’Connor.
Das ändert sich erst um etwa 800 vor Christus. Um diese Zeit beginnen babylonische Astronomen und Mathematiker zunehmend, kleine Platzhalterzeichen in die Lücke zwischen der Einer- und 60er-Stelle zu setzen – manchmal zwei kleine Keilschriftmarken, manchmal nur eine oder auch drei. Allerdings gibt es einen wichtigen Unterschied zur Null in unserem Dezimalsystem: Diese Keilschriftmarken dienen nur als Trenner, tauchen aber niemals am Ende einer Zahl auf, wie bei uns die Nullen bei 10.000.
„Wir sehen daran, dass diese frühe Nutzung der Null als Platzhalter noch nichts mit der Zahl Null zu tun hatte. Sie war nur eine Art Satzzeichen, das die korrekte Interpretation der Zahlsymbole sicherstellte“, erklärt O’Connor.

Für die Suche nach der ersten Null als vollwertiger Dezimalstelle und Wertgeber müssen wir erneut Zeit und Erdteil wechseln. Denn der Ursprung „unserer Null“ liegt in Indien. Dort beschäftigen sich Gelehrte schon vor rund 2.500 Jahren mit mathematischen Gesetzmäßigkeiten und entwickeln auch eine Faszination für große Zahlen, die Unendlichkeit und ein Konzept der Null – zunächst jedoch nur in geschriebenen Texten. Dort wird das Wort „Sunya“ – Sanskrit für Leere – allmählich auch auf die Zahlenwelt übertragen.
Um das erste Jahrhundert unserer Zeit herum – möglicherweise aber auch schon früher – gibt es in Indien bereits ein Dezimalsystem. In einem Text aus dieser Zeit erklärt der Philosoph Vasumitra die Zählweise der damaligen Händler so: „Wenn die Ton-Zählmarke an der Einerstelle liegt, zählt sie als Eins, wenn sie am Hunderterplatz liegt, als 100.“ Allerdings bleibt zunächst unklar, ob es in diesem System schon eine Null als Platzhalter gibt.
Erste eindeutige Zeugnisse einer Null im indischen Dezimalsystem liefern erst rund 400 Jahre später Schriften des indischen Astronomen Aryabhata und des Mathematikers Brahmagupta. Beide erklären in ihren Texten den korrekten Umgang mit dem Dezimalsystem und beschreiben auch ein Symbol für die Null als Platzhalter und wie es eingesetzt wird.
Doch wie sieht diese indische Null aus? Dies verraten zwei in diesem Kontext berühmte archäologische Funde. Der erste ist eine Steininschrift, die ein französischer Archäologen im Jahr 1931 im altindischen Tempelkomplex Sambor in Kambodschia entdeckte. Auf einer Steinstele fiel ihm eine Sanskrit-Inschrift auf, die eine Art Rechnung zu sein schien: Sie beschreibt den Verkauf von fünf Paar Ochsen, Säcken mit weißem Reis sowie Sklaven.
Das Besondere jedoch: Die Inschrift auf dieser K-127 getauften Stele trägt ein Datum – das Jahr 605 in indischer Zeitrechnung, entsprechend dem Jahr 683 in unserer. Und als mittlere Dezimalstelle in dieser Zahl erscheint ein runder Punkt – eine Null. Sie gilt als frühester eindeutiger Beleg für die Verwendung der Null als Dezimalstelle. Einige Jahrhunderte später wandelt sich dieser Punkt dann zu einem Kreis – und unsere heutige Null ist geboren. Mit ihr beginnt die Ära des modernen Dezimalsystems und es wird nun erstmals möglich, selbst sehr große Zahlen einfach zu notieren – man fügt einfach entsprechend viele Nullen an.
Doch anfangs ist auch die indische Null kaum mehr als eine Dezimalstelle und ein Wertgeber. Wann aber wurde sie zur mathematischen Größe?
Die Null ist nicht nur ein Wertgeber in unserem Dezimalsystem – sie ist auch eine mathematische Größe. Sie steht für die kleinste mögliche Menge – eine leere Menge – und hat einen eigenen Platz im Zahlenstrang. Allerdings hat sie eine Sonderrolle sowohl unter den Zahlen als auch in mathematischen Operationen.

Die Null hat eine zentrale Position im Zahlenstrang: Sie trennt die negativen von den positiven Zahlen, ist aber selbst weder das eine noch das andere – oder aber beides zugleich. In der binären Welt digitaler Computer gibt es sogar zwei Versionen der Null, eine mit positivem, eine mit negativem Vorzeichen. So steht bei vielen Gleitkommazahlen eine 0000 0000 für eine positive Null, eine 1000 0000 dagegen für eine negative Null. Letztere tritt beispielsweise auf, wenn negative Zahlen auf null gerundet werden.
In der Mathematik gilt die Null als vollwertige ganze Zahl und damit auch als eine der rationalen Zahlen. Sie kann wie alle anderen rationalen Zahlen als Bruch ausgedrückt werden: 0/1 = 0. Aber wie ist das mit ihrer Zuordnung zu den geraden oder ungeraden Zahlen? Eigentlich dürfte die Null weder noch sein, weil sie ja eine Leere kennzeichnet. Rein formal jedoch erfüllt die Null die Kriterien für eine gerade Zahl: Sie ist theoretisch durch zwei teilbar, auch wenn dabei Null herauskommt. Deshalb gilt Null als gerade Zahl.
In vielen mathematischen Fachgebieten spielt die Null eine besondere Rolle. Sie bildet im Koordinatensystem den zentralen Kreuzungspunkt der Achsen, in der Wahrscheinlichkeitsrechnung ist sie der kleinstmögliche Wert. Und auch beim Rechnen gelten für die Null einige Sonderregeln. So ergibt die Multiplikation einer Zahl mit Null immer Null, ebenso das Teilen der Null durch eine Zahl. Auch eine Null zum Quadrat oder mit anderem Exponenten bleibt Null. Undefiniert und damit gewissermaßen verboten ist dagegen das Teilen einer Zahl durch Null.
„Die Null ist ein vielseitiges mathematisches Objekt: ein Symbol, eine Zahl, eine Größe, ein Richtungstrenner und ein Platzhalter. Eine solche Null wurde in der Weltgeschichte nur zweimal erfunden“, erklärt George Gheverghese Joseph von der University of Manchester. Doch seit wann ist die Null ein solcher mathematischer Tausendsassa?

Klar scheint, dass die Null als eigenständige Zahlengröße weder bei den frühen Babyloniern, noch später bei Griechen und Römer gebräuchlich ist. Einzige Ausnahme sind einige antike Astronomen, darunter Ptolemäus. Sie verwenden für ihre astronomischen Koordinatenangaben und Kalkulationen bereits ein Nullsymbol, nutzen es aber nur „intern“: Die Ergebnisse ihrer Berechnungen übersetzen sie wieder in die gängige griechisch-römische Notation und tilgen so die Null. Sie beibt eine Ausnahmeerscheinung.
Im alten Ägypten hingegen gibt es einen ersten Vorläufer der mathematischen Null, wie die Aufzeichnungen eines Buchhalters aus der Zeit um 1700 vor Christus verraten. In seiner Abrechnung taucht immer dann eine spezielle Hieroglyphe auf, wenn Ausgaben und Einnahmen ausgeglichen sind und kein Rest übrigbleibt. Dann steht dort das Symbol „nfr“ (135. Das gleiche Symbol findet sich in Bauzeichnungen von ägyptischen Gräbern und Pyramiden, um eine horizontale Referenzlinie zu kennzeichnen – quasi die Null-Ebene. Wirklich gerechnet haben die Ägypter aber mit diesem Nullsymbol noch nicht.

Tatsächlich ist die mathematische Null eine echte Rarität: „In der Weltgeschichte taucht ein solche Null nur zweimal auf“, berichtet George Joseph. „Einmal in Indien, von wo aus sie zur Grundlage für unsere heutige allgegenwärtige Null wurde und das zweite Mal, komplett isoliert von anderen Kulturen, bei den Maya in Mittelamerika.“ In beiden Fällen ist die Erfindung und Verwendung der Null eng mit der großen Bedeutung der Astronomie und der Berechnung von Kalenderdaten verknüpft.
„Im Fall der Maya beruht diese Obsession auf der Angst, dass die Welt enden würde, sofern man den Göttern nicht systematisch zu bestimmten Zeiten des Jahres Menschenopfer darbringt“, erklärt Joseph. Schon um 400 vor Christus nutzen die Maya-Priester daher ein komplexes System von drei miteinander verzahnten Kalendern – und in diesem taucht auch die Zahl Null auf. Ihr Symbol ähnelt einem stilisierten Schneckenhaus. Diese Null wird von den Maya sowohl als Platzhalter in ihrem Stellenwert-Zahlensystem als auch als Zahl in Rechnungen genutzt.
Doch mit dem Niedergang des Mayareichs geraten auch die astronomischen und mathematischen Errungenschaften dieser präkolumbischen Kultur in Vergessenheit – und mit ihnen das revolutionäre Konzept der Null.
Anders ist dies auf der anderen Seite der Erde – in Indien. „In Indien glaubte man an einen nie endenden Zyklus von Wiedergeburten und strebte danach, diesen Kreislauf zu durchbrechen, um Erlösung zu finden“, erklärt Joseph. Dadurch entsteht das Interesse an Astronomie, Kalendersystemen und Mathematik. Schon früh erweitert sich dabei die Rolle der Null vom bloßen Platzhalter im Dezimalsystem zu einer eigenständigen mathematischen Größe.

Schon um das Jahr 500 könnte der indische Mathematiker und Astronom Aryabhata das Konzept einer solchen mathematischen Null entwickelt haben. Der erste eindeutige Beleg stammt jedoch von seinem Nachfolger Brahmagupta. In seinem Lehrtext zur Arithmetik aus dem Jahr 628 ordnet dieser die Null weder den positiven noch negativen Zahlen zu, sondern sieht sie als Trenner zwischen beiden Zahlenräumen.
„Er war die erste Person, die versuchte, die Arithmetik auf negative Zahlen und die Null anzuwenden“, erklärt John O’Connor von der University of St. Andrews. Brahmagupta zufolge bleibt der Zahlenwert einer zu Null addierten Zahl gleich, für die Subtraktion gelten jedoch spezielle Regeln: „Wird eine negative Zahl von Null abgezogen, ist das Resultat positiv, zieht man eine positive Zahl von Null ab, ergibt dies eine negative Zahl“, schreibt Brahmagupta.
Der indische Mathematiker erklärt auch, dass die Multiplikation einer Zahl mit Null immer Null ergibt. Auch beim Dividieren der Null durch eine Zahl kommt immer Null heraus. Allerdings: Beim Teilen durch Null drückt sich Brahmagupta um eine eindeutige Antwort. Er schreibt: „Beim Teilen einer positiven oder negativen Zahl durch Null ist das Ergebnis ein Bruch mit der Null als Nenner.“ Heute gilt diese Rechenoperation als nicht zulässig, weil undefiniert.

Als ältestes schriftliches Zeugnis des indischen Rechnens mit Null gilt das Bakshali-Manuskript. Dieser auf 70 Seiten aus Birkenrinde geschriebene Text umfasst eine Sammlung mathematischer Regeln sowie Beispiele und Erklärungen dazu. In den Kalkulationen taucht das Punktsymbol der Null hunderte Male auf – nicht nur als Dezimalstelle, sondern an einigen Stellen auch als eigenständige Zahl. Im Jahr 2017 hat eine Neudatierung des Bakshali-Manuskripts ergeben, dass seine ältesten Seiten schon aus der Zeit zwischen 223 und 383 stammen.
Damit sind die Nullen in diesem indischen Mathematik-Lehrwerk der älteste Beleg für die Null, so wie wir sie kennen. „Die Erschaffung der Null als eigenständige Zahl war eine der größten Durchbrüche in der Geschichte der Mathematik – und sie entwickelte sich aus dem Punkt, wie er im Bakshali-Manuskript zu sehen ist“, erklärt Marcus du Sautoy von der University of Oxford.
Aber wie kam die Null aus Indien zu uns?
In der Geschichte der Null ist Europa ein „Late Adopter“: Noch bis vor rund 500 Jahren ist diese besondere Zahl bei uns weitgehend unbekannt. Und auch der Weg der Null von Indien zu uns dauerte Jahrhunderte und erforderte einige Umwege.

Die erste Etappe dieser Reise legt die indische Null mit arabischen Seefahrern und Gewürzhändlern zurück. Diese überqueren schon vor mehr als 4.000 Jahren den Indischen Ozean und treiben jahrtausendelang Handel mit der Indus-Kultur und den Völkern an der Westküste des Subkontinents. Vor rund 1.300 Jahren gelangen so auch indische Manuskripte und Lehrwerke über Astronomie und Mathematik die arabische Welt – und mit ihnen die Null.
In Bagdad studiert der aus Zentralasien stammende Mathematiker und Universalgelehrte Mohammed al-Chwarizmi diese aus Indien kommenden Manuskripte. Er ist von der Fülle an neuen Erkenntnissen so begeistert, dass er im Jahr 826 sogar ein eigenes Buch über die indische Zahlschrift verfasst. In ihr beschreibt er das indische Dezimalsystem und führt die Zahl Null auch in das arabische Zahlsystem ein. Im Arabischen erhält die Null die Bezeichnung Sifr. Von diesem Begriff leitet sich das heutige „Zero“ im Englischen und Französischen ab.
Im Jahr 830 veröffentlicht al-Chwarizmi ein weiteres Lehrbuch, diesmal zur Algebra. In ihm stellt er Regeln für das systematische Lösen von Gleichungen auf und revolutioniert damit die mathematische Herangehensweise. Bis heute geht der Begriff „Algorithmus“ auf eine Fehlübersetzung des Namens al-Chwarizmi zurück.

Die Ausbreitung der Null in der arabischen Welt ermöglicht ihr einen ersten Abstecher nach Europa: Mit den Mauren gelangen ab dem achten Jahrhundert auch arabische Lehrbücher auf die Iberische Halbinsel. Dort kommen nun auch europäische und jüdische Gelehrte erstmals mit der arabischen Zahlenwelt in Kontakt. Unter ihnen ist der jüdische Schriftsteller Abraham ben Meir ibn Esra, der weite Teile des maurischen Spanien bereist und auch Reisen nach Nordafrika unternimmt. Ibn Esra übersetzt Bücher aus dem Arabischen ins Hebräische, darunter neben Grammatik-Abhandlungen auch astrologische und mathematische Traktate.
Diese Schriften verbreiten sich auch in den jüdischen Gemeinden der anderen Länder Europas, einige werden ins Französische und lateinische übersetzt. Aber noch kann die Null in Europa nicht Fuß fassen: Diese ersten Übersetzungen bleiben meist unbeachtet und in Spanien beendet die Reconquista – die christliche Rückeroberung der Iberischen Halbinsel – die Herrschaft der Mauren. Damit verschwindet auch ihr mathematisches Wissen wieder aus dem christlichen Europa.
Den nächsten Vorstoß verdankt die Null dem Sohn eines italienischen Import-Händlers und Zollbeamten: Leonardo von Pisa, besser bekannt als Fibonacci. Nach diesem um 1170 in Pisa geborenen Mathematiker ist die von ihm beschriebene Fibonacci- Zahlenreihe benannt. Aber noch bedeutender ist sein Beitrag zu unserem Zahlensystem. Denn Fibonacci reist schon früh mit seinem Vater nach Nordafrika und lernt dort das indisch-arabische Zahlensystem kennen. Der aufgeweckte junge Mann erkennt schon bald, dass dieses Dezimalsystem erhebliche Vorteile gegenüber dem in Europa gängigen römischen System hat.

1202 veröffentlicht Fibonacci sein bahnbrechendes Werk „Liber Abaci“. In diesem lateinischen Lehrbuch über Arithmetik führt der Mathematiker in das indisch-arabische Dezimalsystem ein. Er erklärt: „Mit diesen neun Ziffern und dem Zeichen Null, das die Araber Zephir nennen, lässt sich jede beliebige Zahl schreiben.“ Anschließend demonstriert Fibonacci in Beispielrechnungen, welche praktischen Vorteile das neue Dezimalsystem hat – beispielsweise im kaufmännischen Rechnen, beim Umtausch von Währungen oder in der Mathematik.
Damit ist die Null in Europa angekommen. Vor allem Kaufleute und einige Wissenschaftler erkennen die Vorteile des Rechnens mit Dezimalzahlen schnell: Bislang war für kompliziertere Rechnungen immer ein Abakus nötig – ein Hilfsmittel aus Perlen auf Drähten oder Schnüren. Mit ihm ermittelt man durch Hin- und Herschieben die Ergebnisse, bevor man sie dann in römischen Ziffern niederschreibt. Dank des neuen Zahlensystems ist das jedoch nicht mehr nötig: Man kann schriftliche Rechnungen nun ohne Abakus durchführen.
Trotzdem setzen sich das Dezimalsystem und die Null nur zögerlich durch. Es formiert sich Widerstand gegen diese Neuerung: Viele Gelehrte und offiziellen Stellen halten hartnäckig am römischen System und am Bakus fest. Diese „Abakisten“ lehnen das indisch-arabische System als fremdländisch und noch dazu unchristlich ab. Noch fast 400 Jahre lang rechnen daher selbst wegweisende Mathematiker wie Gerolamo Cardano beharrlich weiter mit römischen Ziffern.
Das ändert sich erst im 16. Jahrhundert – unter anderem durch Adam Ries, den „Vater des modernen Rechnens“. Er verfasst erstmals mehrere Mathematik-Lehrbücher auf Deutsch und macht sie damit einer breiteren Öffentlichkeit zugänglich. Wie schon Fibonacci demonstriert auch Riese, um wie viel einfacher das Rechnen mit dem indisch-arabischen Zahlensystem wird. Damit ist es endlich geschafft: Nach ihrer langen Reise aus Indien hat sich die Null nun auch in Europa durchgesetzt.
Die Null hat eine besondere Rolle unter den Zahlensymbolen und beim Rechnen – aber wie ist das für unser Gehirn? Klar ist, dass unser Sinn für Zahlen und Mengen tiefe biologische Wurzeln hat. So können menschliche Säuglinge schon kurz nach der Geburt Mengen abschätzen und einfache Berechnungen durchführen. Und auch viele Tiere können zählen, darunter Elefanten, Tauben, Krähen, Tintenfische und sogar Honigbienen. Diese scheinen sogar das Konzept der Null zu verstehen, wie Experimente nahelegen.

Es verwundert daher nicht, dass auch unser Gehirn eigene Schaltkreise für den Umgang mit Zahlen entwickelt hat. In unseren Schläfenlappen sitzen beispielsweise spezielle Zählneuronen, die beim Anblick von Punktmengen, aber auch von in Ziffern geschriebenen Zahlen feuern. Dabei verändern sich Taktrate und Gruppe der aktiven Neuronen in Abhängigkeit von der jeweiligen Zahl.
Ebenfalls im Schläfenlappen liegen Areale, die beim Rechnen anspringen. Addition und Subtraktion aktivieren dort unterschiedliche Teile des Hippocampus – dem Gedächtniszentrum unseres Gehirns. Und noch etwas haben Hirnscans gezeigt: Unser Denkorgan verarbeitet größere und kleinere Zahlen in getrennten Hirnhälften: größere Zahlenwerte links, kleinere rechts.
Aber wie sieht es mit der Null aus? Sie scheint für unser Gehirn eine größere Hürde zu sein als „normale“ Zahlen. So können Kinder zwar schon früh zählen, das Konzept der Null als kleinster Zahl verstehen sie aber erst mit etwa sechs Jahren. Und selbst im Erwachsenenalter hat unser Gehirn mit der Null mehr Mühe, wie längere Reaktionszeiten und höhere Fehlerraten in Tests nahelegen. Aber warum?

Um herauszufinden, wie und wo unser Gehirn die null verarbeitet, haben Neuroforscher im Jahr 2016 zunächst am Beispiel von Rhesusaffen untersucht. Sie zeichneten die Hirnaktivität der Tiere auf, während diese Punktmengen von Null bis vier erkennen und sortieren sollten. Dabei zeigte sich: Normale Zahlen lösten eine Reaktion im Scheitellappen der Affen aus, bei einer leeren Menge blieben die dortigen Neuronen stumm. Für sie war da einfach ein Nichts ohne quantitative Bedeutung.
Das Überraschende jedoch: Ein zweites, übergeordnetes Hirnareal reagierte sehr wohl auf die Null. Die Neuronen im präfrontalen Cortex der Rhesusaffen feuerten sowohl bei der Null als auch bei anderen Mengen. Für sie war das „Nichts“ demnach Teil der mentalen Zahlenreihe. „Diese Ergebnisse sprechen für eine zweischrittige Hierarchie in der Verarbeitung: Auf Weg vom Scheitellappen zum präfrontalen Cortex wird die leere Menge nach und nach aus dem rein visuellen Kontext gelöst und in das numerische Kontinuum eingeordnet“, erklärt Studienleiter Andreas Nieder von der Universität Tübingen.
Aber wie sieht es bei uns Menschen aus? Reagiert auch unser Denkorgan anders auf die Null als auf „normale“ Zahlen? Das hat ein Team um Esther Kutter von der Universität Bonn im Jahr 2024 genauer untersucht. Ihre Testpersonen waren Epilepsiepatienten, denen vor ihrer Operation haarfeine Elektroden in den Schläfenlappen implantiert worden waren – in die Hirnregion, in der auch Zahlen und Rechenaufgaben verarbeitet werden. Das Team konnte dadurch direkt mitverfolgen, wie diese Hirnregion auf den Anblick von Punktmengen oder Ziffern zwischen null und neun reagierte.
Und tatsächlich: „Dabei fanden wir auch Hirnzellen, die spezifisch nur bei der leeren Menge feuerten“, berichtet Kutter. Das menschliche Gehirn besitzt demnach nicht nur eigene Neuronen für die verschiedenen normalen Zahlen, sondern auch für die Null. Daraus schließen die Forschenden, dass das Konzept der Null in unserem Gehirn keine eigene, vom restlichen Zahlenraum isolierte Einheit darstellt. Stattdessen wird die Null offenbar mit in den Zahlenstrang einsortiert – sie bildet sein unteres Ende.
Allerdings gibt es trotzdem eine Besonderheit: „Die Hirnzellen reagierten entweder auf die arabische Ziffer Null oder auf die leere Menge, nicht jedoch auf beides“, berichtet Kutter. Unsere neuronalen „Null-Detektoren“ sind demnach formatspezifisch. Das zeigte sich auch, als das Team die Fehlerraten und Reaktionszeiten ihrer Probanden bei Tests mit Ziffern versus Punktmengen verglich: „Die Reaktion auf die leere Menge stach heraus, weil dabei signifikant höhere Fehlerraten und längere Reaktionszeiten auftraten“, berichten die Forschenden. Bei der Ziffer Null traten diese Auffälligkeiten jedoch nicht auf.
Demnach fällt es unserem Gehirn leichter, die Ziffer Null zu verarbeiten als das, wofür sie steht – eine leere Menge. Nach Ansicht der Neurowissenschaftler liegt dies daran, dass die abstrakten Zahlensymbole die fundamentalen Unterschiede zwischen dem Etwas und dem Nichts verwischen. „Die symbolische Repräsentation kann die Außenseiterrolle der Zahl Null offenbar ausgleichen“, erklären Kutter und ihr Team.
Keine Kommentare:
Kommentar veröffentlichen