Null
Als Zahl
© 2016
- 2025
Basiswissen|
Rechnen mit der Null|
Mal|
Geteilt|
Hoch|
Wurzel|
Zahlenbereiche|
Sonstiges|
Kuriositäten|
Geschichte|
Fußnoten
Basiswissen
Die Null ist eine eigene Zahl und steht für „nichts“ oder eine „leere Menge“. Die Null ist eine reelle, eine rationale, eine ganze und eine gerade Zahl. Sie ist keine Prinmzahl, sie ist nicht natürlich und weder negativ noch positiv. Hier stehen einige Rechenregeln rund um die Null.
Rechnen mit der Null
- Sie gilt üblicherweise nicht als natürliche Zahl ↗
- Sie ist ohne Rest durch 2 teilbar und damit eine gerade Zahl ↗
- Man kann sie ohne Komma schreiben und sie ist somit eine ganze Zahl ↗
- Sie benötigt kein Minus als Vorzeichen und ist damit keine negative Zahl ↗
- Man kann sie als Bruch (0/1) schreiben und sie ist damit eine rationale Zahl ↗
- Sie liegt irgendwo auf der Zahlengeraden und sie ist damit eine reelle Zahl ↗
- Man kann sie als abbrechende Dezimalzahl schreiben, sie ist also keine irrationale Zahl ↗
- Sie gilt üblicherweise auch nicht als eine positive Zahl ↗
Mal
- Mal 0 gibt immer 0, mehr unter mal null ↗
- 0 mal gibt auch immer 0, mehr unter null mal ↗
Geteilt
- Irgendwas durch 0 ist nicht definiert, mehr unter durch null ↗
- 0 durch irgendwas gibt (fast) immer 0, mehr unter null durch ↗
Hoch
- 0 hoch irgendwas gibt (fast) immer 0, mehr unter hoch null ↗
- Hoch 0 gibt (fast) immer 1, mehr unter hoch null ↗
Wurzel
- Die soundsovielte Wurzel aus 0 ist (fast) immer 0.
- Die nullte Wurzel ist nicht definiert, mehr unter nullte Wurzel ↗
Zahlenbereiche
- Die Null ist eine natürliche Zahl [ℕ] ↗
- Die Null ist eine ganze Zahl [ℤ] ↗
- Die Null ist eine rationale Zahl [ℚ] ↗
- Die Null ist eine reelle Zahl [ℝ] ↗
Sonstiges
- Die Null zählt gilt als eine gerade Zahl ↗
- Die Null ist keine positive Zahl ↗
- Die Null ist keine negative Zahl ↗
Kuriositäten
- Die Alten Römer kannten keine Null als Zahl.
- Die römischen Zahlen waren daher umständlich zum Rechnen.
- Die Null als Zahl wurden von indischen Mathematikern "erfunden".
- Zu uns nach Westeuropa kam sie im Mittelalter über die Araber.
- Die Null ist ein wichtiger Baustein einer Dezimalzahl ↗
Geschichte
Die für das Rechnen vielleicht wichtiste Rolle der Null ist die eine Leerstelle in einem sogenannten Stellenwertsystem. Bei einem Stellenwertsystem sagt nicht nur die Ziffer selbst etwas darüber, wie viel man meint, sondern auch wo diese Ziffer steht. Das kann man sich daran deutlich machen, wie Kinder und auch Erwachsene oft große Anzahlen von Dingen, etwa zighundert Erbsen, zählen.
Beim bündelnden Zählen, etwa von Erbsen, kann man die Erbsen erst in Zehnerpäckchen legen, dann fasst man immer 10 Zehnerpäckchen zu einem Hunderterpäckchen zusammen. Am Ende gibt man an, wie viele Hunderter- und wie viele Zehnerpäckchen und wie viele übrig bleibende einzelne Erbsen man hat. Das Ergebnis könnte so aussehen:
- Hunderterpäckchen: 3
- Zehnerpäckchen: 4
- Einer(päckchen): 7
Das heißt, man 3 mal 100 Erbens, zusätzlich dazu noch 4 mal 10 Erbsen und noch mal zusätzlich 7 Erbsen, die kein ganzes Zehnerpäckchen mehr gaben. Um nicht immer aufschreiben zu müssen, für welche Päckchen eine Ziffer steht könnte man vereinbaren:
- Ganz rechts steht immer die Anzahl der losen, päckchenfreien Einer
- Ein weiter links steht dann die Anzahl der Zehnerpäckchen, die kein Hunderterpäckchen mehr ergaben.
- Und noch eins weiter links steht die Anzahl der Hunderterpäckchen.
Also: 347
Wie aber soll man das aufschreiben, wenn es zwar 3 Hunderterpäckchen und 7 lose Einer gibt? Die einfachste Methode wäre es, einfach eine Lücke zu lassen. Diese Methode wählten zum Beispiel die alten Babylonier aus dem Nahen Osten:[1, Seite 66]
Mit Lücke: 3 7
Aber Lücken sind für das Auge nicht immer eindeutig. Wenn man etwas schludrig liest oder etwas schludrig schreibt (so wie manche 7 wie eine 1 aussehen kann), dann schleichen sich leicht Fehler ein. Eine gute Idee wäre es dann, statt einer Leerzeile ein Zeichen zu schreiben, das meint: es gibt gar keine Hunderterpäckchen. Dieses Zeichen ist die Null:
Nochmal: 347
Die Idee mit der Null als Zeichen für nichts, kam erst im 7ten Jahrhundert nach Christus, in der Zeit auf, die man im Bezug auf Westeuropa später "das dunkle Mittelalter" nannte. Die Idee hatte der indische Mathematiker Brahmagupta. In der Zeit der Kreuzzüge, in denen vor allem westeuropäische Ritterhorden Byzanz und den Nahen Osten mehrfach überfielen und dort Gegenden für sich beanspruchten, kam die Idee nach Westeuropa.
Doch nachdem die Null brauchte lange Zeit, bis sie endlich akzeptiert wurde. Noch im Jahr 1299 hat die Stadt Flornz in Italien die Verwendung der Null per Gesetz verboten, da sie im Schriftverkehr leicht zu krassen Fehler führen keine (eine Null zu viel und aus 100 Euro werden 1000 Euro). Erst nach und nach ab dem 15ten Jahrhundert verdrängt die arabische Schreibweise von Zahlen und mit ihr die Verwendung der Null die damals noch üblichen römischen Zahlen.[1, Seite 67]. Siehe dazu auch den Artikel Dezimalzahl ↗
Fußnoten
- [1] Manon Bischoff: Die lange Geschichte der Null. Spektrum der Wissenschaft. 7.25 (Juli 2025). Dort die Seiten 66 und 67.