A B C D E F G H I J K L M N O P Q R S T U V W X Y Z 9 Ω
Das Banner der Rhetos-Website: zwei griechische Denker betrachten ein physikalisches Universum um sie herum.

Bremermann-Grenze

Informatik

© 2025




Definition


Als Bremermann-Grenze bezeichnet man die maximale Rechengeschwindigkeit, üblicherweise angegeben in Bit pro Sekunde, die ein optimaler Computer mit der Masse M erreichen kann. Probleme, die schnellere Rechnungen erfordern, sind dann mit einem solchen Computer nicht zuverlässig lösbar.

Berechnung


Hans Joachim Bremermann war ein deutsch-amerikanischer Mathematiker und Physiker. Sein hauptsächliches Interesse lag in der Simulation evolutionärer Abläufe. Im Jahr 1962 veröffentlichte er seine Idee, dass ein Rechensystem, das auf einer rein materiellen Grundlage arbeitet eine bestimmte Grenze an Rechengeschwindigkeit nicht überschreiten könne.


ZITAT:

"Ich werde eine Vermutung vorstellen, dass es eine höchstmögliche Rate gibt mit der Datenverarbeitung voranschreiten kann. Diese maximale Rate gilt für alle Datenverarbeitungssysteme, ganz gleich ob menschengemacht oder biologisch."[1]


Für die Berechnung griff Bremermann auf Konzepte aus der Quantenphysik, erkennbar am h in seiner Formel und der Relativitätstheorie, erkennbar am Term mc² zurück. In der Literatur zur Bremermann-Grenze wird die Masse meist mit einem großen M bezeichnet. Bremermann selbst hat in seiner originalen Veröffentlichung ein kleines m verwendet. Das soll hier beibehalten werden. Weder im Originalartikel von Bremermann noch in späteren Veröffentlichungen zu dem Thema konnte ich ein Formelzeichen für die Bremermanngrenze finden. Für den Artikel hier verwende ich dafür das neutrale C für die Kapazität in bit pro Sekunde.[4]

Historische Formel

  • Cₘₐₓ = mc²/h

Legende

  • Cₘₐₓ die Bremermann-Grenze, z. B. in Bit pro Sekunde

Beispiel

Bremermann selbst hat seine Formel auf einen Computer mit der Masse von einem Gramm angewandt. Er hat darauf hingewiesen, dass reale Computer weniger Rechenleistung hätten, aber, so Bremermann, seine Formel soll auch nur eine theoretische Obergrenze angeben. Für den Ein-Gramm-Computer rechnet man:

Einsetzen

  • m = 0,001 kg
  • c = etwa 3·10⁸ m/s
  • h = 6,62607015·10⁻³⁴ Js

Berechnen

  • Cₘₐₓ = 0,001 kg · (3·10⁸ m/s)² / (6,62607015·10⁻³⁴ Js) | Klammer auflösen
  • Cₘₐₓ = 0,001 kg · 9·18¹⁶ m²/s² / (6,62607015·10⁻³⁴ Js) | Nutzen von Zehnerpotenzen ↗
  • Cₘₐₓ = 1·10⁻³ kg · 9·18¹⁶ m²/s² / (6,62607015·10⁻³⁴ Js) | sortieren
  • Cₘₐₓ = 9:6,62607015 mal 10⁻³·10¹⁶·10³⁴ kg·m²/(s²·J·s) | vereinfachen
  • Cₘₐₓ ≈ 1,5·47 kg·m²/(s³·J) | mit J = kg·m²/s²
  • Cₘₐₓ ≈ 1,5·47 kg·m²/(s³·kg·m²/s²) | Einheiten kürzen
  • Cₘₐₓ ≈ 1,5·47·s⁻¹

In seiner originalen Veröffentlichung hat Bremermann den Wert wahrscheinlich auf ganze Zahlen gerundet. Für die Rechenrate eines bestmöglichen, rein theoretischen Computers schreibt er:


ZITAT:

"Kein Datenverarbeitungssystem, ganz gleich ob künstlich oder lebend, kann man als 2·10⁴⁷ Bits pro Sekunde pro Gramm verarbeiten."[5]


Physik


Bremermann hat den ersten Abschnitt seiner Veröffentlichung aus dem Jahr 1962 übertitelt mit "Limitations On Data Processing Arising From Quantum Theory", auf Deutsch so viel wie: quantenphysikalische Schranken der Datenverarbeitung.

Bremermann geht zunächst davon aus, dass Computer eine physikalische Darstellung von Information benötigt. In Übereinstimmung mit John von Neumann bezeichnet Bremermann solche Darstellung als Marker. Als Beispiele nannte er die An- oder Abwesenheit eines Loches in einer Lochkarte, den Status eines Flip-flops, die Magnetisierung eines Ferritskerns auf einem Magnetband und einige mehr.

Verallgemeinert geht Bremermann dann davon aus, dass es Energieniveaus (energy levels) von irgend etwas ist, das die Information speichert. Die maximale Menge Energie, in die man eine Masse m verwandeln kann, ist durch Einteins Formel E=mc² gegeben.[6] So gelangt der Term aus Einsteins Relativitätstheorie in die Informatik.

Energie ist aber in Verbindung mit der Zeit t eine sogenannte komplementäre Größe im Sinne der Quantenphysik: je kleiner ein Zeitraum ist, desto weniger genau und damit auch weniger zuverlässig ist die Energie.[7] Das wiederum setzt dem physikalischen System, das über Energieniveaus Information kodieren soll, eine Grenze der Zuverlässigkeit. Der physikalische Hintergrund ist hier Heisenbergs Unschärferelation. Über diese kommt auch die Planck-Konstante h mit in die Berechnung hinein. Im Zuge von thermodynamischen Überlegungen spielt dann auch die Entropy noch eine Rolle.

Kombinatorische Explosion


Bremermann verbindet seine Gedanken zur Begrenzeit physikalischer Rechensysteme dann mit der Idee einer mathematischen Funktion. Er geht von einer Funktion f(x₁, … xₙ) aus. Der Funktionswert f darf im Beispiel eine beliebige reelle Zahl sein. Die Argumente der Funktion, also x₁, x₂, x₃, x₄ und so weiter bis hin zu xₙ aber sind zunächst auf die Werte 0 und 1 beschränkt.

Ein sehr einfaches Beispiel wäre f(x₁, x₂, x₃) = 1x₁ - 2x₂ + 3x₃. Angenommen, man sucht die Kombination Argumenten, also eingesetzten Zahlen, bei denen der Funktionswert am größten wird. Dann muss man nur alle Möglichkeiten durchrechnen und sich am Ende das größte Ergebnis heraus suchen. Machen wird das einmal "von Hand". Es gibt nur acht Möglichkeiten, Nullen und Einsen auf verschiedene Weise in einer Dreierkette anzuordnen:

  • f(0; 0; 0) = 1·0 - 2·0 + 3·0 = -0
  • f(0; 1; 0) = 1·0 - 2·1 + 3·0 = -2
  • f(0; 0; 1) = 1·0 - 2·0 + 3·1 = +3
  • f(0; 1; 1) = 1·0 - 2·1 + 3·1 = +1
  • f(1; 0; 0) = 1·1 - 2·0 + 3·0 = +1
  • f(1; 1; 0) = 1·1 - 2·1 + 3·0 = -1
  • f(1; 0; 1) = 1·1 - 2·0 + 3·1 = +4
  • f(1; 1; 1) = 1·1 - 2·1 + 3·1 = +2

Man erhält den maximalen Funktionswert, nämlich die positive Zahl 4, wenn man für x₁ die 1, für x₂ die Null und für x₃ wieder eine 1 einsetzt. Für den hier entwickelten Gedanken ist es wichtig, dass man oft keine Formel hat, mit der man den größten Funktionswert finden kann. Bei vielen Funktionen kann man die sogenannten Hochpunkte mit Hilfe von Ableitungen finden.[8] Aber nicht bei allen Funktionen geht das. Und wenn es nicht geht, bleibt oft nur der Weg, alle Funktionswerte zu berechnen und den größten dann heraus zu suchen. Zu diesem enorm schnellen Anwachsen von Möglichkeiten, siehe auch den Artikel über die sogenannte kombinatorische Explosion ↗

Evolution


Nun argumentiert Bremermann, dass man die Aufgabe von eine kleine Anzahl von Funktionsargumenten noch auf diesem Weg lösen kann. Wenn die Funktion aber 30 Argumente hat, also der Form f(x₁, x₂, x₃, … x₃₀) ist, dann gibt es schon 2³⁰ Möglichkeiten, etwa eine Milliarde, die man berechnen müsste. Die Anzahl steigt sehr schnell ins Astronomische an. Und recht schnell benötigen dann auch moderne Supercomputer mehr Rechenzeit, als das Universum überhaupt bestehen wird. Und mit genau einem solchen Fall, so Bremermann, hat es die Evolution über die zufällige Mutation von Genen zu tun.

Die DNA als Träger von Erbeinformation von Menschen besteht aus höchstens 10¹⁰ Bits an Information. Jedes Bit für sich alleine kann sich durch eine zufällige Mutation ändern. Bremermann setzt ein Bit in etwa einer der vier verschiedenen Nukleotid-Brücken (ACGT)[9] [ gleich. Mit jeder Mutation kann sich aber auch die Fitness des entsprechenden Organismus ändern.[10] Wenn es keine göttliche Führung (divine guidance) gibt, die momentan beste Kombination im Sinne einer darwinistischen Fitness zu finden, dann muss die Evolution ein Problem der oben geschilderten Art lösen: sie muss theoretisch jede denkbare Kombination an Zuständen von Bits ausprobieren. Und ein "Ausprobieren" im Sinne der Evolution ist es, ein Individuum mit genau dieser zu testenden Kombination in die Welt zu setzen.

Jetzt kommt das Problem: für 10¹⁰ einzelne Bits an Information gibt es nach Bremermann 2^10^10 Möglichkeiten, die durchgespielt und miteinander verglichen werden müssten. Der Term 2^10^10 ist ein sogenannter Potenzterm. Man rechnet ihn von rechts nach links: erst 10 hoch 10 und das dann als Exponent von der zwei: 2^10^10 ist also wie 2¹⁰⁰⁰⁰⁰⁰⁰⁰⁰⁰. Das ist eine gigantisch große Zahl. Sie übersteigt jede Fähigkeit eines Computers, das in angemessener Zeit durchzuspielen.

Insbesondere sei diese Methode des Versuchs und Irrtums (trial and error) extrem schlecht darin, lokale Maxima zu verlassen, wenn andere Maxima in der Fitnesslandschaft weiter entfernt sind.[11][12] Im Englischen spricht man von "stagnation points", im Deutschen auch von Suboptimalen Lösungen oder einer vorzeitigen Konvergenz. Bremermann hat das in den frühen 1960er Jahren am Beispiel der Lösung linearer Gleichungsysteme (mit diskreten Funktionsargumenten) mit genetischen Algorithmen durch gespielt. Die Algorithmen sind dabei tatsächlich wie zu erwarten bei suboptimalen Lösungen stagniert. Die Natur hat mit demselben Problem zu kämpfen. Bremermann vermutet, dass die sexuelle Vermehrung Teil einer verbesserten Strategie für genau dieses Problem sein könnte. Doch in der Simulation linearer Gleichungssysteme erzielte Bremermann keine vernünftigen Ergebnisse (In disappointment I left linear systems).

Quantenphysik


Auch bei einer quantenphysikalischen Betrachtung von Systemen aus Teilchen kommt man schnell an das Problem der kombinatorischen Explosion. Dieser Anwendungsfall wurde von Bremermann in seinem ursprünglichen Text[1] nicht erwähnt. Aber der Fall liegt sehr ähnlich wie die von Bremermann beschriebenen Probleme auf die ein genetischer Algorithmus stößt.

In der Quantenphysik gibt es das Phänomen der sogenannen Superposition, auf Deutsch Überlagerung. Hat man zum Beispiel ein System aus 3 Teilen und jedes dieser Teile kann einen sogenannten Spin entweder nach oben oder nach unten haben, dann gibt es die folgenden acht Möglichkeiten für Kombinationen:

  • o o o
  • o o u
  • o u o
  • o u u
  • u o o
  • u o u
  • u u o
  • u u u

Die erste Zeile sagt zum Beispiel, dass alle drei Teilchen einen Spin nach oben haben. Die zweite Zeile sagt, dass die ersten beiden Teilchen einen Spin nach oben und das dritte Teilchen einen Spin nach unten hat.

Es ist nun eine besondere Eigenart der Quantenphysik, dass das System aus den drei Teilchen zwischen zwei Messungen gleichzeitig alle acht möglichen Kombinationen einnimmt, wennauch mit unterschiedlichen Wahrscheinlichkeiten. Rechnerisch muss man also für jede der acht Kombinationen eine eigene Wahrscheinlichkeit berechnen. Und analog zu Beispiel mit der Evolution steigt die Anzahl der Kombinationen, die man alle berechnen muss, rasant mit der Anzahl der Teilchen an.

Tatsächlich ist es so, dass man die Gesetze der Quantenphysik nur für Systeme mit sehr wenigen Teilen berechnen und überprüfen kann. Eine Molekülkette, wie etwa Hämoglobin, quantenphysikalisch exakt zu berechnen liegt, ganz im Gedankengang von Bremermann, außerhalb jeder Möglichkeit, selbst für idealisiert perfekte Computer.

Die moderne Quantenphysik ist mit diesem Umstand in einer schwierigen Lage: zwar kann man für kleine Systeme exakte Berechnungen anstellen und die Theorie auch mit praktischen Versuchen an der Wirklichkeit teste. Aber für alle Systeme mit etwas mehr Komplexität ist es unmöglich festzustellen, ob die Gesetze der Quantenphysik auch dort gelten. Es wäre denkbar, dass für Systeme aus vielen Teilen andere Regeln gelten als für Systeme aus wenigen Teilen. Es ist hier unwesentlich, ob das wirklich so ist oder nicht. Wesentlich für den Gedanken Bremermanns ist es, dass wir aufgrund einer fundamental beschränkten Leistung auch bestmöglicher Computer keine Chance haben, das Verhalten solcher Systeme zu berechnen.

Fazit


Für genetische Algorithmen schlägt Bremermann vor, dass man praktischerweise sogenannte heuristische Methoden verwenden sollte. Als Heuristik bezeichnet Bremermann jede Methode, Bedingung oder Lenkungsprinzip das dabei hilft, wenig höffige Möglichkeiten in einem Suchprozess zu beseitigen.[13] Was die Rechenleistung von Computern angeht, so sieht Bremermann Probleme, die man auch mit erdenkbar bestmöglichen Computern niemals wird lösen können. Dafür sind dann andere Wege zu ersinnen.[14]

Fußnoten


  • [2] Hans Joachim Bremermann: Quantum noise and information. In: Lucien M. Le Cam; Jerzy Neyman (Hrsg.): Proceedings of the Fifth Berkeley Symposium on Mathematical Statistics and Probability. Band 4. University of California Press, Berkeley 1967, S. 15–20.
  • [3] Gennady Gorelik: Bremermann's Limit and cGh-physics. Center for Philosophy and History of Science, Boston University.
  • [4] Das große C als Formelzeichen für die Kapazität von Informationsübertragungen in bit pro Sekunde wurde unter anderem von Claude Shannon in seinem Pionier-Artikel benutzt: " If the system transmits n symbols per second it is natural to say that the channel has a capacity of 5n bits per second." Shannon verwendet dann ein großes C für genau diese Größe. In: Claude Elwood Shannon (1948): A Mathematical Theory of Communication. Bell System Technical Journal. 27 (3 ): 379–423. doi:10.1002/j.1538-7305.1948.tb01338.x Online: http://cm.bell-labs.com/cm/ms/what/shannonday/shannon1948.pdf
  • [6] Einsteins berühmte Formel E=mc² besagt letzten Endes, dass man aus einer Masse m eine Energie der Menge E machen kann. Und auch umgekehrt: aus Energie kann man Masse machen. Das ist nicht nur theoretisch möglich sondern auch praktisch machbar. Siehe dazu E=mc² ↗
  • [7] Die Unschärfe oder Unbestimmtheit, etwa der Energie, ist ein schwer verständlicher Grundzug der Quantenphysik. Die Unschärfe ist keine reine Grenze von Messmethoden sondern eine Eigenschaft zu messenden Wirklichkeit selbst. Siehe dazu mehr im Artikel Unschärferelation ↗
  • [8] Wie man Hoch- oder auch Tiefpunkte mit Hilfe von Ableitungen im Sinne der Differentialrechnung finden kann, ist ausführlich behandelt rund um das Stichwort ableiten ↗
  • [9] ACGT steht für eine der vier hauptsächlich in der DNA vorkommenden Nukleotide ↗
  • [10] Was Fitness oder Eignung im Sinne der darwinistisch verstandenen Theorie der Evolution bedeutet ist näher betrachtet im Artikel Fitness ↗
  • [11] Bremermann verweist hier auf Artikel von Bledsoe, wie genetische Artikel lokale Maxima verlassen könnten, um weiter entfernt noch höhere Maxima zu finden: Bledsoe, W. W.: The use of biological concepts in the analytic study of systems, Technical Report, November 1961, Panoramic Research Inc., Palo Alto, Calif.
  • [12] Bledsoe, W. W.: Lethally dependent genes, using instant selection. Technical Report, December 1961, Panoramic Research Inc.,. Palo Alto, Calif.
  • [13] Bremermann definiert Heuristik treffend: " would call "heuristical" any method, constraint, or guidance principle that helps to eliminate unpromising possibilities in a search process." In: Hans Joachim Bremermann: Optimization through evolution and recombination. In: Yovitts et al. (Hrsg.): Self-Organizing systems. Spartan Books, Washington, D.C. 1962, S. 93–106. Siehe auch Heuristik ↗
  • [14] "Problems involving vast numbers of possibilities will not be solved by sheer data processing quantity. We must look for quality, for refinements, for tricks, for every ingenuity that we can think of. Computers faster than those of today will be a great help. We will need them. However, when we are concerned with problems in principle, present day computers are about as fast as they ever will be." In: Hans Joachim Bremermann: Optimization through evolution and recombination. In: Yovitts et al. (Hrsg.): Self-Organizing systems. Spartan Books, Washington, D.C. 1962, S. 93–106. Siehe auch Brute force Methode ↗