Saharastaub : Noch eine Unbekannte in der Rechnung mit vielen Unbekannten

Juli 2, 2013

Saharastaub : Der große Unbekannte bei den Klimaprognosen – Nachrichten Wissenschaft – Natur & Umwelt – DIE WELT.

Mit zwei Unbekannten, nämlich X und Y kommen Mathematiker nd Physiker noch zurecht. – Komt eine dritte Unbekannte dazu, wird des ernst: Die Gleichungen lassen sich nicht mehr lösen. – Offiziell kommt jetzt noch eine „vierte“ unbekannte Größe hinzu.

Es ist aber nur „offiziell“ die „vierte“ Unbekannte; – es ist gar nicht so lange her, daß ich auf andere unbekannte Größen, vor allem die Wärme, die aus dem Erdinneren kommt, hingewiesen hatte: https://advocatusdeorum.wordpress.com/2013/06/29/kosmos-kohlendioxid-wer-ist-schuld-an-klimawandel-und-hochwasser/

Wie dem auch sei, jede bislang „unveröffentlichte“ Unbekannte Größe, die bei der „exakten“ Berechnung der zukünftigen Klimaentwicklung unberückschtigt blieb, verwandelt die „Berechnungen“ zu einen Haufen mathematischen Mülls:

Prokrustes und die Mathematik

– Das Märchen von der „exakten“ Naturwissenschaft –

Wer war Prokrustes? – das werden sich die mit antiker Mythologie wenig vertrauten Leser fragen, – allerdings wird jeder Leser zunächst einmal darüber nachdenken, was die Hauptfigur einer griechischen Sage mit Mathematik zu tun haben mag:

Prokrustes ist eine Sagengestalt von besonderer Hinterhältigkeit und Brutalität. Er betrieb eine Herberge und bot vorüberziehenden Wanderern ein Nachtlager an. Der Gast bekam jeweils ein unpaßendes Bett; der hochgewachsene bekam ein Bett, das zu kurz war, der kleinwüchsige eines, das zu lang war. In der Nacht kam Prokrustes und tötete seine Gäste, indem er sie der Größe des Bettes anpaßte: den kleinen hängte er Ambonten an die Füße, bis sie lang genug waren, das Bett auszufüllen, den anderen kappte Prokrustes die überstehenden Gliedmaßen. – Der moderne Mensch verfährt mit der Natur und auch mit seinen Mitmenschen häufig in ähnlicher Weise, was vermuten läßt, daß Mythen oft ewige Wahrheiten in sich bergen.

Sollte der Mensch, und dieser Frage wird im folgenden nachgegangen werden, am Ende auch die Mathematik prokrustiert haben?

Benoît B. Mandelbrot stellte im Jahre 1975 seine Idee von der „fraktalen Geometrie der Natur“ einer interessierten Öffentlichkeit vor. Er prägte das Kunstwort „Fraktal“1 zur Beschreibung von natürlich auftretenden Formen und Prozessen, die mit Hilfe der bekannten geometrischen Modelle bis dahin nicht beschrieben werden konnten. Er bewies anhand vieler Beispiele, daß sogenannte „Monsterkurven“ und ähnliche „pathologische“ Objekte, die einige Mathematiker Ende des 19. und Anfang des 20. Jahrhunderts untersucht hatten, sich hervorragend eigneten, natürliche Formen wie Bäume, Lungengewebe, Federn, Felsen, Wolken oder Galaxien zu beschreiben. – All diese durchaus geometrisch anmutenden Objekte entziehen sich einer exakten Definition im Rahmen der klassischen, euklidschen Geometrie.

Erzeugt werden mathematische Fraktale durch sogenannte Iteration. Das bedeutet die ständige Wiederholung einer Rechenoperation, wobei der Endwert der ersten Operation den Anfangswert der zweiten bildet, deßen Endwert wiederum ist der Anfangswert der dritten, und so weiter und so fort…

Wesentliches Kennzeichen eines Fraktalen Objekts ist dessen Selbstähnlichkeit auf allen Größenskalen. Bricht man aus einem Blumenkohl ein Röschen heraus und betrachtet es etwas genauer, stellt man verblüfft fest, daß es dem ganzen Kohlkopf sehr ähnlich sieht – kleiner zwar, aber von ähnlicher Gestalt. Bricht man aus diesem ein weiteres Röschen heraus, bleibt die Ähnlichkeit zum ersten Röschen und zur Gesamtgestalt des Blumenkohls ebenfalls erhalten. Die Natur setzt diesem Verfahren beim Blumenkohl freilich eine untere Grenze; das aber ändert nicht den Grundsatz.

Trotz derartiger alltäglicher Erfahrungswerte bleibt das Wesen der fraktalen Geometrie bis heute der breiten Öffentlichkeit verborgen; u.a. deshalb, weil die überwiegende Mehrzahl der Mathematiker und Physiker die Auseinandersetzung mit der fraktalen Geometrie und den nichtlinearen Phänomenen der Natur scheut. In den Lehrplänen der Schulen, aber auch in den Vorlesungsverzeichnissen vieler Hochschulen sucht man diese Themen meist vergeblich. Diese Institutionen verkaufen weiterhin den Lehrsatz des Phytagoras und den Satz des Thales als grundlegende Erfindungen menschlichen Geistes, obwohl gerade die tradierten Gesetze der Geometrie die Vermutung nahelegen, daß auch das rechtwinklige Dreieck ein Fraktal ist:

Der Satz des Thales lautet:

Wenn bei einem Dreieck ABC die Ecke C auf dem Kreis mit dem Durchmesser AB liegt, dann hat das Dreieck bei C einen rechten Winkel;“ oder: „Im Halbkreis ist der Winkel immer ein rechter“; oder: „verbindet man die Endpunkte eines Durchmessers mit einem beliebigen Punkt der Peripherie des Kreises, so erhält man ein rechtwinkliges Dreieck.“

Ohne Änderung der Außage läßt sich der Satz des Thales aber auch so umformulieren:

Dann und nur dann, wenn bei einem Dreieck ABC die durch A und B führende Gerade den Mittelpunkt eines Kreises schneidet und somit den doppelten Radius des Kreises bildet, hat das Dreieck bei C einen rechten Winkel.

Da der doppelte Radius (2r) eines Kreises in Verbindung mit der Kreiszahl den Umfang eines Kreises angibt, ist die Behauptung gerechtfertigt, daß die Existenz des rechten Winkels davon abhängig ist, daß konstant ist.

Zum Beweis dieser Behauptung muß man die Beziehungen der Eckpunkte, Strecken und Winkel eines Dreiecks im Kreis dynamisieren und als Bahnkurve (Orbit) darstellen:

Es sei ein Dreieck mit den Eckpunkten A, B und C auf dem Kreis mit dem Radius r. Die zugehörigen Winkel seien , und . Die Strecke AB sei c, die Strecke AC sei a, die Strecke CB sei b.

Da die Winkelsumme im Dreieck 180° beträgt, existiert eine unbestimmbare Vielzahl von Dreiecken, für deren Winkel bei C gilt:

0º < < 180º.

Der Winkel hat 0º, wenn sich die Punkte A und B auf der Geraden, die durch C und den Mittelpunkt des Kreises führt, vereinen. Der Winkel hat 180º, wenn A, B und C in einem Punkt vereinigt sind. Läßt man nun die beiden Punkte A und B (vom Punkt A = B aus) sich auf der Kreislinie gegenläufig bewegen, also einen Orbit beschreiben, ergeben sich zwei auffällige Besonderheiten:

Erreicht der Winkel 60º, ist das Dreieck gleichseitig, die Punkte A, B und C sind gleich weit voneinander entfernt, bezüglich der Winkel gilt:, die Verbindungsstrecken a, b und c sind exakt gleich lang:

a = b = c

es gilt dann auch:

a² = b² = c².

Wenn die durch A und B führende Gerade den Mittelpunkt M des Kreises schneidet, entspricht deren Entfernung voneinander dem Durchmesser, also dem doppelten Radius (2r). An dieser Stelle der Bahnkurve ist es gleichgültig, welche Position C im Orbit hat. Bei C ist dann, aber auch nur dann, immer ein rechter Winkel zu finden. Das Verhältnis der Strecken a, b und c beträgt in dieser Position des Orbit

a² + b² = c².

Das ist der Lehrsatz des Pythagoras. Aber nicht nur der Satz des Pythagoras, auch alle anderen mathematischen Winkelfunktionen (Sinus- Cosinus- und Tangensfunktionen) leiten sich aus den konstanten Seiten- und Winkelverhältnisses des rechtwinkligen Dreiecks ab. – Die mathematischen Beweise für den Satz des Thales, den Lehrsatz des Pythagoras und die Funktionen Sinus, Cosinus und Tangens sind in jedem guten mathematischen Schulbuch verewigt. Sie brauchen an dieser Stelle nicht wiederholt zu werden.

Die Beschreibung des Dreiecks als Bahnkurve und die Tatsache, daß das Auftreten eines rechtwinkligen Dreiecks untrennbar an den Durchmesser des Kreises gebunden ist, lassen nur den Schluß zu, daß die gesamte Euklidische Geometrie von der Konstanz der Kreiszahl abhängt. Würde diese auch nur an der denkbar entferntesten Stelle hinter dem Komma einmal abweichen, wäre der rechte Winkel kein rechter Winkel mehr.

Die Beschreibung des Dreiecks als Orbit legt einen weiteren Schluß nahe: Das Dreieck und alle anderen geometrischen Figuren der klassischen Geometrie sind Fraktale. Das Hauptkennzeichen der fraktalen Geometrie besteht darin, daß die Analyse der einzelnen Teile mit Maßstäben unterschiedlicher Länge immer wieder dieselben Grundelemente offenbart. Dieses Verhalten nennt man Skaleninvarianz oder Selbstähnlichkeit.

Soll es sich bei einem Dreieck um ein Fraktal handeln, müßte es selbstähnlich sein.

Abgesehen davon, daß die Selbstähnlichkeit des Dreiecks auf allen Größenskalen von der klassischen, linearen Mathematik seit jeher beschrieben wird (1.), läßt sie sich auch unmittelbar aus dem Orbit, den die Punkte A, B und C beschreiben, ableiten (2.).

  1. In der klassischen Geometrie kann jedes beliebige Dreieck in zwei rechtwinklige zerlegt werden. Die Senkrechte, die vom Winkel aus auf die gegenüberliegende Gerade gefällt wird, teilt ein Dreieck in zwei andere, einander ähnliche rechtwinklige Dreiecke. Man kann diese Operation auf allen Größenskalen fortsetzen, heraus kommt immer eine zunehmende Zahl rechtwinkliger Dreiecke. Das rechtwinklige Dreieck ist also skaleninvariant.

  2. Die Skaleninvarianz ergibt sich auch unmittelbar aus der Funktion des Kreises als Orbit. Die Senkrechte, die vom Winkel aus auf die Gerade gefällt wird, kreuzt diese rechtwinklig. Im Kreuzungspunkt bilden sich vier rechte Winkel, zu jedem dieser rechten Winkel gehört wiederum ein Schwarm von Kreisen und rechtwinkligen Dreiecken. Da der Kreis wegen selbst immer skaleninvariant ist, folgt daraus, daß sich dessen Skaleninvarianz auf das rechtwinklige Dreieck überträgt.

Hinter der Aufteilung eines Dreiecks in eine unbestimmbare (unendliche) Zahl rechtwinkliger Dreiecke steht immer ein und dieselbe bestimmte Operation: Fälle die Senkrechte vom Winkel aus auf die Gerade!

Wird die gleiche Operation wiederholt ausgeführt, wobei der Ausgabewert eines Zyklus dem nächsten als Eingangswert zugeführt wird, nennt die Mathematik diesen Vorgang Iteration.

Iteration aber ist – wie eingangs dargelegt – eine der Säulen der fraktalen Geometrie, Die Rechenvorschrift (der Algorithmus) zur Erzeugung von immer mehr, aber immer kleiner werdenden rechtwinkligen Dreiecken lautet lapidar: Fälle die Senkrechte vom rechten Winkel auf die Hypothenuse!

Wandelt man diese einfache Operation ein wenig ab, indem man vorschreibt: Fälle die Senkrechte vom Winkel aus auf die Gerade, zeichne sie als Strahl vom Winkel aus und ordne jedem der „offenen“ rechten Winkel im Kreuzungspunkt eine beliebige Hypothenuse zu, so wird bereits beim vierten Zyklus die Sache unübersichtlich. Die Gesamtzahl der Dreiecke explodiert regelrecht.

Das rechtwinklige Dreieck erfüllt alle Merkmale, die ein Fraktal ausmachen: Selbstähnlichkeit und Erzeugbarkeit durch Iteration.

Die Figuren der euklidischen Geometrie sind folglich ebenfalls Fraktale. Sie unterscheiden sich von allen anderen Fraktalen lediglich dadurch, daß sie so einfach gestaltet und damit berechenbar sind. Die Berechenbarkeit der geometrischen Figuren, die das Universum der Euklidischen Geometrie bilden, hört freilich schon beim Kreis auf:

Der englische Wissenschaftler Lewis Richardson fand auf die Frage: „Wie lang ist die Küstenlinie Englands?“ die verblüffende Antwort: „Das hängt vom verwendeten Maßstab ab.“ – Je kleiner der Maßstab, desto länger die Küstenlinie. Das trifft auch auf den Kreis zu, wenn man dessen Durchmesser und Umfang mißt. Rein theoretisch müßte sich dadurch errechnen lassen, daß man den gemessenen Umfang eines Kreises durch den gemeßenen Durchmesser desselben dividiert. Da sich die kleinste Meßungenauigkeit auf das Rechenergebnis auswirkt, ist es praktisch undurchführbar, den Wert von meßtechnisch zu ermitteln. Das Ergebnis der Rechenoperation = gemessener Umfang geteilt durch gemessenen Durchmesser wird immer unscharf bleiben. Unscharf deshalb, weil das Ergebnis zufällig zutreffen kann; ob es zutrifft, kann aber nicht bewiesen werden, weil der exakte Wert von sich auf Daür den Berechnungsversuchen entziehen wird.

Die Unschärfe nimmt zu, wenn man versucht, durch Messung von Rauminhalt und Durchmesser einer Kugel zu exakt zu ermitteln.

Der Kreis ist also nicht „die vollkommenste geometrische Figur“, als die er in der klassischen Mathematik angesehen wird, er ist vielmehr das einfachste Fraktal: Bewege Dich geradlinig in gleichbleibendem Abstand zu dem bestimmten Punkt M. – Heraus kommt immer ein Kreis. Der Kreis ist also durchaus linear definierbar, aber gekrümmt.

Und was macht der Mensch? – Er macht den Kreis zu einem Objekt der euklidischen Geometrie: um mit überhaupt rechnen zu können, schneidet er die praktisch unendliche Ziffernfolge dieser Zahl einfach ab. – Ein Verfahren, das dem des Prokrustes aufs Haar gleicht.

Der Kreis, das darf man in diesem Zusammenhang nicht vergessen, ist immer auch der Schnitt durch eine Kugel. Diese ist ebenfalls in höchstem Maße selbstähnlich, denn jeder Schnitt durch eine Kugel, gleichgültig in welcher Ebene der Kugel er stattfindet, ist ein Kreis. Die Kugel ist ein räumliches Fraktal und in allen drei Raumdimensionen vollkommen von determiniert.

An dieser Nahtstelle triumphiert die Krümmung des Raumes ohnehin über die lineare Mathematik. Der augenfälligste Beleg hierfür sind Wasserwaage und Eisenbahnschienen. Obwohl beide kerzengerade sind, bilden sie entgegen der Voraußage der klassischen Mathematik in keinem feststellbaren Punkt der Erdoberfläche deren Tangente – sie liegen flach auf, obwohl sie die Erdoberfläche mathematisch nur in einem Punkt berühren dürften.

Hier begegnen sich auch die durch bewirkte mathematische Unschärfe und die Heisenbergsche Unschärferelation der Quantenphysik, wonach Ort und Impuls eines Materieteilchens nicht gleichzeitig ermittelt werden können.

Sowohl mathematische als auch physikalische Unschärfe wirken sich auf alle Berechnungen aus, die im Rahmen mathematischer und physikalischer Modelle über die Natur angestellt werden. Dennoch beharrt die überwiegende Mehrzahl der entsprechenden Fachleute auf der Richtigkeit ihrer Modellvorstellungen. Es spricht nichts dagegen, daß diese in Teilbereichen durchaus zutreffen, vielfach stößt man aber in diesem Bereich auf Hilfsannahmen und einschränkende Bedingungen. Beispielsweise werden in der Mechanik die unberechenbaren Faktoren Reibung und Wärme ausgeklammert (wegprokrustiert), um die Gesetze der Mechanik mit einfachen, linearen Gleichungen beschreiben zu können.

Die Gesetze der Mechanik können voraußagen, welche Geschwindigkeit ein Fahrrad unter Vernachlässigung der Reibung idealerweise erreichen wird, wenn eine bestimmte Kraft auf die Pedale einwirkt. Ob aber jemals eine Kraft auf die Pedale einwirken wird, und – sollte sie einwirken – wie groß sie genau sein wird, geht aus den Gesetzen der Mechanik nicht hervor. Die Gesetze der Mechanik können auch nicht exakt sagen, wie dasselbe Fahrrad außehen wird, wenn es seitlich von einem bestimmten PKW gerammt wird. – Auch dann nicht, wenn Aufprallgeschwindigkeit- und -winkel genau definiert sind.

Ein weiteres Beispiel aus der Physik:

Da Ohmsche Gesetz „regelt“ in einem geschlossenen Stromkreis die Beziehung zwischen Spannung (U), Strom (I) und Widerstand (R) nach dem Muster

I = U/R.

Der „Anwendungsbereich“ des Ohmschen Gesetzes ist jedoch sehr eng begrenzt. Es gilt nur für einen „geschlossenen Stromkreis“ mit Widerstand. Erstens versagt das Gesetz angesichts der Frage, ob eine Batterie voll oder leer ist, denn R = U/I. Sind die Pole einer Batterie unverbunden, ist I gleich Null Das Ohmsche Gesetz versagt auch im Falle eines Kurzschlusses, denn wenn der Wert des Widerstandes gleich Null ist, lautet die Berechnungsformel I =U/0. Die Division durch Null ist mathematisch nicht definiert, folglich ist eine exakte Voraußage in beiden Fällen nicht möglich. Dennoch weiß jeder, was bei einem Kurzschluß passiert. Die physikalische Berechenbarkeit dieses Teil der Natur setzt also auch beim Ohmschen Gesetz voraus, daß die Extreme abgeschnitten werden. Das Ohmsche Gesetz, so wichtig und zuverlässig es sein mag, taugt auch nicht viel angesichts der Frage, wann eine Glühbirne durchbrennen wird. Die „exakte“ Wissenschaft zieht sich hier auf eine „durchschnittliche Lebenserwartung“, also einen statistischen Wert zurück, zu dessen Berechnung auch die Zahl erforderlich ist, was wiederum die Angabe eines exakten Wertes aus den oben genannten Gründen unmöglich macht. Es läßt sich auch nicht exakt im voraus berechnen, ob beim Durchbrennen einer Glühbirne einfach das Licht ausgeht oder ob es in diesem Zusammenhang zu einem Kurzschluß kommt, der die Sicherung heraußpringen läßt.

Gerade anhand des Kurzschlusses, dem wir hier nun schon zum zweitenmal begegnen, läßt sich unschwer die Beziehung der fraktalen Geometrie zu den dynamischen Eigenschaften der Natur verdeutlichen. Was die Mathematik als Iteration bezeichnet, kennt die Physik als „positive“ Rückkopplung. Der Kurzschluß als positive Rückkopplungsschleife ist weniger bekannt als die akustische Rückkopplung: Sie entsteht zwischen Mikrofon, Verstärker und Lautsprecher: Das Eigenrauschen des Verstärkers wird vom Lautsprecher abgestrahlt und vom Mikrofon aufgefangen. Dieses Signal wiederum wird verstärkt wieder abgestrahlt, binnen Sekunden ertönt das bekannte ohrenbetäubende Pfeifen.

Der Forschungszweig, der sich mit diesen und ähnlichen Phänomenen beschäftigt, ist dem Publikum unter dem Begriff „Chaosforschung“ bekannt geworden. Dabei ist das „Chaos“, das heillose Durcheinander nicht Forschungsgegenstand, sondern die nichtlinearen, also nicht mit ganzen Zahlen „exakt“ berechenbaren dynamischen Phänomene in der Natur. Diese lassen sich schlagwortartig mit den vier „Elementen“ der klassischen griechischen Naturphilosophie kennzeichnen: Feuer, Wasser, Luft und Erde.

Ungeachtet dessen wird auch in Zukunft die traditionelle Mathematik von sich behaupten, eine „exakte“ Wissenschaft zu sein; die der klassischen Physik mit ihren aufgefächerten Einzeldisziplinen verpflichteten Physiker werden auch weiterhin ihre Wissenschaft als „exakt“ bezeichnen. Fraktale Geometrie und Chaosforschung werden bis auf weiteres die „Igitt“–Fächer der Naturwissenschaften bleiben.

Am Ende bleibt festzuhalten: Das „Flaggschiff“ der euklidischen Geometrie, das rechtwinklige Dreieck, ist im Meer der Fraktale versunken. Die Behauptung, es sei möglich, „exakte“ Naturwissenschaft zu betreiben, ist damit als Märchen entlarvt. Für den Menschen sind die Phänomene der Natur nur in den Fällen berechen- und damit vorhersagbar, wo diese selbst es zuläßt.

Die von vielen Naturwissenschaftlern aufgestellte Behauptung, eines Tages die Natur nach dem Willen des Menschen umgestalten zu können, offenbart ihre geistige Nähe zu Herrn Prokrustes.

Und die Suche nach der sogenannten „Weltformel“, einer Formel, die die Welt vollständig und abschließend mathematisch genau beschreiben soll, wird auf ewig ein unerfüllbarer Wunschtraum bleiben. Diese „Weltformel“ stellt man sich nämlich als lineare Gleichung vor, man will schließlich die Welt berechenbar machen. Man macht die Rechnung allerdings ohne Thales und Pythagoras. – Und, last but not least, ohne

.

Ursprünglich war dies das Ende der kleinen Betrachtung über die fraktale Natur der Geometrie. Aber die Überschrift stellt eine Beziehung her zwischen Prokrustes und der Mathematik. Also war es ganz natürlich, daß wieder einmal im modernen Antiquariat ein Buch für mich bereitlag:

DUDEN – Rechnen und Mathematik

Beim Durchblättern sprang mir sofort das Stichwort „Primzahlen“ in die Augen. Primzahlen sind bekanntlich Zahlen, die nur durch 1 und sich selbst teilbar sind.

Da gibt es die Menge der natürlichen Zahlen: 1,2,3,4,5,6,7,…, ein Ende ist nicht absehbar. Nun läßt sich die Menge der natürlichen Zahlen ebenfalls durch Iteration erzeugen:

xn+1 = xn + 1

So formuliert, müßte man eigentlich erwarten, daß sich alle Elemente der Menge der natürlichen Zahlen gleich verhalten, daß alle Elemente dieser Menge über dieselben Systemeigenschaften verfügen. Aber die Natur macht da nicht mit. Ein Teil der so erzeugten Zahlen läßt sich nicht einfach teilen, ohne daran zu „zerbrechen“. Und das sind die Primzahlen.

Merkwürdigerweise sind die Primzahlen nicht willkürlich oder zufällig über die Menge der natürlichen Zahlen verteilt. Man findet sehr viele Paare von Primzahlen, die nur den Abstand 2 haben, z.B.

(3,5), (5,7), (11,13), (17,19), …, (1871,1873), …, (2969,2971), (3359,3361), ….

Ferner scheinen die Primzahlen einer Art Rhythmus zu unterliegen, zumindest deutet die Tabelle der Primzahlen von 1200 bis 4500 darauf hin. Augenfällig wird dies alles aber erst, wenn man die Tabelle auf den Kopf stellt und die Zahlenkolonnen als Balkendiagramm betrachtet. Erst dann erkennt man nämlich, daß das System tatsächlich schwingt.

Die Zahlen zwischen den Primzahlen sind ihrerseits Vielfache der ersten Primzahlen 1, 2, 3, 5 und 7. Und nur in diesem Bereich ist es Mathematikern überhaupt möglich, „exakt“ zu arbeiten. Primzahlen werden in der Mathematik genauso behandelt wie die Quadratwurzel von 2: Man kappt die unendlich vielen Stellen hinter dem Komma willkürlich und erklärt das so „gekürzte“ Ergebnis für „exakt“. – Genau das ist dasselbe Verfahren, das Prokrustes seinen Gästen hat angedeihen lassen.

Wie die Anzahl der rechtwinkligen Dreiecke ist die Anzahl der Primzahlen prinzipiell unendlich. Daher werden in diesem Bereich die Mathematiker immer wieder mit der fraktalen Natur der Mathematik konfrontiert werden.

Tippen Sie in Ihrem Taschenrechner einfach so aus Spaß einmal 1 : 3 ein. In der Anzeige werden Sie folgendes Ergebnis finden: 0,333333. Sie können unendlich vielen Dreien dahinterpacken, ohne jemals ein Ende zu erreichen. Das ist nicht weiter schlimm. – Wir alle haben im Rechenunterricht der Grundschule gelernt, daß man, hat man beim Rechnen ein Ergebnis gefunden, die „Probe“ machen soll; – erst die „Probe“ zeigt dem Rechner, daß sein Ergebnis „richtig“ ist, er sich also nicht verrechnet hat. – Einfach nur so zum Spaß: Stellen Sie Ihren Taschenrechner auf die Probe. Tippen Sie 0,333333 x 3 ein. Drei mal ein Drittel ist Eins. 3 x 0,333333 ist aber laut Taschenrechner noch lange nicht Eins. In der Anzeige erscheinen eine Null, ein Komma und ansonsten nur Neunen. Auch hinter die im Display angezeigten Neunen können Sie so viele 99999999999999 dahinterpacken, wie Sie es für richtig halten; Sie können es sich für den Rest Ihres Lebens zur Aufgabe machen, so viele Neunen hinter das Komma zu schreiben, bis Sie die Eins erreicht haben. – Selbst Ihre Enkel oder Urenkel werden es nicht schaffen, auf diesem Weg die Zahl 1 zu erreichen.

In diesem Fall machen es die Mathematiker wie Prokrustes: Sie „expandieren“ den Wert 0, 99999999999999…. auf den ganzzahligen Wert 1.

All das wäre ja nicht weiter schlimm; man könnte die minimalen Ungenauigkeiten der „exakten“ Mathematik als Schönheitsfehler der dieser Wissenschaft hinnehmen. – Waren da nicht zwei Dinge:

Eines der Hauptanwendungsgebiete der Mathematik ist die Astronomie. Sei Johannes Kepler kennt man genau die Bewegungen der Planeten um die Sonne. Kepler hat sie in drei Gesetzen zusammengefaßt. Uns interessiert hier nur das dritte Keplersche Gesetz. Danach verhalten sich die Quadrate der Umlaufzeiten eines Planeten wie die Kuben ihrer mittleren Entfernung von der Sonne: Je weiter ein Planet von der Sonne entfernt ist, desto geringer ist seine Umlaufgeschwindigkeit. Carl Sagen behauptet in „Unser Kosmos“:

…je weiter ein Planet von der Sonne entfernt ist, desto langsamer bewegt er sich, wofür es ein genaues mathematisches Gesetz gibt: P2 = a3, wobei P die Umlaufszeit des Planeten um die Sonne in Jahren und a seine Entfernung von der Sonne in „astronomischen Einheiten“ bezeichnet. Eine astronomische Einheit entspricht der Entfernung der Erde von der Sonne.“

Es sind zwei versteckte Ausdrücke, die die Astronomie von einer exakten Wissenschaft zum Va-Banque-Spiel machen: „mittlere Entfernung“ und „astronomische Einheit“.

Die Bahnen der Planeten sind keine exakten Kreise, denn der Kreis hat nur einen Mittelpunkt. Die Planetenbahnen sind Ellipsen, diese haben zwei „Brennpunkte“ genannte „Mittelpunkte“. Im Jahreslauf gibt es nur vier Punkte im Raum, in denen ein Planet seine „mittlere Entfernung“ von der Sonne einnehmen kann. Wegen der Geschwindigkeit, mit der sich auch der langsamste Planet fortbewegt, ist die Zeit, die ein Planet in seiner „mittleren Entfernung“ von der Sonne verbringt, wahrscheinlich unmeßbar kurz. Die „mittlere Entfernung eines Planeten vom Zentralgestirn ist also nicht exakt meßbar. Damit ist sie ungenau; für 2 + 2 = 4 –Freaks folglich ein Greuel.

Die „astronomische Einheit“ ist per oben gegebener Definition per se ungenau. Verwendet man die „astronomische Einheit“ als Maßstab für die Entfernung anderer Planeten von der Sonne, bekommen 2 * 2 = 4 – Fans sofort einen Herzinfarkt. Die mittlere Entfernung der Erde von der Sonne beträgt 149 Millionen Kilometer. 149 Millionen Kilometer, – das sind 149 Billionen Millimeter. – Seit dem Vordringen des Menschen in den Nano–Bereich, in dem das Meter wegen seiner Grobschlächtigkeit keine Rolle mehr spielt, werden die Maßeinheiten der Astronomen immer verschwommener und verlassen in augenfälliger Weise den Bereich der „exakten“ Wissenschaften.

Kein GPS wird je in der Lage sein, die exakte Position der Erde im Verhältnis zur Sonne für einen Zeitpunkt X zu bestimmen. Denn GPS kann nicht einmal auf der Erde die genaue Position eines sich schnell bewegenden Objekts zum Zeitpunkt der Messung ermitteln. Trotz all der wundersamen Eigenschaften, die GPS angedichtet werden: Weder Olympioniken noch Pferdefreunde werden je ein GPS-gestütztes „Photofinish“ erleben.

Nach diesem Ausflug in alltägliche Gefilde kehren wir zu Carl Sagen und in den Weltraum zurück:

Jupiter z, B. ist fünf astronomische Einheiten von de Sonne entfernt. Somit ist a3 = 5 * 5 * 5 125. Das Quadrat von welcher Zahl kommt 125 nahe? Die Antwort lautet 11. Und in der Tat braucht Jupiter 11 Jahre für einen Umlauf um die Sonne. Das gleiche Gesetz gilt auch für andere Planeten sowie für Asteroiden und Kometen. (Sagan aaO, 74ff)

Das sieht alles wunderbar exakt und berechenbar aus. – ist es aber durchaus nicht. Um dem Gesetz Genüge zu tun, muß auch hier wieder einmal „gestreckt“ werden. Zwei potentielle Quellen für Rechenfehler.

Und mit der Frage, was passiert, wenn Fehler auf Fehler trifft, kommen wir zu dem zweiten Ding, das ich oben angesprochen hatte.

Die Mathematiker sind sich ihrer Fehlerquellen beim Runden und Messen durchaus bewußt. Sie unterscheiden sogar zwischen absoluten und relativen Fehlern. Ich will hier nicht näher auf die einzelnen Handlungsanweisungen für den Umgang mit Fehlern eingehen, vielmehr möchte ich Sie auf folgenden Satz aufmerksam machen, über den ich im DUDEN – Rechnen und Mathematik unter dem Stichwort „Fehlerrechnung“ gestolpert bin: „Daran erkennt man, wie sich ein zunächst kleiner relativer Fehler von 1% bzw. 0,3% bei Ersetzen von √2 durch einen Näherungswert durch Fehlerfortpflanzung so auswirken kann, daß sich sehr große Fehler ergeben.“ – An dieser Stelle begegnet uns nämlich ganz unerwartet ein Phänomen, das in der Chaos-Forschung als Schmetterlingseffekt Furore gemacht hatte: der Flügelschlag eines Schmetterlings in Japan kann über den USA einen Hurricane auslösen.

Wir können zum Abschluß also festhalten, daß die lineare Mathematik, die uns als exakte Wissenschaft verkauft wird, nur einen geringen Bruchteil einer Allumfassenden nichtlinearen, fraktalen Mathematik ist.

Der Raum von drei Seiten, den die fraktale Geometrie im DUDEN einnimmt, ist angesichts dessen eigentlich eine Unverschämtheit.

© Gerhard Altenhoff, 2003

1 von lat. frangere = brechen


Dunkle Materie – dunkle Energie? – Ein wenig Licht ins Dunkel

August 19, 2011

http://www.3sat.de/mediathek/?mode=play&obj=21864

Welche Kräfte schufen das Universum? – Wie enstand das Leben?

All diesen Fragen begegnete auch ich bei meiner Reise durch die Evolution. – DieFragen sammelte ich zunächst in Notizen und spontanen Gedanken dazu  am Ende meines Manuskripts. – Daraus wurde ein Fragenkatalog mit vorläufigen Antworten, die ich hier und jetzt gerne zur Diskussion stellen möchte.

Ich habe in den folgenden Ausführungen einfach frei gedacht. – Merkwürdig, aber ich bin dabei auf das Nernst’sche Wärmetheorem gestoßen, bloß dadurch, daß ich auf die „Teilchenbremse“ getreten habe. Also kann ich nicht so ganz neben der Wahrheit liegen. – Auch deshalb nicht, weil das Weltall in jeder Sekunde um Aberbillionen Tonnen leichter wird. – Allein durch die Kernfusion, bei der rund 0,78% der Materie in Strahlung umgewandelt wird. Und Strahlung hört nicht auf den Ruf der Gravitation:

Die Grenzen des Universums
Ursprünglich beabsichtigte ich, im Rahmen einer Fußnote auf die Musterbildung im Universum hinzuweisen und fing bei der Sonne und ihren Entwicklungstadien an. Die urprüngliche Arbeit verwarf ich wieder, dennoch ging mir die Sonne nicht aus dem Kopf.
Je mehr ich darüber nachdachte, desto drängender wurde die Frage, wie die Kraft der Gravitation, die mit abnehmender Entfernung quadratisch beschleunigt, die nichtlinearen dynamischen Prozesse, die die Sonne leichter werden lassen, so genau kontrollieren können. – Warum also, explodiert die Sonne nicht wie ein Dampfkessel?
Der Überlieferung nach soll Newton die Idee der Massenanziehung beim Anblick eines fallenden Apfels gekommen sein. Der Apfel fällt nicht weit vom Stamm, sagt man; aber der Apfel hat es auch nicht weit bis zur Erde. Kann es daher sein, daß der Weg des Apfels nicht durch die lineare Schwerkraft vorgezeichnet ist; kann es sein, daß er nach Loslösung vom Ast in eine positive Rückkoppelungsschleife gerät, die ihn zu Boden zwingt?
Wenn das atomare Feuer im Inneren der Sonne ein nichtlineares dynamisches System ist; wenn eigentlich alles, was uns umgibt, nichtlinear ist, gibt es keinen Grund anzunehmen, daß die Gravitation aus dem Rahmen fallen sollte.
Über das Wesen der Gravitation machen sich die Physiker seit den Tagen Einsteins vermehrt Gedanken. Denn die Relativitätstheorie hat gezeigt, daß wir zwischen Schwere, die durch Beschleunigung erzeugt wird, und der durch die Gravitation erzeugte Schwere nicht unterscheiden können.
Die Newtonschen Berechnungen sind durchaus alltagstaugliche Näherungen. Wir sind mit unseren Sinnen nicht in der Lage, Abweichungen davon festzustellen. Dennoch beschreiben Newtons Gleichungen die Verhältnisse im Universum nicht ganz zutreffend. Es sind eben lineare Gleichungen, die eine nichtlineare Welt zum Gegenstand haben. Die Einführung eines nichtlinearen Terms in Newtons Fallgesetz dürfte im Nahbereich kaum Auswirkungen auf das Ergebnis haben. In den Weiten des Alls, über Millionen von Lichtjahren hinweg, könnte das schon anders aussehen.
Machen wir es wie Newton, nähern wir uns dem Problem: Die Entwicklung leistungsfähiger Computer hat es ermöglicht, nichtlineare Gleichungen in der Mathematik zu lösen und graphisch darzustellen. Die Lösungen zeigen eine extrem starke Neigung zur Musterbildung. („Apfelmännchen“ & Co ), wobei sich die entstehenden Muster auf allen Größenskalen zu wiederholen scheinen. Immer ähnlich, aber nie identisch.
An der Wende vom 19. zum 20. Jahrhundert widmete sich der französische Mathematiker Henri Poincaré dem Dreikörperproblem in der Himmelsmechanik. Dabei handelt es sich um die relative Bewegung dreier Körper, die sich gegenseitig anziehen. Auch er konnte keine Lösung dafür finden. Er hatte aber bereits die ungeheure Komplexität der Bahnen, die diese Körper beschreiben, vor Augen. Er zeigte, daß einfache deterministische Bewegungsgleichungen eine unglaubliche Komplexität erzeugen können. „Was sich Poincaré seinerzeit bildlich vorstellte, wird heutzutage ein <seltsamer Attraktor> genannt. Oder um es mit Ian Stewart zu sagen: Poincaré erblickte <die Fußspuren des Chaos>.“ ( Fritjof Capra, Lebensnetz 1996 S. 150 ) – Poincaré führte die nichtlineare Mathematik in die Physik ein, leider nur in die Himmelsmechanik.
Spätestens seit dem Unfall von Tschernobyl dürfte jedermann klar sein, daß das Einsperren des nichtlinearen atomaren Feuers in lineare Strukturen per se die Katastrophe in sich birgt. Auch der Fusionsreaktor Sonne ist nichtlinear dynamisch. Handelte es sich bei der Gravitation um eine lineare Größe, könnte diese im Zweifel „dynamische Ausrutscher“, etwa einen plötzlichen Druckanstieg, im Sonneninneren nicht bremsen. Wenn derartige Fälle auch nur äußerst selten auftreten würden, müßte der Nachthimmel mit explodiernden Sonnen aller Größenordnungen übersät sein. Das aber ist offensichtlich nicht der Fall. Demnach kann auch aus diesem Grunde die Gravitation keine lineare Größe sein.
Unser Sonnensystem ist aus einem lokalen Gravitationskollaps entstanden. Dieser führte zum fortgesetzten Aufheizen der Sonne bis zur Zündung des Fusionsfeuers.
Übersteigt ein Himmelskörper eine bestimmt Größe, hält auch der Druck, den die Kernfusion erzeugt, am Ende den Gravitationskollaps nicht mehr auf. Der Stern schrumpft zu einem Schwarzen Loch zusammen, in dessen Zentrum sich eine Singularität befinden soll. Das Wesen einer Singularität besteht darin, daß Raum, Zeit und alle Vorhersagbarkeit ihr Ende finden. Diesen unter seiner Schwerkraft zusammengestürzten Körper kann nichts entkommen, nicht einmal das Licht. Im Bereich des sichtbaren Universums kann ein Beobachter nur drei Eigenschaften messen, nämlich Masse, elektrische Ladung und Drehimpuls. Ansonsten bleibt uns der Blick in das Innere des Schwarzen Lochs verwehrt.
Das Weltall ist, alles spricht dafür, aus einer Singularität hervorgegangen. Wenn der Gravitationskollaps eines überschweren Sterns eine Singularität hervorruft, scheint die Gravitation die Kraft zu sein, die das Universum in den Zustand der Singularität zurückführen will. Wenn ein Schwarzes Loch in seinem Zentrum eine Singularität beherbergt, erhebt sich die Frage, ob es eine Singularität ist, oder ob das Weltall lokal in die Singularität zurückgefallen ist. Das aber ist nicht unser Thema, ich will es den Physikern und Kosmologen überlassen.
– Irgendwie macht es mich allerdings stutzig, daß ich vor einigen Wochen im Antiquariat um die Ecke das Buch „Die linke Hand der Schöpfung“ von J.D Barrow und J. Silk entdeckte. Ich habe DM 8,– dafür bezahlt und wurde für diese Investition reich belohnt. Auf Seite 227ff fand ich unter der Überschrift „Das Mixmaster-Universum“ folgende Zeilen:
Nun lassen sich, wenn wir wollen, als Modell für die Dynamik des Weltalls sogar noch ungewöhnlichere Kandidaten ausfindig machen, die die frühesten Stadien des Kosmos beschreiben könnten; schließlich wissen wir nicht, wie ungleichmäßig die Expansion damals verlief. Die Sache hat nur einen Haken. Newtons berühmte Gravitationstheorie ist relativ einfach. Sie besteht lediglich aus einer Diefferentialgleichung für einen die Gravitationskraft beschreibenden Parameter. Die sie übergreifende Einsteinsche Theorie besitzt dagegen zehn aufs engste miteinander verknüpfte Gleichungen für zehn das Gravitationsfeld beschreibende Parameter. Allein der Statistik zufolge wird es also alles andere als einfach sein, Lösungen für die Einsteinschen Gleichungen zu finden! Und als ob das nicht schon schlimm genug wäre, zeichnen sich die Einsteinschen Gleichungen noch durch eine andere unangenehme Eigenschaft aus, die ihrer Lösung ein fast unüberwindliches Hindernis entgegenstellt: Sie sind nichtlinear.“
Quod erat demondstrandum. – Allerdings war das für mich Anlaß genug, noch näher hinzuschauen.
Ist die Gravitation möglicherweise die einzige Kraft, die die Kräfte der Kernfusion wirksam kontrollieren kann? – Die letzgenannte Frage dürfte im Rahmen der angestrebten Entwicklung von Kernfusionsreaktoren von Bedeutung sein. Sollte die Physik sie bejahen, wären alle Gelder für die Entwicklung eines Fusionsreaktors von vornherein in den Sand gesetzt. Einen solchen zu bauen, wäre dann bereits aus prinzipiellen Gründen unmöglich.
Unser Thema, nämlich die Evolution, benötigt die Chemie, genauer gesagt, die Biochemie. Biochemische Vorgänge sind hochkomplex und bilden Muster. Die vom Menschen generierte technische Chemie erzeugt im Gegensatz zur Biochemie allenfalls Langeweile im Klassenzimmer, unterbrochen von ein paar Knalleffekten. In der Biochemie aber hat offenbar über das Kohlenstoffatom die Kreativität freien Zutritt. Biochemie ist nichtlinear. Das biochemisch kreierte Molekül Desoxyribonukleinsäure (DNA) seinerseits schafft die unübersehbarer Vielfalt der Lebewesen, denen ebenfalls Muster zugrunde liegen.
An dieser Stelle dürfte es sich als sinnvoll erweisen, einen Ausflug zu den Anfängen der nichtlinearen Mathematik, besser bekannt unter dem Namen fraktale Geometrie, zu unternehmen:
Zunächst beschrieb Mandelbrot seine Ideen in einzelnen wissenschaftlichen Artikeln und Vorträgen. Richtig bekannt wurde seine bahnbrechende Erkenntnis, daß eine Beschreibung von natürlich auftretenden Formen und Prozessen mit Hilfe der bekannten geometrischen Modelle nicht möglich sei, aber durch seine zwei Bücher. Darin bewies er anhand vieler Beispiele, daß die >Monsterkurven< und ähnliche pathologische Objekte, die einige Mathematiker um die Jahrhundertwende untersucht hatten, viel besser geeignet waren, natürliche Formen wie Bäume, Lungengewebe, Wolken und Galaxien zu beschreiben.
… Ein großer englischer Wissenschaftler, etwas schrullig, wie man es von einem englischen Wissenschaftler erwarten darf, Lewis Richardson, durchstöberte Enzyklopädien verschiedener Länder und machte dabei eine überraschende Entdeckung. Die Länge von Landesgrenzen wies bemerkenswerte Unterschiede auf, je nachdem in welchem Land die Enzyklopädie erschienen war. So differierte die Angabe der Länge der gemeinsamen Landesgrenze zwischen Spanien und Portugal (987 km gegenüber 1214 km) sowie zwischen den Niederlanden und Belgien (380 km gegenüber 449 km) deutlich. Er wunderte sich über seine Entdeckung, konnte aber keine Erklärung angeben.
Richardson untersuchte auch noch die Länge von Küsten in Abhängigkeit des Maßstabs der verwendeten Landkarten. Es gelang ihm sogar, seine Ergebnisse auf eine einleuchtende Art graphisch darzustellen, so daß eine Art von Gesetz abgeleitet werden konnte. Allerdings konnte er keine Erklärung geben, wie seine Untersuchung auf eine grundlegende Art zu verstehen sei.
(…) Es stellt sich also prinzipiell heraus, daß die Küste um so länger wird, je kürzer der verwendete Maßstab ist. Es scheint sogar so zu sein, daß die Küstenlänge gegen Unendlich geht, für den Fall eines beliebig kleinen Maßstabes. Hat es da überhaupt noch einen Zweck, von Länge im gewohnten Sinn zu sprechen?
Es gelang nun Mandelbrot eine überaus einfache und einleuchtende Erklärung, die es erlaubte, eine Vielzahl von Entdeckungen der obigen Art zu verstehen. Das Hauptergebnis obiger Untersuchungen und Überlegungen kann wie folgt zusammengefaßt werden. Analysiert man die einzelnen Teile mit Meßstäben unterschiedlicher Länge, so stößt man immer wieder auf dieselben Grundelemente. Solch ein Verhalten nennt man Skaleninvarianz. Die Essenz der Mandelbrotschen Botschaft ist also, daß ein Gebilde äußerster Komplexität, die sich einer einfachen Beschreibung zu entziehen scheinen, tatsächlich eine geometrische Regelmäßigkeit besitzen – die sogenannte Skaleninvarianz. Das aus ihr folgende Zusammenspiel von immergleichen Strukturen in verschiedenen Maßstäben findet im Begriff der fraktalen Dimension eine angemessene mathematische Beschreibung. Das wirklich Faszinierende ist aber, daß im Gegensatz zu den idealen Körpern und Vorstellungen der euklidischen Geometrie, die Natur fast nur aus >pathologischen Strukturen< besteht.“ (Lerbinger/Kuchenbuch, Fasziantion Fraktale, München 1992, S 18f)
Als „vollkommenste geometrische Figur“ des Euklid gilt nach wie vor der Kreis. Allerdings dürfte es ein Schlag in das Gesicht der Anhänger Euklids bedeuten, wenn man behauptet, der Kreis sei nicht der euklidischen Geometrie zuzurechnen, er sei vielmehr ein Fraktal.
Wie werden Umfang und Flächeninhalt eines Kreises berechnet? – 2r*Pi, danach „berechnet“ sich der Umfang des Kreises, r²*Pi gibt Auskunft über den Flächeninhalt. Die Vollkommenheit der euklidischen Geometrie wird allerdings ein wenig dadurch gestört, daß Pi eine Zahl ist, die zwar mit der Ziffer drei beginnt, aber eine bis heute unbekannte Anzahl weiterer Ziffern hinter dem Komma nach sich zieht. Ich weiß nicht, wie weit die Berechnungen von Pi bislang gediehen sind, aber es wäre eine Sensation gewesen, wenn man dabei eine Periodizität entdeckt hätte. Die Überlegungen Richardsons und Mandelbrots zur Länge der Küstenlinie Großbritanniens treffen auch auf den Kreis zu. Nie werden wir exakt erfahren, welchen Umfang ein Kreis hat oder welche Fläche er enthält. Mit jeder neu errechneten Ziffer von Pi ändert sich der Größenmaßstab und damit das Ergebnis unserer „Berechnung“. Letztlich ist der Kreis bei all der Vollkommenheit, die er ausstrahlt, ein reichlich chaotisches Gebilde.– Auch die vollkommenste Figur des euklidischen Universums ist eine >pathologische Struktur<.
Wenn nichtlineare Mathematik Muster erzeugt, nichtlineare Chemie ebenfalls und auch die Biologie mit Mustern arbeitet, müßte eine nichtlineare Physik ebenfalls von Mustern durchzogen sein. – Poincarés Arbeit zum Dreikörperproblem deutet es bereits an.
Schauen Sie nur durch ein Fernrohr. Sie werden Muster erkennen, nichts als Muster. Vom Kleinplaneten über Sonnensysteme bis hin zu Galaxien. Damit nicht genug. Galaxien bilden lokale Gruppen, Cluster und Supercluster. Das Universum ist voll von Mustern und Strukturen. – Drehen wir die Blickrichtung um und schauen auf das Kleinste. Das Periodensystem der chemischen Elemente beruht auf deren physikalischen Besonderheiten. Das Periodensystem ist seinerseits ein Muster. Betrachten wir die Anzahl der Protonen und Elektronen eines Elements einmal als „Organisationshöhe“, so ergeben sich aus dem Periodensystems für „verwandte“ Elemente trotz der Unterschiede in der Organisationshöhe ähnliche chemische Eigenschaften. Muster – nie identisch, aber immer ähnlich.
Es scheint, als könne das Muster des Atoms, das sich im Periodensystem der Elemente offenbart, nur ein gewisses Maß an Energie aufnehmen. Das Periodensystem ist endlich. Die Grenze liegt beim Uran. Alle Elemente, die „schwerer“ sind, also mehr Energie enthalten, sind instabil und zerfallen nach kurzer Zeit. Ebenso ergeht es radioaktiven Isotopen, wie etwa dem Kohlentoffisotop C14 Alle chemischen Elemente sind in der Lage, Muster zu bilden. Allein oder in Verbindung mit anderen Elementen.
Auf der Ebene der Atomkerne beobachten wir, daß diese sich mehr oder weniger in Muster aufzulösen scheinen. „(…) So muß man beispielsweise drei Quarks zusammenfügen, um ein Neutron oder ein Proton zu erhalten. Das Proton besteht aus zwei >u-Quarks< (für Up) und einem >d-Quark< (für Down), während sich das Neutron aus zwei >d-Quarks< und einem >u-Quark< zusammensetzt. Die u- und d-Quarks haben unterschiedliche elektrische Ladungen. In den Einheiten der Elektronenladungen ausgedrückt, hat das Elektron die elektrische Ladung -1, das Proton die Ladung +1 und das Neutron die Ladung 0. In denselben Einheiten ausgedrückt, besitzt das u-Quark eine Ladung von 2/3, und das d-Quark eine Ladung von -1/3. Addiert man 2/3, 2/3 und -1/3, erhält man 1, addiert man -1/3 und – 1/3 und 2/3, erhält man 0, die Ladung des Neutrons.“ (M. Gell-Mann, Das Quark und der Jaguar, München 1994, S. 263) – Man kann Proton und Neutron damit ebenfalls als die beiden verschiedenen „Baumuster“ ansehen.
Aber es geht noch weiter: Im Hinblick auf die „wirklich“ fundamentalen Grundbausteine dieser Welt hat man die „Superstring“-Theorie entwickelt. Welche Bedeutung aber hat der Begriff „Superstring“? – „Was läßt sich allgemein über den Teilchenkatalog der heterotischen Superstring-Theorie sagen? Die Antwort auf diese Frage hängt mit der Bedeutung des Wortes string (Saite) und der Vorsilbe super zusammen.Wie das Wort string andeutet, beschreibt diese Theorie Teilchen nicht als Punkte, sondern als winzige Schleifen; die typische Größe einer Schleife entspricht dabei annähernd der fundamentalen Längeneinheit, also einem Milliardstel eines Billionstel eines billionstel Zentimeters…“ (Gell-Mann aaO, S. 292) – Sollte diese Theorie auch nur annähernd zutreffen, wären auch die kleinsten Masseneinheiten gemustert.
Muster finden wir also auf allen Größenskalen.
Doch kehren wir auf die uns gerade noch geläufige Ebene des Atoms zurück. An ziemlich unscheinbarer Stelle im Periodensystem versteckt, da liegt eben das Element, den unzweifelhaft schöpferische Eigenschaften zugebilligt werden müssen: Das Kohlenstoffatom.
Kohlenstoffverbindungen bilden die Grundlage allen Lebens, ohne Kohlenstoff keine Biochemie.
Es neigt dazu, langkettige Moleküle, sog. Polymere, zu bilden und damit Energie gewissermaßen zu „sammeln“ (Alle unsere Treib- und Sprengstoffe sind Kinder des Kohlenstoffs!). Trotz der theoretisch Unbegrenztheit der atomaren Zusammensetzung eines Polymers, läßt das Auftreten immer wiederkehrender Muster darauf schließen, daß die Zahl der Möglichkeiten zwar außerordentlich hoch, aber eben endlich ist. Was ist in der Frühzeit der Erde abgelaufen?
Nachdem die Erde sich hinreichend abgekühlt hatte, entstanden die ersten Ozeane. Diese dürften zunächst kochend heiß gewesen sein. Im Laufe der Zeit kühlten sie sich dann ab. Dabei wurden zwangsläufig alle Temperaturstufen durchlaufen, die den Kohlenstoffatomen ermöglichten, mit allen erdenklichen Elementen zu reagieren. Zwangsläufig fand der Kohlenstoff nach und nach immer weniger „freie“ Atome und Moleküle für die Polymerisation. Statt dessen stieg die Wahrscheinlichkeit, mit Polymeren anderer Provenienz zusammenzutreffen und in Wechselwirkung zu treteten. Es bildeten sich immer größere Bausteine, deren Zahl mit zunehmender Zeit zwar stetig abnahm, aber gleichzeitig die Basis für die Bildung immer komplexerer Einheiten schuf. – Das deutet auf einen sich selbst beschleunigenden Prozeß, auf eine positive Rückkopplungsschleife hin. Damit war die Entstehung des ersten Zelle bereits vorprogrammiert, es bedurfte lediglich eines Schleusenereignisses, um sie zu schaffen. Nachdem die erste Zelle sich erst einmal geteilt hatte, war das Leben nicht mehr aufzuhalten; es „explodierte“ regelrecht, der logistischen Funktion folgend. Unser Leben verdanken wir demnach einer Neigung des Kohlenstoffatoms. Da aber der Kohlenstoff im Laufe der Jahrmillionen alle tatsächlichen Möglichkeiten der Polymerisation durchgespielt haben muß, ist es um so erstaunlicher, daß er an den uns bekannten Mustern „hängenblieb“.
Es kann einem schon kalt den Rücken herunterlaufen, wenn man bedenkt, daß dieses relativ simple Atom einerseits das härteste Mineral, den Diamanten, hervorbringt, der das Licht in einmaliger Weise erstrahlen läßt; daß dieses simple Atom andererseits die komplexeste Struktur geschaffen hat, die auf Erden bekannt ist, nämlich das menschliche Gehirn. Dieses wiederum ist in der Lage, die Gesetze der nichtlinearen Mathematik zu ergründen und Rechenmaschinen zu entwickeln, die in der Lage sind, dem menschlichen Gehirn die Ähnlichkeiten zwischen den Mustern der reinen Mathematik und denen der Natur begreifbar zu machen.
Also erhebt sich die Frage, welchem Umstand es zu verdanken ist, daß immer wieder einander ähnliche Muster in der Natur auftreten. Wie wir gesehen haben, muß es mit den in der Natur vorhandenen Grundkräften zu tun haben. Fangen wir mit unseren Computerbildern an:
Wir haben gesehen, daß die numerische Lösung nichtlinearer Gleichungen auf dem Bildschirm eines Computers wunderschöne, organisch wirkende Bilder hervorruft. Bei der Zuweisung der Bildpunkte wird folgendes Verfahren angewandt: „Die Julia-Menge, die zu einem bestimmten Wert von c gehört, ist genau dann zusammenhängend, wenn die Zahlenfolge nicht über alle Schranken wächst. Anderenfalls bildet die Julia-Menge eine Cantor-Menge, sie ist also nicht zusammenhängend.“ (Lerbinger/Kuchenbuch aaO, S. 29). Musterbildend ist also das Zusammentreffen der beiden Faktoren Unbestimmtheit des Einzelergebnisses und Entweder/Oder Prinzip. Kennen wir nicht in der Physik die Heisenbergsche Unschärferelation auf der einen Seite und das Paulische Ausschließungsprinzip auf der anderen Seite?
Die Unschärferelation besagt, daß es nicht möglich ist, Ort und Impuls eines Teilchens gleichzeitig zu ermitteln.
Das Paulische Ausschließungsprinzip teilt die Welt auf. Teilchen, die keine Lichtgeschwindigkeit haben, können nicht denselben Quantenzustand einnehmen, bei Teilchen, die Lichtgeschwindigkeit haben, ist das aber zulässig. Lichtgeschwindigkeit ist aber in unserem Universum der elektromagnetischen Strahlung vorbehalten. Elektromagnetische Strahlung, zu der auch das Licht gehört, breitet sich mit Lichtgeschwindigkeit aus. Diese ist überall konstant. Einstein hat gezeigt, daß keine Materie so schnell wie das Licht sein kann, denn je näher Materie an die Lichtgeschwindigkeit kommt, desto größer wird seine Masse.
Ich gebe zu, ich habe mich nach Kräften bemüht, die Relativitätstheorie zu verstehe, so ganz ist es mir aber bis heute nicht gelungen. Also ist es an der Zeit, die Bemühungen etwas zu intensivieren.
Lichtteilchen, sog. Photonen, rauschen mit Lichtgeschwindigkeit durch das All, und zwar wellenförmig. – Ziemlich langweilig, finden Sie nicht? – Im Universum, in dem die Bewegungen weit unterhalb der Lichtgeschwindigkeit ablaufen, gibt es zwar auch Wellen, aber die Muster sind erheblich vielfältiger.
Seit Einstein sein berühmtes E = mc² zum ersten Mal an eine Wandtafel schrieb, wird immer wieder versucht, die Welt in eine mathematische Formel zu pressen. – Vergeblich. Warum will das nicht klappen?
Vielleicht hängt das mit der Neigung der Physiker zusammen, alle Naturphänomene in lineare Gleichungen quetschen zu wollen; vielleicht hängt es mit unseren linearen Denkstrukturen zusammen? – Wir werden sehen.
Das Universum ist erfüllt von Mustern. Muster deuten auf nichtlineare Vorgänge hin.
Masse und Energie sind äquivalent. Energie kann man nicht in Eimern tragen, Masse dagegen schon. Reine Energie kann, wie wir gesehen haben, ausschließlich Wellenmuster annehmen. In Masse gegossene Energie hat demgegenüber viele Gesichter.
Die Superstring-Theorie führt letztlich zu er Frage, ob nicht das, was wir als Masse bezeichnen, lediglich Energiemuster sind. Auskunft darüber bekommen wir aber nur, wenn wir zum Anfang des Universums zurückgehen:
Kurz nach dem Urknall, so die gängige Theorie, entstanden Teilchen und Antiteilchen, die sich gegenseitig vernichteten und in Strahlung auflösten. Dabei soll es zu einem Symmetriebruch gekommen sein, der zu einem geringfügigen Überschuß der Materie gegenüber der Antimaterie führte. Betrachtet man diesen Symmetriebruch als Schleusenereignis in einem nichtlinearen dynamischen System, so mußte das Weltall geradezu explodieren. Dennoch führt uns diese Erkenntnis nur wenig weiter.
Allerdings zwingt uns die Verwendung des Begriffs Symmetrie dazu, eine symmetrische Entsprechung des Urknalls zu suchen. – Betrachten wir das frühe Universum doch einmal näher. Zu Beginn gab es eine Phase, in der Teilchen und Antiteilchen entstanden, die sich gegenseitig vernichteten und in Strahlung auflösen. Wenn aber nur ein geringfügiger Überschuß an Materie entstand, muß der weitaus überwiegende Teil des damaligen „Universums“ zerstrahlt worden sein. Danach aber sieht es so aus, als hätte sich das Universum damals auf den Weg in eine strahlende Zukunft begeben, sie aber nicht vollständig erreicht.
Nun kennen wir aus dem Physikunterricht noch den Ersten Hauptsatz der Thermodynamik, wonach bei allen physikalischen Vorgängen die Gesamtenergie gleich bleibt (Energieerhaltungssatz). Demnach muß die Gesamtenergie des Weltalls auch gleich bleiben, egal was passiert. Wir haben auf der einen Seite die Urknallsingularität, auf der anderen Seite die reine Strahlung. Damit müßte das Universum bipolar sein.
Bipolarität ist Grundbedingung für den Ablauf von Prozessen. – Bipolarität erst läßt nichtlineare dynamische Prozesse überhaupt zu. Bipolarität beherrscht auch die eher „geistigen“ Prozesse der Wirtschaft und des Rechts. – Der Namenspatron aller Prozesse in der Natur, nämlich der juristische Prozeß, „lebt“ ebenfalls von Bipolariatät. Sein Ablaufdiagramm durch die Instanzen ähnelt in verblüffender Weise den Bifurkationskurven diverser nichtlinearer Gleichungen.
Gibt es weitere Anhaltspunkte für ein bipolares Universum? – Den einen könnte uns der Zweite Hauptsatz der Thermodynamik bieten.
Der Zweite Hauptsatz der Thermodynamik besagt, daß in einem geschlossenen System die Unordnung (Entropie) zunimmt. Dieses Gesetz ist entwickelt worden im Zusammenhang mit der bei jedem Reibungsprozeß erzeugten Wärme. Man hatte nämlich festgestellt, daß bei der Reibung sich die „geordnete“ Form der Bewegung zu Teil in die „ungeordnete“ Form der Wärmestrahlung umwandelte. (z.B. „Heißlaufen“ eines Rades, Heißwerden von Bremsen). Die Vorgänge, die dem Zweiten Hauptsatz der Thermodynamik unterliegen, sind nicht umkehrbar, sie sind irreversibel. – Das erscheint uns als selbstverständlich, denn durch Erhitzen einer Bremse kann kein Rad angetrieben werden, ebensowenig durch Erhitzen der Achse.
Wenn am Anfang des Universums eine Singularität stand, wenn nach dem Ersten Hauptsatz der Thermodynamik die Energie konstant bleibt und nach dem Zweiten Hauptsatz der Thermodynamik die Entropie zunimmt, bleibt am Ende nur Strahlung übrig. – Die Ordnung löst sich auf. – Der Zweite Hauptsatz der Thermodynamik besagt dann aber, daß die Muster unterhalb der Lichtgeschwindigkeit immer weniger werden, die „Energiepakete“ der Teilchen immer seltener werden. Unter diesem Aspekt ließe sich Materie als Phasenübergang zwischen der Singularität des Urknalls und dem Zustand reiner Strahlung ansehen.
Das führt dann schon fast zwangsläufig zu der Frage, ob nicht das Universum selbst einen Phasenübergang zwischen den beiden Zuständen Singularität und „reiner“ Strahlung repräsentiert.
Nun hat Einstein gezeigt, daß mit zunehmender Annäherung an die Lichtgeschwindigkeit die Masse ebenfalls zunimmt, bis sie nahe an der Lichtgeschwindigkeit unendlich hoch ist. Die Zeit läuft dann unendlich langsam. Aus der Unendlichkeit bei der Annäherung folgt, daß bei Lichtgeschwindigkeit die Zeit exakt Null ist. Alle Lichtteilchen durchqueren den Raum also in der Zeit Null. Der Raum ist für sie praktisch nicht da.
Wir haben ferner das Paulische Ausschließungsprinzip, wonach die uns vertrauten Materieteilchen, niemals den gleichen Quantenzustand einehmen können. Bei Teilchen mit Lichtgeschwindigkeit (Photonen) ist das aber ausdrücklich zulässig:
Wenn wir die Welle-Teilchen-Dualität zugrunde legen, so läßt sich alles im Universum, auch das Licht und die Schwerkraft, in Form von Teilchen beschreiben. Diese Teilchen haben eine Eigenschaft, die Spin genannt wird. Man kann bei diesem Wort an Teilchen denken, die sich wie kleine Kreisel um eine Achse drehen: Diese Drehung ist der Spin. Allerdings kann diess Vorstellung auch irreführend sein, weil der Quantenmechanik zufolge Teilchen keine genau definierte Achse haben. Tatsächlich teilt uns der Spin eines Teilchens mit, wie es aus verschiedenen Blickwinkeln aussieht. Ein Teilchen mit dem Spin 0 ist ein Punkt. Es sieht aus allen Richtungen gleich aus. Ein Teilchen mit dem Spin 1 ist dagegen wie ein Pfeil: Es siet aus verschiedenen Richtungen verschieden aus. Nur bei einer vollsätndigen Umdrehung (360 Grad) sieht das Teilchen wieder gleich aus. Ein Teilchen mit dem Spin 2 ist wie ein Pfeil mit einer Spitze an jedem Ende. Es sieht nach einer halben Umdrehung (180 Grad) wieder gleich aus. Entspechend sehen Teilchen mit höherem Spin wieder gleich aus, wenn man Drehungen um kleinere Bruchteile einer vollständigen Umdrehung vollziet. All das wäre ziemlich einfach, wäre da nicht der bemerkenswerte Umstand, daß es Teilchen gibt, die nach einer Umdr ehung noch nicht wieder gleich aussehen. Es sind dazu vielmehr zwei vollständige Umdrehungen erforderlich! Der Spin solcher Teilchen wird mit ½ angegeben.
Alle bekannten Teilchen im Universum lassen sich in zwei Gruppen einteilen: Teilchen mit einem Spin ½, aus denen die Materie im Universum besteht, und Teilchen mit dem Spin 0, 1 und 2, die wie wir sehen werden, für die Kräfte zwischen den Materieteilchen verantwortlich sind. Die Materieteilchen gehorchen dem sogenannten Paulischen Ausschließungsprinzip, das 1925 von dem österreichischen Physiker Wolfgang Pauli entdeckt wurde(…) Nach dem Paulischen Ausschließungsprinzip können sich zwei gleiche Teilchen nicht im gleichen Zustand befinden, das heißt, sie können innerhalb der Grenzen, die die Unschärferelation steckt, nicht die gleiche Position und die gleiche Geschwindigkeit haben. Das Ausschließungsprinzip ist von entscheidender Bedeutung, weil es erklärt, warum Materieteilchen unter dem Einfluß der Kräfte, die von Teilchen mit dem Spin 0,1 und 2 hervorgerufen werden, nicht zu einem Zustand von sehr hoher Dichte zusammenstürzen. … (S.W. Hawking, Eine kurze Geschichte der Zeit, Hamburg 1989, S 91f)
Nun haben aber alle Teilchen mit Lichtgeschwindigkeit ein und dieselbe Geschwindikeit. Also können dem Pauli-Verbot nur solche Teilchen unterliegen, die langsamer sind als das Licht.
…Die Quantenmechanik liefert eine natürliche Einheit für den Spin, und in dieser Einheit gemessen, besitzt ein Boson einen ganzzahligen Spin (0, 1, 2 usw), während ein Fermion einen halbzahligen Spin ( ½, 3/2 oder 5/2 usw. ) aufweist.“ (Gell-Mann S.283)
…Es gibt zwei Grundklassen von Teilchen: die Fermionen, etwa die Elektronen, die dem sogannten Pauli-Prinzip gehorchen, nach dem zwei gleiche Teilchen niemals zur selben Zeit den gleichen Quantenzustand besetzen können, und die Bosonen, die einer Art Anti-Pauli-Prinzip unterliegen, nachdem zwei oder mehr gleiche Teilchen dazu neigen, zur selben Zeit den gleichen Zustand zu besetzen.( Auf dieser Eigenschaft der Photonen beruht die Funktionsweise des Lasers; hierbei regen Photonen, die sich in einem bestimmten Zustand befinden, die Emission weiterer Photonen m selben Zustand an…“) (Gell-Mann S. 189f)
Das Paulische Ausschließungsprinzip bildet also die Grenze, an die Materie stößt, wenn sie sich mit hoher Energie der Lichtgeschwindigkeit nähert. Neben dem Photon gibt es noch eine Reihe exotischer Teilchen, die dem Pauli-Verbot nicht unterliegen. Allein daran erkennt man, wie turbulent sich ein Versuch, die Lichtgeschwindigkeitsgrenze zu überschreiten, gestalten muß. Turbulenzen aber gehören wieder in den Bereich der Nichtlinearitäten. Jedenfalls hätte ein Übertritt in die Lichtgeschwindigkeit zur Voraussetzung, das sich alle uns vertrauten Teilchen und deren Musten irgendwie auflösen müßten. Es muß dann also so etwas wie einen Phasenübergang geben.
Das Problem der Phasenübergänge zweiter Ordnung wird von den meisten Physikern seit den Arbeiten von M.E. Fisher, L. Kadanoff und K. Wilson, er wurde dafür mit dem Nobelpreis ausgezeichnet, als erledigt betrachtet. Ein solcher Phasenübergang liegt zum Beispiel vor, wenn ein eisenhaltiges Material durch Temperaturerhöhung aus der Phase, in der es eine endliche Magnetisierung besitzt, in die Phase gebracht wird, in der keine Magnetisierung vorliegt. In einer vor einigen Jahren erschienenen Arbeit wurde nun die Natur der Phasengrenze in der komplexen Temperaturebene untersucht. Dies erscheint auf den ersten Blick sehr ungewöhnlich zu sein, ist die Temperatur doch eine reelle Größe. Im Rahmen einer theoretischen Untersuchung kann man die Temperatur natürlich auch als komplexe Größe auffassen, wenn man die Hoffnung besitzt, damit interessante Einsichten über das ursprüngliche Problem zu finden. Das überraschende Resultat dieser Untersuchung war nun, daß die Phasengrenzen in der komplexen Temperaturebene alles andere als einfache Gebilde sind. Wenn die bislang untersuchten, sogenannten hierarchischen Modelle nicht völlig untypische Eigenschaften haben, dann sind die Grenzlinien, die in der komplexen Ebene der Temperaturgebiete, die zu den verschiedenen Gebieten gehören, Fraktale. Es ist noch offen, ob man aus dieser Erkenntnis auch einen praktischen Nutzen ziehen kann. Der Reiz liegt zunächst einmal darin, daß Entwicklungen aus völlig verschiedenen Bereichen zusammengefaßt werden, obwohl diese Bereiche bislang kaum Notiz voneinander nahmen, wenngleich jeder für sich eine reiche Geschichte hat.“ ( Lerbinger/Kuchenbuch, Fasziantion Fraktale, 1992, S. 177 )
Auch unter diesem Aspekt wäre der Übergang von Materie zur Strahlung nicht linear zu beschreiben.
Wenn es so schwierig ist, wie kann es dann aber, nimmt man den Zweiten Hauptsatz der Thermodynamik ernst, dazu kommen, daß der Strahlungsanteil im Universum zunimmt?
Im Innern eines Sternes findet Kernfusion statt. Die Kerne von Wasserstoffatomen verschmelzen zu Heliumatomen. Ein Prozeß, bei dem ein Teil der Masse in Strahlung umgewandelt wird. Der Kern eines Heliumatoms ist also geringfügig leichter als zwei Wasserstoffatomkerne.
Das Sterneninnere kommt aber nicht von selbst. Sterne entstehen aus Gaswolken, die sich unter dem Einfluß der Schwerkraft verdichten. Die Gravitation ist bestrebt, die Masse des Sterns auf einen Punkt zu konzentrieren. Das führt zu verstärkter Teilchenbewegung im Innern der Sonne und letzlich zum Zünden des atomaren Feuers. Die treibende Kraft für die Kernfusion ist also letztlich die Schwerkraft, die bestrebt ist, die Masse in einem Punkt zu konzentrieren. Auf das Sterneninnere bezogen verleiht die Gravitation dem Zweiten Hauptsatz der Thermodynamik erst richtigen Schwung.
Die Konsequenz aus dem Zweiten Hauptsatz der Thermodynamik ist aber die, das letzlich das gesamte Universum in Strahlung übergeht. Nun müssen wir feststellen, daß es eine kosmische Hintergrundstrahlung gibt, die als Überbleibsel des Urknalls gilt. Ihre Temperatur liegt mit etwa 3° Kelvin knapp über dem absoluten Nullpunkt. Und trotz der ständigen Wärmeproduktion in den Sternen wird das Weltall nicht wärmer, es wird vielmehr kälter und nähert sich insgesamt dem absoluten Nullpunkt. Dieser Befund ist Anlaß genug, sich die Verhältnisse am absoluten Nullpunkt einmal näher zu betrachten:
Bei Lichtgeschwindigkeit ist die Zeit Null.. – Wie sieht es am absoluten Temperaturnullpunkt aus?:
Ein Teilchen mit der Temperatur Null bewegt sich nicht mehr, es hätte nur noch einen Ort, aber keine Geschwindigkeit mehr; das würde der Heisenbergschen Unschäferelation widersprechen. Außerdem würde jeder Beobachter, der mit einem solchen Teilchen wechselwirkt, diesem in irgendeiner Form „Wärme“ zuführen, Dann aber hätte es nicht mehr die Temperatur Null. Ferner bekommen wir Schwierigkeiten mit dem Pauli-Verbot. Denn das Pauli-Prinzip setzt ebenfalls Bewegung voraus, es ist innerlich mit der Unschärferelation verknüpft. Am absoluten Nullpunkt ist die Existenz der uns vertrauten Teilchen also nicht mehr zulässig, Daher kann es am absoluten Nullpunkt nur Strahlung geben. Auch durch Abkühlung kann Materie einen nur für Strahlung zulässigen Zustand ebenfalls nicht erreichen.. Am absoluten Nullpunkt ist nur noch Strahlung zulässig , und diese hat Lichtgeschwindigkeit. Bei Lichtgeschwindigkeit ist die Zeit Null, folglich ist auch am absoluten Temperaturnullpunkt die Zeit exakt Null. Zusammen mit der Zeit verschwindet aber auch der Raum, er wird bedeutungslos. Damit drängt sich der Verdacht auf, daß Lichtgeschwindigkeit und absoluter Nullpunkt zwei Aspekte ein- und desselben Phänomens sind.
Fassen wir noch einmal zusammen: Am absoluten Nullpunkt haben Energiequanten nur noch Lichtgeschwindigkeit. Auch aus dem Blickwinkel des absoluten Nullpunkts bilden Pauli-Verbot und Unschärferelation eine für Materie unüberwindliche Grenze. Weder durch Zuführen von Energie, noch durch Entzug von Energie kann Materie den Zustand reiner Strahlung erreichen. Daraus folgt im Umkehrschluß, daß alle Energiequanten mit Lichtgeschwindigkeit keine Temperatur haben, sich also am absoluten Nullpunkt aufhalten. Lichtgeschwindigkeit und absoluter Nullpunkt müssen daher identisch sein.
Das wiederum ist Grund genug, die Gleichung E = mc2 näher zu beleuchten: Energie ist gleich masse mal Lichtgeschwindigkeit (c) zum Quadrat. Lösen wir die Gleichung nach c auf. Um es etwas anschaulicher zu machen, setzen wir willkürliche Werte ein:
75 = 3 * 52
75 : 3 = 52
(75 : 3) : 5 = 5
Also ergibt sich folgende Rechung: (E : m) : c = c, oder, Mathematiker sehen solche Formeln lieber: c = E (mc)-1. Die Lichtgeschwindigkeit ist konstant, daraus folgt, daß auch das Verhältnis von Energie zu masse immer konstant ist. Das stimmt mit dem Ersten Hauptsatz der Thermodynamik überein. Allerdings hat die Sache einen kleinen Haken, m darf nie den Wert 0 annahmen. Denn die Division durch Null ist nicht definiert. Eine Berechnung der Lichtgeschwindigkeit aus den Werten E und m ist dann nicht mehr möglich. Die Bezugsgrößen für die Feststellung einer Geschwindigkeit, nämlich Raum und Zeit, sind dann augenscheinlich „verschwunden“. Ihr Fortbestehen scheitert an den Gesetzen der Mathematik.
Also ist der Anwendungsbereich der Relativitätstheorie auf unser „materielles“ Universum beschränkt; wenn keine Materie mehr da ist, läuft die Relativitätstheorie leer. Das hat auch zur Konsequenz, daß sich aus der Strahlung keine Aussagen über das „vorher“ und „nachher“ mehr ableiten lassen. Eine verblüffende Ähnlichkeit mit der Situation beim Urknall.
Wie gesagt, am absoluten Nullpunkt und bei Lichtgeschwindigkeit verschwinden Raum und Zeit, die mit dem Urknall entstanden waren. Damit wäre ein Zustand erreicht, der dem der Urknallsingularität spiegelsymmetrisch gegenübersteht, denn Raum und Zeit sind wieder verschwunden.
Wenn aber Raum und Zeit verschwunden sind, ist ebenfalls ein singulärer Zustend erreicht, bei dem alle Vorhersagbarkeit endet. Damit können wir die Behauptung wagen, die Nullpunkt-Lichtgeschwindigkeitsingularität sei zur Urknallsingularität spiegelsymmetrisch.
Sowohl bei der Urknallsingularität als auch bei der Nullpunkt-Lichtgeschwindigkeitssingularität (N/L-Singularität) bleibt nach dem ersten Hauptsatz der Thermodynamik die Energie erhalten. Die Gesamtenergie des Universums ist also immer gleich, unabhängig von seinem konkreten Zustand Das konstant bleibende Verhältnis von Energie zur Masse, das sich aus der Relativitätstheorie ergibt, zeigt das ebenfalls.
Damit hat das Universum einen konstanten Energiegehalt und zwei genau definierte Grenzen, nämlich die Urknall- und die N/L- Singularität Es ist daher geschlossen, und, die zwischen den Grenzen wirksamen Kräfte und ablaufenden Prozesse zeigen es, es ist bipolar aufgebaut.
Bipolarität findet sich also auf allen Größenskalen des Universums. Da wir auf allen Größenskalen des Universums auch Muster haben, handelt es sich bei Teilchen ebenfalls um Energiemuster. Dann aber scheinen, – man kann kaum andere Worte dafür finden – Energiequanten, die in unseren materiellen Teil derWelt gehören, nicht zu „wissen“, zu welchem Zustand sie „gehören“.
Als geschlossenes System befindet sich das Universum im Anwendungsbereich des Zweiten Hauptsatzes der Thermodynamik.
Nun ist, wie wir gesehen haben, Strahlung nur vordergründig ungeordnet. Strahlung hält sich an der N/L – Singularität auf. Bei jeder physikalischen Wechselwirkung nimmt die Entropie zu, und damit der Anteil der Strahlung. Wenn Materie in Mustern gefangene Energie ist, dann besagt der Zweite Hauptsatz der Thermodynamik, daß der Anteil der in Mustern „gefangenen“ Energie nach und nach abnehmen muß. Die Zunahme der Entropie ist unumkehrbar. Damit erleidet das Weltall einen unaufhörlichen Masseverlust. Aber nur bei der Kernfusion tritt ein meßbarer Masseverlust ein.
Sinkt der Anteil der Materie gegenüber der Strahlung, muß aber zwangsläufig die Angriffsfläche für die Schwerkraft insgesamt abnehmen. Die Gravitation als Massenanziehungskraft setzt das Vorhandensein von Materie voraus. Materieteilchen sind aber, wie wir gesehen haben, Energiemuster.
Die Auflösung der Einsteinschen Gleichung nach c hin belegt, daß die Masse im gleichen Verhältnis abnehmen muß, wie die Entropiegewinnung im Innern der Sterne zunimmt. Der Zweite Hauptsatz der Thermodynamik zwingt zu der Annahme, daß der Wert von E im Universum insgesamt größer wird, was zur Folge hat, daß m kleiner werden muß. Folglich steht die Relativitätstheorie meiner Vermutung, daß die Gesamtgravitation des Universums abnimmt, nicht entgegen.
Als ob der Name Programm wäre, erweist sich auch hier die Schwerkraft als die am schwersten zu erfassende Kraft im Kosmos. Sie wirkt lokal, wir werden uns dessen spätestens dann bewußt, wenn uns ein Hammer auf den Fuß fällt. Sie wirkt global, die Gezeiten der Meere legen darüber beredtes zeugnis ab; ohne die Gravitation gäbe es keine Sonne und keine Erde. Ohne sie könnte die Erde sich nicht auf ihrer Bahn halten. Sie wirkt im ganzen Universum. Wo auch immer sie Wirkung entfaltet, sie wirkt immer punktförmig, die Gravitation ist konstituierend für die Bildung von Schwerpunkten. Die Schwerkraft hat scheinbar immer ein Ziel, auf das sie gerichtet ist, sie hat einen Wegweiser, einen Vektor. Gravitation ist eine vektorielle Kraft.
Der Schwerpunkt der Erde ist ihr Mittelpunkt. Erde und Mond kreisen um einem gemeinsamen Schwerpunkt, weil die Mondbahn nicht vollkommen kreisförmig ist. Das Sonnensystems hat ebenfalls einen Gesamtschwerpunkt. Unsere Milchstraße auch.. Das ganze Universum ist erfüllt von Materie, folglich muß die Gesamtmaterie des Weltalls auch einen gemeinsamen Schwerpunkt haben.
Wirkt die Schwerkraft punktförmig, wo immer man sie antrifft, muß auch der Vektor der auf die Gesamtheit der Materie im Weltall einwirkenden Gravitation auf einen Punkt weisen. Wenn das Universum aus der Urknallsingularität hervorgegangen ist, kann eben dieser Punkt nur die Urknallsingularität sein. Dann aber ist die Gravitation eine Wirkung der Urknallsingularität, die mit den bei der Musterbildung der Materie auftretenden Wechselwirkungen (Kernkräften) nichts zu tun hat.
Wenn die Gravitation aber die Kraft ist, deren Vektor auf die Urknallsingularität, auf diesen Punkt gerichtet ist, ergibt sich die Krümmung des Raumes, die Einsteins Relativitätstheorie vorhersagt, von selbst.
Die Wirkung der Gravitation ist nichtlinear-dynamisch, wie Einsteins Gleichungen zeigen und die Sterne beweisen.
Unter diesem Blickwinkel erscheint es also nicht verwunderlich, daß die Gravitation ein wenig aus dem Rahmen des Einsteinschen Universums zu fallen scheint; sie ist neben der kosmischen Hintergrundstrahlung der einzige uns zugängliche Aspekt der Urknallsingularität. Und Einstein wußte noch nichts von Hochleistungsrechnern und deren Befähigung, uns die Muster zu zeigen, die nichtlineare Gleichungen hervorrufen können.
Gravitation wirkt lokal und universal. Der Zweite Hauptsatz der Thermodynamik wurde auf der Erde entwickelt, wo eigentlich gar keine Erzeugung von Entropie stattfindet, die mit einem meßbaren Masseverlust einhergeht. Nun ist die Erde kein geshlosssenes System; die Entwicklung des Zweiten Hauptsatzes der Thermodynamik unter irdischen Verhältnissen legt aber nahe, daß dieser Satz neben der universalen auch lokale Auswirkungen hat. – In dieser Eigenschaft steht er der Gravitation in nichts nach. Demnach erscheint es zulässig, den Zweiten Hauptsatz der Themodynamik als den Gegenspieler der Gravitation zu betrachten. Damit wäre sowohl Bipolarität als auch Symmetrie gewahrt.
Das Wirken der beiden Singularitäten bekommen wir also einmal als Schwerkraft und einmal als Zweiten Hauptsatz der Thermodynamik zu spüren.
Wenn die N/L-Singularität tatsächlich eine ist, muß sich das Universum in dessen Nähe entprechend verändern. Trotz der unaufhörlichen Erzeugung von Entropie wird das Weltall kälter und verliert zunehmend Masse, die Gesamtgravitation nimmt ab, und zwar um den Betrag, der bei der Kernfusion in den Sternen an Masse verlorengeht. Die Abnahme der Gesamtgravitation raubt den „Sternenleichen“ von heute, den „weißen Zwergen“, und vor allem den Neutronensternen die Kraft zum inneren Zusammenhalt. Sie zerfallen, ihre Teilchen diffundieren in den Raum und verbreiten einen Hauch von Restwärme.
Um zu ergründen, was dann passiert, brauchen wir ausnahmsweise keinen teuren Teilchenbeschleuniger, allenfalls eine Teilchenbremse. Denn Wärme ist Teilchenbewegung. Was passiert, wenn ich ein Teilchen so sehr bremse, daß es dem absoluten Nullpunkt nahe kommt? – Wenn alle Teilchenbewegung aufhören soll, darf es kein Teilchen mehr geben, das der Heisenbergschen Unschärferelation und dem Paulischen Ausschließungsprinzip unterliegt, also kein Teilchen mehr, das eine Masse hat. Dann aber muß vorher ein Zustand eintreten, der symmetrisch zur Urknallsingularität ist, mit anderen Worten, die Stärken der Wechselwirkungen müssen wieder gleich sein. Es muß die Symmetrie zwischen starker, schwacher und elektromagnetischer Wechselwirkung hergestellt werden.
Daher müssen wir erneut einen Blick auf die Verhältnisse kurz nach dem Urknall werfen:
10-43 Sekunden (Planckzeit), also im Minimalabstand von der Urknallsingularität, bestand noch vollkommene Symmetrie zwischen der starken, der schwachen und der elektromagnetischen Wechselwirkung.
10-35 Sekunden nach dem Urknall sonderte sich die starke Wechselwirkung ab. Nach etwa 10-11 Sekunden sonderten sich die elektromagnetische und die schwache Wechselwirkung voneinander ab.
Aus Gründen der Symmetrie müßte dann auch bei Annäherung an den absoluten Nullpunkt auch die Symmetrie der Kräfte in umgekehrter Reihenfolge wiederhergestellt werden. Als erstes müßten dann schwache und eletromagnetische Wechselwirkung wieder vereint werden.
Ich könnte fast wetten, daß 10 -35 Sekunden vor Erreichen des absoluten Nullpunkts die Symmetrie wiederhergestellt sein wird. Kurz vor Erreichen der Strahlungssingularität. Danach geht vollends das Licht an und alle Uhren bleiben stehen.
Ein weiteres Indiz für die beiden gestaltbildenden Antagonisten liefert auch folgende Überlegung:
Einsteins Theorie besagt, daß die Ausdehnung des Kosmos irgendwann einmal zur Ruhe kommen muß, falls- und dies ist entscheidend – die sogenannte >mittlere Materialdichte< einen kritischen Wert überschreitet. Dann würden sich die Galaxien mit stetig wachsender Geschwindigkeit wieder aufeinander zubewegen. So käme es letztlich zu einer Umkehrung des >Big Bang< zum >Big Crunch<
>Dieses Verhältnis der im Weltraum vorliegenden Materialdichte und der kritischen Dichte ist heute berechenbar<, erklärt der theoretische Physiker und P:M.-Autor Professor Dr. Harald Fritzsch. >sie wird von den Astrophysikern als Omega bezeichnet<. (…) >Man weiß heute<, so erklärt Astronom John Gribbin, >daß die Zahl nicht sehr von eins abweichen kann<. Wäre Omega im frühen Weltall nur ein wenig schwächer gewesen als tatsächlich der Fall, so wäre das Universum unter seinen eigenen Gravitation wieder in sich zusammengestürzt. Umgekehrt hätte Omega auch nicht viel stärker sein dürfen, sonst wäre die Materie nach allen Seiten zerstreut worden. Keine Chance mehr für die Bildung von Galaxien. (…) Dieses Rätsel der Feinabstimmung zu lösen gelang erst vor einigen Jahren dem amerikanischen Physiker Dr. Alan Guth. Er errrechnete: Omega ist automatisch gleich eins, wenn es in der Frühphase des Kosmos, kurz nach dem Urknall, eine äußerst starke Expansion gegeben hat; eine >Inflation< (…) (J. Scheppach, Plötzlich sieht das All ganz anders aus, P.M. – Magazin 4/88, S. 83)
Betrachten wir den Urknall einmal als Folge eines Schleusenereignisses, das eintrat, als sich ein Ungleichgewicht zwischen Materie und Antimatierie herausbildete. Dann aber muß es zwischen dem hypothetischen und dem tatsächlichen Urknall zu einer Phasenverschiebung gekommen sein:
Mit dem hypothetischen Urknall begann der Übergang in die Strahlungssingularität. Dabei kam es zu einer Phase der Instabilität, während der sich Energiemuster (Teilchen und Antiteilchen) bildeten, die beim Zusammentreffen vollkommen in Strahlung übergingen. Der tatsächliche Urknall fand erst statt, als – aus welchen Gründen auch immer – im „Teilchenstadium“ des Übergangs sich eine „kritische Masse“ an Materie gebildet hatte. Erst dann hatte die Gravitation die Möglichkeit, störend in den Geschehensablauf einzugreifen. Das Universum zuckte einen Augenblick. Dann erst kam es zu dem Ereignis, das wir als „Urknall“kennen. Dann erst wurden die Anfangsbedingungen gesetzt, die das für uns sichtbare Universum hervorbrachten. Der tatsächliche Urknall ist vom hypothetischen also um eine Nuance verschoben. Da die kosmische Hintergrundstrahlung aber das Echo des noch vollkommen symmetrischen hypothetischen Urknalls repräsentiert, ist ihr Wert für uns anscheinend in allen Himmelsrichtungen konstant.
Nun haben wir auch keine Schwierigkeiten mehr, die Kluft zwischen der Heisenbergschen Unschärferelation und der Kausalität der klassischen Physik zu schließen. – Das Universum ist akausal, aber musterstabil. Was der Mensch subjektiv als Kausalität von Ereignissen erlebt, ist sein Vertrauen in die Konstanz der Muster.
Allerdings eröffent sich ein ganz anderer Fragenkomplex, der sich aus dem Muster „Welle“ ergibt. Von elektromagnetischen Wellen wird behauptet, daß deren Energie mit der Frequenz zunehme. Röntgenstrahlung sei energiereicher als Radiostrahlung. Allerdings läßt sich das nicht aus der Einsteinschen Gleichung ableiten, denn elektromagnetische Strahlung entzieht sich der Berechenbarkeit. Andererseits haben wir auch in unserem berechenbaren Teil des Universums Wellen. Wellen übertragen in Gasen, Wasser und Festkörpern Schallschwingungen. Wasserwellen durchqueren Ozeane und erfreuen die Surfer vor der kalifornischen Küste. Erdbebenwellen haben dazu beigetragen, den Geologen einen Überblick über den inneren Aufbau der Erde zu verschaffen. Wellen sind also allgegenwärtig. Ob Licht, Schall oder Erdbeben, alle Wellen haben eines gemeinsam: sie tragen und übertragen Information über ihre Entstehung. Die Welle an sich ist bereits ein Thema, das dazu einlädt, näher hinzusehen, weil auch hier die Skaleninvarianz augenscheinlich durchschlägt.
Beim Anblick der auf meinem Computerbildschirm erscheinenden Muster, die auf ziemlich simplen Rechenvorschriften beruhen, drängt sich mir eine gänzlich andere Frage auf, die uns auf dem Markt an jedem Obst- und Gemüsestand begegnen kann:
Wenn Sie das nächste Mal einen Blumenkohl kaufen, können Sie Studien an einem fraktalen Objekt betreiben, ohne erst in die geheiligten Hallen der Wissenschaft eintreten zu müssen. Bricht man aus einem Blumenkohlkopf ein Blumenkohlröschen heraus und betrachtet es etwas genauer, so stellt man überraschenderweise fest, daß es dem Blumenkohl ziemlich ähnlich sieht – es ist zwar kleiner, aber besitzt die gleiche Struktur. Man kann nun aus diesem ersten Blumenkohlröschen ein zweites, kleineres Blumenkohlröschen herausbrechen, welches bei genauem Hinsehen dem ersten Blumenkohlröschen ziemlich ähnlich sieht – kleiner zwar, aber die gleiche Struktur besitzend. Hier müssen wir normalerweise unsere Untersuchung abbrechen, denn ein noch kleineres Blumenkohlröschen finden wir nur ganz selten…(Lerbinger/Kuchenbuch aaO, S. 17)
Warum gleicht das Blumenkohlröschen dem ganzen Blumenkohl? – Warum erscheint das „Apfelmännchen“ auf meinem Bildschirm auf allen denkbaren Größenskalen? – Anderes gefragt: Wo ist das „Apfelmännchen“, wenn es nicht auf meinem Bildschirm zu sehen ist? Daß es „existiert“, ist naturwissenschaftlich „beweisbar“, denn, wenn wir ein entsprechendes Computerprogramm als „Versuchsanordnung betrachten, läßt sich das „Experiment Apfelmännchen“ beliebig oft mit demselben „Ergebnis“ wiederholen.
Stellen wir die Frage erneut anders: Gibt es neben der allgegenwärtigen Information auch so etwas wie „Präformation“, die die Muster festlegt?

Good News von der nichtlinear-dynamischen Front

Juni 22, 2011

FractInt DeepZooming.

Wer auch nur das geringste Interesse an fraktaler Geometrie und nichtlinear-dynamischen Systemen hat, für den ist das ein MUSS! – Ich hatte schon mit Fractint 18.02 Bilder auf dem Schirm, die mir den Atem geraubt hatten, aber so tief und mit solcher Feinheit war ich noch nie in die Welt der reinen, unverfälschten Mathematik vorgedrungen.

Allen „Apfelmännchen-Fans“ sei die Beantwortung meiner Frage, wo denn das Apfelmännchen sei, wenn es nicht auf meinem Bildschirm steht, ins Stammbuch geschrieben:

Über die Mandelbrotmenge las ich einmal, ich weiß nur nicht mehr wo, daß sie wie der Mount Everest sei: einfach da!

Das Kopfbild von St. Neptunes Homepage wurde übrigens auch mit Fractint erzeugt. Das Fraktal ist „biflambda“, die Originalbahnkurve der logistischen Funktion – die Bahnkurve der Evolution.