Heute back ich, morgen brau ich, übermorgen züchte ich Coronas?

Juni 22, 2020

„Man kann anderen Menschen nur vor Kopf gucken“ – so will es ein bekanntes Sprichwort. Dank CT und MRT stimmt das nicht mehr so ganz. Als ich eine CT-Aufnahme meines eigenen Schädelinneren angeschaut hatte, konnte ich dort freilich nichts weltbewegendes feststellen. Dennoch behaupte ich, man kann auch ohne unmittelbar bildgebende Verfahren in begrenztem Umfang erkennen, was hinter der Stirn eines anderen vorgeht. – Nämlich immer dann, wenn er gedankenverloren vor sich hin brabbelt. So ist es Herrn Prof. Dr. Chr. Drosten in einer der ersten Talkshows zum Thema „Corona“ widerfahren:

Er sinnierte über das „exponentielle Wachstum“ – einfach so: 2, 4 , 8, 16… und schüttelte sichtlich entsetzt den Kopf. Daran läßt sich unschwer erkennen, daß er den aus der klassischen Mathematik bekannten Wachstumsalgorithmus X’ = r*x vor Augen hatte, der bekanntlich nach „oben offen“ ist, sich also im Prinzip in der Unendlichkeit verliert.

Quelle: Prof. Dr. Heinz Haber, Bausteine unserer Welt. Dieses Diagramm soll die Wirkungsweise der nuklearen Kettenreaktion veranschaulichen.

Herr Prof. Droste mag es bedauern, aber unbegrenztes Wachstum kommt in der Natur nicht vor:

Lerbinger/Kuchenbuch, Faszination Fraktale S 123: „Stellen Sie sich einmal folgende Situation vor: In einem Teich gäbe es eine bestimmte Anzahl von Fischen einer Sorte. Wir nehmen nun an, daß die Variable x die Anzahl der i-ten Generation von diesen Fischen bezeichnet.

Jeder ausgewachsene Fisch bekomme r Nachkommen für den Fall, daß die Probleme der Überbevölkerung vernachlässigt werden können. Weiterhin muß man noch annehmen, daß aufeinanderfolgende Generationen zeitlich deutlich voneinander getrennt sind. Für den Fall, daß sich das Fortpflanzungspotential von Generation zu Generation nicht ändert, kann diese Situation durch folgende lineare Gleichung X’ = r*x beschrieben werde, wobei X’ die Anzahl der Fische der folgenden Generation bezeichnet. Diese Gleichung ist jedoch eine zu starke Vereinfachung der Wirklichkeit. Kein Teich kann beliebig viele Fische enthalten. Man muß deshalb im Modell berücksichtigen, daß die Anzahl der Fische der nächsten Generation nicht nur linear von der derzeitigen Anzahl abhängen kann. Man benützt deshalb eine etwas kompliziertere Gleichung x’ = r*x*(1-x), um die zeitliche Entwicklung der Anzahl von Fischen in einem Teich zu modellieren. Der Term (1-x) beschreibt den Einfluß einer hohen Bevölkerungsdichte auf die nachfolgende Generation, das heißt, falls zu viele Fische in der i-ten Generation vorhanden sind, reicht das Nahrungsangebot nicht für alle Fische, und in der nachfolgenden Generation gibt es nur noch wenige Fische.“

Erst die Entwicklung leistungsfähiger Computer machte es möglich, die scheinbar chaotischen Zahlenwerte oberhalb einer Reproduktionsrate von 3, 57 graphisch darzustellen, und zwar als das Feigenbaum-Diagramm.

Feigenbaum Diagramm der logistischen Parabel Prof. Dr. Dörte ...

Diese Bifurkationskaskade setzt sich auf allen Größenskalen fort, ist aber auch an den „Fenstern“ für manch eine Überraschung gut:

Auf der linken Bildseite enden alle bis dahin angelaufenen Bifurkationskaskaden an dieser Stelle in einer Art Hotspot. Nur in dem kleinen Kästchen ist ein hauchdünnes Filament erkennbar, das eine Brücke zur anderen Seite des „Fensters“ bildet. – Erzeugt mit Fractint 18.2, Vergrößerung ungefähr 1: 10.000.000.000.000.000.000

Bifurkationskaskaden kennen wir vor allem aus der Biologie, nämlich von Bäumen, Blättern, Blutgefäßen und Nerven. – Vor diesem mathematischen Hintergrund ist das nicht verwunderlich, vor allem ist es kein „Wunder der Natur“. Bifurkationskaskanden findet man in Flußdelten, sehr häufig aber auch bei Hochgebirgsflüssen. Letztere sind aber nicht vom Wasser gegraben, sondern zeichnen lediglich die Bifurkationskaskaden nach, die der Planet bei der Gebirgsbildung ins Gestein gepreßt hatte.

An dieser Stelle sei – außer Konkurrenz – bemerkt, daß die logistische Funktion in irgendeiner verborgenen Weise mit der Gaußschen Normalverteilung verbunden sein muß. Denn das Galton-Brett, das für nach unten fallende Kugeln durch Nägel einen „Bifurkationsparcours“ bereithält, hat am Ende eines jeden Durchlaufs mit höchster Präzision die Gauß’sche Glockenkurve zum Ergebnis. – Auch das Trefferbild von Schrotmunition läßt auf eine Bifurkationskaskade schließen,. die freilich ohne Galton-Brett in jede beliebige Raumrichtung abgefeuert werden kann.

Wenn die Rahmenbedingungen stimmen, folgt die belebte Natur unbeirrbar der logistischen Wachstumsfunktion, und das unter Konservierung des Pfades. So geschehen zu Beginn der Karwoche des Jahres 2020. „Plötzlich und unerwartet“ platzten montags die Knospen der Bäume auf und bildeten Blätter, die zunächst winzig klein waren, aber innerhalb weniger Stunden und Tage die unverkennbaren Bifurkationsmuster der Blätter ausbildeten. Und wer bewerkstelligte das? – Zellen! – Klone der Eizellen, die viele Jahre zuvor von einem umherirrenden Pollenkorn befruchtet worden waren.

Wunderlich ist allein, daß dem „Corona-Virus“ das Unterworfensein unter die zwingend vorgeschriebenen Wachstumsregeln der Natur abgesprochen wird. – Und das von führenden Wissenschaftlern.

Die „lineare“ Bifurkationskaskade“ sollte seinerzeit das Prinzip der nuklearen Kettenreaktion veranschaulichen. – Die nukleare Kettenreaktion hat ihrerseits zwei Aspekte, die in der Diskussion um die Atomkraft immer wieder durcheinander geworfen werden: Für die friedliche Nutzung der Kernenergie reicht eine relativ kleine Portion Uran 235 aus. – Das nutzt man in Kernkraftwerken. Wenn die Reaktorsteuerung versagt, kommt es zur Kernschmelze, und das war’s dann auch. Bei der Atombombe sieht das schon anders aus, hierfür braucht man hochangereichtertes Uran 235, sodaß am Ende eine „kritische Masse“ entsteht, die ohne weiteres Zutun die Kettenreaktion so stark beschleunigt, daß in Bruchteilen einer Sekunde eine ganze Stadt vernichtet wird.

Kritische Masse – Dies ist ein Begriff aus der Atomphysik. Aber ist er nicht auch auf andere Phänomene der Natur anwendbar? – Auf diesen Gedanken kam ich durch die Arbeit an meinen Blogbeitrag „Corona und die Luftwaffe„. – Hier entstand die Frage, warum die Hefevermehrung in der Küche nicht so gut klappt wie in der Hefefabrik. – Ganz einfach: Damit die Hefezellen unser tägliches Brot produzieren können, muß eine „kritische Masse“ im Teig vorhanden sein – Pro 500 Gramm Mehl 42 Gramm Hefe.

Damit ein Mann „fruchtbar“ ist, muß er eine „kritische Masse“ an Spermien produzieren. – Die Weltgesundheitsorganisation (WHO) hat als Richtwert für die Spermienzahl fruchtbarer Männer 15 Millionen Spermien pro Milliliter Ejakulat festgelegt. – Eine Frau braucht demgegenüber nur eine einzige Eizelle pro Monatszyklus um „fruchtbar“ zu sein.

Dieses Phänomen, das eigentlich nur bei Reptilien, Vögeln und Säugern auftritt, nämlich das extreme Ungleichgewicht zwischen männlichen und weiblichen Fortpflanzungszellen, versperrt den Blick auf das, was in der Natur die Regel ist:

Pflanzen, aber auch die überwiegenden Anzahl der Tiere müssen unzählbar viele Eizellen produzieren, damit es klappt mit der „Arterhaltung“. Also gibt es auch im Leben „kritsche Massen“. – Zwischen Atomphysik und Biologie gibt es offensichtlich einen inneren Zusammenhang. – Sie glauben das nicht? – Brauchen Sie auch nicht. Trotzdem sollten Sie einfach weiterlesen:

Auch die unbelebte Natur ist voll von kritischen Massen: Zumeist treten diese als „zündfähiges Gemisch“ auf; – in Motoren, bei Mehlstaubexplosionen und in der Pyrotechnik:

Wenn in „Alarm für Cobra 11“ wieder einmal unter lautem Knall ein Auto zerlegt wird, mußte der Pyrotechniker dafür sorgen, daß die Luft eine Mindestanzahl an brennbaren Teilchen enthält. – Das gilt übrigens nicht nur für Kohlenwasserstoffe und organische Stäube, sondern auch für Wasserstoff. In Lakehurst entstand im Jahre 1937 eine „kritische Masse“ Wasserstoff in der Luft – es genügte ein Funke von rund 625° Celsius, und 37 Sekunden später hatte die chemische Kettenreaktion 200.000 Kubikmeter Wasserstoff in reines Wasser und die Hindenburg in ein verbogenes Gewirr von Aluminiumstreben verwandelt.

Selbst den Pharmazeuten ist der Begriff „kritische Masse“ nicht fremd. Hier firmiert er allerdings unter „therapeutisch wirksame Dosis“. – Übrigens ein zweischneidiges Schwert, denn bei manch einer pharmakoligischen Substanz git es eine „kritische Masse“, die als „letale“, also tödliche Dosis bezeichnet wird. – Ein Medikament, das bei Herzkrankheiten einegesetzt wird, hat neben der „therapeutisch wirksamen“ Dosis auch eine explosive „kritische Masse“, nämlich Glycerintrinitrat oder Nitroglycerin. Kieselgur mit mikroskopisch kleinen Kammern aus den Skeletten von Kieselalgen verhindert die Bildung einer zur Detonation führenden „kritischen Masse“ dieses Medikaments. Erst die Initialzündung, die Explosion einer Sprengkapsel zerstört die filigranen Hohlkörper des Kieselgurs und ermöglicht dem Nitroglycerin die Bildung der „kritischen Masse, die aus Nitroglycerin wieder einen Sprengstoff macht.

Kehren wir zurück zu dem, was wir gemeinhin als belebte Natur bezeichnen:

Während meines Studiums arbeitete ich als Werkstudent für einen Arzneimittelgroßhandel und belieferte Apotheken. Eines Tages wurde die Belegschaft des Unternehmens alarmiert und zur Röntgenreihenuntersuchung gebeten. Bei einem Fahrer war Tuberkulose diagnostiziert worden. – Dieser Fahrer hatte fast alle Apotheken im Einzugsbereich dieses Großhandelsunternehmen gehabt, damit auch zu einer Vielzahl von Angestellten. TBC nutzt bekanntlich denselben Infektionsweg wie Corona. – Mit Sicherheit hat dieser Kollege Tuberkelbazillen an alle seine „Kontaktpersonen“ verteilt, auch an mich, denn er war zwei Tage lang mit mir unterwegs, um mich in die Liefertour Wesel-Emmerich einzuweisen. – Ohne Maske und Mindestabstand in der Fahrerkabine eines VW-Transporters. – Und auch sonst haben sich alle Fahrer über Monate hinweg in den Kaffeepausen mit ihm bei „Tchibo am Brehmplatz“ zum Plausch getroffen. – Eng beieinanderstehend. Trotz fehlendem Mindestabstand und ohne Maske blieben alle Kontaktpersonen von TBC verschont.

War das ein Wunder, oder lag es daran, daß Bakterien nun einmal schwerer als die erheblich kleineren Viren sind? – oder sind einfach nur nicht genügend TBC-Erreger in die Atemwege seiner Gesprächspartner geraten? – War, mit anderen Worten, die „kritische Masse“ an Tuberkelbakterien nicht erreicht? – Das ist die wahrscheinlichste Erklärung:

Die „kritische Masse“ ist skaleninvariant, mit anderen Worten, sie findet sich auf allen Größenordnungen wieder, die die Welt zu bieten hat. Deswegen muß man, wenn man ein natürliches Phänomen vor sich hat, immer die Frage stellen:

Was ändert sich? – Das Prinzip oder lediglich die Größenskala? Lassen wir die Kirche im Dorf oder „losse mer dä Dom en Kölle“? – Ohne jeden Zweifel ist das nur eine Frage der Größenskala!

Das mechanistische Weltbild verlangt, daß die Prozesse, die man mathematisch beschreibt, reversibel sind. Was vorwärts geht, muß nach hinten zu seinem Ursprung genau berechenbar sein. Wer Feuer bekämpft, der kann es auch legen – Wer Krankheiten bekämpft, muß sie auch erschaffen können:

Was also bräuchten wir, um unsere allgegenwärtige Corona, die im Gegensatz zur Spanischen Grippe nur einen verschwindend geringen Teil der Menschen in Europa erwischt hat, zu züchten?

Zur Beantwortung der Frage wäre es ratsam, einmal die Landkarten der einzelnen Länder und Regionen zu Rate zu ziehen. – Da ergibt sich ein Flickenteppich. Und es ergibt sich eine durchaus übersichtliche Zahl von „Hotspots“. Nach der von allen Seiten behaupteten Infektiosität dürfte das nicht sein. Denn bevor Corona anhand der Symptome von Medizinern und Behörden entdeckt werden kann, müßte es sich schon wesentlich weiter verbreitet haben. – Mit einem „Vorsprung“ von mindestens einer Woche. – Offensichtlich war und ist das nicht der Fall.

Es gab lokalisierbare Massenveranstaltungen, in denen sich viele Menschen angesteckt hatten, aber im Laufe der Zeit trotz unbeschränkter Sozialkontakte kaum jemand anderen infizierten.

Um das Infektionspotential von Covid-19 realistisch zu beurteilen, braucht man wohl nicht nur eine „kritische Masse“ von Viren, sondern auf der anderen Seite eine „kritische Masse“ Menschen, die für eine Infektion mit Corona empfänglich sind. Angesichts des „persönlichen Lebensraums“, die der Mehrheit der Menschen zur Verfügung steht, muß man sich wundern, daß die Corona-„Pandemie“ weltweit nicht schon längst Millionen Todesopfer gefordert hat. – Folgt man der Darstellung „führender“ Wissenschaftler über die Gefährlichkeit der Corona-Viren müßten wir uns Sorgen machen über die billigen Textilien aus Indien und Bangla-Desh; die Favellas in Brasilien wären mangels Bevölkerungsrückgangs für die dortige Regierung keine „Problemzone“ mehr – wenn Sie wissen, was ich meine.

Brauen und Backen, dafür gibt es genügend Rezepte. Aber nur derjenige, der mir das Rezept zur erfolgreichen Züchtung von Corona-Viren liefert, kann auch glaubhafte Argumente für die gegenwärtigen Anti-Corona-Beschränkungen vorbringen. (Argumentum ex Fahrenheit 451):

Wer erfolgreich suchen will, muß erst das Verstecken lernen!

Und wer Viren erfolgreich bekämpfen will, muß sie erfolgreich in die Welt setzen können. – Sie glauben Ray Bradbury diese Vorzeichenumkehr nicht?

Leider Gottes ist sie im zweiten Weltkrieg versucht worden. Zwar nicht mit Viren, aber mit Anthrax: Sowohl Briten als auch Japaner erxperimentierten damit; – wohl in Erwartung, einen biologischen Kampfstoff zu bekommen, der eine ähnlich verheerende Wirkung wie die Spanische Grippe hat. Die Versuche sind -Gott sei Dank(!) gescheitert.

Aber das Prinzip bleibt und läßt tief blicken: Käme dem Corona-Virus die Gefährlichkeit zu, die man uns glauben machen will, in allen Laboratorien der USA, Chinas und Rußlands würde fieberhaft daran gearbeitet, die „kritische Masse“ der Viren zu ergründen. Das dürfte ja am Anfang auch gar nicht so schwer sein. – Man braucht Zellkulturen des primär betroffenen Gewebetyps (Schleimhautzellen der Atemwege), Abstriche von „Corona-Positiven“ (ohne Symptome) und tatsächlich an Covid 19 nachweislich Erkrankten – und zwar in allen Stadien des Krankheitsverlaufs. – Damit läßt sich zumindest ein „Anfangsverdacht“ über die „kritische Masse“ im Wege des „Jedenfalls“ begründen: Wenn ein Abstrich eine Zellkultur mit Sicherheit infiziert, enthält sie „jedenfalls“ die mindestens erforderliche Anzahl an Covid-19-Viren, also die „kritische Masse.

Leider verfüge ich nicht die Laboratoriumskapazität des RKI, die der weltweit verbreiteten Universitäten und erst recht nicht über die des Militärs. – Ich habe nur eine Küche, in der ich mit Hefe experimentieren kann. – Heute backen, morgen brauen – Ende! – Corona züchten – Fehlanzeige!

Na sag’s ich’s doch!

Auch Virologen verfügen über eine kritische Masse :

„Coronavirus (SARS-CoV-2): Wann beginnt die Infektiosität? | Im-Fokus“ https://www.medmedia.at/im-fokus/corona/wann-beginnt-die-infektiositaet/






Dunkle Materie – dunkle Energie? – Ein wenig Licht ins Dunkel

August 19, 2011

http://www.3sat.de/mediathek/?mode=play&obj=21864

Welche Kräfte schufen das Universum? – Wie enstand das Leben?

All diesen Fragen begegnete auch ich bei meiner Reise durch die Evolution. – DieFragen sammelte ich zunächst in Notizen und spontanen Gedanken dazu  am Ende meines Manuskripts. – Daraus wurde ein Fragenkatalog mit vorläufigen Antworten, die ich hier und jetzt gerne zur Diskussion stellen möchte.

Ich habe in den folgenden Ausführungen einfach frei gedacht. – Merkwürdig, aber ich bin dabei auf das Nernst’sche Wärmetheorem gestoßen, bloß dadurch, daß ich auf die „Teilchenbremse“ getreten habe. Also kann ich nicht so ganz neben der Wahrheit liegen. – Auch deshalb nicht, weil das Weltall in jeder Sekunde um Aberbillionen Tonnen leichter wird. – Allein durch die Kernfusion, bei der rund 0,78% der Materie in Strahlung umgewandelt wird. Und Strahlung hört nicht auf den Ruf der Gravitation:

Die Grenzen des Universums
Ursprünglich beabsichtigte ich, im Rahmen einer Fußnote auf die Musterbildung im Universum hinzuweisen und fing bei der Sonne und ihren Entwicklungstadien an. Die urprüngliche Arbeit verwarf ich wieder, dennoch ging mir die Sonne nicht aus dem Kopf.
Je mehr ich darüber nachdachte, desto drängender wurde die Frage, wie die Kraft der Gravitation, die mit abnehmender Entfernung quadratisch beschleunigt, die nichtlinearen dynamischen Prozesse, die die Sonne leichter werden lassen, so genau kontrollieren können. – Warum also, explodiert die Sonne nicht wie ein Dampfkessel?
Der Überlieferung nach soll Newton die Idee der Massenanziehung beim Anblick eines fallenden Apfels gekommen sein. Der Apfel fällt nicht weit vom Stamm, sagt man; aber der Apfel hat es auch nicht weit bis zur Erde. Kann es daher sein, daß der Weg des Apfels nicht durch die lineare Schwerkraft vorgezeichnet ist; kann es sein, daß er nach Loslösung vom Ast in eine positive Rückkoppelungsschleife gerät, die ihn zu Boden zwingt?
Wenn das atomare Feuer im Inneren der Sonne ein nichtlineares dynamisches System ist; wenn eigentlich alles, was uns umgibt, nichtlinear ist, gibt es keinen Grund anzunehmen, daß die Gravitation aus dem Rahmen fallen sollte.
Über das Wesen der Gravitation machen sich die Physiker seit den Tagen Einsteins vermehrt Gedanken. Denn die Relativitätstheorie hat gezeigt, daß wir zwischen Schwere, die durch Beschleunigung erzeugt wird, und der durch die Gravitation erzeugte Schwere nicht unterscheiden können.
Die Newtonschen Berechnungen sind durchaus alltagstaugliche Näherungen. Wir sind mit unseren Sinnen nicht in der Lage, Abweichungen davon festzustellen. Dennoch beschreiben Newtons Gleichungen die Verhältnisse im Universum nicht ganz zutreffend. Es sind eben lineare Gleichungen, die eine nichtlineare Welt zum Gegenstand haben. Die Einführung eines nichtlinearen Terms in Newtons Fallgesetz dürfte im Nahbereich kaum Auswirkungen auf das Ergebnis haben. In den Weiten des Alls, über Millionen von Lichtjahren hinweg, könnte das schon anders aussehen.
Machen wir es wie Newton, nähern wir uns dem Problem: Die Entwicklung leistungsfähiger Computer hat es ermöglicht, nichtlineare Gleichungen in der Mathematik zu lösen und graphisch darzustellen. Die Lösungen zeigen eine extrem starke Neigung zur Musterbildung. („Apfelmännchen“ & Co ), wobei sich die entstehenden Muster auf allen Größenskalen zu wiederholen scheinen. Immer ähnlich, aber nie identisch.
An der Wende vom 19. zum 20. Jahrhundert widmete sich der französische Mathematiker Henri Poincaré dem Dreikörperproblem in der Himmelsmechanik. Dabei handelt es sich um die relative Bewegung dreier Körper, die sich gegenseitig anziehen. Auch er konnte keine Lösung dafür finden. Er hatte aber bereits die ungeheure Komplexität der Bahnen, die diese Körper beschreiben, vor Augen. Er zeigte, daß einfache deterministische Bewegungsgleichungen eine unglaubliche Komplexität erzeugen können. „Was sich Poincaré seinerzeit bildlich vorstellte, wird heutzutage ein <seltsamer Attraktor> genannt. Oder um es mit Ian Stewart zu sagen: Poincaré erblickte <die Fußspuren des Chaos>.“ ( Fritjof Capra, Lebensnetz 1996 S. 150 ) – Poincaré führte die nichtlineare Mathematik in die Physik ein, leider nur in die Himmelsmechanik.
Spätestens seit dem Unfall von Tschernobyl dürfte jedermann klar sein, daß das Einsperren des nichtlinearen atomaren Feuers in lineare Strukturen per se die Katastrophe in sich birgt. Auch der Fusionsreaktor Sonne ist nichtlinear dynamisch. Handelte es sich bei der Gravitation um eine lineare Größe, könnte diese im Zweifel „dynamische Ausrutscher“, etwa einen plötzlichen Druckanstieg, im Sonneninneren nicht bremsen. Wenn derartige Fälle auch nur äußerst selten auftreten würden, müßte der Nachthimmel mit explodiernden Sonnen aller Größenordnungen übersät sein. Das aber ist offensichtlich nicht der Fall. Demnach kann auch aus diesem Grunde die Gravitation keine lineare Größe sein.
Unser Sonnensystem ist aus einem lokalen Gravitationskollaps entstanden. Dieser führte zum fortgesetzten Aufheizen der Sonne bis zur Zündung des Fusionsfeuers.
Übersteigt ein Himmelskörper eine bestimmt Größe, hält auch der Druck, den die Kernfusion erzeugt, am Ende den Gravitationskollaps nicht mehr auf. Der Stern schrumpft zu einem Schwarzen Loch zusammen, in dessen Zentrum sich eine Singularität befinden soll. Das Wesen einer Singularität besteht darin, daß Raum, Zeit und alle Vorhersagbarkeit ihr Ende finden. Diesen unter seiner Schwerkraft zusammengestürzten Körper kann nichts entkommen, nicht einmal das Licht. Im Bereich des sichtbaren Universums kann ein Beobachter nur drei Eigenschaften messen, nämlich Masse, elektrische Ladung und Drehimpuls. Ansonsten bleibt uns der Blick in das Innere des Schwarzen Lochs verwehrt.
Das Weltall ist, alles spricht dafür, aus einer Singularität hervorgegangen. Wenn der Gravitationskollaps eines überschweren Sterns eine Singularität hervorruft, scheint die Gravitation die Kraft zu sein, die das Universum in den Zustand der Singularität zurückführen will. Wenn ein Schwarzes Loch in seinem Zentrum eine Singularität beherbergt, erhebt sich die Frage, ob es eine Singularität ist, oder ob das Weltall lokal in die Singularität zurückgefallen ist. Das aber ist nicht unser Thema, ich will es den Physikern und Kosmologen überlassen.
– Irgendwie macht es mich allerdings stutzig, daß ich vor einigen Wochen im Antiquariat um die Ecke das Buch „Die linke Hand der Schöpfung“ von J.D Barrow und J. Silk entdeckte. Ich habe DM 8,– dafür bezahlt und wurde für diese Investition reich belohnt. Auf Seite 227ff fand ich unter der Überschrift „Das Mixmaster-Universum“ folgende Zeilen:
Nun lassen sich, wenn wir wollen, als Modell für die Dynamik des Weltalls sogar noch ungewöhnlichere Kandidaten ausfindig machen, die die frühesten Stadien des Kosmos beschreiben könnten; schließlich wissen wir nicht, wie ungleichmäßig die Expansion damals verlief. Die Sache hat nur einen Haken. Newtons berühmte Gravitationstheorie ist relativ einfach. Sie besteht lediglich aus einer Diefferentialgleichung für einen die Gravitationskraft beschreibenden Parameter. Die sie übergreifende Einsteinsche Theorie besitzt dagegen zehn aufs engste miteinander verknüpfte Gleichungen für zehn das Gravitationsfeld beschreibende Parameter. Allein der Statistik zufolge wird es also alles andere als einfach sein, Lösungen für die Einsteinschen Gleichungen zu finden! Und als ob das nicht schon schlimm genug wäre, zeichnen sich die Einsteinschen Gleichungen noch durch eine andere unangenehme Eigenschaft aus, die ihrer Lösung ein fast unüberwindliches Hindernis entgegenstellt: Sie sind nichtlinear.“
Quod erat demondstrandum. – Allerdings war das für mich Anlaß genug, noch näher hinzuschauen.
Ist die Gravitation möglicherweise die einzige Kraft, die die Kräfte der Kernfusion wirksam kontrollieren kann? – Die letzgenannte Frage dürfte im Rahmen der angestrebten Entwicklung von Kernfusionsreaktoren von Bedeutung sein. Sollte die Physik sie bejahen, wären alle Gelder für die Entwicklung eines Fusionsreaktors von vornherein in den Sand gesetzt. Einen solchen zu bauen, wäre dann bereits aus prinzipiellen Gründen unmöglich.
Unser Thema, nämlich die Evolution, benötigt die Chemie, genauer gesagt, die Biochemie. Biochemische Vorgänge sind hochkomplex und bilden Muster. Die vom Menschen generierte technische Chemie erzeugt im Gegensatz zur Biochemie allenfalls Langeweile im Klassenzimmer, unterbrochen von ein paar Knalleffekten. In der Biochemie aber hat offenbar über das Kohlenstoffatom die Kreativität freien Zutritt. Biochemie ist nichtlinear. Das biochemisch kreierte Molekül Desoxyribonukleinsäure (DNA) seinerseits schafft die unübersehbarer Vielfalt der Lebewesen, denen ebenfalls Muster zugrunde liegen.
An dieser Stelle dürfte es sich als sinnvoll erweisen, einen Ausflug zu den Anfängen der nichtlinearen Mathematik, besser bekannt unter dem Namen fraktale Geometrie, zu unternehmen:
Zunächst beschrieb Mandelbrot seine Ideen in einzelnen wissenschaftlichen Artikeln und Vorträgen. Richtig bekannt wurde seine bahnbrechende Erkenntnis, daß eine Beschreibung von natürlich auftretenden Formen und Prozessen mit Hilfe der bekannten geometrischen Modelle nicht möglich sei, aber durch seine zwei Bücher. Darin bewies er anhand vieler Beispiele, daß die >Monsterkurven< und ähnliche pathologische Objekte, die einige Mathematiker um die Jahrhundertwende untersucht hatten, viel besser geeignet waren, natürliche Formen wie Bäume, Lungengewebe, Wolken und Galaxien zu beschreiben.
… Ein großer englischer Wissenschaftler, etwas schrullig, wie man es von einem englischen Wissenschaftler erwarten darf, Lewis Richardson, durchstöberte Enzyklopädien verschiedener Länder und machte dabei eine überraschende Entdeckung. Die Länge von Landesgrenzen wies bemerkenswerte Unterschiede auf, je nachdem in welchem Land die Enzyklopädie erschienen war. So differierte die Angabe der Länge der gemeinsamen Landesgrenze zwischen Spanien und Portugal (987 km gegenüber 1214 km) sowie zwischen den Niederlanden und Belgien (380 km gegenüber 449 km) deutlich. Er wunderte sich über seine Entdeckung, konnte aber keine Erklärung angeben.
Richardson untersuchte auch noch die Länge von Küsten in Abhängigkeit des Maßstabs der verwendeten Landkarten. Es gelang ihm sogar, seine Ergebnisse auf eine einleuchtende Art graphisch darzustellen, so daß eine Art von Gesetz abgeleitet werden konnte. Allerdings konnte er keine Erklärung geben, wie seine Untersuchung auf eine grundlegende Art zu verstehen sei.
(…) Es stellt sich also prinzipiell heraus, daß die Küste um so länger wird, je kürzer der verwendete Maßstab ist. Es scheint sogar so zu sein, daß die Küstenlänge gegen Unendlich geht, für den Fall eines beliebig kleinen Maßstabes. Hat es da überhaupt noch einen Zweck, von Länge im gewohnten Sinn zu sprechen?
Es gelang nun Mandelbrot eine überaus einfache und einleuchtende Erklärung, die es erlaubte, eine Vielzahl von Entdeckungen der obigen Art zu verstehen. Das Hauptergebnis obiger Untersuchungen und Überlegungen kann wie folgt zusammengefaßt werden. Analysiert man die einzelnen Teile mit Meßstäben unterschiedlicher Länge, so stößt man immer wieder auf dieselben Grundelemente. Solch ein Verhalten nennt man Skaleninvarianz. Die Essenz der Mandelbrotschen Botschaft ist also, daß ein Gebilde äußerster Komplexität, die sich einer einfachen Beschreibung zu entziehen scheinen, tatsächlich eine geometrische Regelmäßigkeit besitzen – die sogenannte Skaleninvarianz. Das aus ihr folgende Zusammenspiel von immergleichen Strukturen in verschiedenen Maßstäben findet im Begriff der fraktalen Dimension eine angemessene mathematische Beschreibung. Das wirklich Faszinierende ist aber, daß im Gegensatz zu den idealen Körpern und Vorstellungen der euklidischen Geometrie, die Natur fast nur aus >pathologischen Strukturen< besteht.“ (Lerbinger/Kuchenbuch, Fasziantion Fraktale, München 1992, S 18f)
Als „vollkommenste geometrische Figur“ des Euklid gilt nach wie vor der Kreis. Allerdings dürfte es ein Schlag in das Gesicht der Anhänger Euklids bedeuten, wenn man behauptet, der Kreis sei nicht der euklidischen Geometrie zuzurechnen, er sei vielmehr ein Fraktal.
Wie werden Umfang und Flächeninhalt eines Kreises berechnet? – 2r*Pi, danach „berechnet“ sich der Umfang des Kreises, r²*Pi gibt Auskunft über den Flächeninhalt. Die Vollkommenheit der euklidischen Geometrie wird allerdings ein wenig dadurch gestört, daß Pi eine Zahl ist, die zwar mit der Ziffer drei beginnt, aber eine bis heute unbekannte Anzahl weiterer Ziffern hinter dem Komma nach sich zieht. Ich weiß nicht, wie weit die Berechnungen von Pi bislang gediehen sind, aber es wäre eine Sensation gewesen, wenn man dabei eine Periodizität entdeckt hätte. Die Überlegungen Richardsons und Mandelbrots zur Länge der Küstenlinie Großbritanniens treffen auch auf den Kreis zu. Nie werden wir exakt erfahren, welchen Umfang ein Kreis hat oder welche Fläche er enthält. Mit jeder neu errechneten Ziffer von Pi ändert sich der Größenmaßstab und damit das Ergebnis unserer „Berechnung“. Letztlich ist der Kreis bei all der Vollkommenheit, die er ausstrahlt, ein reichlich chaotisches Gebilde.– Auch die vollkommenste Figur des euklidischen Universums ist eine >pathologische Struktur<.
Wenn nichtlineare Mathematik Muster erzeugt, nichtlineare Chemie ebenfalls und auch die Biologie mit Mustern arbeitet, müßte eine nichtlineare Physik ebenfalls von Mustern durchzogen sein. – Poincarés Arbeit zum Dreikörperproblem deutet es bereits an.
Schauen Sie nur durch ein Fernrohr. Sie werden Muster erkennen, nichts als Muster. Vom Kleinplaneten über Sonnensysteme bis hin zu Galaxien. Damit nicht genug. Galaxien bilden lokale Gruppen, Cluster und Supercluster. Das Universum ist voll von Mustern und Strukturen. – Drehen wir die Blickrichtung um und schauen auf das Kleinste. Das Periodensystem der chemischen Elemente beruht auf deren physikalischen Besonderheiten. Das Periodensystem ist seinerseits ein Muster. Betrachten wir die Anzahl der Protonen und Elektronen eines Elements einmal als „Organisationshöhe“, so ergeben sich aus dem Periodensystems für „verwandte“ Elemente trotz der Unterschiede in der Organisationshöhe ähnliche chemische Eigenschaften. Muster – nie identisch, aber immer ähnlich.
Es scheint, als könne das Muster des Atoms, das sich im Periodensystem der Elemente offenbart, nur ein gewisses Maß an Energie aufnehmen. Das Periodensystem ist endlich. Die Grenze liegt beim Uran. Alle Elemente, die „schwerer“ sind, also mehr Energie enthalten, sind instabil und zerfallen nach kurzer Zeit. Ebenso ergeht es radioaktiven Isotopen, wie etwa dem Kohlentoffisotop C14 Alle chemischen Elemente sind in der Lage, Muster zu bilden. Allein oder in Verbindung mit anderen Elementen.
Auf der Ebene der Atomkerne beobachten wir, daß diese sich mehr oder weniger in Muster aufzulösen scheinen. „(…) So muß man beispielsweise drei Quarks zusammenfügen, um ein Neutron oder ein Proton zu erhalten. Das Proton besteht aus zwei >u-Quarks< (für Up) und einem >d-Quark< (für Down), während sich das Neutron aus zwei >d-Quarks< und einem >u-Quark< zusammensetzt. Die u- und d-Quarks haben unterschiedliche elektrische Ladungen. In den Einheiten der Elektronenladungen ausgedrückt, hat das Elektron die elektrische Ladung -1, das Proton die Ladung +1 und das Neutron die Ladung 0. In denselben Einheiten ausgedrückt, besitzt das u-Quark eine Ladung von 2/3, und das d-Quark eine Ladung von -1/3. Addiert man 2/3, 2/3 und -1/3, erhält man 1, addiert man -1/3 und – 1/3 und 2/3, erhält man 0, die Ladung des Neutrons.“ (M. Gell-Mann, Das Quark und der Jaguar, München 1994, S. 263) – Man kann Proton und Neutron damit ebenfalls als die beiden verschiedenen „Baumuster“ ansehen.
Aber es geht noch weiter: Im Hinblick auf die „wirklich“ fundamentalen Grundbausteine dieser Welt hat man die „Superstring“-Theorie entwickelt. Welche Bedeutung aber hat der Begriff „Superstring“? – „Was läßt sich allgemein über den Teilchenkatalog der heterotischen Superstring-Theorie sagen? Die Antwort auf diese Frage hängt mit der Bedeutung des Wortes string (Saite) und der Vorsilbe super zusammen.Wie das Wort string andeutet, beschreibt diese Theorie Teilchen nicht als Punkte, sondern als winzige Schleifen; die typische Größe einer Schleife entspricht dabei annähernd der fundamentalen Längeneinheit, also einem Milliardstel eines Billionstel eines billionstel Zentimeters…“ (Gell-Mann aaO, S. 292) – Sollte diese Theorie auch nur annähernd zutreffen, wären auch die kleinsten Masseneinheiten gemustert.
Muster finden wir also auf allen Größenskalen.
Doch kehren wir auf die uns gerade noch geläufige Ebene des Atoms zurück. An ziemlich unscheinbarer Stelle im Periodensystem versteckt, da liegt eben das Element, den unzweifelhaft schöpferische Eigenschaften zugebilligt werden müssen: Das Kohlenstoffatom.
Kohlenstoffverbindungen bilden die Grundlage allen Lebens, ohne Kohlenstoff keine Biochemie.
Es neigt dazu, langkettige Moleküle, sog. Polymere, zu bilden und damit Energie gewissermaßen zu „sammeln“ (Alle unsere Treib- und Sprengstoffe sind Kinder des Kohlenstoffs!). Trotz der theoretisch Unbegrenztheit der atomaren Zusammensetzung eines Polymers, läßt das Auftreten immer wiederkehrender Muster darauf schließen, daß die Zahl der Möglichkeiten zwar außerordentlich hoch, aber eben endlich ist. Was ist in der Frühzeit der Erde abgelaufen?
Nachdem die Erde sich hinreichend abgekühlt hatte, entstanden die ersten Ozeane. Diese dürften zunächst kochend heiß gewesen sein. Im Laufe der Zeit kühlten sie sich dann ab. Dabei wurden zwangsläufig alle Temperaturstufen durchlaufen, die den Kohlenstoffatomen ermöglichten, mit allen erdenklichen Elementen zu reagieren. Zwangsläufig fand der Kohlenstoff nach und nach immer weniger „freie“ Atome und Moleküle für die Polymerisation. Statt dessen stieg die Wahrscheinlichkeit, mit Polymeren anderer Provenienz zusammenzutreffen und in Wechselwirkung zu treteten. Es bildeten sich immer größere Bausteine, deren Zahl mit zunehmender Zeit zwar stetig abnahm, aber gleichzeitig die Basis für die Bildung immer komplexerer Einheiten schuf. – Das deutet auf einen sich selbst beschleunigenden Prozeß, auf eine positive Rückkopplungsschleife hin. Damit war die Entstehung des ersten Zelle bereits vorprogrammiert, es bedurfte lediglich eines Schleusenereignisses, um sie zu schaffen. Nachdem die erste Zelle sich erst einmal geteilt hatte, war das Leben nicht mehr aufzuhalten; es „explodierte“ regelrecht, der logistischen Funktion folgend. Unser Leben verdanken wir demnach einer Neigung des Kohlenstoffatoms. Da aber der Kohlenstoff im Laufe der Jahrmillionen alle tatsächlichen Möglichkeiten der Polymerisation durchgespielt haben muß, ist es um so erstaunlicher, daß er an den uns bekannten Mustern „hängenblieb“.
Es kann einem schon kalt den Rücken herunterlaufen, wenn man bedenkt, daß dieses relativ simple Atom einerseits das härteste Mineral, den Diamanten, hervorbringt, der das Licht in einmaliger Weise erstrahlen läßt; daß dieses simple Atom andererseits die komplexeste Struktur geschaffen hat, die auf Erden bekannt ist, nämlich das menschliche Gehirn. Dieses wiederum ist in der Lage, die Gesetze der nichtlinearen Mathematik zu ergründen und Rechenmaschinen zu entwickeln, die in der Lage sind, dem menschlichen Gehirn die Ähnlichkeiten zwischen den Mustern der reinen Mathematik und denen der Natur begreifbar zu machen.
Also erhebt sich die Frage, welchem Umstand es zu verdanken ist, daß immer wieder einander ähnliche Muster in der Natur auftreten. Wie wir gesehen haben, muß es mit den in der Natur vorhandenen Grundkräften zu tun haben. Fangen wir mit unseren Computerbildern an:
Wir haben gesehen, daß die numerische Lösung nichtlinearer Gleichungen auf dem Bildschirm eines Computers wunderschöne, organisch wirkende Bilder hervorruft. Bei der Zuweisung der Bildpunkte wird folgendes Verfahren angewandt: „Die Julia-Menge, die zu einem bestimmten Wert von c gehört, ist genau dann zusammenhängend, wenn die Zahlenfolge nicht über alle Schranken wächst. Anderenfalls bildet die Julia-Menge eine Cantor-Menge, sie ist also nicht zusammenhängend.“ (Lerbinger/Kuchenbuch aaO, S. 29). Musterbildend ist also das Zusammentreffen der beiden Faktoren Unbestimmtheit des Einzelergebnisses und Entweder/Oder Prinzip. Kennen wir nicht in der Physik die Heisenbergsche Unschärferelation auf der einen Seite und das Paulische Ausschließungsprinzip auf der anderen Seite?
Die Unschärferelation besagt, daß es nicht möglich ist, Ort und Impuls eines Teilchens gleichzeitig zu ermitteln.
Das Paulische Ausschließungsprinzip teilt die Welt auf. Teilchen, die keine Lichtgeschwindigkeit haben, können nicht denselben Quantenzustand einnehmen, bei Teilchen, die Lichtgeschwindigkeit haben, ist das aber zulässig. Lichtgeschwindigkeit ist aber in unserem Universum der elektromagnetischen Strahlung vorbehalten. Elektromagnetische Strahlung, zu der auch das Licht gehört, breitet sich mit Lichtgeschwindigkeit aus. Diese ist überall konstant. Einstein hat gezeigt, daß keine Materie so schnell wie das Licht sein kann, denn je näher Materie an die Lichtgeschwindigkeit kommt, desto größer wird seine Masse.
Ich gebe zu, ich habe mich nach Kräften bemüht, die Relativitätstheorie zu verstehe, so ganz ist es mir aber bis heute nicht gelungen. Also ist es an der Zeit, die Bemühungen etwas zu intensivieren.
Lichtteilchen, sog. Photonen, rauschen mit Lichtgeschwindigkeit durch das All, und zwar wellenförmig. – Ziemlich langweilig, finden Sie nicht? – Im Universum, in dem die Bewegungen weit unterhalb der Lichtgeschwindigkeit ablaufen, gibt es zwar auch Wellen, aber die Muster sind erheblich vielfältiger.
Seit Einstein sein berühmtes E = mc² zum ersten Mal an eine Wandtafel schrieb, wird immer wieder versucht, die Welt in eine mathematische Formel zu pressen. – Vergeblich. Warum will das nicht klappen?
Vielleicht hängt das mit der Neigung der Physiker zusammen, alle Naturphänomene in lineare Gleichungen quetschen zu wollen; vielleicht hängt es mit unseren linearen Denkstrukturen zusammen? – Wir werden sehen.
Das Universum ist erfüllt von Mustern. Muster deuten auf nichtlineare Vorgänge hin.
Masse und Energie sind äquivalent. Energie kann man nicht in Eimern tragen, Masse dagegen schon. Reine Energie kann, wie wir gesehen haben, ausschließlich Wellenmuster annehmen. In Masse gegossene Energie hat demgegenüber viele Gesichter.
Die Superstring-Theorie führt letztlich zu er Frage, ob nicht das, was wir als Masse bezeichnen, lediglich Energiemuster sind. Auskunft darüber bekommen wir aber nur, wenn wir zum Anfang des Universums zurückgehen:
Kurz nach dem Urknall, so die gängige Theorie, entstanden Teilchen und Antiteilchen, die sich gegenseitig vernichteten und in Strahlung auflösten. Dabei soll es zu einem Symmetriebruch gekommen sein, der zu einem geringfügigen Überschuß der Materie gegenüber der Antimaterie führte. Betrachtet man diesen Symmetriebruch als Schleusenereignis in einem nichtlinearen dynamischen System, so mußte das Weltall geradezu explodieren. Dennoch führt uns diese Erkenntnis nur wenig weiter.
Allerdings zwingt uns die Verwendung des Begriffs Symmetrie dazu, eine symmetrische Entsprechung des Urknalls zu suchen. – Betrachten wir das frühe Universum doch einmal näher. Zu Beginn gab es eine Phase, in der Teilchen und Antiteilchen entstanden, die sich gegenseitig vernichteten und in Strahlung auflösen. Wenn aber nur ein geringfügiger Überschuß an Materie entstand, muß der weitaus überwiegende Teil des damaligen „Universums“ zerstrahlt worden sein. Danach aber sieht es so aus, als hätte sich das Universum damals auf den Weg in eine strahlende Zukunft begeben, sie aber nicht vollständig erreicht.
Nun kennen wir aus dem Physikunterricht noch den Ersten Hauptsatz der Thermodynamik, wonach bei allen physikalischen Vorgängen die Gesamtenergie gleich bleibt (Energieerhaltungssatz). Demnach muß die Gesamtenergie des Weltalls auch gleich bleiben, egal was passiert. Wir haben auf der einen Seite die Urknallsingularität, auf der anderen Seite die reine Strahlung. Damit müßte das Universum bipolar sein.
Bipolarität ist Grundbedingung für den Ablauf von Prozessen. – Bipolarität erst läßt nichtlineare dynamische Prozesse überhaupt zu. Bipolarität beherrscht auch die eher „geistigen“ Prozesse der Wirtschaft und des Rechts. – Der Namenspatron aller Prozesse in der Natur, nämlich der juristische Prozeß, „lebt“ ebenfalls von Bipolariatät. Sein Ablaufdiagramm durch die Instanzen ähnelt in verblüffender Weise den Bifurkationskurven diverser nichtlinearer Gleichungen.
Gibt es weitere Anhaltspunkte für ein bipolares Universum? – Den einen könnte uns der Zweite Hauptsatz der Thermodynamik bieten.
Der Zweite Hauptsatz der Thermodynamik besagt, daß in einem geschlossenen System die Unordnung (Entropie) zunimmt. Dieses Gesetz ist entwickelt worden im Zusammenhang mit der bei jedem Reibungsprozeß erzeugten Wärme. Man hatte nämlich festgestellt, daß bei der Reibung sich die „geordnete“ Form der Bewegung zu Teil in die „ungeordnete“ Form der Wärmestrahlung umwandelte. (z.B. „Heißlaufen“ eines Rades, Heißwerden von Bremsen). Die Vorgänge, die dem Zweiten Hauptsatz der Thermodynamik unterliegen, sind nicht umkehrbar, sie sind irreversibel. – Das erscheint uns als selbstverständlich, denn durch Erhitzen einer Bremse kann kein Rad angetrieben werden, ebensowenig durch Erhitzen der Achse.
Wenn am Anfang des Universums eine Singularität stand, wenn nach dem Ersten Hauptsatz der Thermodynamik die Energie konstant bleibt und nach dem Zweiten Hauptsatz der Thermodynamik die Entropie zunimmt, bleibt am Ende nur Strahlung übrig. – Die Ordnung löst sich auf. – Der Zweite Hauptsatz der Thermodynamik besagt dann aber, daß die Muster unterhalb der Lichtgeschwindigkeit immer weniger werden, die „Energiepakete“ der Teilchen immer seltener werden. Unter diesem Aspekt ließe sich Materie als Phasenübergang zwischen der Singularität des Urknalls und dem Zustand reiner Strahlung ansehen.
Das führt dann schon fast zwangsläufig zu der Frage, ob nicht das Universum selbst einen Phasenübergang zwischen den beiden Zuständen Singularität und „reiner“ Strahlung repräsentiert.
Nun hat Einstein gezeigt, daß mit zunehmender Annäherung an die Lichtgeschwindigkeit die Masse ebenfalls zunimmt, bis sie nahe an der Lichtgeschwindigkeit unendlich hoch ist. Die Zeit läuft dann unendlich langsam. Aus der Unendlichkeit bei der Annäherung folgt, daß bei Lichtgeschwindigkeit die Zeit exakt Null ist. Alle Lichtteilchen durchqueren den Raum also in der Zeit Null. Der Raum ist für sie praktisch nicht da.
Wir haben ferner das Paulische Ausschließungsprinzip, wonach die uns vertrauten Materieteilchen, niemals den gleichen Quantenzustand einehmen können. Bei Teilchen mit Lichtgeschwindigkeit (Photonen) ist das aber ausdrücklich zulässig:
Wenn wir die Welle-Teilchen-Dualität zugrunde legen, so läßt sich alles im Universum, auch das Licht und die Schwerkraft, in Form von Teilchen beschreiben. Diese Teilchen haben eine Eigenschaft, die Spin genannt wird. Man kann bei diesem Wort an Teilchen denken, die sich wie kleine Kreisel um eine Achse drehen: Diese Drehung ist der Spin. Allerdings kann diess Vorstellung auch irreführend sein, weil der Quantenmechanik zufolge Teilchen keine genau definierte Achse haben. Tatsächlich teilt uns der Spin eines Teilchens mit, wie es aus verschiedenen Blickwinkeln aussieht. Ein Teilchen mit dem Spin 0 ist ein Punkt. Es sieht aus allen Richtungen gleich aus. Ein Teilchen mit dem Spin 1 ist dagegen wie ein Pfeil: Es siet aus verschiedenen Richtungen verschieden aus. Nur bei einer vollsätndigen Umdrehung (360 Grad) sieht das Teilchen wieder gleich aus. Ein Teilchen mit dem Spin 2 ist wie ein Pfeil mit einer Spitze an jedem Ende. Es sieht nach einer halben Umdrehung (180 Grad) wieder gleich aus. Entspechend sehen Teilchen mit höherem Spin wieder gleich aus, wenn man Drehungen um kleinere Bruchteile einer vollständigen Umdrehung vollziet. All das wäre ziemlich einfach, wäre da nicht der bemerkenswerte Umstand, daß es Teilchen gibt, die nach einer Umdr ehung noch nicht wieder gleich aussehen. Es sind dazu vielmehr zwei vollständige Umdrehungen erforderlich! Der Spin solcher Teilchen wird mit ½ angegeben.
Alle bekannten Teilchen im Universum lassen sich in zwei Gruppen einteilen: Teilchen mit einem Spin ½, aus denen die Materie im Universum besteht, und Teilchen mit dem Spin 0, 1 und 2, die wie wir sehen werden, für die Kräfte zwischen den Materieteilchen verantwortlich sind. Die Materieteilchen gehorchen dem sogenannten Paulischen Ausschließungsprinzip, das 1925 von dem österreichischen Physiker Wolfgang Pauli entdeckt wurde(…) Nach dem Paulischen Ausschließungsprinzip können sich zwei gleiche Teilchen nicht im gleichen Zustand befinden, das heißt, sie können innerhalb der Grenzen, die die Unschärferelation steckt, nicht die gleiche Position und die gleiche Geschwindigkeit haben. Das Ausschließungsprinzip ist von entscheidender Bedeutung, weil es erklärt, warum Materieteilchen unter dem Einfluß der Kräfte, die von Teilchen mit dem Spin 0,1 und 2 hervorgerufen werden, nicht zu einem Zustand von sehr hoher Dichte zusammenstürzen. … (S.W. Hawking, Eine kurze Geschichte der Zeit, Hamburg 1989, S 91f)
Nun haben aber alle Teilchen mit Lichtgeschwindigkeit ein und dieselbe Geschwindikeit. Also können dem Pauli-Verbot nur solche Teilchen unterliegen, die langsamer sind als das Licht.
…Die Quantenmechanik liefert eine natürliche Einheit für den Spin, und in dieser Einheit gemessen, besitzt ein Boson einen ganzzahligen Spin (0, 1, 2 usw), während ein Fermion einen halbzahligen Spin ( ½, 3/2 oder 5/2 usw. ) aufweist.“ (Gell-Mann S.283)
…Es gibt zwei Grundklassen von Teilchen: die Fermionen, etwa die Elektronen, die dem sogannten Pauli-Prinzip gehorchen, nach dem zwei gleiche Teilchen niemals zur selben Zeit den gleichen Quantenzustand besetzen können, und die Bosonen, die einer Art Anti-Pauli-Prinzip unterliegen, nachdem zwei oder mehr gleiche Teilchen dazu neigen, zur selben Zeit den gleichen Zustand zu besetzen.( Auf dieser Eigenschaft der Photonen beruht die Funktionsweise des Lasers; hierbei regen Photonen, die sich in einem bestimmten Zustand befinden, die Emission weiterer Photonen m selben Zustand an…“) (Gell-Mann S. 189f)
Das Paulische Ausschließungsprinzip bildet also die Grenze, an die Materie stößt, wenn sie sich mit hoher Energie der Lichtgeschwindigkeit nähert. Neben dem Photon gibt es noch eine Reihe exotischer Teilchen, die dem Pauli-Verbot nicht unterliegen. Allein daran erkennt man, wie turbulent sich ein Versuch, die Lichtgeschwindigkeitsgrenze zu überschreiten, gestalten muß. Turbulenzen aber gehören wieder in den Bereich der Nichtlinearitäten. Jedenfalls hätte ein Übertritt in die Lichtgeschwindigkeit zur Voraussetzung, das sich alle uns vertrauten Teilchen und deren Musten irgendwie auflösen müßten. Es muß dann also so etwas wie einen Phasenübergang geben.
Das Problem der Phasenübergänge zweiter Ordnung wird von den meisten Physikern seit den Arbeiten von M.E. Fisher, L. Kadanoff und K. Wilson, er wurde dafür mit dem Nobelpreis ausgezeichnet, als erledigt betrachtet. Ein solcher Phasenübergang liegt zum Beispiel vor, wenn ein eisenhaltiges Material durch Temperaturerhöhung aus der Phase, in der es eine endliche Magnetisierung besitzt, in die Phase gebracht wird, in der keine Magnetisierung vorliegt. In einer vor einigen Jahren erschienenen Arbeit wurde nun die Natur der Phasengrenze in der komplexen Temperaturebene untersucht. Dies erscheint auf den ersten Blick sehr ungewöhnlich zu sein, ist die Temperatur doch eine reelle Größe. Im Rahmen einer theoretischen Untersuchung kann man die Temperatur natürlich auch als komplexe Größe auffassen, wenn man die Hoffnung besitzt, damit interessante Einsichten über das ursprüngliche Problem zu finden. Das überraschende Resultat dieser Untersuchung war nun, daß die Phasengrenzen in der komplexen Temperaturebene alles andere als einfache Gebilde sind. Wenn die bislang untersuchten, sogenannten hierarchischen Modelle nicht völlig untypische Eigenschaften haben, dann sind die Grenzlinien, die in der komplexen Ebene der Temperaturgebiete, die zu den verschiedenen Gebieten gehören, Fraktale. Es ist noch offen, ob man aus dieser Erkenntnis auch einen praktischen Nutzen ziehen kann. Der Reiz liegt zunächst einmal darin, daß Entwicklungen aus völlig verschiedenen Bereichen zusammengefaßt werden, obwohl diese Bereiche bislang kaum Notiz voneinander nahmen, wenngleich jeder für sich eine reiche Geschichte hat.“ ( Lerbinger/Kuchenbuch, Fasziantion Fraktale, 1992, S. 177 )
Auch unter diesem Aspekt wäre der Übergang von Materie zur Strahlung nicht linear zu beschreiben.
Wenn es so schwierig ist, wie kann es dann aber, nimmt man den Zweiten Hauptsatz der Thermodynamik ernst, dazu kommen, daß der Strahlungsanteil im Universum zunimmt?
Im Innern eines Sternes findet Kernfusion statt. Die Kerne von Wasserstoffatomen verschmelzen zu Heliumatomen. Ein Prozeß, bei dem ein Teil der Masse in Strahlung umgewandelt wird. Der Kern eines Heliumatoms ist also geringfügig leichter als zwei Wasserstoffatomkerne.
Das Sterneninnere kommt aber nicht von selbst. Sterne entstehen aus Gaswolken, die sich unter dem Einfluß der Schwerkraft verdichten. Die Gravitation ist bestrebt, die Masse des Sterns auf einen Punkt zu konzentrieren. Das führt zu verstärkter Teilchenbewegung im Innern der Sonne und letzlich zum Zünden des atomaren Feuers. Die treibende Kraft für die Kernfusion ist also letztlich die Schwerkraft, die bestrebt ist, die Masse in einem Punkt zu konzentrieren. Auf das Sterneninnere bezogen verleiht die Gravitation dem Zweiten Hauptsatz der Thermodynamik erst richtigen Schwung.
Die Konsequenz aus dem Zweiten Hauptsatz der Thermodynamik ist aber die, das letzlich das gesamte Universum in Strahlung übergeht. Nun müssen wir feststellen, daß es eine kosmische Hintergrundstrahlung gibt, die als Überbleibsel des Urknalls gilt. Ihre Temperatur liegt mit etwa 3° Kelvin knapp über dem absoluten Nullpunkt. Und trotz der ständigen Wärmeproduktion in den Sternen wird das Weltall nicht wärmer, es wird vielmehr kälter und nähert sich insgesamt dem absoluten Nullpunkt. Dieser Befund ist Anlaß genug, sich die Verhältnisse am absoluten Nullpunkt einmal näher zu betrachten:
Bei Lichtgeschwindigkeit ist die Zeit Null.. – Wie sieht es am absoluten Temperaturnullpunkt aus?:
Ein Teilchen mit der Temperatur Null bewegt sich nicht mehr, es hätte nur noch einen Ort, aber keine Geschwindigkeit mehr; das würde der Heisenbergschen Unschäferelation widersprechen. Außerdem würde jeder Beobachter, der mit einem solchen Teilchen wechselwirkt, diesem in irgendeiner Form „Wärme“ zuführen, Dann aber hätte es nicht mehr die Temperatur Null. Ferner bekommen wir Schwierigkeiten mit dem Pauli-Verbot. Denn das Pauli-Prinzip setzt ebenfalls Bewegung voraus, es ist innerlich mit der Unschärferelation verknüpft. Am absoluten Nullpunkt ist die Existenz der uns vertrauten Teilchen also nicht mehr zulässig, Daher kann es am absoluten Nullpunkt nur Strahlung geben. Auch durch Abkühlung kann Materie einen nur für Strahlung zulässigen Zustand ebenfalls nicht erreichen.. Am absoluten Nullpunkt ist nur noch Strahlung zulässig , und diese hat Lichtgeschwindigkeit. Bei Lichtgeschwindigkeit ist die Zeit Null, folglich ist auch am absoluten Temperaturnullpunkt die Zeit exakt Null. Zusammen mit der Zeit verschwindet aber auch der Raum, er wird bedeutungslos. Damit drängt sich der Verdacht auf, daß Lichtgeschwindigkeit und absoluter Nullpunkt zwei Aspekte ein- und desselben Phänomens sind.
Fassen wir noch einmal zusammen: Am absoluten Nullpunkt haben Energiequanten nur noch Lichtgeschwindigkeit. Auch aus dem Blickwinkel des absoluten Nullpunkts bilden Pauli-Verbot und Unschärferelation eine für Materie unüberwindliche Grenze. Weder durch Zuführen von Energie, noch durch Entzug von Energie kann Materie den Zustand reiner Strahlung erreichen. Daraus folgt im Umkehrschluß, daß alle Energiequanten mit Lichtgeschwindigkeit keine Temperatur haben, sich also am absoluten Nullpunkt aufhalten. Lichtgeschwindigkeit und absoluter Nullpunkt müssen daher identisch sein.
Das wiederum ist Grund genug, die Gleichung E = mc2 näher zu beleuchten: Energie ist gleich masse mal Lichtgeschwindigkeit (c) zum Quadrat. Lösen wir die Gleichung nach c auf. Um es etwas anschaulicher zu machen, setzen wir willkürliche Werte ein:
75 = 3 * 52
75 : 3 = 52
(75 : 3) : 5 = 5
Also ergibt sich folgende Rechung: (E : m) : c = c, oder, Mathematiker sehen solche Formeln lieber: c = E (mc)-1. Die Lichtgeschwindigkeit ist konstant, daraus folgt, daß auch das Verhältnis von Energie zu masse immer konstant ist. Das stimmt mit dem Ersten Hauptsatz der Thermodynamik überein. Allerdings hat die Sache einen kleinen Haken, m darf nie den Wert 0 annahmen. Denn die Division durch Null ist nicht definiert. Eine Berechnung der Lichtgeschwindigkeit aus den Werten E und m ist dann nicht mehr möglich. Die Bezugsgrößen für die Feststellung einer Geschwindigkeit, nämlich Raum und Zeit, sind dann augenscheinlich „verschwunden“. Ihr Fortbestehen scheitert an den Gesetzen der Mathematik.
Also ist der Anwendungsbereich der Relativitätstheorie auf unser „materielles“ Universum beschränkt; wenn keine Materie mehr da ist, läuft die Relativitätstheorie leer. Das hat auch zur Konsequenz, daß sich aus der Strahlung keine Aussagen über das „vorher“ und „nachher“ mehr ableiten lassen. Eine verblüffende Ähnlichkeit mit der Situation beim Urknall.
Wie gesagt, am absoluten Nullpunkt und bei Lichtgeschwindigkeit verschwinden Raum und Zeit, die mit dem Urknall entstanden waren. Damit wäre ein Zustand erreicht, der dem der Urknallsingularität spiegelsymmetrisch gegenübersteht, denn Raum und Zeit sind wieder verschwunden.
Wenn aber Raum und Zeit verschwunden sind, ist ebenfalls ein singulärer Zustend erreicht, bei dem alle Vorhersagbarkeit endet. Damit können wir die Behauptung wagen, die Nullpunkt-Lichtgeschwindigkeitsingularität sei zur Urknallsingularität spiegelsymmetrisch.
Sowohl bei der Urknallsingularität als auch bei der Nullpunkt-Lichtgeschwindigkeitssingularität (N/L-Singularität) bleibt nach dem ersten Hauptsatz der Thermodynamik die Energie erhalten. Die Gesamtenergie des Universums ist also immer gleich, unabhängig von seinem konkreten Zustand Das konstant bleibende Verhältnis von Energie zur Masse, das sich aus der Relativitätstheorie ergibt, zeigt das ebenfalls.
Damit hat das Universum einen konstanten Energiegehalt und zwei genau definierte Grenzen, nämlich die Urknall- und die N/L- Singularität Es ist daher geschlossen, und, die zwischen den Grenzen wirksamen Kräfte und ablaufenden Prozesse zeigen es, es ist bipolar aufgebaut.
Bipolarität findet sich also auf allen Größenskalen des Universums. Da wir auf allen Größenskalen des Universums auch Muster haben, handelt es sich bei Teilchen ebenfalls um Energiemuster. Dann aber scheinen, – man kann kaum andere Worte dafür finden – Energiequanten, die in unseren materiellen Teil derWelt gehören, nicht zu „wissen“, zu welchem Zustand sie „gehören“.
Als geschlossenes System befindet sich das Universum im Anwendungsbereich des Zweiten Hauptsatzes der Thermodynamik.
Nun ist, wie wir gesehen haben, Strahlung nur vordergründig ungeordnet. Strahlung hält sich an der N/L – Singularität auf. Bei jeder physikalischen Wechselwirkung nimmt die Entropie zu, und damit der Anteil der Strahlung. Wenn Materie in Mustern gefangene Energie ist, dann besagt der Zweite Hauptsatz der Thermodynamik, daß der Anteil der in Mustern „gefangenen“ Energie nach und nach abnehmen muß. Die Zunahme der Entropie ist unumkehrbar. Damit erleidet das Weltall einen unaufhörlichen Masseverlust. Aber nur bei der Kernfusion tritt ein meßbarer Masseverlust ein.
Sinkt der Anteil der Materie gegenüber der Strahlung, muß aber zwangsläufig die Angriffsfläche für die Schwerkraft insgesamt abnehmen. Die Gravitation als Massenanziehungskraft setzt das Vorhandensein von Materie voraus. Materieteilchen sind aber, wie wir gesehen haben, Energiemuster.
Die Auflösung der Einsteinschen Gleichung nach c hin belegt, daß die Masse im gleichen Verhältnis abnehmen muß, wie die Entropiegewinnung im Innern der Sterne zunimmt. Der Zweite Hauptsatz der Thermodynamik zwingt zu der Annahme, daß der Wert von E im Universum insgesamt größer wird, was zur Folge hat, daß m kleiner werden muß. Folglich steht die Relativitätstheorie meiner Vermutung, daß die Gesamtgravitation des Universums abnimmt, nicht entgegen.
Als ob der Name Programm wäre, erweist sich auch hier die Schwerkraft als die am schwersten zu erfassende Kraft im Kosmos. Sie wirkt lokal, wir werden uns dessen spätestens dann bewußt, wenn uns ein Hammer auf den Fuß fällt. Sie wirkt global, die Gezeiten der Meere legen darüber beredtes zeugnis ab; ohne die Gravitation gäbe es keine Sonne und keine Erde. Ohne sie könnte die Erde sich nicht auf ihrer Bahn halten. Sie wirkt im ganzen Universum. Wo auch immer sie Wirkung entfaltet, sie wirkt immer punktförmig, die Gravitation ist konstituierend für die Bildung von Schwerpunkten. Die Schwerkraft hat scheinbar immer ein Ziel, auf das sie gerichtet ist, sie hat einen Wegweiser, einen Vektor. Gravitation ist eine vektorielle Kraft.
Der Schwerpunkt der Erde ist ihr Mittelpunkt. Erde und Mond kreisen um einem gemeinsamen Schwerpunkt, weil die Mondbahn nicht vollkommen kreisförmig ist. Das Sonnensystems hat ebenfalls einen Gesamtschwerpunkt. Unsere Milchstraße auch.. Das ganze Universum ist erfüllt von Materie, folglich muß die Gesamtmaterie des Weltalls auch einen gemeinsamen Schwerpunkt haben.
Wirkt die Schwerkraft punktförmig, wo immer man sie antrifft, muß auch der Vektor der auf die Gesamtheit der Materie im Weltall einwirkenden Gravitation auf einen Punkt weisen. Wenn das Universum aus der Urknallsingularität hervorgegangen ist, kann eben dieser Punkt nur die Urknallsingularität sein. Dann aber ist die Gravitation eine Wirkung der Urknallsingularität, die mit den bei der Musterbildung der Materie auftretenden Wechselwirkungen (Kernkräften) nichts zu tun hat.
Wenn die Gravitation aber die Kraft ist, deren Vektor auf die Urknallsingularität, auf diesen Punkt gerichtet ist, ergibt sich die Krümmung des Raumes, die Einsteins Relativitätstheorie vorhersagt, von selbst.
Die Wirkung der Gravitation ist nichtlinear-dynamisch, wie Einsteins Gleichungen zeigen und die Sterne beweisen.
Unter diesem Blickwinkel erscheint es also nicht verwunderlich, daß die Gravitation ein wenig aus dem Rahmen des Einsteinschen Universums zu fallen scheint; sie ist neben der kosmischen Hintergrundstrahlung der einzige uns zugängliche Aspekt der Urknallsingularität. Und Einstein wußte noch nichts von Hochleistungsrechnern und deren Befähigung, uns die Muster zu zeigen, die nichtlineare Gleichungen hervorrufen können.
Gravitation wirkt lokal und universal. Der Zweite Hauptsatz der Thermodynamik wurde auf der Erde entwickelt, wo eigentlich gar keine Erzeugung von Entropie stattfindet, die mit einem meßbaren Masseverlust einhergeht. Nun ist die Erde kein geshlosssenes System; die Entwicklung des Zweiten Hauptsatzes der Thermodynamik unter irdischen Verhältnissen legt aber nahe, daß dieser Satz neben der universalen auch lokale Auswirkungen hat. – In dieser Eigenschaft steht er der Gravitation in nichts nach. Demnach erscheint es zulässig, den Zweiten Hauptsatz der Themodynamik als den Gegenspieler der Gravitation zu betrachten. Damit wäre sowohl Bipolarität als auch Symmetrie gewahrt.
Das Wirken der beiden Singularitäten bekommen wir also einmal als Schwerkraft und einmal als Zweiten Hauptsatz der Thermodynamik zu spüren.
Wenn die N/L-Singularität tatsächlich eine ist, muß sich das Universum in dessen Nähe entprechend verändern. Trotz der unaufhörlichen Erzeugung von Entropie wird das Weltall kälter und verliert zunehmend Masse, die Gesamtgravitation nimmt ab, und zwar um den Betrag, der bei der Kernfusion in den Sternen an Masse verlorengeht. Die Abnahme der Gesamtgravitation raubt den „Sternenleichen“ von heute, den „weißen Zwergen“, und vor allem den Neutronensternen die Kraft zum inneren Zusammenhalt. Sie zerfallen, ihre Teilchen diffundieren in den Raum und verbreiten einen Hauch von Restwärme.
Um zu ergründen, was dann passiert, brauchen wir ausnahmsweise keinen teuren Teilchenbeschleuniger, allenfalls eine Teilchenbremse. Denn Wärme ist Teilchenbewegung. Was passiert, wenn ich ein Teilchen so sehr bremse, daß es dem absoluten Nullpunkt nahe kommt? – Wenn alle Teilchenbewegung aufhören soll, darf es kein Teilchen mehr geben, das der Heisenbergschen Unschärferelation und dem Paulischen Ausschließungsprinzip unterliegt, also kein Teilchen mehr, das eine Masse hat. Dann aber muß vorher ein Zustand eintreten, der symmetrisch zur Urknallsingularität ist, mit anderen Worten, die Stärken der Wechselwirkungen müssen wieder gleich sein. Es muß die Symmetrie zwischen starker, schwacher und elektromagnetischer Wechselwirkung hergestellt werden.
Daher müssen wir erneut einen Blick auf die Verhältnisse kurz nach dem Urknall werfen:
10-43 Sekunden (Planckzeit), also im Minimalabstand von der Urknallsingularität, bestand noch vollkommene Symmetrie zwischen der starken, der schwachen und der elektromagnetischen Wechselwirkung.
10-35 Sekunden nach dem Urknall sonderte sich die starke Wechselwirkung ab. Nach etwa 10-11 Sekunden sonderten sich die elektromagnetische und die schwache Wechselwirkung voneinander ab.
Aus Gründen der Symmetrie müßte dann auch bei Annäherung an den absoluten Nullpunkt auch die Symmetrie der Kräfte in umgekehrter Reihenfolge wiederhergestellt werden. Als erstes müßten dann schwache und eletromagnetische Wechselwirkung wieder vereint werden.
Ich könnte fast wetten, daß 10 -35 Sekunden vor Erreichen des absoluten Nullpunkts die Symmetrie wiederhergestellt sein wird. Kurz vor Erreichen der Strahlungssingularität. Danach geht vollends das Licht an und alle Uhren bleiben stehen.
Ein weiteres Indiz für die beiden gestaltbildenden Antagonisten liefert auch folgende Überlegung:
Einsteins Theorie besagt, daß die Ausdehnung des Kosmos irgendwann einmal zur Ruhe kommen muß, falls- und dies ist entscheidend – die sogenannte >mittlere Materialdichte< einen kritischen Wert überschreitet. Dann würden sich die Galaxien mit stetig wachsender Geschwindigkeit wieder aufeinander zubewegen. So käme es letztlich zu einer Umkehrung des >Big Bang< zum >Big Crunch<
>Dieses Verhältnis der im Weltraum vorliegenden Materialdichte und der kritischen Dichte ist heute berechenbar<, erklärt der theoretische Physiker und P:M.-Autor Professor Dr. Harald Fritzsch. >sie wird von den Astrophysikern als Omega bezeichnet<. (…) >Man weiß heute<, so erklärt Astronom John Gribbin, >daß die Zahl nicht sehr von eins abweichen kann<. Wäre Omega im frühen Weltall nur ein wenig schwächer gewesen als tatsächlich der Fall, so wäre das Universum unter seinen eigenen Gravitation wieder in sich zusammengestürzt. Umgekehrt hätte Omega auch nicht viel stärker sein dürfen, sonst wäre die Materie nach allen Seiten zerstreut worden. Keine Chance mehr für die Bildung von Galaxien. (…) Dieses Rätsel der Feinabstimmung zu lösen gelang erst vor einigen Jahren dem amerikanischen Physiker Dr. Alan Guth. Er errrechnete: Omega ist automatisch gleich eins, wenn es in der Frühphase des Kosmos, kurz nach dem Urknall, eine äußerst starke Expansion gegeben hat; eine >Inflation< (…) (J. Scheppach, Plötzlich sieht das All ganz anders aus, P.M. – Magazin 4/88, S. 83)
Betrachten wir den Urknall einmal als Folge eines Schleusenereignisses, das eintrat, als sich ein Ungleichgewicht zwischen Materie und Antimatierie herausbildete. Dann aber muß es zwischen dem hypothetischen und dem tatsächlichen Urknall zu einer Phasenverschiebung gekommen sein:
Mit dem hypothetischen Urknall begann der Übergang in die Strahlungssingularität. Dabei kam es zu einer Phase der Instabilität, während der sich Energiemuster (Teilchen und Antiteilchen) bildeten, die beim Zusammentreffen vollkommen in Strahlung übergingen. Der tatsächliche Urknall fand erst statt, als – aus welchen Gründen auch immer – im „Teilchenstadium“ des Übergangs sich eine „kritische Masse“ an Materie gebildet hatte. Erst dann hatte die Gravitation die Möglichkeit, störend in den Geschehensablauf einzugreifen. Das Universum zuckte einen Augenblick. Dann erst kam es zu dem Ereignis, das wir als „Urknall“kennen. Dann erst wurden die Anfangsbedingungen gesetzt, die das für uns sichtbare Universum hervorbrachten. Der tatsächliche Urknall ist vom hypothetischen also um eine Nuance verschoben. Da die kosmische Hintergrundstrahlung aber das Echo des noch vollkommen symmetrischen hypothetischen Urknalls repräsentiert, ist ihr Wert für uns anscheinend in allen Himmelsrichtungen konstant.
Nun haben wir auch keine Schwierigkeiten mehr, die Kluft zwischen der Heisenbergschen Unschärferelation und der Kausalität der klassischen Physik zu schließen. – Das Universum ist akausal, aber musterstabil. Was der Mensch subjektiv als Kausalität von Ereignissen erlebt, ist sein Vertrauen in die Konstanz der Muster.
Allerdings eröffent sich ein ganz anderer Fragenkomplex, der sich aus dem Muster „Welle“ ergibt. Von elektromagnetischen Wellen wird behauptet, daß deren Energie mit der Frequenz zunehme. Röntgenstrahlung sei energiereicher als Radiostrahlung. Allerdings läßt sich das nicht aus der Einsteinschen Gleichung ableiten, denn elektromagnetische Strahlung entzieht sich der Berechenbarkeit. Andererseits haben wir auch in unserem berechenbaren Teil des Universums Wellen. Wellen übertragen in Gasen, Wasser und Festkörpern Schallschwingungen. Wasserwellen durchqueren Ozeane und erfreuen die Surfer vor der kalifornischen Küste. Erdbebenwellen haben dazu beigetragen, den Geologen einen Überblick über den inneren Aufbau der Erde zu verschaffen. Wellen sind also allgegenwärtig. Ob Licht, Schall oder Erdbeben, alle Wellen haben eines gemeinsam: sie tragen und übertragen Information über ihre Entstehung. Die Welle an sich ist bereits ein Thema, das dazu einlädt, näher hinzusehen, weil auch hier die Skaleninvarianz augenscheinlich durchschlägt.
Beim Anblick der auf meinem Computerbildschirm erscheinenden Muster, die auf ziemlich simplen Rechenvorschriften beruhen, drängt sich mir eine gänzlich andere Frage auf, die uns auf dem Markt an jedem Obst- und Gemüsestand begegnen kann:
Wenn Sie das nächste Mal einen Blumenkohl kaufen, können Sie Studien an einem fraktalen Objekt betreiben, ohne erst in die geheiligten Hallen der Wissenschaft eintreten zu müssen. Bricht man aus einem Blumenkohlkopf ein Blumenkohlröschen heraus und betrachtet es etwas genauer, so stellt man überraschenderweise fest, daß es dem Blumenkohl ziemlich ähnlich sieht – es ist zwar kleiner, aber besitzt die gleiche Struktur. Man kann nun aus diesem ersten Blumenkohlröschen ein zweites, kleineres Blumenkohlröschen herausbrechen, welches bei genauem Hinsehen dem ersten Blumenkohlröschen ziemlich ähnlich sieht – kleiner zwar, aber die gleiche Struktur besitzend. Hier müssen wir normalerweise unsere Untersuchung abbrechen, denn ein noch kleineres Blumenkohlröschen finden wir nur ganz selten…(Lerbinger/Kuchenbuch aaO, S. 17)
Warum gleicht das Blumenkohlröschen dem ganzen Blumenkohl? – Warum erscheint das „Apfelmännchen“ auf meinem Bildschirm auf allen denkbaren Größenskalen? – Anderes gefragt: Wo ist das „Apfelmännchen“, wenn es nicht auf meinem Bildschirm zu sehen ist? Daß es „existiert“, ist naturwissenschaftlich „beweisbar“, denn, wenn wir ein entsprechendes Computerprogramm als „Versuchsanordnung betrachten, läßt sich das „Experiment Apfelmännchen“ beliebig oft mit demselben „Ergebnis“ wiederholen.
Stellen wir die Frage erneut anders: Gibt es neben der allgegenwärtigen Information auch so etwas wie „Präformation“, die die Muster festlegt?

%d Bloggern gefällt das: