Im vorliegenden Band befasst sich der Physiker und Astronaut Ulrich Walter mit dieser Fragestellung. Er kommt zu dem Ergebnis, dass es zwar keinen prinzipiellen Grund gibt, warum die Entstehung einer technischen Zivilisation nur einmal und nur an einer einzigen Stelle des Universums möglich gewesen sein sollte, sagt aber auch deutlich, dass die Wahrscheinlichkeit hierfür hinreichend gering ist, dass wiederum die Wahrscheinlichkeit der gleichzeitigen Existenz zweier technischer Zivilisationen in ein der selben Galaxis, und damit die Wahrscheinlichkeit ihrer Begegnung, friedlich oder nicht, gegen Null geht. Ich bin mit diesem Resultat seiner Überlegungen vollkommen einverstanden. Etwas ärgerlich nur, dass er sich in seiner Ausführungen auch auf eine Argumentation stützt, die gern von Evolutionsgegnern herangezogen wird. Die sieht immer etwa so aus: Die Entstehung intelligenten Lebens, oder die zufällige Entstehung eines Lebewesens einer bestimmten, wenn auch vergleichlich niederen Entwicklungsstufe des Lebens, oder einer DNS-Sequenz zu dessen Codierung, sei so unwahrscheinlich, wie die Wahrscheinlichkeit, dass ein Schimpanse dem man eine Schreibmaschine hinstellt, darauf fehlerfrei den Hamlet von Shakespeare tippt. (Die Argumentation stammt sichtlich aus dem englischen Sprachraum; in Deutschland müsste der Affe den Faust schreiben und in Cuba vielleicht das Kommunistische Manifest.) Dann kommt man zu der Schlussfolgerung, dass selbst 10 Milliarden Schimpansen, dass soll der gegenwärtigen Erdbevölkerung an Menschen entsprechen, selbst dann, wenn sie seit dem Beginn unseres Universums vor ca. 14 Milliarden Jahren an ihren Schreibmaschinen gesessen hätten, nicht genug Zeit gehabt hätten, um zufällig den Hamlet zu schreiben. Nun ist allerdings die Evolution kein reiner Zufallsprozess. Zufällig sind nur die Variationen oder Mutationen, die das Ausgangsmaterial der natürlichen und geschlechtlichen Auslese darstellen, während die genannten Auslesemechanismen immer nur das Zweckmäßige bewahren. Auch die Populationsgröße, auf die die Zufallsprozesse hier angewandt werden, ist inkorrekt, denn die frühen Stufen der Evolution wirken natürlich auf Lebewesen vom Charakter von Bakterien bzw. noch deren Vorstufen und von Bakterien dürfte wohl jeder von uns bereits so viele in seinem Darm haben, wie es Menschen auf der Erde gibt, von denen in den Weltmeeren mal ganz abgesehen. Verändern wir also das Gedankenexperiment mit den Schimpansen: Erhöhen wir ihre Zahl auf 10^15, setzen sie aber hart unter Druck, denn wer Unfug schreibt, bekommt keine Bananen, verlangen aber in jeder Generation nur einen richtigen Satz, den die Nachkommen derjenigen, die ihn geschrieben haben nicht neu per Zufall ergründen müssen, sondern von ihren Vorfahren erben, und stellen nun die Frage, ob nicht vier Milliarden Jahre gereicht hätten, dass in der letzten der Schimpansengenerationen nicht einer sei, der den vollständigen Hamlet vorweisen könne. Wir werden diese Frage wohl bejahen können. Das soll natürlich nicht heißen, dass dieser erfolgreiche Affe den Hamlet versteht, wir kennen ja die Basensequenz unseres Genoms auch erst seit einigen Jahren und wirklich verstanden haben wir sie noch lange nicht. Aber die Basensequenz war hinreichend o.k. , dass uns die Umwelt ihre Bananen nicht vorenthielt.
Aber kommen wir nun zu dem quantenkosmologischen Beitrag von Alexander Vilenkin. Worum geht es bei der Quantenkosmologie? Wenn das Universum gemäß der Urknall-Theorie zu seinem Beginn mit seiner gesamten Masse und Energie in einem einzigen Punkt vereint war, muss man es in den ersten Momenten seiner Existenz größenordnungsmäßig als ein Quantenobjekt betrachten und sollte es demgemäß auch mit den Methoden der Quantentheorie behandeln können. Aber welche Fragen soll diese Herangehensweise beantworten? Zunächst geht es um die Frage nach einer Ursache für den Urknall. Lässt sich für dieses Ereignis eine kausale Bedingung angeben? Aber die ersten Momente des Universums sind auch von Interesse für die Lösung zweier Probleme, die sich aus der Betrachtung des heutigen Universums ergeben: Das Horizontproblem und das Flachheitsproblem.
Der Ereignishorizont begrenzt den Raum unserer prinzipiell möglichen Erfahrung. Dieser hat eine endliche Größe aufgrund der Endlichkeit der Lichtgeschwindigkeit und der Tatsache, dass unser Universum einen Anfang in der Zeit hat. Die seit diesem Beginn verstrichene Zeit, multipliziert mit der Lichtgeschwindigkeit ergibt den Radius des Ereignishorizontes. Dieser hat damit die Form einer Kugeloberfläche, während wir uns im Mittelpunkt eben jener Kugel befinden. Eine Kugel hat aber auch einen, der dann das Doppelte eben jenes Produktes aus Existenzdauer des Universums und der Lichtgeschwindigkeit. Die jeweiligen beiden Schnittpunkte eines beliebigen Durchmessers jener Kugel, die unseren Ereignishorizont beschreibt, mit dieser Kugeloberfläche, liegen füreinander außerhalb des Ereignishorizontes, da ja auch unser eigener Standort für jeden Punkt unseres Ereignishorizontes einen Punkt auf der Oberfläche seines Ereignishorizontes bildet. Die entgegengesetzten Schnittpunkte des Durchmessers unseres Ereignishorizontes können also keinerlei Informationen miteinander austauschen, da die Lichtgeschwindigkeit die Maximalgeschwindigkeit jeden Informationsaustausches darstellt. Aber vielleicht hätten sie das früher gekonnt, bekanntlich expandiert ja das Universum und Regionen die heute sehr weit enrfernt sind, waren sich früher näher? Aber das Universum muss langsamer expandieren als sich das Licht ausbreitet, denn es enthält viel massebehaftete Materie, die keine Lichtgeschwindigkeit erreichen kann. Die Ereignishorizonte jeden Punktes des Universums wachsen damit schneller als das Universum selbst. Falls das Universum endlich ist, muss irgendwann der Zeitpunkt eintreten, an dem es in seiner Gesamtheit für jeden seiner Punkte innerhalb des Ereignishorizontes liegt. Wenn also die Radien in ihrem Verhältnis zum Radius des Universums mit dem Zeitpfeil zunehmen, muss sich dieses Verhältnis in der entgegengesetzten Richtung der Zeit, auch entgegengesetzt entwickeln. Das Bedeutet, Regionen des Universums, die heute Informationen austauschen können, konnten dies in zurückliegenden Zeiten ebensowenig.
Aber warum ist das ein Problem? Erscheint uns dies nur so, weil wir es auf unserer kleinen Erde mittlerweile so gewohnt sind mittels Internet von nahezu jedem Punkt unserer Kugeloberfläche jederzeit Informationen erhalten können? Erklären wir das Problem so: Mittels Internet kann man sich überall über den aktuellen Stand des Dollar zum Euro informieren und deshalb wird er rund um den Erdball auch nur mit geringen Abweichungen von diesem Wert gehandelt werden. Vor 500 Jahren jedoch konnte man noch in machen Gebieten unseres Erdballs für wertlose Glasperlen gigantische Immobilien erwerben. Dies lag nicht daran, dass die Vorbesitzer dieser Immobilien so dumm waren; sie besaßen eben einfach keine Informationen über den Kurswert von Glasperlen gegenüber Immobilien in den Herkunftsländern der Glasperlen. Insofern ist es eben seltsam, dass die Temperatur des Universums, so weit wir in alle Richtungen blicken können, mit hoher Genauigkeit 3 Kelvin beträgt. Sicher neigen zusammenhängende Gefäße oder Räume zum spontanen Ausgleich ihrer Temperaturen. Aber dies ist ein Informationsübertragungsprozess, der eben maximal mit Lichtgeschwindigkeit stattfinden kann.
Für ein expandierendes Universum gibt es zwei mögliche Zukunftsszenarien: Es expandiert in alle Ewigkeit oder es zieht sich, nach der Erreichung eines maximalen Radius unter dem Einfluss der Schwerkraft seiner Masse, wieder auf einen Punkt zusammen. Im ersteren Falle spricht man auch von einem offenen und im letzteren von einem geschlossenen Universum. Letzteres beschreibt eine Kugel in der vierdimensionalen Raumzeit, während die Raumzeit des ersteren nach außen gekrümmt ist. Über die Zukunft des Universums entscheiden wird die durchschnittliche Masedichte: Oberhalb eines bestimmten kritischen Wertes sorgt die Massedichte für ein geschlossenes Universum, unterhalb dieses kritischen Wertes für ein offenes. Wir wissen aber, dass die reale Massedichte unseres Universums nicht mehr als 0,000 000 000 000 01% von jenem kritischen Wert abweichen kann, anderenfalls wäre schon längst wieder in sich zusammengefallen oder hätte sich bereits lange einem Zustand unendlicher Verdünnung aller Materie angenähert. Unsere wirkliche Raumzeit ist also kaum gekrümmt, sondern sehr flach.
Das ist zweifellos gut für uns, denn sonst hätten wir keine Zeit, gehabt uns zu entwickeln. Aber verdanken wir das der Vorsehung eines gütigen Gottes oder einfach dem Zufall in einem so günstigen Universum zu leben, während sich in den anderen keiner wundert, warum sie so schlecht beschaffen sind, wie ja auch auf dem Merkur niemand ist, um sich über Wassermangel dort zu ärgern? Aber vom unbewohnten Merkur wissen wir, dass es ihn wirklich gibt. Aber unbewohnte Universen liegen außerhalb unseres Ereignishorizontes, außerhalb unserer prinzipiell möglichen Erfahrung. Sie für „wahr“ zu erhalten, wird damit auch zu einer Art Religion. Wissenschaftlich am Befriedigendsten wäre schon eine Erklärung der Flachheit unseres Universums aus erkennbaren Ursachen heraus.
Um sich dieser Problematik zu nähern, ist das Vakuum zu betrachten, dass sich doch als etwas anderes erwiesen hat, als das reine Nichts. Bekanntlich entstehen und vergehen in ihm beständig Paare zueinander symmetrischer virtueller Elementarteilchen. Aber es entstehen nur Elementarteilchen bestimmter Eigenschaften, eines bestimmten endlichen Spektrums verschiedener Typen. Eine Art Elektron, mit halber Ladung und 1,3facher Masse als die üblichen Elektronen, so was kommt einfach nicht vor. Mit anderen Worten: Das Spektrum der möglichen virtuellen Teilchen, ist eine konkrete und objektiv-reale Eigenschaft des Vakuums, oder eines Vakuums, wenn wir annehmen wollen, dass die uns geläufige Variante nicht die einzige sein muss. Oder noch anders formuliert: Der uns bekannte leere Raum ist ein Medium mit der Eigenschaft, dass seine Punkte nur ganz bestimmte Schwingungszustände annehmen können.
Wenn wir annehmen, dass sich in der Nähe des Urknalls, bei gigantischen Temperaturen, sich die physikalischen Grundkräfte vereinen, jedenfalls elektrodynamische Kraft, schwache und starke Kernkraft und damit auch Neutrinos, Elektronen und Quarks austauschbar werden, müssen hier also andere Vakua existiert haben, hochenergetische Vakua, verglichen mit unserem heutigen Vakuum niedrigster Energie, dem echten Vakuum. Man spricht von einem elektroschwachen Vakuum und einem grand-unified Vakuum, gemäß den vereinigten Kräften. Die Übergänge zwischen den einzelnen Vakua kämen Phasenübergängen gleich, vergleichbar dem Übergang von flüssigem Wasser zu Eis.
1980 schlug Alan Guth vor, eine solche Blase falschen Vakuums zum Ausgangspunkt eines neuen kosmologischen Ansatzes zu machen: Eine solche Blase falschen Vakuums müsste sich in Bruchteilen von Sekunden nach dem Urknall weitaus gigantischer ausgedehnt haben, als nach der Standard-Urknalltheorie, die von einer vergleichsweise stetigen und von Anfang an von der Gravitation gebremmsten Expansion des Universums ausgeht. Diese gigantische exponentielle Expansion des Universums in wenigen Sekundenbruchteilen bis zum Phasenübergang ins echte Vakuum nannte der Wissenschaftler „Inflation“, weil zu dieser Zeit in den USA die Leute mächtig über eine hohe Inflationsrate stöhnten. Eine solche Inflation des Universums könnte allerdings das Horizont- und das Flachheitsproblem lösen.
Alexander Vilenkin will nun noch ein Stück weitergehen und die Ursache der Entstehung eines oder unseres Universums finden. Der Beginn aus einer Singularität unendlicher Dichte und unendlicher Raumkrümmung auf unendlich kleinem Raume sagt ihm nicht zu. In der Tat sollte die Heisenbergsche Unschärferelation nur eine Beinahe-Singularität zulassen, da sie die Kontraktion eines Objektes auf einen Durchmesser unterhalb der Planck-Länge verbietet. Dies ist zwar sehr klein, aber nicht unendlich klein. Nun könnte das beginnende Universum natürlich die Beinahe-Singularität eines Schwarzen Loches bzw. eines Universumsendknalls sein, welche ihre Zeitrichtung umkehrt, was einem Quantenobjekt ja gestattet ist. Vilenkin aber geht davon aus, dass alle entstehenden Universen normalerweise unter ihrem Eigengewicht sofort wieder kollabieren müssten, es sei denn sie erreichten eine Mindestgröße, bei welcher eben jene oben beschriebene Inflation einsetzt.
Zwischen einem Miniuniversum, dass wieder kollabieren muss, und einem solchen von hinreichender Größe zum einsetzen der Inflation, liegt jedoch eine Energiebarriere, die überwunden werden muss. Wo soll die Energie herkommen? In der Umgebung ist nichts, das Nichts! Aber das Miniuniversum ist ein Quantenobjekt und kann die Energiebarriere mit einer gewissen Wahrscheinlichkeit durchtunneln. In der Quantenwelt haben die Objekte Aufenthaltswahrscheinlichkeiten. In der Chemie pflegt man den Raum mit der 90%igen Aufenthaltswahrscheinlichkeit eines Elektrons mit einem bestimmten Quantenzustand innerhalb eines Atoms, in Abhängigkeit von der Entfernung zum Atomkern und des Winkels zu einem gedachten Koordinatensystem, schön anschaulich als Orbital darzustellen. Eigentlich bedarf das Elektron einer energetischen Anregung in Form eines elektromagnetischen Quants, um seinen Aufenthaltsraum verlassen zu können. Aber man darf nie vergessen, mit einer gewissen Wahrscheinlichkeit ist es eben zu einem bestimmten Zeitpunkt außerhalb ohne eine bestimmte Ursache. Das gleiche gilt für Kernteilchen, die eigentlich ohne Energiezufuhr den Kern nicht verlassen können, aber mit einer gewissen Wahrscheinlichkeit sind sie eben außerhalb, ohne eine besondere Ursache, sie tunneln unter einer Energiebarriere hindurch. Dies vermutet nun Valenkin für das frühe Universum.
Aber es kommt noch härter: Die Wahrscheinlichkeit des Tunnelns in eine Größe, die die inflationäre Expansion ermöglicht, verschwindet nicht, wenn man den Radius des vorherigen Universums gegen Null gehen lässt. Damit produziert er uns ein Universum ursachelos aus dem Nichts! Es geschieht einfach, weil es eine endliche Wahrscheinlichkeit besitzt und deshalb in der Unendlichkeit und Ewigkeit des Nichts einmal passieren muss. Voraussetzung ist allerdings, dass in der Unendlichkeit und Ewigkeit des Nichts die Gesetze der Physik Gültigkeit besitzen. Ist dies letzrndlich Materialismus, da ja auch ein Nichts in dem die Gesetze der Physik gelten, objektiv-realen, also materiellen, Charakter hätte? Oder ist das eher Platonismus in der Physik, eine Philosophie die nur die immateriellen Urbilder oder Ideen für ewig nimmt, und die reale Welt nur für eine unvollkommene Kopie dieser? Der Beitrag von Alexander Vilankin war für mich zweifellos der anregendste in diesem Sammelband über den Kosmos, aber auch nach mehrmaligem Lesen bin ich mir noch nicht klar, ob ich ihm zustimmen kann.
Ausgezeichnet ist auch der Beitrag des ohnehin von mir hoch geschätzten Wissenschaftsautors John D. Barrow über kosmologische Grenzen. Anhand des oben beschriebenen Ereignishorizontes und der Ereignishorizonte um die Schwarzen Löcher zeigt er die Grenzen wissenschaftlicher Erkenntnis auf. Angesichts einiger auch spekulativer Fragen, die in einzelnen Beiträgen aufgeworfen werden, ist die Klarstellung, dass Aussagen, die den Raum der prinzipiell möglichen Erfahrung überschreiten, Spekulationen sind und den Bereich der Wissenschaft verlassen, sehr wohltuend.
Trotz der selbstverständlich unterschiedlichen Qualität der einzelnen Beiträge, ist dieser Sammelband über neue Forschungsergebnisse über und Sichtweisen auf unseren Kosmos sehr zu empfehlen.
* * *
Faszination Kosmos: Planeten, Sterne, Schwarze Löcher, Herausgeber: Andreas Sentker, Frank Wigger, Mit einem Nachwort von Rudolf Kippenhahn, 2008 Akademischer Verlag Heidelberg und Zeitverlag Gerd Bucerius GmbH & Co KG, ISBN: 978-3-8274-2001-5