Streit um die Ausdehnung des Alls

 In Wissenschaftsnews

Neuere Messungen haben gezeigt: Es klafft ein tiefer Graben zwischen den Daten aus dem sehr jungen, also fernen Universum und dem näheren. Gegenwärtig scheint der Raum schneller zu expandieren als damals. Muss das Standardmodell der Kosmologie revidiert werden?

Ein Beitrag von Rüdiger Vaas

Unser Universum als Ganzes ist nicht ewig, unveränderlich und statisch, sondern dynamisch, und sich entwickelnd. Es begann mit einem extrem kleinen, heißen Moment: dem Urknall. Das zeigen die kosmologischen Theorien und Messungen deutlich. Diese grandiose Schlussfolgerung von einem winzigen Winkel des Alls aus auf das große Ganze ist einzigartig in der Geschichte der Wissenschaft. Theoretiker waren die ersten, die diese Schlussfolgerung mit Ableitungen aus der Allgemeinen Relativitätstheorie wagten, vor allem Alexander Friedmann (ab 1922) sowie Georges Lemaître (1927), die die bis heute verwendeten Gleichungssysteme formulierten. Es ist eine Ironie des Schicksals, dass Albert Einstein diese Entdeckung schon 1917 hätte machen können – und es vielleicht sogar ahnte, aber verwarf. Erst um 1931 ließ er sich durch astronomische Daten überzeugen.

Wie schnell explodiert der Weltraum?

Spektralmessungen von anderen Galaxien und Galaxienhaufen zeigen, dass sich diese fast alle von uns wie auch jeweils voneinander entfernen – und zwar umso schneller, je größer ihre Distanz ist. Das haben Edwin P. Hubble und sein Mitarbeiter Milton Humason ab 1929 mit dem 100-Zoll Teleskop auf dem Mount Wilson nordöstlich von Los Angeles nachgewiesen. Indizien fanden zuvor bereits Vesto Slipher vom Lowell-Observatorium in Flagstaff, Arizona, und Carl Wilhelm Wirtz von der Kieler Sternwarte. Sie besaßen aber noch zu wenige und zu ungenaue Daten. Freilich waren die Messungen zunächst sehr grob. Zentral dabei ist die Hubble-Konstante H0. Sie beschreibt die gegenwärtige Ausdehnungsrate des Weltraums. Davon hängen das Alter unseres Universums ab sowie seine Geometrie und Zukunft – also einige der wichtigsten Themen der Kosmologie. Der Wert von H0 ist ein Maß dafür, um welchen Betrag eine bestimmte Strecke des Weltraums sich „innerlich“ in welcher Zeit vergrößert. H0 wird üblicherweise in der Einheit Kilometer pro Megaparsec und Sekunde angegeben – ein Megaparsec sind 3,26 Millionen Lichtjahre.

mz_03-21_ausdehnung-all_bild
Das Hubble-Weltraumteleskop: Es wurde im April 1990 in eine Erdumlaufbahn gebracht und nach dem Astronomen Edwin P. Hubble benannt. Ein Hauptziel des Observatoriums ist die Messung der Hubble-Konstante – ein Maß für die Ausdehnungsrate des Alls.

Hubbles erste Messung ergab einen verrückten Wert von 500; demnach wäre das Universum nur zwei Milliarden Jahre alt – also jünger als die Erde. Noch in den 1990er-Jahren war H0 um den Faktor Zwei umstritten (50 bis 100) – was Astronomen erneut Kopfzerbrechen bereitete, da sie über elf Milliarden Jahre alte Sterne kannten, die somit älter wären als ein Universum mit einem damals noch prominent vertretenen H0-Wert um 90. Wendy Freedman von der University of Chicago war mit ihrem Team maßgeblich dafür verantwortlich, mithilfe des 1990 gestarteten Hubble-Weltraumteleskops die verflixte Konstante auf zehn Prozent genau zu bestimmen. Das 2001 publizierte Resultat ergab einen H0-Wert von 72 plus/minus 8. Weitere Messungen, auch mit anderen Methoden, lagen im selben Bereich. Das Problem schien im Wesentlichen erledigt.

Die Brücke
mz_03-21_ausdehnung-all_bruecke

Es passt nicht: Wenn eine Brücke, die von den beiden gegenüberliegenden Seiten einer Schlucht aufgebaut wird, sich nicht in der Mitte trifft, gibt es ein Problem. So ergeht es zurzeit den Kosmologen, die Entfernungen im Weltraum und dessen Ausdehnung mit einer Vielzahl von Methoden messen. Die Daten von der intergalaktischen Nachbarschaft hinaus in immer größere Distanzen widersprechen den Daten vom frühen Universum. Eingezeichnet sind diverse Messwerte von H0 (in Kilometer pro Sekunde und Megaparsec) mitsamt ihren Fehlerbereichen, die die Unsicherheiten der Werte anzeigen. Die sieben lokalen Methoden ergeben einen Mittelwert von 73,0, die fünf kosmologischen einen von 67,4. Letztere sind präziser, hängen aber vom vorausgesetzten Modell des Universums ab – das falsch sein könnte. In den lokalen Messungen hingegen könnte ein verzerrender systematischer Fehler stecken.

Genauigkeit ist Trumpf – und ein Problem

Doch der Schein trog. Denn inzwischen ist es möglich, H0 auf eine ganz neue Art zu bestimmen: mithilfe der Kosmischen Hintergrundstrahlung. Dieses erste Licht im Universum wurde nur 380.000 Jahre nach dem Urknall freigesetzt und erfüllt noch immer den gesamten Weltraum. In ihm stecken die Abdrücke winziger Temperaturschwankungen in der Größenordnung von einem Hunderttausendstel Grad. Deren nunmehr extrem präzise bekanntes Muster lässt sich als eine Art himmlische Messlatte verwenden. Maßgeblich wurden die Satelliten WMAP (Wilkinson Microwave Anisotropy Probe; Publikationen ab 2003) und Planck (ab 2013). Der Planck-Abschlussbericht von 2018 nennt für H0 67,4 plus/minus 0,5. Allerdings stecken einige Annahmen in dieser Zahl. Sie gilt nur im Rahmen des gegenwärtigen kosmologischen Standardmodells, das nicht über alle Zweifel erhaben ist. Doch H0-Werte zwischen 67 und 68 plus/minus 1 ergab auch die Vermessung der großräumigen Verteilung von fernen Galaxienhaufen. Diese sind aus den Dichteschwankungen der Urmaterie entstanden, die sich wiederum im Temperaturmuster der Hintergrundstrahlung spiegeln. Die kosmologischen Messungen sind ein enormer Fortschritt. Doch sie passen schlecht zum H0-Wert von Wendy Freedmans Team. Schlimmer noch: Seither sind auch astronomische Daten immer besser geworden, die wie bei Hubble und Freedman auf der sogenannten kosmischen Distanzleiter basieren. Diese baut auf der Entfernungsbestimmung von Sternen mit immer größeren Abständen auf: erst Parallaxen (Winkelmessungen), dann Sternhelligkeiten, schließlich als „Standard“ fungierende Cepheiden (pulsierende Riesensterne) und Sternexplosionen (Supernovae vom Typ Ia). Diese Art von intergalaktischem Lineal reicht inzwischen viele Hundert Millionen Lichtjahre weit ins All. Besonders die vom Physik-Nobelpreisträger Adam Riess geleitete SH0ES-Kollaboration (Supernovae H0 for the Equation of State) hat damit große Fortschritte erzielt; auch dabei spielt das Hubble-Teleskop eine wichtige Rolle. 2009 betrugen die Messungenauigkeiten fünf Prozent, inzwischen sind es weniger als zwei. Außerdem schwanken die Messwerte von H0 kaum noch und liegen nun bei 73,5 plus/minus 1,4. Das ist mit einer statistischen Signifikanz von fast 1 zu 100.000 nicht mehr mit dem Planck-Ergebnis in Einklang zu bringen. Somit klafft nun ein tiefer Graben zwischen den Daten aus dem sehr jungen, also fernen All und dem näheren, das vom SH0ES-Projekt ausgelotet wird: Gegenwärtig scheint der Raum um sechs bis acht Kilometer pro Sekunde und Megaparsec schneller zu expandieren als damals. Weil sich die Fehlerbereiche der Datenpunkte, die die statistischen und systematischen Messunsicherheiten anzeigen, nicht einmal mehr überlappen, sprechen viele Astronomen bereits von einer neuen Krise der Kosmologie. Eine Möglichkeit, das Rätsel zu lösen, besteht darin, H0 mit weiteren Methoden zu bestimmen.

So gibt es andere, teils unabhängige Entfernungsindikatoren: etwa Rote Riesensterne vom Mira-Typ, charakteristische Helligkeitsschwankungen von Galaxien, natürliche Mikrowellen Laser in Gaswolken um galaktische Schwarze Löcher und geometrische Bestimmungen mithilfe des bereits von Einstein beschriebenen Gravitationslinsen-Effekts. Sie alle liefern H0-Werte zwischen 73 und 77. Eher auf 67 hingegen deuten Messungen darauf, wie stark das extragalaktische Hintergrundlicht die Gammastrahlung ferner Quellen verschluckt. Und aus der Maximalhelligkeit bestimmter Riesensterne ergibt sich etwa 70. Das alles macht die Situation noch verwirrender.

Das Ringen um Erklärungen

Die nächstliegende Erklärung für die Diskrepanz ist ein unbekannter systematischer Fehler in den Daten oder Modellen vom fernen oder vom näheren Universum oder von beiden. So könnte die Helligkeit der Supernovae von der Art, dem Alter und der Entwicklung ihrer Heimatgalaxien abhängen. Die radikalste Lösung des Problems wäre die Einführung neuer physikalischer Annahmen, Größen, Effekte oder Gesetze – beziehungsweise der Nachweis, dass das gegenwärtige kosmologische Standardmodell falsch ist. Dann würden die lokalen und globalen H0-Messungen nicht übereinstimmen, obwohl vielleicht beide korrekt wären. So könnte unser Ort im All nicht durchschnittlich sein, wie das Kosmologische Prinzip annimmt, sondern der Galaxienhaufen mit der Milchstraße befindet sich zufällig beim Zentrum eines viele Millionen oder sogar Milliarden Lichtjahre großen Bereichs unterdurchschnittlicher Materiedichte. Oder die Gesamtkrümmung des Universums ist nicht Null, sondern leicht negativ. Oder die gegenwärtige Physik ist unzureichend: Vielleicht gibt es bislang unbekannte Wechselwirkungen zwischen den drei Arten von Neutrinos oder noch eine vierte Sorte dieser Elementarteilchen. Oder die ominöse Dunkle Materie und Dunkle Energie, die 95 Prozent der Energiedichte des Universums ausmachen sollen, aber nicht direkt nachgewiesen sind, verhalten sich anders als angenommen. Oder die Allgemeine Relativitätstheorie gilt über riesige Distanzen nicht exakt. Freilich gibt es für alle diese Spekulationen bislang keine guten, unabhängigen Hinweise. Ungewissheiten muss man aushalten können – besonders in der Wissenschaft. Doch weitere Messkampagnen sowie neue Teleskope auf der Erde und im All sind bereits im Einsatz oder in Vorbereitung. Der technische Fortschritt dürfte das H0-Rätsel noch in diesem Jahrzehnt lösen – mit welchen Konsequenzen auch immer.

Download

Ausdehnung des Weltalls & Kosmische Distanzleiter | MINT Zirkel 3-2021

Download-Formular

Über den Autor

Rüdiger Vaas

ist Philosoph, Publizist, Dozent sowie Astronomie- und Physik-Redakteur beim Monatsmagazin bild der wissenschaft und Autor von 14 Büchern, zuletzt Einfach Hawking! (Kosmos, 2021).