Der Mensch entdeckt das Metall

Das Metallzeitalter

Die frühen Menschen unterschieden sich von verwandten Arten vor allem durch eine gezielte Herstellung und einen systematischen Gebrauch von Werkzeugen. Dazu verwendeten sie verschiedene Materialien aus ihrer Umwelt – Steine, aber auch Knochen, Holz und Horn. Mit dem Feuer bekamen sie dann erstmals Energie in die Hand. Schon vor mindestens 1 1/2 Millionen Jahren hatte vermutlich Homo erectus bereits glimmende Holzstücke aus Blitzeinschlägen und Buschbränden genutzt, um ein Lagerfeuer zu unterhalten und rohe Nahrung durch Erhitzen besser kau- und verdaubar zu machen. Homo sapiens lernte schließlich, Ton und Metallerze mit Hilfe des Feuers zu bearbeiten.

Metall mit seinen außergewöhnlich Eigenschaften erschloss als „treibende Kraft“ neue Siedlungsräume, ließ neue Werkzeuge, neue Statussymbole und Waffen hervorbringen – verbunden mit neuen Hierarchien und Konflikten -, und ließ ein überregionales Handels- und Kommunikationsnetz entstehen. Ohne die Entdeckung der Metallproduktion wäre die Menschheit in der Steinzeit stehen geblieben und die heutige Zivilisation nicht denkbar.

Keramik

Der höchst plastische und formbare Ton kommt fast überall vor. Ob durch Zufall oder ein gezieltes Experiment: Spätestens vor 27 000 Jahren kneteten moderne Menschen den feuchten Ton zu einer Form und legten ihn ins Feuer. Es entstand ein extrem widerstandsfähiges, steinhartes Material: Keramik, der erste künstliche Werkstoff der Geschichte. Anfangs modellierten unsere Vorfahren vor allem Figuren. Auf dem Gebiet des heutigen China entdeckten die Menschen, dass man auch Gebrauchsgegenstände aller Art produzieren konnte: Töpfe zum Kochen und Gefäße zur Aufbewahrung von Vorräten und zur Sicherung vor Ungeziefer. Ostasien scheint ab 20 000 v. h. ein Zentrum der Töpferkunst gewesen zu sein.

In Afrika kam die Keramik vor 12 500 bis 11 500 Jahren auf dem heute zur Sahelzone gehörenden Dogon-Plateau auf. Die Menschen lebten hier in einer Vorstufe zu einer Ackergesellschaft und waren schon zeitweise sesshaft. In der Sahara und im Niltal verfügten die Einheimischen seit 11 000 bis 10 000 Jahren über das Wissen, Ton zu brennen und das Schrumpfen der Rohformen durch „Magerung„, also mineralische Zusätze, zu verhindern. Im „Fruchtbaren Halbmond“ tauchten vor 9000 Jahren plötzlich an vielen Orten Keramikgefäße in erstaunlicher Perfektion auf, so dass spekuliert wird, dass sie aus irgendeinem Zentrum früher Töpferkunst, vielleicht gar aus dem Fernen Osten, stammten.

Ab etwa 8000 v. h. spricht man vom „Keramischen Neolithikum“ , in dem alle Komponenten zur Herstellung von Keramik voll entwickelt waren. Am Indus war die Töpferscheibe erfunden worden, eine kreisrunde waagerechte Fläche, die sich um eine zentrale Achse dreht. Anfangs handelte es sich nur um eine langsam drehende Scheibe, die auf einem Tisch lag. Sie ermöglichte es aber schon, Keramikgefäße in nie gekonnter Schnelligkeit zu fertigen. Der große Durchbruch kam vor spätestens 5300 Jahren mit der schnell drehenden Töpferscheibe. Keramik wurde zur Massenware.

Die allerersten Tonwaren hatten die Menschen noch im Lagerfeuer oder in Brenngruben bei rund 800°C erhitzt. Später konstruierten sie Brennöfen, zunächst mit nur einer Brennkammer, dann mit getrennten Kammern: In der einen Kammer loderte der Brennstoff, in der anderen glühte die Keramik. Mittels gezielter Luftzufuhr etwa durch Zuglöcher konnten die Brennbedingungen in den Öfen präzise gesteuert und Temperaturen von 1100°C erreicht werden.

Kupfer

Vieles spricht dafür, dass die Produktion von Keramik auch die Nutzung von Metall möglich machte. Metalle kannte Homo sapiens wahrscheinlich schon in seiner Jäger- und Sammlerzeit: Glänzende Goldkörner waren ihm sicher schon früh im Sand von Flussbetten oder zwischen den Steinen ausgewaschener Berghänge aufgefallen. Vor mehr als 12 000 Jahren wurden Menschen z. B. in Anatolien, das besonders reich an Erzlagerstätten ist, auf Steine aufmerksam, die in der Sonne grün oder blau glitzerten: Malachit und Azurit, zwei Kupferkarbonate. Sie benutzten die Gesteinsbrocken, um Farbstoffe zum (Be)Malen zu gewinnen und Ornamente herzustellen. Später begannen sie, mit ihnen zu experimentieren.

Bald fanden sie heraus, dass sie das Material besser formen konnten, wenn sie die Brocken ins Feuer warfen. Das erhitzte Material bearbeiteten sie dann mit ihren Steinwerkzeugen und hämmerten daraus Schmuckgegenstände wie Perlen und Ringe, Stichel oder Keulenköpfe. Das älteste bisher gefundene bearbeitete Kupferstück ist ein ovaler Anhänger aus Shanider, einer Höhlenanlage im nördlichen Irak, datiert auf 11 500 Jahre vor heute. Auch in Göbekli Tepe, einer gewaltigen Kultanlage in Anatolien aus etwa der gleichen Zeit, gab es schon erste Kupfergegenstände.

Die Metallurgie nahm aber erst im 9. Jahrtausend in Anatolien richtig Fahrt auf, als man begann, Kupfer mittels Schmelzen, Erhitzen und Hämmern zu formen. Aus der Zeit zwischen 8500 und 7200 v. h. gibt es immer mehr Kupferfunde im Vorderen Orient. Der Keulenkopf von Canhasan in der Türkei, vor über 8000 Jahren mühevoll gehämmert, ist eine der ältesten erhaltenen Waffen aus Metall. Es dauerte aber einige tausend Jahre, bis sich nicht nur die die Kenntnis der Kupferbearbeitung, sondern vor allem auch dessen Gewinnung aus in Felsen eingeschlossenen Erzen durchsetzte und verbreitete. Nun war man nicht mehr auf das nur spärlich vorhandene gediegene Kupfer (mit anderen Elementen verunreinigtes Kupfer) angewiesen, sondern konnte das Metall aus dem Gestein gewinnen.

Möglicherweise hat ein anderes Metall, nämlich Blei, den Weg zur Kupferherstellung gewiesen, wie einige Bleikügelchen aus dem türkischen Catalhöyük, 8500 Jahre alt, oder ein nicht viel jüngerer, im heutigen Irak gefundener Armreif aus Blei beweisen. Genauso wir Zinn ist Blei ein „weiches“ Metall. Es ist leicht schmelzbar (Schmelzpunkt: 347°C) und daher auch leicht in einem offenen Feuer – Herd- oder Lagerfeuer – in Metall umzuwandeln. Kupfer dagegen hat einen Schmelzpunkt von exakt 1083°C, rund 200° höher als die Temperatur eines normalen Feuers.

Kupfererz kommt in der Natur häufig vor. Ab 7500 v. h. wurde es gezielt abgebaut – zunächst an verschiedenen Orten im Vorderen Orient, wie z. B. bei Akaba in Jordanien. Eine Methode für die Erzgewinnung war das „Feuersetzen„: Holzfeuer machten das Gestein mürbe, so dass es leicht mit speziell geformten Schlägeln abgeschlagen werden konnte. Beim Schmelzen der Erze entstanden dickflüssige Metalle, wobei ein Großteil an der Schlacke kleben blieb. Auch bildeten sich bei diesem Prozess Luftblasen, die das gegossene Metall spröde und brüchig machten.

Einige Völker des Nahen Ostens begannen schon bald mit Schmelztechniken zu experimentieren. Man baute Tontiegel, die konstante Schmelzbedingungen lieferten. Endlich entstand eine Schmelze, in der sich Kupferkügelchen absetzten. Dennoch blieb der Aufwand enorm. In Anatolien und angrenzenden Regionen gelang Spezialisten ein entscheidender Durchbruch auf dem Weg zum Metallzeitalter. Sie entwickelten vor etwa 7000 Jahren das Prinzip der Verhüttung.

Eventuell waren es sogar Töpfer, die als erste mit kupferhaltigem Gestein experimentierten, indem sie es in ihre Brennöfen legten wie ihre Tongefäße. Vielleicht gerieten aber auch Erzstücke zufällig hinein. Die geschlossenen Öfen ermöglichten eine gleichmäßige Erhitzung und höchste Temperaturen bis 1000°C. Um die Temperaturen noch höher zu treiben, setzten die frühen Metallurgen Blasrohre ein. Düsen aus Lehm, auf die Blasrohre aufgesetzt, konnten mitten in die Flamme geführt werden und schützten das Rohr vor dem Verbrennen. Das ständige Blasen hielt die Temperatur stundenlang auf dem erforderlichen Höchstwert.

Zur Verhüttung von Kupfererz bedurfte es weiterer spezieller Fertigkeiten. Je nach den Beistoffen, z. B. Schwefel, Antimon oder Arsen, musste man unterschiedlich vorgehen. Um die Oxidation des Kupfers zu verhindern, wurde Holzkohle zugesetzt, die beim Verglühen Kohlenmonoxid bildet und den Sauerstoff entzieht. Das flüssige, gut formbare Kupfer ließ sich in alle denkbaren Formen gießen, wozu man vor allem Hohlformen aus Keramik benutzte. Im anatolischen Mersin verfertigten vor ca. 7000 Jahren Schmiede eine Beilklinge, einen Meißel und mehrere Gewandnadeln – die ältesten Objekte aus einem Metall, das Menschen aus Erzen gewonnen hatten.

Siedlungen in der Nähe von Kupferminen, z. B. in der Region Fenan im heutigen Jordanien, entwickelten sich zu Bergbauzentren. Damals fand schon ein weiträumiger Handel mit wertvollen Metallobjekten statt. Gleichzeitig wanderte das Wissen um die frühe Metallurgie vom Vorderen Orient über den Balkan nach Westen. Europas erste Kupferbergwerke, in denen Erz im Tagebau abgebaut wurde, entstanden im heutigen Serbien und Bulgarien, wo auch vermutlich die älteste Kupferverhüttung auf dem Kontinent stattfand.

Im nördlichen Mitteleuropa und mittleren Osteuropa zeigen einige der Keramikgefäße der Trichterbecher-Kultur (etwa 6200 bis 4800 v. h.) aufgrund der Verzierungen, dass sie wohl metallenen Gefäßen nachgebildet wurden. Auch Äxte aus Feuerstein oder anderen Steinarten wurden vermutlich nach dem Vorbild eines Metallstücks geschaffen. Metall selbst konnten die Menschen dort noch nicht verarbeiten. Dennoch entdeckten Archäologen Geräte aus reinem Kupfer und sogar Goldschmuck, wohl Importe aus Südosteuropa. Die folgenden Glockenbecherleute verfügten dann schon über das Wissen, Kupfer zu schmelzen und zu verarbeiten.

In Europa blieb das Wissen über Bergbau, Verhüttung und Verarbeitung von Kupfer zunächst auf den Balkan und den Mittelmeerraum beschränkt. In Mitteleuropa begann der unaufhaltsame Siegeszug des Kupfers vor über 6000 Jahren. Die Alpen entwickelten sich mit ihrem reichen Metallvorkommen zu einem Zentrum des Bergbaus, der zu einem wichtigen Faktor für die Besiedlung des gesamten Alpenraums wurde. Ötzi, die berühmte, 5300 Jahre alte Gletschermumie aus dem Ötztal, hatte ein Kupferbeil bei sich, das mit hoher Wahrscheinlichkeit aus dem Rohkupfer der oberösterreichischen Lagerstätten hergestellt wurde. Verarbeitet wurde das Kupfer wohl in oberitalienischen Schmieden.

In Amerika wurde die Metallverarbeitung unabhängig von der Alten Welt entwickelt. Kupferartefakte aus Süd- und Mittelamerika und den heutigen Vereinigten Staaten datieren auf eine ähnliche Zeit wie ihre Pendants aus Asien und Europa: ca. 7000 Jahre vor heute. Hinweise auf eine organisierte Metallurgie finden sich in Südamerika allerdings erst in der Zeit vor 4000 Jahren.

Die Technologie der Metalle hatte die Steinzeit abgelöst – die zweite große Revolution in der Entwicklung des Menschen. Zum ersten Mal in der Geschichte war er in der Lage, geheimnisvolles Metall in edles Metall umzuwandeln – ein Wunder in der damaligen Zeit. Schon vor über 7000 Jahren war der Feuerstein (Silex), aus dem bis dahin die meisten Werkzeuge und Waffen gefertigt wurden, zur Mangelware geworden und es hatte erste Versorgungsprobleme gegeben. Eine Zeitlang noch existierten die beiden Werkstoffe Feuerstein und Kupfer nebeneinander, bis der Feuerstein am Ende des 5. Jahrtausends v. h. endgültig von der Bronze verdrängt wurde.

Die Gesellschaft veränderte sich. Die Handwerkskünste entstanden, und in Mesopotamien, zwischen den Flüssen Euphrat und Tigris, wuchsen die Städte. Vor mehr als 6500 Jahren entstand hier das erste Klassensystem der Menschheit. An der Spitze der Hierarchien standen regionale Eliten, die große Mengen von Metall aus fernen Gebieten und Städten erwarben. Als Abzeichen ihrer Würde wählten sie Schmuck und Waffen aus Metall. Später wurden erstmals Konflikte um Ressourcen und Transportwege mit organisierter Gewalt in großem Stil ausgetragen. Beispiele sind die Kriege zwischen Hamoukar und Uruk oder zwischen den sumerischen Stadtstaaten Lagasch und Umma.

Zwischen Kupfer- und früher Bronzezeit

Mit der Kupferverhüttung wurden schließlich die technologischen Grundlagen gelegt für eine Bevölkerungszunahme. Kupferwerkzeuge erwiesen sich im Alltag als überlegen gegenüber solchen aus Stein oder Holz. Allerdings nutzen sie sich rasch ab, verbogen und zerbrachen leicht. Ab etwa 5000 v. h. experimentierten die Schmiede daher mit Legierungen, um Werkzeuge und Waffen härter zu machen. So setzte man z. B. Arsen der Kupferschmelze zu. Die sogenannte Arsenbronze floss leichter in die Gussformen. Allerdings musste die Arsenmenge fein dosiert werden, sonst wurde das Produkt spröde und splitterte leicht – eine ziemliche Herausforderung für Menschen, die nicht wussten, was ein chemisches Element ist.

Arsen entzieht der Schmelze Sauerstoff, indem es sich mit ihm verbindet und als Arsenoxid verdampft. Schwerter, Pflüge und Beile, aus Arsenbronze geschmiedet, waren dadurch härter und hielten länger als ihre rein kupfernen Gegenstücke. Mit dem Hammer bearbeitet, blieben die Gegenstände auch viel länger scharfkantig. In einer Höhle am Toten Meer fand man 429 alte Objekte, 5000 Jahre alt, die fast alle aus Kupfer und Arsen bestanden. Die Kupfer-Arsen-Legierung wurde in Ägypten bis zum Mittleren Reich (ab etwa 4100 v. h.) verwendet.

Irgendwann jedoch brach die Beimischung von Arsen zum Kupfer ab, denn die Arbeit mit dem Halbmetall war schlichtweg gefährlich. Der Dampf, der dabei entstand, enthielt Arsenoxid und war giftig. Beim Einatmen der Gase kam es dadurch häufig zu Nervenschäden, die manchmal auch zu Lähmungen führten. Der griechische Gott der Schmiedekunst, Hephaistos, wird hinkend dargestellt – aus der kollektiven Erinnerung an Handwerker, die durch den Kontakt mit Arsen bei ihrer Arbeit gelähmt worden waren.

Bronze

Frühbronzezeit

Bei ihren Experimenten mit verschiedenen Gesteinsarten hatten Schmiede auch das Zinn entdeckt. Ob völlig zufällig oder planmäßig erhitzten sie es eines Tages zusammen mit Kupfer. Der Zusatz erniedrigte den Schmelzpunkt merklich, wodurch die Gewinnung der Legierung erleichtert wurde. Zinn schmilzt bei einer Temperatur von 232°C, Kupfer bei 1083°C. Der Schmelzpunkt für Rohkupfer mit Zinn vermischt liegt bei 950°, also unterhalb des Schmelzpunktes von Kupfer. Das Endprodukt war eine Metalllegierung namens Bronze (oder Zinnbronze). Man fand heraus, dass das ideale Mischverhältnis neun oder zehn Anteile Kupfer zu einem Anteil von Zinn beträgt.

Die Zinnbronze schloss im Gegensatz zum Kupfer keine Sauerstoffblasen ein und blieb durch den niedrigeren Schmelzpunkt länger flüssig. Sie ließ sich leichter gießen, verteilte sich besser in der Gussform und füllte auch die Ecken aus. So war es möglich, größere und kompliziertere Gegenstände zu gießen, z. B. Schwerter und Schmuckstücke. Außerdem wurden giftige Arsendämpfe vermieden, an denen sicherlich nicht wenige Schmiede gestorben sind.

Die durch das Zusammenschmelzen von Zinn und Kupfer erhaltenen Bronzen erwiesen sich als wesentlich härter und nicht so brüchig wie Bronzen aus Kupfer und Arsen und hatten eine faszinierende Farbe: sie glänzten seidig gelb (bis gelbbraun), fast wie Gold. Gegenwärtig nimmt man an, dass die Bronzetechnologie vielerorts und zeitlich versetzt entstand. Vermutlich waren es die Ägypter, die als erste die epochale Erfindung machten. Ihre Dolche aus Kupfer und Bronze aus der Zeit ab etwa 5000 v. h. scheinen aber meist zeremonielle Funktionen gehabt zu haben und waren oft stark verziert. Archäologen entdeckten frühe Bronzeobjekte auch in der Region vom westlichen Anatolien bis zum Persischen Golf.

…………………………………………………………………………………………………………………..

China hatte nie etwas, das man als „Kupferzeit“ bezeichnen könnte; dort folgte auf die Steinzeit fast unmittelbar die Bronzezeit. Die Kenntnis zur Herstellung der Zinnbronze kam wahrscheinlich über die Seidenstraße und brachte einen Aufschwung in der Landwirtschaft. Einige der ältesten in China gefertigten Bronzeartefakte werden auf 5100 bis 4700 v. h. datiert. Erlitou, eine Kultur aus dem Tal des Gelben Flusses (4000 bis 3500 v. h.), bekannt für ihre Palastbauten und Schmelzhütten, gilt oft als eigentlicher Ursprung der chinesischen Bronzemetallurgie. Von Südchina kommend breitete sich Ende des 4. Jahrtausends v. h. die Bronzetechnologie in Südostasien aus und erreichte um 3000 v. h. das Mekong-Delta und die Südspitze des südostasiatischen Festlands.

Die frühesten chinesischen Bronzen (vor allem rituelle und ästhetische Objekte) entstanden mit Hilfe der Formguss-Methode, die gänzlich anders war als das Wachsausschmelzverfahren, das von den meisten Bronzezeit-Zivilisationen optimiert wurde. Beim Bronzeguss wird ein Modell des zu gießenden Objekts und dann eine Tonform darum erstellt. Die Form wird in verschiedene Teile geschnitten, um das Modell freizugeben, bevor die Form wieder zusammengesetzt und gebrannt wird. Ist der zu gießende Gegenstand ein Gefäß, werden Kerne in die Form gegeben, die für Hohlräume sorgen. Dieses Verfahren ist viel komplexer und ineffizienter, besaß in den Augen der chinesischen Bronzearbeiter aber einen entscheidenden Vorteil: Dekorative Muster konnten vor dem Brennen direkt in die innere Oberfläche geschnitzt oder gestempelt werden, so dass sehr feine Designs entstehen konnten.

…………………………………………………………………………………………………………………….

Erstmals stand dem Menschen in größerem Umfang ein Stoff zur Verfügung, den er selbst – oft mit unsäglichen Mühen – hergestellt hatte. Seit Mitte des 5. Jahrtausends v. h. trat die Zinnbronze endgültig ihren Siegeszug an. Zwar fanden in allen Regionen noch viele Jahrhunderte Geräte und Waffen aus Stein Verwendung – doch mit der massenhaften Bronzeproduktion begann eine neue Epoche, in der die menschengemachten Werkstoffe das Leben immer stärker durchdrangen. Der zuvor nur in Ansätzen existierende Fernhandel vervielfachte sich – auf einem weit gespannten Netz von Handelsrouten konnte man theoretisch in gerade einmal 40 Tagen weit entfernte Gegenden erreichen. Zunächst wurden vor allem Prestigegüter, z. B. edle Schmuckstücke wie Ringe, Ketten und Dolche als Statussymbole, unter gesellschaftlichen Eliten gehandelt.

Nördlich der Alpen scheinen Bronzegüter um 4200 v. h. ihren Einzug gehalten zu haben – in Skandinavien noch etwas später. Mit dem unverwüstlichen Metall ließ sich Reichtum erstmals horten und zur Schau stellen. In großen Teilen Mitteleuropas dienten nun Halsringe aus Bronze (und Kupfer), deren Enden zu Ösen eingedreht waren, sogar als eine Art Zahlungsmittel. Aber erst allmählich kam die Bronzezeit schließlich nach Europa. Reisende Handwerker, z. B. Schmiede, dürften das Wissen um die Verarbeitung des Metalls weitergegeben haben.

Die frühen Schmiede genossen in der Gesellschaft eine herausgehobene Wertschätzung. Für die bronzezeitlichen Menschen erschienen sie als Magier, die mit den Göttern im Bunde stehen: Sie bändigten das Feuer und verarbeiteten einen der Erde abgerungenen Rohstoff zu Produkten, die man in der Natur nicht findet. Viele Völker widmeten ihnen einen eigenen Gott.

Die neuen bronzenen Werkzeuge lieferten den Menschen, die zum größten Teil vom Ackerbau lebten, immer bessere Erträge. Während die Bauern der Jungsteinzeit nur wenig mehr als den eigenen Bedarf erwirtschaftet hatten, konnten sie nun reichere Ernten einbringen und damit auch mehr Menschen versorgen. Das ermöglichte wiederum Arbeitsteilung und Spezialisierung, die gerade im Bergbau unerlässlich waren, da sich die vielfältigen Arbeiten weder von ungelernten Kräften noch saisonal ausführen ließen. Die Folge war ein regelrechtes Wirtschaftswunder, verbunden mit einem starken Anwachsen der Bevölkerung. Es folgte eine noch ausgeprägtere Aufteilung des Gesellschaften in verschiedene soziale Schichten.

Der überregionale Fernhandel und Güteraustausch mussten organisiert werden. Einzelnen Männern gelang es, Kontrolle über die Ströme der begehrten Rohstoffe zu bekommen und Profite zu machen. Wer die Bergwerke und Schmelzöfen, Verkehrswege und Umschlagplätze kontrollierte, konnte es zu bedeutendem Wohlstand, verbunden mit hohem Ansehen und Macht, bringen. Es gab nun Herrscher und Beherrschte, Arme und Reiche. Die Mächtigen jener Zeit residierten vermutlich an den Knotenpunkten der Handelsrouten oder unweit wichtiger Rohstoffvorkommen.

In Mesopotamien, Anatolien und Ägypten, wo bereits vor der „Erfindung“ der Bronze Hochkulturen entstanden waren, wirkte der neue Werkstoff als Katalysator des Wandels. Mit den Bronzebeilen ließen sich mächtige Bäume fällen und damit u. a. Schiffe mit mehr Ladevolumen und größerer Reichweite bauen. So blühte mit dem Aufkommen des neuen Metalls auch der Seehandel über das Mittelmeer auf und es gelangten immer mehr metallene Rohstoffe und Fertigwaren in Umlauf. Häfen entstanden, größere Siedlungen, Handelsmetropolen wie Troja und Ugarit. Die Ägäis beispielsweise erlebte ab etwa 4000 v. h. im Glanz der Metalle einen außergewöhnlichen zivilisatorischen Schub, zunächst auf der Insel Kreta, dann auch auf dem griechischen Festland.

Zu den frühesten Bronze-Kulturen in Mitteleuropa zählt die Aunjetitzer Kultur, in der die Menschen schon über reiche Kenntnisse in Guss- und Verzierungstechnik verfügten. Diese Kultur, die sich in ihrer frühen Zeit von Mitteldeutschland bis in die heutige Westslowakei und nach Niederösterreich erstreckte und sich später noch weiter ausdehnte, war irgendwann um 4300 v. h. aus der Assimilierung der Glockenbecherleute und der einheimischen Bevölkerung hervorgegangen. Um 4000 v. h. entstand im heutigen Thüringen das vielleicht erste Staatswesen nördlich der Alpen. Die Fürsten, die hier das Geschäft mit der Bronze kontrollierten und über eine Vielzahl von Kriegern verfügten, sorgten über Jahrhunderte in der Region für Frieden, befehligten Schmiede und Arbeiter, die für sie gewaltige Grabmonumente errichteten. Sie waren vor allem durch den Salzhandel zu Macht und Reichtum gekommen.

Der steigende Wohlstand der Bronzezeit, das Bevölkerungswachstum und der Fortschritt, den der neue Werkstoff brachte, verlieh der Epoche lange einen goldenen Glanz. Er barg aber auch ein hohes Konfliktpotenzial, denn er weckte Neid und Begehrlichkeiten. Je größer die aufgehäuften Bronzemengen waren, desto lohnender erschien es, sie mit Gewalt fortzunehmen. Noch zu Beginn der Epoche hatten die Menschen in erster Linie Pfeil und Bogen als Waffen benutzt. Seit etwa 3500 v. h. fertigten die Metallurgen harte und feste Bronzeschwerter, die mit ihren messerscharfen Klingen erstklassig zur Kriegsführung geeignet waren. Erstmalig entstand eine Massenproduktion von Waffen. Regelrechte Armeen wurden aufgebaut, große Raub- und Eroberungszüge setzten ein, die zur Unterwerfung zahlreicher Volksstämme und zur Bildung riesiger Reiche führte.

In der späten Bronzezeit (s. u.) nutzte man die unterschiedlichen Qualitäten der Bronze. Die mit 6% Zinn hergestellte Weichbronze wurde zu Blechen geschlagen und für die Herstellung von Helmen, Brustpanzern und Beinschienen verwendet, während man klassische Bronze mit 10% Zinnanteil für Schwerter und Werkzeuge benutzte. (Je höher der Zinngehalt, umso mehr stieg die Härte der Bronze. Chinesische Bronzeschwerter hatten sogar bis zu 20% Zinnanteil, was sie auffallend scharf, aber auch spröde machte.)

Die Zeiten wurden also unsicherer. Zwar gab es schon früher Schutzwälle um die Orte, aber erst in der Bronzezeit kam es zum Bau ausgeklügelter Festungen, ummauerter Höhensiedlungen und zyklopischer Mauern wie in Tiryns und Mykene auf der griechischen Peloponnes. In Mitteleuropa oder im Karpatenbecken schützten sich Siedlungen durch Gräben und Palisaden, wobei die Eingänge womöglich noch durch Bastionen abgeschirmt wurden.

Mittel- und Spätbronzezeit

Mit der Zeit klaffte die soziale Schere in den bronzezeitlichen Kulturen immer weiter auseinander. Die Böden waren ausgelaugt, die Ernten fielen immer schlechter aus, soziale Konflikte waren die Folge. Es brachen unruhige Zeiten in Europa und im Mittelmeerraum an: An vielen Orten der einst prächtigen Kulturen loderten Brände, Siedlungen wurden aufgegeben, große Völkerbewegungen setzten ein. Der Ausbruch des Vulkans Thera (heute Santorin) in der Ägäis, eine der gewaltigsten Eruptionen der vergangenen Jahrtausende, gab möglicherweise den letzten Anstoß für den Kollaps der Kulturen.

Die Wissenschaftler sprechen von einem allgemeinen Systemzusammenbruch. Komplexe Systeme können sich zwar selbst regulieren, wenn sie unter Druck geraten. Sind die Veränderungen aber zu viele auf einmal, bricht das gesamte Netzwerk zusammen. Im Mittelmeerraum begann ab 3450 v. h. der Niedergang der minoischen Kultur auf Kreta, dem um 3200 v. h. das Ende der Mykener auf dem griechischen Festland folgte. Die Pharaonen in Ägypten mussten sich der sogenannten Seevölker erwehren, wie Hieroglyphentexte berichten. Das Großreich der Hethiter in Kleinasien verschwand vom Erdboden. Drei dunkle Jahrhunderte, während der sich ab Anfang 3200 v. h. eine 300-jährige Dürrephase ereignete (nur in der Levante kurz von einer etwas feuchteren Zeit unterbrochen), brauchte es, bis die Region erneut Hochkulturen hervorbrachte.

Auch in ganz Mitteleuropa endete die Epoche in Krieg und Chaos. Anscheinend hatten sich die sozialen Unterschiede eingeebnet, denn die Männer ließen sich jetzt mit dem Schwert unter kleinen Hügeln zur Ruhe betten. 300 Jahre später kam es erneut zu einem grundlegenden Wechsel der Bestattungsriten: die Toten wurden verbrannt und in Urnen beigesetzt. Die Menschen dieser Urnenfelderkultur (3300 bis 2500 v. h.), die wahrscheinlich zu den Vorfahren der Kelten gehören, errichteten ab etwa 3100 v. h. meist auf Hügeln liegende Festungsanlagen, die von Wällen, Gräben und Mauern geschützt waren.

In Tollense (heutiges Mecklenburg-Vorpommern) kam es um 3250 v. h. zu einer großen Schlacht, an der geschätzt 4000 Krieger teilnahmen. Bei den Toten fand man sogenanntes „Münzgeld„, eine Art Tauschwährung. Zu ihrer Herstellung benutzte man in der Spätbronzezeit Hackbronze – Altmetall aus Fehlgüssen, Waffenfragmente und Barrenstücke -, die mit einem Meißel nach Bedarf zerstückelt wurde.

Eisen

Manche Fachleute sind der Meinung, in jedem Teil der Erde habe es Eisen eher gegeben als Bronze. Jedenfalls kommt Eisen weitaus häufiger vor als Gold und Kupfer; sein Anteil an der Erdkruste ist fast tausendmal höher als der von Kupfer. Als Rohstoff in Form von Erzen war es fast überall verfügbar – und damit auch erschwinglich. Aber Eisen war ein schwer zu gewinnendes und zu verarbeitendes Material. Die komplexe Verhüttung und Aufreinigung des Rohmaterials verlangte ein hohes Maß an Erfahrung und eine Vielzahl einzelner Arbeitsschritte.

Früheste vom Menschen hergestellte Eisenobjekte sind fast 8000 Jahre alt. Eines der ersten stammt aus Samarra (Irak). Die meisten frühen Objekte wurden wohl aus Eisen hergestellt, das in Form von Meteoriten vom Himmel gefallen war. Diese enthielten das Metall in reiner Form. Man schlug kleinere Fragmente heraus und brachte sie durch Hämmern in Form. Eisenperlen aus Ägypten aus der Zeit um 5200 v. h. wurden wahrscheinlich auf diese Weise hergestellt, ebenso ein Dolch aus dem Grab des Pharaos Tutanchamun oder 3400 Jahre alte Axtblätter ugaritischer und chinesischer Herkunft.

Der eigentliche Beginn der Eisenzeit ist mit der ersten regelhaften Nutzung des Eisens verbunden. Sie setzte in vielen Gebieten zu sehr unterschiedlichen Zeitpunkten ein. Warum der Siegeszug der Bronze nach fast 1500 Jahren endete, kann gut daran gelegen haben, dass die Knappheit an Bronze die Menschen quasi in die Eisenzeit hineindrängte. Ursache könnte das Versiegen der Zinnquellen oder der Zusammenbruch des Zinnhandels gewesen sein. So stieg man auf Eisen um, das fortan die Bronze in immer mehr Bereichen ersetzte.

In Japan tauchten Bronze und Eisen fast gleichzeitig auf. Umstritten ist unter den Historikern, ob auch Korea eine Bronzezeit erlebte. In Afrika gab es weder eine Kupfer-, noch eine Bronzezeit. Hier kam vermutlich die Eisenmetallurgie zuerst auf. Die Nok-Kultur im heutigen Nigeria begann vor 3000 Jahren mit der Herstellung des Metalls mit Hilfe von Rennöfen, in denen Eisen nur reduziert, nicht aber geschmolzen wurde. Den Öfen entnahm man die sogenannte Luppe, ein fester Eisenschwamm, der immer noch Schlackenreste enthielt. Schmieden bei 900 bis 1300°C verdichtete den Schwamm und verschweißte ihn, so dass die unerwünschten Bestandteile herausgequetscht werden konnten.

Die Hethiter hatten bereits in der zweiten Hälfte des 4. Jahrtausends v. h. regelmäßig Waffen aus Eisen benutzt, was als eine der Ursachen für ihren Aufstieg zur Macht in der Region angeführt wird. Aber es sollte noch eine Weile dauern, bis Eisen die Bronze vollständig ersetzte. Das Wissen über die Verarbeitung des Eisens wanderte über Griechenland nach Mitteleuropa – 2800 v. h. begann hier die Eisenzeit – und von dort weiter. Dabei ist häufig zu beobachten, dass zuerst Eisenobjekte importiert, anschließend nachgemacht und schließlich erfolgreich selbst hergestellt wurden. Bedeutende Eisenzentren in Mitteleuropas befanden sich vor allem am Bodensee und im Alpenvorland. Durch die Umstellung von der Bronze- auf die Eisenproduktion verschob sich das Machtgefüge. Siedlungen, die über Lagerstätten und das notwendige Wissen zur Eisenherstellung verfügten, gewannen an Einfluss. Es kam wieder zu Veränderungen in der Gesellschaft, Sitten und Bräuche wandelten sich. Aus der Urnenfelderkultur ging die Hallstattkultur hervor, mit der das Zeitalter der Kelten anbrach. (In Ostasien begann die Eisenzeit vor 2500 Jahren.)

Einen enormen Aufschwung nahm die Eisenproduktion vor allem, als man herausgefunden hatte, wie sich Eisen zu Stahl härten ließ. Dazu musst man in einem weiteren Arbeitsschritt dem Metall bestimmte Mengen Kohlenstoff hinzufügen. Herrscht nämlich im Ofen ein Überschuss an Kohlenstoff, der nicht mehr für die Reduktion gebraucht wird, kann sich eine Eisen-Kohlenstoff-Legierung bilden. Es entstand so der begehrte, da härtere und leichter zu schmiedende Stahl. Es ließen sich Werkzeuge und Klingen von noch größerer Schärfe und Beständigkeit herstellen. Mit der Erfindung des Stahls war das Ende des Bronzezeitalters endgültig besiegelt.

Fast alle Gebrauchsgegenstände wurden fortan aus Eisen hergestellt. Da die Eisengewinnung Kohle benötigte, setzte eine vermehrte Rodung der Wälder ein, auch in solchen Landstrichen, die bis dahin wegen fehlender Kupfervorkommen verschont geblieben waren. Die „Kultursteppe“ griff weiter um sich. Es ist allerdings fraglich, ob der Mensch diese Zusammenhänge damals begriffen hat, denn es handelte sich ja um sehr langsame Entwicklungen.

REM

Von der Nervenzelle zum Erkenntnisorgan

Die Evolution des Gehirns

Der erstaunliche Erfolg der Spezies Mensch ist das Ergebnis der evolutionären Entwicklung seines Gehirns, welches einen Höchstgrad an Komplexität besitzt. Es ist das Produkt einer Hunderte von Millionen Jahren dauernden biologischen Evolution, die zur Benutzung und Anfertigung von Werkzeugen bis hin zur Fähigkeit, Probleme durch logische Überlegung, planvolle Zusammenarbeit und Sprache zu lösen, führte.

Erfindung der Nervenzelle

Einzeller verfügen schon über chemische Rezeptoren, spezielle Empfangsmoleküle in der Zellwand, über die sie Signale aus der Umwelt aufnehmen. Diese helfen z. B., Nahrungsquellen oder Giftstoffe wahrzunehmen. Mit Hilfe eines intrazellulären Erregungsleitungssystem auf chemischer Basis sind die Einzeller schon fähig, auf diese Reize sinnvoll zu reagieren, beispielsweise sich mit propellerartigen Geißeln in die günstigste Richtung zu bewegen – etwa hin zum Futter oder weg von der Gefahr.

Für mehrzellige Lebensformen wurde es zwingend nötig, Informationen aus unterschiedlichen Regionen ihres Körpers zusammenzuführen und zu verarbeiten. Zunächst kommunizierten ihre Zellen nur auf unvollkommene Weise miteinander, indem sie chemische Substanzen auf den Weg schickten. Das ist aber weder schnell noch zielgenau: Die Nachricht wird breit gestreut und erreicht nicht nur jene Empfänger, für die die Meldung von Bedeutung ist. Um aber einen mehrzelligen Organismus zu steuern, der rasch reagieren soll, arbeitet nur das elektrische Signal schnell genug.

So bildeten sich vor weit über einer halben Milliarde Jahren – im Verlauf der evolutionären Entwicklung zwischen Schwämmen und Quallen – aus Zellen der äußeren Hautschicht Zellen mit langen Zellausläufern aus, die sich darauf spezialisierten, Reize zu empfangen, zu verarbeiten und auf elektrischem Wege weiterzuleiten. Mit diesen Nervenzellen (Neuronen) konnte Information direkt und schnell übertragen werden. Damit wurde der Grundstein für unser Gehirn gelegt, das in seiner gesamten Komplexität weiterhin auf jenen Bausteinen, nämlich den Nervenzellen, und jenen Kommunikationsmitteln, nämlich elektrischen und chemischen Signalen, basiert, über die schon diese einfachen Lebewesen verfügten.

Der Grundbauplan einer Nervenzelle besteht aus einem Zellkörper (Soma) mit dem Zellkern, Zellfortsätzen (Dendriten), der Nervenfaser (Axon oder Neurit) und den synaptischen Endknöpfchen. Im einfachsten Fall kann man das Neuron als Gleichrichter auffassen, der ankommende Informationen (Signale von Sinneszellen oder anderen Nervenzellen) über die Dendriten (seltener das Soma) aufnimmt und als elektrische Impulse zum Zellkörper weiterleitet. Hier werden die Informationen verarbeitet und in Form elektrischer Impulse entlang des Axons zu den Synapsen gesendet, wo das Signal – und damit die Information – auf eine Empfängerzelle weitergegeben wird. Bei einfachen Mehrzellern erfolgt die Übertragung der elektrischen Reize über direkte Kontakte der Zellwände (elektrische Synapsen). Im späteren Verlauf der Evolution treten chemische Synapsen auf, an denen die elektrische Erregung durch chemische Substanzen (molekulare Botenstoffe: Neurotransmitter und Neuromodulatoren) übertragen wird. Dies ermöglicht eine höhere Flexibilität und Zielgenauigkeit. Mit der „Erfindung“ des Myelin (bei den Wirbeltieren) – eine dünne, fetthaltige Schicht um die Axone herum – wurden Übertragungsverluste verhindert und eine schnellere Kommunikation ermöglicht. Beide zusammen, chemische Synapsen und Myelinscheiden, machten den Weg frei für den Aufbau eines hochkomplexen Gehirns.

Nervengeflecht und Nervenknoten

Während ein Schwamm weder auf Jagd geht noch vor Feinden flüchten kann, sind Quallen mobil und leben räuberisch. Bei ihnen hatte der Selektionsdruck, sich fortbewegen und im Raum orientieren zu müssen, vor über 650 Millionen Jahren zum Aufbau von vermehrten Verbindungen zwischen den Nervenzellen geführt. Quallen gehören daher zu den ersten heute noch existierenden Organismen, die ein einfaches Nervensystem besitzen, bestehend aus einem Netz miteinander verbundener Neurone, das den Körper durchzieht.

Komplexere Lebewesen benötigen ein Zentrum, wo die Informationen aus unterschiedlichen Körperregionen zusammengeführt und verarbeitet werden können und eine Reaktion gesteuert wird. Eine solche zentrale Ansammlung von Nervenzellen findet man erstmals bei Plattwürmern. Im Gegensatz zu radialsymmetrischen Tieren wie Quallen oder Seesternen lässt sich bei ihnen bereits vorn und hinten unterscheiden – ein gewaltiger Sprung auf dem Weg zur Evolution eines Gehirns. Denn wenn das Tier nun bevorzugt eine Richtung einschlägt – also vorwärts -, ist es auch sinnvoll, wenn sich ein Großteil seiner Nerven- und Sinneszellen am vorderen Ende des Körpers konzentriert. Schließlich kommt dieser Teil meist als Erster mit den Verheißungen und Gefahren der Umgebung in Berührung.

Im Laufe der Evolution prägte sich das vordere Ende der Tiere immer mehr zu einem Kopf aus. Zudem nahm die Zahl der Neuronen und die Verknüpfung untereinander zu, da die komplexer werdende Umwelt immer kompliziertere Verhaltensstrategien erforderte. Ringelwürmer und die evolutionär jüngeren Insekten und Spinnen besitzen in jedem Segment ihres gegliederten Körpers zwei eigene Nervenknoten (Ganglien), die wie Minihirne die jeweiligen Abschnitte steuern. In ihrem Kopf sitzt das größte Ganglienpaar, das bereits aus knapp einer Million Neuronen besteht und koordinierende Fähigkeiten besitzt. Es befähigt ihre Träger schon zu relativ komplexen Handlungen, ermöglicht ihnen aber kaum, sich an veränderte Umweltbedingungen anzupassen.

Wirbeltiergehirn

Grundsätzlich anders als die bei gleichbleibenden Anforderungen unschlagbar effizienten, aber relativ unflexiblen Insektenhirne entwickelten sich die Gehirne der Wirbeltiere, bei denen der nächste große Schritt in der Evolution erfolgte. Die älteste Bauart eine Wirbeltiergehirns findet sich bei ursprünglichen Neunaugen, die vor über 500 Millionen Jahren erschienen und die den heutigen fischähnlichen Neunaugen gleichen. Sie besaßen bereits eine Schädelkapsel, die das empfindliche Gehirn schützte.

Nach der Entstehung der Ozon-Schicht in der Atmosphäre traten vor 360 Millionen Jahren die ersten Landtiere auf. Die immer komplexere und stressreichere Umwelt, die sich zudem rasch wandelte, erforderte zunehmend kompliziertere signalverarbeitende Strukturen im Nervensystem der Wirbeltiere. Durch blasenförmige Vergrößerungen erweiterte sich das Vorderhirn, aber auch Zentren wie Mittelhirn und Verlängertes Mark (Nachhirn). Das Mittelhirn steuerte und koordinierte lebenserhaltende Funktionen (z. B. die Atmung) und verarbeitete vor allem Informationen, die das Tier von den Augen erhielt. Das Nachhirn, aus dem sich später das Kleinhirn abspaltete, kontrollierte Bewegungen und die räumliche Orientierung. Dadurch wurden die Organismen in die Lage versetzt, immer dynamischer auf die vielfältigen Herausforderungen zu reagieren.

Grundsätzlich veränderte sich jedoch das Gehirn der Wirbeltiere im Laufe der Evolution nicht mehr. Zwar vergrößerte es sich im Laufe der Stammesgeschichte, aber hinsichtlich Aufbau und Struktur gibt es bei Fisch und Vogel, Ratte und Mensch keine prinzipiellen Unterschiede. Allerdings entwickelten sich seine einzelnen Teile verschieden hinsichtlich ihrer relativen Größe und ihres Differenzierungsgrades: Während sich der Hirnstamm (Mittelhirn und Verlängertes Mark) wenig veränderte, vergrößerten sich im Laufe der Evolution das Kleinhirn und vor allem das Vorderhirn, aus dem schließlich Zwischenhirn und Großhirn hervorgingen.

Das Vorderhirn diente ursprünglich vor allem zum Riechen. Jedes Lebewesen, sei es nahrhaft, giftig, Sexualpartner, Raubfeind oder Beute, hat eine charakteristische molekulare Struktur, die von der Luft weitergetragen wird. Daher war der Geruch von überragender Bedeutung für das Überleben. Im Laufe der Evolution entwickelten sich im Vorderhirn die ursprünglichen Zentren der Emotion, die schließlich so groß wurden, dass sie den oberen Bereich des Hirnstamms umringten. Daher nennt man diesen Teil das „limbische System“ (abgeleitet von lat. limbus = Ring). Seine entscheidenden Schichten entstanden bei den frühen Säugetieren vor etwa 150 Millionen Jahren. In den Verbindungen zwischen dem Riechkolben und dem limbischen System werden nicht nur die Erinnerungen an Duftwahrnehmungen verwaltet, sondern auch Wohlbefinden, Unbehagen und andere Gefühle gesteuert.

Insbesondere bei Vögeln und Säugern kam es auch im Großhirn zu massiven Umbaumaßnahmen und einer größeren Differenzierung. Bei den Säugern nahm die äußere Schicht, die Großhirnrinde (der Kortex), stark zu. Ihr charakteristischer Aufbau (sechs horizontale Schichten) samt Vernetzung in tiefere Hirnbereiche entstand wohl bereits vor über 500 Millionen Jahren während der „Kambrischen Explosion“, worauf Gemeinsamkeiten in den Gehirnen von Säugetieren und Neunaugen hindeuten. Während auch manche Reptilien eine geschichtete Hirnrinde besitzen, verschwand die Schichtung bei den Vögeln völlig. Das Großhirn besteht bei ihnen auch aus deutlich weniger Nervenzellen als bei Säugern, was aber durch eine dichtere Packung der Neurone kompensiert wird.

Obwohl die Denkorgane der beiden Tierklassen in diesem Teil also sehr unterschiedlich aufgebaut sind, ähnelt sich ihre Funktionsweise in vielerlei Hinsicht. So folgt die Art und Weise, wie Vögel und Säugetiere lernen, sich erinnern, vergessen, sich irren, verallgemeinern und Entscheidungen treffen, den gleichen Prinzipien. Die Wissenschaftler vermuten dahinter ein altes Erbe, das bei den Wirbeltieren lange vor dem Erscheinen der Vögel und Säuger schon existierte, mindestens schon bei den Vorläufern der heutigen Reptilien. Unabhängig voneinander entstanden dann in einer über 300 Millionen Jahre langen getrennten evolutionären Entwicklung, in der mehr geistige Flexibilität Vorteile bot, in beiden Linien Gehirne mit jeweils anderen Großhirnstrukturen, welche ein von Denken begleitetes Verhalten erlaubte. (Beide Tierklassen entwickelten auch die Warmblütigkeit, die zu einer verbesserten Temperaturregulation im Gehirn führte.)

Säugergehirn

Mit zunehmendem Hirnvolumen unterteilte sich die Gehirnrinde bei den Säugetieren in immer mehr abgrenzbare Areale mit jeweils besonderer, meist funktioneller Bedeutung. So wurde beispielsweise aus den Zellen, die Gerüche wahrnehmen, sie analysieren und eine Reaktion diktieren, der olfaktorische Lappen – aus denen, die dasselbe mit Gesichtswahrnehmungen machen, wurde der visuelle Lappen. Neurone mit ähnlichen Funktionen zusammenzufassen beseitigte offenbar das Problem, bei steigender Gehirngröße den gleichen Vernetzungsgrad zwischen den Neuronen aufrechtzuerhalten.

Im Verlauf der Hirnentwicklung der Wirbeltiere schwollen vor allem die assoziativen Areale – Areale, die sich nicht mehr eindeutigen Funktionen wie etwa Sehen oder Hören zuordnen lassen – an. So konnten Impulse über viele Zwischenstationen hinweg bearbeitet und moduliert werden. Dadurch waren die Tiere in der Lage, variabler und angepasster auf unterschiedliche Umweltbedingungen zu reagieren als beispielsweise Insekten oder Schnecken, die auf einen Reiz mit einem genetisch festgelegten Verhalten antworten müssen.

Mit weiter steigender Hirngröße übernahmen immer mehr anatomisch vergleichbare Areale in der linken und rechten Hirnhälfte tendenziell unterschiedliche Aufgaben (Lateralisierung) – wohl eine ökonomische Maßnahme der Natur, um Hirngewebe zu sparen, aber auch, um parallele Anforderungen effizienter verarbeiten zu können. (Die Forscher vermuten, dass sogar schon die frühen Wirbeltiere vor 500 Millionen Jahren ein Vorderhirn mit seitenspezifisch spezialisierten Hemisphären besaßen.)

Eine wesentliche Voraussetzung für eine fortgeschrittene Hirnentwicklung bildete die Ablösung der ursprünglichen Nase-Schnauze-Koordination durch die primatentypische Hand-Auge-Koordination. Diese entwickelte sich bei den Vorfahren der heutigen Menschenaffen und Menschen und führte zu einer Abschwächung des Geruchsinns. Sogar bei der Paarfindung, bei fast allen Säugetieren eine Domäne der Nase, herrschten ab jetzt die Reize der Augen vor.

Bei der weiteren Entwicklung des Primatenhirns half wohl auch das Leben in der Gruppe kräftig mit. Der Anthropologe Robin Dunbar entwarf die Hypothese vom sozialen Gehirn. Ihm war aufgefallen, dass bei den Menschenaffen Gehirn- und Gruppengröße eng zusammenhängen. Seine Erklärung dafür lautet: Je größer eine Gruppe ist, desto mehr Informationen über andere Mitglieder muss das Gehirn verarbeiten, damit das soziale Miteinander funktioniert. So wurde die Entwicklung weitergetrieben und der Neokortex wuchs in seiner bloßen Masse stark an, während gleichzeitig die Verbindungen innerhalb des Gehirns in geometrischer Reihe zunahmen.

Menschengehirn

Bei den ersten Menschen setzte sich nach der Trennung von den Menschenaffen der Trend zu einem voluminöseren Schädelinhalt fort, zunächst langsam, seit etwa zwei Millionen Jahren dann beschleunigt. Ursache waren zum Einen neue Herausforderungen, vor allem schnelle Umweltveränderungen, auf die die frühen Menschen mit der Herstellung und dem Gebrauch von Werkzeugen reagierten. Mit ihnen konnten energiereichere Nahrungsquellen erschlossen werden. Zum Anderen förderte das Kochen der Nahrung das evolutionäre Wachstum der Hirnkapazität.

Durch das Kochen kann man Kalorien nicht nur einfacher aufnehmen, sondern auch effizienter in körpereigene Energie umwandeln, denn das Erhitzen der Nahrung wirkt wie eine Art Vorverdauung außerhalb des Organismus. Zudem tötet das Erhitzen Mikroben ab, was dem Körper eine energieaufwändige Infektionsabwehr erspart. Ein Großteil der gewonnenen Nahrungsenergie wurde so für das Gehirn und den Ausbau seiner Fähigkeiten frei. Auf diese Weise machte das Gehirn vom Homo habilis zum Homo erectus (also in einigen hunderttausend Jahren) einen signifikanten Entwicklungssprung: von rund 40 Milliarden Neuronen auf über 60 Milliarden. Der Homo sapiens verfügt heute über 86 Milliarden Nervenzellen; das Gehirn wuchs so insgesamt von 600 Kubikzentimetern beim Homo habilis auf eine Größe von weit mehr als dem Doppelten bei den heutigen Menschen an.

Zwar lässt sich am menschlichen Gehirn im Vergleich zu dem stammesgeschichtlich nahestehender Tiere außer der schieren Größe nichts grundlegend Neues und Anderes feststellen, was die Substrukturen und ihre Strukturierung sowie die Zentren anbelangt, aber es ist bedeutend komplexer. Die etwa zwei Millimeter dicke Großhirnrinde ist extrem stark gefaltet: Ausgebreitet würde sie die Fläche von vier Blatt Schreibmaschinenpapier einnehmen. Die Hirnrinde eines Schimpansen würde dagegen auf ein einziges DIN-A4- Blatt passen, die eines Tieraffen auf eine Postkarte und die einer Ratte auf eine Briefmarke. Insbesondere haben also die für höhere Hirnleistungen zuständigen Gebiete an Fläche außerordentlich zugenommen, ebenso die Anzahl der Verschaltungen – und damit die Integrationskapazität zwischen den zentralen Verarbeitungszentren.

Die Nervenzellen sind beim Menschen heute so dicht gepackt, dass individuelle Zellgrenzen kaum zu erkennen sind. In einem Kubikmillimeter Großhirnrinde befinden sich 90 000 Neuronen und 4000 Meter Nervenbahnen, wenn man alle Axone und alle Dendriten zusammenfasst. Die Vernetzung der Nervenzellen untereinander, ein Netzwerk aus rund einer Billiarde von Verbindungen, ist einzigartig. Millionen verschiedener Operationen laufen gleichzeitig (parallel) ab.

Im Verlauf der Evolution höherer Tiere war eine Reihe von komplexen Nervenverbindungen entstanden, wodurch Wahrnehmung und Verarbeitung von Umweltreizen, aber auch der eigene Zustand, selbst zum Gegenstand von Erkenntnisprozessen wurden (Metarepräsentationen) – sie erhielten Bedeutung. Das brachte eine ungeahnte Flexibilität in das Verhalten. Metarepräsentationen erlaubten sogar, geistige Modelle von Vorgängen in anderen Gehirnen zu erstellen, so in der Art: „Ich weiß, dass du weißt, dass ich traurig bin“ oder „Ich weiß, dass du überlegst, wie du mich täuschen kannst“. Wann diese Fähigkeiten in der Evolution ausgeprägt wurden, ist unter den Wissenschaftlern umstritten. Während einige sie nur dem Menschen zuerkennen, andere sie noch den Menschenaffen zugestehen, sind wieder andere – und ihre Zahl wird immer größer – überzeugt, dass selbst Katzen oder bestimmte Vögel über diese Fähigkeiten verfügen.

Metarepräsentationen sind eine Vorbedingung für unsere Werte und Überzeugungen. Während z. B. eine instinktive Vermeidungsreaktion eine Ekelreaktion erster Ordnung darstellt, gehört zu einer Metarepräsentation u. a. der soziale Widerwille dazu, den wir gegenüber Dingen empfinden, die wir für moralisch falsch oder ethisch unangemessen halten.

[Dass moderne Menschen komplexere Technologien und Kulturen entwickelten – Kunstobjekte gestalteten, Höhlenbilder malten, diffizile Waffen und Werkzeuge und kleinteilige Kleidung schufen – liegt im Scheitellappen unseres Gehirns, vor allem im sogenannten Precuneus , begründet. Weil seine oberen Teile mehr Platz brauchten, fällt das obere Scheitelbein bei Homo sapiens offensichtlich gewölbter aus als bei anderen Primatenarten (-> runde Kopfform!). Es bleibt noch zu ergründen, in welchem Maß Genetik und Kultur unseren oberen Scheitellappen evolutionär und individuell geprägt haben und noch immer beeinflussen.]

Metarepräsentationen spielen auch bei Sprache und symbolischem Denken eine tragende Rolle. Verbale und geschriebene Sprache ist nur möglich, weil wir die Idee einer Sache abstrahieren und ihr einen Namen – ein Symbol – zuweisen können, der gesprochen und geschrieben werden kann. Informationen konnten jetzt sehr effizient und von den Reproduktionszyklen abgekoppelt übertragen werden und ermöglichten schlagartig die Entfaltung der geistigen Fähigkeiten, die uns vom Rest der Tierwelt abheben. Die Entstehung der Sprache und der damit verbundene Nutzen im Überlebenskampf förderte vermutlich die Entwicklung größerer Gehirne.

Angesichts der starken Neigung des Menschen, mit Gesten zu kommunizieren, scheint das Gestikulieren im Zusammenhang mit der Werkzeugherstellung in der Evolution der Lautsprache vorausgegangen zu sein. Dafür spricht, dass die Hirnareale, die Hände und Sprache repräsentieren, anatomisch benachbart sind. Auch die in ihnen ablaufenden Hirnprozesse ähneln sich: Beide beruhen auf der Verarbeitung von motorischen Befehlen für jeweils unterschiedliche Muskeln des Körpers. Und es gibt noch einen direkten Zusammenhang: Wörter aktivieren sogenannte Spiegelneurone, die eine passende motorische Antwort simulieren.

Die Anforderungen vielschichtig verschlungener sozialer Strukturen und Fähigkeiten wie Kommunikation und Perspektivenwechsel haben das Gehirn also verändert und die geistige Weiterentwicklung vorangetrieben. Durch Sprache und Schrift sind wir Menschen in der Lage, gigantische Informationsmengen auszutauschen und noch effektiver voneinander zu lernen. Dies führte dazu, dass wir die Schöpfung, aber auch uns selbst, immer stärker mit wissenschaftlichen Augen betrachtet haben. Aus subjektivem Empfinden wurde „objektives Wissen“, das seinen Ursprung in Tausenden von Gehirnen hat und das – den Genen ähnlich – an immer neue Generationen weitergegeben wird.

Fazit

Von der „Erfindung“ der Neurone bei den frühen Mehrzellern und über die ersten Neuronennetze entwickelten sich mehrfach und unabhängig voneinander in getrennten Abstammungslinien komplexe Gehirne, offenbar basierend auf derselben Grundorganisation. Ihre Funktion bestand letztlich darin, Informationen aus dem Organismus und seiner Umwelt in entsprechendes bedürfnis- und situationsgerechtes Verhalten umzusetzen und damit die Chancen im Kampf ums Überleben zu maximieren.

Die Evolution des Gehirns bis hin zum Denkorgan von höheren Wirbeltieren, das in den beeindruckenden kognitiven Fähigkeiten des Menschen gipfelte, war allerdings kein linearer Prozess. Je nach Bedarf musste das Organ immer mehr und unterschiedliche Aufgaben übernehmen und wurde dabei ständig aus- und umgebaut. Kaum etwas wurde entfernt, alte Elemente wieder verwendet und weiter genutzt, nichts wurde verworfen. Mal hier, mal dort kamen ein paar zusätzliche Teile und Funktionen hinzu – ohne Garantie, dass das alles ordentlich zueinanderpasste. Äußere Zwänge und der Baumeister Zufall führten so zu einem verschachtelten Durcheinander. Manchmal gab es im Laufe der langen Evolution sogar Phasen der Regression, in denen sich das Gehirn strukturell zurückentwickelte.

Als die Frösche vor einigen hundert Millionen Jahren mit den immer effizienteren Knochenfischen konkurrieren mussten, zogen sie sich in die verkrauteten Uferregionen zurück. Dort blieb ihnen wenig anderes übrig, als auf ihre Beute zu warten. Wahrscheinlich ist eine solche Jagdmethode intellektuell nicht sonderlich herausfordernd, denn die Gehirne der Frösche schrumpften über Generationen. Auch dafür, dass ein einmal erworbenes Gehirn sogar wieder verloren werden kann, kennt die Naturgeschichte Beispiele: Der Bandwurm, ein Nachfahre des ersten Plattwurms mit seinem Nervenknoten im Kopf, klammert sich im menschlichen Darm fest und lebt dort in einem komfortablen, sicheren Ökosystem mit reichem Nahrungsangebot. Sich ein Gehirn zu leisten, bedeutet für einen solchen Parasiten sinnlosen Luxus. Folglich wurde es restlos zurückgebaut.

Unser Gehirn ist also kein maßgeschneidertes, optimales Denkorgan, sondern ein ziemlich unordentlich aufgebautes, planlos im Lauf der Evolution zusammengeschustertes Flickwerk. Der Molekularbiologe Francois Jacob nannte es „bricoage“ – Bastelarbeit, der Neurobiologe David Linden sprach vom „schrulligen, ineffizienten und bizarren Plan des Gehirns“. Die Liste der Mängel ist bei näherem Hinschauen lang. So ist die Signalleitung und Informationsverarbeitung auf Ebene der Neurone und Synapsen langsam und eher umständlich, aber auch störanfällig, da sich etliche Prozesse gegenseitig in die Quere kommen.

Teilfähigkeiten (wie Wahrnehmen, sich Erinnern, Lernen, Abstrahieren, Begriffsbildung, Sprechen) kamen beim Menschen in glücklicher Weise zusammen, so dass unser Gehirn nicht nur als „Überlebensorgan„, sondern in der Spätphase der Evolution auch als „Erkenntnisorgan“ brauchbar wurde. Mit dieser Fähigkeit konnten wir unseren Mesokosmos verlassen, also über direkte Wahrnehmung und unmittelbare Erfahrung hinauskommen. Das hat sich, biologisch gesehen, eher so ergeben.

Seit 150 000 bis 200 000 Jahren (vielleicht sogar schon seit 300 000 Jahren) ist die Vergrößerung des Gehirns von Homo in Struktur und Umfang im Wesentlichen abgeschlossen. Ein Trend in Richtung größerer Gehirne ist nicht mehr zu erkennen. Von der Mittelsteinzeit bis Ende des 20. Jahrhunderts sanken die Gehirnvolumina der europäischen Frauen und Männer sogar um durchschnittlich 150 bis 200 Kubikzentimeter. Ob der Schwund seit Beginn des Holozäns (vor 11 650 Jahren) mit der Abnahme existenzieller Nöte, etwa durch Fortschritte im Ackerbau, zusammenhängt, ist unklar.

Es scheint aber auch nicht, dass unser Denkorgan im weiteren Verlauf unserer biologischen Entwicklung noch nennenswert wachsen würde. Dafür spricht, dass nicht sehr viel mehr Neurone sinnvoll untergebracht werden können und die Zahl an möglichen Verbindungen begrenzt ist. Auch lässt sich die Menge der pro Sekunde übertragenen elektrischen Impulse nicht viel weiter steigern. Zudem wächst der Energieverbrauch mit zunehmender Größe des Gehirns, die Wärmeabfuhr wird schwieriger und die Signalübertragung von einem Hirnareal ins andere dauert länger.

Eine Leistungssteigerung wäre jedenfalls auch mit einem noch größeren Gehirn nicht zu erwarten. Außerdem ginge die Entwicklung eines größeren und komplexeren Gehirns mit einer höheren Anfälligkeit für neurologische Störungen einher. Genveränderungen, die unser großes Gehirn ermöglicht haben, spielen heute möglicherweise bei gravierenden Fehlentwicklungen unseres Denkorgans sowie psychischen Erkrankungen – z. B. Autismus und Schizophrenie – eine Rolle.

Viele Forscher halten eher einen Trend zu einer einfacheren Strukturierung des menschlichen Gehirns in Zukunft für möglich. Ursache sei die heutige Lebensweise, in der uns die moderne Technik viele Aufgaben abnimmt, in der durch Umweltzerstörung die Vielfalt der Natur schrumpft und die Natur- und sozialen Erfahrungen reduziert werden. (Übrigens verkleinerte sich auch das Hirnvolumen des Hundes im Lauf seiner Karriere als Gefährte des Menschen, der ihn mit Futter versorgt und ihm Schutz und Gesellschaft bietet. Sein Gehirn ist um ein Drittel kleiner als das des Wolfes, seines wilden Verwandten.)

Wir müssen also wohl davon ausgehen, dass das menschliche Gehirn auf jeden Fall nicht weiter wächst. Auch der Mensch selbst ist am Ende seines evolutionären Weges angelangt. Eine Veränderung des Arttypus, des durchschnittlichen Charakters der menschlichen Spezies, ist bei Homo sapiens in der Zukunft nicht mehr zu erwarten. Unsere Art wird demnach in ihrer gegenwärtigen biotischen Grundausstattung bis zu ihrem Aussterben weiter existieren. Und dass Arten aussterben, ist etwas ganz Normales und gehört zur Geschichte der Evolution.

REM

Gehirn – Seele – Geist

Das menschliche Gehirn

Meist stellen wir uns beim Gedanken an dieses wichtige Körperorgan eine grau-feuchte Masse vor. Dabei hat das Gehirn auf Grund der feinen Blutgefäße äußerlich ein eindeutig rotes Aussehen, während es in tieferen Schichten rötlich-braun bis gelblich-braun erscheint. Grau wird es erst, wenn es mit chemischen Mitteln konserviert wird.

Die dichtgepackten Nervenzellen (Neurone) sind die grundlegenden Elemente der Informationsverarbeitung. Unser Gehirn enthält nach neueren Untersuchungen 87 Milliarden davon, hinzu kommen 86 Milliarden andere Zellen, vor allem Gliazellen. Im einfachsten Fall kann man Neurone als Gleichrichter auffassen, die ankommende Informationen aufnehmen und zu den Synapsen weiterleiten, wo sie auf eine Empfängerzelle weitergegeben werden. Aber auch die Gliazellen sind maßgeblich an Hirnprozessen beteiligt: Sie bilden isolierende Myelinhüllen um die Neurone, helfen bei der Strukturierung des Zellgeflechts, regen zur Bildung von Synapsen an, sorgen für ein optimales chemisches Milieu und wachen über den Gesundheitszustand des Gehirns.

Das Zentralorgan des Menschen wiegt durchschnittlich 1350 Gramm und benötigt extrem viel Stoffwechsel-Energie: Bei nur etwa 2% der Körpermasse beansprucht es durchschnittlich 15 bis 18% der gesamten vom Grundstoffwechsel bereitgestellten Energie. Bei Kindern ist der Verbrauch noch höher. Mindestens zwei Drittel des Energiebedarfs im Gehirn entfallen dabei auf die Synapsen. Ein komplexes Zusammenspiel von chemischen Reaktionen und Stoffkreisläufen macht die Energie verfügbar und sorgt dafür, dass Denken, Fühlen und Handeln funktionieren.

Bedeutung des Gehirns

Das Gehirn bestimmt wie kein anderer Körperteil unsere Identität und gilt als Sitz der geistigen Fähigkeiten des Menschen und der Verhaltenssteuerung. In diesem Organ ist unser Wissen verankert, und in seinen Strukturen und Prozessen liegen die Wurzeln unserer Persönlichkeit. Es steuert und koordiniert unsere Bewegungen, es vermittelt uns Gefühle und Wahrnehmungen und ermöglicht es uns, über das Medium der Sprache mit anderen zu kommunizieren. Es räumt uns die Freiheit des Denkens ein, eine erstklassige Muster erkennende, Theorien erstellende, Informationen verarbeitende Überlebensmaschine. Es ist aber auch ein Organ der Verhaltenssteuerung und spielt eine wichtige Rolle bei der Regulierung sämtlicher lebenserhaltender Körperfunktionen (Schlafen, Atmung, Kreislauf, Verdauung usw.) und ist an der Steuerung des Hormonhaushalts des Körpers beteiligt.

Vielleicht ahnten die Menschen der Vorzeit vor Tausenden von Jahren bereits die Bedeutung des Gehirns, weshalb sie die Gehirne erschlagener Feinde verspeisten, um die Eigenschaften der Opfer anzunehmen, wie einige Forscher vermuten. Vielleicht verzehrten sie das Organ aber auch nur, weil es auch im ungekochten Zustand eine leicht zu kauende Speise war.

Alkmaion von Kroton leitete vor 2600 Jahren aus Gehirnsektionen von Tieren und Menschen ab, dass das Organ eine zentrale Rolle beim Wahrnehmen und Denken spielt. Hippokrates war der Überzeugung, dass die Luft, sobald der Mensch sie eingeatmet habe, im Gehirn Denkfähigkeit und Einsicht hinterlasse. In der Antike drehte es sich in diesem Zusammenhang immer um den Hauch, den Atem (Pneuma), dann auch die Seele, die ja entflogen ist, wenn der Atem stillsteht. Die Seele lieferte so eine Erklärung dafür, dass Organismen belebt sind – eben „beseelt“, englisch „animated“. In der Schöpfungsgeschichte der Offenbarungsreligionen bekommen die Lebewesen göttlichen Atem eingehaucht, der den Körper beim Tod wieder verlässt. Für viele Jahrhunderte prägte die Pneuma-Lehre das Bild von der Leistungsfähigkeit des Gehirns und beeinflusste die Hirnforschung sogar bis ins 18. Jahrhundert.

Die Idee einer unvergänglichen Essenz des Menschen, eine Seelenvorstellung, scheint schon sehr alt zu sein. Bereits in den Höhlenmalereien von Lascaux ist der Geist der Toten als Vogel dargestellt. Der Begriff eines unstofflichen und unsterblichen Geistes geht auf orientalische Vorstellungen zurück. Hinter Atem steckt etymologisch der Sanskritausdruck „atman„. Im Hinduismus ist „Jive“ (Jivatman), ein feinstofflicher, unsichtbarer Leib, Träger der individuellen Persönlichkeit. Er entspricht der unsterblichen, immateriellen Seele und verkörpert sich immer wieder. Als erster Denker des Abendlands formulierte der Naturphilosoph und Zahlenmystiker Pythagoras von Samos vor über 2500 Jahren eine Theorie der Seelenwanderung und Wiedergeburt.

Im Buddhismus gibt es nicht die Idee einer persönlichen Seele, sondern einer einzigen Seele, die oft als der „eine Geist“, das „Ungeborene“, die „Buddha-Natur“ oder Ähnliches bezeichnet wird. Sie hat keinen Anfang und ist wie der Raum – ohne Grenzen. Aus diesem Verständnis heraus wird nicht eine individuelle Seele wieder und wieder geboren, sondern es ist Gott selbst, der sich inkarniert. Das, was wir als Seele bezeichnen, ist schon das Nirwana.

Auch der Philosoph Platon (428 bis 348 v. Chr.) hat seine Todesmetaphysik von der im asiatischen Raum allgemein ausgeprägten Geisteshaltung übernommen. Er glaubte an eine unsterbliche Seele, die in einem vom Körper abgeschiedenen Bereich im Kopf existiert und über die sterblichen Teile der Seele in Herz und Bauch herrscht. Mit dem Tod löst sich die unsterbliche Seele von den Fesseln des Körpers und tritt in das lichte Reich der Ideen ein. Nach Platons Lehre gibt es also eine immateriell-geistige Welt, die neben der energetisch-materiellen Welt existiert, was als Dualismus bezeichnet wird: Leib und Seele sind zwei unterschiedliche Stoffe, von denen der eine unsterblich, der andere vergänglich ist. Der Philosoph plädierte für das Gehirn als Sitz von Gedächtnis, Vernunft und Verstand.

Für Aristoteles (384-322 v. Chr.) war das Gehirn hingegen nicht mehr als eine Art Kühlelement für das vom Körper erhitzte Blut. Er betrachtete das Herz als das Zentralorgan des Menschen. Lange Zeit blieb diese Sichtweise sehr einflussreich und hinterließ Spuren sogar bis in unsere Alltagssprache hinein: So nehmen wir uns gelegentlich wohl etwas „zu Herzen“ statt „zu Hirne“. Bei Aristoteles ist die „denkende Seele“ unsterblich. Ob es sich dabei um eine individuelle Unsterblichkeit oder nur eine Rückgliederung in die göttliche Vernunft handelt, ist nicht ganz klar.

Die Vergänglichkeit des Körpers verbunden mit der Unsterblichkeit des Seele – der Körper-Seele-Dualismus – beeinflusste viele Religionen bis hin zur Gegenwart. Der Seelenbegriff wurde, vermittelt durch die platonische Philosophie, auch ins Christentum übernommen. Nach dessen Verständnis besteht der Mensch aus zwei Teilen: einem sterblichen Leib und einer unsterblichen Seele, die während eines irdischen Lebens eine Verbindung auf Zeit eingehen. Der Daoismus ist eine der wenigen Religionen, in denen es kein Leben nach dem Tod gibt. Körper und Seele zerfallen im Tod zu Qi, was soviel wie Energie bedeutet.

In den Augen Thomas von Aquins bedarf die menschliche Seele eines Körpers, um zu denken und zu fühlen. Unser Körper ist folglich so etwas wie ein Empfänger dieses Geistes, ein sehr komplexer Empfänger mit sehr vielen Möglichkeiten zur Variation des Empfangs allerdings. Erst im 16. Jahrhundert setzte sich in der Wissenschaft die Ansicht durch, das Nervengewebe selbst beherberge unsere geistigen Fähigkeiten. Die Entdeckung des Blutkreislaufs und die Charakterisierung des Herzens als Blutpumpe wirkten sich so aus, dass das Herz jedenfalls nicht mehr als Sitz des Geistes und der Seele dienen konnte. Der Flame Andreas Vesalius (1514-1564) fertigte beeindruckende Zeichnungen über das Gehirn an, die der damals populären Ventrikel-Theorie folgten: Demnach zirkuliere in den Hohlräumen des Gehirns das „Pneuma“, das von hier aus in den Körper gelange und diesen beseele.

Der französische Philosoph Rene Descartes (1596-1650) ist einer der wichtigsten Vertreter des Substanzdualismus, also dass Leib und Seele zwei grundverschiedene Substanzen seien. Während die Organe des Körpers als „res extensa“ alle Kennzeichen räumlich ausgedehnter Materie erfüllten, gehörten Ideen, Urteile und Entschlüsse unzweifelhaft einer immateriellen Sphäre des Geistigen an, die Descartes „res cogitans“ nannte. Nach seinem streng dualistischen Standpunkt ist also Geist Erkenntnis – Sein Materie. Obwohl aber Leib und Seele verschiedenen, voneinander getrennten Sphären angehören, interagieren sie trotzdem in irgendeiner Weise fortwährend miteinander. Zu erklären, wie sich beide Sphären gegenseitig beeinflussen, wurde zum zentralen Problem des Dualismus.

Diese Zweiteilung des Menschen in Geist und Materie hat Eingang in die modernen Wissenschaften gefunden und liegt deren Einteilung in Geistes- und Naturwissenschaften zu Grunde. Noch heute vertreten manche Philosophen und die meisten Theologen die Ansicht, dass Geist als ein immaterielles, unräumliches und gegebenenfalls auch unsterbliches Etwas überhaupt nichts mit dem materiellen Gehirn zu tun habe, sondern einer ganz eigenen Welt angehöre. Der Geist existiert in diesem Sinne also „unabhängig von den physikalischen Teilchen“ und sei demnach kein „Gefangener der Materie“. Damit hätten wir die bemerkenswerte Doktrin, dass die Welt der Materie und Energie nicht vollständig abgeschlossen ist.

Auch der Gehirnforscher John Eccles (1996 verstorben) glaubte nicht an einen neuronalen Ursprung des menschlichen Geistes, sondern betrachtete diesen als göttliche Schöpfung und eigenständige Existenzform. Er sah in mental-geistigen Prozessen ein stammesgeschichtlich grundsätzlich neuartiges und einmaliges Phänomen, das physikalisch-chemischen Beschreibungen nicht zugänglich sei. Die menschliche Seele wirke lenkend auf die hirnphysiologischen Prozesse ein.

Bei aller Verschiedenheit der Seelenvorstellungen quer durch Epochen und Kulturen prägte die Idee einer unsterblichen Essenz also jahrhundertelang das Selbstverständnis des Menschen. Dieser innere, immaterielle Wesenskern wurde nicht nur Menschen, sondern manchmal auch Tieren und sogar Objekten zugeschrieben. Im Laufe der Geschichte wurden die Begriffe Seele und Geist von philosophischer, psychologischer und klinisch-neurologischer Seite beschrieben und diskutiert und mit verschiedensten Bedeutungsnuancen aufgeladen. Der Zusammenhang zwischen den geistigen Phänomenen (wie Denken, Fühlen, Wahrnehmen) und materiellen Prozessen, z. B. im Gehirn, wurde zu einer Grundfrage der Neurophilosophie, dem Leib-Seele-Problem.

Ludwig Wittgenstein und die Vertreter der analytischen Philosophie betrachteten das Leib-Seele-Problem als Scheinproblem. Schon die Frage, wie mentale und biologische Zustände zusammenpassen, sei falsch. Denn Menschen können auf unterschiedliche Weise beschrieben werden – etwa mit biologischen und geistigen Begriffen. Scheinprobleme entstünden immer nur dann, wenn wir ein bestimmtes Vokabular im falschen Kontext anwenden und so verschiedene Beschreibungsweisen aufeinander reduzieren. Deshalb entstünde begriffliche Verwirrung, wenn wir im Gehirn (biologische Vokabel) nach mentalen Zuständen (geistiges Vokabular) suchen. Vielleicht, so der Verdacht, habe die jahrtausendelange Rede von „Leib und Seele“, „Körper und Geist“, „Soma und Psyche“ dazu geführt, dass man nur noch in diesen Kategorien dachte und sie schließlich für real hielt.

Heute wird zwar von kaum jemand bezweifelt, dass beim Menschen das Gehirn eine notwendige Voraussetzung für geistige Leistungen, d. h. für Wahrnehmung, Vorstellung und Denken, ist. In der Frage allerdings, welchen Grad von Autonomie der Geist gegenüber dem Gehirn hat und wie eng die Beziehung zwischen Gehirn und Geist ist, prallen heute naturwissenschaftliche Auffassungen mit unterschiedlichen philosophischen, religiösen und ideologischen Grundüberzeugungen zusammen.

Ein streng dualistischer Standpunkt , der den Geist als eine vom Gehirn unabhängige, autonome Wesenheit ansieht, ist mit dem gegenwärtigen naturwissenschaftlichen Erkenntnisstand allerdings nicht zu vereinbaren. In der Neurowissenschaft spricht nichts für eine Aktivierung durch einen reinen Geist. Dagegen sprechen z. B. die neurowissenschaftlichen Beobachtungen: Ihnen zufolge können körperliche Störungen die Psyche systematisch verändern. Zudem gibt es einen Zusammenhang zwischen geistigen Fähigkeiten und Gehirnzuständen.

Die meisten heutigen Bewusstseinsphilosophen halten den Dualismus deswegen für unvertretbar, weil man dann unterstellen müsste, dass geistige Ereignisse irgendwie ins Räderwerk der Energieerhaltung und Energietransformation der rein natürlichen Vorgänge eingreifen müssten. Die Naturgesetze lehrten aber, dass nichts kausal in ein Geschehen eingreifen kann, das selber nicht über Energie verfügt und damit materiell ist. Naturwissenschaftler haben heute also wenig Grund, an eine Seele zu glauben. Vertraut man auf ihre Erklärungen, gibt es für eine Seele keine Anzeichen. So fand der französische Arzt und Philosoph Julien Offray de La Metrie schon im 18. Jahrhundert für eine im Körper agierende Seele keinen Beweis. Er beschrieb den Menschen als eine nach rein mechanischen Prinzipien funktionierende Maschine, die keiner vernunftbegabten Seele bedürfe.

Die Trennung von Körper und Bewusstsein, Leib und Seele, erscheint jedenfalls heute als ein Relikt alter Zeiten, von dem sich die Forscher lange verabschiedet haben. In den vergangenen hundert Jahren verschwand so der Begriff Seele nahezu völlig aus der Psychologie, der Wissenschaft vom Erleben und Verhalten. Er kommt heute auch in den Theorien der Hirnforscher so nicht mehr vor. Er wird nicht mehr benötigt, meint der Philosoph Thomas Metzinger. Im Alltag müssen wir uns aber oft anstrengen und gleichsam mit analytischer Skepsis gegen einen Strom intuitiver Überzeugungen anschwimmen, um zu dem Schluss zu gelangen, dass sich im Körper keine übernatürliche Seele verbirgt.

Oliver Sacks, Neurologe an der Medical School in New York, kann sich „keinen Seins-Raum für ein geistiges Prinzip vorstellen, das sich nicht vollständig im Körper ausdrückt“. Wenn man aber mit der Seele die Gesamtheit einer Persönlichkeit meine – deren Hoffnungen und Streben, religiöse, erotische und ästhetische Empfindungen -, dann gebe es sie natürlich. In diesem Sinne kennzeichnet die Seele eine Person als einzigartiges Individuum – und ebenso kennzeichnet sie dessen Nervensystem als von allen anderen verschieden. „Was wir Seele nennen, ist verkörpert und verliert dadurch weder seine Würde noch seine Schönheit.“

Stand heute

Die Neurowissenschaften gehen heute von drei zentralen Grundannahmen aus:

  1. Das Gehirn gehorcht physikalischen Gesetzen (den Gesetzen der Klassischen Physik).
  2. Verhalten ist das Resultat von Informationsverarbeitung im Gehirn.
  3. Diese Informationsverarbeitung beruht auf entsprechenden physikalische Vorgängen.

Geist ist demnach untrennbar an Materie gebunden. Seine Existenz unabhängig vom Körper ist eine Fiktion. Geistige Vorgänge spielen sich im Rahmen und auf der Grundlage messbarer physikalischer und physiologischer Prozesse ab. Sie sind durch die aktuellen Aktivierungszustände determiniert, die wiederum vom Genom, der Lerngeschichte (Erfahrung) und den momentanen Reizgegebenheiten (Umwelt) abhängen. Dabei wird das bewusste Erleben entweder mit dem zugehörigen Hirnprozess gleichgesetzt oder als durch diesen notwendig verursacht. Es ist also kein mysteriöser Vorgang, wenn die informationsprozessierenden Eigenschaften des Gehirns bewusst werden. Nach dieser heute weit verbreiteten Sichtweise ist das Geistige also ein Produkt oder eine Begleiterscheinung neuronaler Prozesse, quasi ein Attribut der Materie oder der physikalischen Welt.

Mentale Ereignisse, alle Gedanken, Gefühle, Wünsche und Überzeugungen sind also mit bestimmten funktionalen Zuständen (neuronalen Zuständen) des Gehirns identisch oder entsprechen diesen zumindest unmittelbar. Sie beruhen auf Verknüpfungen zwischen Nervenzellen. Gerade die Verknüpfungspunkte, die Synapsen, sind die eigentlichen geistproduzierenden Stellen – wenn man das so ganz reduktionistisch sagen darf. Der Prämisse folgend, dass jeder geistige Zustand aus Vorgängen im Gehirn besteht, suchen heute Neurowissenschaftler nach dem Geist tief in den Windungen unseres Denkorgans.

[Einige Argumente sprechen neben neuropsychologischen Befunden zur Epilepsie und transzerebralen Magnetstimulationen für die zentrale Stellung des Schläfenlappens (ein Teil des Großhirns) und des damit assoziierten Limbischen Systems (Hypothalamus, Hippocampus, Amygdala) bei spirituellen oder religiösen Erlebnissen. Manche Wissenschaftler bezeichnen diese Strukturen daher metaphorisch sogar als „Sitz der Seele“.]

Nach Ansicht des britischen Philosophen Gregory Bateson sind Geist, Verstand und Intelligenz unausweichliche Konsequenzen einer gewissen Komplexität, die einsetzt, lange bevor die Organismen ein Gehirn und ein höheres Nervensystem entwickelten. Die Geistestätigkeit wird dabei als die Organisation aller Funktionen dargestellt: auf niederer Ebene oft als Verhalten, auf höherer Ebene der Komplexität jedoch nicht auf Verhalten beschränkt, da es dort eigentümliche nichträumliche und nichtzeitliche Qualität annimmt, die wir mit Geist verbinden. Geist ist so die Manifestation einer Gruppierung von Systemeigenschaften, von Prozessen, in denen die Dynamik der Selbstorganisation zum Ausdruck kommt.

Geist, Moral und sogar der Glaube an Gott sind demnach das Ergebnis einer Hirnstruktur, die so organisiert ist, wie es der Aufstieg des Menschen in Jahrmillionen erforderte. Daher ist denkbar, dass, wie die elektrische Ladung ein fundamentales Charakteristikum des Universums ist, jedoch selbst keinerlei Funktion besitzt, auch das Bewusstsein, der Geist, lediglich ein Nebenprodukt der Gehirnentwicklung sein könnte, das keinen besonderen Zweck erfüllt.

REM

Die Inflations-Theorie

Das Standardmodell des heißen Urknalls kann eine Reihe von Eigenschaften unserer Welt nicht recht erklären. Warum pflanzt sich das Licht im Durchschnitt geradlinig im Universum fort? Oder anders gefragt: Warum ist der Raum in seinen drei Dimensionen fast völlig „flach„, wie wir es aus dem Alltag gewohnt sind? Ein flaches All stellt nämlich gemäß Relativitätstheorie ein eher unwahrscheinliches Ergebnis der Entwicklung dar; das All könnte genauso gut mehr oder weniger stark gekrümmt sein.

Und warum ist das Universum äußerst gleichförmig, obwohl weit entfernte Regionen früher nicht in Kontakt – oder, wie die Physiker sagen, in „kausaler Verbindung“ – standen und keine Gelegenheit hatten, sich zu durchmischen? Wie konnten sie sich dann derart gleich entwickelt haben? Und wie kam es andererseits zu den charakteristischen kleinen Inhomogenitäten, aus denen letztendlich Strukturen wie Galaxien und Galaxienhaufen entstanden sind?

(3.) Inflation

Um die genannten Fragen in der Standardtheorie zu beantworten, schufen Wissenschaftler eine komplizierte Theorie, die Theorie der Inflation (lat. „inflatio“ = Aufblähung), wobei sie die Kosmologie mit Ideen der Teilchenphysik verbanden. Dazu nutzten sie eine mögliche Lösung der Einsteinschen Gleichungen aus, indem sie an diese Stelle eine Einwirkung der Quantenmechanik einbrachten. Dadurch konnte erklärt werden, wie Quantenprozesse das Universum wild aufgeblasen haben, bevor es zu der gemächlichen Form der Expansion kam, wie wir sie heute beobachten.

Die Inflationstheorie geht davon aus, dass am Anfang das Universum auf subatomarer Größe zusammengepresst war und eine hohe Symmetrie hatte, wie die Astronomen sagen, also einfach und regelmäßig war – ein Raum, nahezu frei von Materie, aber beherrscht von einem Energiefeld (Quantenfeld), wahrscheinlich dem sogenannten Inflaton-Feld. Dieses gilt als die treibende Kraft für die exponentielle kosmische Expansion, die weniger als eine Billionstel Sekunde nach dem hypothetischen Ausgangspunkt des Universums (dem Urknall) stattfand.

Als ein Skalarfeld ist das Inflaton-Feld viel einfacher als beispielsweise ein elektrisches Feld, denn es wird an jedem Ort im Raum durch eine einzige Zahl, seine Stärke an genau diesem Ort, beschrieben. Im Gegensatz dazu besitzt ein Vektorfeld, etwa das elektromagnetische Feld, Magnetfelder oder die Windstärke, an jeder Stelle neben einem Zahlenwert, der Feldstärke, auch noch einen Richtungswert. (Beispiele für Skalarfelder sind z. B. Temperatur und Druck. Ein konstantes Skalarfeld, z. B. konstanter Luftdruck, ähnelt einem Vakuum: Wir erkennen es nicht, selbst wenn wir davon umgeben sind.)

Das Universum befand sich im ersten Moment seiner Existenz in einem energetisch keineswegs optimalen Zustand – es hatte noch kein Gleichgewicht gefunden. Die Astrophysiker sprechen von einem „falschen Vakuum„. Durch die Änderung der Eigenschaften des Vakuums unmittelbar nach dem Urknall wurde die anfängliche Symmetrie gebrochen. Das Quantenfeld zerfiel spontan und das „echte“ Vakuum entstand (ein neuer Zustand, in dem sich unser Universum seither befindet). Dabei wurde Energie frei, die – mit den passenden Eigenschaften ausgestattet – zu der gravitativen Abstoßung führte, welche das Universum für kurze Zeit mit exponentiell wachsender Geschwindigkeit buchstäblich auseinanderfliegen ließ. Es blähte sich explosionsartig auf makroskopische Dimensionen auf.

Zwei beliebige Raumpunkte vergrößerten dabei ihren Abstand mit zunehmendem Tempo, schließlich sogar über die Lichtgeschwindigkeit hinaus. Dies ist keineswegs ein Widerspruch zur Speziellen Relativitätstheorie, der zufolge sich kein materieller Gegenstand schneller als Licht zu bewegen vermag. Denn während der Inflation expandierte der Raum selbst mit Überlichtgeschwindigkeit. Dabei verloren einst zusammenhängende Gebiete ihre Verbindung. Erst nach dem Ende der Inflation vermochte das Licht die langsamere Standard-Expansion gleichsam zu überholen und Informationen zwischen vorher separaten Gebieten zu übertragen. Wegen der beschleunigten Expansion ist das heute beobachtbare Universum immer noch nur ein winziger Ausschnitt eines sehr viel größeren Universums.

Die Inflation hat zahlreiche Merkmale des ganz frühen Universums ausgelöscht. Wir können daher nicht nachprüfen, was vorher war. Ungleichmäßigkeiten des Raumes, z. B. in der Energieverteilung und in der Verteilung von Materie wurden beseitigt („verschmiert“). Unser Universum erscheint deshalb heute glatt und gleichförmig.

Aber das Universum ist nicht perfekt homogen, da durch Quantenfluktuationen* entstandene (fluktuierende) Teilchen durch die rapide Expansion innerhalb kürzester Zeit so weit auseinander gezogen wurden, dass sie sich nicht mehr gegenseitig vernichten konnten. Dadurch wandelten sich viele virtuelle Teilchen in reale Teilchen um. Die potentielle Energie des berstenden Inflatonfelds hat sich also beim Übergang vom „falschen“ ins „echte“ Vakuum in eine Kaskade von Elementarteilchen verwandelt – die Geburt der Materie- und Energieformen, die heute das Universum erfüllen: Heiße, gewöhnliche Materie Dunkle Materie und Strahlung.

*Quantenfluktuationen treten als Folge der Heisenbergschen Unbestimmtheitsrelation im Raum (Vakuum) auf, wobei scheinbar aus dem Nichts spontan Teilchen und deren Antiteilchen erzeugt werden, die sich in Sekundenbruchteilen wieder gegenseitig vernichten.

Kleine Unregelmäßigkeiten in der Verteilung der Teilchen wurden durch die rapide Expansion enorm vergrößert. Die dichteren Bereiche wurden zu Keimen von Sternen und Galaxien. Die Teilchen, aus denen die heutigen Galaxien, Sterne und Planeten bestehen, sind also die Reste des Übergangs von einem Vakuumzustand zum anderen, der kurz nach dem Urknall die Brechung des Symmetrie veranlasste. Sollte die Theorie richtig sein, dann wären wir selbst – genauer: die Materie, aus der wir bestehen – ein Produkt des Vakuums.

Wegen der Fluktuationen gab es am Ende der Inflation in verschiedenen Raumregionen auch Temperaturunterschiede: Wo die Materie etwas dichter war, wurde es etwas wärmer. Durch die Dichteunterschiede in der Urmaterie wurde so das Temperaturmuster in der heute gemessenen Hintergrundstrahlung erzeugt. Außerdem mussten die Wellenlängen von Gravitonen, den hypothetischen Teilchen der Schwerkraft, von mikroskopischen auf makroskopische Größenordnungen ausgedehnt worden sein und dabei ein Spektrum von Gravitationswellen erzeugt haben, das bis heute die Bedingungen in jenen ersten Momenten des Urknalls widerspiegelt. Sollte man diese ursprünglichen Gravitationswellen entdecken, könnten sie uns ein direktes Signal vom physikalischen Zustand des ganz frühen Universums vermitteln.

Wie lange die rasante Inflation währte, ist von Modell zu Modell verschieden. Die jedenfalls sehr kurze Phase (wohl zwischen 10-34 und 10-36 Sekunden) endete mit dem Beginn der Expansion des Weltraums gemäß dem Kosmologischen Standardmodell, eine Phase mäßiger, sich zunächst verlangsamender Ausdehnung, in deren Verlauf sich die Materie zu den bekannten kosmischen Strukturen verdichtete.

Bedeutung der Theorie der Inflation

Das jähe, exponentielle Aufbäumen des Universums kurz nach dem Urknall ist eine überzeugende Idee und die von den meisten Kosmologen akzeptierte Theorie. Das erstmals 1981 vorgeschlagene Szenario glänzt in seinen Grundzügen durch Einfachheit und Eleganz. Man benötigt keine Effekte der Quantengravitation, keine Phasenübergänge, keine Unterkühlung, nicht einmal die Standardannahme, dass das Universum ursprünglich heiß war. Die Inflation ist kein exotisches Phänomen, sondern vielmehr ein allgemeines Phänomen, das ganz zwanglos in einem weiten Bereich teilchenphysikalischer Theorien auftritt. (In der Stringtheorie und anderen „Großen Vereinigungstheorien“ der Naturkräfte treten Skalarfelder zu Hunderten auf.) Im chaotischen Urzustand des Kosmos gab es gewiss ein Raumgebiet, wo eines dieser Felder die Bedingungen für die Inflation erfüllte.

Die Theorie der Inflation vermag eine Vielzahl von Beobachtungen präzise zu erklären, die sonst unlösbare Probleme aufwerfen, und erklärt einige Aspekte des Standardmodells, die ansonsten als Anfangsbedingungen hingenommen werden müssten.

  • So erklärt die Theorie die so gleichmäßige Ausdehnung (Expansion), wie sie sich heute noch messen lässt.
  • Die riesige Menge an Materie im Universum (rund 1090 Atome) liegt genau in derselben Größenordnung wie die Volumenzunahme in der Inflation, was zur Erklärung der Teilchenzahl eine Rolle spielen könnte.
  • Exotische Relikte (z. B. magnetische Monopole, eindimensionale Strings, usw.) würden nach der Theorie „weginflationiert“. Sie tauchen in manchen Fundamentalphysik-Theorien auf, werden aber tatsächlich nicht beobachtet.
  • Die Inflation erklärt die extreme großräumige Gleichförmigkeit des beobachtbaren Universums (überall und in allen Richtungen) und seine „flache“ Geometrie, welche als zufällige Anfangsbedingung extrem unwahrscheinlich ist, aber notwendig, um die beobachtete Entwicklung des Universums zu erklären.
  • Die winzigen Temperaturunterschiede in der kosmischen Hintergrundstrahlung haben genau die Stärke und räumliche Verteilung, die die Inflationstheorie voraussagt.
  • Amplitude und Form der großräumigen Materiefluktuationen stimmen einigermaßen mit dem erwarteten Vergrößerungseffekt überein, den die Inflation auf das Quantenvakuum ausgeübt haben sollte.

Das Inflationsmodell hat inzwischen so viele Tests und indirekte Überprüfungen bestanden, dass es alle konkurrierenden Hypothesen aus dem Feld geschlagen hat. In allen Fällen widerspricht die Inflation auch nicht dem Satz von der Energieerhaltung. Wegen ihrer großen Erklärungskraft gilt die Theorie fast schon als „Erweiterung“ der Standardtheorie vom sehr frühen Universum.

Der Hauptunterschied zwischen der inflationären Theorie und der alten Kosmologie wird deutlich, wenn man die Größe des Universums am Ende der Inflationsphase berechnet. Die Zahlen hängen zwar von den verwendeten Modellen ab, doch liefern die meisten einen Wert, der höher ist als der Radius des beobachtbaren Universums. Der Kosmos muss demnach viel gigantischer sein, als bislang gedacht – und das beobachtbare Universum nur ein winziger Ausschnitt davon.

Inzwischen gibt es Hunderte konkurrierender Modelle mit verschiedenen Versionen der Inflation, die zu höchst unterschiedlichen Universen führen. Direkt aus der Quantenphysik einer beschleunigten Expansion führt die Möglichkeit, dass die Inflation ewig andauert und nur lokal aufhört (in einem neuen Urknall). „Die Inflation ist dann in gewisser Weise nicht ein Teil des Urknalls, wie früher gedacht, sondern der Urknall ist ein Teil des Szenarios der kosmischen Inflation. “ (Andrei Linde) Anders ausgedrückt: Die Inflation wäre also nicht die Folge des Urknalls, sondern seine Ursache. Und es müssten unzählige weitere Universen „neben“ unserem existieren, die jeweils mit ihrem eigenen Urknall begonnen haben und in denen völlig andere, ja beliebig andere Verhältnisse – je nach Stärke des Inflatons – herrschen könnten.

In einem solchen langsam expandierenden Blasen-Universum entsteht dort, wo die Inflation lokal aufhört – gewissermaßen durch einen neuen Urknall – eine neue Blase, sprich ein neues Universum. Somit bilden sich unzählige, voneinander getrennte Tochter-Universen und vergehen wieder, während sich die kosmische Inflation „global“ in alle Ewigkeit fortsetzt. Auch unser beobachtbares Universum wäre dann nur eine Blase neben vielen anderen in diesem Multiversum. Sein Urknall würde sich demnach auf ein lokales Ereignis vor etwa 13,82 Milliarden Jahren reduzieren, als aus einem anderen Universum (Eltern-Universum) unser Universum geboren wurde.

Einwände

Die Vielfalt der Inflations-Modelle erscheint verwirrend, und kein Modell hat bislang breite Anerkennung gefunden. Nach Berechnungen einiger Theoretiker wäre ein flaches Universum – als Ergebnis einer Periode beschleunigter Expansion – erst einmal sehr unwahrscheinlich. Daher berufen sich einige Forscher auf das Anthropische Prinzip, dass nämlich unser Universum so geschaffen sein muss, dass – oder sogar: damit – Beobachter existieren können, um es zu beobachten. Unsere Weltraum-Insel sei also zwar sehr untypisch, biete aber die Voraussetzungen für die Entstehung von Leben und Intelligenz. (Die meisten Blasen-Universen hätten vermutlich keine Sterne und Planeten. Aber wenn alles Mögliche realisiert werden kann, brauchten wir uns nicht zu wundern, dass wir in einem lebensfreundlichen Universum leben.)

Trotz der immer stärker werdenden Argumente für die Inflation mehren sich auch die Einwände. Die kosmologischen Daten haben zwar die wichtigsten Aussagen der Inflations-Theorie verifiziert, sie bestätigen aber nur die Vorhersagen, denen zufolge die Inflation zu einem Ergebnis führt, das den Gesetzen der klassischen Physik gehorcht. Die Elementarteilchentheorie, auf der die inflationären Theorien beruhen, ist aber selbst noch nicht frei von Unsicherheiten. Die physikalische Unterfütterung der Inflationsmodelle lässt also einiges zu wünschen übrig. Zwar beruhen die Modelle zum großen Teil auf bekannten physikalischen Gesetzmäßigkeiten, weiten deren Gültigkeit jedoch in Richtung noch unerforschter, extrem hoher Energien aus.

Es gibt keine Möglichkeit, die tatsächlichen Randbedingungen für die Inflation aus ersten Prinzipien zu errechnen. Die Überlegungen dazu beruhen allesamt auf groben Vereinfachungen und umstrittenen Abschätzungen. Wir wissen also nicht einmal, welche Quantenfelder an der Inflation beteiligt waren, oder was das Inflaton eigentlich ist, woher seine gewaltige potenzielle Energie kommt und welche Prozesse bei den enorm hohen Energien ablaufen. Die inflationäre Energie ist eine reine Hypothese, für die es kein direktes Indiz gibt.

Nach wie vor müssen bestimmte Bedingungen präzise erfüllt sein. So muss der kleine Bereich, aus dem das Universum entstanden ist, wirklich homogen sein. Sonst müssten sich bestimmte Inhomogenitäten während der jähen Expansion vergrößert haben und wir hätten heute ein stärker strukturiertes, anisotropes (in verschiedenen Richtungen unterschiedliches) und mit Rotation versehenes Universum, was de facto nicht der Fall ist. Der Inflationsprozess muss außerdem gerade lang genug sein und mit genau der richtigen Rate abgelaufen sein, um ein Universum zu bilden, in dem Sterne und Galaxien entstehen können. Ein kürzerer, weniger intensiver Inflationsschub würde das frühe Universum in einem zu chaotischen Zustand hinterlassen, womit es in Gefahr schweben würde, rasch wieder zurück zu kollabieren; ein längerer, intensiverer Inflationsschub hätte den Inhalt des frühen Universums so sehr verdünnt, dass sich nie Sterne oder Galaxien hätten bilden können. Dieses „Feinabstimmungsproblem“ wird im Allgemeinen als die größte Schwierigkeit der Inflation angesehen.

Die Inflationstheorie gilt daher weiterhin als keineswegs gesichertes Wissen. Sie ist keine präzise Theorie, sondern eher ein Szenario, eine pure Annahme, in der viele Details bis heute rätselhaft sind. Neue Messungen der kosmischen Hintergrundstrahlung wecken zudem Zweifel am gängigen Inflationsmodell. (Allerdings gibt es auch einige Modelle, die solche Merkmale voraussagen.) Was fehlt, ist ein direkter Nachweis, dass die Inflation tatsächlich stattfand, sowie Aufschluss über die ihr zu Grunde liegende Physik. Die Entdeckung ursprünglicher Gravitationswellen wäre hier eine große Hilfe. Diese wurden aber bisher noch nicht beobachtet.

Alternativen zum Inflationsmodell

Alles ist also noch sehr spekulativ und unvollständig. Man weiß immer noch nicht genau, wann und wie die Inflation begann, wie lange sie gedauert und warum sie aufgehört hat. Angesichts der Probleme fragen sich manche Forscher ernsthaft, ob eine Inflation überhaupt je stattgefunden hat und das Universum seinen gegenwärtigen Zustand nicht auch ohne Inflation erreichen konnte. So hat die Inflationstheorie – trotz des großen Erfolgs ihrer Szenarien – inzwischen Konkurrenz von neuen, anderen Theorien und kosmologischen Modellen bekommen, die ohne Annahme wie Dunkle Materie, Dunkle Energie und Inflation auskommen. Vor dem Hintergrund der Stringtheorie wurden bereits einige Alternativen entwickelt.

Stephen Hawking hatte schon 2008 erwogen, dass der Urknall womöglich nicht der absolute Anfang von allem, sondern nur der Übergang von einem früheren Universum gewesen sein könnte. Statt des vermeintlichen Urknalls habe ein Urprall (engl.: Big Bounce) stattgefunden, mit dem vor etwa 13,82 Milliarden Jahren eine noch frühere kosmologische Periode in die gegenwärtige Expansionsphase überging – als Teil eines ewigen Zyklus von Erschaffung und Vernichtung. Dabei kann eine vorausgehende, Milliarde Jahre währende, langsame Kontraktionsphase wie eine plötzliche Explosion wirken und für ein glattes und flaches Universum sorgen: Die Materie hätte dann schon lange vor Beginn der Expansion viel Zeit gehabt, sich gleichförmig zu arrangieren. Die Kontraktion vor dem Urknall kann somit das leisten, wozu die Inflation ursprünglich erfunden wurde. Die Annahme eines bislang unbekannten Inflatonfeldes wäre nicht nötig, um die Inflation anzutreiben.

Arbeiten von Steinhardt, Turok und anderen beschrieben 2017 erstmals im Rahmen der Schleifen-Quantenkosmologie im Detail, wie das Universum von der Kontraktion zur Expansion übergehen konnte, und konstruierten so eine vollständige Urprallkosmologie. Nach dieser sogenannten Zyklischen Theorie geht die Expansion nach rund einer Billion Jahren in eine Kontraktion über. Und diese führt dann über einen neuen Rückprall wieder zur Expansion, die mit der Erzeugung von Materie und Strahlung einhergeht.

Die Inflation geht in diesem Modell ganz natürlich aus der atomaren Beschaffenheit der Raumzeit hervor. Die Beschleunigung tritt automatisch auf. Entscheidend ist, dass die Glättung des Universums vor dem Urknall stattfindet – während der Kontraktionsphase. Alle Ausreißergebiete schaffen sich quasi selbst ab und bleiben daher vernachlässigbar klein. Zwar ist die Zyklische Theorie relativ neu und mag ihre eigenen Probleme haben, doch sie zeigt, dass Alternativen, denen nicht der unkontrollierbare Makel der ewigen Inflation anhaftet, denkbar sind.

Urpralltheorien bedeuten eine dramatische Abkehr vom Paradigma der Inflation. Derzeit spricht kein Indiz gegen sie. Zugleich haben sie gegenüber der Inflation einen wichtigen Vorteil: Wenn die Kontraktionsphase beginnt, ist das Universum bereits groß und klassisch – d. h. es gehorcht der Allgemeinen Relativitätstheorie -, und der Urprall tritt ein, bevor es so sehr schrumpft, dass Quanteneffekte wichtig werden.

[Eine andere, vielversprechende und gleichzeitig die provokanteste Alternative zum Inflationsmodell ist die Theorie der veränderlichen Lichtgeschwindigkeit oder VSL-Theorie (varying-speed-of-light theory). Sie geht davon aus, dass die vermeintliche Konstante der Lichtgeschwindigkeit in einem Urknall-Universum tatsächlich mit der Zeit variieren kann – so wie es bei Dichte und Temperatur der Fall ist. Nach der Inflationstheorie wurde im frühen Universum durch die schnelle Expansion des Raumes die Reichweite des Lichtes ungeheuer groß, scheinbar unabhängige Regionen standen dadurch miteinander in Verbindung und erreichten eine gemeinsame Temperatur und Dichte. Erst nach Ende der inflationären Phase verloren diese Regionen den Kontakt. Wie leicht einzusehen ist, könnte dasselbe ebensogut durch eine im frühen Universum erhöhte Lichtgeschwindigkeit erreicht worden sein. Die VSL-Theorie ist aber noch wenig weit entwickelt und momentan reine Spekulation.]

Fazit

Die Inflationstheorie wird heute in gleichem Maße wie die Elementarteilchenphysik modifiziert und weiterentwickelt. Das Universum vor der Inflation – und der Ursprung der Naturgesetze selbst – wird sich aber wohl erst mit Hilfe einer allumfassenden, fundamentalen physikalischen Theorie verstehen lassen. Wir benötigen eine Quantentheorie der Gravitation, wie z. B. die Stringtheorie oder die Schleifen-Quantentheorie, die allerdings beide gegenwärtig nicht gesichert bzw. experimentell bestätigt sind.

REM

Dunkle Energie

Um manche irritierenden astronomischen Daten zu erklären, musste neben der Dunklen Materie und der „kosmischen Inflation“ auch die Dunkle Energie eingeführt werden.

2. Dunkle Energie

Messungen der kosmischen Hintergrundstrahlung und präzise Beobachtungen von Supernovae in fernen Galaxien haben deutliche Hinweise auf eine systematische Abweichung vom Hubble’schen Gesetz erbracht, demzufolge je zwei Galaxien mit einer Geschwindigkeit auseinanderfliegen, die proportional zu ihrem gegenseitigen Abstand ist: So sehen ferne Sternexplosionen mit gegebener Rotverschiebung schwächer aus als erwartet, müssen also weiter entfernt sein. Außerdem haben Röntgendaten ergeben, dass die Entstehung der Galaxienhaufen im Laufe der Zeit immer schleppender vorangegangen ist. Die Beobachtungen deuten auf eine mit der Zeit schnellere Expansion des Universums hin.

Im Moment haben Theoretiker noch die unterschiedlichsten konkurrierenden Vorstellungen, welche Kraft die schnell wachsende Ausdehnung des Weltraums antreiben könnte. Es existieren zwei grundlegend verschiedene Erklärungsansätze: Der erste geht davon aus, wir verstünden die Gesetze der Schwerkraft noch nicht richtig. Vielleicht ändert sie bei sehr großen Entfernungen ihren Charakter und wirkt schließlich sogar abstoßend. (siehe unten)

Die zweite Idee postuliert die Existenz von einer bislang unbekannten, unsichtbaren Substanz, die der Gravitation entgegenwirkt, also eine abstoßende Kraft ausübt, und die Hubble-Expansion allmählich beschleunigt. Sie steht für den fehlenden Wert der Materiedichte (von sichtbarer und Dunkler Materie), die nach den Beobachtungen von Supernovae und Galaxienhaufen lediglich einem Wert (Omega) von 0,3 entspricht. Nach den gemessenen Werten der euklidischen Geometrie ist unser Universum aber „flach„, d. h. die gesamte Masse- und Energiedichte erreicht im Rahmen der Messgenauigkeit den kritischen Wert 1. Es muss also neben der Materiedichte eine weitere Komponente geben, die für das Defizit steht.

Diese Energiedichte, von deren Existenz die meisten Wissenschaftler überzeugt sind, hat merkwürdige Eigenschaften: Sie krümmt den Raum ganz ähnlich, wie es Materie tut, aber zugleich übt sie einen negativen Druck aus. Sie stellt also eine Kraft dar, die zusätzlich zum Urknall das Universum auseinander treibt und so die kosmische Expansion quasi ständig nachbeschleunigt. Man kann sie aber nicht als Gravitation mit umgekehrtem Vorzeichen betrachten, denn anders als die Gravitation nimmt diese Kraft mit der Entfernung zu. Es ist also eine „frei im Raum schwebende“ Kraft, eher der expandierende Raum selbst, wobei der ferne Raum stärker betroffen ist als der nahe.

Diese ominöse Kraft soll also den fehlenden weitaus größten Teil der kritischen Dichte (ca. 70% der Masse und Energie des Universums) liefern. Unser Universum wäre demnach nicht von Materie, sondern dieser abstoßenden Kraft dominiert. Für sie hat sich der Name „Dunkle Energie“ eingebürgert – eine unglückliche Bezeichnung, denn seit Einstein wissen wir, dass Materie und Energie eigentlich dasselbe sind; Dunkle Materie und Dunkle Energie haben aber nichts miteinander zu tun haben.

Ohne den antigravitativen Effekt dieser Kraft würde sich der Weltraum heute halb so schnell ausdehnen. Viele Galaxien wären schon verschmolzen und das Universum enthielte viel mehr massereiche Galaxien mit Populationen alter Sterne. Massearme Galaxien wären hingegen seltener, genauso Spiralgalaxien wie unser Milchstraßensystem, denn die vermehrten galaktischen Kollisionen hätten die Spiralgalaxien zerstört. Die Milchstraße wäre vielleicht schon mit dem Andromedanebel verschmolzen – ein Prozess, der tatsächlich erst in zwei Milliarden Jahren beginnt – und beide Galaxien würden in den Virgo-Haufen eindringen (was aber niemals geschehen wird).

Was die Dunkle Energie für Kosmologen so attraktiv macht, ist ihre Dynamik. Es gibt gute Gründe für die Annahme, dass sich die Expansion des Universums nicht immer beschleunigt hat. Wenn ihre Dichte, wie es scheint, immer konstant geblieben ist, war ihr prozentualer Anteil an der Gesamtdichte kurz nach dem Urknall wegen der stärkeren Gravitationsanziehung der damals enger beieinander liegenden Materieregionen verschwindend gering. Die Gravitation wirkte also in der Frühzeit des Universums der Expansion noch recht effektiv entgegen und ließ die großräumigen, filamentartigen Strukturen im Universum entstehen. Sie führte auch zur Bildung gravitativ gebundener Objekte – von Galaxien bis zu gewaltigen Galaxienhaufen. (Wäre die kosmische Expansion dagegen immer beschleunigt verlaufen, hätte sie das Entstehen dieser Strukturen schon von vorneherein verhindert.)

Die Dichte der Dunklen Materie nahm fortan durch die Raumexpansion zunehmend ab, diejenige der Dunklen Energie blieb dagegen – jedenfalls nach dem Standardmodell – immer konstant, da in dem durch die Expansion frisch geformten Raum neue Dunkle Energie entsteht. Ihre Gesamtmenge wuchs also im Verhältnis zur Dunklen Materie. Ab einer gewissen Ausdehnung des Alls war die Materie so stark ausgedünnt, dass dann die von der Entfernung unabhängige, gravitativ abstoßende Kraft allmählich die Gravitationsanziehung überwand und damit die Beschleunigung der Expansion über die Schwerkraft die Oberhand gewann.

Heute geht man davon aus, dass unser Universum seit etwa sechs Milliarden Jahren beschleunigt expandiert. Die Galaxienhaufen hatten damals bereits ihre heutige Masse erreicht. Die weitere Strukturbildung wurde auf großer Skala gestoppt und sie wuchsen seither kaum noch weiter an. Die hauptsächlich von der Dunklen Energie angetriebene Expansion aber beschert dem Universum eine unendliche Zukunft.

Die Natur der Dunklen Energie

Wie schon erwähnt, handelt sich bei der Dunklen Energie um ein diffuses, über den gesamten Raum verteiltes, niedrigenergetisches Phänomen. Ihre Dichte beträgt überall nur 10-26 kg/m2. Die in unserem Sonnensystem enthaltene Dunkle Energie entspricht dabei höchstens der Masse eines kleinen Asteroiden. Spürbare Auswirkungen hat sie hier nicht – diese sind erst auf viel größeren Strecken und langen Zeitspannen erkennbar.

Das Rätsel, um was es sich physikalisch bei der neuen Energieform eigentlich handelt, ist aber noch lange nicht gelöst. Die einfachste Erklärung für die Dunkle Energie – und sogar die einzige im Rahmen der etablierten Physik (dem Lambda-CDM-Modell) – ist die bereits 1917 von Albert Einstein in die Allgemeine Relativitätstheorie und Kosmologie eingeführte Kosmologische Konstante, abgekürzt mit dem griechischen Buchstaben Lambda. Physikalisch lässt sich Lambda als Eigenschaft der Raumzeit interpretieren. Der Name „Kosmologische Konstante“ deutet schon darauf hin, dass ihr Wert überall der gleiche ist und sich über Raum und Zeit hinweg nicht ändert.

Wie die meisten Astronomen um 1915 hielt Einstein damals das Universum für statisch – gleichförmig, unendlich und unveränderlich. Aber er konnte die Lösungen der Allgemeinen Relativitätstheorie drehen und wenden, wie er wollte, es kam partout kein statisches Universum heraus. So fügte er seinen Gleichungen einen Zusatzterm („eine nahe liegende, mit dem Relativitätspostulat vereinbare Erweiterung“) ein, der wie eine Anti-Schwerkraft wirkte: die Kosmologische Konstante (Lambda). Sie ergibt bei geeigneter Wahl genau die Abstoßung.

Fünf Jahre später, als sich gezeigt hatte, dass die Kosmologische Konstante kein wirklich stabiles Universum herbeiführen konnte und sich vor allem das Bild vom expandierenden Kosmos durchgesetzt hatte, verwarf er die Kosmologische Konstante wieder. Er soll dem amerikanischen Astrophysiker George Gamow gegenüber ihre Einführung als „die größte Eselei seines Lebens“ bezeichnet haben. Die Physiker jedenfalls waren froh, auf diesen ungeliebten Zusatzterm verzichten zu können. Seither wurde Lambda von den meisten Astronomen kurzerhand gleich Null gesetzt. Einfach streichen ließ sie sich aber nicht, weil sie bei einer strengen Herleitung der einsteinschen Feldgleichungen aus physikalischen Grundprinzipien folgt, wie später erkannt wurde.

Heute sind die meisten Astrophysiker überzeugt, dass die Beschleunigung der Expansion des Universums durch eine positive Kosmologische Konstante verursacht wird, die in kosmischem Maßstab wie eine Art Anti-Schwerkraft wirkt. Sie kann heute in der Teilchenphysik als eine Eigenschaft des Vakuums – physikalisch ausgedrückt: Energiedichte des Vakuums – betrachtet werden. Diese mysteriöse Vakuumenergie ist ein besonders eleganter und daher von vielen Physikern bevorzugter Kandidat für die Dunkle Energie. Es handelt sich dabei letztlich um die Energie von Quantenteilchen, die quasi aus dem Nichts entstehen und blitzschnell wieder zerfallen. Ihre Allgegenwart im Universum könnte letztlich für dessen beschleunigte Expansion verantwortlich sein.

Das Vakuum müsste dann eine negative Energie und negative Dichte haben. Anders als Masse kann Energie auch einen negativen Druck ausüben, der statt zu einer anziehenden zu einer abstoßenden Kraft wird. (Auch elastische Gegenstände – z. B. ein Gummituch – haben einen negativen, d. h. nach innen gerichteten Druck. ) Zumindest hypothetisch könnte damit der leere Raum das Universum auseinandertreiben. Allerdings verhält sich die Vakuumenergie gar nicht wie eine Konstante! Als unser Universum in seiner Frühphase während der Expansion abkühlte, veränderten sich auch die Felder und Quantenfelder, die es erfüllten: Sie machten einen Phasenübergang durch (ähnlich wie gefrierendes Wasser oder kondensierender Dampf) und damit auch die mit ihnen verbundene Vakuumenergie.

Hinzu kommt ein weiteres Problem: Die Dunkle Energie ist eine Substanz, die noch nie direkt gemessen wurde. Die Standardtheorie der Elementarteilchen kann zwar eine solche Energie erklären, liefert aber für ihre Größe einen um den Faktor 10120 zu hohen Wert im Vergleich zu den astronomischen Messwerten – ein eklatanter Widerspruch zwischen Theorie und Experiment. Es ist wohl die größte Unstimmigkeit in der gesamten Physik und lässt sich beim besten Willen nicht erklären. Zu diesem Problem gesellen sich weitere unbehaglich erscheinende Zufälle.

Daher stellt die Dunkle Energie eines der grundlegenden Probleme der modernen Physik dar, vielleicht sogar das wichtigste Problem. Möglicherweise ist aber hier auch etwas völlig unverstanden in der Physik. Obwohl die Dunkle Energie eine Säule des heutigen Standardmodells der Kosmologie darstellt, werden vermutlich neuartige physikalische Theorien nötig sein, um ihr Wesen zu deuten.

Alternativen

Es könnte sein, dass die Dunkle Energie gar nichts mit der Energie des Quantenvakuums zu tun hat. Sie könnte auch eine Täuschung wahrhaft kosmischen Ausmaßes sein. Theoretiker haben vielerlei Vorschläge gemacht, was denn sonst die Expansion beschleunigen könnte. Das Spektrum reicht von Energiefeldern (sogenannten Skalarfeldern), die man als eine bisher unbekannte Teilchenart deuten könnte, über höhere Raumdimensionen (ein Effekt der spekulativen Stringtheorie) bis zu gänzlich neuen Gravitationstheorien.

Manche Theoretiker machen Energiefelder verantwortlich, die Bruchteile von Sekunden nach dem Urknall entstanden sein könnten und den gesamten Kosmos erfüllen. Diese könnten jeden Punkt des Universums mit einer Eigenschaft versehen, die der anziehenden Gravitation entgegenwirkt. Paul M. Steinhardt, einer der Hauptverfechter dieser Hypothese, nennt diese neue Art von Energie augenzwinkernd „Quintessenz„, nach dem Namen, den Aristoteles in seiner Naturphilosophie vor über 2300 Jahren für den von ihm vermuteten alles durchdringenden Äther prägte, und den er für das feinste und wichtigste Element (neben Erde, Wasser, Luft und Feuer) hielt. Kurioserweise hat Einstein Lambda als den „neuen Äther der Relativitätstheorie“ bezeichnet.

Allerdings ist die Annahme der Theoretiker, dass das Minimum der potenziellen Energie des Feldes sehr niedrig liege und daher nur eine sehr kleine Menge Dunkler Energie über das Universum verteilt sei (was zu den Beobachtungen passen würde), im Rahmen der Theorie recht willkürlich. Außerdem darf die Dunkle Energie in diesen Modellen – abgesehen von ihrer abstoßenden Wirkung – mit allen anderen Bestandteilen des Universums nur sehr wenig wechselwirken, was ebenfalls schwer zu erklären ist.

Noch bizarrer ist die Idee, dass eine „Phantomenergie“ hinter der Dunklen Materie steckt. Sie hat die katastrophale Eigenschaft, dass sie den Weltraum künftig regelrecht zerreißt, da die Ausdehnungsrate mit der Zeit unendlich werden würde. Auch eine Doppelwirkung von Quintessenz und Phantomenergie halten manche Theoretiker für denkbar.

Eine andere Theorie beschreibt die Dunkle Energie durch das CGC-Modell (CGC = „generalisiertes Chaplygin-Gas“), dessen grundlegende Gleichung auf den russischen Physiker und Mathematiker Sergej Chaplygin zurückgeht. Das Modell kommt ohne die Annahme von unbekannten Feldern aus und stimmt mit den Messdaten überein. Damit ließe sich sogar die Dunkle Materie mit der Dunklen Energie vereinigen. Das Universum könnte danach einst von Dunkler Materie beherrscht gewesen sein und später von Dunkler Energie.

Überzeugend sind diese Vorschläge aber nicht. Alle Ideen über das Wesen der Dunklen Energie bleiben pure Spekulation. Ob es sich bei ihr tatsächlich um eine Energieform handelt, bleibt trotz ihres suggestiven Namens unklar. Vielleicht ist die Dunkle Energie ein Artefakt der in der Kosmologie üblichen mathematischen Näherungen und sie existiert in Wirklichkeit gar nicht. Auch gänzlich andere Phänomene könnten das „kosmische Energiebudget“ verändern und eine beschleunigte Expansion vortäuschen.

Die wohl radikalste Idee besagt, dass wir von einem falschen physikalischen Verständnis von Gravitation ausgehen. Die Allgemeine Relativitätstheorie müsse modifiziert werden, weil sie noch keine ganz korrekte Beschreibung der Schwerkraft liefert oder unvollständig ist. Zwar hat sie sich auf kleineren Skalen stets als korrekt erwiesen, aber über weite kosmische Distanzen hinweg ist ihre Gültigkeit streng genommen nur eine unüberprüfte, wenn auch plausible Vermutung. Auf den extremen Skalen, die wir inzwischen beobachten, könnte die Anziehungskraft unter Massen anders funktionieren, als wir heute denken. Wir können daher nicht ausschließen, dass die Messdaten, aus denen wir auf die Existenz Dunkler Energie schließen, letztlich nur ein Artefakt aus der Verwendung eines noch nicht endgültigen Gravitationsgesetzes sind, das uns in die Irre führt.

[Der indische Physiker Thanu Padmanabhan erklärt die Schwerkraft gleichsam thermodynamisch, sie ist für ihn eine abgeleitete Größe wie die Temperatur. (Auch aus der Perspektive der Stringtheorie wird dafür plädiert, dass die Gravitation ein emergentes Phänomen sei. ) Befindet sich ein System im Gleichgewicht, ist seine Entropie (eine thermodynamische Zustandsgröße) maximal. Analoges gelte für gravitative Systeme. Eine Raumzeit erfüllt Einsteins Gleichungen, weil die „Atome der Raumzeit“ die Entropie maximieren – so wie ein Gas den Gasgesetzen gehorcht, weil seine Atome die Entropie maximieren. Padmanabhan ist überzeugt: Weil man die Atome der Raumzeit noch nicht identifiziert und mit einer neuen Quantentheorie beschrieben hat, waren die jahrzehntelangen Versuche, die Schwerkraft zu quantifizieren, von vornherein zum Scheitern verurteilt. Im Rahmen von Padmanabhans Ansatz lässt sich auch die Dunkle Energie erklären. Wenn seine Ideen richtig sind, ergibt sich eine kleine Kosmologische Konstante fast zwingend als ein Relikt der Quantengravitation.]

Obwohl es nach dem Kosmologischen Prinzip undenkbar erscheint, dass wir einen besonderen Ort im Universum bewohnen, ziehen einige Physiker diese Idee seit Kurzem in Betracht. Fällt das Kosmologische Prinzip, löst das einen Domino-Effekt aus – mit unabsehbaren Folgen, zuerst für die Dunkle Energie. Wenn die Materieverteilung nämlich ungleichmäßiger wäre, als bislang gedacht, würde die kosmische Expansionsrate je nach Ort variieren. Es sei demnach durchaus möglich, dass sich der Galaxienhaufen, zu dem die Milchstraße gehört, in einer gewaltigen Region mit unterdurchschnittlicher Materiedichte befindet. Dann wäre das Standardmodell womöglich unhaltbar und die ominöse Dunkle Energie vielleicht nur eine Illusion.

Eine Gruppe von Forschern um Edward M. Kolb und Antonio Riotto nehmen sogar an, dass das gesamte beobachtbare Universum eine unterdurchschnittliche Dichte hat – geringer als seine für uns aufgrund der endlichen Lichtgeschwindigkeit und Beobachtungszeit nicht einsehbare weitere Umgebung. Diese würde gleichsam einen „Sog“ auf die unterdichte Blase des beobachtbaren Universums ausüben – und somit in ihr eine beschleunigte Expansion bewirken. Dass sich solche weiträumigen Dichteunterschiede im gesamten, womöglich unendlich großen All ausbilden konnten, wird als Konsequenz der kosmischen Inflation gedeutet. Den Kosmologen bleibt allerdings die schwierige Aufgabe, herauszufinden, ob die Rückwirkung tatsächlich ein vollwertiger Ersatz für die rätselhafte Dunkle Energie ist.

Die meisten Forscher bezweifeln aber die Annahme, wir würden nicht in einem typischen Teil des Universums leben. Selbst führende Theoretiker betrachten die unterschiedlichen Theorien, die eine Änderung vorhersagen, als Versuche, die überraschende Entdeckung der Dunklen Energie ad hoc zu erklären, ohne dass die Physik dazu wirklich verstanden wäre. Auch sprechen neue Röntgendaten gegen eine alternative Erklärung der beschleunigten Expansion, derzufolge die Allgemeine Relativitätstheorie über große Räume und Zeiten nicht gelte.

Fazit

Für keinen der Einwände gegen die Dunkle Energie gibt es also derzeit eine gute Begründung. Es haben sich zwar interessante Ansätze ergeben, aber sie alle kranken daran, dass keine zur Gesamtheit der verschiedenen Messdaten passt. Im Moment räumen Kosmologen daher dem Konzept der Dunklen Energie deutlich bessere Erfolgschancen ein als anderen Ideen. Nach bisheriger Datenlage ist die Kosmologische Konstante die einfachste und wahrscheinlichste Erklärung für die Dunkle Energie, sehr gut vereinbar mit den bisherigen Messdaten. Sie stellt wohl tatsächlich den Löwenanteil der Gesamtenergie des heutigen Universums und bewirkt die beschleunigte Expansion. Es bleibt aber das Unbehagen über die genannten „Zufälle“, etwa über die von ihre beigesteuerte Energiedichte. Und es bleibt ein Rätsel, warum diese Dunkle Energie überhaupt vorhanden ist und warum sie gerade jetzt die kosmische Expansion bestimmt.

Ist die Dunkle Energie also eine wissenschaftliche Sackgasse oder ein Höhepunkt der gegenwärtigen Erkenntnis? Die endgültige Beantwortung dieser Frage hat weitreichende Folgen für die Kosmologie und eine ausschlaggebende Bedeutung für zukünftige Theorien, mit denen man die Naturkräfte in einheitlicher Weise beschreiben will. Und erst wenn wir das geheimnisvolle Wesen der Dunklen Energie enträtselt haben, sind Prognosen über unsere kosmische Zukunft realistisch möglich.

REM

Dunkle Materie

Das Standardmodell der Kosmologie beschreibt viele Eigenschaften unseres Universums sehr gut. Mindestens drei Parameter mussten aber eingeführt werden, um irritierende astronomische Daten zu erklären: die Dunkle Materie, die die Dynamik der Galaxien beherrscht, eine Dunkle Energie, die die anscheinend beschleunigte Ausdehnung des Weltraums antreibt, und ein hypothetisches Feld namens Inflaton, das unser Weltall im ersten Sekundenbruchteil nach dem Urknall durch die sogenannte Inflation überhaupt erst groß gemacht hat. Diese liefert auch eine Erklärung für die fast perfekte Homogenität des Universums.

Dunkle Materie, Dunkle Energie und Inflation können zwar mit ihren Eigenschaften in den Rahmen der Allgemeinen Relativitätstheorie eingebaut werden, wobei auch eine Erweiterung der Elementarteilchenphysik oder eine Modifikation der Gravitationstheorie hilft. Aber die eingeführten Größen könnten auch dafür sprechen, dass irgendeine an sich gut etablierte Grundannahme falsch oder das Kosmologische Prinzip ein Irrweg ist. Vielleicht brauchen wir eine ganz neue Physik mit bisher unbekannten Effekten und Gesetzen. Wir könnten ein kosmologisches Modell entwickeln, das ganz ohne Dunkle Materie, Dunkle Energie und Inflation auskommt und ihre Wirkungen lediglich auf Effekte einer abgewandelten Gravitationstheorie zurückführt. Die Mehrheit der Wissenschaftler ist allerdings zurzeit, trotz durchaus gewichtiger Argumente, nicht dieser Meinung.

  1. Dunkle Materie

Bereits vor knapp 90 Jahren hat der Schweizer Astronom Fritz Zwicky festgestellt, dass die circa tausend Galaxien im 300 Millionen Lichtjahre entfernten Coma-Haufen schneller um ihr gemeinsames Schwerkraftzentrum schwirren, als es gemäß der Masse der leuchtenden Materie von Gas und Sternen eigentlich möglich ist. Bei vielen anderen Galaxienhaufen wurde seither Ähnliches festgestellt. Auch die Außenbezirke einzelner Spiralgalaxien rotieren rascher, als es die Gesetze der Schwerkraft erlauben, nämlich fast genauso schnell wie Regionen nahe am Zentrum. Eigentlich müssten sie je weiter vom Gravitationszentrum entfernt umso langsamer sein. Auch unser Sonnensystem bewegt es sich zu schnell um das Zentrum der Milchstraße herum, nämlich mit einer Geschwindigkeit von 220 km/s, denn die Masse aller bekannten Materie reicht nicht aus, um es auf seiner Umlaufbahn zu halten.

Diese Beobachtungen liefern Hinweise auf die Existenz einer unbekannten Materie, die weder elektromagnetische Strahlung emittiert noch absorbiert und nur durch ihre Gravitation für uns wahrnehmbar ist. Ohne diese „Dunkle Materie“ lassen sich also die eindeutig beobachteten Sternbewegungen oder das dynamische Verhalten der Sternsysteme nicht erklären. Ohne sie müssten Galaxien und Galaxienhaufen auseinander fliegen. Sie könnte auch die Ursache für die Materieverteilung sein, die sich ergibt, wenn zwei Haufen miteinander kollidieren.

Nach Computersimulationen durchziehen Dunkle-Materie-Filamente mit vielen Millionen Lichtjahren Länge das gigantische Spinnennetz der gewöhnlichen Materie im Universum. An den Kreuzungspunkten der Filamente, wo wir große Massenanhäufungen in Form von Galaxienhaufen erblicken, soll sich auch eine große Ansammlung von Dunkler Materie befinden. Die Wissenschaftler haben berechnet, dass bis zu circa sechs Mal mehr Dunkle Materie als sichtbare helle Materie die einzelnen Galaxienhaufen und Galaxien durchsetzt und durch ihren gravitativen Einfluss zusammenhält. Sie ist sozusagen der unsichtbare Kitt unseres Universums.

Auch die leuchtende Scheibe der Milchstraße schwebt offenbar nicht isoliert im Raum, sondern scheint in einen riesigen Halo Dunkler Materie – viel größer als die Milchstraße selbst – eingebettet zu sein: mit einem Durchmesser von mindestens 600 000 Lichtjahren (vielleicht sogar zwei Millionen Lichtjahren). Er hält nach den Modellrechnungen ihre Spiralstruktur aufrecht. Nur mit der Annahme, dass hier diese große anziehende Masse existiert, lässt sich auch ihre Dynamik (z. B. die Rotationsgeschwindigkeit) erklären. Das ursprüngliche Wegdriften der Andromeda-Galaxie (unserer benachbarten Spiralgalaxie) könnte nicht in die heute beobachtete Annäherung an die Milchstraße übergegangen sein, wenn nicht auch beide Galaxien große Mengen von dieser rätselhaften Materie enthalten würden.

Nach den Berechnungen durchdringt Dunkle Materie also das gesamte Weltall und ist überall dort, wo sich auch die normale aus Atomen bestehende Materie befindet. Aber man kann ihre Existenz nicht beweisen; sie ist bisher nur über ihre Massenanziehung erschließbar. Jedoch hat man inzwischen außer deutlichen indirekten Anzeichen auch handfeste Hinweise auf sie gefunden. Die spektakulärsten scheinen Gravitationslinsen zu liefern, die in den meisten großen Galaxienhaufen beobachtet werden. Bei diesem Phänomen beugt ein Gravitationsfeld das von einem noch weiter entfernten Hintergrundobjekt ausgehende Licht, so das Zerrbilder entstehen. Die Gravitationslinsen scheinen in den meisten Fällen Ansammlungen Dunkler Materie zu sein. Ein anderer Hinweis auf Dunkle Materie war die Beobachtung eines winzigen Sterns, der sich langsam aufhellte und dann – im Laufe von 100 Tagen – wieder verdunkelte. Dieses einmalige Aufflackern ist eigentlich nur damit zu erklären, dass Dunkle Materie vor dem Stern hergezogen ist und dessen Licht gebündelt hat.

Entstehung der Dunklen Materie

Die Dunkle Materie sollte – wenn es sie denn gibt – ebenso wir die gewöhnliche Materie kurz nach dem Urknall entstanden sein. Während in der heißen und dichten Frühphase des Universums die Materieteilchen immer wieder erzeugt und durch hochenergetische Kollisionen wieder vernichtet wurden, reichte bei dessen fortschreitender Ausdehnung und Abkühlung rund 10 Nanosekunden (10 Milliardstel Sekunden / 10-10 s) nach dem Urknall die Energie zur Erzeugung neuer Dunkle-Materie-Teilchen nicht mehr aus. Die geringer werdende Teilchendichte verhinderte die Häufigkeit von Zusammenstößen und damit die gegenseitige Vernichtung der existierenden Teilchen, bis die Kollisionen ganz aufhörten. Gleichzeitig müssten sich die Dunkle-Materie-Teilchen vom Rest der Materie „entkoppelt“ haben, also praktisch nicht mehr mit ihr reagiert haben. Fortan blieb ihre Anzahl im Universum konstant. Seitdem sausen die Teilchen der Dunklen Materie, ähnlich den allerdings fast masselosen Neutrinos, scharenweise durchs All.

Zunächst gleichförmig im Weltraum verteilt, ballten sie sich schon sehr bald zu vielen kleinen Dunkle-Materie-Halos zusammen, von denen etliche miteinander kollidierten und zu größeren Halos verschmolzen. Meistens verleibten sie sich dann in einer Art „Dunkle-Halo-Kannibalismus“ Zwerghalos ein und wuchsen so zu stattlicher Größe heran. Die Dunkle-Materie-Halos zogen dann dank ihrer Schwerkraftwirkung auch gewöhnliche Materie an, so dass sich Galaxien wie unsere Milchstraße bilden konnten. Ohne die Dunkle Materie hätte das Universum nicht genug Zeit gehabt, aus den Dichteunterschieden des frühen Universums bis heute die Sterne, Galaxien, Galaxienhaufen und -superhaufen zu formen und ihre Entwicklung zu prägen.

[In den Simulationen wuchsen die Strukturen aus Dunkler Materie aber zu schnell heran, als es astronomische Beobachtungen nahelegen. Daher brachte das Standardmodell noch die sog. Dunkle Energie ins Spiel. Diese verlangsamt das Heranwachsen der Dunkle-Materie-Strukturen, so dass die errechnete Materieverteilung nun mit den Beobachtungen im Einklang steht.]

Die Dunkle Materie soll heute die Galaxien als kugelförmige, nichtleuchtende Partikelwolke einhüllen und sie zusammenhalten, ohne die „normale“ Materie zu stören. Ihre Teilchen verteilen sich allerdings auf kleinen Skalen keineswegs homogen, sondern können Ströme und Klumpen bilden. Deren Schwerkraft kann so zur Bildung von Zwerggalaxien führen, wenn genügend normale Materie in der Nähe ist. Zwerggalaxien besitzen zwar nur wenige zehntausend bis hunderttausend Sterne – in ihnen sollen aber viele Dutzend Millionen Sonnenmassen an unsichtbarer Materie stecken. Ohne Dunkle Materie könnten Zwerggalaxien wahrscheinlich gar nicht existieren.

Abhängig von den Jahreszeiten durchfluten ständig viele Dunkle-Materie-Teilchen auch unseren Heimatplaneten. Dabei sollen große Mengen von ihnen auch unsere Körper durchdringen, ohne dass wir sie sehen oder spüren. In jedem Liter Luft, den wir atmen, könnten einige Dutzend dieser Teilchen vorhanden sein, wie auch in jedem Liter „leeren Raums“ im ganzen Universum.

Was ist Dunkle Materie?

So erdrückend die Indizien für die Dunkle Materie inzwischen auch sind – bis heute ist ungeklärt, welcher Art diese Materie ist und welche detaillierten Eigenschaften sie besitzt. Es gibt schon interessante Ansätze zur Lösung, aber noch keine akzeptierte Hypothese. Prinzipiell unterscheidet man zwei Möglichkeiten: Dunkle Materie ist von einer „anderen Art„, d. h. einer Form, die sich von der aus Protonen, Neutronen und Elektronen bestehenden „normalen“ Materie (baryonische Materie), aus der auch jedes Atom auf der Erde gebildet wird, stark unterscheidet – oder sie setzt sich aus Brocken gewöhnlicher Materie zusammen, die nicht leuchtet und deshalb unsichtbar ist.

Für den möglichen baryonischen Anteil der Dunklen Materie gibt es aussichtsreiche Kandidaten: Kleine oder große kalte Brocken (z. B. Asteroiden), Planeten, Braune, Rote und Schwarze Zwerge oder ausgekühlte Weiße Zwerge. Sie können aber unmöglich den Hauptbestandteil der Dunklen Materie bilden. Ein anderer Vorschlag ist die sogenannte heiße Dunkle Materie (HDM), für die als plausibelste Kandidaten Neutrinos in Frage kommen. Diese sind die mit Abstand häufigsten Teilchen im Universum (in jedem Kubikmeter soll es über 300 Millionen geben) und haben einige der für die Teilchen der Dunklen Materie gewünschte Eigenschaften. Aber die heiße Dunkle Materie würde höchstens zwei Prozent zu der Gesamtmasse des Universums beitragen – und wegen ihrer Schnelligkeit könnte sie nicht genügend kleinskalige Verklumpungen bilden, wo die Galaxien entstanden.

Am besten passt die sogenannte kalte Dunkle Materie (KDM) zu den astronomischen Beobachtungen. „Kalt“ bedeutet, dass sich ihre Teilchen mit Geschwindigkeiten bewegen, die im Vergleich mit der Lichtgeschwindigkeit klein sind. Kalte Materie kann sich leichter verdichten als warme oder gar heiße. Zwar schafft die KDM ihre eigenen Probleme bei der Erklärung kosmischer Strukturen. Dennoch halten die meisten Kosmologen diese Nachteile für gering gegenüber den Schwierigkeiten alternativer Hypothesen.

Die Teilchen der KDM müssen eine verhältnismäßig große Ruhemasse besitzen und dürfen kaum (außer durch Gravitation) mit gewöhnlicher Materie wechselwirken. Sie machen, wenn es sie denn gibt, nach den Berechnungen im Rahmen des Kosmologischen Standardmodells fast ein Drittel der Gesamtdichte des Universums aus. Das gegenwärtige Standardmodell der Elementarteilchen bietet aber keine Partikel an, die dafür in Betracht kommen, doch Erweiterungen des Modells liefern eine ganze Schar plausibler Kandidaten, sogenannte hypothetische bzw. exotische Teilchen. Dazu gehören die WIMPs („weakly interacting massive particles“ = schwach wechselwirkende Teilchen mit Masse). Theorien sagen eine WIMP-Masse irgendwo zwischen dem 10- und 1000-fachen der Protonenmasse voraus, nach normalem Maßstab also schwere und stabile Teilchen. Innerhalb der Genauigkeit der Schätzungen entspricht die Masse der aus der Frühzeit des Universums übriggebliebenen WIMPs erstaunlicherweise genau jener, die zur Erklärung der heutigen kosmischen Dunklen Materie nötig ist. Diese bemerkenswerte Übereinstimmung bezeichnen Physiker als WIMPs-Koinzidenz.

WIMPs kommen in vielen supersymmetrischen Erweiterungen des Standardmodells der Elementarteilchen vor. Die „Supersymmetrie“ (kurz SUSY) ist eine extrem elegante und schlüssige Erweiterung des bisherigen Weltmodells. Die vielen Varianten setzen eine fundamentale, bisher allerdings hypothetische Symmetrie in der Natur voraus. Sie liefern zu jedem bekannten Teilchen einen supersymmetrischen Partner, postulieren also eine komplett neue Teilchenfamilie. Die Supersymmetrie entzieht sich aber gegenwärtig ihrer Bestätigung.

Als nahezu idealer Kandidat für die Dunkle Materie gilt unter den supersymmetrischen Teilchen das leichteste der vier sogenannten Neutralinos. Es ist eine hypothetische Mischung aus den Superpartnern des Photons (das die elektromagnetische Kraft überträgt), des Z-Bosons (Träger der Schwachen Kernkraft) und vielleicht noch anderer Teilchentypen. Das Neutralino ist stabil und nach normalen Maßstäben schwer, zudem elektrisch neutral, und verfügt über die „richtigen“ Wechselwirkungen.

Inzwischen gibt es sehr gute Gründe dafür, dass als Bausteine der Dunklen Materie auch sehr leichte, sehr schwach wechselwirkende Teilchen in Frage kommen: sogenannte WISPs („weakly interacting slim particles“ = schwach wechselwirkende leichte Teilchen). In ihrer Abneigung, mit gewöhnlicher Materie zu wechselwirken, übertreffen sie die WIMPs sogar noch bei Weitem. Auch einige astrophysikalische Beobachtungen deuten auf die Existenz von WISPs hin.

Das vielleicht am besten verstandene WISP und der wahrscheinlichste und am wenigsten exotische Kandidat für die Dunkle Materie ist das Axion, ein sehr leichtes, neutrales Teilchen. Es wurde von Theoretikern Ende der 1970er Jahre postuliert, um eine Anomalie bei der Beschreibung der Starken Kernkraft zu beheben. (Auch viele stringtheoretische Ansätze legen die Existenz einer ganzen Reihe leichter Teilchen nahe, von denen manche dem Axion ähneln.) Da Axionen sehr leicht sind, müsste es sehr viel von ihnen geben, um die Gesamtmasse an Dunkler Materie im Universum zu erzeugen. In jedem Kubikzentimeter um uns herum müssten sich dutzende und sogar hunderte Billionen Axionen befinden, was durchaus als plausibel gilt.

Das supersymmetrische Konzept lässt auch andere Szenarien zu, in denen mehrere andere Teilchentypen an die Stelle der WIMPs treten. Einige Wissenschaftler vermuten einen wahren Zoo von Teilchen (Super-WIMPs), zwischen denen neuartige Naturkräfte herrschen. Demnach sollte die Dunkle Materie eine eigene Welt sein, ähnlich komplex wie die gewöhnliche Materie – mit vielen Teilchen, eigenen Kräften und einer fremden Form von Licht -, die für uns unsichtbar ist, aber die mit unserem Kosmos über die Schwerkraft wechselwirkt.

Bisher sind Dunkele-Materie-Teilchen, ob WIMPs oder WISPs, noch in keinem Experiment aufgetaucht. Außerdem gibt es eine Reihe von Unstimmigkeiten: So lässt sich Dunkle Materie mit einigen astrophysikalischen Daten nicht vereinbaren. Daher haben einige Physiker den Verdacht, dass sich die Wissenschaft hier in einer Sackgasse befindet und nach Alternativen zur Dunklen Materie suchen sollte. Dazu müsste aber eine Abweichung von den Standardgesetzen hingenommen werden, z. B. ein anderes Verständnis der Gravitation in Galaxien, d. h. eine Neuformulierung der Gravitationsgesetze. Das quadratische Abstandsgesetz (z. B. die Schallausbreitung oder die Abnahme der Strahlungsintensität im Raum) ist zwar in weiten Bereichen hervorragend bestätigt. Aber es lässt sich bislang nicht ausschließen, dass die Schwerkraft doch nicht überall linear proportional zur Beschleunigung ist, wie es Newton postuliert hat. In Galaxien könnte die sichtbare, baryonische Materie leicht stärkere Kräfte verursachen.

Immerhin haben sich ja schon zwei drastische Änderungen der Newtonschen Physik als notwendig erwiesen: Die erste führte zur Relativitätstheorie – sowohl zur Speziellen, die das Zweite Newtonsche Gesetz abändert, als auch zur Allgemeinen, die das Gravitationsgesetz völlig neu formuliert. Eine zweite Modifikation führte zur Quantentheorie, die das Verhalten mikroskopischer – in Spezialfällen auch makroskopischer – Systeme beschreibt. Diese bewährten Erweiterungen der Newtonschen Dynamik wirken sich in der Regel nur unter extremen Bedingungen merklich aus: die Spezielle Relativitätstheorie z. B. bei sehr hohen Geschwindigkeiten, die Allgemeine Relativitätstheorie bei extrem starker Gravitation. Möglicherweise versagt die Newtonsche Mechanik auch für die Größenordnung galaktischer Systeme.

Aus wissenschaftlichen Gründen spricht viel dafür, dass eine solche Alternative konzeptionell sogar einfacher ist als die Dunkle-Materie-Hypothese – und auch das Standardmodell der Elementarteilchen nicht ergänzt werden müsste. Eine allgemein akzeptierte, konkrete Formulierung einer solchen modifizierten Gravitation gibt es bis heute allerdings noch nicht. Momentan befinden sich einige Alternativen im Wettstreit.

Alternativen

Am bekanntesten ist wohl die MOND (Modifizierte Newtonsche Dynamik), erstmals Anfang der 1980er Jahren von dem israelischen Physiker Mordehai Milgrom formuliert (1983 publiziert). Sie basiert auf einer weiteren Modifikation des Zweiten Newtonschen Gesetzes, demzufolge die auf einen Körper wirkende Kraft proportional zu dessen Beschleunigung ist. MOND sagt im Kern, dass die Anziehungskraft zwischen zwei Körpern nicht mit dem Abstand im Quadrat abnimmt, sondern bei extrem kleinen Beschleunigungen sogar verstärkt wird – ein Effekt, der nur in galaktischen Größenordnungen eine gewisse, aber eben entscheidende Rolle spielt. Solche Abweichungen treten, Milgrom zufolge, z. B. bei Beschleunigungen auf, wie sie in den entferntesten Regionen von Galaxien herrschen, wo der Schwereeinfluss gering ist.

Durch MOND wird eine neue Naturkonstante namens a0 eingeführt, die die Dimension einer Beschleunigung hat. Ist die jeweilige Beschleunigung wesentlich größer als a0, dann gilt Newtons Gesetz wie gehabt: Die Kraft ist proportional zur Beschleunigung. Wird die Beschleunigung jedoch klein gegen a0, verändert sich das Gesetz. Dadurch ist die für eine bestimmet Beschleunigung benötigte Kraft stets kleiner als gemäß der Newtonschen Dynamik. Im Falle der beobachteten Beschleunigungen in Galaxien sagt MOND eine kleinere Kraft – und somit eine geringere gravitationserzeugende Masse – voraus.

Indem Milgrom die Formeln des Zweiten Newtonschen Gesetzes für solche Fälle modifizierte, konnte er die beobachtete Dynamik der Galaxien perfekt beschreiben (sogar besser als mit Dunkler Materie). Im Gegensatz zu Simulationen mit der unbekannten Materie kann MOND auch erklären, wie sich kleine Galaxien im Schwerefeld größerer Galaxien verhalten. So sagen die Berechnungen erfolgreich vorher, wie diverse jüngst entdeckte Zwerggalaxien um unseren nächsten großen Nachbarn, die Andromeda-Galaxie, wirbeln.

Den hervorragenden Bestätigungen der einsteinschen Allgemeinen Relativitätstheorie widerspricht dies nicht, denn die entsprechenden Experimente zu jener fanden stets auf kleinen Skalen statt. Die Gravitationsgesetze erklären daher perfekt alle Phänomene, die sich auf Größenordnungen von Millimetern bis zu den Bahnen der Planeten abspielen, müssen aber nicht notwendigerweise auch auf der Ebene von Galaxien gelten. Warum es zu dieser Abweichung vom Newtonschen Gesetz kommt, kann das Modell Milgroms allerdings nicht erklären.

Häufige Einwände gegen MOND-Theorien ist auch ihre heutige Vielfalt und ihre uneleganten mathematischen Formen, die ungewohnt und schwierig zu handhaben sind. Und trotz mancher Erfolge bereitet die modifizierte Gravitation bei anderen Vorhersagen auch ernsthafte Probleme. So kann sie beispielsweise die Bewegung von Galaxienhaufen nicht vorhersagen. Um das Verhalten des Weltraums als Ganzes nachzuvollziehen, ist sie sogar völlig ungeeignet. Hier funktioniert die Dunkle Materie besser.

Eine andere Alternative, die Modified Gravity (MOG) des kanadischen Physikers John Moffat, basiert darauf, im Fall schwacher Felder eine weitere Kraft zur Gravitation zu addieren. Erik Verlinde erklärt dagegen die Schwerkraft zu einem Produkt quantenmechanischer Wechselwirkungen, wäre also ein emergentes Phänomen und ginge auf großen Skalen aus dem Zusammenspiel kleinster Elemente hervor.

Neuerdings wird auch über eine andere Erklärung für die unsichtbare und rätselhafte Dunkle Materie spekuliert: primordiale Schwarze Löcher. Sie sind eine besonders leichte Form der Schwarzen Löcher, die nach manchen theoretischen Modellen in riesigen Mengen aus dem heißen und dichten Plasma hervorgegangen sein könnte, das kaum eine Sekunde nach dem Urknall den Kosmos erfüllte. Wenn es primordiale Schwarze Löcher denn wirklich gibt, wären es an sich ideale Kandidaten, da sie kein Licht aussenden. Ihre massereichen Vertreter würden auf einen Schlag nicht nur das Rätsel der Dunklen Materie, sondern auch weitere kosmologische Probleme lösen. Sie könnten vor allem auch das sogenannte Rätsel um die fehlenden Begleiter aufklären: den scheinbaren Mangel an Zwerggalaxien, die sich um massereiche Galaxien wie unsere Milchstraße gebildet haben müssten.

Computersimulationen sagen die Existenz einer großen Zahl an Zwerggalaxien in Galaxiengruppen voraus, doch Astronomen fanden bisher nur wenige Dutzend von ihnen. Nach kosmologischen Simulationsrechnungen könnten es z. B. tausende Zwerggalaxien in der Lokalen Gruppe geben, allein rund 500, die die Milchstraße umkreisen. Falls die Dunkle Materie tatsächlich aus primordialen Schwarzen Löchern besteht, die wenige Dutzend bis Hundert Lichtjahre große Ansammlungen bilden, hätten diese das meiste Gas in ihrer Umgebung verschlungen, so dass sich hier kaum mehr Sterne bilden konnten. Die Zwerggalaxien würden dann gar nicht fehlen, sondern wären häufig vorhanden – aber mangels Sternen sehr lichtschwach und damit schlicht unsichtbar.

Für das Szenario sprechen viele Beobachtungen der letzten Zeit. So lässt sich die Entdeckung unerwartet häufiger Röntgenquellen im frühen Universum am einfachsten durch große Mengen primordialer Schwarzer Löcher erklären, die knapp eine Milliarde Lichtjahre nach dem Urknall Gas verschlangen und dabei Röntgenstrahlen aussandten. Und gerade die jüngsten Messungen von Gravitationswellen lassen es möglich oder sogar plausibel erscheinen, dass primordiale Schwarze Löcher zu den Quellen der Signale gehören. Aber es existiert eben noch kein einziger definitiver Hinweis auf ihre Existenz und wie sie entstanden ist.

Mit der Aufdeckung des Geheimnisses der Dunklen Materie würden unsere Vorstellungen über unser Universum noch einmal stark verändert werden. Sollte es keine Teilchen der Dunklen Materie gibt, wäre das aber auch eine große Niederlage für die Physik.

REM

Bedeutung des Mondes

Der Mond ist das nach der Sonne hellste Objekt am Himmel, das mit seinen einzigartigen Helligkeits- und Phasenwechseln die Menschen seit Urzeiten in seinen Bann zieht. In alten Kulturen wurde der Erdbegleiter als Gott oder Göttin verehrt, oft als Gegenpol zur Sonne. So war der wichtigste Gott der Sumerer, Sin, der Vater aller Götter und Schutzgott der Stadt Ur (im heutigen Irak), eine Verkörperung des Mondes.

Stonehenge wurde so gebaut, dass damit die speziellen Positionen des Mondes vorhersagbar und bestimmbar waren. Auch in unseren Ritualen und kulturellen Zeremonien hat der Mond seinen Platz gefunden. Die Chinesen feiern seit altersher ein Mondfest. In ihrer Kultur steht der Mond für Frieden und Wohlstand, seine Rundung symbolisiert Ganzheit und Zusammengehörigkeit. Der islamische Kalender ist ein reiner Mondkalender, und das Ostern der Christen wird am Sonntag nach dem ersten Vollmond im Frühling gefeiert.

Für einen Trabanten ist die Masse unseres Mondes relativ groß; sie beträgt gut ein Prozent der Masse der Erde. Alle anderen Monde in unserem Sonnensystem (mit Ausnahme des Plutobegleiters Charon) besitzen weniger als 0,025% der Masse ihres Planeten. Weil der Mond einen merklichen Bruchteil der Erdmasse besitzt, macht es mehr Sinn, sich vorzustellen, dass die beiden Himmelskörper um einen gemeinsamen Schwerpunkt kreisen, der allerdings noch im Inneren der Erde liegt. Das Doppelsystem Erde-Mond umkreist seinerseits die Sonne und wird durch deren Anziehungskraft auf seiner Bahn gehalten.

Der Durchmesser des Mondes misst 3476 Kilometer, rund ein Viertel der Größe der Erde. In einem Abstand von heute 386 000 Kilometern (rund dreißig Erddurchmessern) rast der Trabant mit einer Geschwindigkeit von knapp 30 000 km/h um unseren Planeten. Seine Fliehkraft ist gerade so groß, dass sie einen Sturz auf die Erde, aber auch ein Entweichen in den Weltraum, verhindert.

Die Bahn des Mondes um die Erde ist allerdings keine reine Kreisbahn, sondern schwankt aufgrund mehrerer Einflüsse (vor allem der Gravitation anderer Himmelkörper des Sonnensystems). So war unser Begleiter beispielsweise am 30. Juli 1996 nur 356 970 Kilometer von der Erde entfernt, 51 000 Kilometer weniger als am erdfernsten Punkt circa zwei Wochen vorher (407 970 Kilometer).

Entstehung des Doppelsystems Erde-Mond

In der Frühzeit unseres Sonnensystems, nach neuesten radiometrischen Berechnungen vor 4,527 Milliarden Jahren, wurde der Mond geboren. Als plausibelste Ursache für seine Entstehung gilt heute die Kollision der Erde mit einem anderen Planeten von etwa der Größe des Mars, den man Theia nennt (nach der griechischen Göttin, die den Mond Selene geboren hat). Zur damaligen Zeit trieb eine Unmenge von kleinen und größeren Himmelskörpern durch das Sonnensystem. Die junge Erde hatte durch frühere Kollisionen bereits 90% ihrer endgültigen Größe und Form erreicht und nach einer ersten Abkühlungsphase gerade wieder eine relativ einheitliche Kruste gebildet. Die Kollision mit Theia war äußerst brachial; nach dem derzeit gültigen Szenario rasten beide Planeten mit einer Geschwindigkeit von etwa 54 000 km/h aufeinander zu. Theia traf den Vorläufer der Erde in einem spitzen Winkel, also seitlich, wie bei einem Streifschuss. Bei einem frontalen Aufprall wäre die junge Erde wahrscheinlich völlig zerfetzt worden.

Beide Planeten waren zum Zeitpunkt des Zusammenpralls bereits weitgehend differenziert, d. h. die Bildung ihrer Kerne war schon fast abgeschlossen und die Eisenanteile der Himmelskörper hatten sich schon als Schmelze hier angesammelt. Fast der gesamte Eisenkern von Theia blieb in der Urerde stecken. Sein flüssiges Eisen sank durch das aufgeschmolzene irdische Mantelgestein in die Tiefe und vereinigte sich (vermutlich innerhalb von ein paar Stunden) mit dem irdischen Eisenkern, der unversehrt geblieben war. Daher hat der Mond weniger Eisen als irgendein anderer fester Körper des Sonnensystems.

Der Mantel Theias sowie ein Teil des Erdmantels, insgesamt riesige Mengen von Material (mehrere tausend Grad heiß), wurden aus dem Erdkörper herausgeschleudert. Ein höherer Anteil des Theia-Gesteins , darunter möglicherweise bis zu 10 Milliarden kilometergroße Bruchstücke, erreichte die Fluchtgeschwindigkeit und wurde ins Sonnensystem hinausgeschleudert, wo etliche Brocken später wahrscheinlich mit Körpern des Asteroidengürtels zusammenstießen. Das übrige Material sammelte sich, gehalten von der Erdanziehung, in einer Wolke um die Erde.

Das erklärt die verblüffende chemische Ähnlichkeit zwischen Mond und Erdmantel: Die Anteile der chemischen Elemente stimmen auf dem Mond bis auf wenige Ausnahmen mit denen auf der Erde überein. Bei den Isotopen des Sauerstoffs sind Erde und Mond sogar fast nicht zu unterscheiden. Wahrscheinlich dauerte es nicht lange, bis sich aus der Wolke von Schutt und Staub der Erdtrabant geformt hatte und zu einer Größe herangewachsen war, die ihn in einer dauerhaften Umlaufbahn um die Erde hielt.

[Genauere Untersuchungen von Gesteinsproben sowie verbesserte Computersimulationen scheinen allerdings nicht mehr so gut in dieses Modell von einem gigantischen Einschlag zu passen. Ein Schwachpunkt der Theorie ist auch, dass über Theia kaum etwas bekannt ist. Es ist eine Art freier Parameter, mit dem sich die Ergebnisse der Rechnungen an die Messwerte anpassen lassen. Inzwischen gibt es eine Menge weiterer Hypothesen über die Entstehung des Mondes: Der Mond könnte sich von der sehr schnell rotierenden Urerde durch eine Art „Pirouetten-Effekt“ abgeschnürt haben (Abspaltungshypothese), der Mond könnte sich gleichzeitig mit der Erde aus der um die Sonne kreisenden Urwolke gebildet haben (Doppelplanethypothese) oder der Mond könnte sich anderswo im Sonnensystem gebildet haben und von der Erde eingefangen worden sein (Einfanghypothese).]

Die Impakt-Theorie kann aber am besten Größe und Orbit des Mondes erklären. Für ihre Richtigkeit sprechen auch die auffälligen chemischen Ähnlichkeiten zwischen Mond- und Erdgestein, beispielsweise die fast identischen Isotopenverhältnisse des Sauerstoffs auf beiden Himmelskörpern. Die Theorie erklärt auch den Mangel an flüchtigen Elementen wie Natrium und Kalium, die schon bei relativ niedrigen Temperaturen verdampfen und bei der hitzigen Kollision wohl ins All entwichen sind.

Wirkung des Mondes

Gezeiten

Der Mond übt aufgrund seiner relativ großen Masse und seiner Nähe einen relativ großen gravitativen Einfluss auf die Erde aus (wie natürlich umgekehrt auch die Erde auf den Mond). Auf unserem Heimatplaneten zeigt sich dieser besonders in den Ozeanen. Während auf der dem Mond zugewandten Seite durch die Gravitation des Mondes ein Wasserberg entsteht, verursachen die Fliehkräfte infolge der Erdrotation auf der dem Mond abgewandten Seite gleichzeitig einen zweiten Wasserberg.

Da die Erde quasi unter den Flutbergen wegrotiert, hat es den Anschein, dass diese synchron zum Mond von Ost nach West über die Erde wandern. Im offenen Meer merkt man von den ungefähr eine halben Meter hohen Gezeitenebergen wegen fehlender Referenzpunkte kaum etwas. Wenn sie gegen das Festland anlaufen, erzeugen sie aber regelmäßig die bekannten Erscheinungen Ebbe und Flut. An trichterartigen Flussmündungen, Meerengen und ähnlichen Küstenformationen können die Wellenberge dabei hoch aufgetürmt werden, so dass die Unterschiede zwischen Hoch- und Niedrigwasser (der Tidenhub) groß sein können, an der Kanalküste zwischen England und Frankreich sogar bis zu 14 Meter. Ebenfalls ortsabhängig sind zeitliche Verschiebungen oder gar der kuriose Effekt, bei dem die Gezeiten einander so überlagern, dass sie sich gegenseitig auslöschen.

Zusätzlich zu der Schwerkraft des Mondes und der Fliehkräfte infolge der Erdrotation wirkt die Schwerkraft der Sonne auf das Wasser der Erde ein. Dabei beträgt das Kräfteverhältnis der Gravitation Sonne zu Mond 1 zu 2,7; ohne den Mond fielen die Gezeiten also um zwei Drittel schwächer aus. Stehen Sonne, Mond und Erde in einer Linie (bei Voll- und Neumond), verstärkt dies die Gezeiten, da sich die Einflüsse von Sonne und Mond addieren („Springflut„). Steht die Sonne im rechten Winkel (bei Halbmond), so schwächen die von der Sonne verursachten Ebbegürtel die Flutberge, da sich die Gezeitenkräfte von Sonne und Mond teilweise aufheben („Nippflut„).

Aber nicht nur das Meerwasser hebt und senkt sich infolge der Gravitation des Mondes zweimal täglich, sondern auch Kontinente und Meeresböden, mit etwa zwei Stunden Verzögerung auf das leichter verformbare Wasser. Dabei wirken sich die Gezeitenkräfte nicht unmittelbar auf die relativ starre Erdkruste aus, sondern vor allem auf das Magma darunter. Es kommt zu Hebungen und Senkungen des Erdmantels, die sich auf die Kruste übertragen. Davon, dass sich der Boden unter unseren Füßen um durchschnittlich 28 Zentimeter hebt und senkt, merken wir – zumindest bewusst – nichts, weil ganze Kontinente zugleich emporgehoben oder gesenkt werden.

In der Anfangszeit übte der Trabant einen noch viel stärkeren Einfluss auf die Erde aus. Sein Abstand betrug kurz nach seiner Entstehung nur schätzungsweise 60 000 bis 80 000 Kilometer. Seine dadurch stärkere Anziehungskraft muss den Boden um mehr als sieben Meter angehoben haben. Lokale Erdbeben rüttelten wahrscheinlich unseren Planeten gehörig durch, wenn der Mond vorbeizog. Da, wo es Wasser gab, türmten sich gewaltige Flutberge auf.

Unser Planet wird entlang der Verbindungslinie Erde-Mond in die Länge gezogen, da die dem Mond zugewandten Teile der Erde eine etwas größere Schwerebeschleunigung erfahren als die ihm abgewandten und so der frei fallende Erde ein wenig vorauseilen. Da die festen und flüssigen Bestandteile unseres Planeten der Deformation durch die Gezeiten Reibungswiderstand entgegensetzen, wird Wärmeenergie erzeugt. Nach Berechnungen von französischen Wissenschaftlern könnte sich durch die ständige Verformung des Erdkörpers infolge der Gravitationskräfte von Sonne und Mond im Erdinneren so viel Wärme entwickelt haben, dass dadurch die gigantischen Vulkanausbrüche, die im Laufe der Erdgeschichte auftraten, verursacht wurden.

Erdrotation

Die Erde rotiert wie ein Kreisel um eine Achse, deren Schnittpunkte mit der Erdoberfläche die geografischen Pole markieren. Diese Rotationsachse ist gegenüber der Ebene, in der die Erdbahn um die Sonne liegt (die Ekliptik-Ebene), gekippt – heute um einen Betrag von 23,4°. Die Neigung ist aber nicht stabil. Schon bei ihrer täglichen Umdrehung trudelt der Erdkreisel ein wenig hin und her. Gleichzeitig durchläuft er viel größere und langfristigere Schwankungen, die als Präzession bezeichnet werden. Dabei ändert er seine Ausrichtung zur Ekliptik kreisförmig in einem Rhythmus von knapp 26 000 Jahren. Ursache sind die Gezeitenkräfte der Sonne, des Mondes und der Planeten, durch die Drehmomente entstehen, deren Effekte zwar sehr gering sind, sich aber über lange Zeiträume bemerkbar machen.

Insgesamt übt der Mond aber eine stabilisierende Wirkung auf die Lage der irdischen Rotationsachse aus, indem er durch seine Gravitation für eine geringere Schwankungsbreite der Erdneigung sorgt. Damit hält er das irdische Klima und den Ablauf der Jahreszeiten relativ konstant, was gerade für die Evolution komplexer Lebensformen von großer Bedeutung war und für ihr Überleben wichtig ist.

Zudem bremst der Mond auch die Geschwindigkeit, mit der die Erde um ihre Achse rotiert (derzeit 460 m/s), da die festen und flüssigen Bestandteile der Erde der Deformation durch die Gezeiten kontinuierlich Reibungswiderstand entgegensetzen (s. o.). Ohne Mond würde die Erde heute fünfmal, vielleicht sogar neun- bis zehnmal so schnell rotieren. Das Wetter wäre ganz anders; es käme z. B. zu andauernden starken Stürmen mit Windgeschwindigkeiten von bis zu 500 Stundenkilometern. Die Pflanzen müssten unter diesen Bedingungen niedriger wachsen und könnten so das überschüssige Kohlenstoffdioxid nur langsamer abbauen, was zu einem Treibhauseffekt ähnlich wie auf der Venus führen würde.

Da durch den Einfluss des Mondes die Erdrotation im Laufe der Zeit also immer mehr gebremst wird, werden die Tage auf unserem Planeten zwangsläufig länger. Nach Sedimentanalysen des Geologen George Williams dauerte der Tag vor 2,5 Milliarden Jahren ungefähr 20 Stunden, in der Kreidezeit (vor rund 145 bis 66 Millionen Jahren) etwa 23 1/2 Stunden. Im Mittel werden die Tage pro Jahrhundert um 1,7 Millisekunden länger. In 1,8 Milliarden Jahren wird ein Erdentag 35 Stunden dauern.

Die Verlangsamung der Erdrotation verlief und verläuft allerdings nicht gleichmäßig. Nach historischen Daten nahm die Tageslänge während der vergangenen 2500 Jahre sogar um etwa 0,6 Millisekunden pro Jahrhundert zu, was mit dem Abschmelzen der Polkappen und Gletscher innerhalb der vergangenen 10 000 Jahre zusammenhängt.

Entsprechend der Änderung der Tageslänge verringert sich auf die Dauer die Anzahl der Tage im Jahr. Waren es vor etwa 820 Millionen Jahren noch 440 Tage, umfasste ein Jahr in der Kreidezeit nur noch 372 Tage, heute etwas über 365 Tage.

Das Spiel der Kräfte ist letztlich auch dafür verantwortlich, dass sich der Mond allmählich immer mehr von der Erde entfernt. Während die Erde nämlich immer weiter an Drehimpuls verliert, gewinnt der Mond diesen laut dem Gesetz der Drehimpulserhaltung in gleichem Maße hinzu. Der Drehimpuls ist das Produkt aus der Geschwindigkeit einer Masse und ihres Abstand von der Drehachse. Der Gesamt-Drehimpuls in einem geschlossenen System bleibt – wie auch die Gesamt-Energie – immer erhalten, so auch in dem weitgehend isolierten System Erde-Mond. Damit also die Drehimpulsbilanz stimmt, muss, wenn die Erde langsamer wird, der Mond schneller werden.

Hinzu kommt, dass durch die von der Drehung der Erde nach vorne geschobenen Flutberge eine Ausbuchtung auf die Erde entsteht, die der Bewegung des Mondes vorausläuft. Diese beschleunigt über die Gravitationskraft dessen Bewegung. Da die Masse des Mondes aber unverändert bleibt, muss sein Abstand wachsen: Der Mond entfernt sich von der Erde. Nach dem zweiten Keplerschen Gesetz müsste die Bahngeschwindigkeit allerdings mit dem größeren Abstand wieder abnehmen – der Mond wird dadurch also langsamer. Dieser zweite Effekt ist aber kleiner, so dass sich insgesamt die Bewegung des Mondes beschleunigt und er sich deshalb immer weiter von der Erde entfernt.

Die Kräfte, die Mond und Erde zusammenhalten, werden heute schwächer. Jahr für Jahr entfernt sich der Mond um circa 3,7 Zentimeter. In etwa einer Milliarde Jahren wird sein Einfluss so schwach sein, dass er die Erdachse nicht mehr stabil halten kann und die Erde zu taumeln beginnt. Und in einigen Milliarden Jahren wird unser Heimatplanet seinen Begleiter ganz verlieren.

Leben

Die Gezeiten wirkten bei der Evolution des Lebens als Beschleuniger, weil sie für eine ständige Durchmischung der Nährstoffe und Mineralien (in Sedimenten vom Land und aus dem Meer) sorgen. Dies war eine wichtige Voraussetzung, dass sich der Reichtum an Lebensformen im Meer entwickeln konnte. Ohne Mond wäre wohl alles langsamer gegangen. Die Gezeiten waren sicher auch bedeutsam für die Tatsache, dass sich das Leben aus dem Meer zuerst auf den Stränden und dann über das eigentliche trockene Land ausbreitete.

Offenbar beeinflusst die Anziehungskraft des Mondes sogar den Wasserdurchlauf im Inneren der Bäume, also den rhythmischen Austausch von Wasser zwischen den lebenden Zellen des Holzes und dem toten Gewebe aus abgestorbenen Zellwänden. Der Durchmesser der Baumstämme nimmt mit der Periode des Mondumlaufs um bis zu mehrere Zehntel Millimeter zu und ab.

Das sichtbare Mondlicht ist zwar ein Nichts im Vergleich zur Sonnenstrahlung. Selbst in hellsten Nächten bringt es der Mond auf nur 0,25 bis 0,5 Lux (ein Lux entspricht etwa der Leuchtkraft einer Kerze); die Sonne schafft bei klarem Himmel leicht 100 000 Lux. Trotzdem übt Mondlicht offensichtlich eine starke rhythmische Wirkung auf Pflanzen und Tiere aus. Dabei unterscheidet man fünf Hauptrhythmen des Mondes: Vollmond, Neumond, Erdferne des Mondes, auf- und absteigender Mond.

Pflanzen haben die stärkste Abhängigkeit, weil sie am stärksten auf äußere Zeitgeber reagieren. Während die eine Pflanzenart stärker auf den Vollmond- oder Neumondrhythmus anspricht, reagieren andere stärker auf den auf- und absteigenden Mond. Eine der ersten Aufgaben des Nervensystems primitiver Organismen war es, die Lichtreize der Umwelt zu verarbeiten. Zu ihnen gehört neben dem Tag-und-Nacht-Rhythmus auch der monatliche Lichtwechsel des Mondes. Daher könnte lunear beeinflusstes Verhalten auch bei höheren Tieren – und vielleicht sogar beim Menschen -ein Überbleibsel aus der Evolution des Nervensystems sein.

Bei etwa 1000 heute lebenden Tierarten wurden Mondrhythmen wissenschaftlich nachgewiesen. Viele Organismen haben ihr Verhalten bzw. ihre Lebensorganisation im Laufe der Evolution in der Weise an Gezeiten und Mondphasen angepasst, dass sie die äußeren Veränderungen durch physiologische Prozesse sozusagen vorwegnehmen. Vor allem im Ozean ist eine Orientierung an den Mondrhythmen weit verbreitet. So schlüpfen und schwärmen beispielsweise Wattwürmer ausschließlich bei Voll- und Neumond, wenn sich das Wasser weit zurückzieht, wobei das Mondlicht nachgewiesenermaßen als Signal dient. Mondzyklisches Verhalten gibt es auch bei höheren Meeresorganismen: Bei Ährenfischen findet z. B. die Fortpflanzung (Ablaichen und Befruchten) und das Ausschlüpfen der Jungen nur bei einer Springflut (s. o.) statt. Meeresschildkröten legen ihre Eier bei Vollmond (selbst wenn er wegen Wolken nicht zu sehen ist) ab, wenn der höchste Wasserstand herrscht, da dann der anstrengende Weg an Land und wieder zurück ins Meer weniger weit ist.

Ein eindrucksvolles Beispiel ist auch der Regenwurm, der einen Jahres- und einen Tagesrhythmus hat und am stärksten bei Neumond – mit einem Nebenmaximum bei Vollmond – tunnelt , und wenn der Mond im Tagesverlauf am tiefsten am Horizont steht. Die Frage ist immer, ob die Rhythmen exogen sind, also Reaktionen auf periodisch wechselnde Umwelteinflüsse, oder endogen, also von den Organismen hervorgebracht (angeboren) sind. Zumeist ist die innere Uhr auf äußere Auslöser oder Zeitgeber angewiesen, und diese exogene Rhythmik ist wieder endogen abgesichert.

Mensch

Bisher können die weitaus meisten wissenschaftlichen Studien keinen Einfluss der Mondphasen auf den Menschen belegen. Schweizer Forscher haben aber jetzt entdeckt, dass der Vollmond trotz seiner relativ geringen Lichtintensität Schlafstörungen verursachen kann. Es könnte sogar ein Zusammenhang zwischen den Mondphasen und der Schlafdauer bestehen. In Nächten kurz vor dem Vollmond gingen Menschen später zu Bett und schliefen weniger. Das gelte kulturübergreifend und für Stadt- und Landbewohner. Der Spiegel des Müdigkeitshormons Melatonin war in den Untersuchungen erniedrigt, die Tiefschlafphasen um 30% reduziert. Auch subjektiv gaben die Probanden an, schlechter geschlafen zu haben.

Festgestellte Korrelationen zwischen Beobachtungen sind jedoch kein Beweis für ursächliche Anhängigkeiten. Letztere können nur dingfest gemacht werden, wenn sich auch die Mechanismen angeben lassen, über welche der Mondzyklus biologische Vorgänge auf der Erde beeinflussen kann. Über die Ursache einer eventuellen Synchronisation zwischen Schlaf und Mondphasen kann aber nur spekuliert werden. Vermutlich sind die Muster eine angeborene Anpassung, die es unseren Vorfahren ermöglichte, vom natürlichen Abendlicht während bestimmter Mondphasen zu profitieren. Die Angehörigen der Toba/Qom, einer indigenen Bevölkerungsgruppe in Südamerika, haben berichtet, helle Mondnächte seien früher zum Jagen und Fischen genutzt worden.

Es könnte auch sein, dass die Netzhaut bei Vollmond empfindlicher ist als bei Neumond. Dieses Phänomen wurde bei Guppys festgestellt, könnte aber bei allen Wirbeltieren, also auch beim Menschen, auftreten, wie manche Forscher meinen. Anscheinend variieren auch die Empfindlichkeiten der Augen für die Farben Orange und Hellgrün sowie die Harnsäurewerte mit den Mondphasen.

Der Menstruationszyklus dauert im Schnitt 28 bis 30 Tage und entspricht so in etwa dem auf die Erde bezogenen Umlauf des Mondes, d. h. der Zeit zwischen zwei gleichen Mondphasen (z. B. von Neumond zu Neumond; synodische Messung), die etwa 29,5 Tage beträgt. [Die siderische Messung des Mondumlaufs orientiert sich an der Position des Trabanten vor dem Sternenhimmel. Sie misst die Zeit, die er benötigt, um zweimal hintereinander an einem bestimmten Stern vorbeizuziehen (circa 27,3 Tage).]

Nach neuesten Untersuchungen könnte es tatsächlich einen Zusammenhang zwischen dem Beginn des Zyklus und den Mondphasen geben. Allerdings währt eine solche synchrone Phase in den meisten Fällen relativ kurz und tritt nur unter besonderen Bedingungen auf: Nur wenn der Menstruationszyklus länger als 27 Tage dauert, bleibt er für eine Weile entweder mit Vollmond oder Neumond synchron. Aus den Untersuchungen ging auch hervor, dass Schwangerschaften bei einer Zykluslänge von 29,5 Tagen (entspricht dem synodischen Mond; s. o.) wahrscheinlicher sind.

Dabei spielt wohl auch die Schwerkraft eine Rolle – auch wenn das Mondlicht der wichtigste Zeitgeber ist. Ein Zusammenhang zwischen Mond und Menstruation war nämlich besonders oft in jenen Jahren zu beobachten, in denen Sonne, Mond und Erde auf ungefähr einer Linie lagen und der Mond der Erde am nächsten war, beispielsweise zuletzt 1997 und 2015.

Der Einfluss des Mondes auf den Menstruationszyklus scheint aber insgesamt eher schwach zu sein. Bis heute wurde kein Nachweis dafür erbracht, dass der Zyklus von überdurchschnittlich vielen Frauen exakt mit dem Mondrhythmus zusammenfällt. Einige Forscher mutmaßen zwar, dass der Menstruationszyklus einst tatsächlich an den Mond gekoppelt war, aber durch den modernen Lebensstil (z. B. Einfluss von Kunstlicht) verloren gegangen sei. Viele Wissenschaftler zweifeln aber grundsätzlich eine biologisch relevante Beziehung zwischen Menstruationszyklus und Mondphasen an und gehen allein von einem endogenen Rhythmus aus. Die ungefähre zeitliche Übereinstimmung wäre also reiner Zufall. Schließlich haben auch Mäuse und andere Säuger ganz verschiedene Fruchtbarkeitszyklen.

Im Laufe der Geschichte wurde dem Mond oft eine geheimnisvolle Wirkung zugeschrieben. Der zunehmende Mond soll fördern, was wächst und gedeiht, und der abnehmende Mond hemmen und vernichten, was unwert ist und verschwinden muss. Noch im ausgehenden 18. Jahrhundert versprachen „Monddoktoren“ Heilung mit Hilfe des Mondlichts, das sie auf die betroffenen Körperteile des Erkrankten scheinen ließen. Auch heute noch hat der Glaube an die Kräfte des Erdtrabanten nichts von seiner Faszination eingebüßt. Die moderne Mond-Esoterik bedient ein Bedürfnis nach Orientierung besonders bei Themen, die sich der Kontrolle und Berechenbarkeit ansonsten weitgehend entziehen.

Vom naturwissenschaftlichen Standpunkt ist zu sagen, dass die Mondkräfte vernachlässigbaren Einfluss auf uns haben. Es ist mittlerweile wissenschaftlich bewiesen, dass an Vollmond nicht mehr Kinder geboren werden als sonst, oder dass nicht mehr oder Schlimmeres (wie Unfälle, Verbrechen) an Vollmond-Tagen geschieht. Es war oft nur der subjektive Eindruck, der zu solchen Behauptungen führte – ein Problem der selektiven Wahrnehmung der Realität. Auch Schlafwandeln tritt nicht, wie behauptet, abhängig von der Mondphase auf. Es gibt zwar Hinweise, dass Schlafwandler auf Licht zusteuern, doch das kann in Städten auch die Leuchtreklame sein, und nicht unbedingt der Mond.

Durch die Gravitation des Mondes schwankt nach neuesten Messungen unser Gewicht um 19 Milligramm, also eigentlich nichts, was eine Wirkung verursachen könnte. Forschern am CERN in der Nähe von Genf (Schweiz) fielen bei ihren Kollisionsexperimenten minimale, aber doch störende Einflüsse (Energieschwankungen) auf, die genau der Kurve der Erd-Gezeiten folgten. Sie stellten fest, dass durch die winzigen Gravitationsschwankungen Neutronen schwerer oder leichter werden. Neutronen gibt es auch in unseren Zellen!

Da in unserem Nervensystem winzige Mengen Gleichstrom fließen, können elektromagnetische Felder die elektrische Leitfähigkeit in den Nerven unseres Gehirns stören und z. B. die Reizschwelle für die Auslösung von Nervenimpulsen verändern. Das irdische Magnetfeld ändert sich je nach Mondstand – allerdings nur um eine Winzigkeit. Unser Nervenkostüm ist in der Lage, auf diese Schwankungen zu reagieren, da Verstärkerknoten in unserem Nervengewebe die Aktivität elektrischer Impulse erhöhen können. Erwiesenermaßen reichen schon minimalste Ausschläge des Magnetfelds aus, um Menschen in gereizte Stimmung zu versetzen,

Der Mond, schrieb der englische Dichter Lord Byron, beherrsche die Narren, die Flut der Meere, das Hirn vernünftiger Wesen und manchmal auch ihr Herz. Das Wort „launisch“ stammt von „luna“.

REM

Realität

Zu den Schlüsselerlebnissen des Menschen gehört auch die Verunsicherung über das, was eigentlich „wirklich“, also Realität ist. Was sehen wir, wenn wir die Welt betrachten? Erkennen wir sie so, wie sie tatsächlich ist, oder konstruiert unser Gehirn lediglich ein Abbild von ihr? Oder sehen wir gar nur eine Scheinwelt, gaukelt uns unser Gehirn also nur eine Realität vor?

Der Skeptizismus, eine philosophische Richtung, die einen Ursprung bei den Vorsokratikern, aber auch bei Sokrates selbst und den Sophisten hat, stellt unser Wissen von der Außenwelt grundsätzlich in Frage. Wir verfügen über kein direktes und belastbares Wissen über unsere Außenwelt, können uns also nicht sicher sein, dass wir nicht nur in einer Scheinwelt leben und einer generellen Täuschung unterliegen. Für die Vertreter des Idealismus gibt es eh keine Dinge unabhängig von unserem Geist. Die Wirklichkeit ist nur, das, wodurch sie uns erscheint. Diese extrem radikale und höchst umstrittene erkenntnistheoretische Position wurde und wird nur von wenigen Denkern vertreten, beispielsweise dem irischen Philosophen George Berkeley (1685-1753). Die Welt, so seine mutige These, verschwinde augenblicklich, sobald niemand mehr ihrer gewahr werde. „Esse est principi“ („Sein ist Wahrgenommenwerden“) lautet sein berühmtes Diktum.

Der erkenntniskritische Idealismus führt unweigerlich zum Solipsismus, dessen Vertreter behaupten, die Welt sei eine reine Konstruktion des Geistes, und eine unabhängige Wirklichkeit existiere nicht. „Wir sind die ultimative Maschine, um Realität zu schaffen.“ (Rodolfo Llinas, Neurowissenschaftler) Streng logisch genommen kann man diese Position nicht widerlegen, da sie alles – jeden Sinneseindruck und jede Erfahrung – zu einer Illusion erklärt. Auch für die buddhistische Schule Cittamatra sind Raum und Zeit nur abstrakte Gedankengebilde. Sobald die Wahrnehmung eines Phänomens verschwindet, ist es nicht mehr vorhanden. Da aber mein Bewusstseinsstrom mit dem der anderen Menschen verwoben ist, provoziert das die Erscheinung einer gemeinsamen externen Welt, trotzdem ist diese Welt Illusion.

Viele Philosophen oder philosophierende Wissenschaftler betonen heute, dass gesichertes Wissen über die bewusstseinsunabhängige Außenwelt prinzipiell unmöglich ist. Die Frage kann daher nicht sein, ob ich nachweisen kann, dass es eine unabhängige Welt gibt, sondern nur, ob es plausibel ist, von ihrer Existenz auszugehen.

Der Materialismus geht von der Tatsache aus, dass keine reproduzierbaren Daten für eine globale Täuschung vorliegen. Es muss also irgendetwas Stoffliches geben. Und daher darf eine von uns unabhängige Außenwelt angenommen werden. Wozu haben wir denn unsere Sinnesorgane, wenn es außerhalb unseres Selbst nichts geben sollte, das sinnlich wahrnehmbar ist? Sobald man neben der „Welt der Erscheinungen“ aber von der Existenz einer bewusstseinsunabhängigen Außenwelt ausgeht, sollte auch Wissen über die Außenwelt durchaus möglich sein.

Auch für die Anhänger des Realismus existiert eine objektive Wirklichkeit unabhängig von uns. Materie, Raum und Zeit werden als reale und von Erkenntnis- und Bewusstseinsprozessen völlig unabhängige Kategorien angesehen, die wir als objektive Beobachter quasi von außen her erkennen können. Der „kritische Realismus“ schränkt allerdings ein, dass die Erscheinungen der Welt nicht unmittelbar eingesehen und verstanden werden können.

Konstruktivismus

Wir alle verhalten uns im Alltag wie naive Realisten. Wir nehmen wie selbstverständlich an, dass die äußere Welt dem Bild entspricht, das uns unsere subjektiven Sinneseindrücke, aufgenommen etwa über druckempfindlichen Tastsensoren in den Fingerspitzen oder Sehsinneszellen im Auge, von ihr liefern. Was wir haben, ist jedoch letztlich nur die Gewissheit über diese Sinnesdaten. Kein einziges Atom aus unserer Umwelt gelangt aber ins Gehirn. Vielmehr verlaufen Aktionspotenziale von den Sinneszellen über viele Stationen in ein bestimmtes Hirngebiet, lösen dort weitere Nervenaktivität aus und werden mit anderen Impulsen zusammengeschaltet. Auf jede Nervenzelle mit „Außenkontakt“ kommen schätzungsweise 100 000 weitere, die nur mit anderen Neuronen, aber nicht mit der Umwelt kommunizieren.

Es drängt sich der Verdacht auf, dass die Wirklichkeit, die wir erleben, durch die Aktivität unseres zentralen Schaltorgans erzeugt wird. Sie besteht also aus nichts weiter als elektrischen Signalen, interpretiert von unserem Verstand. Jedes Gehirn konstruiert sich so sein Bild von der Welt. In der Erkenntnisphilosophie wird daher die Palette von Theorien, die die Trennung von Erkennenden und zu Erkennendem, zwischen Subjekt und Objekt, aufheben, als Konstruktivismus bezeichnet. Der Akt des Erkennens beeinflusst stets auch Art und Inhalt des Erkannten. Psychologen und Neurowissenschaftler sammelten inzwischen zahlreiche Belege dafür.

Im Gegensatz zum Solipsisten sagt der radikale Konstruktivist: Es mag eine bewusstseinsunabhängige Welt geben (Realismus), aber wir haben keinen Zutritt zu ihr. Es gibt keine wahrnehmbare Realität, keine Wirklichkeit, die wir von außen betrachten und analysieren können. Die Welt, wie wir sie sehen, ist daher eine vom Gehirn konstruierte Wirklichkeit, eine mentale Scheinwelt. Der Hirnforscher Antonio Damasio spricht gar von einer „geistigen Multimedia-Show“, zu der unsere Neurone den Strom der inneren und äußeren Reize verarbeiten. Über die Existenz einer objektiven Wirklichkeit vermögen wir nichts auszusagen, geschweige denn, sie zu beweisen.

Für uns ist also nur eine subjektive Realität wahrnehmbar. Das, was wir für die Wirklichkeit halten, gibt es eigentlich gar nicht – jedenfalls nicht in der von uns wahrgenommenen Form, meinte auch der verstorbene Neurowissenschaftler Francis Crick. Die Welt – ein Hirngespinst? Wissen und Erkenntnis nicht Abbildungen der Realität, sondern reine Konstrukte? Der Radikale Konstruktivismus gehört jedenfalls zu den einflussreichsten Denkschulen der letzten Jahrzehnte, rief aber auch Kritiker auf den Plan. Sie bemängeln die theoretischen Grundlagen und weisen auf logische Widersprüche hin.

Auch die Vertreter des Gemäßigten Konstruktivismus halten es für sehr wahrscheinlich, dass es eine äußere Welt gibt, eine Welt außerhalb unseres Bewusstseins. Sie ist nicht lediglich in unseren Köpfen, wenn wir sie erschaffen – sie ist wirklich da draußen, zugleich mit allen ihren möglichen Auswirkungen. Aber die äußere Welt ist nicht so, wie wir sie wahrnehmen und erleben, sondern sie erscheint uns lediglich in der Art und Weise, wie wir sie interpretieren.

Die Informationen über die äußere Realität (den „Input“) erhalten wir über Rezeptoren, unsere Sinnesorgane. Über viele Prozesse konstruiert unser Gehirn daraus ein Gesamtbild der Außenwelt, wobei der größte Teil der Sinnesinformationen ausgemustert wird. Das schließliche Abbild der Wirklichkeit wird auch von unserer Bedürftigkeit und unserem Interesse beeinflusst – und ist nie frei von Gefühlen. Erst in diesem komplexen Prozess von Filtern und Gewichten, Denken und Fühlen entsteht unser Weltbild.

Immanuel Kant argumentierte im 18. Jahrhundert, das Chaos der uneingeschränkten sensorischen Eindrücke bliebe immer sinnlos, wenn es nicht durch bereits vorhandene Vorstellungen und „Überzeugungen“ eine Struktur erhielte. Er postulierte, dass der menschlichen Erkenntnis apriorische Denkformen der Anschauung (z. B. Zeit und Raum), des Verstandes (z. B. Ursache und Wirkung) und der Vernunft vorgegeben seien. Sie ermöglichten überhaupt erst Erfahrungserkenntnis – und formten und begrenzten zugleich den Erkenntnisbereich. Anders als mit Hilfe und im Rahmen dieser Strukturen können wir demnach überhaupt nichts erfahren, nichts über die Welt erkennen; anders als räumlich, zeitlich und kausal geordnet kann unsere Erfahrung gar nicht sein. Unseren begrenzten Fähigkeiten, die Welt zu erklären, entspricht der uns vertraute Erfahrungsbereich (der sog. Mesokosmos), der sich nur auf sehr begrenzte Regionen der Raumzeit erstreckt und auch dort nur sehr punktuell ist. Unsere Wahrnehmung und Erfahrung, unser Erkennen und Wissen und die Art, wie wir wahrnehmen, erfahren, erkennen und wissen ist demnach bestimmt durch die Struktur unseres Erkenntnisvermögens.

Wenn diese Grundstruktur nichts mit der Struktur der eigentlichen Realität zu tun hat, dann werden wir die eigentliche Realität (Kant nennt sie „Dinge an sich“) niemals erkennen, ja wir werden sie uns nicht einmal vorstellen können. Das, was wir als real in der Welt zu erkennen glauben, sind nach Kant ausnahmslos nur Erscheinungen. Wir erkennen die Dinge immer und mit Notwendigkeit nur so, wie sie uns erscheinen – und das heißt, bedingt durch unseren Erkenntnisapparat, also unsere Wahrnehmungs- und Denkfähigkeit. Über die wirklich realen „Dinge an sich“ sagt Kant kurz und bündig: Was sie sein mögen, weiß ich nicht und brauche es nicht zu wissen, weil mir doch niemals ein Ding anders als in Erscheinung vorkommen kann. Kants Argumentation hat ihre offenkundige Berechtigung, denn eine Erkenntnis aus der modernen Physik ist, dass man nicht sagen kann, wie die Dinge wirklich sind, sondern nur, wie sie uns erscheinen. (s. u.)

Die individuelle Wirklichkeit und die vom Bewusstsein unabhängige Realität sind also zwei verschiedene Dinge. Wir haben nur eine annähernde Beschreibung der Wirklichkeit, die viel reicher ist als unser Bewusstsein von ihr. Aus diesem Grund ist der kontinuierlich ablaufende Vorgang des bewussten Erlebens weniger ein Abbild der Wirklichkeit als vielmehr ein „Tunnel durch die Wirklichkeit“ (Kant).

Der Verhaltensforscher Konrad Lorenz, Kants zeitweiliger Nachfahre auf dem Königsberger Lehrstuhl, hatte als einer der ersten ab den 1940er Jahren die Kant’schen „Apriori“ ins „rechte Licht“ der stammesgeschichtlichen Anpassung gesetzt und die Evolutionstheorie von Darwin mit der Erkenntnistheorie Kants unter dem Namen Evolutionäre Erkenntnistheorie verknüpft, ausgebaut und diskutiert. Den „angeborenen Ideen“ entspricht demnach die genetisch übertragene Information über die Welt. Sie steckt also in unserem Erbgut, und somit auch in den Sinnesorganen, im Zentralnervensystem, im Gehirn.

Die Evolution hat unser Erkenntnisvermögen geprägt und bestimmt die Leistungen und Grenzen unseres Weltbildes. Eine exakte, vollkommene und umfassende Abbildung der Welt wäre biologisch nicht sinnvoll und nicht nötig. Die Hauptaufgabe des Gehirns ist es, dem Menschen die Orientierung und das Überleben in seiner spezifischen Umwelt – der natürlichen und der sozialen – zu ermöglichen. Zu seinen Aufgaben gehört sicherlich nicht, die wahre Natur der Dinge zu erkennen und die letzten kosmischen Wahrheiten zu entdecken.

Das Gehirn des Frosches nimmt nur das aus seiner Umgebung wahr, was für ihn interessant und wichtig ist: Das sind vor allem Wasseroberfläche, Beute und Feinde. Mehr ist biologisch nicht notwendig. Die Eigenart seiner Weltsicht ist in seiner Anatomie begründet. Jede einzelne Nervenbahn, die vom Auge zum Gehirn führt, ist mit vielen Sehzellen verbunden, so dass ein ganzes Muster übertragen wird. Das Auge spricht also in einer bereits gedeuteten Sprache zum Gehirn und gibt nicht nur eine mehr oder weniger exakte Kopie der Lichtverteilung in den Rezeptoren des Auges weiter.

Zum (Über)Leben in seiner Welt braucht auch der Mensch nicht diese Unmenge an Information, die die äußerst komplexe Umwelt bereithält. Sie würde sein Aufnahmevermögen völlig überfordern. Daher muss aus der Fülle der Informationen, die sein Gehirn erreicht, vieles für ein stimmiges Gesamtbild über Bord geworfen werden. Unser Zentralorgan entscheidet, was für uns in der jeweiligen Situation wichtig und was unwichtig ist, wobei persönliche Erfahrungen und Erinnerungen eine große Rolle spielen. Alles andere ist Interpretation.

Außerdem ergänzt unser Denkorgan nicht vorhandene Einzelheiten, die zu dem genetisch vorgegebenen Schema dazugehören. Wir merken es nicht einmal, so wir wir eben auch den Blinden Fleck in unserem Auge nicht sehen. Die aktuellen Sinnesreize sind also nur der Anlass für unser Gehirn, bewährte und gespeicherte Konstrukte aus dem Gedächtnis abzurufen und auch in einem verworrenen Bild bekannte Strukturen zu erkennen. Auf diese Weise halten wir ein kohärentes und stimmiges Weltbild (und Selbstbild) aufrecht.

Aus kleinen Stückchen Information und Erinnerung bauen wir uns also unsere Realität. Nach Heisenberg hängt das, was immer wir aussagen, von unserer Fragestellung ab, von unseren Entscheidungen, was und in welcher Weise wir beobachten. Diese Beobachtungen beruhen wiederum auf dem Inhalt unserer Gedanken, diese auf unseren Erwartungen, unserem Bedürfnis nach Kontinuität.

Die Welt, in der wir bewusst leben, ist also nicht die Wiedergabe unserer realen Umwelt, sondern vor allem ein Produkt unseres (stammesgeschichtlichen und individuellen) Gedächtnisses und unserer Erfahrung. Was wir tatsächlich wahrnehmen, sind die Modelle, die unser Gehirn aus einer Kombination von sensorischen Informationen und Apriori-Erwartungen von der Welt kreiert. Beide, sowohl sensorische Information als auch Erwartungen, sind für diesen Prozess wesentlich. Wenn keine sensorische Information zur Verfügung steht, füllt unser Gehirn die Lücke einfach aus. Unsere Modelle von der Welt sind also nicht die Welt selbst, sie decken sich nicht mit der Realität, aber für uns sind sie so gut wie die Welt.

Nach dem Hirnforscher Gerhard Roth gibt es keinen Zweifel daran, dass es für uns bzw. unser Gehirn prinzipiell unmöglich ist, zu überprüfen, ob und inwieweit die Konstrukte unseres Denkorgans mit den Verhältnissen in der bewusstseinsunabhängigen Welt („Realität“) übereinstimmen: Jede Wahrnehmung ist eine Hypothese. Das widerspricht jeder Art von erkenntnistheoretischem Realismus. Allerdings haben sich die Konstrukte des Gehirns in aller Regel in der Stammesgeschichte offenbar gut bewährt, da die Art, wie das menschliche Gehirn seine Welt konstruiert, kaum von der Art abweicht, wie dies andere Wirbeltiere seit 250 Millionen Jahren tun. Hinzu kommt die Bewährung über die individuelle Erfahrung, die überwiegend unbewusst und nach Versuch und Irrtum geschieht. Wir konstruieren also als bewusstes Ich die Welt nicht nach unserem Geschmack. Das geht schon deshalb nicht, weil auch dieses Ich ein Konstrukt des Gehirns ist.

Moderne Physik

Zu Beginn des 20. Jahrhunderts entdeckte man, dass Wirklichkeit mehr und anders ist, als man bisher dachte. Sie lässt sich nicht durch sinnliche Wahrnehmung erfassen, sondern wird letztlich bestimmt durch die Gesetze der Quantenmechanik. Diese Welt im Kleinsten ist nicht unsere Welt, sie ist total anders! Die alte Vorstellung, dass wir uns die Welt als dingliche Wirklichkeit denken können, ist nur in mesokosmischen und makrokosmischen Systemen möglich.

Bei der Suche nach verlässlicher Erkenntnis haben sich naturwissenschaftliche Test- und Messmethoden bewährt. Überaus befremdlich ist für uns, dass eine Messung in der mikroskopischen Welt nicht Aufschluss gibt über Eigenschaften, die ein Objekt einfach hat, ob man es nun beobachtet oder nicht. So etwas erwartet man von einer realistischen Theorie. Albert Einstein und andere Realisten hatten noch gefordert, die Physik müsse ein geistiges Abbild der objektiven Realität zustande bringen – und sei es noch so unvollkommen. Antirealisten wie Nils Bohr fanden, solche Abbilder seien zum Scheitern verurteilt. Die Forscher sollten sich darauf beschränken, empirische Vorhersagen zu machen und zu überprüfen. Es gelang schließlich, die Annahme, Objekte hätten Eigenschaften unabhängig von der Beobachtung, experimentell zu widerlegen, während die Quantentheorie bei solchen Experimenten voll bestätigt wurde. Man kann in diesem Sinne paradoxerweise sagen, die Quantentheorie sei unrealistisch, aber richtig.

Die meisten Menschen haben die naive Vorstellung, die auch unter Naturwissenschaftlern weit verbreitet ist, dass sich Wissen und Realität entsprechen. Aber nicht nur das ist real, was dann wirklich Wissen wird, sondern auch das, was man wissen kann. Die Quantenphysik spricht von potenziellem Wissen. Die Quantenphysik zwingt uns also, den Realitätsbegriff drastisch zu erweitern. Wirklichkeit ist Potenzialität. Die Verwirklichung der Möglichkeiten geschieht durch eine Messung, und über deren Ausgang macht die Quantentheorie Wahrscheinlichkeitsaussagen.

Als Gefangene unserer neuronalen Architektur sind wir unfähig, ein unmittelbares Verständnis für die in der modernen Physik postulierten Phänomene zu entwickeln. „Die Realität können wir uns nicht vorstellen“, sagt Gerhard Roth. Aber: Man „kann doch etwas über die bewusstseinsunabhängige Welt aussagen, man muss es sogar, wenn man z. B. Neurobiologe ist. Ich muss mir aber klar darüber sein, dass ich mich immer nur in Umschreibungen, bildhaften Vergleichen, Metaphern ausdrücken kann.“

Eine solche Metapher sei beispielsweise die Wellenlänge, die man braucht, wenn man den Sehvorgang untersuchen will. So sagt man, Licht von 400 Nanometern Wellenlänge trifft auf die Netzhaut und erzeugt auf sehr komplizierte Weise in der Großhirnrinde schließlich den Eindruck blauviolett. Wir sind davon überzeugt, dass es dieses blauviolette Licht wirklich gibt, und es nicht nur eine Erfindung unseres Gehirns ist.

Erwin Schrödinger stellt in seinem Buch „Mind and Matter“ fest, dass die Beschreibung der Wirklichkeit als Wellen und Teilchen der bisher gelungenste Versuch ist, die physikalische Wirklichkeit als Bilder zu verstehen. Diese Bilder, die wir jetzt haben, sind aber nicht die einzig Möglichen. Wir erfinden immer wieder neue Realitätsbilder. Sie verdrängen die alten Ideen niemals völlig, sondern ersetzen sie großenteils durch Konzepte, die besser funktionieren und die Natur besser beschreiben. Dann kommt die nächste Umwälzung und wirft alles über den Haufen. Und wir sind jedes Mal wieder überrascht, dass das alte Denken auf den gewohnten Bahnen einfach versagt.

Manche Dinge können wir uns anschaulich vorstellen, manche nicht. Auch Einsteins abstrakte, vierdimensionale Geometrie ließ sich nur schwer veranschaulichen. Vorstellbar wurde sie durch mathematische Beziehungen. Diese überdauern, während die alten Realitätsbegriffe verblassen. Auch die Quantenfeldtheorie ist ein mathematisches Gebilde. Sie beschreibt das Verhalten von Quarks, Myonen, Photonen und diversen Quantenfeldern, die ihre Realität aus den Naturgesetzen beziehen, in denen sie nur als Begriffe auftreten und zur Ableitung von experimentell überprüfbaren Aussagen dienen. Nach dem Teilchenphysiker Henning Genz ist den Gesetzen der Physik eher Realität zuzusprechen als den Objekten, deren Existenz sie behaupten.

Aber auch naturwissenschaftliche Aussagen können nie den Anspruch erheben, objektiv wahr zu sein. Unsere Theorien sind letztlich – so erfolgreich sie auch die Natur beschreiben – mathematische Modelle, also Konstrukte des menschlichen Geistes, die zwar immer weiter verfeinert werden, aber nie die Natur ganz erfassen können. Das wissen die Philosophen des Ostens schon seit Jahrtausenden. Auch der theoretische Physiker Leonard Susskind ist davon überzeugt, dass wir über die Realität wohl keine endgültigen Aussagen machen können – wobei die naive Realität von Billardkugeln und Zeigerstellungen nicht berührt wird. Susskind fordert daher die Trennung von dem Wort „Realität“. Der Begriff störe; er beschwöre Dinge herauf, die uns kaum helfen. Das Wort „reproduzierbar“ sei nützlicher als „real“. Der Begriff Realität habe mehr mit Biologie und Evolution zu tun als mit Physik, er betreffe eher unsere biologische Hardware.

Die meisten Physiker nehmen aus diesem Grund eher eine sog. instrumentelle Haltung ein und verneinen, dass physikalische Theorien die Welt widerspiegeln sollen. Für sie stellen Theorien bloß Instrumente dar, mit denen sich experimentelle Vorhersagen machen lassen. Vielen Physikern genügt das. Sie sprechen daher fast nie von Realität. Werden sie mit dem Begriff Realität konfrontiert, wollen sie ihn pragmatisch verstehen. Es geht ihnen also nicht darum, zu verstehen, was Realität letztlich ist, sondern darum, was wir meinen, wenn wir diesen Begriff verwenden.

Dennoch sind die meisten Wissenschaftler überzeugt, dass ihre Theorien zumindest einige Aspekte der Natur abbilden, wenn Experimentatoren eine Messung durchführen. Die physikalische Realität ist, wie sie ist, und verhält sich, wie sie will – und wir lernen mühsam, unsere mathematischen Werkzeuge an ihr ungebärdiges Verhalten anzupassen. Mit jeder Vervollkommnung des mathematischen und technischen Werkzeugs lernen wir aber auch neue Aspekte der Wirklichkeit kennen.

REM

Entfernungsmessung im Universum

Entfernungen zu messen zählt in der Astronomie zu den schwierigsten Aufgaben überhaupt, da wir auf eine flächig erscheinende Himmelssphäre hinausschauen. Um die dritte Dimension des ausgedehnten Universums zu schließen, wenden die Astronomen unterschiedliche, einander überlappende Methoden an. Dabei arbeiten sie sich durch das Aneinanderreihen der Verfahren stufenweise in die Milliarden von Lichtjahren überspannenden Weiten des Weltalls vor, gewissermaßen von Leitersprosse zu Leitersprosse. Die Fachleute sprechen daher von einer „kosmischen Entfernungsleiter“.

Trigonometrische Parallaxe

Die erste Stufe zu den Sternen zu erklimmen ermöglichte den Astronomen die Parallaxen-Methode, ein Verfahren, das auf rein geometrischen (also mathematischen) Grundlagen beruht. Es handelt sich dabei um das trigonometrische Anpeilen eines entfernten Punktes oder Objektes aus verschiedenen Richtungen. Unter parallaktischer Verschiebung (kurz: Parallaxe) versteht man die scheinbare Positionsverschiebung eines Zielobjekts auf Grund des Standortwechsels eines Beobachters. Dies ist auch der Winkel zwischen den Geraden, die von den zwei Standorten auf das Objekt gerichtet sind. Der Abstand der beiden Standorte, vom beobachteten Objekt aus gesehen, ist die „Basislinie„.

Ein leicht nachzuvollziehendes Beispiel für eine parallaktische Verschiebung ist der sog. „Daumensprung„. Hält man einen hochgestreckten Finger vors Gesicht und schließt abwechselnd ein Auge, springt der Finger vor dem Hintergrund scheinbar hin und her, da er den Augen viel näher ist als die Umgebung. Je näher der Finger vor dem Gesicht ist, desto größer wird die Verschiebung ausfallen. Wenn man dann die Entfernung zwischen den Augen (Basislinie) voneinander misst (circa 6,5 Zentimeter) und die Größe des Winkels bestimmt, um den sich der Finger beim Umschalten von einem Auge auf das andere Auge verschiebt (sie beträgt bei ausgestrecktem Arm und durchschnittlicher Armlänge etwa sechs Winkelgrad), findet man durch die Konstruktion eines Dreiecks heraus, wie weit der Finger von den Augen entfernt ist.

Die Parallaxenverschiebung naher Objekte nutzt auch unser Gehirn, um Abstände einzuschätzen. Um die Entfernungen von Himmelskörpern mit der Parallaxe zu bestimmen, kann man zwei Beobachtungspunkte auf der Erdoberfläche verwenden. Auf diese Weise konnte erstmals die Distanz zum Mond und zu nahen Planeten gemessen werden. Frühere Astronomen entdeckten bei der Venus noch eine andere Möglichkeit zur Entfernungsbestimmung: Sie maßen bei ihren auf der Erde zu beobachtenden seltenen Durchgängen vor der Sonne die Parallaxe relativ zum Sonnenrand. So erbrachten sie auch erste Werte für den Radius der Erdbahn um die Sonne.

Um die Entfernung von Sternen zu berechnen, müssen die Astronomen als Parallaxe zwei Punkte auf der irdischen Umlaufbahn um die Sonne nehmen. Der Stern entspricht dabei dem Finger, die Position der Erde auf der Sonnenumlaufbahn den Augen. Die maximal möglich Basislinie für die Messung ergibt der Durchmesser der Umlaufbahn, der seinerseits mit den Parallaxen der Planeten im Sonnensystem ermittelt wurde. Er beträgt zwei Astronomische Einheiten (AE), wobei eine AE dem Abstand der Erde von der Sonne (rund 150 Millionen Kilometer) entspricht.

Für die weiteren Berechnungen beobachten die Astronomen die Position des Sterns am Himmel, wenn die Erde auf entgegengesetzten Seiten ihrer Bahn um die Sonne steht, was Messungen nach sechs Monaten entspricht. Dabei erscheint die Position naher Sterne am Himmel geringfügig perspektivisch versetzt. Aus den Werten der parallaktischen Verschiebung lässt sich jetzt mittels einfacher Trigonometrie die Stern-Distanz errechnen. Mit dieser Messung konnte Friedrich Wilhelm Bessel erstmals 1838 die Entfernung eines Sterns bestimmen.

Damit hatten die Astronomen auch eine neues Entfernungsmaß an der Hand. Beträgt die Parallaxe eine Bogensekunde (1/3600 Winkelgrad), sprechen wir von einem Parsek (Abkürzung für Parallaxe von einer Bogensekunde). Ein Parsek entspricht einer Entfernung von rund 9,5 Billionen Kilometern (ca. 1013 km) oder 3,26 Lichtjahren. Ein Megaparsek (eine Million Parsek), wäre eine Strecke, die etwa dreißig Mal so groß ist wie der Durchmesser unserer Milchstraße: etwa 30 Trillionen Kilometer.

Die parallaktische Verschiebung fällt umso kleiner aus, je weiter der Stern von uns entfernt ist; sie nimmt umgekehrt proportional zur Entfernung ab. Nähere Objekte zeigen also eine größere Parallaxe als ferne. Bei dem mit 4,22 Lichtjahren nächsten Stern, Proxima Centauri, beträgt die Parallaxe lediglich eine dreiviertel Bogensekunde, etwa 1/5000stel Grad. Mit dieser Beobachtungsgenauigkeit könnte man bei einer Fliege, die in einem Kilometer Entfernung auf einer Blume sitzt, den Augenabstand messen. Teleskope auf dem Erdboden können heute gerade noch eine Parallaxe von 0.01 (1/100stel Bogensekunde) auflösen und so Entfernungen von 100 Parsek mit etwa 10% Genauigkeit bestimmen. Mit der Methode der parallaktischen Verschiebung lassen sich so die Entfernungen nur solcher Sterne bestimmen, die sich im Umkreis von etwa 300 Lichtjahren um die Sonne befinden.

Um die Parallaxen-Methode auch auf größere Distanzen ausdehnen zu können, startete die europäische Weltraumbehörde ESA 1989 den Astrometrie-Satelliten Hipparcos, der mit einem Auflösungsvermögen von 0,001 Bogensekunden den zugänglichen Entfernungsbereich um den Faktor 10 vergrößerte. 2013 wurde er von der ESA-Sonde Gaia abgelöst. Mit aktuellen Technologien lassen sich noch Parallaxen von Sternen bis in Entfernungen von Zehntausenden von Lichtjahren messen. Dadurch kommt ein Großteil der Milchstraßensterne in Reichweite. Bei Abständen zu Galaxien außerhalb der Milchstraße lassen sich die Parallaxenwinkel aber nicht mehr genau genug bestimmen. Dies erfordert andere Methoden, die man mit der Parallaxenmethode kalibrieren kann. Diese dient somit also als wichtige Grundlage für größere Abstandsmessungen, als „erste Leitersprosse“ auf dem Weg in den Weltraum.

Absolute Helligkeit

Die zweite Sprosse auf der kosmischen Entfernungsleiter ermöglichte die absolute Helligkeit eines Sterns. Diese kann man auch dann noch bestimmen, wenn ein Stern zu weit weg ist für eine Parallaxenmessung.

Das Hauptproblem war es, geeignete Sterne zu finden, deren Leuchtkraft gut bekannt ist und die hell genug waren, damit man sie auch noch in größeren Entfernungen eindeutig identifizieren konnte. Sie müssen eine einheitliche Helligkeit haben, oder ihre Helligkeit muss in einer festen Beziehung zu einer anderen , entfernungsunabhängigen Größe der Objekte stehen. Die Astronomen sprechen von Standardkerzen. Kennt man die Leuchtkraft einer weit entfernten Standardkerze, kann ihre Helligkeit mit hoher Genauigkeit umgerechnet und damit die kosmische Distanz des Sterns bestimmt werden.

Die Astronomen suchten also den Himmel nach weiter entfernten Sternen ab, von denen sie annehmen mussten, dass sie in Wirklichkeit ebenso hell leuchten wie die vorher direkt gemessenen sonnennahen Sterne. Dann verglichen sie deren auf der Erde gemessenen scheinbaren Helligkeiten mit denen der weiter entfernten. Da die Intensität einer Lichtquelle mit dem Quadrat der Entfernung abnimmt, würde uns bei zwei hinsichtlich der Leuchtkraft identischen Sternen in vier und acht Lichtjahren das Licht des vier Lichtjahre entfernten Himmelskörpers nicht doppelt, sondern vierfach so hell erscheinen. Umgekehrt würde die scheinbare Helligkeit des ferneren Sterns ein Viertel von der des näheren betragen.

Ursprünglich fand die Messung der Helligkeit über den Spektraltyp eines Sterns statt, denn die absolute Helligkeit eines Sterns ist eindeutig mit seiner Spektralklasse (gewissermaßen seiner Farbe) verknüpft. So konnten die Astronomen dank der über viel größere Distanzen messbaren Emissionslinien im Sternspektrum den Abstand dieser Sterne errechnen, wenn sie die Spektralklassen anhand von näheren Sternen geeicht hatten. Mittlerweile sind die Parallaxen von Tausenden von Sternen mit unterschiedlicher Genauigkeit vermessen worden, so dass es möglich ist, die Entfernungen verschiedener Sterne weit über die Milchstraße hinaus zu bestimmen.

Allerdings gibt es in der Sonnenumgebung keine Sterne, die so hell leuchten, dass man sie auch über wirklich kosmische Entfernungen hinweg sehen könnte. Daher liefert diese zweite Leitersprosse nur für Objekte in der Milchstraße und ihren Satellitengalaxien akzeptable Ergebnisse.

Cepheiden

Sehr erfolgreich werden heute die Cepheiden als Standardkerzen genutzt. Sie werden nach dem Prototyp des Sterns mit der Bezeichnung Delta im Sternbild Cepheus auch Delta-Cepheiden genannt. Es sind seltene, helligkeitsvariable Riesensterne mit teilweise der 100 000-fachen Leuchtkraft der Sonne, die noch in einer Entfernung von 130 Millionen Lichtjahren erspäht werden können. Sie pulsieren innerhalb weniger Wochen oder Tage periodisch, d. h. sie ändern ihren Radius (ihre Größe) und ihre Farbe aufgrund schwankender Brennphasen regelmäßig wie ein Uhrwerk. Die typischen Perioden reichen zwischen ein und über 130 Tage.

Die entscheidende Beobachtung war, dass die Periode des veränderlichen Sterns ein Maß für seine eigentliche Helligkeit ist. Sterne mit der gleichen Schwankungsdauer leuchten gleich hell. Die „Perioden-Leuchtkraft-Beziehung“ ist linear: Je heller ein Stern leuchtet, desto länger ist seine Periode. Findet man demnach zwei gleichgroße Cepheiden, die bei gleicher Pulsfrequenz verschieden stark leuchten, liegt es an der unterschiedlichen Entfernung.

Mit der Perioden-Helligkeits-Beziehung können wir generell die absolute Entfernung von jedem Cepheiden am Himmel berechnen, vorausgesetzt, dass wir wenigstens die Entfernung zu einem dieser Sterne kennen. Dazu nimmt man ein nahes Exemplar (man findet Cepheiden vor allem in den dünnen Scheibe der Milchstraße) und bestimmt dessen Entfernung mithilfe der Parallaxen-Methode. (Delta-Cephei beispielsweise hat eine Parallaxe von 3,77 Millibogensekunden und eine Periode von genau 5,366341 Tagen.) Dann misst man die Distanz zu einem weiter entfernten Cepheiden, indem man seine Pulsationsdauer misst und daraus die absolute Helligkeit ableitet. Aus der Differenz der scheinbaren und absoluten Helligkeit ergibt sich dann die Entfernung des Sterns.

Einige relativ nahe Cepheiden konnten an den Hyaden, einem Sternhaufen im Sternbild Stier, geeicht werden. Diese sind mit geometrischen Methoden gerade noch erreichbar. Es ließ sich ihre Entfernung bestimmen, die bei 156 Lichtjahren liegt. Dadurch ist der Abstand einiger Cepheiden von der Erde bekannt, und damit ihre tatsächliche Leuchtkraft.

In unseren nächsten Nachbarn im All, den Magellan’schen Wolken am Südhimmel, und auch noch im zwei Millionen Lichtjahre entfernten Andromeda-Nebel, der nächsten großen Spiralgalaxie, konnten weitere Cepheiden entdeckt und ihre Distanz von der Erde gemessen werden. Da Cepheiden hell strahlen, können die Astronomen mit ihnen auch die Entfernung weiter gelegener Galaxien verlässlich bestimmen. Je weiter man aber in den Raum blickt, umso schwieriger wird es, noch einzelne Cepheiden aufzuspüren und mit ausreichender Genauigkeit zu beobachten. Erst die hohe Empfindlichkeit des Hubble-Weltraumteleskops – das jenseits der störenden Erdatmosphäre arbeitete – hat es ermöglicht, Cepheiden in großen Distanzen von bis zu 65 Millionen Lichtjahren zu beobachten. (So machte man im Jahr 1995 Cepheiden in einer Galaxie des 56 Millionen Lichtjahre entfernten Virgo-Haufens aus.)

[Einige Forscher sind sich bis heute allerdings unsicher,, ob man die Cepheiden und ihr Umfeld richtig versteht bzw. ob diese eine wirklich präzise Entfernungsmessung erlauben. So driften die hellen Riesensterne oft in mit kosmischem Staub gefüllten Sternhaufen durchs All, was die Abschätzung ihrer Helligkeit verzerren könnte.]

In den ferneren Galaxien, jenseits der Entfernung von 65 Millionen Lichtjahren, lassen sich keine einzelnen Sterne mehr auflösen. Das bedeutet, dass die bewährte Cepheidenmethode bei ihnen nichts bringt. Wir benötigen also andere Verfahren bzw. andere Standardkerzen als Messhilfe. Das Problem ist allerdings, im Universum entsprechende Marker mit bekannter Leuchtkraft zu identifizieren.

Galaxien

Als Lösung bot sich die Leuchtkraft einer Galaxie an. Drei Methoden zu ihrer Bestimmung basieren auf bestimmten Eigenschaften von spiralförmigen und von elliptischen Galaxien:

Die Tully-Fisher-Relation besagt, dass die Rotationsgeschwindigkeit einer Spiralgalaxie mit ihrer Leuchtkraft korreliert. Je heller eine Galaxie strahlt, desto massiver scheint sie zu sein, und umso schneller muss sie rotieren, um stabil zu bleiben. Die Korrelation ist exzellent, wie die Beobachtung von Hunderten von Spiralgalaxien zeigt. Wir messen also einfach die Rotationsgeschwindigkeit und wissen so auch, wie hell die Galaxie ist. Dann messen wir die für uns sichtbare Strahlung. Der Unterschied, den wir durch das Entfernungsgesetz („Leuchtet eine Galaxie nur ein Viertel so hell wie eine zweite mit ansonsten ähnlichen Eigenschaften, so ist sie schätzungsweise doppelt so weit entfernt“ ) ermitteln, erlaubt es uns, ihren Abstand von uns zu messen – bei einer Unsicherheit von 10 bis 20%.

Für elliptische Sternsysteme gibt es eine ähnliche Beziehung: Die Sterne in den hellsten dieser Galaxien weisen einen größeren Bereich von Umlaufgeschwindigkeiten auf, haben also eine größere Geschwindigkeitsstreuung. Ein drittes Verfahren nutzt den Umstand, dass es mit zunehmender Entfernung immer schwieriger wird, einzelne Sterne in einer Galaxie zu erkennen. Aus der Stärke der Helligkeitsvariationen kann man auf die Entfernung schließen.

Viele astronomische Entfernungen wurden inzwischen bereits mittels dieser einfachen Beziehungen gemessen. Alle diese Verfahren lassen sich allerdings nur bis zu einer Entfernung von etwa 150 Megaparsek nutzen. Die Methoden versagen also vollkommen für sehr weit entfernte Sternsysteme, denn die Größen und Leuchtkräfte der Galaxien verändern sich im Laufe der kosmischen Entwicklung.

Supernovae Ia

Supernovae vom Typ Ia eignen sich ganz hervorragend als kosmische Standardkerzen. Sie ereignen sich in Doppelsternsystemen, in denen vermutlich nach und nach Materie eines ausgedehnten Sterns auf einen kompakten Weißen Zwerg übergeht.

Weiße Zwerge sind Sterne mit dem Radius der Erde und der Masse der Sonne. Es sind die heißen Kerne Roter Riesen, die übrig bleiben, wenn jene ihre Sternhülle abgeworfen haben. Sie bestehen im Normalfall im Innern aus heißer entarteter Materie (Materie in einem Zustand, der aufgrund quantenmechanischer Effekte von dem in der klassischen Physik üblichen abweicht) von extrem hoher Dichte, haben aber trotz hoher Oberflächentemperatur nur eine geringe Leuchtkraft.

Erreicht die Masse des Weißen Zwergs ungefähr 1,4 Sonnenmassen (Chandrasekhar-Limit), fusioniert sein Wasserstoff wie bei einer Wasserstoffbombe und der Stern kollabiert. Der Stern explodiert und leuchtet innerhalb einiger Stunden oder Tage sehr hell auf. Dabei kann er so hell wie 10 Milliarden Sonnen werden und ist darum noch in weiter Ferne sichtbar. Dann verblasst er binnen Wochen. Es ist also immer dieselbe kritische Masse, bei welcher der Kollaps einsetzt, dementsprechend auch dieselbe Energie, die frei wird. Die Kaskade physikalischer Prozesse läuft dabei stets mehr oder weniger gleich ab. Da also die Zündbedingungen, die maximale Helligkeit und die Zeitdauer bei allen Supernovae dieses Typs stets etwa gleich sind, eignen sich diese Phänomene sehr gut als himmlischer Maßstab.

Zunächst lieferten diese Verfahren lediglich relative Entfernungen. Um absolute Entfernungen zu erhalten, benötigten die Astronomen eine möglichst gute Eichung mit einer Supernova des gleichen Typs, deren Entfernung bekannt war. Die benötigte Kalibrierung lieferten dabei Cepheiden. Aufgrund detaillierter Beobachtung weiterer naher Supernovae des Ia-Typs mit den modernsten Teleskopen gelang es den Forschern, sie zu den zuverlässigsten kosmologischen Standardkerzen zu machen und damit zu einem wertvollen Werkzeug, um kosmische Entfernungen zu messen. Sobald das Licht einer Sternexplosion dieses Typs die Erde erreicht, können Astronomen auf Basis der gemessenen Helligkeit den Abstand der Quelle von der Erde bestimmen – einfach gemäß dem Gesetz, wonach die Helligkeit mit dem Quadrat der Entfernung zunimmt (s. o.).

1987 hatte eine Supernova in der Großen Magellan’schen Wolke unerwartet die Möglichkeit geboten, die kosmische Entfernungsskala zu überprüfen. Aus den gefundene Werten ergab sich eine Entfernung zu dieser Galaxie von etwa 169 000 Lichtjahren, was gut mit den Werten übereinstimmte, die mit klassischen Methoden (Cepheiden) gemessen wurden. Bei einer zweiten unabhängigen Methode wurde eine Entfernung von 160 000 Lichtjahren ermittelt. Dies ist – für astronomische Verhältnisse – eine hervorragende Übereinstimmung mit dem vorher ermittelten Wert.

1999 stellte man allerdings fest, dass die etwas helleren Sternexplosionen ein wenig länger leuchten. Die Ursache für die Dehnung der Lichtkurve ist die Expansion des Raumes. Die Astronomen mussten daher eine Beziehung zwischen der Helligkeit und der Form der Lichtkurve der Supernova berechnen und eine neue Eichung vornehmen, um zu genaueren Werten für die Entfernung zu kommen.

Supernovae vom Typ Ia liefern Ergebnisse mit halb so großer Unsicherheit wie Galaxien. Da sie extrem hell sind, werden Messungen von Entfernungen möglich, die bis zu 100mal weiter ins Universum hinausreichen als mit Cepheiden – rund 400 Megaparsek. In dieser Entfernung beträgt die Fluchtgeschwindigkeit bereits 30 000 km/s, die typischen Eigenbewegungen der Galaxien von 200 bis 300 km/s fallen also nur noch mit weniger als einem Prozent ins Gewicht. Es gelang den Astronomen sogar, die Entfernungen von Supernovae zu messen, die explodierten, als das Universum halb so alt war wie heute.

Allerdings sind Supernovae vom Typ Ia unvorhersagbar und selten. Sie ereignen sich in einer typischen Galaxie schätzungsweise nur einmal pro Jahrhundert, so dass es nötig ist, ständig weite Himmelsbereiche mit empfindlichen Teleskopen zu überwachen, um möglichst viele dieser Phänomene zu erfassen.

[Die Grundidee, dass alle Supernovae Ia genau dann explodieren, wenn sie 1,4 Sonnenmassen erreicht haben, lässt sich nach Meinung einiger Astronomen aber kaum noch generell aufrechterhalten. Die genauen Umstände einer derartigen Explosion ist nach neuen Studien komplizierter als gedacht. Danach saugt ein Weißer Zwerg in einem Doppelsystem von einem anderen Weißen Zwerg Masse ab, bis er schließlich in einer doppelten Detonation explodiert. Dabei zerbricht zuerst die Hülle aus Helium, die den Weißen Zwerg umgibt. Diese erste Detonation löst wohl schließlich die Explosion des Kohlenstoff-Kerns aus. Diese Art der Supernova-Explosion würde knapp unter der Massegrenze des Chandrasekhar-Limits liegen. Trotzdem können die Supernovae vom Typ Ia auch weiterhin als kosmische Distanzmesser dienen.]

Alternativen

Mittlerweile ist es den Astronomen gelungen, die kosmische Distanzleiter Sprosse für Sprosse zu präzisieren und die unvermeidlichen systematischen Fehler dabei immer besser in den Griff zu bekommen. Trotzdem birgt das Hochklettern auf der kosmischen Abstandsleiter immer noch eine ganze Reihe von Unsicherheiten und Ungenauigkeiten, die u. a. auch aus der Abhängigkeit vom Kosmologischen Standardmodell resultieren, das von einer Reihe wichtiger Annahmen (z. B. der Dunklen Energie) ausgeht. Die Forscher versuchen daher, Alternativen zu den bisherigen Leitersprossen zu entwickeln.

Inzwischen gibt es gut ein Dutzend verschiedener Typen von Standardkerzen. 2011 ermittelten die Kosmologen die absolute Helligkeit von aktiven galaktischen Kernen (Quasaren) und setzten sie in Beziehung dazu, wie hell die Galaxienkerne von der Erde aus erscheinen. So erhält man ein Maß für ihren Abstand von der Erde. Die neue Methode erlaubt es, größere kosmische Distanzen zu messen als vorher möglich war, bis in Entfernungen von etwa 55% vom Radius des sichtbaren Universums.

Supernovae vom Typ II lassen sich ebenfalls als Entfernungsindikatoren verwenden. Bei einer Typ-II-N-Supernova kollidieren die fortgeschleuderten Sternreste mit dem Material, welches das Gestirn zuvor ausgeworfen hatte. Die Zeit zwischen dem Ausbruch der Supernova und der explosiven Kollision beträgt nach ersten Beobachtungen etwa 40 Tage, was auf einen kausalen Zusammenhang beider Ereignisse hindeutet. Mit Hilfe der gemessenen Helligkeit kann dann ihre Distanz bestimmt werden.

Diese Methode funktioniert bis zu Entfernungen von 200 Megaparsek. Da bei solchen Supernovae vom Typ II aber sehr massereiche Sterne unterschiedlicher Größe explodieren, zeigen sie eine größere Bandbreite an Leuchtkräften als die Vertreter vom Typ Ia und sind deshalb keine guten Standardkerzen. Allerdings lässt sich ihre Entfernung durch spektroskopische Untersuchungen ihrer expandierenden Hüllen und durch fotometrische Messungen ihres Winkeldurchmessers ermitteln.

Eine andere Möglichkeit zur Bestimmung von kosmischen Entfernungen sind beispielsweise sog. Megamaser, die oft viele hundert Millionen Lichtjahre entfernt sind. Bei ihnen handelt es sich vermutlich um supermassereiche Schwarze Löcher mit vielen Millionen Sonnenmassen, die von Molekülwolken umkreist werden. Dank der markanten Strahlung, die von diesen Systemen ausgeht, kann man u. a. den Abstand der Wolken vom Schwarzen Loch ermitteln und auf Umwegen letztlich ihren Abstand zu uns. Leider sind bisher nur wenige solcher Systeme bekannt.

Auch mit Hilfe von Gravitationslinsen lassen sich kosmische Entfernungen schätzen. Darunter versteht man sehr massereiche Objekte, deren Wirkung groß genug ist, um Licht abzulenken. Vor allem sind das große elliptische Galaxien oder Galaxienhaufen, aber auch Schwarze Löcher. Sie „verbiegen“ den Raum (genauer: die Raumzeit) derart, dass sich Lichtstrahlen in ihrer Nähe nicht geradlinig, sondern gekrümmt ausbreiten, so dass gigantische Verzerrungen auftreten. Ein Quasar oder eine Galaxie, die hinter der Gravitationslinse liegen, erscheinen dabei nicht nur bogenförmig verzerrt und auseinandergezogen, sondern auch wie durch eine riesige Lupe vergrößert – manchmal um einen Faktor von 20 bis 100. Auf diese Weise erzeugen Gravitationslinsen in ihrer Helligkeit verstärkte Abbilder von leuchtenden astronomischen Objekten, die sich, von der Erde aus gesehen, hinter ihnen befinden.

Besonders interessant ist diese Anordnung, wenn die Helligkeit einer Quelle im Hintergrund variiert, was beispielsweise bei Quasaren der Fall ist. Befindet sich die Gravitationslinse außerdem minimal neben der kürzesten Verbindung zwischen Quelle und Beobachter, erscheint dieses Flackern auf der Erde nicht gleichzeitig, sondern für die jeweiligen Bilder der Quelle kurz hintereinander, da ihr Licht unterschiedlich lange unterwegs ist. Nimmt man ein System aus zwei „gravitationsgelinsten“ Bildern eines weit entfernten Objekts und misst die Zeitverzögerung zwischen beiden Bildern, kann man daraus auf die absolute Entfernung zum Objekt schließen. Damit hat man eine elegante Möglichkeit gefunden, mit Hilfe des Gravitationslinseneffekts die kosmische Entfernungsskala zu eichen.

REM

Der Weg zum Menschen (2)

Die Frühmenschen

Die Forscher gehen heute davon aus, dass der Beginn der Eiszeiten in den nördlichen Breiten und das daraus resultierende kältere und trocknere Klima in Afrika die treibende Kraft zur Menschwerdung waren.

Vor 2,8 bis 2,5 Millionen Jahren gingen die Temperaturen weltweit zum Teil dramatisch zurück, beide Polkappen vereisten und der Meeresspiegel sank. Gleichzeitig gab es deutlich weniger Niederschläge. Für die Geologen beginnt damit eine neue Epoche , das Eiszeitalter oder Pleistozän, das von circa 26 Millionen Jahren bis 11 700 Jahren vor heute dauerte. Eiszeit auf den Nordkontinenten bedeutet Trockenklima im äquatorialen Bereich. Auch in Afrika wurde es daher im Jahresmittel nicht nur kühler, sondern vor allem immer trockener. Dies führte dazu, dass sich schlagartig der nun schon seit Millionen von Jahren herrschende Zerfall großräumiger Waldbiotope verstärkt fortsetzte und die letzten Waldgebiet in Ost- und Südafrika verschwanden. Offene Flächen mit knie- bis hüfthohen Gräsern und dornigen Sträuchern nahmen zu, die Feuchtsavanne wurde vielerorts zur Trockensavanne. Lediglich entlang der Flussläufe blieben Galeriewälder erhalten.

Die Populationen der Vormenschen hatten sich an unterschiedliche Umweltbedingungen angepasst, die sich über weite Zeiträume nur ganz langsam verändert hatten. Nun aber übten schnelle, heftige Wechsel zwischen feuchten und trockenen Perioden einen zusätzlichen Anpassungsdruck aus. Denn in deren Gefolge änderten sich Vegetation, Wasserstellen und Wanderbewegungen der großen Tierherden. Lebensräume (Habitate) dehnten sich periodisch aus und schrumpften wieder – und es kam immer wieder zur Isolierung von Populationen. Vor allem in den ökologischen Randgebieten, wo der Selektionsdruck zur Entwicklung neuer Fertigkeiten groß ist, könnte eine verstärkte Auslese stattgefunden haben. (Auch Antilopen haben in dieser Zeit eine intensive Evolution durchgemacht. Mehr als drei Dutzend neuer Arten tauchten auf, darunter Gnus und Oryx-Antilopen.)

Die Nahrung nahm wohl jetzt beträchtlichen Einfluss auf die Evolution. Das Angebot an Essbarem hing oft von der Jahreszeit ab und änderte sich fortwährend. Trockenzeiten in der Savanne bedeuten für Pflanzenesser ein knappes Nahrungsangebot. Früchte und zartes Blattgrün wurden rarer und fanden sich nur noch unregelmäßig verteilt. Das bedeutet erhöhte Nahrungskonkurrenz. Hatten sich die Vormenschen zuvor vergleichsweise mühelos ernähren können, waren sie nun gezwungen, mehr Aufwand zu betreiben. Und die Fähigkeit, einen vielseitigen Speiseplan zu nutzen, konnte das Überleben in schlechten Zeiten sichern. Eher unflexible Linien starben damals offenbar aus.

Die natürliche Selektion wirkte offenbar auch dahin, sich immer energiehaltigere Nahrung zu beschaffen. In der zunehmend trockner und karger werdenden Savanne wurden aber Nüsse und Samen ungewöhnlich dickwandig und hartschalig, Wurzeln und Knollen verholzten. Darauf waren die meisten Australopithecinen von ihren Zähnen und ihrem Verdauungstrakt her nicht gut eingerichtet. Sie passten sich den neuen Bedingungen in zwei Richtungen an, die sich lange nebeneinander bewährten.

Einige Vormenschen-Arten, die robusten Australopithecinen, entwickelten massive Kiefer, eine kraftvolle Kaumuskulatur und überdimensionierte Zähne. Nach Analysen von Nahrungsspuren auf Letzteren deutet alles darauf hin, dass sie sich bevorzugt von harten, faserreichen tropischen Gräsern ernährten, aber auch Produkte von Bäumen und Büschen nicht verschmähten. Mit ihrem kräftigen Gebiss konnten sie sogar Äste und dickschalige Nüsse knacken.

Zu den robusten Australopithecinen, die den Gattungsnamen Paranthropus erhielten, gehörten zu der damaligen Zeit der Australopithecus (Paranthropus) robustus im südlichen Afrika (1,10 m bis 1,30 m groß und 37 bis 57 kg schwer) und der Australopithecus (Paranthropus) boisei in Ostafrika (1,20 bis 1,40 m groß und 40 bis 80 kg schwer). Die Größen- und Gewichtsunterschiede innerhalb beider Arten resultieren aus einem ausgeprägten Geschlechtsdimorphismus. Das Hirnvolumen der Paranthropinen betrug durchschnittlich 500 bis 510 cm3, wobei sich im Laufe der Zeit kein Trend zu einer Vergrößerung erkennen lässt.

Eine andere Linie der Australopithecinen, aus der vermutlich die Gattung Homo hervorging, entwickelte keine massigen Kiefer. Ihre Vertreter waren höchstens einige Zentimeter größer, aber zierlicher gebaut als die Paranthropinen. Sie lebten in stabilen Gruppen, die gemeinsam auf die Suche nach Nahrung gingen und diese vermutlich auch schon miteinander teilten. Ihre Nahrung bestand im Wesentlichen aus hochwertiger Pflanzennahrung: Wurzeln und Samen, Nüssen und Früchten. In zunehmendem Maße kamen Kleintiere – Termiten, Käfer und andere Insekten, Würmer, Muscheln und Schnecken, Eidechsen -, aber auch Vogeleier hinzu, manchmal sogar ein Stück Fleisch, wenn die Gruppe zufällig einen Kadaver oder ein frisch getötetes Tier fanden. Fleisch hat einen erheblichen Nahrungsvorteil: Mit einem großen Stück Fleisch können 10 Personen ernährt werden, allein das Knochenmark einer ausgewachsenen Impala-Antilope enthält immerhin 1500 Kilokalorien Nährwert. Von Beeren und Samen hätte man dafür schon eine riesige Menge sammeln müssen.

Entstehung der Gattung Homo

Offensichtlich waren Steinwerkzeuge für diese Australopithecinen eine geeignete Alternative, um auch einer zunehmend härteren Nahrung Paroli zu bieten. Vielleicht griffen sie zu einem Hammerstein, um Nüsse und harte Samen aufzuschlagen. Oder sie benutzten scharfe Steine, die sich in den Vulkangebieten Ostafrikas, besonders in den Flusstälern, häufig finden, um beispielsweise Maden aus der Baumrinde zu kratzen. Werkzeugspuren auf Tierknochen deuten darauf hin, dass sie möglicherweise auch zufällig entstandene scharfkantige Abschläge zum Schneiden einsetzten.

Am Fluss Kada Gona (Äthiopien), an der Grenze zu Kenia, wurden auf ein Alter von 2,6 Millionen Jahre gedeutete Steinwerkzeuge gefunden, die zu recht groben Schabern behauen waren und sich dazu geeignet hätten, das Fleisch von Tierkadavern von den Knochen zu lösen. Die ersten solcher grob gefertigten Steingeräte – Schaber und Chopper (beschlagene Geräte mit scharfer Kante) – waren in der Olduvai-Schlucht (Tansania) gefunden worden. Daher bezeichnet man diese Steinzeittechnologie auch als Oldowan-Kultur.

Die Artefakte und andere weitere Funde aus dieser Zeit wirken schon so raffiniert bearbeitet, dass sie wohl kaum erste Versuche einer Werkzeugherstellung gewesen sein können. Ihre Hersteller waren schon relativ geschickt und gingen planmäßig vor. Sie nahmen eine Kernstein in die eine Hand und schlugen mit einem Hammerstein in der anderen Hand gezielt Stücke mit scharfen Kanten ab. Es muss weniger perfekte Vorläufer gegeben haben und somit eine Tradition, durch die sich das nötige Wissen und Können mit der Zeit herausgeschält hat. Allerdings existiert keine Verbindung zu den 700 000 Jahre älteren Lomekwi-Geräten, die möglicherweise schon von Vormenschen hergestellt worden waren.

Die Oldowan-Kultur ist für die Zeit von vor 2,6 Millionen bis vor 1,5 Millionen Jahren nachgewiesen. Allerdings variieren die Stile zwischen den Fundorten und Zeithorizonten, weswegen manche Archäologen lieber von Oldowan-Kulturen im Plural sprechen.

Erste Menschen

In allmählicher Anpassung an die zunehmend trockneren afrikanischen Landschaften waren jetzt die ersten entscheidenden Etappen zum Menschen zurückgelegt: Erwerb des aufrechten Ganges, Umstellung in der Ernährung (von reinen Pflanzenessern zu Nahrungsgeneralisten), Herstellung (und Nutzung) von Werkzeugen. Die Anforderungen im neuen Lebensraum waren groß: Nahrung war schwer zu beschaffen, große Gefahren durch wilde Tiere – vor allem Großkatzen – drohten allüberall. Um den schnellen und starken Konkurrenten zu begegnen, musste der Mangel an körperlicher Stärke durch Kopfarbeit und Kooperation mit Artgenossen ausgeglichen werden. Es entwickelte sich ein immer ausgefeilteres Sozialleben, das Gehirnvolumen nahm (zunächst allerdings in geringem Maße) zu.

Wahrscheinlich existierten mehr als eine Million Jahre lang mehrere Homininen-Arten nebeneinander. In Ostafrika waren es zwischen 2,5 und 2,0 Millionen Jahren mindestens vier bis fünf. Wie viele Arten es in diesen Zeiten in Afrika insgesamt gab, welche davon Geräte herstellten und wie ihr Gang beschaffen war, ist aber noch ein Rätsel. Es gibt zu wenige Fossilien aus dieser Übergangsphase, die meisten davon Bruchstücke.

Dabei macht die einsetzende adaptive Radiation es schwierig, die genauen phylogenetischen Beziehungen zwischen den Australopithecinen und den Frühmenschen zu rekonstruieren und eine eindeutige Grenze zwischen ihnen zu ziehen. Typisch menschliche Charakteristika traten immer wieder in unterschiedlichen Merkmalskombinationen auf. Eine unanfechtbare Definition, ab wann von einem Menschen gesprochen werden kann oder soll, bleibt aber letztlich willkürlich. Viele Wissenschaftler sprechen ab einem Gehirnvolumen von 600 cm3 von einem Menschen (Homo).

Welche der bisher bekannten Fossilien die erste Homo-Art oder zumindest eine ihr nahestehende Spezies repräsentieren und wie die einzelnen Evolutionsschritte abliefen, lässt sich also wohl nicht exakt klären. Als ältesten Vertreter der Gattung Homo nimmt man den Homo rudolfensis an, der spätestens vor 2,5 Millionen Jahren gemeinsam mit den robusten Australopithecinen u. a. das Gebiet des Malawi-Riffs bevölkerte. Er war über 1,50 m groß und hatte schon ein Gehirnvolumen zwischen 600 und 800 cm3. Vom Homo habilis, dessen frühe Vertreter auch erstmals vor 2,8 bis 2,5 Millionen Jahren auftraten, sind mehrere Arten oder Varianten bekannt. Er war auch vielleicht um die 1,50 m groß und hatte ein Gehirnvolumen von mindestens 600 cm3. Werkzeuggebrauch ist auch bei ihm eindeutig belegt.

Die genauen Eigenschaften von Homo habilis und Homo rudolfensis und ihre exakte taxonomische Stellung sind aber nach wie vor unsicher. Einige Wissenschaftler halten den Gattungsbegriff Homo für die ihnen zugeordneten Fossilien für reichlich weit gefasst. Zumindest den älteren Habilis muss man nach den strengen Kriterien der wissenschaftlichen Klassifikation nicht zwingend unserer eigenen Gattung zuordnen, denn sein Körperbau unterscheidet sich sehr stark von unserem. Daher wird er in manchen neueren Stammbaumdarstellungen auch als Seitenast der eigentlichen Homo-Linie bezeichnet oder gar der Australopithecus-Linie zugeordnet.

Der Homo rudolfensis existierte vermutlich bis vor 1,8 Millionen Jahren. Ein Homo habilis „im engeren Sinne“ tauchte nach Meinung mancher Forscher erst vor gut zwei Millionen Jahren auf und lebte nahezu unverändert bis vor rund 1,5 Millionen Jahren. Damit liegt nahe, dass er fast eine halbe Million Jahre auch mit dem Homo erectus (s. u.) Seite an Seite in Ostafrika lebte. Die Wissenschaftler vermuten, dass sie unterschiedliche ökologische Nischen besetzten und nicht miteinander konkurrierten. Homo habilis war wohl ein „opportunistischer Allesverzehrer“ (der Paläontologe Yves Coppens), wohingegen Homo erectus Fleischnahrung bevorzugte. Einige Forscher sind überzeugt, dass beide Arten von einem gemeinsamen Vorfahren abstammen, der vor zwei bis drei Millionen Jahren in Afrika lebte, von dem aber noch keine Reste gefunden wurden.

Fleischnahrung

Steinwerkzeuge dürften von den Frühmenschen vielseitig eingesetzt worden sein. Mit einfachen Kerngeräten konnten nicht nur hartschalige Samen geknackt, sondern auch Röhrenknochen zertrümmert werden, so dass das energiereiches Mark freigelegt wurde. Werkzeuge dienten wohl auch zur Bearbeitung von Holzstöcken und anderen Gegenständen. Durch Funde lässt sich das schlecht belegen, da die meisten Dinge aus Knochen, Holz oder Horn längst in den Kreislauf der Natur zurückgekehrt sind.

Mit der beginnenden Werkzeugkultur konnten unsere Vorfahren also die Folgen des Klimawandels abfangen. Neue Nahrungsquellen konnten besser genutzt und damit der Speiseplan beträchtlich erweitert werden als bei jeder anderen Homininen-Art zuvor. Damit begann gleichzeitig die Unabhängigkeit von der Umwelt und die Abhängigkeit von den Werkzeugen – nach der Entstehung des aufrechten Gangs ein weiterer Meilenstein in der Geschichte der Menschwerdung.

Die Verarbeitung fleischlicher Nahrung wurde durch Steinwerkzeuge erleichtert. Bei allem, was größer ist als ein Hase, ist das Gebiss eines Menschen ebenso wie seine bloßen Hände für das Zerlegen des Tieres wenig geeignet, es sei denn, das Fleisch ist verfault.

Aas wurde aber wohl nicht verwertet. Das dokumentieren Schnittspuren an Knochen, z. B. in Olduvai, nach denen das Maximum an großen Fleischpartien durch gezielte Schnitte abgelöst wurde. Aasverwertende Homininen hätten lediglich Gewebereste von den Knochen heruntergeschabt und dabei ganz andere Spuren hinterlassen, als wir heute finden. Außerdem fehlten unseren Ahnen wohl auch die starken Magensäfte, um die Toxine der Bakterien, die bei der Verwesung entstehen, abzubauen.

Die scharfkantigen Steinwerkzeuge ersetzten also gleichsam die Klauen und Reißzähne der Raubtiere und ermöglichten den Frühmenschen die Zerlegung großer Kadaver von Gras fressenden Tieren. So erweiterten die ersten Vertreter der Gattung Homo ihre Nahrungsstrategie neben weiteren hochenergetischen Nährstoffen um Fleisch und nutzten dazu das Angebot der Savanne. Dabei war auch das sehr fetthaltige Knochenmark für die Homininen interessant. Tierisches Fett und Protein wurden immer wichtiger. Erste Beweise für den Verzehr von Fleisch findet man aus der Zeit vor 2,3 Millionen Jahren, danach wird er immer gebräuchlicher.

Viele Modelle der Menschwerdung nehmen allerdings an, dass Fleisch während der gesamten Evolution zum Menschen immer nur Zusatzkost war und nicht die größte Rolle spielte. Der Magen des Menschen ist nicht auf reine Fleischnahrung eingestellt. Der Frühmensch verfügte noch über eine Reihe anderer Möglichkeiten, um an proteinreiche Nahrung zu gelangen, z. B. indem er Insekten verspeiste. Der größter Vorteil gegenüber anderen Homininen-Arten war jedoch ihre Flexibilität, je nach Angebotslage reagieren zu können. Gab es keine Tierkadaver, sammelten sie Früchte und Knollen oder zerhämmerten Nüsse und Samen; war plötzlich Fleisch verfügbar, ernährten sie sich davon.

Da die Frühmenschen nicht auf eine regelmäßige Versorgung mit Fleisch angewiesen waren, kann sich das Erbeuten von Großtieren allmählich entwickelt haben, ohne dass komplexe Verhaltensweisen von Beginn an vorausgesetzt werden müssen. Durch die Fülle großer Pflanzenfresser in der Savanne ergaben sich wahrscheinlich vielerlei Gelegenheiten, ohne große Probleme an Fleisch zu kommen. So blieben nach Steppenbränden viele frisch verendete Kadaver zurück. Bei der Geburt verstorbene Tiere der jahreszeitlich wandernden großen Herden waren leicht aufzufinden (z. B. durch Beobachtung von Geiern). Durch Verletzungen geschwächte oder kranke Tiere konnten an ihrem Verhalten erkannt und systematisch verfolgt werden, bis sie starben. Außerdem beobachteten die frühen Menschen möglicherweise Raubtiere bei der Jagd. Was diese von ihrem Riss übrigließen, war oft mehr als genug. (Löwen lassen bis zu 50% liegen, Leoparden bis zu 20%.)

Mit der Hinwendung zu Fleischnahrung hatte die Homo-Linie einen sehr erfolgreichen Weg gewählt. Die Vorteile des gelegentlichen Fleischverzehrs („opportunistische Großwildbeuter“) lagen in der hohen Qualität der Nahrung, der Transportierbarkeit und eben dem häufigen Vorkommen in der Trockenzeit, wodurch die saisonalen Schwankungen im Nahrungsangebot ausgeglichen werden konnten. Die reichhaltige, fett-, eiweiß- und phosphatreiche Nahrung schuf Voraussetzungen, dank derer in der Gattung Homo später das energiehungrige Gehirn größer und leistungsfähiger wurde. Während sich also die robusten Homininen-Formen mit ihrem mächtigen Kauapparat als Nahrungsexperten für harte Kost etablierten, lag der Vorteil der Homo-Sippe mit zierlichen Kiefern, weniger Kaumuskulatur und schwächeren Backenzähnen im sich stetig vergrößernden Gehirn.

Aber nicht das Erbeuten von Großtierkadavern und die Fleischnahrung selbst sind als typisch menschliche Verhaltensweisen herauszustellen, sondern die Nahrungsteilung. Allein die Größe der Beutetiere könnte diese Form des sozialen Verhaltens bewirkt haben. Da große Beutetiere weder von einem Individuum noch von einer sehr kleinen Verwandtschaftsgruppe allein verspeist werden können, erfordert deren vollständige (optimale) Nutzung geradezu eine Nahrungsteilung in einer größeren Gemeinschaft. Diese hatte wohl einen nachhaltigen Einfluss auf die Entwicklung der Sozialstrukturen und weiterer menschlicher Verhaltenseigenschaften gehabt, was zu einem erheblichen Selektionsvorteil geführt haben musste.

Leben in der Gruppe bedeutet in der Savanne auch immer eine höhere Überlebenschance. Ein einzelner nicht bewaffneter, zweibeiniger Hominine wäre hier wohl angesichts der überall lauernden Gefahren nicht überlebensfähig. Auf langen Nahrungsstreifzügen bot eine Gruppe größeren Schutz. In der Gemeinschaft gelang es, Raubtiere von einem Riss zu vertreiben oder abzuhalten, beispielsweise durch Schreien und Schlagen mit Stöcken oder Werfen mit Steinen und Ästen.

Oft beobachten die San in der Kalahari heute noch Raubtiere bei der Jagd und greifen erst ein, nachdem diese erfolgreich waren. Sie vertreiben z. B. Geparden von ihrer Beute, indem sie laut rufen und auf den Boden schlagen. Es gelingt ihnen sogar bei Löwen, zumindest Teile eines kurzzeitig verlassenen Risses zu erbeuten. Dass dies auch Frühmenschen schafften, wird durch Schnittspuren an fossilen Knochen belegt, die von Steinmessern verursacht wurden und zum Teil über den Fraßspuren von Raubtieren liegen.

Strategische Planung war also schon erforderlich, um in der feindlichen Umwelt bestehen zu können. Hinweise auf eine aktive Jagd gibt es allerdings nicht. Jagdmethoden wie Hetzjagd oder Anschleichen und Auflauern kamen für die Frühmenschen zunächst noch nicht in Frage, da sie einfach körperlich dazu noch nicht in der Lage waren und auch keine Tötungsmittel besaßen.

Homo erectus

Vor spätestens zwei Millionen Jahren betrat mit dem Homo erectus eine großwüchsige und wendige Menschenart die Bühne, die der unseren bereits deutlich ähnelte. Sein Auftreten markiert einen Meilenstein in der Menschen-Evolution. Die Werkzeugkultur änderte sich drastisch. Jetzt sahen die Steinwerkzeuge aus, als wären sie nach einheitlichen Vorgaben fabriziert.

Wahrscheinlich lebte Homo erectus mit anderen Homininen-Arten zusammen. Im südlichen Afrika lebte vor fast zwei Millionen Jahren auch z. B. der Australopithecus sediba, der in bisher nicht gekannter Manier Kennzeichen der Gattung Australopithecus verbunden mit solchen zeigt, die auf die Gattung Homo weisen. Er ging aufrecht und hatte vermutlich schon sehr geschickte Hände. Sein Gehirn ähnelte allerdings bei 420 cm3 Volumen mehr dem eines Schimpansen. Nach Meinung einiger Experten könnte er durchaus ein naher Vorfahr der Gattung Homo gewesen sein; viel wahrscheinlicher scheint aber, dass die südafrikanischen Homininen eine separate Formengruppe mit eigener lokaler Geschichte darstellen.

Die frühen Vertreter des Homo erectus lebten in mehr oder weniger offenen Savannengebieten und in den Galeriewäldern entlang der Flüsse. Durch die Vervollkommnung des aufrechten Gangs waren sie in der Lage, auf ihren Streifzügen große Entfernungen bei geringerem Kalorienumsatz zurückzulegen. Homo erectus hatte sich zu einem Ausdauerläufer entwickelt. Manche Forscher sind der Ansicht, dass er schon in der Lage war, seine Beute bis zur völligen Erschöpfung zu hetzen, wie es die San auch heute noch tun. Zwei Millionen alte Fundstücke vom Ufer des Victoria-Sees in Westkenia, die meisten von jungen Antilopen, halten die Wissenschaftler für die bisher ältesten handfesten Zeugnisse menschlicher Jagd. Über einen langen Zeitraum scheint man dort regelmäßig und in erheblicher Menge Fleisch, Fett, Knochenmark und dergleichen verzehrt zu haben. Auch in der Olduvai-Schlucht fand man einen – auf 1,85 Millionen Jahre datierten – Platz, an der Frühmenschen massenhaft Tiere zerlegt haben.

Homo erectus entwickelte sich zum ersten Großwildjäger der Menschheitsgeschichte. Selektionskräfte bewirkten einen Umbau der Schulter, so dass er lernte, mit großer Kraft weit und gezielt zu werfen. Trotzdem machte auch jetzt noch aller Wahrscheinlichkeit nach Großwildfleisch nur einen kleinen Teil seines Nahrungsspektrums aus. Es dürfte gerade mal 10 bis 20% seiner gesamten Kalorienzufuhr ausgemacht haben. Daneben standen bei ihm neben Insekten vor allem energiereiche Pflanzenteile auf dem Speiseplan, z. B. Knollen, wie Zubereitungsspuren an Werkzeugen erkennen lassen.

Diese frühen Menschen waren also Allesesser und überstanden darum wildarme Phasen viel besser als die reinen Fleischfresser, zu denen damals auch Säbelzahnkatzen gehörten. Gerade in Zeiten, in denen die Raubtiere hungerten, fanden diese Homininen immer noch etwas Essbares. Zudem brachten ihnen technische Innovationen und kreative Jagdtechniken mehr Beute ein, so dass sie den Großraubtieren zu einer immer ernsteren Konkurrenz wurden und schließlich zum Aussterben einer Anzahl von ihnen führte.

Australopithecus boisei, eine robuster Australopithecine, lebte noch lange Zeit und auch räumlich dicht mit dem kulturell weiterentwickelten Homo erectus in Ostafrika zusammen. Er starb erst vor etwa einer Million Jahren aus, als Homo erectus bereits die gesamte Alte Welt bevölkerte. Möglicherweise erlaubte ihm seine spezialisierte Lebensweise nicht, sich nochmals auf eine andere Kost umzustellen, als eine neue Kaltzeit Klima und Umwelt veränderten. Vielleicht waren aber auch noch andere Faktoren die Ursachen für sein Aussterben.

Der große Vorteil des Homo erectus lag wohl an seinem größeren Gehirn und der entsprechend höheren Intelligenz und Flexibilität im Vergleich zu den Australopithecinen und anderen frühen Homininen. Sein Gehirnvolumen entwickelte sich von knapp 600 cm3 beim frühen bis auf sage und schreibe 1250 cm3 beim späten Erectus. Seine beträchtliche Anpassungsfähigkeit an ungewohnte ökologische Herausforderungen war wohl die entscheidende Eigenschaft, die es ihm auch ermöglichte, in neue Lebensräume vorzustoßen. Als erste Menschenart überhaupt breitete er sich über ganz Afrika aus und besiedelte den Kontinent von den gemäßigten Zonen Südafrikas bis weit nach Norden. Die erste Auswanderung nach Europa und Asien ließ nicht lange auf sich warten. Er ist damit nach Homo sapiens die am weitesten verbreitete Menschenform aller Zeiten. Auf indonesischen Inseln existierte Homo erectus noch bis vor etwa 100 000 Jahren, während er sich an anderen Orten zu neuen Menschenformen entwickelte oder in nachrückenden Menschenformen aufging.

In Afrika lebten noch bis vor mindestens 400 000 Jahren verschiedene zeitlich und räumlich unterscheidbare Gruppen oder Unterarten des Homo nebeneinander. Dann spaltete sich eine weitere Art als kleine abgeschlossene Population von der Linie des Homo erectus ab und entwickelte sich zum Homo sapiens, der schließlich den gesamten Erdball besiedelte.

REM