Homo erectus verlässt Afrika

Die räumliche Mobilität menschlicher Bevölkerungen ist so alt wie der evolutiv neuartige Körperbau der Gattung Homo, der mit allen seinen Anpassungen – insbesondere der damit verbundenen physischen Ausdauer – lange Wanderungen erst ermöglichte. Vielleicht begann alles damit, dass der Frühmensch den Weidetieren nachzog, die durch das stark gegliederte Wettergeschehen in Trocken- und Regenzeiten große Strecken zurücklegen mussten. Das „Mitwandern“ bot die beste Chance für eine nachhaltige Nutzung der Tiere. Interessanterweise entspricht die „Durststrecke“ der Menschen etwa der der Wiederkäuer. Für Raubtiere ist ein Mitwandern ungünstig, da sie ein ausgeprägtes Ruhebedürfnis haben und ihre Jungen nicht mitnehmen können.

Spätestens irgendwann vor etwa 1,9 Millionen Jahren müssen sich Gruppen von Homininen, die dem Homo erectus zugerechnet werden, weiter als jemals zuvor ins Unbekannte vorgewagt haben. Vielleicht folgten sie den Tierherden in ausgedehnte Regionen, vielleicht trieben auch Vulkanausbrüche oder gravierende klimatische Veränderungen diese Menschen weiter. Viele vermuten, dass steigende Populationsgrößen es für einzelne Gruppen notwendig machten, neuen Lebensraum zu erschließen.

Erste Ausbreitungswelle

Homo erectus erweiterte seinen Lebensraum (vermutlich vom heutigen Kenia aus) zunächst auf die damaligen Grasländer im südlichen Afrika, im Kongo-Becken und in der heutigen Sahel-Zone. Die damals dort verbreitete Savannenvegetation dürfte ihm vertraut erschienen sein. Mit der Zeit gelangte er auch immer höher in den Norden des Kontinents und erreichte wohl bald das Mittelmeer. Schließlich verließen die Homininen den afrikanischen Kontinent. Im heutigen Israel fanden Forscher 1,9 Millionen Jahre alte steinerne Artefakte. Vor spätestens 1,8 Millionen Jahren gelangten Gruppen an den Südrand des Kaukasus. Im georgischen Dmanisi, 85 Kilometer Luftlinie südwestlich von Tiflis, wurden 1,8 Millionen Jahre alte menschliche Skelettknochen gefunden, darunter Schädel mit Gehirnvolumina zwischen 546 und 775 cm3.

Die Frühmenschen von Dmanisi sind sogenannte „Mosaiktypen„: Einige ihrer Skelett- und Schädelmerkmale sehen relativ modern aus, andere erinnern an frühere Homininen. Wegen ihres charakteristischen Merkmalsmosaiks, das auch gut zu einer Übergangsform passen könnte, werden sie oft unter dem Namen „Homo georgicus“ geführt. Diese Menschen stellten ihre Werkzeuge noch nach der primitiveren Oldowan-Methode her. Es gibt Hinweise, dass sie gelegentlich Tiere zerlegten, ob selbst erlegt oder Raubtieren abgejagt ist unklar.

Vielleicht kamen die Dmanisi-Menschen auch ins südliche Europa, wo sie bald wieder ausstarben. Einige Gruppen von ihnen könnten nach Südostasien weitergezogen sein. Ein zweiter Hauptstrom der ersten Auswanderer könnte aber auch schon weit vor dem Kaukasus gen Osten abgebogen sein und über die Arabische Halbinsel und den während kälterer Klimaepisoden trocken gefallenen Persischen Golf nach Indien und schließlich bis in den Fernen Osten gelangt sein. Frühmenschen erreichten jedenfalls spätestens vor 1,8 Millionen Jahren die heutige indonesische Insel Java, die in Eiszeiten mit dem asiatischen Festland verbunden war. Hier breitete sich Homo erectus explosionsartig aus und bevölkerte wohl bald auch die Wälder und Steppen Ostasiens. (Sicher belegt ist die Besiedlung Ostasiens aber erst für eine Phase vor etwa 1,1 Millionen Jahren.)

Die menschlichen Fossilien aus jener Zeit auf Java zeigen grundsätzliche morphologische Übereinstimmungen im Schädelbau mit den afrikanischen Fossilien. Sie unterscheiden sich allerdings durch etliche Merkmale vom Homo georgicus, was als Anpassung an unterschiedliche Ernährungsgewohnheiten gedeutet werden kann. Die Trockenzeit fällt auf Java sehr kurz aus, so dass vor allem Pflanzen zum Nahrungsspektrum zählten und eine geringe Notwendigkeit zur Beschaffung von Fleisch bestand.

Die erste Welle der Ausbreitung unserer Urahnen stellt eine beachtliche Leistung dar – vor allem die 14 000 Kilometer lange Wanderung von Ostafrika nach Ostasien. Mit Hilfe einfachster Technologie drang Homo erectus in völlig neue Biotope und Klimate vor und passte sich dort erfolgreich an die lokalen Gegebenheiten an. Die genaue Route dieser großen Wanderungen über viele Generationen hinweg ist immer noch unklar: Es gibt keinerlei Hinweise darauf, ob sie entlang der Flussläufe oder der Küstenlinien verlief oder ob die Menschen den Wanderrouten von Tierherden im Landesinneren folgten.

Zweite Ausbreitungswelle

In den folgenden Hunderttausenden Jahren mögen zwar einzelne Gruppen in wärmeren und feuchteren Zwischenphasen immer wieder mal die mittlerweile bekannten Pfade aus Afrika hinaus beschritten haben, aber der breite Strom der Auswanderer riss auf lange Zeit ab. Denn während der Perioden globaler Abkühlung dehnte sich immer wieder eine gewaltige Wüste zwischen Afrika und Eurasien aus. Unterdessen verbreitete sich Homo erectus nach und nach über große Teile des afrikanischen Kontinents.

Der Unterschied zwischen wärmeren und wesentlich kälteren Abschnitten wurde vor etwa 1,4 Millionen Jahren zunehmend ausgeprägter, so dass sich auch die Lebensbedingungen und die gewohnten Ressourcen oft abrupt veränderten. Eine neue Ausbreitungswelle aus Afrika hinaus ereignete sich vor 1,4 bis 1,0 Millionen Jahren. Diesmal erreichten die Homininen auch Südeuropa. Im südspanischen Orce fand man 1,3 Millionen Jahre alte Steinwerkzeuge. Vor 1,2 Millionen Jahren besiedelten erste Menschen Höhlen und Felsspalten in Nordspanien (Sierra de Atapuerca). Die Auswanderer könnten über die Straße von Gibraltar gekommen sein. Eine Landbrücke zwischen dem heutigen Marokko und Spanien wird zwar ausgeschlossen, aber die Frühmenschen könnten auf einfachen Flößen oder ausgehöhlten Baumstämmen die damals schmale, 5 bis 10 Kilometer breite Wasserstraße (heute 14 Kilometer breit) überquert haben.

Schwer vorstellbar ist auch, dass zwischen Tunesien und Sizilien eine feste Landbrücke bestand. Es gibt dort am Meeresgrund Tiefseebecken und eingeschnittene Täler. Doch scheinen Elefanten und andere Tiere das zentrale Mittelmeer tatsächlich überbrückt zu haben. Vielleicht entstand hier, zumindest in besonders kalten Wintern, eine ähnliche Situation, wie wir sie von der Ostsee kennen. Durch einen weit geringeren Salzgehalt als heute – aufgrund des eingeschränkten Wasseraustauschs mit dem Atlantik bei einem niedrigen eiszeitlichen Meeresspiegel – könnte das Mittelmeer einfach zugefroren sein oder sich durch Packeis eine weit ins Meer hineinreichende begehbare Zone gebildet haben.

Die Anatomie der in Spanien gefundenen Menschen ist so einzigartig, dass ihnen die spanischen Forscher einen eigenen Namen, Homo antecessor (wörtlich: „der Mensch, der vorausgeht“), gegeben haben. Sie waren rund 1,70 Meter groß, besaßen eine niedrige Stirn, kräftige Wülste über den Augen und starke Zähne. Die meisten Paläontologen halten sie für eine Variante vom frühen Homo erectus. Ihre Werkzeuge waren noch primitiv, sie ernährten sich vorwiegend von pflanzlicher Kost und verzehrten Fleisch vermutlich noch roh.

Es hat wohl mehrere Einwanderungswellen bzw. erste Vorstöße nach Europa gegeben, wobei sich manche Populationen eine Zeit lang hielten, viele aber bald wieder verschwanden, wenn die Lebensräume durch Klimaverhältnisse unfreundlich oder sogar nicht mehr bewohnbar wurden. So kehrten Gruppen der Auswanderer auch nach Afrika zurück und vermischten sich wieder mit der dort ansässigen Bevölkerung. Dieses Kommen und Gehen macht die Aufstellung von geraden Entwicklungslinien äußerst schwierig.

Der langbeinige und mit einem großen Gehirn ausgerüstete Jäger Homo erectus (Homo ergaster), der vor ca. 1,8 Millionen Jahren plötzlich in Ostafrika auftauchte, könnte sich sogar aus Rückwanderern aus Westasien entwickelt haben. Vor 1,4 Millionen Jahren scheint Homo erectus dann in Afrika verschwunden zu sein, bis er später hier wieder nachweisbar ist. Gruppen seiner Art zogen dann wieder nach Eurasien.

Immer wieder tauchten vor etwa einer Million Jahren Menschen im europäischen Mittelmeergebiet auf, kamen aber dauerhaft zunächst nicht über die südlichsten Regionen des Kontinents hinaus. So sind Frühmenschen in Ceprano (südlich von Rom), in Südfrankreich (Le Vallonet, nahe Mentaon) und in Nordgriechenland (Höhle bei Petralona) nachgewiesen. In der Grandolina-Höhle in der Sierra de Atapuerca (Spanien) kamen menschliche Knochen und Zähne zutage, die auf mindestens 780 000 Jahre geschätzt werden. Viele Merkmale erinnern stark an den frühen afrikanischen Homo erectus, aber es gibt auch einige moderne Merkmale: So zeigen der flache Gesichtsschädel mit eingesenkten Wangenknochen und vorspringender Nase sowie der Bau des Unterkiefers bereits deutliche Ähnlichkeiten zu anatomisch modernen Menschen. Allerdings gibt es keine Hinweise auf die fortschrittliche Acheuleen-Technologie.

In Asien wurden in Wolo Sege auf der kleinen Sunda-Insel Flores, zwischen Java und Timor gelegen, mindestens 1,02 Millionen Jahre alte Werkzeuge gefunden. Die Insel war auch zu Zeiten niedrigsten Wasserspiegels stets durch mindestens 19 Kilometer offenen Meeres von der Nachbarinsel Sumbawa getrennt. Das bedeutet also, dass die Einwanderung der Frühmenschen nur über das offene Meer erfolgt sein konnte. Demnach musste auch hier Homo erectus bereits über seetüchtige „Fahrzeuge„, z. B. Bambusbündel oder -flöße, verfügt haben. Auf Flores und Timor wurden auch rund 840 000 Jahre alte, grob behauene Steinwerkzeuge gefunden. Interessanterweise gibt es Langzeit-Parallelen bei der Entwicklung der Steinwerkzeuge auf Java und Flores. Daraus folgert man, dass es einen ständigen sozialen Austausch zwischen den Frühmenschen auf der Insel und denen auf dem Festland gegeben haben muss.

Vom Homo erectus stammen wahrscheinlich auch die zwergförmigen Flores-Menschen (Homo floresiensis) ab. Sie könnten späte Nachfahren des frühen Homo erectus sein, der vor über einer Million Jahren die Küste Indonesiens und die Insel Java erreichte und sich dann isoliert von anderen Artgenossen zu einer eigenständigen Form entwickelte.

Interessanterweise hat sich die Acheuleen-Technologie niemals bis nach Ostasien ausgebreitet. Homo erectus ging hier weitgehend seinen eigenen Weg, unabhängig vom Geschehen in der übrigen Welt. Vermutlich gestalteten die frühesten Ostasiaten ihre Werkzeuge zumeist aus Holz oder Bambus. Aus der Zeit vor etwas mehr als 800 000 Jahren sind in China große Steinwerkzeuge (symmetrisch bearbeitete Schneidewerkzeuge) belegt. Sie ähneln dem bekannten Faustkeil, weisen aber auf eine eigenständige Kultur hin.

Von einem mutmaßlichen Homo erectus , der vor etwa 500 000 Jahren im Raum Peking lebte (Peking-Mensch), fand man in Höhlen Holzkohle (Feuer!), Quarzitspitzen zum Schärfen von Speeren und Äxte zum Fällen von Bäumen. Die gefundenen Schädel hatten bereits ein Gehirnvolumen von durchschnittlich knapp 1100 cm3, bei allerdings großer Streuung. Der Peking-Mensch starb frühestens vor 230 000 Jahren aus. Auf Java lebte Homo erectus nach einer neueren Studie (Fundort Ngandong) noch bis vor 117 000 bis 108 000 Jahren. Wahrscheinlich starb er als eine lokale Art in anderen abgelegenen Gebieten noch viel später aus (wie z. B. die Zwergformen Homo floresiensis oder Homo luzonensis auf Inseln). Ob der asiatische Homo erectus auch wieder ins westliche Europa vorgestoßen ist, ist noch unklar.

Homo heidelbergensis

Wärmere Phasen erlaubten mehrfach ein Vordringen von Urmenschen auch in die nördliche Gebiete Westeuropas. In der Nähe von Worms (Westdeutschland) und bei Happisburgh (im Osten Englands) wurden 800 000 bzw. 780 000 Jahre alte Steinwerkzeuge gefunden. An der Themsemündung stieß man auch auf die bislang ältesten Fußspuren von Menschen außerhalb von Afrika: geschätzt 700 000 Jahre alt. Verbesserte Werkzeuge, eine hohe Flexibilität, ein ausgeprägtes Sozialverhalten und die Fähigkeit, Feuer zu machen und zu beherrschen trugen dazu bei, dass die frühen Menschen immer weiter in kältere Klimazonen vordringen konnten. Eine nennenswerte und kontinuierliche Besiedlung im Norden Europas fand aber erst vor 600 000 bis 500 000 Jahren statt.

Die neuen Menschenformen, die sich in Europa, Afrika und Westasien herausbildeten und hier bis vor etwa 200 000 Jahren lebten, werden vorläufig als Homo heidelbergensis bezeichnet, zunehmend auch Funde, die bisher als Relikte des frühen Neandertalers galten. Vielleicht stammt dieser Menschentyp vom Homo antecessor ab. Da aber auch in Afrika Fossilien gefunden wurden, die dem Heidelberger Typ entsprechen – z. B. ein 600 000 Jahre alter Schädel aus Bodo / Äthiopien – glauben viele Paläoanthropologen, Homo heidelbergensis habe sich zuerst in Afrika aus einer dortigen Form des Homo erectus entwickelt und sei dann nach Europa vorgedrungen. Homo antecessor wäre in diesem Fall lediglich ein fehlgeschlagener erster „Ausflug“ einer früheren afrikanischen Menschenform nach Europa gewesen, die wieder verschwand und keinen Nachkommen hinterließ – quasi ein Irrläufer der menschlichen Evolution.

Vor rund einer halben Million Jahren verstärkten die Kaltphasen der Eiszeiten die Isolierung Europas noch weiter. Die Eisdecken dehnten sich über dem Nordwesten des Kontinents und den Hochgebirgen aus. Die Landschaftsarten, die sich heute zwischen Nordskandinavien und dem Mittelmeer erstrecken, drängten sich auf dem Höhepunkt der Kaltzeiten zwischen dem heutigen Belgien und Spanien zusammen. Gleichzeitig sank der Meeresspiegel, so dass entlang der Küsten neuer Lebensraum hinzukam: Ärmelkanal, Nordsee und nördliche Adria lagen trocken.

Tundra-Verhältnisse in Mitteleuropa bedeuteten eine trockene Kälte mit hoher Sonneneinstrahlung. Die Sommer waren warm und angenehm, die Winter aber streng – ein Klima, das insgesamt den Ansprüchen der Menschen zuträglicher ist als das heutige Klima in unseren Breiten mit reichlich Niederschlägen. Die Tundra war reich bewachsen; die Pflanzen enthielten viele wertvolle Mineralstoffe. Dies war eine der Ursachen für den ungeheuren eiszeitlichen Tierreichtum und machte erst die Größe der Tiere und ihre Fähigkeit, den eiszeitlichen Winter zu überstehen, möglich. Der höhere Fettgehalt im Fleisch sorgte auch bei den Homininen für einen wichtigen „Brennstoff“ gegen die Winterkälte; die Mineralien, vor allem die reichliche Versorgung mit Phosphorverbindungen, sorgten für den weiteren Aufbau des menschlichen Gehirns. Dessen Volumen erreichte beim Homo heidelbergensis bereits 1200 bis 1300 cm3.

Mit Beginn des Mittelpleistozäns vor rund 400 000 Jahren gab es zusätzlich zu den großen, periodisch wiederkehrenden Klimaschwankungen der eigentlichen Eis- und Zwischeneiszeiten wohl auch während der einzelnen Warmzeiten etliche kurze, durchaus heftige Einbrüche. Wie die Evolution der Homininen in Afrika stark von lokalen wie von globalen Klimaumschwüngen beeinflusst war, mit denen eine Ausbreitung oder Rückbildung der Wald-, Savannen- oder Wüstenregionen einherging, so gab es auch für die damalige europäische Entwicklung des Menschen mit den stark wechselnden Klimabedingungen vergleichbare Ursachen. Es bildeten sich verschiedene Lokalpopulationen mit ganz bestimmten Merkmalskomplexen und Fähigkeiten heraus. Trafen diese Gruppen nach einiger Zeit bei ihren Wanderungen wieder aufeinander, ergab sich die Gelegenheit, Wissen und Gene auszutauschen.

Schließlich vermochte Homo heidelbergensis mit seinen Fertigkeiten (von verbesserter Werkzeugherstellung über Kochen bis zum Bau von Behausungen) die Natur effizienter auszubeuten als seine Vorfahren. Er kannte bereits die Werkstoffeigenschaften von Steinen, Knochen und Geweihen und verwendete Zahnbein und Holz und wahrscheinlich auch andere organische Stoffe. Diese Menschen waren überwiegend Rechtshänder und benutzten bei manchen Beschäftigungen, z. B. beim Bearbeiten von Fellen, das Gebiss als „dritte Hand“.

Funde von zahlreichen seiner Rastplätze belegen, dass Homo heidelbergensis schon ein geschickter Großwildjäger mit perfektionierten Waffen gewesen sein muss, noch erfolgreicher als seine Vorgänger. Die älteste bekannte unzweifelhafte Jagdwaffe ist eine Stoßlanze aus Clacton (England), die das Töten von Großwild, wenn auch nur aus nächster Nähe, erlaubte. Auch Geweihhacken könnten als Jagdgeräte gedient haben. Für die Jagd auf Wasservögel wurden Wurfstöcke (Wirbelhölzer) benutzt.

Die Gefahren für den Jäger, die vom gejagten Großwild ausgingen, waren allerdings beträchtlich und wurden erst mit der Erfindung des Wurfspeers vermindert. Zumindest der späte Homo heidelbergensis verstand es, Speere mit praktisch perfekten Wurfeigenschaften herzustellen. Am Nordrand des Harzes (Schöningen / Deutschland) fand man zweieinhalb Meter lange Speere, die so ausbalanciert waren wie heutige Sportspeere und mit denen sich treffsicher einige Dutzend Meter weit werfen ließ. Auf dem zwischen 370 000 und 290 000 Jahre alten Jagdplatz fand man neben den Speeren auch Skelettreste von mindestens zwanzig Pferden (Hengste, Stuten, Fohlen).

Um bei der Jagd erfolgreich zu sein, musste Homo heidelbergensis die gesamte Natur beobachten. Er musste die Jahreszeiten genauestens kennen, über präzise Ortskenntnis verfügen und grundlegendes Wissen über das Verhalten der Tiere haben. Insbesondere die Großwildjagd stellte hohe Anforderungen an geistige Beweglichkeit, Reaktionsvermögen und soziale Kommunikation. Diese Menschen mussten also nicht nur Situation blitzschnell erfassen, sondern sich untereinander auch rasch verständigen können. Schnelle und kräftige Wildtiere, wie z. B. Pferde, konnten wohl nur von Menschen erlegt werden, die in Gruppen organisiert waren und sprachlich miteinander kommunizierten. Daher gilt heute als sicher, dass bereits Homo heidelbergensis eine Sprache entwickelt hatte. Wir wissen allerdings nicht, wie komplex die Sprache war.

Vor 370 000 Jahren hatten Vertreter des Homo heidelbergensis eine kleine Siedlung beim heutigen Bilzingsleben (Thüringen) angelegt, die sie immer wieder eine Zeitlang (vielleicht sogar über mehrere Jahre) bewohnten. Sie war in Wohn-, Arbeits- und andere Aktivitätsbereiche untergliedert, was auf eine soziale Organisation hindeutet. Die größte Sensation ist ein fast runder Platz von neun Metern Durchmesser am Rande des Lagers, zu dem eine gerade Reihe aus großen Steinbrocken führte. An deren Anfang grub man zwei 1,80 Meter große Elefantenstoßzähne aus, die wahrscheinlich ursprünglich aufrecht standen.

Der Platz selbst war dicht mit Steinen und flachen Knochenstücken gepflastert und frei von jeglichen alltäglichen Sachen. Offensichtlich nahm das Areal im Alltagsleben der Gruppe eine herausragende Stellung ein. In der Mitte dürften auf Steinplatten Feuer entfacht worden sein. Auf einem Quarzitblock, der zwischen den Hornenden eines in das Pflaster eingelassenen Wisentschädels steckte, wurden Knochen zerschlagen. Man fand auch mehrere menschliche Schädelfragmente, möglicherweise Anzeichen für ein Ritual.

In der Zeit des Homo heidelbergensis wurden vielfach die Schädel Verstorbener an Lagerplätze gebracht und eine Zeitlang aufbewahrt. Die Schädel der Pferde in Schöningen waren nicht zerschlagen – ein Erstbefund in der Altsteinzeit -, was auf eine ehrfurchts- und respektvolle Behandlung des erbeuteten Wildes oder eventuell auch auf ein Ritual hindeuten könnte.

Auf dem Platz in Bilzingsleben fand man auch eine besondere Art von Faustkeil, der nicht aus Feuerstein war und zudem so groß und schwer, dass er nicht zum Zerteilen von Tieren oder Zerhacken von Pflanzen hergestellt worden sein konnte. Er diente möglicherweise als Statussymbol. Auch in einer spanischen Höhle (Sima de los Huesos) hatte man einen aus wertvollem Material (rotem Quarzit) hergestellten Faustkeil gefunden, der offensichtlich bei der Bestattung einem Gruppenmitglied mitgegeben wurde.

Die Gedanken des Homo erectus reichten offensichtlich weit über die notwendigsten alltäglichen Verrichtungen der Existenzsicherung hinaus. Nicht erst Homo sapiens erfand also die menschliche Kultur, symbolisches Denken, planvolles Handeln und Sprache. Die Grundsteine dazu hatte der Homo erectus schon längst gelegt. Der Urgeschichtler Hansjürgen Müller-Beck geht davon aus, „dass mit Sicherheit bereits vor 400 000 Jahren der Schritt zu einem Menschen vollzogen worden war, der sich in seinen Möglichkeiten von uns nicht mehr grundsätzlich abhebt“.

Unklare Verhältnisse

Eine Geschichte des Menschen, die vor allem auf Anatomie und Knochen aufbaut, weist leider zahlreiche Lücken und Irrtümer auf und vermittelt im Detail bestenfalls ein diffuses Abbild dessen, was einst eine verwickelte Abfolge von Ereignissen gewesen sein muss. Das liegt zum Einen daran, dass auf einige tausend Generationen rein statistisch betrachtet lediglich ein einziger Fund kommt. Des Weiteren sind viele morphologische Merkmale individuell sehr variabel und lassen sich nicht einfach als vorhanden oder nicht vorhanden klassifizieren. Parallelentwicklungen und Umkehrungen von Merkmalsausprägungen sowie Rückbildungen können ebenso in die Irre führen und die Einordnung von menschlichen Fossilien letztlich sehr verkomplizieren.

Offensichtlich zeichnete sich Homo erectus durch eine große anatomische Vielfalt aus. Aus diesem Grunde haben einige Paläoanthropologen separate Artnamen vergeben: Homo ergaster, Homo georgicus, asiatischer Homo erectus, Homo antecessor, Homo heidelbergensis. Es scheint aber keinen Sinn zu machen, die unterschiedlichen Populationen des Homo erectus als eigene Arten zu führen. Die Forscher verweisen auf eine zu erwartende große Variation bei lange Zeit und weit verstreut existierenden Formen hin. Vor allem die zunehmende räumliche Trennung der Populationen und eine gewisse Anpassung an die örtlich vorherrschenden Verhältnisse führten zur Entwicklung regionaler Menschenformen. Aber selbst innerhalb derselben lokalen Fortpflanzungsgemeinschaft ist das Gemisch aus alten und moderneren Merkmalen oft verwirrend.

Für die Wissenschaftler ist es schwierig, DNA unserer Vorläufer zu finden, da sich das Molekül unter den damaligen Klimabedingungen im Laufe der langen Zeit schnell zersetzte. Allerdings ist es Forschern inzwischen gelungen, aus dem Zahnschmelz eines Homo heidelbergensis Erbgutinformationen zu erhalten. Danach könnte er eng mit dem gemeinsamen Vorfahren von Denisovaner, Neandertaler und Homo sapiens verwandt sein. Die gemeinsamen Eigenschaften dieser Homininenarten sind also womöglich noch früher entstanden, als wir bislang vermutet haben. Der Vorfahr könnte ein Homo heidelbergensis gewesen sein, der nach Afrika zurückkehrte, sich aber später wieder in Eurasien ansiedelte.

Eine klare Grenzziehung zwischen Homo heidelbergensis und Neandertaler anhand der Schädel- und Skelettmerkmale ist nicht möglich, da auch die Fossilien aus dieser Periode individuell verschiedene, mosaikartige Muster aus alten und fortschrittlicheren Merkmalen besitzen. Vor etwa 400 000 Jahren sollen jedenfalls Neandertaler und Denisovaner schon getrennte Wege gegangen sein, wobei sich Letztere vor allem in Ost- und Südostasien ausbreiteten, bevor Homo sapiens dort auftauchte. Dieser hat sich, davon gehen die meisten Forscher nach den vorliegenden afrikanischen Menschenfossilien aus, weitgehend unabhängig von den Kolonisten des Nordens in Afrika aus dem (afrikanischen) Homo erectus über den archaischen Homo sapiens zum modernen Typ entwickelt, bevor auch er den Kontinent verließ.

REM

Der frühe Homo erectus

Von frühesten Zeiten an war Afrika das Ursprungszentrum neuer Menschenlinien. Vor rund zwei Millionen Jahren betrat hier mit dem Homo erectus eine großwüchsige und wendige Menschenform, die der unseren bereits deutlich ähnelt, die Bühne. Die ältesten Funde stammen aus den klassischen Verbreitungsgebieten der Homininen: aus den mehr oder weniger offenen Savannengebieten und Galeriewäldern Ost- und Südafrikas. Mit Homo erectus zusammen lebten damals in Ostafrika, z. B. rund um den Turkana-See (im Norden des heutigen Kenia) – wahrscheinlich mindestens einige hunderttausend Jahre lang – drei weitere Homininenarten: Paranthropus boisei, Homo habilis und Homo rudolfensis. Die Wissenschaftler vermuten, dass sie unterschiedliche ökologische Nischen besetzten und nicht miteinander konkurrierten.

Homo erectus gilt als der erste definitive Vertreter der Gattung Homo. Er unterschied sich im Körperbau (Körpergröße und Proportionen) nur wenig vom modernen Menschen. Die Aufrichtung des Körpers hatte sich schon durchgesetzt. Er hatte lange Beine und kürzere Arme, da er nicht mehr klettern musste – ein „Läufertyp„, hervorragend angepasst an das Leben im offenen Grasland. Charakteristische Skelettmerkmale sind dickwandige Knochen, vorspringende Überaugenwülste und ein langgezogener und niedriger Hirnschädel.

Ernährung

Die Trockenzeit vor zwei Millionen Jahren war eine Zeit des verschärften Existenzkampfes, der ständig neue innovative Lösungen von den ums Überleben kämpfenden Homininen forderte. Essbare Knollen (stärkehaltige Speicherorgane von Pflanzen) machten den Löwenanteil der Nahrung der Homininen aus. Sie waren ganzjährig verfügbar und auch leicht mit Grabstöcken erreichbar. Das Problem stark begrenzter Nahrungskapazitäten bei Klimaveränderungen löste Homo erectus, indem er seine ökologische Nische durch die Nutzung fleischlicher Nahrung erweiterte. Diese macht bei ihm nach neueren Untersuchungen im Vergleich zu den allerersten Vertretern seiner Gattung einen größeren Anteil an den Nahrungsmitteln aus. Das Fleisch stammte zunächst vermutlich aus von großen Raubkatzen und Hyänen zurückgelassenen oder ihnen abgejagten Tierkadavern. 1,8 Millionen Jahren alte Funde deuten aber darauf hin, dass Homo erectus zu dieser Zeit schon den Erstzugang zu den Kadavern hatte. Er musste also damals bereits ein primitives Jäger- und Sammlerdasein geführt haben.

Vor ungefähr zwei Millionen Jahren war dem Homo erectus das Öffnen und Zerlegen mit scharfkantigen Steinklingen schon bekannt. Mit Steingeräten vermochte er obendrein Knochen zu zertrümmern, um an das besonders nahrhafte Knochenmark und Hirn heranzukommen. Wahrscheinlich klopften unsere Vorfahren das rohe Fleisch mit Steinhämmern weich, um es leichter verdaulich zu machen und dadurch mehr Energie daraus zu gewinnen. Diese Prozedur war dem Öffnen von Nüssen sehr ähnlich und wurde auch bei anderer Pflanzennahrung angewandt.

Zu reinen Fleischessern wurden diese frühen Menschen deswegen nicht – sie blieben Opportunisten. Die Tierkadaver machten also wahrscheinlich eher einen geringeren Teil der Nahrung aus. Aber schon dass Homo erectus seinen Speisezettel um nennenswerte Mengen an tierlicher Nahrung ergänzte, wertete seine Versorgung auf.

Zum erweiterten Fleischkonsum trug bei, dass das Grasland wieder zunahm und sich just vor 1,8 Millionen Jahren Savannen des heutigen Typs ausbreiteten, wodurch in Ostafrika die Vielfalt und Bestandsdichte der Huftiere zunahm. Zur Beute des Homo erectus gehörte nun ein großer Anteil erwachsener Tiere im besten Alter. Die Suche nach verendenden Großtieren auf den weiträumigen Savannen musste schnell erfolgen: Für Fleisch gab es viele Konkurrenten – vom wehrhaften Großraubtier bis zu Myriaden von Fäulnisbakterien. Generell gewinnt die Gruppengröße bei Auseinandersetzungen mit den Raubtieren. Zehn Steine schleudernde Homininen konnten jeden Konkurrenten von der Beute vertreiben. Möglicherweise jagten diese Menschen aber auch schon aus dem Hinterhalt, lauerten z. B. an den Wasserstellen auf Bäumen und schleuderten aus kurzer Distanz Steine oder gar schon „spitze Holzspeere“ auf nahe vorbeikommende Tiere. Sie verfolgten diese dann, bis sie ihren Verletzungen erlagen.

Sozialleben

Die Ausweitung der ökologischen Nische durch Nutzung größerer Tiere als Quelle fleischlicher Nahrung und vor allem die Kooperation in der Gruppe bedeutete für den Einzelnen eine höherer Überlebenschance und half der Art Homo erectus in ihrer Frühzeit, heftige Klimawechsel und Umweltveränderungen zu überstehen. Sie dürfte sich auch nachhaltig auf die Struktur und Auffächerung des sozialen Lebens ausgewirkt haben. Die Beute wurde unter den Gruppenmitgliedern verteilt, ein für Jäger und Sammler typisches Verhalten. Vermutlich gingen, um das Überleben der Gesamtgruppe zu sichern, die Männer auf Beutezug, während die Frauen mit kleinen Kindern in geschützten Bereichen zurückblieben. Die Frauen sammelten Früchte, Knollen und Insekten. Am Abend trafen dann alle wieder an einem zentralen Lagerplatz zum Verteilen und gemeinschaftlichen Essen zusammen.

Durch die Nutzung von energiereichem Fleisch gewann schon der frühe Mensch mehr freie Zeit, die er ansonsten zur Suche nach pflanzlicher Nahrung hätte aufwenden müssen. Diese gewonnene Zeit ließ sich für viele Aktivitäten einsetzen. Besonders wichtig waren die Pflege von sozialen Kontakten und die Weitergabe von Wissen (z. B. zur Werkzeugherstellung). Dies führte wiederum zu einer stärkeren sozialen Bindung und Organisation der Gruppenmitglieder, eventuell auch zu einer engeren Paarbindung. Die Gruppen des Homo erectus waren in ihrem Lebensraum weit verstreut, die Bevölkerungsdichte insgesamt wahrscheinlich niedrig. Eine zeitweise genetische Isolation begünstigte die Entwicklung regionaler anatomischer Varianten. Kam es nach langer Isolation wieder zu Kontakten zwischen den Gruppen, fand erneut Genfluss statt.

Hirnentwicklung

Die zunehmende Vergrößerung und Differenzierung des Gehirns war die entscheidende Weiterentwicklung des Homo erectus. Nach der populärsten und ältesten Modellvorstellung konnte sich das Gehirn durch den Erwerb des Aufrechtgangs und der damit verbundenen Verfügbarkeit der Hände (z. B. für Werkzeuggebrauch und -herstellung) weiter entwickeln. Dies war aber wohl nur eine wichtige Vorbedingung, jedoch nicht die ausschlaggebende Triebkraft für die Zunahme des Gehirnvolumens. Wahrscheinlich war auch die Umstellung auf tierliche Nahrung – Fleisch und Knochenmark – eine wichtige Voraussetzung für den ersten Schub des Hirnwachstums. Denn nur mit Fleisch war die dafür nötige Versorgung mit Phosphaten und Fettsäuren gewährleistet. Doch kann die rein stoffliche Sicht höchstens Randbedingungen der Gehirnevolution angeben, nicht aber deren Ursachen.

Vermutlich war es nicht ein einzelner Grund, der die Entwicklung zu einem größeren, stärker spezialisierten Gehirn forcierte, sondern eine Kombination von Gründen – ein „Karussell“ aus positiven Rückkopplungen. Ein verbesserter Zugang zu Fleisch brachte eine bessere Versorgung mit Nahrungsenergie und auch mit Gehirngewebe-Bausteinen, was zur Begünstigung des Gehirnwachstums führte. Dieses brachte wiederum eine erweiterte Lernfähigkeit, wodurch ein komplexes Sozialleben und Verständigungsmuster, innovativere Werkzeuge und erfolgreichere Jagdstrategien ermöglicht wurden – und dadurch wiederum ein verbesserter Zugang zu Fleisch. Angetrieben wurde dieses „Karussell“ vom immer trockener werdenden Klima, das steten Selektionsdruck in Richtung auf innovative Problemlösungen und damit auf ein größeres Gehirn erzeugte.

Feuer

Neben einem größeren Fleischanteil in der Ernährung begünstigte aber wohl auch die „Erfindung“ des Feuers die Hirnentwicklung. Mit der Aneignung des Feuers gelang es dem Homo erectus erstmals, eine Naturkraft zu zähmen, vor der alle anderen Tiere Angst haben. Er nutzte glimmende Holzstücke aus Blitzeinschlägen und Buschbränden, um ein Feuer zu unterhalten. Zum ersten Mal hatten Menschen damit Energie in der Hand und stellten sie in ihre unmittelbaren Dienste. Das Feuer wurde zum Bestandteil des öffentlichen Lebens. Es sicherte Nachtlicht und bot Schutz vor Kälte und gefährlichen Tieren. Die Feuerstelle wurde zum Lagerfeuer, zum sozialen Mittelpunkt, um den sich die Gruppenmitglieder versammelten, womit der weitere Zusammenschluss der Gemeinschaft gefördert wurde. Unter der Hitzewirkung barsten Steine zu scharfkantigen Werkzeugen. Zudem ließen sich durch Feuer Jagdtiere einschüchtern und in die Enge treiben, besonders wenn man gemeinschaftlich vorging.

Vor mindestens 1,5 Millionen Jahren lernte Homo erectus – neben der Kunst des Feuermachens – auch Fleisch zu kochen und dadurch verwertbarer und länger haltbar zu machen. Feuer tötet Mikroben ab. Das Fleisch wird durch Garen und Rösten nicht nur schmackhafter, sondern auch leichter verdaulich, denn das Erhitzen der Nahrung wirkt wie eine Art Vorverdauung außerhalb des Organismus. Der reduzierte Verdauungsaufwand führte einerseits zu einem deutlich verkleinerten Kauapparat. Niemals in der menschlichen Evolution haben sich die Zähne stärker verkleinert als beim Übergang von Homo habilis zu Homo erectus. Zum anderen verkürzte sich der Magen-Darm-Trakt. Der Darm verbraucht viel Energie. Durch seine Verkürzung war mehr Energie für die Hirnleistung vorhanden, was zu einem Schub in der Hirnvergrößerung führte.

Werkzeug-Technologie

Steigende Hirnleistung war wiederum Voraussetzung für die Erfindung und den Einsatz von Werkzeugen. Nach der bisherigen Vorstellung entwickelte Homo erectus spätestens vor 1,7 Millionen Jahren die fortschrittliche Acheuleen-Technologie (benannt nach dem Erstfundort St. Acheul im Somme-Tal in Frankreich). In mehreren aufeinander abgestimmten Arbeitsschritten wurde dabei die gewünschte Form aus einem Rohling herausgeschlagen. Erstmals wurden also Werkzeuge mit Hilfe von Werkzeugen hergestellt – ein enormer technischer Fortschritt, der Planung und Vorstellungskraft erforderte. Faustkeile, vielseitig verwendbare mandelförmige Werkzeuge, lang und flach mit beidseitig scharfen Kanten, sind die Markenzeichen des Acheuleen und gelten als die Schweizer Messer der Altsteinzeit. Ihre starke Verbreitung bezeugt, wie geschickt der Homo erectus schon früh mit dem Werkstoff Stein umzugehen wusste.

Aber auch die ältere Oldowan-Technologie – mit der simple Geröllbrocken mit einer einzigen Schneidekante hergestellt wurden – blieb offenbar noch die gesamte Altsteinzeit über in Gebrauch. Homo erectus nutzte anscheinend beide Technologien parallel. Er reagierte damit flexibel auf die aktuelle Situation – je nachdem, welche Rohmaterialien rund um seinen Lagerplatz verfügbar waren und wofür er das Werkzeug brauchte. Die standardisierten Artefakte des späten Oldowan und noch mehr dann die ausgefeilten Stücke des Acheuleen sprechen dafür, dass die Hersteller Wissen schon viel besser weiterzugeben und auszutauschen verstanden.

Das Acheuleen bestand in Afrika und Eurasien mit immer weiter verfeinerten Werkzeugen bis vor rund 150 000 Jahren. (Faustkeile in archaischer Form verschwanden vor ca. 400 000 Jahren.) Dass das Know-how zwischen Afrika, Asien und Europa ausgetauscht wurde, ist angesichts fast identischer Geräteformen wahrscheinlich.

Nacktheit

Die Notwendigkeit schnellen und dauerhaften Laufens zum Erwerb fleischlicher Nahrung in der offenen Savanne geriet in Konflikt mit den hohen Temperaturen des tropischen Klimas. (Für eine nächtliche Nahrungssuche reicht die Leistungsfähigkeit der menschlichen Sinne nicht aus!) Die Lösung des Problems lag in der Entwicklung und Zunahme von wasserverdunstenden und salzkonzentrierenden Schweißdrüsen am ganzen Körper und gleichzeitig eine Verminderung der Haarzellen bzw. eine Verringerung der Haargröße. Höchstwahrscheinlich war Homo erectus spätestens vor 1,6 Millionen Jahren der erste Hominine ohne komplette Körperbehaarung und mit einer großen Menge Schweißdrüsen, was zu einer wirkungsvollen Kühlung des Körpers in der Hitze der Savanne führte. (Da sich Haare nicht erhalten haben, bleibt es allerdings Spekulation, ob die Verdünnung und Reduzierung der Behaarung erst beim Homo erectus Verhältnisse ähnlich wie beim heutigen Menschen erreichte.)

[Nur die Haare auf dem Kopf und die Scham- und Achselbehaarung blieben. Die Kopfbehaarung steht im Zusammenhang mit der Thermoregulation des Körpers. Das wärmeempfindliche Gehirn muss vor Überhitzung (Sonnenstich!) geschützt werden. Das dichte Haupthaar umschließt ein isolierendes Luftkissen und sorgt an heißen Tagen für kühlere Luft zwischen der schwitzenden Kopfhaut und der heißen Haaraußenschicht, da der Kopfschweiß in den kühleren Luftraum hinein verdunstet. Dichte Locken sind in dieser Hinsicht die denkbar beste Kopfbedeckung, da sie die Dicke der Luftschicht erhöhen und zugleich eine Ventilation erlauben.

Scham- und Achselhaare dienen der Verbreitung des spezifischen Körpergeruchs eines Menschen. Vor allem hier sitzen Drüsen, die ein ganzes Bukett an Düften produzieren. Die Haare in diesen Bereichen sind bei allen Menschen gekräuselt und so mit einer besonders großen Oberfläche versehen, wodurch die Duftstoffe auf eine vergleichsweise große Fläche verteilt werden. Auf den Haaren befinden sich zahlreiche Bakterienarten, die in ihrer Zusammensetzung offenbar ganz spezifisch für jedes Individuum sind und durch einen in seinen einzelnen Schritten noch nicht vollständig geklärten chemischen Abbau des Duftdrüsensekrets zum kommunikativen Endprodukt führen, eben zu dem für jeden Menschen typischen Körpergeruch. Dieser individuelle Geruch spielte bei Homo erectus im Zusammenleben wohl noch eine wichtige regulative Rolle – und tut es (in geringerem Maße) bei den modernen Menschen wohl heute noch.]

Der Kühlungstrick verschaffte Homo erectus gewaltige Vorteile. Während die großen Raubtiere der Savanne in der Regel in sengender Tageshitze im Schatten von Bäumen ruhen müssen und erst in der Dämmerung aktiv werden, konnte der frühe Mensch auch unter solchen extremen Bedingungen aktiv werden. So war Homo erectus der erste Hominine, der vom Gejagten über die Zwischenstufe des Fleischdiebs an Raubtierrissen schließlich zum tagaktiven Ausdauerjäger wurde.

Durch den Verlust des Haarkleids war Homo erectus den gefährlichen UV-Strahlen der Sonne schutzlos ausgesetzt. Das Problem konnte durch die Entwicklung einer starken dunklen Hautpigmentierung gelöst werden. Vor allem zum Schutz vor nächtlicher Unterkühlung baute sich im Laufe der Zeit eine Fettschicht auf, das Unterhautfettgewebe, eine Besonderheit des Menschen, die anderen Primaten fehlt. Möglicherweise aber blieb Homo erectus auch schon die wärmende Eigenschaft getrockneter Tierhäute nicht verborgen. Diese hielten auch während der Regenzeit warm, denn Tierfelle sind aufgrund der wasserabweisenden Talgschicht der Haare wasserdicht.

Kommunikation und Zusammenarbeit

Wohl erst als unsere Vorfahren durch kräftiges Schwitzen überschüssige Körperwärme leicht loswerden konnten, vermochte sich das temperaturempfindliche Gehirn stark zu vergrößern. Bei den frühen Formen des Homo erectus betrug das Gehirnvolumen vor 1,5 Millionen Jahren bereits 800 bis 900 Kubikzentimeter, immerhin schon doppelt so viel wie die damals lebenden Affen. Größere Gehirne befähigen, wie schon erwähnt, zu komplexerem sozialem Verhalten, was wiederum die Taktiken der Nahrungsbeschaffung verbesserte. Und indem die Ernährungslage immer günstiger wurde, konnte auch das Gehirn noch größer werden. (Beim späten Homo erectus erreichte das Hirnvolumen mehr als 1200 Kubikzentimeter.)

Durch die verzögerte Entwicklung verlängerte sich die Kindheit (längere Reifezeit) schon beim frühen Homo erectus. So kam dem Lernen eine immer größere Bedeutung zu, während starre, durch das Erbgut programmierte Verhaltensmuster immer stärker in den Hintergrund traten. Die raschen Umweltveränderungen durch abrupt einsetzende Wärme- und Kälteperioden, die sich teils sogar innerhalb der Lebensspanne eines Individuums ereigneten, erforderten flexibleres und vielseitiges Verhalten. Sie könnten ebenfalls die Zunahme der geistigen Fähigkeiten und der geistigen Beweglichkeit des Homo erectus gefördert haben.

Für die gemeinsame Jagd und das Leben in Gruppen war eine Form von Kommunikation erforderlich. Vermutlich war Homo erectus in der Lage, zumindest durch Lautkombinationen und Gesten mit seinen Artgenossen zu kommunizieren. Viele Forscher sehen in ihm sogar den ersten Homininen, der zu einer gewissen sprachlichen Kommunikation fähig war. Da er immer raffiniertere Werkzeuge entwickelte, Großwildjagd betrieb und lernte, das Feuer zu beherrschen, hätte er jedenfalls schon mehr Verwendung für Sprache gehabt als seine Vorgänger. Die Entwicklung einer, wenn auch primitiven Sprache könnte für eine kleinere Population sogar einen so enormen Vorteil gebracht haben, dass diese auf Kosten anderer Populationen erfolgreich gewesen wäre.

Der Kehlkopf des Homo erectus lag auf jeden Fall bereits etwas tiefer im Hals und zeigte die ersten Anzeichen einer Entwicklung zum Sprachorgan. Zudem war der Rachenraum durch den Aufrechtgang so stark vergrößert, dass eine bessere Vokalartikulation möglich war. Die anatomischen und neurologischen Voraussetzungen für eine gewisse Sprachfähigkeit mögen damals also vorhanden gewesen sein, aber anatomische Details der Schädelbasis und des Unterkiefers lassen, wenn überhaupt, nur auf ein sehr primitives Sprachvermögen schließen. Vor allem fehlte Homo erectus die nervliche Fernsteuerung der an Sprache beteiligten Muskeln. Er konnte daher wohl noch nicht „richtig“ sprechen.

Am Ende stand ein an sich unscheinbares, aber für die Umwelt höchst gefährliches Wesen: Ein nahezu haarloser Zweibeiner, der ausdauernd war, ein großes Gesichtsfeld überblicken konnte und zwei Hände hatte, die wie geschaffen für Werkzeuge und Waffen waren. Vor allem aber verfügte er über ein Gehirn, das alle diese Vorteile sinnvoll nutzen und kombinieren konnte. Wirklich Furcht erregend für die übrige Natur wurden die Wesen aber dann, wenn sie als Gruppe effektiv zusammenarbeiteten. Dann waren sie in der Lage, auch diejenigen Tiere, die ihnen an Größe, Kraft und Schnelligkeit überlegen waren, zu Fall zu bringen. Sollte die Vermutung richtig sein, dann hat Homo erectus schon bald ganze Ökosysteme radikal verändert. Insbesondere nach der Zeit vor 1,5 Millionen Jahren fiel die Anzahl großer Raubtiere steil ab. Ganze Artengruppen, wie etwa die Säbelzahnkatzen, verschwanden in Afrikas Savannen. Stattdessen machten sich moderne Arten zunehmend breit, darunter die Löwen, Leoparden und Schakale.

REM

Wasser – das besondere Molekül

Wasser ist das dritthäufigste Molekül im Universum. Es wurde in rund 12,88 Milliarden Lichtjahre entfernten Galaxien nachgewiesen, existierte also schon weniger als eine Milliarde Jahre nach dem Urknall. Nach einer langen Reise als gefrorene Schicht auf interstellaren Staubpartikeln gelangte es letztendlich auch auf die Erde. Diese befindet sich gerade so weit (149,5 Millionen Kilometer) von ihrem wärmespendenden Zentralgestirn, der Sonne, entfernt, dass die Temperaturen flüssiges Wasser erlauben. Obwohl sich die Sonnenstrahlung seither um rund 30% erhöht hat, bewegen sich die Temperaturen (aufgrund des Karbonat-Silikat-Zyklus*) immer noch in dem für flüssiges Wasser günstigen Bereich. Auf mehr als zwei Drittel seiner Oberfläche (1,5 Milliarden Kubikkilometer) bedeckt es heute die Erde.

*Der Karbonat-Silikat-Zyklus bezeichnet in der Chemie die geochemische zyklische Umwandlung von freiem Kohlendioxid und Silikaten zu Karbonaten und Siliziumdioxid und umgekehrt. Er reguliert auf lange Zeiträume den Kohlendioxid-Gehalt der Atmosphäre.

Das wasserreiche Erscheinungsbild der Planetenoberfläche täuscht aber darüber hinweg, dass unser Heimatplanet eigentlich ein wasserarmer Planet ist. Der gesamte Wasseranteil beträgt tatsächlich nur 0,005%, wobei sich der größte Teil des Wassers sogar im Erdinneren verbirgt. Wissenschaftlichen Schätzungen zufolge soll die Erdkruste zu etwa 0,2% aus Wasser bestehen, fünfmal so viel, wie alle Ozeane der Erde zusammen enthalten. Die Wassermenge im Erdmantel (zum großen Teil an Mineralien, etwa Silikate gebunden) entspricht nach vorsichtigen Schätzungen zwei bis zehn Erdmeeren. Wie viel Wasser im Erdkern steckt, wissen wir nicht.

Bedeutung des Wassers für das Klima der Erde

Das flüssige Wasser an der Erdoberfläche beeinflusst wie kein anderer Stoff unser Wetter und Klima. Zunächst können die Meere mehr als tausendmal so viel Wärmeenergie speichern wie die Atmosphäre, allein in ihren oberen zwei Metern mehr als die gesamte atmosphärische Luftschicht, die auf ihnen lastet. Das Wasser bildet Nebel, Dunst und Wolken und fällt als Regen, Hagel oder Schnee vom Himmel herab auf die Erdoberfläche. Wolken sind ein zentrales Glied im globalen Kreislauf des Süßwassers zwischen Meeren, Atmosphäre und Festland und spielen in allen Wetter- und Klimamodellen eine entscheidende Rolle.

Wasser verdunstet und steigt als Dampf mit der warmen Luft in der Atmosphäre auf. Mit zunehmender Höhe fallen Luftdruck und Temperatur, der Wasserdampf kühlt ab und die Feuchtigkeit kondensiert. Es bilden sich Wolken – allerdings nur dann, wenn in der Luft Kristallisationskerne in Form von mikroskopisch kleinen Staubpartikeln (Aerosolen) vorhanden sind. An sie lagern sich die Wassermoleküle an, gefrieren und bilden Eiskristalle. Diese wachsen und gefrieren weiter, bis sie schließlich so schwer sind, dass sie aus der Wolke fallen und dabei andere Kristalle und Tropfen mitnehmen. Je nach Jahreszeit kommen sie dann als Schnee, Hagel oder in wärmerer Luft aufgetaut als Regen am Boden an. Geht der Regen über einer Landfläche nieder, verdunstet ein Teil des Wassers wieder. Ein Teil fließt an der Oberfläche über Bäche und Flüsse ins Meer zurück, der Rest versickert ins Grundwasser, von wo es schließlich auch wieder an die Oberfläche und letztlich in die Meere gelangt.

Wolken steuern wesentlich den Strahlungshaushalt unseres Planeten. Sie sind in der Lage, die Erde sowohl aufzuheizen als auch abzukühlen. Einerseits halten Wolken die von der Erde abgegebene Wärmestrahlung zurück und erwärmen so die Atmosphäre. Andererseits reflektieren sie die Strahlung der Sonne in den Weltraum, was eine abkühlende Wirkung auf das Erdklima hat. Addiert man die Wirkungen beider Effekte, dann kühlen tiefe Wolken eher, während hohe eher wärmen. Da die Erdoberfläche stets zu etwa 60% von Wolken bedeckt ist, können schon kleine Veränderungen bei ihrer Entstehungsrate und ihren Eigenschaften das Klima dramatisch beeinflussen.

Herkunft des Wassers

Woher das Wasser der Erde genau kommt, ist traditionell umstritten. Wahrscheinlich stammt es aus mehreren Quellen. Die populäre Annahme geht davon aus, dass wasserreiche Kometen, die sich aus dem solaren Urnebel gebildet hatten, rund 100 Millionen Jahre nach Beginn der Erdentstehung auf der noch heißen Erde einschlugen. Zusammen mit vielen anderen chemischen Verbindungen sollen sie so (auch) große Wassermengen auf die Erde gebracht haben. Vom zeitlichen Ablauf her wäre das verständlich, aber es hat sich herausgestellt, dass das irdische Wasser und das Kometen-Eis chemisch sehr unterschiedlich sind. Der Anteil des schweren Wasserstoff-Isotops Deuterium, der D/H-Wert, stimmt bei beiden nicht überein. Daher gehen die meisten Wissenschaftler heute davon aus, dass Kometen wohl nur einen geringen Teil Anteil (höchstens 10%) zum irdischen Wasser beigetragen haben.

Es muss also noch weitere Wasserquellen für die Erde gegeben haben. Da Wasser schon ein Bestandteil der ursprünglichen Nebelwolke war, aus der Sonne und Planeten entstanden, könnte es auch schon in den kleinen Brocken, aus denen sich unser Planet nach und nach bildete, enthalten gewesen sein. Vor allem auf den Planetoiden, die sich die Erde im letzten Drittel ihrer Wachstumsphase einverleibte, war es wohl verbreitet. Es bedurfte wahrscheinlich nicht vieler Kollisionen, um auf diese Weise genügend Wasser auf die Erde zu schaffen. Sollte diese Theorie zutreffen, war also bereits bei der Geburt der Erde Wasser vorhanden, das schließlich nach Abkühlung der irdischen Oberfläche auf unter 100°C kondensierte und die ersten Ozeane bildete.

Indizien sprechen vor allem für die Kohligen Chondriten (bestimmte kleine Brocken von Planetoiden) als Wasserlieferanten. Viele von ihnen befinden sich heute noch im Asteroidengürtel zwischen Mars und Jupiter. Sie enthalten neben einer Vielzahl von organischen Verbindungen auch rund 10 bis 20% Wasser. Jüngste Analysen zeigen, dass dessen D/H-Wert gut zu dem der Erdozeane passt. (Allerdings ist besonders das Wasser im Erdmantel etwas leichter, enthält also weniger Deuterium.)

Auch andere Chondrite, welche das Mineral Enstatit enthalten (Enstatit-Chondrite), kommen als potentielle Quelle des Wassers auf der Erde in Frage. Ihre Isotopen- und Elementverhältnisse sprechen dafür, dass die Erde größtenteils aus ihnen zusammengeschweißt wurde. Im Gegensatz zu den Kohligen Chondriten sind sie ursprünglich diesseits der „Schneegrenze“* entstanden, dort, wo auch die Erde anfing, sich zusammenzuballen. Auch das D/H-Verhältnis des Wassers passt einigermaßen. Allerdings enthalten Enstatit-Chondrite deutlich weniger Wasser (nur ein paar Promille) als Kohlige Chondrite.

*Die sog. Schneegrenze bezeichnet den Abstand vom Zentralgestirn, ab dem Wasserdampf und andere Gase ausfrieren und zu Eis werden.

Das Wasser-Molekül

Das Molekül Wasser setzt sich zusammen aus zwei Wasserstoffatomen und einem Sauerstoffatom (chemisch: H2O). Ein Wasserstoffatom besteht aus einem Proton im Kern und einem Elektron in der Hülle, das Sauerstoffatom hat in der Regel acht Protonen, acht Neutronen sowie acht Elektronen, von denen sich zwei in der inneren Hülle, sechs in der äußeren befinden. Aufgrund eines physikalischen Gesetzes strebt jedes Wasserstoffatom nach zwei außen liegenden Elektronen. Ihm fehlt also noch ein Elektron zur vollständigen Belegung, während das Sauerstoffatom noch Platz für zwei Elektronen in der äußeren Hülle hat. Eine Vervollständigung der Außenhülle können die Atome erreichen, wenn sie Elektronen miteinander teilen (Bindungselektronen). Auf diese Weise sind Wasserstoffatome und Sauerstoffatom miteinander verschmolzen und bilden das Wassermolekül.

Weil der Sauerstoff eine höhere Kernladungszahl (mehr positive Ladungen) besitzt als der Wasserstoff, übt er auf die Bindungselektronen im Wassermolekül einen stärkeren Sog aus und zieht die negativ geladenen Elektronen der Wasserstoffatome etwas weiter zu sich heran. Diese halten sich also häufiger in seiner Nähe auf als in der Umgebung der Wasserstoffkerne. So bilden die zwei Wasserstoffatome und das Sauerstoffatom ein schmales Dreieck, an dessen Spitze der Sauerstoff und an dessen Schenkeln die beiden Wasserstoffatome (unter einem Winkel von 104,5°) sitzen.

Aufgrund dieser asymmetrischen Geometrie des Wassermoleküls ist der Sauerstoff leicht negativ aufgeladen, die beiden Wasserstoffatome hingegen leicht positiv. Jedes Wassermolekül verfügt also gewissermaßen über zwei elektrische Pole – ähnlich wie ein Stabmagnet mit seinem positiven und negativen Ladungsende. Die Forscher sprechen von einem „Dipolmoment„. Der leicht negativ geladene Sauerstoff des Wassermoleküls kann nun eine schwache (und flüchtige) Bindung zu einem leicht positiv geladenen Wasserstoffatom eines anderen Moleküls aufbauen. Chemiker bezeichnen dieses Phänomen als „Wasserstoffbrücke„, durch die die Wasserteilchen lose aneinander haften können.

Ein Wassermolekül kann auf diese Weise bis zu vier Wasserstoffbrücken zu seinen Nachbarn ausbilden. Die Bindungen sind jedoch nicht stabil, denn die Anziehungskraft reicht nicht aus, um sie lange aufrechtzuerhalten. So brechen die Wasserstoffbrücken wieder auf und die Moleküle trennen sich wieder voneinander. Sofort „suchen“ sie sozusagen nach neuen Partnern, um an ihnen anzudocken – wieder nur für einen Moment, so dass fortwährend im Wasser die Wasserstoffbrücken aufgelöst und neu geknüpft werden. Auf diese Weise wechseln die Wassermoleküle – ohne den Kontakt zueinander zu verlieren – ständig ihre Position und bilden wechselnde Gruppen (Cluster) mit bis zu 700 Molekülen.

Das passiert bei Zimmertemperatur und normalem Druck im Takt von Piktosekunden, also millionstel millionstel Sekunden. Die Brücken, die Wasserstoffatome zu ihren molekularen Nachbarn schlagen, sind deutlich schwächer als die Bindung der Atome innerhalb der Wassermoleküle. Dennoch reicht die Stärke der Wasserstoffbrücken aus, um bei Zimmertemperatur zu verhindern, das Wasser verdampft.

Eine nur geringe Ladungsverschiebung im Wassermolekül ist also die Ursache, dass eine bewegliches Netzwerk aus lose über Wasserstoffbrücken miteinander verbundenen Molekülen entsteht und Wasser dadurch letztlich flüssig ist. Sähen Wassermoleküle nur geringfügig anders aus, würden sie bereits bei Raumtemperatur aufgrund ihrer Bewegungsenergie auseinander fliegen und sich als Gas verflüchtigen. Unser Planet wäre ein trockener Ort, eine leblose Ödnis in den Weiten des Universums.

Sonderbare Eigenschaften

Dass Wasser ein besonderer Stoff ist, erkannte schon vor gut 2500 Jahren Thales von Milet und hob es auf Platz 1 unter seinen vier „Elementen“. Es fällt, chemisch betrachtet, völlig aus dem Rahmen, etwa in Hinsicht auf seine Oberflächenspannung, Wärmekapazität, Kompressibilität sowie den Schmelz- und Siedepunkten. Seine sonderbaren Eigenschaften, die es von anderen Flüssigkeiten unterscheidet, sind der Schlüssel für viele Vorgänge auf der Erde.

Die Oberflächenspannung von 70×10-3 N/m (Newton pro Meter) macht Wassertropfen stabil und groß. Ihre Molekülgitter schützen sie wie ein Netz vor dem Zerfall in mikroskopisch kleine Teilchen. Wenn sie ins Wasser fallen, vermischen sie sich daher nicht sofort, sondern stülpen sich wie eine Krake immer wieder neu aus, bis sie ihre größte Oberfläche erreicht haben.

Die Wärmespeicherung von Wasser kann ein Mehrfaches betragen im Vergleich zu ähnlich großen Molekülen. Es erwärmt sich langsamer als die meisten anderen Flüssigkeiten – doppelt so lange, wie man eigentlich annehmen sollte – und kühlt sich auch gemächlicher ab.

Erst bei vergleichsweise hohen Temperaturen, in der Regel bei 100°C, erreichen die Wasserteilchen eine derart hohe Geschwindigkeit, dass die anziehenden Kräfte (elektrische Pole und Wasserstoffbrücken) nicht mehr zum Tragen kommen („Siedepunkt„). Das flüssige Wasser verwandelt sich in ein Gas, seine Teilchen verflüchtigen sich in die Luft. Sinkt die Temperatur des Wasserdampfes, bewegen sich die Moleküle wieder langsamer. Schließlich überwiegen erneut die Anziehungskräfte und die Wassermoleküle schließen sich erneut zu Ketten zusammen. Der Dampf kondensiert, flüssiges Wasser entsteht.

Kein anderes Molekül, das so klein ist wie Wasser, hat einen derart hohen Siedepunkt. Eigentlich müsste es aufgrund seines Molekulargewichts schon bei -75°C in Dampf übergehen. Die am ehesten vergleichbare Verbindung, Schwefelwasserstoff (H2S), hat einen Siedepunkt von -60°C. Der stickstoffhaltige Ammoniak verflüchtigt sich bei -33°C, Methan sogar schon bei -162°C. Dabei umfasst der Temperaturbereich, in dem solche Moleküle flüssig sind, meist nur wenige Grad.

Der Gefrierpunkt von Wasser liegt bei 0°C, einem phantastisch hohen Wert. Gemessen an ähnlich kleinen Molekülen müsste er eher bei -100°C liegen. Während bei fast allen anderen Flüssigkeiten während des Abkühlens die Dichte zunimmt und Wärmekapazität und Kompressibilität sinken, verhält sich Wasser anders. Die Moleküle rücken zwar auch zunächst umso dichter zusammen, je kälter es wird. Es bilden sich winzige Kerne aus kristallin angeordneten Molekülen, die sich jedoch wieder auflösen, aber auch durch Anlagern weiterer Wassermoleküle wachsen können. Teile der Wassercluster wechseln also ständig ihren Zustand von flüssig zu kristallin und umgekehrt.

90 Moleküle braucht es mindestens, damit Wasser eine Kristallstruktur annimmt und zu Eis wird. Wenn die Temperatur sich dem Nullpunkt nähert, schließen sich immer Einzelmoleküle den Clustern an. Wirklich stabile Cluster sind erst ab 150 Molekülen möglich.

Die maximale Dichte erreicht Wasser bei +4°C. Bei tieferen Temperaturen vernetzen sich die V-förmigen Wasserteilchen zu einem dreidimensionalen Gerüst, in dem die jetzt exakt geordneten Moleküle wieder etwas weiter auseinander liegen. Deshalb dehnt sich Wasser beim Erfrieren aus („Dichteanomalie„), während sich andere Stoffe beim Erstarren zusammenziehen. Das führt dazu, dass Wasser in seiner festen Form um 9% voluminöser ist als im flüssigen Zustand – und mithin leichter (um etwa 11%). Diese einzigartige Volumenzunahme hat über Jahrhundertmillionen dazu geführt, dass ganze Gebirge auf der Erde erodierten.

Beim Gefrieren bedarf es Verunreinigungen (z. B. Staubpartikeln) als Kristallisationskerne. Sie erst zwingen die Wassermoleküle dazu, eine kristalline Form anzunehmen. Reines Wasser (das es in der Natur allerdings nicht gibt) lässt sich, bevor es gefriert, noch bis zu einer Temperatur von -40°C (nach anderen Angaben -48°C) oder 233K herunterkühlen, wird dann allerdings sehr schnell zu Eis.

Beim Übergang vom flüssigen Zustand zu Eis muss das Wasser Kristallisationswärme an die Umgebung abgeben. Das ist dort am einfachsten, wo es in direktem Kontakt mit der kalten Außenwelt steht. Daher bildet sich Eis zunächst an der Oberfläche und an den Gefäßwänden. Überschreiten die kristallinen Strukturen eine bestimmte Größe, pflanzt sich die Information wie umfallende Dominosteine über die Wasseroberfläche fort, bis die Bewegung des Wassers erstarrt ist. Da Eis eine geringere Dichte hat als flüssiges Wasser, schwimmt es obenauf.

Würde das Wasser beim Gefrieren schwerer werden, würde sich im Winter das Eis auf dem Boden der Seen und Weltmeere ablagern. Die Wasseroberfläche würde weiterhin Energie abgeben, und es würde sich immer mehr Eis am Boden der Ozeane ablagern, bis sich schließlich die ganzen Weltmeere in einen einzigen Eisklumpen verwandelt hätten. In einem solchen gefrorenen Zustand, bei dem die helle Oberfläche die Sonnenwärme reflektieren würde, wäre es sehr schwierig, den Planeten wieder aufzutauen.

[Eis tritt wegen der speziellen Bindungen, die die Wassermoleküle mit ihren Nachbarn eingehen, in einer Vielzahl unterschiedlicher Formen auf. Forschern ist es bislang gelungen, 16 verschiedene kristalline Eisformen herzustellen, die alle unterschiedliche Eigenschaften besitzen. Nur eine einzige, das Eis-„Ich“ (eins-h), kommt natürlicherweise auf der Erde vor. Und erstaunlicherweise hat nur „unser“ Eis die Eigenschaft, auf dem Wasser zu schwimmen. Die anderen Eissorten existieren bei höheren Drücken und tieferen Temperaturen. Es gibt Eisformen, die noch bei 500°C Hitze gefroren bleiben. Andere verwandeln sich zwischen -137 und -146°C (125 und 136K) in eine viskose Flüssigkeit. In ihr sind die Wasserstoffbrückenbindungen nicht starr fixiert, weshalb das Eis selbst bei einer Temperatur dicht über dem absoluten Nullpunkt (-273,15°C oder 0 Kelvin) noch fließen kann, wenn es mit ultraviolettem Licht bestrahlt wird. Die exotischen Formen von Eis mit ihren besonderen physikalischen und chemischen Eigenschaften, die wir gerade erst zu verstehen beginnen, könnten am Ende mehr über die Geschichte des Universums verraten, als Wissenschaftler dies jemals für möglich gehalten hätten.]

Noch immer offenbart Wasser scheinbar paradoxe Phänomene: Stellt man beispielsweise einen Topf mit dampfend heißem und einen Topf mit lauwarmem Wasser in eine Gefriertruhe, erstarrt das heiße Wasser zuerst. Und ein Bauchplatscher ins kalte Wasser schmerzt weniger als einer ins warme. Einige Wissenschaftler erklären die seltsamen Eigenschaften, indem sie Wasser als ein Gemisch zweier einfacher Substanzen betrachten, in denen die Wassermoleküle unterschiedlich kompakt sortiert sind: In derjenigen mit niedriger Dichte (low density liquid: LDL) sind die meisten Moleküle von vier anderen umgeben, was eine relativ offene Tetraederstruktur herbeiführt. In der Flüssigkeit höherer Dichte (high density liquid: HDL) sind die Moleküle enger gepackt; es kommen weniger gerichtete, schwächere molekulare Wechselwirkungen zum Tragen. Laut dieser Idee ändert sich der jeweilige Anteil der beiden Komponenten mit der Temperatur des Wassers. Sinkt diese, entsteht mehr LDL-Wasser und es kommt sowohl zu der bei Flüssigkeiten üblichen Zunahme der Dichte als auch zur vermehrten Bildung von Wasser niedriger Dichte. Unter dem Strich führt das zum beobachteten Dichte-Maximum bei 4°C und zu weiteren Anomalien im Wasser.

Andere Experten stehen der Annahme äußerst skeptisch gegenüber und widersprechen vehement: So eine Aussage passe nicht zu den Grundprinzipien der physikalischen Chemie. Wasser erhalte seine einzigartigen Eigenschaften beim Abkühlen weniger durch ein Nebeneinander zweier Flüssigkeiten, sondern eher tatsächlich dadurch, dass die Orientierung der Wassermoleküle allmählich regelrecht in tetraedischer Ausrichtung einfriert, sogar bereits dann, wenn sie sich noch flüssigkeitstypisch bewegen. Ein Konsens ist unter Physikchemikern noch nicht in Sicht.

Biologische Bedeutung

Auf den besonderen Eigenschaften des Wassermoleküls beruht auch die große biologische Bedeutung des Wassers. Nur wo es flüssiges Wasser gibt, ist Leben, wie wir es kennen, überhaupt möglich. Die ganze komplizierte Chemie des Lebens beruht auf Wasser. Wie es scheint, war Wasser in fester oder flüssiger Form schon von Anfang an an der Entstehung des Lebens, speziell der Bildung und Weiterentwicklung seiner Basismoleküle, beteiligt. Diese entwickelten sich schon bald nach dem Auftauchen der ersten Wasserströme. Dass die Fotosynthese der grünen Pflanzen und Cyanobakterien im Wasser funktioniert, liegt an einer weiteren besonderen Eigenschaft, nämlich der Durchsichtigkeit des Wassers. Eigentlich ist es bis auf einen schmalen Frequenzbereich (nämlich den des sichtbaren Lichts) pechschwarz. Ein anderes Absorptionsverhalten des Wassers und Leben in der heutigen Form wäre niemals entstanden.

Eis ist eigentlich ein Feind des Wassers. Die exakte Ordnung der Moleküle treibt die in den Kristallen gelösten Substanzen aus, wobei die scharfkantigen Eispartikel organisches Material unwiederbringlich zerreißen. Andererseits bildet Wasser, weil es in festem Zustand leichter ist als flüssig, bei 0°C eine das Leben schützende Eisdecke. Diese wirkt als isolierender Deckel, der die Verdunstung stoppt, was dazu beiträgt, das darunter liegende Wasser warm zu halten. So sind Tiere und Pflanzen in der Lage, in zugefrorenen Meeren, Seen und Flüssen zu überwintern.

Für Lebewesen, die im Laufe der Evolution das Festland besiedelten und sich allmählich vom Leben im Wasser emanzipierten, ist Wasser trotzdem unverzichtbares Lebenselement geblieben. Das Gefäßsystem der Landpflanzen und das Blutgefäßsystem der Tiere sorgt dafür, dass landlebende Organismen nie „auf dem Trockenen sitzen“. Wasser ist der Hauptbestandteil aller lebenden Organismen (meist zu 90%). Auch der Mensch besteht zu gut 60% aus Wasser. Es ist in flüssigem Aggregatzustand für die Aufrechterhaltung sämtlicher Lebensvorgänge unbedingt notwendig. Es ist beteiligt an der Regulation der Körpertemperatur und an dem Transport von Stoffen und Atemgasen über das Blutgefäß- und Lymphsystem. Es hilft bei der Absorption von Nährstoffen und bei der Beseitigung von Abbauprodukten über Darm, Nieren, Lunge und Haut. Das meiste Wasser befindet sich innerhalb der Körperzellen, in denen es wichtige Aufgaben erfüllt.

Das, was Wasser in der Zelle so universell nutzbar macht, ist seine Polarität – die große große Anziehungskraft der Dipole auf Nachbarmoleküle. Zahlreiche Substanzen in der Natur bestehen ebenso wie Wasser aus geladenen Teilchen (Ionen). Mit ihren unterschiedlich geladenen Polen vermögen sich die Wassermoleküle an diese Ionen anzulagern und bilden so einen wässrigen Mantel („Hydrathülle„) um sie. Positiv und negativ geladene Ionen werden dadurch getrennt, die Substanz wird löslich. Insgesamt sind 84 aller bekannten 103 chemischen Substanzen, darunter zahlreichen, die in den Zellen benötigt werden, wasserlöslich.

Fällt ein Salzkristall (NaCl) in ein Glas Wasser, dauert es nicht lange, bis er sich auflöst. Die winzigen Natrium- und Chlor-Ionen, die nun in der Flüssigkeit umherschwimmen, sind umhüllt von Wassermolekülen. Dutzende der V-förmigen Wasserteilchen lagern sich jeweils mit ihrem negativ geladenen Sauerstoff-Pol um die positiv geladenen Natrium-Ionen, sechs davon in direkter Nachbarschaft. Andere Wasserteilchen wiederum docken mit ihrer positiven Wasserstoffseite an die negativ geladenen Chlor-Ionen an.

Wasser ist also ein perfektes, einzigartiges Lösungsmittel und für biochemische Reaktionen unabdingbar. Alle physiologischen Vorgänge basieren auf wässrigen Lösungen. Eine Zelle ist so sehr mit Biomolekülen (z. B. Enzymen, Hormonen, Fettsäuren, Salzen, Zuckern) angefüllt ist, dass zwischen ihnen nur Platz für gerade mal drei oder vier Wassermoleküle ist. Dadurch ist deren Beweglichkeit so eingeschränkt, dass die Kettenmoleküle selbst von dem Lösungsmittel Wasser nicht zerstört werden können. Wie ein stützendes Korsett liegen Vielmehr liegen die Wassermoleküle wie ein stützendes Korsett um die positiv oder negativ geladenen Bereiche der organischen Moleküle und verhindern, dass deren voluminöse chemische Strukturen – teils sind sie zigtausendmal größer als ein Wassermolekül – kollabieren.

Die Biomoleküle nehmen nur in einer wässrigen Umgebung ihre typische dreidimensionale Faltung und Struktur stabil ein. Und erst wenn sich Aminosäureketten korrekt verflechten, können Eiweiße etwa in Form von Enzymen ihre vielfältigen Aufgaben in der Zelle erfüllen, z. B. bei der Zerlegung von Nährstoffen. Wie den Proteinen verleiht Wasser auch den Nukleinsäuren ihre interessante Struktur und damit auch ihre Eigenschaften. Milliarden Wasserteilchen sind in die Erbsubstanz DNA eingelagert und sorgen durch Wasserstoffbrücken dafür, dass das riesige Molekül seine Spiralstruktur aufrecht erhält. (Außerdem schützen Wasserstoffbrücken Nukleinsäuren wie auch Proteine vor Schädigungen durch UV-Strahlen.) Experimente haben gezeigt, dass die DNA ihre Arbeit versagt, sobald man sie in andere Flüssigkeiten gibt. Erst in dem vom Wasser geschaffenen Umfeld konnte also die Basis aller höheren Lebewesen entstehen.

Wasser stützt somit als biologischer Klebstoff die großen Moleküle räumlich und hält sie biologisch aktiv. Es spielt auch selbst ein Hauptrolle bei den komplexen chemischen Prozessen in der Zelle. Wassermoleküle sind z. B. in der Lage, chemische Reaktionen anzustoßen oder zu beschleunigen. Es scheint inzwischen klar, dass sich die biologische Aktivität der Proteine – etwa bei der Wirkung von Medikamenten in Körperzellen – nicht unabhängig vom Wasser verstehen lässt.

Die Wasserschicht, die z. B. ein Protein umhüllt, verändert die Art, wie dieses andere Moleküle erkennt. Wassermoleküle füllen dabei Lücken aus und sorgen so für eine gute Passung des jeweiligen Stoffes, können aber auch das Andocken stören. Nur genau definierte Stoffe sind in der Lage, im aktiven Zentrum von Enzymen anzudocken. Dazu benötigen manche offenbar nur einige wenige Wassermoleküle. Durch die Position lediglich eines Wassermoleküls entscheidet sich beispielsweise, dass etwa der Neurotransmitter Glutamat, nicht aber sein synthetischer Ersatz akzeptiert wird.

Alles, was sich im Wasser befindet, verändert wiederum dessen Netzstruktur. Daher ist die Bewegung des Wassers nicht gleichförmig um ein Enzym verteilt. In der Nähe des aktiven Zentrums verlangsamt es seine zittrigen Bewegungen. Das bedeutet, dass ein Substrat wahrscheinlich nicht zufällig an der richtigen Stelle andockt wie im ruhigen Wasser eines Hafens. Funktionsfähige Proteine können Wassermoleküle am besten ausbremsen, während denaturierte oder mutierte Moleküle weniger effektiv sind – ein Hinweis auf eine evolutionäre Optimierung. Mit Terahertz-Spektrometern konnten Forscher sehen, wie die biologisch aktiven Proteine das Wasser in ihrer Umgebung beeinflussen. Der Einfluss beschränkt sich dabei nicht auf die unmittelbare Umgebung, sondern reicht weit darüber hinaus – so weit, dass es in der dicht gepackten Zelle gar kein unbeeinflusstes Wasser gibt.

Den Rekord im Manipulieren des Wassers hält ein Frostschutz-Protein. Das Blut antarktischer Fische müsste eigentlich bei 0,9°C gefrieren. Tatsächlich aber überleben die Tiere tiefere Temperaturen – dank eines Frostschutz-Proteins, das Hunderte Male so wirksam ist wie das Frostschutzmittel im Auto. Es ist – anders als die meisten anderen Proteine – am effektivsten, wenn die Temperatur nahe am Gefrierpunkt liegt. Das Protein kann das Wassernetzwerk über 2,7 Nanometer hinweg beeinflussen – eine winzige Entfernung, aber immer noch zehnmal so groß wie die Reichweite anderer Proteine.

Dank der flexiblen Unordnung seiner Bindungen ist Wasser also fähig, seine innere Struktur rasch an die physikalischen und chemischen Erfordernisse von Organismen anzupassen und viele Reaktionen zu beeinflussen. Es gibt keine andere Flüssigkeit mit ähnlich einzigartigen Eigenschaften. Das fein abgestimmte Wechselspiel zwischen dem Wasser und den Biomolekülen, durch die das Zellgeschehen gerade so im Gleichgewicht gehalten wird und schnell von einem Zustand zum anderen wechseln kann, macht Leben wie wir es kennen erst möglich.

REM

Der „Freie“ Wille

Seit der Antike beschäftigen sich Philosophen mit der Freiheit oder Unfreiheit des menschlichen Willens. Heute ist das Problem der freien Willensentscheidung eine der wichtigsten Fragen, die gegenwärtig an der Berührungsfläche zwischen Natur- und Kulturwissenschaften diskutiert wird.

Verschiedene Kriterien wurden aufgestellt, die erfüllt sein müssen, damit eine Entscheidung oder Handlung als freiwillig anzusehen ist. Die drei wichtigsten lauten:

1. Prinzip des Anderskönnens: Eine Person muss in einer Situation zwei oder mehr Handlungs- oder Entscheidungsalternativen besitzen, aus denen sie auswählen kann. 2. Prinzip der Urheberschaft: Es muss von der Person selbst abhängen, also im Einklang stehen mit ihren Motiven und Überzeugungen, welche der möglichen Alternativen ausgewählt wird. 3. Prinzip der Autonomie: Die Wahl der Alternative muss autonom, also selbständig durch die Person erfolgen. (Anders wäre dies, wenn jemand unter Zwang handelt.) In der Ethik bedeutet die Aussage, der Mensch habe einen freien Willen, dass er sittlich autonom über sich selbst verfügt und fähig ist, dem Handeln Zwecke vorzugeben, die von der Natur nicht vorgegeben sind.

Nach der landläufigen Vorstellung verfügen wir über einen freien Willen und könnten dementsprechend bei den meisten Entscheidungen auch anders wählen. Jedenfalls fühlt es sich intuitiv so an. Bei Philosophen und Naturwissenschaftlern gehen in der Frage der Willensfreiheit die Meinungen weit auseinander. Zwei Extreme scheinen sich in der Diskussion gegenüberstehen: „Mein Wille ist frei. Ich kann alles tun und wollen und völlig frei entscheiden. Neurobiologische Erkenntnisse haben keinerlei Bedeutung für unser Selbstkonzept als frei und verantwortlich handelnde Menschen.“ und „Für alles gibt es eine kausale Erklärung, also auch für menschliches Handeln und Entscheiden. Der ‚Freie Wille‘ ist eine Illusion. Personen handeln als Automaten, denen ihr Gehirn vorgaukelt, sie würden selbst entscheiden.“

Die Illusion

In der klassischen Physik gilt ein strenger Determinismus: Die Welt ist geschlossen, das Gegenwärtige ergibt sich nach festen Ursache-Wirkungs-Beziehungen zwangsläufig aus dem Vorhergehenden. Wenn fast alle physikalischen Prozesse festen Gesetzmäßigkeiten folgen – außer vielleicht Quantenprozesse*, die in ihrer Regellosigkeit aber keine vernünftige Basis für freie Willensakte sein können -, sind auch die Vorgänge im Gehirn stets durch vorangegangene neuronale Prozesse determiniert, also festgelegt. Es scheint keinen Raum für einen freien Willen zu geben, der unabhängig von allen materiellen Wechselwirkungen entscheidet und dann auf die neuronalen Prozesse so einwirkt, dass diese ausführen, was der Wille „will“. Ein freier Wille scheint also mit dem Determinismus nicht vereinbar (kompatibel).

*Tatsächlich hat es immer wieder Versuche gegeben, die freie Willensentscheidung mit quantenmechanischen Unbestimmtheiten in Verbindung zu bringen. Die probabilistischen Phänomene konnten bisher allerdings nur auf atomarer und subatomarer Ebene, nicht aber für makroskopische Systeme wie das Gehirn oder einzelne Neurone nachgewiesen werden. Vielmehr mitteln sich die Quanteneffekte schon auf der molekularen Ebene durch thermisches Rauschen vollkommen weg.

Die Experimente der Neurophysiologen Benjamin Libet und Bertram Feinstein legen die Schlussfolgerung nahe, dass wir in der Tat gar nicht das tun, was wir als bewusste Lebewesen wollen, sondern dass das, was wir wollen, aus einer im Verborgenen ablaufenden Kette von Hirnprozessen resultiert. Ihre Versuche ergaben, dass etwa 300 Millisekunden, bevor ich eine Entscheidung bewusst treffe, genau jetzt einen Finger zu krümmen, motorische Areale des Gehirns bereits die entsprechenden Weichen gestellt haben.

Libet interpretiert das so, dass in dieser Zeitspanne von einer knappen halben Sekunde ein die Bewegung vorbereitendes Bereitschaftspotenzial aufgebaut wird, das die spezifische Willkürbewegung anzeigt. Diese Hirnaktivität tritt nicht ins Bewusstsein, während der gewissermaßen hinterher hinkende bewusste Entschluss aber als das erste Glied des Entscheidungsprozesses erlebt wird. Das Bewusstsein stellt sich also selbst als Initiator unserer Handlungen vor, was es jedoch nicht ist, da die Ereignisse bereits im Gange sind, ehe es auftritt.

Die Empfindung, etwas zu wollen, ist demnach nur das Echo von unbewussten Prozessen, die zuvor in den Windungen des Gehirns abgelaufen sind. Nichts deutet darauf hin, dass die Kausalketten irgendwo unterbrochen wären. Falls es darüber hinaus noch Einflüsse des Zufalls gibt, etwa durch thermisches Rauschen, dann wird die je folgende Handlung etwas unbestimmter, aber dadurch noch nicht dem freien Willen unterworfen.

Je mehr die Neurowissenschaften über bewusste und unbewusste Hirnprozesse in Erfahrung bringen, desto enger scheint sich der Spielraum für freie Willensentscheidungen zusammenzuziehen. Neueste Forschungsergebnisse (mittels Kernspintomographie) erlauben sogar schon zu sagen, eine Versuchsperson wird jetzt dieses tun und nicht jenes. Und das bereits lange, bevor diese sich entschieden hat. Die Experimente legen darüber hinaus nahe, dass wir uns nachträglich Begründungen zurecht legen für die Entscheidungen, die durch die verborgenen Hirnprozesse generiert wurden. Das Gehirn scheint uns also Willensfreiheit vorzugaukeln, wo keine besteht. Willensfreiheit wäre dann also, freiwillig zu tun, was man unfreiwillig tun muss – oder, wie der Philosoph Arthur Schopenhauer (1788 – 1860) schon im 19. Jahrhundert meinte: „Der Mensch kann zwar tun, was er will, aber nicht wollen, was er will.“

Die Vorstellung, dass wir als handelnde Individuen ohne Ursache neue Ereignisketten in Gang setzen können, vertritt heute unter Philosophen längst nur noch eine kleine Minderheit. Es scheint unsinnig, dem deterministischen Denken der Hirnforscher ein Konzept der Willensfreiheit entgegenzustellen, das auf eine Art naiven Indeterminismus hinausläuft. Würden wir alle Faktoren kennen, die unsere Entscheidungen beeinflussen, dann würden wir unser eigenes Handeln vielleicht ähnlich betrachten wie das einer Robo-Ratte. Forscher können durch Fernsteuerung nicht direkt beeinflussen, was die Ratte tut, aber sie können beeinflussen, was die Ratte tun möchte.

Kausallücken?

Manche Philosophen und Theologen sehen aber noch ein winziges Schlupfloch zur Willensfreiheit. Sie spekulieren, dass die Naturgesetze hübsche kleine Lücken ließen, in denen der freie Wille agieren könne. Libet selbst brachte das Veto-Prinzip ins Spiel: Der menschliche Wille könne ja eine zerebral vorbereitete Handlung buchstäblich im letzten Moment unterbrechen bzw. stoppen. Der freie Wille initiiert demnach keinen Prozess, sondern kontrolliert ein letztes Mal, ob z. B. eine Bewegung tatsächlich sinnvoll oder notwendig ist. Ein solches „bewusstes“ Veto wäre also erst nötig, wenn sich der bewusste Wille und die nichtbewusste Regung widersprechen würden.

Tatsächlich stellte sich in Experimenten heraus, dass das Bewusstsein eine geplante Bewegung noch verhindern kann, wenn dafür genügend Zeit bleibt. So gelang es Probanden, einen Tritt aufs Pedal abzubrechen, nachdem der Computer bereits das Bereitschaftspotenzial aus ihren Hirnwellen herausgelesen hatte. Blendete der Computer das Stoppsignal allerdings weniger als 200 Millisekunden vor den ersten Muskelzuckungen der Versuchsteilnehmer ein, waren sie nicht mehr in der Lage, die Bewegung komplett zurückzuhalten. Die Signale waren bereits im Motorkortex angekommen und wurden ausgeführt – auch gegen den Willen der Probanden.

Einige Hirnforscher deuten die dem Entschluss vorangehende Hirnaktivität als eine Art Vorschlag, in einer bestimmten Art und Weise zu agieren. Erst wenn der Mensch zustimme, würde diese als bewusste Entscheidung empfunden. Manche meinen sogar, das sog. Bereitschaftspotenzial sei gar nicht ursächlich mit der Handlung verknüpft, sondern Ausdruck eines Grundrauschens, einer steten Hintergrundaktivität, welche die Entscheidung für eine Bewegung oder ein bewusstes Urteil erleichterte, sobald eine bestimmte Schwelle überschritten wird. Für andere wiederum spiegelt die neuronale Aktivität eine generelle Erwartung wider, die in die eine oder andere Handlung münden kann.

Dies erinnert an die Funktionsweise des Bremsassistenten bei Autos. Wenn er richtig funktioniert, so zeichnet er sich dadurch aus, dass eine elektrische Aktivität in den Steuerzentren für die elektronische Bremse messbar ist, noch bevor der Fahrer mit seinem Fuß das Bremspedal berührt, also sozusagen noch bevor dem Auto die Intention zu bremsen „bewusst“ werden könnte. Der Bremsassistent interpretiert hier ein eventuell schnelles Liften des Fußes vom Gaspedal als wahrscheinlich folgenden Bremswunsch und konfiguriert die Bremse schon mal vorsorglich hinsichtlich optimaler Bremskraft, d. h., er verändert das Ansprechverhalten und die Kennlinie des Bremskraftverstärkers.

Trotz allem wären damit die Einflussmöglichkeiten des Bewusstseins immer noch mehr oder weniger begrenzt, so dass auch die Willensfreiheit in gleichem Maße begrenzt wäre. Man könnte dann also allenfalls von einer mehr oder weniger eingeschränkten, einer sog. „bedingten“ Willensfreiheit sprechen. Kritiker meinen, dass selbst eine reduzierte Schiedsrichterfunktion wiederum allein durch Hirnprozesse gesteuert sein müsste.

Kompatibilität

Es scheint also sehr unwahrscheinlich, dass wir tatsächlich in einer Welt mit Kausallücken leben – ganz zu schweigen davon, dass ein autonomes Ich die Vorgänge im Gehirn völlig selbständig beeinflusst (abgesehen von der Frage, woher es kommt und wie es Wünsche und Überzeugungen generiert). Ein deterministisches Menschenbild widerspricht aber unserem intuitiven Selbstverständnis. Für uns Menschen ist der freie Wille eine reale Erfahrung – wir erfahren uns ja tatsächlich als frei in unseren Entscheidungen. Der Dichter Samuel Johnson (1709-1784) brachte es einst auf den Punkt: „Alle Theorie spricht gegen die Freiheit des Willens – und die gesamte Erfahrung dafür.“ Trotz der Gegensätzlichkeit der Standpunkte versuchen Philosophen und Hirnforscher, sie miteinander zu versöhnen und das Erlebnis der Willensfreiheit kompatibel zu machen mit dem in der Welt herrschenden Determinismus.

Es gibt wohl theoretisch tatsächlich einen Punkt, von dem aus ich völlig determiniert handle, aber dieser liegt sehr weit entfernt von meinem Erleben – am Endpunkt der Physik. Ein komplexes, vollständig bestimmtes und determiniertes System (z. B. Verhalten), das also ganz und gar von auf einfacheren Stufen wirkenden Gesetzen gesteuert wird, kann so kompliziert sein, dass wir es höchstwahrscheinlich niemals berechnen können. Das Nicht-voraussagen-können unseres eigenen Handelns könnten wir dann im Alltag als „Freiheit“ interpretieren. Willensfreiheit wäre in dem Sinne also die Beschreibung für eine weder vom Individuum selbst noch von Philosophen und Neurobiologen überschaubare Kausalität.

Unsere Freiheit existiert nicht auf der Mikroebene der Materie, der Ebene der Teilchen, sondern auf derjenigen der Menschen, der Makroebene des Geistes. Nach dem Philosophen Michael Pauen handelt ein Mensch frei und autonom, wenn seine Handlungen und Entscheidungen weder vom Zufall noch durch äußere Zwänge bestimmt werden, sondern nur von ihm selbst, von seinen in der Regel tief in seiner Person verankerten Überzeugungen, Erfahrungen, emotionalen Bewertungen, Motiven und Wünschen. Auch in der Psychoanalyse ist es mein Selbst, die einmalige Persönlichkeit mit ihrer unverwechselbaren Biografie, der die Entscheidungsgewalt zukommt.

Diejenigen Entscheidungen sind also frei, die wir selbst im Einklang mit erlernten Verhaltensmustern, erlernten oder angeborenen Vorlieben, Ereignissen der Vergangenheit, unbewussten Mechanismen usw. treffen und nicht etwa durch Zwang. Jeder Mensch hat einen durch sein Genom, seine Erlebensgeschichte und aktuelle Sachzwänge begrenzten Entscheidungsfreiraum. Sein Wille agiert demnach in einem strukturierten Feld; er hat seine Vorgeschichte. Die Wünsche, Ziele und Überzeugungen, die uns schon vor einer Entscheidung eigen sind, legen den Raum der Handlungsoptionen fest, in dem wir uns bewegen. Wir sind also Autoren unserer eigenen Handlungen, weil wir nicht aus einem willenlosen Entscheidungsvakuum heraus handeln, sondern in dem ständig fließenden Abgleich zwischen Wahrnehmungen, Erfahrung, langfristigen Interessen und Neigungen bis zu aktuellen Bedürfnissen.

Ein absolut freier und in jeder Richtung gleichermaßen offener Wille führt schon aus rein begrifflichen Gründen zu Widersprüchen. Ohne von Gründen, Prinzipien, Zielvorstellungen und Überzeugungen geleitet zu sein, wäre es unmöglich, ein gewolltes Ziel „frei“ zu erreichen. Wenn unsere Handlungen unter exakt gleichen Bedingungen auch anders ausfallen könnten, dann sind sie de facto nicht weit von einem Zufallsereignis entfernt. Aber Zufall ist gerade nicht das, was wir mit „Freiheit“ meinen.

Eine freie Handlung darf also sehr wohl determiniert sein, sofern die Determination vom Urheber ausgeht. In dieser Hinsicht besteht kein Widerspruch zwischen Handlungsfreiheit und Naturkausalität. Diese „kompatibilistische“ Sichtweise, die heute weit verbreitet ist, überwindet nicht nur den Gegensatz zu wissenschaftlichen Prinzipien, sondern wird auch unseren intuitiven vorwissenschaftlichen Vorstellungen besser gerecht. Wenn unser Verhalten auch durch Gesetze und Anfangsbedingungen vollständig festgelegt ist, erscheint es also trotzdem sinnvoll, es mit Begriffen wie Entscheidung und Wille zu beschreiben.

Die tagtägliche Entscheidung, dass wir zwischen Handlungsalternativen wählen können, ist also keine pure Illusion. Wir sind keine Automaten, in denen gerade Ursachen und Wirkungen ablaufen, die für uns selbst undurchsichtig bleiben. Es klingt wie ein Witz, wenn jemand sagt: „Ich kann über mein Tun und Denken nicht frei entscheiden; ich bin nicht freiwillig hier – und dass ich das sage, geschieht auch nicht freiwillig.“ Entweder geben unbewusste Motive oder Impulse den Ausschlag für eine Wahlentscheidung, oder die Vernunft trifft sie im Sinne eines dominierenden Interesses. Der Determinismus wird dadurch zwar nicht aufgehoben, aber der Mensch wird – sofern nicht äußere oder innere Zwänge dem entgegenstehen – in die Lage versetzt, zu tun, was er will. Der Schweizer Philosoph Peter Bieri spricht von einem „bedingt freien Willen„.

Heute glauben 80% der befragten Wissenschaftler zumindest an diese schwache Form der Willensfreiheit, die mit dem Determinismus vereinbar ist. Einige sprechen von einem Scheinproblem. Sie halten den philosophischen Begriff der Willensfreiheit für überholt. Statt sich mit dem allzu simplen Gegensatz von Freiheit und Determinismus zu beschäftigen, stehe eher das Verhältnis zwischen Handeln und den subjektiven Gründen dafür zur Debatte. In den Labors und Instituten beschäftigt man sich heute mehr damit, zu erkunden, wie Materielles und Geistiges zusammenhängen. Die Trennung von Körper und Geist erscheint als ein Relikt alter Zeiten, von dem sich die Forscher schon lange verabschiedet haben.

———————————————————————————————————–

Verantwortung und Schuld

Ein deterministisches Weltbild lässt sich nur schwer mit traditionellen Begriffen wie „Freiheit“, „Verantwortung“ und „Schuld“ vereinbaren, denn wenn das Gehirn durchweg deterministisch arbeitet, kann für diese Begriffe offensichtlich kein Raum sein. Wenn aber aus kompatibilistischer Sicht Verhalten und Urteile aus einem Prozess des Überlegens aus Motiven, Wahrnehmungen, Zukunftsvorstellungen und so weiter hervorgebracht werden, verlangt das auch Verantwortung für das, was ich sage und tue. Allerdings ist die Unterstellung, der Mensch wäre generell in der Lage, sich gegen Gewalt und für das Recht zu entscheiden, unter Strafrechtlern umstritten. Es gibt ganz handgreifliche und schwer zu leugnende Unterschiede hinsichtlich der Fähigkeit, das eigene Handeln zu steuern.

In früheren Zeiten wurden Epileptiker und Schizophrene noch als vom Teufel besessen angesehen, ausgegrenzt, verurteilt und brutal behandelt. Wir verstehen sie heute als Opfer, die für ihre Handlungen nichts können. Psychisch Kranke, aber auch Kinder, betrachten wir deshalb in einem wesentlich geringeren Maße als verantwortlich für ihr Tun als gesunde Erwachsene. Wir nehmen auch zumindest eine verminderte Schuldfähigkeit infolge von Drogenkonsum oder eines psychischen Ausnahmezustands an. Es muss also immer der Mensch mit seiner gesamten soziologischen und biologischen Vorgeschichte sowie im Licht hirnphysiologischer Erkenntnisse beurteilt und eventuell mit Strafe belegt werden – und nicht allein die abstrakte Handlung des Täters. Gerade besonders abscheuliche Delikte hängen nachweislich oft mit angeborenen oder früh erworbenen neuronalen Schäden zusammen. In einem solchen Fall muss ein Täter meist für unzurechnungsfähig erklärt werden.

Strafe scheint aber generell auch dann gerechtfertigt und in vielerlei Hinsicht eine wichtige Maßnahme zu sein, wenn ein Täter nicht anders hätte handeln können. Nicht nur die Kompatibilisten sagen: Ja, wir dürfen die Rechtsbrecher weiterhin für schuldig erklären und ihnen moralische Vorwürfe machen! Da Menschen sich Vorwürfe zu Herzen nehmen und ihr Verhalten danach ausrichten würden, sei es, so meinte der Physiker und Philosoph Moritz Schlick (1882-1936), durchaus sinnvoll, sie für ihr Tun moralisch zu verurteilen und strafrechtlich zur Verantwortung zu ziehen. Allein schon die Androhung von Freiheitsentzug sei ein effektives Abschreckungsmittel, das das Verhalten des Einzelnen beeinflusse.

Die Menschen haben ein substanzielles Interesse an einem Rechtssystem, das Leib und Leben, Hab und Gut schützt. Und es funktioniert offensichtlich nur dann, wenn es seinen Forderungen durch Strafen Nachdruck verleiht. Die neuzeitlichen und aufklärerischen Staatstheoretiker wie Thomas Hobbes (1588-1679), John Locke (1632-1704), Jean-Jaques Rousseau (1712-1778) und Immanuel Kant (1724-1804) hatten die Idee eines gesellschaftlichen Vertrages, der den Menschen Sicherheit für Leben und Besitz bieten sollte und von ihnen im Gegenzug verlangte, die Sicherheit anderer zu respektieren. Das schloss auch Strafen ein, sofern sie die Sicherheit garantierten und nur im Fall der Vertragsverletzung verhängt würden.

Nur „Wegsperren“ ist nicht unbedingt von Nutzen. Die Gesellschaft muss weitergehende Maßnahmen ergreifen, damit unerwünschtes Verhalten nicht wieder vorkommt. Dazu gehören u. a. Schulungs- und Therapieprogramme (auch präventiv). Social Engineering nennt man die Behandlung sozial schädlichen Verhaltens mit dem Ziel, es zu korrigieren oder wenigstens die Gesellschaft vor seinen Folgen zu schützen. Schließlich darf aber auch der Nutzen eines Strafsystems für die Opfer nicht vernachlässigt werden. Für diese ist es wichtig, Solidarität zu verspüren und zu wissen, dass das Geschehene nicht einfach hingenommen wird. Solche Erfahrungen bedingen auch zukünftiges Handeln mit.

————————————————————————————————————

REM

Das Ende eines Sterns

Die meiste Zeit verbringen Sterne in einer stabilen Phase, in der in ihrem Zentrum Kernfusionsreaktionen, vor allem die Verschmelzung von Wasserstoff zu Helium, ablaufen. Dabei wird Energie (nukleare Bindungsenergie) frei. Die Kernfusion heizt so das Innere des Sterns auf und erzeugt damit Druck gegen die äußeren Schichten, die aufgrund der Schwerkraft nach innen streben. Mathematisch ist der Gasdruck im Inneren des Sterns das Produkt aus Teilchendichte und Temperatur. Durch die Fusion von jeweils vier Wasserstoffkernen zu einem Heliumkern sinkt die Teilchendichte im zentralen Bereich und er kontrahiert mit der Zeit etwas. Dadurch wird die Fusion aber auch effektiver, die Temperatur steigt. Solange der Druck von Gas und Strahlung aus dem Inneren dem Gravitationsdruck der äußeren Schichten die Waage hält, bleiben die Sterne stabil.

Die Lebensdauer eines Sterns hängt vor allem davon ab, wieviel Wasserstoff zur Verfügung steht und wie schnell er verbraucht wird. Je mehr Masse ein Stern hat, umso mehr Brennstoff muss er pro Sekunde verbrauchen, um sich gegen die eigene Schwerkraft zu behaupten. Daher strahlen massereiche Sterne auch wesentlich stärker. Aus den physikalischen Gesetzen, die seinen Aufbau bestimmen, ergibt sich, dass die Leuchtkraft und damit der Energieverbrauch mit der 3,5ten Potenz der Sternmasse ansteigt.

Massereiche Sterne brauchen ihren Brennstoff aber deshalb auch erheblich schneller auf als massearme, obwohl sie anfangs mehr davon haben, und steuern in rasantem Tempo auf ein spektakuläres Ende zu. Die leichtesten Sterne – von denen einige nur 1/10 der Masse unserer Sonne aufweisen – haben die höchste Lebenserwartung: bis zu einigen Billionen Jahren. Im Gegensatz dazu liegt die Lebenserwartung der schwersten Sterne nur bei wenigen Millionen Jahren.

Auch welchen Endzustand der Kern eines Sterns erreicht und ob und wie heftig die verbleibende Hülle abgestoßen wird, hängt von seiner Masse ab. Dabei ist das Ende der Sterne weitaus vielfältiger als man annehmen könnte. Manche Sternexplosionen sind hundertmal heller als gewöhnliche, andere wiederum hundertmal schwächer. Einige erscheinen tiefrot, manche senden vor allem ultraviolette Strahlen aus. Eine ganze Reihe von ihnen ist jahrelang sichtbar, andere verblassen innerhalb weniger Tage. Die Masse des Sterns bestimmt auch die Art von chemischen Elementen, die er an das interstellare Gas abgibt und damit der nachfolgenden Generation zur Verfügung stellt.

Schicksal der masseärmeren Sterne

Wenn fast aller Wasserstoff im Zentralbereich eines Sterns zu Helium verschmolzen ist, erlischt hier die Kernfusion. Da es in den äußeren Schichten noch ausreichend Wasserstoff gibt, wandert die Zone, in der noch Kernreaktionen stattfinden, schalenförmig nach außen. Während der Kern wegen der Abnahme der inneren Hitze schrumpft, heizt sich die Hülle schlagartig auf und expandiert. Binnen kurzer Zeit schwellt der Stern auf ein Vielfaches seines ursprünglich Durchmessers an. Etwa eine Milliarde Jahre nach Versiegen des Wasserstoffbrennens im Kern hat sich z. B. ein sonnenähnlicher Stern auf das 160fache seines ursprünglichen Durchmessers ausgedehnt und leuchtet mehr als 2000mal so hell. Dabei hat sich seine Farbe in ein tiefes Rot verändert, da durch die Expansion die Temperatur an der Oberfläche um etwa 3000°C abgenommen hat. Seine Leuchtkraft ist indes höher als zuvor, da die Oberfläche um ein Vielfaches zugenommen hat.

Dieses Stadium – die Astronomen bezeichnen den Stern jetzt als „Roten Riesen“ – kann wiederum Jahrmillionen oder Jahrmilliarden dauern, währenddessen im Inneren weitere chemische und physikalische Prozesse stattfinden. Zeitweilig wird ein Teil der Sternmaterie stark durchmischt, gelangt an die Oberfläche und wird als Teilchenwind ins All ausgestoßen. Der Rote Riese pulsiert schließlich mit immer heftigeren Bewegungen und schleudert dabei Materie ins All. Im Kern kann bei einer genügend hohen Temperatur Helium weiter zu Kohlenstoff und Sauerstoff fusioniert werden. Allerdings wird der Kern eines Sterns von bis zur acht- bis zehnfachen Masse der Sonne nicht heiß genug, um einen merklichen Anteil seines Kohlenstoffs in Sauerstoff umzuwandeln.

Sobald der Rote Riese sämtliche Heliumvorräte in Kohlenstoff umgewandelt hat, fällt er in sich zusammen. Kurz vorher wirft er die äußeren Schichten, die dem Strahlungsdruck von innen nicht mehr standhalten können, ab. Nach der Theorie der wechselwirkenden Sternwinde verlässt ungefähr tausend Jahre später ein dünnerer, aber wesentlich schnellerer Wind den sterbenden Stern. Er holt alsbald die langsameren äußeren Schichten des Roten Riesen ein und kollidiert mit ihnen. Dabei verdichtet sich die Materie und energiereiche UV-Strahlung entreißt den Atomen der Nebelschwaden Elektronen.

So entsteht die verschwenderische Farbpalette der Planetarischen Nebel, die bis zu zwei Lichtjahre groß sein können. Für ungefähr 100 000 bis eine Million Jahre – je nach Anfangsmasse des Sterns – bleibt er sichtbar, dann hat sich die Hülle im interstellaren Raum verteilt und mit dem dortigen Gas vermischt. Der Name „Planetarischer Nebel“ hat also nichts mit Planeten zu tun; er geht auf den englischen Astronomen William Herschel zurück: Die winzigen blaugrünen Scheibchen, die er (1785) in seinem Teleskop sah, erinnerten ihn an den Planeten Uranus, den er vier Jahre zuvor entdeckt hatte. Schätzungsweise 50 000 Planetarische Nebel soll es allein in der Milchstraße geben; 1500 sind bekannt.

Der heiße Kern des Roten Riesen kollabiert nicht vollständig. Es sind die abstoßenden Quantenkräfte, die den völligen Zusammenbruch verhindern. Die Gesetze der Quantenmechanik verbieten es, dass zwei Elektronen exakt den gleichen Energiezustand einnehmen. Sie lassen sich nicht weiter zusammenpressen und setzen dadurch der nach innen wirkenden Schwerkraft einen nach außen gerichteten Druck, den Entartungsdruck der Elektronen, entgegen. Er stabilisiert den abgebrannten Stern.

Was übrig bleibt, ist ein Weißer Zwerg von der Größe der Erde, aber mit einer Dichte von einer Tonne pro Kubikzentimeter (im Zentrum sogar 1000 Tonnen pro Kubikzentimeter) und fast soviel Masse wie die heutige Sonne. Er besteht hauptsächlich aus Kohlenstoffatomkernen und Elektronen, ist sehr heiß, hat aber eine geringe Leuchtkraft. Im Verlauf von Milliarden Jahren kühlt der Weiße Zwerg, umkreist von den Trümmern seines einstigen Planetensystems, langsam aus und wird immer leuchtschwächer. Dabei behält dieser kosmische „Aschehaufen“ im Wesentlichen seine Größe: Die meisten Weißen Zwerge besitzen 0,56 Sonnenmassen. Das sog. Chadrasekhar-Limit besagt, dass sie nicht schwerer als 1,4 Sonnenmassen sein können, sonst würden sie weiter zu Neutronensternen oder Schwarzen Löchern kollabieren. (In einem Doppelsternsystem kann ein Weißer Zwerg kontinuierlich Masse von seinem Nachbarstern abziehen und diese Massengrenze überschreiten.)

Der Weiße Zwerg wird schließlich erlöschen. Nur der Kranz aus Staub und Gas, gebildet aus der abgestoßenen Materie, erinnert dann noch an seine frühere Existenz. 15 000 dieser Sternleichen soll es allein im Umkreis von 300 Lichtjahren um die Erde geben. Der uns nächste, nur mit dem Teleskop sichtbare Weiße Zwerg ist Sirius B – der Begleiter des hellsten Sterns am Nordhimmel, Sirius A. Er ist nur etwa doppelt so groß wie die Erde, aber fast so schwer wie die Sonne. Sein Licht braucht nur acht Jahre und 202 Tage für den Weg zu uns.

Schicksal von massereichen Sternen

Bei Sternen mit dem Acht- bis Zehnfachen der Sonnenmasse laufen die Fusionsprozesse umso rascher ab, je höher Druck und Temperatur im Sterninneren sind. Immer hektischer zünden nun Fusionsreaktionen schwerer Atomkerne, bis bei Eisen und Nickel die Kernfusion abbricht. Eisen hat die energieärmsten Atomkerne; eine weitere Fusion zu noch schwereren Elementen liefert keine Energie mehr, sondern würde welche erfordern. Somit kommen die Kernverschmelzungsprozesse im ausgebrannten Sternkern rapide zum Erliegen. Der Stern ist „ausgebrannt“.

In einem Stern von der 25fachen Masse der Sonne dauert das Wasserstoffbrennen nur sieben Millionen Jahre, das Heliumbrennen 500 000 Jahre. Das Kohlenstoffbrennen hält den Stern sogar nur für sechs Jahrhunderte heiß, Sauerstoff für sechs Monate, und die Umwandlung von Silizium zu Eisen-56 läuft in einem Tag ab. Kleinere Sterne bis minimal mehr als acht Sonnenmassen, erreichen diesen Zustand nach sehr viel längerer Zeit.

Die Folge der Brennvorgänge ist ein „Zwiebelstern“ mit konzentrierten, kugelsymmetrischen Schalen, in denen sich von außen nach innen jeweils die Asche der früheren nuklearen Brennphasen anordnet, mit Eisen als schwerstem Element im Zentrum. Weiter außen liegende Schichten bestehen nacheinander hauptsächlich aus Sauerstoff, Kohlenstoff, Helium und Wasserstoff. Was weiter geschieht, hängt vor allem von der Masse des Kerns ab, denn die entscheidet über die Temperatur- und Druckverhältnisse im Zentrum.

Das 1,4fache der Sonnenmasse ist die maximale Masse, die vom nachlassenden Druck der Elektronen noch zusammengehalten werden kann. Oberhalb dieser Massengrenze kann zunächst nichts mehr der wachsenden Schwerkraft standhalten: Der Stern wird instabil. In Sekundenbruchteilen bricht die Eisenkugel von rund 3000 Kilometern Durchmesser – ungefähr der Größe des Erdmonds – mit einem Viertel der Lichtgeschwindigkeit (75 000 km/s) in sich zusammen. Bei der Implosion zerlegen die energiereichen Photonen die Eisenkerne in einzelne Protonen, Alphateilchen und immer mehr Neutronen. Die Materie hat sich so verdichtet, dass Kernreaktionen zwischen Protonen und Elektronen einsetzen. Die bis dahin freien Elektronen werden unter dem extrem starken Gravitationsdruck gleichsam in die Protonen hineingequetscht und bilden mit ihnen zusammen Neutronen. Gleichzeitig werden binnen 10 bis 15 Sekunden 1058 Neutrinos frei.

Jetzt setzt ein neuer Stabilisierungsmechanismus ein. Es ist der Entartungsdruck der Neutronen, der den Prozess aufhält. Sie lassen sich nicht weiter zusammenpressen, wodurch ein nach außen gerichteter Druck erzeugt wird. Die Materie, die mit bis zu 15% der Lichtgeschwindigkeit aus den äußeren Sternschichten weiter auf den neugeborenen Neutronenstern niederstürzt, wird zurückgeschleudert. Die Implosion geht in eine Explosion über – eine Supernova.

Der ungeheure Energieausstoß der Explosion wird als plötzliches Aufleuchten des Sterns sichtbar. Dabei sollen die Neutrinos 99% der bei der Sternexplosion erzeugten Energie ausmachen. (Als Antrieb der Explosion kommen auch noch andere Explosionsmechanismen in Frage, z. B. Schallwellen oder magnetische Energie.) Eine einzelne Supernova strahlt so viel Energie ab wie unsere Sonne während ihrer ganzen Existenz. Sie kann kurzfristig sogar heller leuchten als eine ganze Galaxie und ist bis 5000 Lichtjahre entfernt noch zu sehen. Die Maßstäbe übersteigen unser Vorstellungsvermögen.

Die gewaltige Stoßwelle sprengt die äußeren Schichten des Sterns innerhalb von Minuten mit der Gewalt von zehn Wasserstoffbomben ab und katapultiert sie größtenteils in den interstellaren Raum. Mit der Geschwindigkeit von einigen Prozent der Lichtgeschwindigkeit breitet sich die ehemalige Sternhülle, eine bis zu zehnmal größere Masse als die Sonne, aus. Die Trümmerwolke, die die Druckwelle der Explosion vor sich hertreibt, rast in den noch vorhandenen, wesentlich langsameren Sonnenwind, den der Überriese vordem ins All geblasen hat. Bei dieser Kollision erhitzen sich die Gase und erzeugen elektromagnetische Strahlung, u. a. auch hochenergetische Röntgen- und Gammstrahlen.

Der Krebsnebel in der Nähe des Sternbildes Orion ist die Explosionswolke der großen Supernova, die chinesische Hofastronomen 1054 entdeckten und deren hochenergetische Strahlung man 1991 nachweisen konnte. Sie ereignete sich vor rund 7300 Jahren.

Hinter sich her zieht die Stoßfront der Supernova eine nuklear brennende Front und hinterlässt ein Gemisch an frisch fusionierten Elementen, darunter Silizium, Kalzium, Eisen und radioaktive Isotope von Nickel, Kobalt und Titan. Etwa 70% des Eisens, das heute in den Galaxien nachweisbar ist, stammt aus Supernova-Explosionen. Sie lieferten auch das Baumaterial zur Bildung neuer Sterne, Planeten und aller Lebensformen auf der Erde. (Die mittlerweile beobachtete Vielfalt der Supernovae deutet darauf hin, dass deren unterschiedliche Kategorien bevorzugt Elemente jeweils verschiedener Bereiche des Periodensystems produzieren.)

Die Leuchtkraft des Feuerballs steigert sich etwa ein bis drei Wochen lang, angeregt durch den Zerfall instabiler schwerer Elemente, insbesondere radioaktivem Nickel, bis sie ein Maximum erreicht und danach über Monate hinweg langsam abfällt. Dabei erzeugt sie mehr Licht als hundert Milliarden Sterne einer Galaxie und lässt sich noch Jahre später als immer weiter expandierende Blase beobachten. Meist haben die heißen, gasförmigen Überreste des Sterns eine asymmetrische Gestalt und sind zerfranst in größere und kleinere faserige Strukturen mit klumpenartigen Verdichtungen sowie Bereichen geringerer Materiekonzentration. Selbst einige Jahrhunderte später ist um den Neutronenstern noch eine leuchtende Gashülle auszumachen, die sich beständig weiter ausdehnt.

Viele der hellsten Supernovae (Typ Ia) sind thermonukleare Explosionen von Weißen Zwergsternen, die in einem engen Doppelsternsystem Materie von ihrem Nachbarn abgezogen und schließlich die kritische Grenze von 1,4 Sonnenmassen überschritten haben. Supernovae vom Typ Ia können auch entstehen, wenn zwei Weiße Zwerge sich immer näher kommen und schließlich verschmelzen.

a) Neutronensterne

Übrig bleibt bei einem Sternrest von bis zu 3,2 Sonnenmassen ein äußerst kompaktes Gebilde, ein heißer, dichter Neutronenstern mit nur etwa 20 Kilometern Durchmesser. Er besteht fast nur noch aus Neutronen (und zu etwa 5% aus Protonen). Seine Dichte entspricht der eines Atomkerns: ca. eine Milliarde Tonnen pro Kubikzentimeter. Ein Stecknadelkopf dieser Materie wäre immer noch etliche Tonnen schwer. Er besitzt ein brachiales Gravitationsfeld: Die Schwerkraft auf der Oberfläche ist so groß, dass eine imaginäre Rakete eine Fluchtgeschwindigkeit von 2/3 der Lichtgeschwindigkeit erreichen müsste, um der Gravitation zu entkommen.

Wie genau es der Materie im Inneren des Neutronensterns ergeht, ob sich unter dem ungeheuren Druck beispielsweise Quarks (die Bestandteile von Protonen und Neutronen) frei bewegen können oder andere Quarkvarianten auftreten, ist derweil noch unklar.

Im Verlauf der Supernova wird beim Kollaps des Kerns Gravitationsenergie der in sich zusammenfallenden Masse in Rotationsenergie umgewandelt. Nach ihrer Geburt drehen sich daher Neutronensterne in der Regel sehr flott um sich selbst – bis zu 1000mal in der Sekunde. Da in ihrem Kern auch geladene Teilchen wie Protonen und Elektronen schwimmen, entsteht wie bei einem Dynamo ein starkes Magnetfeld. Bei den Drehungen wickelt es sich auf und ein Teil der Bewegungsenergie wird in Form elektromagnetischer Schwingungen abgestrahlt.

Wenn sich die Rotations- und Magnetfeldachse des Neutronensterns nicht decken, entsteht eine Art Leuchtfeuer mit zwei engen Strahlenkegeln (Jets), die an zwei entgegengesetzten Orten des Sterns austreten. Liegt die Erde zufällig im Strahlungsbereich eines Lichtkegels, können Astronomen das Signal (vor allem Radiowellen) als regelmäßige Pulse messen. Daher bezeichnet man rasch rotierende Neutronensterne auch als Pulsare. Die Bezeichnung „Pulsar“ ist eigentlich irreführend, denn der Stern pulsiert nicht, wie sein Name suggeriert, sondern „blinkt“ wie ein Leuchtturm, da er das irdische Beobachtungsfeld periodisch anstrahlt.

Mit der Zeit nimmt die Rotationsgeschwindigkeit und damit auch die Emissionsfrequenz der der Pulsare ab, denn der Wind aus geladenen Teilchen und elektromagnetischen Wellen niedriger Frequenz, den der Pulsar abgibt, trägt Energie und Drehimpuls davon. Je länger der Pulsar strahlt, desto mehr Rotationsenergie muss er demgemäß umgesetzt haben und umso langsamer sind seine Umdrehungen geworden. Nach etwa 10 bis 20 Millionen Jahren erlischt bei einer Rotationsdauer von 0,5 bis 4 Sekunden das Funkfeuer: Der himmlische Radiosender ist zum stillen Neutronenstern geworden. Aufgrund des Entartungsdruckes bleibt er aber noch Milliarden Jahre nach seiner Entstehung stabil.

[Neutronensterne mit einem extrem starken Magnetfeld werden „Magnetare“ genannt. Sie könnten ein Relikt des Zusammenstoßes zweier massereicher Sterne sein. Ihr Feld ist 10- bis 1000mal stärker als das gewöhnlicher Neutronensterne und übertrifft alles, was Physiker kennen. Sie rotieren besonders schnell um ihre Achse (in nur wenigen Millisekunden einmal) und geben große Mengen an Röntgen- und Gammastrahlung ab. Ein Teil der Energie aus ihrer extrem schnellen Drehbewegung geht an die expandierende Explosionswolke über und lässt sie heller erscheinen. Magnetare sind aber nur etwa 10 000 Jahre lang aktiv und damit sichtbar; gerade einmal 30 sind aus unserer Galaxie bekannt. Millionen von ihnen könnten aber unbemerkt durch die Milchstraße treiben.

Schätzungen gehen von insgesamt einer Milliarde Neutronensternen in der Milchstraße aus. Einige Tausend wurden bisher gefunden. Die nächstgelegenen Neutronensterne sind Geminga und Monogem. Geminga im Sternbild Zwillinge (Geminga) ist etwa 800 Lichtjahre entfernt und 370 000 Jahre alt. Monogem befindet sich in einer Distanz von 900 Lichtjahren und ist etwa 100 000 Jahre alt. Der jüngste bekannte Pulsar ist der Überrest der 1054 beobachteten Supernova im Herzen des Krebsnebels (s. o.), deren scheinbare Lichtimpulse das gesamte Spektrum von Radio- bis hin zu Röntgen- und Gammawellenlängen abdecken und deren Leuchtkraft dafür sorgt, dass die Überreste der Explosion selbst heute noch hell zu sehen sind.

b) Schwarze Löcher

Wenn der Sternrest nach einer Supernova-Explosion den Wert von 3,2 Sonnenmassen übersteigt, gibt es keine Möglichkeit mehr, sich gegen die Schwerkraft zu behaupten. Sie gewinnt die Oberhand über alle Druckkräfte, die sich ihr entgegenstemmen könnten – sei es der thermonukleare Druck im Inneren des Sterns, die abstoßende Kraft zwischen den positiven Ladungen im Inneren der Atomkerne oder der Entartungsdruck von Elektronen und Neutronen. Der Kern kollabiert zu einem Schwarzen Loch.

Albert Einstein hatte mit seiner Allgemeinen Relativitätstheorie den Grundstein für die Theorie der Schwarzen Löcher gelegt: Überschreitet nach seinen Gleichungen die Masse in einem Raumgebiet eine kritische Grenze, werden die Gravitationskräfte so groß, dass Materie unendlich dicht zusammengedrängt wird und weder sie noch Licht oder ein anderes Signal mehr entweichen kann. Einstein wurde allerdings nicht müde, immer wieder zu erklären, dass es die „mathematische Katastrophe“ nicht geben kann. Erst 1939 konnten Robert Oppenheimer (der Vater der Atombombe), Robert Serber und Georg Volkoff beweisen, dass es beim Kollaps eines Riesensterns (oder beim Zusammenstoß von massereichen Sternen) keine Möglichkeit mehr gibt, sich der endgültigen Vernichtung zu entziehen, wenn der entstehende Sternrest 3,2 Sonnenmassen überschreitet.

Die Bezeichnung „Schwarzes Loch“ wurde 1967 auf einer wissenschaftlichen Konferenz geprägt und von John Archibald Wheeler aufgegriffen; sie setzte sich dann rasch durch. Für theoretische Physiker sind Schwarze Löcher zunächst nur bestimmte Lösungen der von Einstein aufgestellten Feldgleichungen. Obwohl astronomische Beobachtungen stark für ihre Existenz sprachen, konnten sie bis vor Kurzem nur indirekt nachgewiesen werden. Theoretisch sind sie immer noch nicht vollständig verstanden, obwohl es die am genauesten erforschten theoretischen Gebilde der Menschheit sind. Für ein Verständnis ihrer Zentralregion bedarf es wohl einer Theorie der Quantengravitation, die Raum und Zeit quantenphysikalisch beschreibt.

Ein Schwarzes Loch besteht aus zwei Teilen. In seinem Zentrum liegt eine unendlich kleine Masse, eine sog. Punktmasse, in der sich die gesamte Materie des Sterns zusammenballt. Die Mathematiker nennen ein solches unvorstellbar kleine Gebiet mit praktisch unendlich hoher Dichte und Temperatur eine Singularität. Nicht einmal Licht kann dort der Gravitation entkommen, geschweige denn Materie. Es ist weder ein materieller Körper, noch Strahlung, sondern gewissermaßen ein „Loch“ in der Raumzeit – aber das sollte man nicht wörtlich nehmen. (Physiker betrachten Singularitäten als Folge einer unzureichenden mathematischen Formulierung oder als Ausdruck einer inneren Unvollständigkeit der Theorie.)

Weil fast alle Sterne einen Drehimpuls haben, muss auch das durch den Kollaps eines Sterns entstandene Schwarze Loch rotieren. Nach den heutigen Erkenntnissen kann die Rotationsenergie bis zu einem Drittel der Gesamtenergie ausmachen. Der Drehimpuls schlägt sich in Form und Bewegung des Gravitationsfeldes nieder: Obwohl nicht direkt sichtbar, rotiert in der Nähe eines Schwarzen Loches die Raumzeit selbst. Der Schwerkrafteinfluss auf die Umgebung ist ein Indiz für seine Existenz. Durch Schwingungen des Schwarzen Lochs entstehen auch Gravitationswellen, die das Raumzeitgefüge verzerren und auf der Erde gemessen werden können.

Das Schwarze Loch zieht Materie aus dem Umfeld an: interstellares Gas, Staub, Teile eines eng benachbarten Sterns, ja ganz Sterne. Für uns verrät es sich optisch durch eine flache, teils sich von innen nach außen stark auffächernde, mit hoher Geschwindigkeit um das Schwarze Loch herum rotierende, leuchtende Scheibe (Akkretionsscheibe), dem sog. Ereignishorizont. Er trennt unausweichlich außen von innen, das Schwarze Loch vom umgebenden Raum. Hier sammelt sich die angezogene Materie und leuchtet zum letzten Mal auf, bevor sie im Schlund des Schwarzen Lochs verschwindet.

Durch dessen Rotation geraten die Teilchen, die von fern genau radial auf das Schwarze Loch zustürzen, in seiner Nähe unweigerlich auf eine Spiralbahn. Vor allem das Zusammenspiel eines starken Magnetfeldes mit einer dichten Akkretionsscheibe ruft ein Gewirr sehr schneller Partikel hervor, die untereinander sowie mit Photonen wechselwirken. Ein merklicher Bruchteil, bis zu einem Viertel des einfallenden Materials, wird dadurch in Energie verwandelt und abgestrahlt.

Während des Einsturzes bewegt sich die Materie auf ihren Umläufen immer rasanter. Die Schwerkraft drückt sie extrem stark zusammen und der Mahlstrom heizt sich immer weiter auf – bis auf Temperaturen von Millionen und Milliarden Grad. Die Materie sendet umso mehr elektromagnetische Strahlung aus, je mehr sie sich dem Punkt ohne Wiederkehr am inneren Rand der Scheibe nähert. So finster das Schwarze Loch selbst ist, so intensiv leuchtet daher seine Umgebung. (In Kombination mit Gaswolken gehören die Umgebungen Schwarzer Löcher daher oft zu den hellsten Regionen des Kosmos.)

Bevor Materie auf Nimmerwiedersehen im Schwarzen Loch verschwindet, können die extremen Bedingungen dafür sorgen, dass ein Teil dieser Materie gebündelt wird und als gerichteter, eng begrenzter Teilchenstrahl entlang der Pole ins All schießt. In diesen Jets rast die Materie mit annähernd Lichtgeschwindigkeit tausende Lichtjahre, bei Aktiven Galaxienkernen (s. u.) sogar viele Millionen Lichtjahre weit ins All.

Der nicht abgestrahlte Rest der Materie wird vom Schwarzen Loch aufgesogen. Ab dem Abstand, ab dem jede Art von Materie aufgrund der starken Gravitation in diesen kosmischen Strom hineingezogen wird, kann weder Masse noch Licht nach außen dringen. Das Objekt ist unsichtbar, nach außen hin also schwarz, denn die ausgesandten Lichtstrahlen sind zueinander gekrümmt und laufen somit zusammen, statt auseinander. Keinerlei Information vermag über ein Ereignis im Inneren dieses Bereichs zu künden, daher auch der Begriff „Ereignishorizont„.

Im Inneren des Schwarzen Lochs wird alles zermalmt und in seine Grundbestandteile zerlegt – die absolute Vernichtung. Man kann ein Schwarzes Loch am besten durch die Worte des mittelalterlichen italienischen Dichters Dante Alighieri charakterisieren, der als Einführung über das Reich der Hölle (Inferno) geschrieben hat: „Ihr, die ihr eintretet, lasst alle Hoffnung fahren.“ In der Nähe des unendlich dichten Mittelpunkts eines Schwarzen Lochs müsste sogar die Zeit vollständig zum Stillstand kommen.

Wie schwer ein Schwarzes Loch werden kann, das aus einem Riesenstern hervorgeht (stellares Schwarzes Loch), hängt von der Masse seines Vorläufersterns ab und wie viel dieser verliert, bevor er als Supernova explodiert. Seine Größe hängt auch davon ab, ob es rotiert oder nicht. So haben die dunklen Objekte zwischen einigen wenigen und mehr als eine Million Sonnenmassen, und ihre Durchmesser reichen von ein paar Kilometern bis zu Millionen Kilometern.

Aus der Verschmelzung zahlreicher stellarer Schwarzer Löcher (sowie durch Einverleibung von Gas, Staub und ganzen Sternen) entstehen im Lauf der Zeit mittelschwere Schwarze Löcher – mit zwischen einigen tausend und einigen hunderttausend Sonnenmassen. Sie wurden schon im Zentrum von Kugelsternhaufen nachgewiesen und sollen schon sehr früh in der Geschichte des Universums entstanden sein – aber ohne Umweg über eine Sternexplosion, sondern über den direkten Kollaps von riesigen Gaswolken. Ein solches Mittelgewicht kann durch einstürzendes Gas und weitere Verschmelzungsprozesse zu einem supermassereichen Schwarzen Loch anwachsen.

Ein solches enthält die millionen- bis milliardenfache Masse der Sonne in einem Raumgebiet, das kleiner ist als unser Sonnensystem. Solche Schwarzen Löcher sitzen im Zentrum vieler Galaxien. Ein Schwarzes Loch mit einer Million Sonnenmassen, wie es Astrophysiker im Zentrum unserer Milchstraße vermuten, besäße einen Radius von drei Millionen Kilometern, wäre also viermal so groß wie die Sonne. Aktive Schwarze Löcher können sich durch intensive Strahlung in der Akkretionsscheibe noch über viele Milliarden Lichtjahre bemerkbar machen – als Blazare, Quasare, Aktive Galaktische Kerne, Seyfert- oder Radiogalaxien.

Heute sind aber nur noch 0,001% aller Schwarzen Löcher in Galaxien aktiv – drei Milliarden Jahre nach dem Urknall waren es tausendmal mehr. Denn nach einiger Zeit hat dieser Moloch alle Materie in seiner Umgebung aufgesogen und fällt dann gewissermaßen in Schlaf. Dem gerade noch üppig gemästeten Schwarzen Loch fehlt plötzlich die Nahrung. Ohne ständige Zufuhr an frischer Materie kommt die Strahlung in seiner Umgebung rasch zum Erliegen. Der Quasar erlischt und wird zu einer relativ lichtschwachen Galaxie – mit einem auf Diät gesetzten Massenmonster im Zentrum. Viele dieser Art bevölkern heute das Weltall. Sie machen sich indirekt über ihre gewaltige Schwerkraft bemerkbar, indem sie die Bewegungen naher Sterne und Gaswolken beeinflussen. Kühlt sich das Gas einer Galaxie ab, kann dann wieder mehr davon ins Zentrum strömen und das Schwarze Loch wieder erwecken.

Im Rahmen der Allgemeinen Relativitätstheorie existieren Schwarze Löcher ewig. Aber Quanteneffekte führen dazu, dass sie Strahlung abgeben und sich wahrscheinlich vollkommen auflösen können. Denn am Ereignishorizont entstehen aus den überall vorhandenen Energiefeldern permanent virtuelle Teilchen und Antiteilchen, die aber sofort wieder zerstrahlen. Fällt einer der Partikel ins Schwarze Loch und das andere entkommt ihm, dann wird dem Loch Energie entzogen. Bis Schwarze Löcher aber endgültig zerstrahlen, müssen ungeheuer lange Zeiträume vergehen.

Strittig ist bis heute , was mit der Information geschieht, die nach und während der Entstehung eines Schwarzen Lochs in ihm verschwunden ist. Wenn sich ein Schwarzes Loch vollständig in Zufallsstrahlung auflöst, müssten alle von ihm verschluckten physikalischen Informationen vernichtet sein. Das wäre verheerend, denn Quanteninformation kann nicht zerstört werden, ohne die Quantentheorie und den Energieerhaltungssatz zu verletzen. Andererseits kann sie nicht übrig bleiben, ohne die Stabilität der Welt zu gefährden.

Physiker haben verschiedene Erklärungen vorgeschlagen und Szenarien entwickelt, um das berüchtigte „Informationsparadoxon“ Schwarzer Löcher zu lösen. Manche der hartnäckigsten Probleme könnten sich nach Meinung der Wissenschaftler in Wohlgefallen auflösen, wenn es gelingt, Gravitationstheorie und Quantenmechanik zu einer „Theorie für Alles“ zu vereinheitlichen, einer gültigen Theorie der Quantengravitation. Doch daran beißen sich momentan die Forscher noch die Zähne aus.

REM

Teilchen, Felder – oder was?

Die Quantenfeldtheorie

Vor einigen Jahrzehnten wurde die gewöhnliche Quantenmechanik weiterentwickelt, um Einsteins Gesetze der Speziellen Relativitätstheorie zu berücksichtigen. So entstand die „relativistische Quantentheorie“ als Vereinigung der Theorie klassischer Felder (wie das elektromagnetische Feld) mit quantenmechanischen Prinzipien. Sie taucht in vielen verschiedenen Varianten auf und kann unterschiedlichste physikalische Systeme beschreiben. Auch der mathematische Unterbau des Standardmodells der Teilchenphysik basiert auf einer Quantenfeldtheorie und beschreibt in deren Rahmen die elementaren Materiebausteine und die zwischen ihnen wirkenden Kräfte.

Teilchen und Felder

Der Teilchenbegriff stammt aus dem Weltbild der altgriechischen Atomisten und vollendete mit den Theorien Isaac Newtons (1643-1727) seinen Siegeszug. Er bezieht sich auf etwas, das, meist als kugelähnlicher Partikel – z. B. eine Billardkugel – dargestellt, einen bestimmten Ort einnimmt. Aus mehreren Gründen verhalten sich die Grundelemente der Quantenfeldtheorie jedoch ganz und gar nicht wie Billardkugeln. Stattdessen hatten bereits in den 1920er Jahren Wissenschaftler erkannt, dass eine Theorie, die auf Feldern statt auf Teilchen basiert, einige wichtige Ungereimtheiten aus dem Weg räumt: Angefangen mit Fragen der Kausalität („Wie kann ein weit entferntes Elektron ein anderes über große Distanzen hinweg augenblicklich beeinflussen?“) bis zu der unerwarteten Tatsache, dass Partikel nicht ewig existieren.

Felder sind gemäß der Speziellen Relativitätstheorie keine Zustände der Materie, sondern des Raumes (Einstein: „Zustände in Raum und Zeit, die über Entfernungen hinweg wirken“). Sie weisen jedem Punkt der Raumzeit eine physikalische Größe zu, die sich eindeutig mit beliebig feiner Auflösung im Raum messen lässt (z. B. Temperatur oder elektrische Feldstärke). Die Menge der unendlich vielen Positionen bildet zusammen das Feld, das alle Informationen zusammenfasst. Es ist – wie beispielsweise das elektromagnetische oder Gravitationsfeld – für die Übermittlung einer Kraft verantwortlich.

Quantenfeldtheorie

Nach den Gesetzen der Elektrodynamik bilden sich in der Umgebung einer beschleunigten elektrischen Ladung – also z. B. eines Elektrons – immer ein elektrisches und magnetisches Feld. Dieses wird vom Elektron erzeugt und folgt – vergleichbar der Bugwelle eines Schiffes – der Elektronenbewegung und breitet sich wellenförmig in den Raum aus. Quantentheoretisch ließ sich die elektromagnetische Kraft als Austausch von bestimmten masselosen Quanten, den Photonen, beschreiben. Die Quantentheorie des Elektromagnetismus, die Quantenelektrodynamik (QED), war das erste erfolgreiche Beispiel einer Quantenfeldtheorie in den Vierziger Jahren des 20. Jahrhunderts. Durch ihre Entdeckung verstand man endlich den Elektromagnetismus und das Wesen des Lichts.

Die Grundbausteine der Materie sind heute nicht mehr Teilchen, Wellen oder Kräfte, sondern Quantenfelder, die wie eine Art Gewebe unsere gesamte Raumzeit durchziehen. Sie unterscheiden sich grundlegend von den klassischen Varianten, z. B. von einem Magnetfeld. Aus diesen grundlegenden (fundamentalen) Bausteinen des Kosmos entspringen also Strahlung, Materie und deren Wechselwirkungen. Materie ist in diesem Sinne nur die sichtbare Form von Materiefeldern, die sich verwirklicht haben. Ihre Stabilität ist die Stabilität eines Gleichgewichts (wie ein Ökosystem oder Organismus).

Die Quantenfeldtheorie weist jedem Elementarteilchen ein Feld zu, das keinerlei mechanische Basis besitzt – aber (wie Materie) Energie und Impuls. Diese Felder sind nicht kontinuierlich, sondern Energie und Impuls treten in Portionen oder Quanten auf (die im Labor als „Teilchen“ erscheinen). Zu jeder Art von Kraft gehört demnach eine andere Art von „Kraftteilchen“. Mitunter sagt man auch, das Quant „trage“ die zugehörige Kraft. Es kann in Wechselbeziehung mit Materie treten, wobei es zu einem Austausch von Energie und Impuls kommt. Aus der Summe vieler kleiner Quanten-Kraftstöße ergeben sich die kontinuierlich wirkenden Kräfte der klassischen Physik.

Da die Grundkräfte der Natur sehr ähnliche Formen besitzen, drängte sich der Versuch ihrer Vereinheitlichung geradezu auf. Elektromagnetismus, starke und schwache Kernkraft werden inzwischen erfolgreich durch eine vereinheitlichte Quantenfeldtheorie beschrieben. Außen vor bleibt allerdings immer noch die Schwerkraft (Gravitation). Die Versuche, sie durch eine Quantenfeldtheorie auszudrücken, sind bisher gescheitert. Zur Zeit kann die Gravitation daher nur durch die Allgemeine Relativitätstheorie beschrieben werden.

Das Ende der Teilchen-Interpretation

„Teilchen“ sind Anregungen eines Quantenfelds, keine Dinge – und sie lassen sich auf keine spezielle Lokalität festnageln. Aber nicht nur der Ort des „Teilchens“, sondern sogar die Frage, ob es überhaupt einen Ort einnimmt, ist unklar. Ein Beobachter, der versucht, den Ort eines „Teilchens“ zu messen, wird es mit kleiner, aber von null verschiedener Wahrscheinlichkeit in den entlegensten Winkeln des Universums entdecken. Es hat also offenbar keinen Sinn, lokalisierte, kugelähnliche Teilchen als Grundelemente der Wirklichkeit anzunehmen. Darum ist es eigentlich auch irreführend, von Teilchenphysik zu sprechen und den Begriff „Teilchen“ zu verwenden. Man kann zur Not von Quantenteilchen sprechen, obwohl diese praktisch nichts mit den klassischen Partikeln gemein haben.

Ein extremes Beispiel für die Haltlosigkeit der Teilcheninterpretation ist das Vakuum, definitionsgemäß ein Zustand mit null Teilchen. In der Quantenfeldtheorie aber gibt es keinen im Wortsinn leeren Raum. Selbst wenn man alle Atome entfernen, durch geeignete Abschirmung alle Strahlung fernhalten und ihn auf den absoluten Nullpunkt der Temperatur herunterkühlen würde, bliebe immer noch ein Rest „Wärmestrahlung“ übrig. Denn auch das Vakuum ist von Quantenfeldern durchzogen, die höchst dynamisch sind.

Ständig laufen Prozesse ab, in denen (in unserer Wahrnehmung) Teilchenpaare erscheinen und gleich darauf wieder in den Feldern verschwinden (Fluktuationen). Am bedeutendsten sind dabei – wegen ihrer geringen Masse – Elektron-Positron-Paare, die insgesamt keine elektrische Ladung haben. Im Gegensatz zu „realen Teilchen“ können sich diese Teilchen allerdings nicht frei bewegen, wodurch es unmöglich ist, sie direkt zu detektieren. Physiker bezeichnen sie deshalb als „virtuell„. Man kann sie als kurzzeitige Äußerung (Schwankung) der Felder veranschaulichen.

Ein von Partikeln erfülltes Vakuum mutet absurd an – aber nur, weil uns der klassische Teilchenbegriff in die Irre führt. Sind die Felder besonders stark, können sogar „reale Teilchen“ mit der entsprechenden Masse m entstehen. Anschaulich wird das Vakuum dabei so stark polarisiert, dass die Teilchen-Antiteilchen-Paare auseinanderreißen und zu realen Partikeln werden, weil sie sich nicht mehr gegenseitig vernichten können.

Nach der modernen Physik sind „Teilchen“ und deren Eigenschaften wie Masse, Spin oder Ladung also Manifestationen von Quantenfeldern. Ein Elektron ist demnach nicht nur ein Elektron, sondern eine Summe aus diesem und anderen Partikeln, die durch die Fluktuationen im Quantenfeld entstehen. Deren Beträge gehen in die quantenmechanischen Berechnungen ein und beeinflussen häufig maßgeblich das Ergebnis. Viele Prozesse können sogar nur dann stattfinden, wenn virtuelle Teilchen beteiligt sind, während die Wahrscheinlichkeit für solche Vorgänge sonst null wäre.

Mathematische Beschreibung

Quantenfeldtheorien beschreiben alle Elementarteilchen und Wechselwirkungen mit Hilfe der Mathematik. Allerdings gehören sie auch zu deren schwierigsten Objekten.

Schon die Quantenmechanik, auf der die Quantenfeldtheorie aufbaut, liefert nicht eindeutige Werte, sondern Wahrscheinlichkeiten. Während die Temperatur ihren tatsächlichen Wert wiedergibt (unabhängig davon, ob man sie misst), haben Elektronen bis zu ihrer Beobachtung keine eindeutige Position im Raum. Davor lässt sich ihr Aufenthaltsort nur probabilistisch beschreiben: Dabei ordnet man jedem Punkt Werte zu, die die Wahrscheinlichkeit wiedergeben, ein Teilchen an diesem Ort zu finden. Vor der Messung existiert ein „Teilchen“ überall und nirgendwo. Sogar ein theoretischer Physiker vermag es sich kaum anschaulich vorzustellen.

Doch in der Quantenfeldtheorie geht es noch seltsamer zu: Die vermeintlich fundamentalen Quantenfelder legen nicht einmal Wahrscheinlichkeiten fest; das tun sie erst, wenn sie mit dem sog. Zustandsvektor kombiniert werden. Dieser ist holistisch (ganzheitlich), d. h. er bezieht sich nicht auf einen bestimmten Ort, sondern beschreibt das gesamte System. Damit untergräbt er das, was Felder eigentlich ausmacht, nämlich dass und wie sie sich über die Raumzeit verteilen. Ein klassisches Feld veranschaulicht beispielsweise, wie sich Lichtwellen durch den Raum ausbreiten; das Quantenfeld beraubt uns dieses Bilds und sagt nichts darüber aus, wie die Welt funktioniert.

Trotz intensiver Bemühungen gibt es bis heute keine mathematisch streng begründete Quantenfeldtheorie. Ihr Unvollständigkeit äußert sich im Auftreten unendlich großer Terme in den mathematischen Ausdrücken. Darin spiegelt sich die Tatsache wider, dass „Teilchen“ mehrere Zustände gleichzeitig einnehmen können. Auch wenn die Unendlichkeiten nachvollziehbar sind, erschweren sie doch eine theoretische Formulierung.

Wenn man ein Quantenfeld an einem bestimmten Punkt auswertet, erhält man eine Matrix, also eine Tabelle, die mit Zahlen gefüllt ist. Meist handelt es sich sogar um einen Operator, eine Matrix mit unendlich vielen Zeilen und Spalten. Im Formalismus einer Quantenfeldtheorie müssen ja außer den real vorhandenen auch die unendlich vielen virtuellen Teilchen, die gleichsam spontan aus dem Nichts entstehen, wechselwirken und wieder vergehen, mit einbezogen werden.

Die Probleme werden noch schwieriger zu lösen, sobald die Quantenfelder (z. B. „Teilchen“) miteinander wechselwirken. In der klassischen Mechanik ist die Berechnung von Zusammenstößen von Partikeln einfach: Um beispielsweise die Kollision zweier Billardkugeln zu simulieren, benötigt man bloß die jeweiligen Impulse und fügt sie in eine simple Formel ein. Wenn hingegen zwei Quantenfelder miteinander wechselwirken, erfordert das subtilere Methoden. Man multipliziert den unendlich-dimensionalen Operator des einen Felds mit dem unendlich-dimensionalen Operator des anderen und wertet das Produkt an jedem Punkt in der Raumzeit aus, an dem sie sich treffen. Es entstehen zahlreiche Terme, die unendliche Werte annehmen.

Ein Term, der zu Schwierigkeiten führt, beschreibt z. B. die sog. Vakuumpolarisation: Ein freies Photon kann spontan in ein Elektron-Positron-Paar zerfallen, das sich gleich wieder zu einem Lichtteilchen zusammenfügt. Während ihres kurzen Daseins können das „Teilchen“ und das „Antiteilchen“ allerdings jede beliebige Energie annehmen – sie sind nicht durch die Eigenschaften des ursprünglichen Photons begrenzt. Grund dafür ist die heisenbergsche Unschärferelation, wonach sich Energie und Zeit niemals genau auflösen lassen. Die Natur kann sich kurzzeitig Energie „borgen“, je kürzer der Zeitraum, desto höher der verfügbare Betrag. Bei der Berechnung muss man alle Beträge berücksichtigen, indem man sie gewichtet addiert. In diesem Fall konvergiert die Summe nicht gegen einen festen Wert, sondern wird unendlich.

Lösungsansätze

Die Forscher feilen unermüdlich an Methoden, um die komplizierten Gleichungen zu lösen – oder sich ihnen zumindest verlässlich zu nähern. Die bisherigen Ansätze der Quantenfeldtheorie erweisen sich als so komplex, dass sie sich nicht ohne Vereinfachungen, die in der Realität nicht immer gegeben sind, beschreiben lassen. Inzwischen wurden verschiedene Möglichkeiten entwickelt, um zumindest einigen der komplizierten Gleichungen ein paar Geheimnisse zu entlocken.

Ein Ausweg, um mit den problematischen Termen umzugehen, war die Entwicklung der Renormierung. Der Grundgedanke ist dabei, dass z. B. die Masse oder die Ladung, die man in einem Versuch beobachtet, ebenfalls durch Prozesse auf quantenphysikalischer Ebene beeinflusst werden. Daher können die Werte, die in den Gleichungen auftauchen, in Wirklichkeit auch nicht den experimentellen Messwerten entsprechen. Dank der Normierung konnten die Physiker die lästigen Unendlichkeiten loswerden und hatten zudem auch eine Erklärung dafür, warum sie überhaupt auftreten. Allerdings kann man auf diese Weise auch nicht die Masse oder Ladung eines Teilchens oder andere Details eines Systems berechnen.

Ein weiterer beliebter Ansatz, um die störenden Unendlichkeiten der Quantenfeldtheorie zu umgehen, ist die sog. Gittereichtheorie. Das Modell beschreibt Materieteilchen wie Quarks und Elektronen, die auf den Gitterpunkten eines vierdimensionalen Gitters liegen, und kräftevermittelnde Partikel wie Photonen oder Gluonen, die sich entlang der Seiten bewegen. Ihre Größen werden kontrolliert angenähert, so dass sichergestellt ist, dass sie sich nicht unendlich nahe kommen können. Damit fallen die Unendlichkeiten weg, die sonst bei der Berechnung wechselwirkender Felder entstehen. Die Näherungen sind gut genug, um sie mit experimentellen Messungen zu vergleichen, die ebenfalls nur eine begrenzte Genauigkeit aufweisen. Die Fachleute sind davon überzeugt, dass sich das verdichtende Gewebe auf die idealisierte Vorstellung einer Quantenfelds zubewegt.

Aber auch diese Methode hat Nachteile. Beispielsweise sind die zugrunde liegenden Gleichungen zwar mathematisch wohldefiniert, doch konnte man bisher nicht beweisen, dass der Grenzfall eines sich immer stärker verdichtenden Gitters wirklich die kontinuierliche Theorie wiedergibt. Außerdem braucht man sehr leistungsstarke Computer, um eine zuverlässige Auswertung möglich zu machen.

Die physikalische Realität ist, wie sie ist, und verhält sich, wie sie will – und die Forscher lernen nur mühsam, die mathematischen Werkzeuge an ihr ungebärdiges Verhalten anzupassen. Obwohl Quantenfelder schon seit einigen Jahrzehnten die Grundlage der Physik bilden, sind die Wissenschaftler noch weit davon entfernt, sie vollständig zu verstehen. Mit jeder Vervollkommnung der mathematischen und technischen Werkzeuge aber lernt man neue Aspekte der Wirklichkeit kennen.

Realität

Eine so erfolgreiche Theorie wie die Quantenfeldtheorie löst große grundlegende Kontroversen über die Realität hinter den Messungen aus. Sie beschreibt zwar das Verhalten von Quarks, Myonen, Photonen und diversen Quantenfeldern, aber sie sagt nichts darüber aus, was ein Photon oder ein Quantenfeld wirklich ist. Deren Eigenschaften weichen ja erheblich von dem ab, was man sich im täglichen Leben unter Teilchen und Feldern gewöhnlich so vorzustellen pflegte. Daher sind diese beiden Begriffe wegen ihrer Anschaulichkeit noch immer in Gebrauch, obwohl die meisten Physiker einräumen würden, dass ihre klassische Bedeutung und damit auch unsere Vorstellung davon, nicht zu den Aussagen der Theorie passt.

Das muss sie aber auch gar nicht, denn physikalische Theorien können empirisch gültig sein, ohne metaphysische, also jenseits der Physik liegende, Fragen zu klären. Viele Wissenschaftler lehnen es daher ab, dass die physikalische Theorien die Welt widerspiegeln sollen. Für sie sind Theorien bloß Instrumente, mit denen sich experimentelle Vorhersagen machen lassen – und in vielen Fällen passen die berechneten Ergebnisse hervorragend zu den experimentellen Messungen. Dennoch sind die meisten Physiker davon überzeugt, dass ihre Theorien zumindest einige Aspekte der Natur abbilden, bevor Experimentatoren eine Messung durchführen.

Die Physik allein gelangt nicht zu schlüssigen Aussagten über die fundamentalen Fragen wie die Definition von Objekten, die Rolle der Individualität, den Status von Eigenschaften sowie die Bedeutung von Raum und Zeit. Dazu muss die Philosophie ins Boot geholt werden, die den Rahmen und die Begriffe für die Grundstrukturen der materiellen Welt liefern muss.

Einige Philosophen haben schon grundsätzlich andere Lösungen vorgeschlagen. Statt die Welt in Objekte und Eigenschaften aufzuteilen, sollte man die Eigenschaften als die einzige Grundkategorie ansehen (Tropenontologie). Auf die Quantenfeldtheorie angewandt hieße das: Was wir ein Elektron nennen, ist eigentlich ein Bündel aus verschiedenen Tropen: drei festen Wesenseigenschaften (Masse, Ladung, Spin) sowie zahlreichen wandelbaren, nichtwesentlichen Eigenschaften, die sich auf Wahrscheinlichkeiten für Ort und Geschwindigkeit beziehen. Das Vakuum enthielte dementsprechend, wie es sich gehört, keine Teilchen, wohl aber Eigenschaften. Ein „Teilchen“ wäre dann das, was man bekommt, wenn diese Eigenschaften sich auf eine besondere Art bündeln.

Andere Wissenschaftlern schlagen vor, dass statt Materie Strukturen der eigentliche Stoff sind, aus dem die Welt besteht. Es käme nicht auf das innere Wesen der Dinge an, sondern auf die Beziehungen der Dinge untereinander. Beim Phänomen Masse beispielsweise sieht man niemals die Masse selbst, sondern nur, wie ein massetragender Körper mit einem anderen durch das Schwerefeld wechselwirkt. Dieser sog. Strukturenrealismus betrachtet die Natur als eine letztlich nur mathematisch fassbare Struktur – die durch komplexe Relationen definiert ist – eine revolutionäre Idee.

Dem epimistischen Strukturenrealismus (von gr.: episteme = Wissen) zufolge werden wir niemals das wirkliche Wesen der Dinge erkennen, können aber wissen, wie sie miteinander in Beziehung stehen. Nach dem ontologischen (ontischen) Realismus (von to on = das Seiende) gibt es tatsächlich nichts anderes als Relationen. Diese Idee wird von den vielfältigen Symmetrien der modernen Physik unterstützt, denn sowohl in der einsteinschen Gravitationstheorie als auch in der Quantenmechanik haben bestimmte Veränderungen – sog. Symmetrietransformationen – keine empirischen Konsequenzen. D. h., diese Transformationen vertauschen die einzelnen Dinge, aus denen die Welt besteht, ohne ihre Beziehungen zu verändern.

Viele Physiker und Philosophen halten es aber tatsächlich für unmöglich, dass feste Objekte nur auf der Basis von Relationen entstehen. Darum versuchen einige Verfechter des ontischen Strukturenrealismus einen Kompromiss zu finden: Sie verneinen nicht, dass es Objekte gibt, sondern behaupten nur, Relationen und Strukturen seien primär. Mit anderen Worten: Objekte besitzen keine Wesenseigenschaften, sondern gewinnen ihre Eigenart erst durch ihr Verhältnis zu anderen Objekten.

REM

Der Mensch entdeckt das Metall

Das Metallzeitalter

Die frühen Menschen unterschieden sich von verwandten Arten vor allem durch eine gezielte Herstellung und einen systematischen Gebrauch von Werkzeugen. Dazu verwendeten sie verschiedene Materialien aus ihrer Umwelt – Steine, aber auch Knochen, Holz und Horn. Mit dem Feuer bekamen sie dann erstmals Energie in die Hand. Schon vor mindestens 1 1/2 Millionen Jahren hatte vermutlich Homo erectus bereits glimmende Holzstücke aus Blitzeinschlägen und Buschbränden genutzt, um ein Lagerfeuer zu unterhalten und rohe Nahrung durch Erhitzen besser kau- und verdaubar zu machen. Homo sapiens lernte schließlich, Ton und Metallerze mit Hilfe des Feuers zu bearbeiten.

Metall mit seinen außergewöhnlich Eigenschaften erschloss als „treibende Kraft“ neue Siedlungsräume, ließ neue Werkzeuge, neue Statussymbole und Waffen hervorbringen – verbunden mit neuen Hierarchien und Konflikten -, und ließ ein überregionales Handels- und Kommunikationsnetz entstehen. Ohne die Entdeckung der Metallproduktion wäre die Menschheit in der Steinzeit stehen geblieben und die heutige Zivilisation nicht denkbar.

Keramik

Der höchst plastische und formbare Ton kommt fast überall vor. Ob durch Zufall oder ein gezieltes Experiment: Spätestens vor 27 000 Jahren kneteten moderne Menschen den feuchten Ton zu einer Form und legten ihn ins Feuer. Es entstand ein extrem widerstandsfähiges, steinhartes Material: Keramik, der erste künstliche Werkstoff der Geschichte. Anfangs modellierten unsere Vorfahren vor allem Figuren. Auf dem Gebiet des heutigen China entdeckten die Menschen, dass man auch Gebrauchsgegenstände aller Art produzieren konnte: Töpfe zum Kochen und Gefäße zur Aufbewahrung von Vorräten und zur Sicherung vor Ungeziefer. Ostasien scheint ab 20 000 v. h. ein Zentrum der Töpferkunst gewesen zu sein.

In Afrika kam die Keramik vor 12 500 bis 11 500 Jahren auf dem heute zur Sahelzone gehörenden Dogon-Plateau auf. Die Menschen lebten hier in einer Vorstufe zu einer Ackergesellschaft und waren schon zeitweise sesshaft. In der Sahara und im Niltal verfügten die Einheimischen seit 11 000 bis 10 000 Jahren über das Wissen, Ton zu brennen und das Schrumpfen der Rohformen durch „Magerung„, also mineralische Zusätze, zu verhindern. Im „Fruchtbaren Halbmond“ tauchten vor 9000 Jahren plötzlich an vielen Orten Keramikgefäße in erstaunlicher Perfektion auf, so dass spekuliert wird, dass sie aus irgendeinem Zentrum früher Töpferkunst, vielleicht gar aus dem Fernen Osten, stammten.

Ab etwa 8000 v. h. spricht man vom „Keramischen Neolithikum“ , in dem alle Komponenten zur Herstellung von Keramik voll entwickelt waren. Am Indus war die Töpferscheibe erfunden worden, eine kreisrunde waagerechte Fläche, die sich um eine zentrale Achse dreht. Anfangs handelte es sich nur um eine langsam drehende Scheibe, die auf einem Tisch lag. Sie ermöglichte es aber schon, Keramikgefäße in nie gekonnter Schnelligkeit zu fertigen. Der große Durchbruch kam vor spätestens 5300 Jahren mit der schnell drehenden Töpferscheibe. Keramik wurde zur Massenware.

Die allerersten Tonwaren hatten die Menschen noch im Lagerfeuer oder in Brenngruben bei rund 800°C erhitzt. Später konstruierten sie Brennöfen, zunächst mit nur einer Brennkammer, dann mit getrennten Kammern: In der einen Kammer loderte der Brennstoff, in der anderen glühte die Keramik. Mittels gezielter Luftzufuhr etwa durch Zuglöcher konnten die Brennbedingungen in den Öfen präzise gesteuert und Temperaturen von 1100°C erreicht werden.

Kupfer

Vieles spricht dafür, dass die Produktion von Keramik auch die Nutzung von Metall möglich machte. Metalle kannte Homo sapiens wahrscheinlich schon in seiner Jäger- und Sammlerzeit: Glänzende Goldkörner waren ihm sicher schon früh im Sand von Flussbetten oder zwischen den Steinen ausgewaschener Berghänge aufgefallen. Vor mehr als 12 000 Jahren wurden Menschen z. B. in Anatolien, das besonders reich an Erzlagerstätten ist, auf Steine aufmerksam, die in der Sonne grün oder blau glitzerten: Malachit und Azurit, zwei Kupferkarbonate. Sie benutzten die Gesteinsbrocken, um Farbstoffe zum (Be)Malen zu gewinnen und Ornamente herzustellen. Später begannen sie, mit ihnen zu experimentieren.

Bald fanden sie heraus, dass sie das Material besser formen konnten, wenn sie die Brocken ins Feuer warfen. Das erhitzte Material bearbeiteten sie dann mit ihren Steinwerkzeugen und hämmerten daraus Schmuckgegenstände wie Perlen und Ringe, Stichel oder Keulenköpfe. Das älteste bisher gefundene bearbeitete Kupferstück ist ein ovaler Anhänger aus Shanider, einer Höhlenanlage im nördlichen Irak, datiert auf 11 500 Jahre vor heute. Auch in Göbekli Tepe, einer gewaltigen Kultanlage in Anatolien aus etwa der gleichen Zeit, gab es schon erste Kupfergegenstände.

Die Metallurgie nahm aber erst im 9. Jahrtausend in Anatolien richtig Fahrt auf, als man begann, Kupfer mittels Schmelzen, Erhitzen und Hämmern zu formen. Aus der Zeit zwischen 8500 und 7200 v. h. gibt es immer mehr Kupferfunde im Vorderen Orient. Der Keulenkopf von Canhasan in der Türkei, vor über 8000 Jahren mühevoll gehämmert, ist eine der ältesten erhaltenen Waffen aus Metall. Es dauerte aber einige tausend Jahre, bis sich nicht nur die die Kenntnis der Kupferbearbeitung, sondern vor allem auch dessen Gewinnung aus in Felsen eingeschlossenen Erzen durchsetzte und verbreitete. Nun war man nicht mehr auf das nur spärlich vorhandene gediegene Kupfer (mit anderen Elementen verunreinigtes Kupfer) angewiesen, sondern konnte das Metall aus dem Gestein gewinnen.

Möglicherweise hat ein anderes Metall, nämlich Blei, den Weg zur Kupferherstellung gewiesen, wie einige Bleikügelchen aus dem türkischen Catalhöyük, 8500 Jahre alt, oder ein nicht viel jüngerer, im heutigen Irak gefundener Armreif aus Blei beweisen. Genauso wir Zinn ist Blei ein „weiches“ Metall. Es ist leicht schmelzbar (Schmelzpunkt: 347°C) und daher auch leicht in einem offenen Feuer – Herd- oder Lagerfeuer – in Metall umzuwandeln. Kupfer dagegen hat einen Schmelzpunkt von exakt 1083°C, rund 200° höher als die Temperatur eines normalen Feuers.

Kupfererz kommt in der Natur häufig vor. Ab 7500 v. h. wurde es gezielt abgebaut – zunächst an verschiedenen Orten im Vorderen Orient, wie z. B. bei Akaba in Jordanien. Eine Methode für die Erzgewinnung war das „Feuersetzen„: Holzfeuer machten das Gestein mürbe, so dass es leicht mit speziell geformten Schlägeln abgeschlagen werden konnte. Beim Schmelzen der Erze entstanden dickflüssige Metalle, wobei ein Großteil an der Schlacke kleben blieb. Auch bildeten sich bei diesem Prozess Luftblasen, die das gegossene Metall spröde und brüchig machten.

Einige Völker des Nahen Ostens begannen schon bald mit Schmelztechniken zu experimentieren. Man baute Tontiegel, die konstante Schmelzbedingungen lieferten. Endlich entstand eine Schmelze, in der sich Kupferkügelchen absetzten. Dennoch blieb der Aufwand enorm. In Anatolien und angrenzenden Regionen gelang Spezialisten ein entscheidender Durchbruch auf dem Weg zum Metallzeitalter. Sie entwickelten vor etwa 7000 Jahren das Prinzip der Verhüttung.

Eventuell waren es sogar Töpfer, die als erste mit kupferhaltigem Gestein experimentierten, indem sie es in ihre Brennöfen legten wie ihre Tongefäße. Vielleicht gerieten aber auch Erzstücke zufällig hinein. Die geschlossenen Öfen ermöglichten eine gleichmäßige Erhitzung und höchste Temperaturen bis 1000°C. Um die Temperaturen noch höher zu treiben, setzten die frühen Metallurgen Blasrohre ein. Düsen aus Lehm, auf die Blasrohre aufgesetzt, konnten mitten in die Flamme geführt werden und schützten das Rohr vor dem Verbrennen. Das ständige Blasen hielt die Temperatur stundenlang auf dem erforderlichen Höchstwert.

Zur Verhüttung von Kupfererz bedurfte es weiterer spezieller Fertigkeiten. Je nach den Beistoffen, z. B. Schwefel, Antimon oder Arsen, musste man unterschiedlich vorgehen. Um die Oxidation des Kupfers zu verhindern, wurde Holzkohle zugesetzt, die beim Verglühen Kohlenmonoxid bildet und den Sauerstoff entzieht. Das flüssige, gut formbare Kupfer ließ sich in alle denkbaren Formen gießen, wozu man vor allem Hohlformen aus Keramik benutzte. Im anatolischen Mersin verfertigten vor ca. 7000 Jahren Schmiede eine Beilklinge, einen Meißel und mehrere Gewandnadeln – die ältesten Objekte aus einem Metall, das Menschen aus Erzen gewonnen hatten.

Siedlungen in der Nähe von Kupferminen, z. B. in der Region Fenan im heutigen Jordanien, entwickelten sich zu Bergbauzentren. Damals fand schon ein weiträumiger Handel mit wertvollen Metallobjekten statt. Gleichzeitig wanderte das Wissen um die frühe Metallurgie vom Vorderen Orient über den Balkan nach Westen. Europas erste Kupferbergwerke, in denen Erz im Tagebau abgebaut wurde, entstanden im heutigen Serbien und Bulgarien, wo auch vermutlich die älteste Kupferverhüttung auf dem Kontinent stattfand.

Im nördlichen Mitteleuropa und mittleren Osteuropa zeigen einige der Keramikgefäße der Trichterbecher-Kultur (etwa 6200 bis 4800 v. h.) aufgrund der Verzierungen, dass sie wohl metallenen Gefäßen nachgebildet wurden. Auch Äxte aus Feuerstein oder anderen Steinarten wurden vermutlich nach dem Vorbild eines Metallstücks geschaffen. Metall selbst konnten die Menschen dort noch nicht verarbeiten. Dennoch entdeckten Archäologen Geräte aus reinem Kupfer und sogar Goldschmuck, wohl Importe aus Südosteuropa. Die folgenden Glockenbecherleute verfügten dann schon über das Wissen, Kupfer zu schmelzen und zu verarbeiten.

In Europa blieb das Wissen über Bergbau, Verhüttung und Verarbeitung von Kupfer zunächst auf den Balkan und den Mittelmeerraum beschränkt. In Mitteleuropa begann der unaufhaltsame Siegeszug des Kupfers vor über 6000 Jahren. Die Alpen entwickelten sich mit ihrem reichen Metallvorkommen zu einem Zentrum des Bergbaus, der zu einem wichtigen Faktor für die Besiedlung des gesamten Alpenraums wurde. Ötzi, die berühmte, 5300 Jahre alte Gletschermumie aus dem Ötztal, hatte ein Kupferbeil bei sich, das mit hoher Wahrscheinlichkeit aus dem Rohkupfer der oberösterreichischen Lagerstätten hergestellt wurde. Verarbeitet wurde das Kupfer wohl in oberitalienischen Schmieden.

In Amerika wurde die Metallverarbeitung unabhängig von der Alten Welt entwickelt. Kupferartefakte aus Süd- und Mittelamerika und den heutigen Vereinigten Staaten datieren auf eine ähnliche Zeit wie ihre Pendants aus Asien und Europa: ca. 7000 Jahre vor heute. Hinweise auf eine organisierte Metallurgie finden sich in Südamerika allerdings erst in der Zeit vor 4000 Jahren.

Die Technologie der Metalle hatte die Steinzeit abgelöst – die zweite große Revolution in der Entwicklung des Menschen. Zum ersten Mal in der Geschichte war er in der Lage, geheimnisvolles Metall in edles Metall umzuwandeln – ein Wunder in der damaligen Zeit. Schon vor über 7000 Jahren war der Feuerstein (Silex), aus dem bis dahin die meisten Werkzeuge und Waffen gefertigt wurden, zur Mangelware geworden und es hatte erste Versorgungsprobleme gegeben. Eine Zeitlang noch existierten die beiden Werkstoffe Feuerstein und Kupfer nebeneinander, bis der Feuerstein am Ende des 5. Jahrtausends v. h. endgültig von der Bronze verdrängt wurde.

Die Gesellschaft veränderte sich. Die Handwerkskünste entstanden, und in Mesopotamien, zwischen den Flüssen Euphrat und Tigris, wuchsen die Städte. Vor mehr als 6500 Jahren entstand hier das erste Klassensystem der Menschheit. An der Spitze der Hierarchien standen regionale Eliten, die große Mengen von Metall aus fernen Gebieten und Städten erwarben. Als Abzeichen ihrer Würde wählten sie Schmuck und Waffen aus Metall. Später wurden erstmals Konflikte um Ressourcen und Transportwege mit organisierter Gewalt in großem Stil ausgetragen. Beispiele sind die Kriege zwischen Hamoukar und Uruk oder zwischen den sumerischen Stadtstaaten Lagasch und Umma.

Zwischen Kupfer- und früher Bronzezeit

Mit der Kupferverhüttung wurden schließlich die technologischen Grundlagen gelegt für eine Bevölkerungszunahme. Kupferwerkzeuge erwiesen sich im Alltag als überlegen gegenüber solchen aus Stein oder Holz. Allerdings nutzen sie sich rasch ab, verbogen und zerbrachen leicht. Ab etwa 5000 v. h. experimentierten die Schmiede daher mit Legierungen, um Werkzeuge und Waffen härter zu machen. So setzte man z. B. Arsen der Kupferschmelze zu. Die sogenannte Arsenbronze floss leichter in die Gussformen. Allerdings musste die Arsenmenge fein dosiert werden, sonst wurde das Produkt spröde und splitterte leicht – eine ziemliche Herausforderung für Menschen, die nicht wussten, was ein chemisches Element ist.

Arsen entzieht der Schmelze Sauerstoff, indem es sich mit ihm verbindet und als Arsenoxid verdampft. Schwerter, Pflüge und Beile, aus Arsenbronze geschmiedet, waren dadurch härter und hielten länger als ihre rein kupfernen Gegenstücke. Mit dem Hammer bearbeitet, blieben die Gegenstände auch viel länger scharfkantig. In einer Höhle am Toten Meer fand man 429 alte Objekte, 5000 Jahre alt, die fast alle aus Kupfer und Arsen bestanden. Die Kupfer-Arsen-Legierung wurde in Ägypten bis zum Mittleren Reich (ab etwa 4100 v. h.) verwendet.

Irgendwann jedoch brach die Beimischung von Arsen zum Kupfer ab, denn die Arbeit mit dem Halbmetall war schlichtweg gefährlich. Der Dampf, der dabei entstand, enthielt Arsenoxid und war giftig. Beim Einatmen der Gase kam es dadurch häufig zu Nervenschäden, die manchmal auch zu Lähmungen führten. Der griechische Gott der Schmiedekunst, Hephaistos, wird hinkend dargestellt – aus der kollektiven Erinnerung an Handwerker, die durch den Kontakt mit Arsen bei ihrer Arbeit gelähmt worden waren.

Bronze

Frühbronzezeit

Bei ihren Experimenten mit verschiedenen Gesteinsarten hatten Schmiede auch das Zinn entdeckt. Ob völlig zufällig oder planmäßig erhitzten sie es eines Tages zusammen mit Kupfer. Der Zusatz erniedrigte den Schmelzpunkt merklich, wodurch die Gewinnung der Legierung erleichtert wurde. Zinn schmilzt bei einer Temperatur von 232°C, Kupfer bei 1083°C. Der Schmelzpunkt für Rohkupfer mit Zinn vermischt liegt bei 950°, also unterhalb des Schmelzpunktes von Kupfer. Das Endprodukt war eine Metalllegierung namens Bronze (oder Zinnbronze). Man fand heraus, dass das ideale Mischverhältnis neun oder zehn Anteile Kupfer zu einem Anteil von Zinn beträgt.

Die Zinnbronze schloss im Gegensatz zum Kupfer keine Sauerstoffblasen ein und blieb durch den niedrigeren Schmelzpunkt länger flüssig. Sie ließ sich leichter gießen, verteilte sich besser in der Gussform und füllte auch die Ecken aus. So war es möglich, größere und kompliziertere Gegenstände zu gießen, z. B. Schwerter und Schmuckstücke. Außerdem wurden giftige Arsendämpfe vermieden, an denen sicherlich nicht wenige Schmiede gestorben sind.

Die durch das Zusammenschmelzen von Zinn und Kupfer erhaltenen Bronzen erwiesen sich als wesentlich härter und nicht so brüchig wie Bronzen aus Kupfer und Arsen und hatten eine faszinierende Farbe: sie glänzten seidig gelb (bis gelbbraun), fast wie Gold. Gegenwärtig nimmt man an, dass die Bronzetechnologie vielerorts und zeitlich versetzt entstand. Vermutlich waren es die Ägypter, die als erste die epochale Erfindung machten. Ihre Dolche aus Kupfer und Bronze aus der Zeit ab etwa 5000 v. h. scheinen aber meist zeremonielle Funktionen gehabt zu haben und waren oft stark verziert. Archäologen entdeckten frühe Bronzeobjekte auch in der Region vom westlichen Anatolien bis zum Persischen Golf.

…………………………………………………………………………………………………………………..

China hatte nie etwas, das man als „Kupferzeit“ bezeichnen könnte; dort folgte auf die Steinzeit fast unmittelbar die Bronzezeit. Die Kenntnis zur Herstellung der Zinnbronze kam wahrscheinlich über die Seidenstraße und brachte einen Aufschwung in der Landwirtschaft. Einige der ältesten in China gefertigten Bronzeartefakte werden auf 5100 bis 4700 v. h. datiert. Erlitou, eine Kultur aus dem Tal des Gelben Flusses (4000 bis 3500 v. h.), bekannt für ihre Palastbauten und Schmelzhütten, gilt oft als eigentlicher Ursprung der chinesischen Bronzemetallurgie. Von Südchina kommend breitete sich Ende des 4. Jahrtausends v. h. die Bronzetechnologie in Südostasien aus und erreichte um 3000 v. h. das Mekong-Delta und die Südspitze des südostasiatischen Festlands.

Die frühesten chinesischen Bronzen (vor allem rituelle und ästhetische Objekte) entstanden mit Hilfe der Formguss-Methode, die gänzlich anders war als das Wachsausschmelzverfahren, das von den meisten Bronzezeit-Zivilisationen optimiert wurde. Beim Bronzeguss wird ein Modell des zu gießenden Objekts und dann eine Tonform darum erstellt. Die Form wird in verschiedene Teile geschnitten, um das Modell freizugeben, bevor die Form wieder zusammengesetzt und gebrannt wird. Ist der zu gießende Gegenstand ein Gefäß, werden Kerne in die Form gegeben, die für Hohlräume sorgen. Dieses Verfahren ist viel komplexer und ineffizienter, besaß in den Augen der chinesischen Bronzearbeiter aber einen entscheidenden Vorteil: Dekorative Muster konnten vor dem Brennen direkt in die innere Oberfläche geschnitzt oder gestempelt werden, so dass sehr feine Designs entstehen konnten.

…………………………………………………………………………………………………………………….

Erstmals stand dem Menschen in größerem Umfang ein Stoff zur Verfügung, den er selbst – oft mit unsäglichen Mühen – hergestellt hatte. Seit Mitte des 5. Jahrtausends v. h. trat die Zinnbronze endgültig ihren Siegeszug an. Zwar fanden in allen Regionen noch viele Jahrhunderte Geräte und Waffen aus Stein Verwendung – doch mit der massenhaften Bronzeproduktion begann eine neue Epoche, in der die menschengemachten Werkstoffe das Leben immer stärker durchdrangen. Der zuvor nur in Ansätzen existierende Fernhandel vervielfachte sich – auf einem weit gespannten Netz von Handelsrouten konnte man theoretisch in gerade einmal 40 Tagen weit entfernte Gegenden erreichen. Zunächst wurden vor allem Prestigegüter, z. B. edle Schmuckstücke wie Ringe, Ketten und Dolche als Statussymbole, unter gesellschaftlichen Eliten gehandelt.

Nördlich der Alpen scheinen Bronzegüter um 4200 v. h. ihren Einzug gehalten zu haben – in Skandinavien noch etwas später. Mit dem unverwüstlichen Metall ließ sich Reichtum erstmals horten und zur Schau stellen. In großen Teilen Mitteleuropas dienten nun Halsringe aus Bronze (und Kupfer), deren Enden zu Ösen eingedreht waren, sogar als eine Art Zahlungsmittel. Aber erst allmählich kam die Bronzezeit schließlich nach Europa. Reisende Handwerker, z. B. Schmiede, dürften das Wissen um die Verarbeitung des Metalls weitergegeben haben.

Die frühen Schmiede genossen in der Gesellschaft eine herausgehobene Wertschätzung. Für die bronzezeitlichen Menschen erschienen sie als Magier, die mit den Göttern im Bunde stehen: Sie bändigten das Feuer und verarbeiteten einen der Erde abgerungenen Rohstoff zu Produkten, die man in der Natur nicht findet. Viele Völker widmeten ihnen einen eigenen Gott.

Die neuen bronzenen Werkzeuge lieferten den Menschen, die zum größten Teil vom Ackerbau lebten, immer bessere Erträge. Während die Bauern der Jungsteinzeit nur wenig mehr als den eigenen Bedarf erwirtschaftet hatten, konnten sie nun reichere Ernten einbringen und damit auch mehr Menschen versorgen. Das ermöglichte wiederum Arbeitsteilung und Spezialisierung, die gerade im Bergbau unerlässlich waren, da sich die vielfältigen Arbeiten weder von ungelernten Kräften noch saisonal ausführen ließen. Die Folge war ein regelrechtes Wirtschaftswunder, verbunden mit einem starken Anwachsen der Bevölkerung. Es folgte eine noch ausgeprägtere Aufteilung des Gesellschaften in verschiedene soziale Schichten.

Der überregionale Fernhandel und Güteraustausch mussten organisiert werden. Einzelnen Männern gelang es, Kontrolle über die Ströme der begehrten Rohstoffe zu bekommen und Profite zu machen. Wer die Bergwerke und Schmelzöfen, Verkehrswege und Umschlagplätze kontrollierte, konnte es zu bedeutendem Wohlstand, verbunden mit hohem Ansehen und Macht, bringen. Es gab nun Herrscher und Beherrschte, Arme und Reiche. Die Mächtigen jener Zeit residierten vermutlich an den Knotenpunkten der Handelsrouten oder unweit wichtiger Rohstoffvorkommen.

In Mesopotamien, Anatolien und Ägypten, wo bereits vor der „Erfindung“ der Bronze Hochkulturen entstanden waren, wirkte der neue Werkstoff als Katalysator des Wandels. Mit den Bronzebeilen ließen sich mächtige Bäume fällen und damit u. a. Schiffe mit mehr Ladevolumen und größerer Reichweite bauen. So blühte mit dem Aufkommen des neuen Metalls auch der Seehandel über das Mittelmeer auf und es gelangten immer mehr metallene Rohstoffe und Fertigwaren in Umlauf. Häfen entstanden, größere Siedlungen, Handelsmetropolen wie Troja und Ugarit. Die Ägäis beispielsweise erlebte ab etwa 4000 v. h. im Glanz der Metalle einen außergewöhnlichen zivilisatorischen Schub, zunächst auf der Insel Kreta, dann auch auf dem griechischen Festland.

Zu den frühesten Bronze-Kulturen in Mitteleuropa zählt die Aunjetitzer Kultur, in der die Menschen schon über reiche Kenntnisse in Guss- und Verzierungstechnik verfügten. Diese Kultur, die sich in ihrer frühen Zeit von Mitteldeutschland bis in die heutige Westslowakei und nach Niederösterreich erstreckte und sich später noch weiter ausdehnte, war irgendwann um 4300 v. h. aus der Assimilierung der Glockenbecherleute und der einheimischen Bevölkerung hervorgegangen. Um 4000 v. h. entstand im heutigen Thüringen das vielleicht erste Staatswesen nördlich der Alpen. Die Fürsten, die hier das Geschäft mit der Bronze kontrollierten und über eine Vielzahl von Kriegern verfügten, sorgten über Jahrhunderte in der Region für Frieden, befehligten Schmiede und Arbeiter, die für sie gewaltige Grabmonumente errichteten. Sie waren vor allem durch den Salzhandel zu Macht und Reichtum gekommen.

Der steigende Wohlstand der Bronzezeit, das Bevölkerungswachstum und der Fortschritt, den der neue Werkstoff brachte, verlieh der Epoche lange einen goldenen Glanz. Er barg aber auch ein hohes Konfliktpotenzial, denn er weckte Neid und Begehrlichkeiten. Je größer die aufgehäuften Bronzemengen waren, desto lohnender erschien es, sie mit Gewalt fortzunehmen. Noch zu Beginn der Epoche hatten die Menschen in erster Linie Pfeil und Bogen als Waffen benutzt. Seit etwa 3500 v. h. fertigten die Metallurgen harte und feste Bronzeschwerter, die mit ihren messerscharfen Klingen erstklassig zur Kriegsführung geeignet waren. Erstmalig entstand eine Massenproduktion von Waffen. Regelrechte Armeen wurden aufgebaut, große Raub- und Eroberungszüge setzten ein, die zur Unterwerfung zahlreicher Volksstämme und zur Bildung riesiger Reiche führte.

In der späten Bronzezeit (s. u.) nutzte man die unterschiedlichen Qualitäten der Bronze. Die mit 6% Zinn hergestellte Weichbronze wurde zu Blechen geschlagen und für die Herstellung von Helmen, Brustpanzern und Beinschienen verwendet, während man klassische Bronze mit 10% Zinnanteil für Schwerter und Werkzeuge benutzte. (Je höher der Zinngehalt, umso mehr stieg die Härte der Bronze. Chinesische Bronzeschwerter hatten sogar bis zu 20% Zinnanteil, was sie auffallend scharf, aber auch spröde machte.)

Die Zeiten wurden also unsicherer. Zwar gab es schon früher Schutzwälle um die Orte, aber erst in der Bronzezeit kam es zum Bau ausgeklügelter Festungen, ummauerter Höhensiedlungen und zyklopischer Mauern wie in Tiryns und Mykene auf der griechischen Peloponnes. In Mitteleuropa oder im Karpatenbecken schützten sich Siedlungen durch Gräben und Palisaden, wobei die Eingänge womöglich noch durch Bastionen abgeschirmt wurden.

Mittel- und Spätbronzezeit

Mit der Zeit klaffte die soziale Schere in den bronzezeitlichen Kulturen immer weiter auseinander. Die Böden waren ausgelaugt, die Ernten fielen immer schlechter aus, soziale Konflikte waren die Folge. Es brachen unruhige Zeiten in Europa und im Mittelmeerraum an: An vielen Orten der einst prächtigen Kulturen loderten Brände, Siedlungen wurden aufgegeben, große Völkerbewegungen setzten ein. Der Ausbruch des Vulkans Thera (heute Santorin) in der Ägäis, eine der gewaltigsten Eruptionen der vergangenen Jahrtausende, gab möglicherweise den letzten Anstoß für den Kollaps der Kulturen.

Die Wissenschaftler sprechen von einem allgemeinen Systemzusammenbruch. Komplexe Systeme können sich zwar selbst regulieren, wenn sie unter Druck geraten. Sind die Veränderungen aber zu viele auf einmal, bricht das gesamte Netzwerk zusammen. Im Mittelmeerraum begann ab 3450 v. h. der Niedergang der minoischen Kultur auf Kreta, dem um 3200 v. h. das Ende der Mykener auf dem griechischen Festland folgte. Die Pharaonen in Ägypten mussten sich der sogenannten Seevölker erwehren, wie Hieroglyphentexte berichten. Das Großreich der Hethiter in Kleinasien verschwand vom Erdboden. Drei dunkle Jahrhunderte, während der sich ab Anfang 3200 v. h. eine 300-jährige Dürrephase ereignete (nur in der Levante kurz von einer etwas feuchteren Zeit unterbrochen), brauchte es, bis die Region erneut Hochkulturen hervorbrachte.

Auch in ganz Mitteleuropa endete die Epoche in Krieg und Chaos. Anscheinend hatten sich die sozialen Unterschiede eingeebnet, denn die Männer ließen sich jetzt mit dem Schwert unter kleinen Hügeln zur Ruhe betten. 300 Jahre später kam es erneut zu einem grundlegenden Wechsel der Bestattungsriten: die Toten wurden verbrannt und in Urnen beigesetzt. Die Menschen dieser Urnenfelderkultur (3300 bis 2500 v. h.), die wahrscheinlich zu den Vorfahren der Kelten gehören, errichteten ab etwa 3100 v. h. meist auf Hügeln liegende Festungsanlagen, die von Wällen, Gräben und Mauern geschützt waren.

In Tollense (heutiges Mecklenburg-Vorpommern) kam es um 3250 v. h. zu einer großen Schlacht, an der geschätzt 4000 Krieger teilnahmen. Bei den Toten fand man sogenanntes „Münzgeld„, eine Art Tauschwährung. Zu ihrer Herstellung benutzte man in der Spätbronzezeit Hackbronze – Altmetall aus Fehlgüssen, Waffenfragmente und Barrenstücke -, die mit einem Meißel nach Bedarf zerstückelt wurde.

Eisen

Manche Fachleute sind der Meinung, in jedem Teil der Erde habe es Eisen eher gegeben als Bronze. Jedenfalls kommt Eisen weitaus häufiger vor als Gold und Kupfer; sein Anteil an der Erdkruste ist fast tausendmal höher als der von Kupfer. Als Rohstoff in Form von Erzen war es fast überall verfügbar – und damit auch erschwinglich. Aber Eisen war ein schwer zu gewinnendes und zu verarbeitendes Material. Die komplexe Verhüttung und Aufreinigung des Rohmaterials verlangte ein hohes Maß an Erfahrung und eine Vielzahl einzelner Arbeitsschritte.

Früheste vom Menschen hergestellte Eisenobjekte sind fast 8000 Jahre alt. Eines der ersten stammt aus Samarra (Irak). Die meisten frühen Objekte wurden wohl aus Eisen hergestellt, das in Form von Meteoriten vom Himmel gefallen war. Diese enthielten das Metall in reiner Form. Man schlug kleinere Fragmente heraus und brachte sie durch Hämmern in Form. Eisenperlen aus Ägypten aus der Zeit um 5200 v. h. wurden wahrscheinlich auf diese Weise hergestellt, ebenso ein Dolch aus dem Grab des Pharaos Tutanchamun oder 3400 Jahre alte Axtblätter ugaritischer und chinesischer Herkunft.

Der eigentliche Beginn der Eisenzeit ist mit der ersten regelhaften Nutzung des Eisens verbunden. Sie setzte in vielen Gebieten zu sehr unterschiedlichen Zeitpunkten ein. Warum der Siegeszug der Bronze nach fast 1500 Jahren endete, kann gut daran gelegen haben, dass die Knappheit an Bronze die Menschen quasi in die Eisenzeit hineindrängte. Ursache könnte das Versiegen der Zinnquellen oder der Zusammenbruch des Zinnhandels gewesen sein. So stieg man auf Eisen um, das fortan die Bronze in immer mehr Bereichen ersetzte.

In Japan tauchten Bronze und Eisen fast gleichzeitig auf. Umstritten ist unter den Historikern, ob auch Korea eine Bronzezeit erlebte. In Afrika gab es weder eine Kupfer-, noch eine Bronzezeit. Hier kam vermutlich die Eisenmetallurgie zuerst auf. Die Nok-Kultur im heutigen Nigeria begann vor 3000 Jahren mit der Herstellung des Metalls mit Hilfe von Rennöfen, in denen Eisen nur reduziert, nicht aber geschmolzen wurde. Den Öfen entnahm man die sogenannte Luppe, ein fester Eisenschwamm, der immer noch Schlackenreste enthielt. Schmieden bei 900 bis 1300°C verdichtete den Schwamm und verschweißte ihn, so dass die unerwünschten Bestandteile herausgequetscht werden konnten.

Die Hethiter hatten bereits in der zweiten Hälfte des 4. Jahrtausends v. h. regelmäßig Waffen aus Eisen benutzt, was als eine der Ursachen für ihren Aufstieg zur Macht in der Region angeführt wird. Aber es sollte noch eine Weile dauern, bis Eisen die Bronze vollständig ersetzte. Das Wissen über die Verarbeitung des Eisens wanderte über Griechenland nach Mitteleuropa – 2800 v. h. begann hier die Eisenzeit – und von dort weiter. Dabei ist häufig zu beobachten, dass zuerst Eisenobjekte importiert, anschließend nachgemacht und schließlich erfolgreich selbst hergestellt wurden. Bedeutende Eisenzentren in Mitteleuropas befanden sich vor allem am Bodensee und im Alpenvorland. Durch die Umstellung von der Bronze- auf die Eisenproduktion verschob sich das Machtgefüge. Siedlungen, die über Lagerstätten und das notwendige Wissen zur Eisenherstellung verfügten, gewannen an Einfluss. Es kam wieder zu Veränderungen in der Gesellschaft, Sitten und Bräuche wandelten sich. Aus der Urnenfelderkultur ging die Hallstattkultur hervor, mit der das Zeitalter der Kelten anbrach. (In Ostasien begann die Eisenzeit vor 2500 Jahren.)

Einen enormen Aufschwung nahm die Eisenproduktion vor allem, als man herausgefunden hatte, wie sich Eisen zu Stahl härten ließ. Dazu musst man in einem weiteren Arbeitsschritt dem Metall bestimmte Mengen Kohlenstoff hinzufügen. Herrscht nämlich im Ofen ein Überschuss an Kohlenstoff, der nicht mehr für die Reduktion gebraucht wird, kann sich eine Eisen-Kohlenstoff-Legierung bilden. Es entstand so der begehrte, da härtere und leichter zu schmiedende Stahl. Es ließen sich Werkzeuge und Klingen von noch größerer Schärfe und Beständigkeit herstellen. Mit der Erfindung des Stahls war das Ende des Bronzezeitalters endgültig besiegelt.

Fast alle Gebrauchsgegenstände wurden fortan aus Eisen hergestellt. Da die Eisengewinnung Kohle benötigte, setzte eine vermehrte Rodung der Wälder ein, auch in solchen Landstrichen, die bis dahin wegen fehlender Kupfervorkommen verschont geblieben waren. Die „Kultursteppe“ griff weiter um sich. Es ist allerdings fraglich, ob der Mensch diese Zusammenhänge damals begriffen hat, denn es handelte sich ja um sehr langsame Entwicklungen.

REM

Von der Nervenzelle zum Erkenntnisorgan

Die Evolution des Gehirns

Der erstaunliche Erfolg der Spezies Mensch ist das Ergebnis der evolutionären Entwicklung seines Gehirns, welches einen Höchstgrad an Komplexität besitzt. Es ist das Produkt einer Hunderte von Millionen Jahren dauernden biologischen Evolution, die zur Benutzung und Anfertigung von Werkzeugen bis hin zur Fähigkeit, Probleme durch logische Überlegung, planvolle Zusammenarbeit und Sprache zu lösen, führte.

Erfindung der Nervenzelle

Einzeller verfügen schon über chemische Rezeptoren, spezielle Empfangsmoleküle in der Zellwand, über die sie Signale aus der Umwelt aufnehmen. Diese helfen z. B., Nahrungsquellen oder Giftstoffe wahrzunehmen. Mit Hilfe eines intrazellulären Erregungsleitungssystem auf chemischer Basis sind die Einzeller schon fähig, auf diese Reize sinnvoll zu reagieren, beispielsweise sich mit propellerartigen Geißeln in die günstigste Richtung zu bewegen – etwa hin zum Futter oder weg von der Gefahr.

Für mehrzellige Lebensformen wurde es zwingend nötig, Informationen aus unterschiedlichen Regionen ihres Körpers zusammenzuführen und zu verarbeiten. Zunächst kommunizierten ihre Zellen nur auf unvollkommene Weise miteinander, indem sie chemische Substanzen auf den Weg schickten. Das ist aber weder schnell noch zielgenau: Die Nachricht wird breit gestreut und erreicht nicht nur jene Empfänger, für die die Meldung von Bedeutung ist. Um aber einen mehrzelligen Organismus zu steuern, der rasch reagieren soll, arbeitet nur das elektrische Signal schnell genug.

So bildeten sich vor weit über einer halben Milliarde Jahren – im Verlauf der evolutionären Entwicklung zwischen Schwämmen und Quallen – aus Zellen der äußeren Hautschicht Zellen mit langen Zellausläufern aus, die sich darauf spezialisierten, Reize zu empfangen, zu verarbeiten und auf elektrischem Wege weiterzuleiten. Mit diesen Nervenzellen (Neuronen) konnte Information direkt und schnell übertragen werden. Damit wurde der Grundstein für unser Gehirn gelegt, das in seiner gesamten Komplexität weiterhin auf jenen Bausteinen, nämlich den Nervenzellen, und jenen Kommunikationsmitteln, nämlich elektrischen und chemischen Signalen, basiert, über die schon diese einfachen Lebewesen verfügten.

Der Grundbauplan einer Nervenzelle besteht aus einem Zellkörper (Soma) mit dem Zellkern, Zellfortsätzen (Dendriten), der Nervenfaser (Axon oder Neurit) und den synaptischen Endknöpfchen. Im einfachsten Fall kann man das Neuron als Gleichrichter auffassen, der ankommende Informationen (Signale von Sinneszellen oder anderen Nervenzellen) über die Dendriten (seltener das Soma) aufnimmt und als elektrische Impulse zum Zellkörper weiterleitet. Hier werden die Informationen verarbeitet und in Form elektrischer Impulse entlang des Axons zu den Synapsen gesendet, wo das Signal – und damit die Information – auf eine Empfängerzelle weitergegeben wird. Bei einfachen Mehrzellern erfolgt die Übertragung der elektrischen Reize über direkte Kontakte der Zellwände (elektrische Synapsen). Im späteren Verlauf der Evolution treten chemische Synapsen auf, an denen die elektrische Erregung durch chemische Substanzen (molekulare Botenstoffe: Neurotransmitter und Neuromodulatoren) übertragen wird. Dies ermöglicht eine höhere Flexibilität und Zielgenauigkeit. Mit der „Erfindung“ des Myelin (bei den Wirbeltieren) – eine dünne, fetthaltige Schicht um die Axone herum – wurden Übertragungsverluste verhindert und eine schnellere Kommunikation ermöglicht. Beide zusammen, chemische Synapsen und Myelinscheiden, machten den Weg frei für den Aufbau eines hochkomplexen Gehirns.

Nervengeflecht und Nervenknoten

Während ein Schwamm weder auf Jagd geht noch vor Feinden flüchten kann, sind Quallen mobil und leben räuberisch. Bei ihnen hatte der Selektionsdruck, sich fortbewegen und im Raum orientieren zu müssen, vor über 650 Millionen Jahren zum Aufbau von vermehrten Verbindungen zwischen den Nervenzellen geführt. Quallen gehören daher zu den ersten heute noch existierenden Organismen, die ein einfaches Nervensystem besitzen, bestehend aus einem Netz miteinander verbundener Neurone, das den Körper durchzieht.

Komplexere Lebewesen benötigen ein Zentrum, wo die Informationen aus unterschiedlichen Körperregionen zusammengeführt und verarbeitet werden können und eine Reaktion gesteuert wird. Eine solche zentrale Ansammlung von Nervenzellen findet man erstmals bei Plattwürmern. Im Gegensatz zu radialsymmetrischen Tieren wie Quallen oder Seesternen lässt sich bei ihnen bereits vorn und hinten unterscheiden – ein gewaltiger Sprung auf dem Weg zur Evolution eines Gehirns. Denn wenn das Tier nun bevorzugt eine Richtung einschlägt – also vorwärts -, ist es auch sinnvoll, wenn sich ein Großteil seiner Nerven- und Sinneszellen am vorderen Ende des Körpers konzentriert. Schließlich kommt dieser Teil meist als Erster mit den Verheißungen und Gefahren der Umgebung in Berührung.

Im Laufe der Evolution prägte sich das vordere Ende der Tiere immer mehr zu einem Kopf aus. Zudem nahm die Zahl der Neuronen und die Verknüpfung untereinander zu, da die komplexer werdende Umwelt immer kompliziertere Verhaltensstrategien erforderte. Ringelwürmer und die evolutionär jüngeren Insekten und Spinnen besitzen in jedem Segment ihres gegliederten Körpers zwei eigene Nervenknoten (Ganglien), die wie Minihirne die jeweiligen Abschnitte steuern. In ihrem Kopf sitzt das größte Ganglienpaar, das bereits aus knapp einer Million Neuronen besteht und koordinierende Fähigkeiten besitzt. Es befähigt ihre Träger schon zu relativ komplexen Handlungen, ermöglicht ihnen aber kaum, sich an veränderte Umweltbedingungen anzupassen.

Wirbeltiergehirn

Grundsätzlich anders als die bei gleichbleibenden Anforderungen unschlagbar effizienten, aber relativ unflexiblen Insektenhirne entwickelten sich die Gehirne der Wirbeltiere, bei denen der nächste große Schritt in der Evolution erfolgte. Die älteste Bauart eine Wirbeltiergehirns findet sich bei ursprünglichen Neunaugen, die vor über 500 Millionen Jahren erschienen und die den heutigen fischähnlichen Neunaugen gleichen. Sie besaßen bereits eine Schädelkapsel, die das empfindliche Gehirn schützte.

Nach der Entstehung der Ozon-Schicht in der Atmosphäre traten vor 360 Millionen Jahren die ersten Landtiere auf. Die immer komplexere und stressreichere Umwelt, die sich zudem rasch wandelte, erforderte zunehmend kompliziertere signalverarbeitende Strukturen im Nervensystem der Wirbeltiere. Durch blasenförmige Vergrößerungen erweiterte sich das Vorderhirn, aber auch Zentren wie Mittelhirn und Verlängertes Mark (Nachhirn). Das Mittelhirn steuerte und koordinierte lebenserhaltende Funktionen (z. B. die Atmung) und verarbeitete vor allem Informationen, die das Tier von den Augen erhielt. Das Nachhirn, aus dem sich später das Kleinhirn abspaltete, kontrollierte Bewegungen und die räumliche Orientierung. Dadurch wurden die Organismen in die Lage versetzt, immer dynamischer auf die vielfältigen Herausforderungen zu reagieren.

Grundsätzlich veränderte sich jedoch das Gehirn der Wirbeltiere im Laufe der Evolution nicht mehr. Zwar vergrößerte es sich im Laufe der Stammesgeschichte, aber hinsichtlich Aufbau und Struktur gibt es bei Fisch und Vogel, Ratte und Mensch keine prinzipiellen Unterschiede. Allerdings entwickelten sich seine einzelnen Teile verschieden hinsichtlich ihrer relativen Größe und ihres Differenzierungsgrades: Während sich der Hirnstamm (Mittelhirn und Verlängertes Mark) wenig veränderte, vergrößerten sich im Laufe der Evolution das Kleinhirn und vor allem das Vorderhirn, aus dem schließlich Zwischenhirn und Großhirn hervorgingen.

Das Vorderhirn diente ursprünglich vor allem zum Riechen. Jedes Lebewesen, sei es nahrhaft, giftig, Sexualpartner, Raubfeind oder Beute, hat eine charakteristische molekulare Struktur, die von der Luft weitergetragen wird. Daher war der Geruch von überragender Bedeutung für das Überleben. Im Laufe der Evolution entwickelten sich im Vorderhirn die ursprünglichen Zentren der Emotion, die schließlich so groß wurden, dass sie den oberen Bereich des Hirnstamms umringten. Daher nennt man diesen Teil das „limbische System“ (abgeleitet von lat. limbus = Ring). Seine entscheidenden Schichten entstanden bei den frühen Säugetieren vor etwa 150 Millionen Jahren. In den Verbindungen zwischen dem Riechkolben und dem limbischen System werden nicht nur die Erinnerungen an Duftwahrnehmungen verwaltet, sondern auch Wohlbefinden, Unbehagen und andere Gefühle gesteuert.

Insbesondere bei Vögeln und Säugern kam es auch im Großhirn zu massiven Umbaumaßnahmen und einer größeren Differenzierung. Bei den Säugern nahm die äußere Schicht, die Großhirnrinde (der Kortex), stark zu. Ihr charakteristischer Aufbau (sechs horizontale Schichten) samt Vernetzung in tiefere Hirnbereiche entstand wohl bereits vor über 500 Millionen Jahren während der „Kambrischen Explosion“, worauf Gemeinsamkeiten in den Gehirnen von Säugetieren und Neunaugen hindeuten. Während auch manche Reptilien eine geschichtete Hirnrinde besitzen, verschwand die Schichtung bei den Vögeln völlig. Das Großhirn besteht bei ihnen auch aus deutlich weniger Nervenzellen als bei Säugern, was aber durch eine dichtere Packung der Neurone kompensiert wird.

Obwohl die Denkorgane der beiden Tierklassen in diesem Teil also sehr unterschiedlich aufgebaut sind, ähnelt sich ihre Funktionsweise in vielerlei Hinsicht. So folgt die Art und Weise, wie Vögel und Säugetiere lernen, sich erinnern, vergessen, sich irren, verallgemeinern und Entscheidungen treffen, den gleichen Prinzipien. Die Wissenschaftler vermuten dahinter ein altes Erbe, das bei den Wirbeltieren lange vor dem Erscheinen der Vögel und Säuger schon existierte, mindestens schon bei den Vorläufern der heutigen Reptilien. Unabhängig voneinander entstanden dann in einer über 300 Millionen Jahre langen getrennten evolutionären Entwicklung, in der mehr geistige Flexibilität Vorteile bot, in beiden Linien Gehirne mit jeweils anderen Großhirnstrukturen, welche ein von Denken begleitetes Verhalten erlaubte. (Beide Tierklassen entwickelten auch die Warmblütigkeit, die zu einer verbesserten Temperaturregulation im Gehirn führte.)

Säugergehirn

Mit zunehmendem Hirnvolumen unterteilte sich die Gehirnrinde bei den Säugetieren in immer mehr abgrenzbare Areale mit jeweils besonderer, meist funktioneller Bedeutung. So wurde beispielsweise aus den Zellen, die Gerüche wahrnehmen, sie analysieren und eine Reaktion diktieren, der olfaktorische Lappen – aus denen, die dasselbe mit Gesichtswahrnehmungen machen, wurde der visuelle Lappen. Neurone mit ähnlichen Funktionen zusammenzufassen beseitigte offenbar das Problem, bei steigender Gehirngröße den gleichen Vernetzungsgrad zwischen den Neuronen aufrechtzuerhalten.

Im Verlauf der Hirnentwicklung der Wirbeltiere schwollen vor allem die assoziativen Areale – Areale, die sich nicht mehr eindeutigen Funktionen wie etwa Sehen oder Hören zuordnen lassen – an. So konnten Impulse über viele Zwischenstationen hinweg bearbeitet und moduliert werden. Dadurch waren die Tiere in der Lage, variabler und angepasster auf unterschiedliche Umweltbedingungen zu reagieren als beispielsweise Insekten oder Schnecken, die auf einen Reiz mit einem genetisch festgelegten Verhalten antworten müssen.

Mit weiter steigender Hirngröße übernahmen immer mehr anatomisch vergleichbare Areale in der linken und rechten Hirnhälfte tendenziell unterschiedliche Aufgaben (Lateralisierung) – wohl eine ökonomische Maßnahme der Natur, um Hirngewebe zu sparen, aber auch, um parallele Anforderungen effizienter verarbeiten zu können. (Die Forscher vermuten, dass sogar schon die frühen Wirbeltiere vor 500 Millionen Jahren ein Vorderhirn mit seitenspezifisch spezialisierten Hemisphären besaßen.)

Eine wesentliche Voraussetzung für eine fortgeschrittene Hirnentwicklung bildete die Ablösung der ursprünglichen Nase-Schnauze-Koordination durch die primatentypische Hand-Auge-Koordination. Diese entwickelte sich bei den Vorfahren der heutigen Menschenaffen und Menschen und führte zu einer Abschwächung des Geruchsinns. Sogar bei der Paarfindung, bei fast allen Säugetieren eine Domäne der Nase, herrschten ab jetzt die Reize der Augen vor.

Bei der weiteren Entwicklung des Primatenhirns half wohl auch das Leben in der Gruppe kräftig mit. Der Anthropologe Robin Dunbar entwarf die Hypothese vom sozialen Gehirn. Ihm war aufgefallen, dass bei den Menschenaffen Gehirn- und Gruppengröße eng zusammenhängen. Seine Erklärung dafür lautet: Je größer eine Gruppe ist, desto mehr Informationen über andere Mitglieder muss das Gehirn verarbeiten, damit das soziale Miteinander funktioniert. So wurde die Entwicklung weitergetrieben und der Neokortex wuchs in seiner bloßen Masse stark an, während gleichzeitig die Verbindungen innerhalb des Gehirns in geometrischer Reihe zunahmen.

Menschengehirn

Bei den ersten Menschen setzte sich nach der Trennung von den Menschenaffen der Trend zu einem voluminöseren Schädelinhalt fort, zunächst langsam, seit etwa zwei Millionen Jahren dann beschleunigt. Ursache waren zum Einen neue Herausforderungen, vor allem schnelle Umweltveränderungen, auf die die frühen Menschen mit der Herstellung und dem Gebrauch von Werkzeugen reagierten. Mit ihnen konnten energiereichere Nahrungsquellen erschlossen werden. Zum Anderen förderte das Kochen der Nahrung das evolutionäre Wachstum der Hirnkapazität.

Durch das Kochen kann man Kalorien nicht nur einfacher aufnehmen, sondern auch effizienter in körpereigene Energie umwandeln, denn das Erhitzen der Nahrung wirkt wie eine Art Vorverdauung außerhalb des Organismus. Zudem tötet das Erhitzen Mikroben ab, was dem Körper eine energieaufwändige Infektionsabwehr erspart. Ein Großteil der gewonnenen Nahrungsenergie wurde so für das Gehirn und den Ausbau seiner Fähigkeiten frei. Auf diese Weise machte das Gehirn vom Homo habilis zum Homo erectus (also in einigen hunderttausend Jahren) einen signifikanten Entwicklungssprung: von rund 40 Milliarden Neuronen auf über 60 Milliarden. Der Homo sapiens verfügt heute über 86 Milliarden Nervenzellen; das Gehirn wuchs so insgesamt von 600 Kubikzentimetern beim Homo habilis auf eine Größe von weit mehr als dem Doppelten bei den heutigen Menschen an.

Zwar lässt sich am menschlichen Gehirn im Vergleich zu dem stammesgeschichtlich nahestehender Tiere außer der schieren Größe nichts grundlegend Neues und Anderes feststellen, was die Substrukturen und ihre Strukturierung sowie die Zentren anbelangt, aber es ist bedeutend komplexer. Die etwa zwei Millimeter dicke Großhirnrinde ist extrem stark gefaltet: Ausgebreitet würde sie die Fläche von vier Blatt Schreibmaschinenpapier einnehmen. Die Hirnrinde eines Schimpansen würde dagegen auf ein einziges DIN-A4- Blatt passen, die eines Tieraffen auf eine Postkarte und die einer Ratte auf eine Briefmarke. Insbesondere haben also die für höhere Hirnleistungen zuständigen Gebiete an Fläche außerordentlich zugenommen, ebenso die Anzahl der Verschaltungen – und damit die Integrationskapazität zwischen den zentralen Verarbeitungszentren.

Die Nervenzellen sind beim Menschen heute so dicht gepackt, dass individuelle Zellgrenzen kaum zu erkennen sind. In einem Kubikmillimeter Großhirnrinde befinden sich 90 000 Neuronen und 4000 Meter Nervenbahnen, wenn man alle Axone und alle Dendriten zusammenfasst. Die Vernetzung der Nervenzellen untereinander, ein Netzwerk aus rund einer Billiarde von Verbindungen, ist einzigartig. Millionen verschiedener Operationen laufen gleichzeitig (parallel) ab.

Im Verlauf der Evolution höherer Tiere war eine Reihe von komplexen Nervenverbindungen entstanden, wodurch Wahrnehmung und Verarbeitung von Umweltreizen, aber auch der eigene Zustand, selbst zum Gegenstand von Erkenntnisprozessen wurden (Metarepräsentationen) – sie erhielten Bedeutung. Das brachte eine ungeahnte Flexibilität in das Verhalten. Metarepräsentationen erlaubten sogar, geistige Modelle von Vorgängen in anderen Gehirnen zu erstellen, so in der Art: „Ich weiß, dass du weißt, dass ich traurig bin“ oder „Ich weiß, dass du überlegst, wie du mich täuschen kannst“. Wann diese Fähigkeiten in der Evolution ausgeprägt wurden, ist unter den Wissenschaftlern umstritten. Während einige sie nur dem Menschen zuerkennen, andere sie noch den Menschenaffen zugestehen, sind wieder andere – und ihre Zahl wird immer größer – überzeugt, dass selbst Katzen oder bestimmte Vögel über diese Fähigkeiten verfügen.

Metarepräsentationen sind eine Vorbedingung für unsere Werte und Überzeugungen. Während z. B. eine instinktive Vermeidungsreaktion eine Ekelreaktion erster Ordnung darstellt, gehört zu einer Metarepräsentation u. a. der soziale Widerwille dazu, den wir gegenüber Dingen empfinden, die wir für moralisch falsch oder ethisch unangemessen halten.

[Dass moderne Menschen komplexere Technologien und Kulturen entwickelten – Kunstobjekte gestalteten, Höhlenbilder malten, diffizile Waffen und Werkzeuge und kleinteilige Kleidung schufen – liegt im Scheitellappen unseres Gehirns, vor allem im sogenannten Precuneus , begründet. Weil seine oberen Teile mehr Platz brauchten, fällt das obere Scheitelbein bei Homo sapiens offensichtlich gewölbter aus als bei anderen Primatenarten (-> runde Kopfform!). Es bleibt noch zu ergründen, in welchem Maß Genetik und Kultur unseren oberen Scheitellappen evolutionär und individuell geprägt haben und noch immer beeinflussen.]

Metarepräsentationen spielen auch bei Sprache und symbolischem Denken eine tragende Rolle. Verbale und geschriebene Sprache ist nur möglich, weil wir die Idee einer Sache abstrahieren und ihr einen Namen – ein Symbol – zuweisen können, der gesprochen und geschrieben werden kann. Informationen konnten jetzt sehr effizient und von den Reproduktionszyklen abgekoppelt übertragen werden und ermöglichten schlagartig die Entfaltung der geistigen Fähigkeiten, die uns vom Rest der Tierwelt abheben. Die Entstehung der Sprache und der damit verbundene Nutzen im Überlebenskampf förderte vermutlich die Entwicklung größerer Gehirne.

Angesichts der starken Neigung des Menschen, mit Gesten zu kommunizieren, scheint das Gestikulieren im Zusammenhang mit der Werkzeugherstellung in der Evolution der Lautsprache vorausgegangen zu sein. Dafür spricht, dass die Hirnareale, die Hände und Sprache repräsentieren, anatomisch benachbart sind. Auch die in ihnen ablaufenden Hirnprozesse ähneln sich: Beide beruhen auf der Verarbeitung von motorischen Befehlen für jeweils unterschiedliche Muskeln des Körpers. Und es gibt noch einen direkten Zusammenhang: Wörter aktivieren sogenannte Spiegelneurone, die eine passende motorische Antwort simulieren.

Die Anforderungen vielschichtig verschlungener sozialer Strukturen und Fähigkeiten wie Kommunikation und Perspektivenwechsel haben das Gehirn also verändert und die geistige Weiterentwicklung vorangetrieben. Durch Sprache und Schrift sind wir Menschen in der Lage, gigantische Informationsmengen auszutauschen und noch effektiver voneinander zu lernen. Dies führte dazu, dass wir die Schöpfung, aber auch uns selbst, immer stärker mit wissenschaftlichen Augen betrachtet haben. Aus subjektivem Empfinden wurde „objektives Wissen“, das seinen Ursprung in Tausenden von Gehirnen hat und das – den Genen ähnlich – an immer neue Generationen weitergegeben wird.

Fazit

Von der „Erfindung“ der Neurone bei den frühen Mehrzellern und über die ersten Neuronennetze entwickelten sich mehrfach und unabhängig voneinander in getrennten Abstammungslinien komplexe Gehirne, offenbar basierend auf derselben Grundorganisation. Ihre Funktion bestand letztlich darin, Informationen aus dem Organismus und seiner Umwelt in entsprechendes bedürfnis- und situationsgerechtes Verhalten umzusetzen und damit die Chancen im Kampf ums Überleben zu maximieren.

Die Evolution des Gehirns bis hin zum Denkorgan von höheren Wirbeltieren, das in den beeindruckenden kognitiven Fähigkeiten des Menschen gipfelte, war allerdings kein linearer Prozess. Je nach Bedarf musste das Organ immer mehr und unterschiedliche Aufgaben übernehmen und wurde dabei ständig aus- und umgebaut. Kaum etwas wurde entfernt, alte Elemente wieder verwendet und weiter genutzt, nichts wurde verworfen. Mal hier, mal dort kamen ein paar zusätzliche Teile und Funktionen hinzu – ohne Garantie, dass das alles ordentlich zueinanderpasste. Äußere Zwänge und der Baumeister Zufall führten so zu einem verschachtelten Durcheinander. Manchmal gab es im Laufe der langen Evolution sogar Phasen der Regression, in denen sich das Gehirn strukturell zurückentwickelte.

Als die Frösche vor einigen hundert Millionen Jahren mit den immer effizienteren Knochenfischen konkurrieren mussten, zogen sie sich in die verkrauteten Uferregionen zurück. Dort blieb ihnen wenig anderes übrig, als auf ihre Beute zu warten. Wahrscheinlich ist eine solche Jagdmethode intellektuell nicht sonderlich herausfordernd, denn die Gehirne der Frösche schrumpften über Generationen. Auch dafür, dass ein einmal erworbenes Gehirn sogar wieder verloren werden kann, kennt die Naturgeschichte Beispiele: Der Bandwurm, ein Nachfahre des ersten Plattwurms mit seinem Nervenknoten im Kopf, klammert sich im menschlichen Darm fest und lebt dort in einem komfortablen, sicheren Ökosystem mit reichem Nahrungsangebot. Sich ein Gehirn zu leisten, bedeutet für einen solchen Parasiten sinnlosen Luxus. Folglich wurde es restlos zurückgebaut.

Unser Gehirn ist also kein maßgeschneidertes, optimales Denkorgan, sondern ein ziemlich unordentlich aufgebautes, planlos im Lauf der Evolution zusammengeschustertes Flickwerk. Der Molekularbiologe Francois Jacob nannte es „bricoage“ – Bastelarbeit, der Neurobiologe David Linden sprach vom „schrulligen, ineffizienten und bizarren Plan des Gehirns“. Die Liste der Mängel ist bei näherem Hinschauen lang. So ist die Signalleitung und Informationsverarbeitung auf Ebene der Neurone und Synapsen langsam und eher umständlich, aber auch störanfällig, da sich etliche Prozesse gegenseitig in die Quere kommen.

Teilfähigkeiten (wie Wahrnehmen, sich Erinnern, Lernen, Abstrahieren, Begriffsbildung, Sprechen) kamen beim Menschen in glücklicher Weise zusammen, so dass unser Gehirn nicht nur als „Überlebensorgan„, sondern in der Spätphase der Evolution auch als „Erkenntnisorgan“ brauchbar wurde. Mit dieser Fähigkeit konnten wir unseren Mesokosmos verlassen, also über direkte Wahrnehmung und unmittelbare Erfahrung hinauskommen. Das hat sich, biologisch gesehen, eher so ergeben.

Seit 150 000 bis 200 000 Jahren (vielleicht sogar schon seit 300 000 Jahren) ist die Vergrößerung des Gehirns von Homo in Struktur und Umfang im Wesentlichen abgeschlossen. Ein Trend in Richtung größerer Gehirne ist nicht mehr zu erkennen. Von der Mittelsteinzeit bis Ende des 20. Jahrhunderts sanken die Gehirnvolumina der europäischen Frauen und Männer sogar um durchschnittlich 150 bis 200 Kubikzentimeter. Ob der Schwund seit Beginn des Holozäns (vor 11 650 Jahren) mit der Abnahme existenzieller Nöte, etwa durch Fortschritte im Ackerbau, zusammenhängt, ist unklar.

Es scheint aber auch nicht, dass unser Denkorgan im weiteren Verlauf unserer biologischen Entwicklung noch nennenswert wachsen würde. Dafür spricht, dass nicht sehr viel mehr Neurone sinnvoll untergebracht werden können und die Zahl an möglichen Verbindungen begrenzt ist. Auch lässt sich die Menge der pro Sekunde übertragenen elektrischen Impulse nicht viel weiter steigern. Zudem wächst der Energieverbrauch mit zunehmender Größe des Gehirns, die Wärmeabfuhr wird schwieriger und die Signalübertragung von einem Hirnareal ins andere dauert länger.

Eine Leistungssteigerung wäre jedenfalls auch mit einem noch größeren Gehirn nicht zu erwarten. Außerdem ginge die Entwicklung eines größeren und komplexeren Gehirns mit einer höheren Anfälligkeit für neurologische Störungen einher. Genveränderungen, die unser großes Gehirn ermöglicht haben, spielen heute möglicherweise bei gravierenden Fehlentwicklungen unseres Denkorgans sowie psychischen Erkrankungen – z. B. Autismus und Schizophrenie – eine Rolle.

Viele Forscher halten eher einen Trend zu einer einfacheren Strukturierung des menschlichen Gehirns in Zukunft für möglich. Ursache sei die heutige Lebensweise, in der uns die moderne Technik viele Aufgaben abnimmt, in der durch Umweltzerstörung die Vielfalt der Natur schrumpft und die Natur- und sozialen Erfahrungen reduziert werden. (Übrigens verkleinerte sich auch das Hirnvolumen des Hundes im Lauf seiner Karriere als Gefährte des Menschen, der ihn mit Futter versorgt und ihm Schutz und Gesellschaft bietet. Sein Gehirn ist um ein Drittel kleiner als das des Wolfes, seines wilden Verwandten.)

Wir müssen also wohl davon ausgehen, dass das menschliche Gehirn auf jeden Fall nicht weiter wächst. Auch der Mensch selbst ist am Ende seines evolutionären Weges angelangt. Eine Veränderung des Arttypus, des durchschnittlichen Charakters der menschlichen Spezies, ist bei Homo sapiens in der Zukunft nicht mehr zu erwarten. Unsere Art wird demnach in ihrer gegenwärtigen biotischen Grundausstattung bis zu ihrem Aussterben weiter existieren. Und dass Arten aussterben, ist etwas ganz Normales und gehört zur Geschichte der Evolution.

REM

Gehirn – Seele – Geist

Das menschliche Gehirn

Meist stellen wir uns beim Gedanken an dieses wichtige Körperorgan eine grau-feuchte Masse vor. Dabei hat das Gehirn auf Grund der feinen Blutgefäße äußerlich ein eindeutig rotes Aussehen, während es in tieferen Schichten rötlich-braun bis gelblich-braun erscheint. Grau wird es erst, wenn es mit chemischen Mitteln konserviert wird.

Die dichtgepackten Nervenzellen (Neurone) sind die grundlegenden Elemente der Informationsverarbeitung. Unser Gehirn enthält nach neueren Untersuchungen 87 Milliarden davon, hinzu kommen 86 Milliarden andere Zellen, vor allem Gliazellen. Im einfachsten Fall kann man Neurone als Gleichrichter auffassen, die ankommende Informationen aufnehmen und zu den Synapsen weiterleiten, wo sie auf eine Empfängerzelle weitergegeben werden. Aber auch die Gliazellen sind maßgeblich an Hirnprozessen beteiligt: Sie bilden isolierende Myelinhüllen um die Neurone, helfen bei der Strukturierung des Zellgeflechts, regen zur Bildung von Synapsen an, sorgen für ein optimales chemisches Milieu und wachen über den Gesundheitszustand des Gehirns.

Das Zentralorgan des Menschen wiegt durchschnittlich 1350 Gramm und benötigt extrem viel Stoffwechsel-Energie: Bei nur etwa 2% der Körpermasse beansprucht es durchschnittlich 15 bis 18% der gesamten vom Grundstoffwechsel bereitgestellten Energie. Bei Kindern ist der Verbrauch noch höher. Mindestens zwei Drittel des Energiebedarfs im Gehirn entfallen dabei auf die Synapsen. Ein komplexes Zusammenspiel von chemischen Reaktionen und Stoffkreisläufen macht die Energie verfügbar und sorgt dafür, dass Denken, Fühlen und Handeln funktionieren.

Bedeutung des Gehirns

Das Gehirn bestimmt wie kein anderer Körperteil unsere Identität und gilt als Sitz der geistigen Fähigkeiten des Menschen und der Verhaltenssteuerung. In diesem Organ ist unser Wissen verankert, und in seinen Strukturen und Prozessen liegen die Wurzeln unserer Persönlichkeit. Es steuert und koordiniert unsere Bewegungen, es vermittelt uns Gefühle und Wahrnehmungen und ermöglicht es uns, über das Medium der Sprache mit anderen zu kommunizieren. Es räumt uns die Freiheit des Denkens ein, eine erstklassige Muster erkennende, Theorien erstellende, Informationen verarbeitende Überlebensmaschine. Es ist aber auch ein Organ der Verhaltenssteuerung und spielt eine wichtige Rolle bei der Regulierung sämtlicher lebenserhaltender Körperfunktionen (Schlafen, Atmung, Kreislauf, Verdauung usw.) und ist an der Steuerung des Hormonhaushalts des Körpers beteiligt.

Vielleicht ahnten die Menschen der Vorzeit vor Tausenden von Jahren bereits die Bedeutung des Gehirns, weshalb sie die Gehirne erschlagener Feinde verspeisten, um die Eigenschaften der Opfer anzunehmen, wie einige Forscher vermuten. Vielleicht verzehrten sie das Organ aber auch nur, weil es auch im ungekochten Zustand eine leicht zu kauende Speise war.

Alkmaion von Kroton leitete vor 2600 Jahren aus Gehirnsektionen von Tieren und Menschen ab, dass das Organ eine zentrale Rolle beim Wahrnehmen und Denken spielt. Hippokrates war der Überzeugung, dass die Luft, sobald der Mensch sie eingeatmet habe, im Gehirn Denkfähigkeit und Einsicht hinterlasse. In der Antike drehte es sich in diesem Zusammenhang immer um den Hauch, den Atem (Pneuma), dann auch die Seele, die ja entflogen ist, wenn der Atem stillsteht. Die Seele lieferte so eine Erklärung dafür, dass Organismen belebt sind – eben „beseelt“, englisch „animated“. In der Schöpfungsgeschichte der Offenbarungsreligionen bekommen die Lebewesen göttlichen Atem eingehaucht, der den Körper beim Tod wieder verlässt. Für viele Jahrhunderte prägte die Pneuma-Lehre das Bild von der Leistungsfähigkeit des Gehirns und beeinflusste die Hirnforschung sogar bis ins 18. Jahrhundert.

Die Idee einer unvergänglichen Essenz des Menschen, eine Seelenvorstellung, scheint schon sehr alt zu sein. Bereits in den Höhlenmalereien von Lascaux ist der Geist der Toten als Vogel dargestellt. Der Begriff eines unstofflichen und unsterblichen Geistes geht auf orientalische Vorstellungen zurück. Hinter Atem steckt etymologisch der Sanskritausdruck „atman„. Im Hinduismus ist „Jive“ (Jivatman), ein feinstofflicher, unsichtbarer Leib, Träger der individuellen Persönlichkeit. Er entspricht der unsterblichen, immateriellen Seele und verkörpert sich immer wieder. Als erster Denker des Abendlands formulierte der Naturphilosoph und Zahlenmystiker Pythagoras von Samos vor über 2500 Jahren eine Theorie der Seelenwanderung und Wiedergeburt.

Im Buddhismus gibt es nicht die Idee einer persönlichen Seele, sondern einer einzigen Seele, die oft als der „eine Geist“, das „Ungeborene“, die „Buddha-Natur“ oder Ähnliches bezeichnet wird. Sie hat keinen Anfang und ist wie der Raum – ohne Grenzen. Aus diesem Verständnis heraus wird nicht eine individuelle Seele wieder und wieder geboren, sondern es ist Gott selbst, der sich inkarniert. Das, was wir als Seele bezeichnen, ist schon das Nirwana.

Auch der Philosoph Platon (428 bis 348 v. Chr.) hat seine Todesmetaphysik von der im asiatischen Raum allgemein ausgeprägten Geisteshaltung übernommen. Er glaubte an eine unsterbliche Seele, die in einem vom Körper abgeschiedenen Bereich im Kopf existiert und über die sterblichen Teile der Seele in Herz und Bauch herrscht. Mit dem Tod löst sich die unsterbliche Seele von den Fesseln des Körpers und tritt in das lichte Reich der Ideen ein. Nach Platons Lehre gibt es also eine immateriell-geistige Welt, die neben der energetisch-materiellen Welt existiert, was als Dualismus bezeichnet wird: Leib und Seele sind zwei unterschiedliche Stoffe, von denen der eine unsterblich, der andere vergänglich ist. Der Philosoph plädierte für das Gehirn als Sitz von Gedächtnis, Vernunft und Verstand.

Für Aristoteles (384-322 v. Chr.) war das Gehirn hingegen nicht mehr als eine Art Kühlelement für das vom Körper erhitzte Blut. Er betrachtete das Herz als das Zentralorgan des Menschen. Lange Zeit blieb diese Sichtweise sehr einflussreich und hinterließ Spuren sogar bis in unsere Alltagssprache hinein: So nehmen wir uns gelegentlich wohl etwas „zu Herzen“ statt „zu Hirne“. Bei Aristoteles ist die „denkende Seele“ unsterblich. Ob es sich dabei um eine individuelle Unsterblichkeit oder nur eine Rückgliederung in die göttliche Vernunft handelt, ist nicht ganz klar.

Die Vergänglichkeit des Körpers verbunden mit der Unsterblichkeit des Seele – der Körper-Seele-Dualismus – beeinflusste viele Religionen bis hin zur Gegenwart. Der Seelenbegriff wurde, vermittelt durch die platonische Philosophie, auch ins Christentum übernommen. Nach dessen Verständnis besteht der Mensch aus zwei Teilen: einem sterblichen Leib und einer unsterblichen Seele, die während eines irdischen Lebens eine Verbindung auf Zeit eingehen. Der Daoismus ist eine der wenigen Religionen, in denen es kein Leben nach dem Tod gibt. Körper und Seele zerfallen im Tod zu Qi, was soviel wie Energie bedeutet.

In den Augen Thomas von Aquins bedarf die menschliche Seele eines Körpers, um zu denken und zu fühlen. Unser Körper ist folglich so etwas wie ein Empfänger dieses Geistes, ein sehr komplexer Empfänger mit sehr vielen Möglichkeiten zur Variation des Empfangs allerdings. Erst im 16. Jahrhundert setzte sich in der Wissenschaft die Ansicht durch, das Nervengewebe selbst beherberge unsere geistigen Fähigkeiten. Die Entdeckung des Blutkreislaufs und die Charakterisierung des Herzens als Blutpumpe wirkten sich so aus, dass das Herz jedenfalls nicht mehr als Sitz des Geistes und der Seele dienen konnte. Der Flame Andreas Vesalius (1514-1564) fertigte beeindruckende Zeichnungen über das Gehirn an, die der damals populären Ventrikel-Theorie folgten: Demnach zirkuliere in den Hohlräumen des Gehirns das „Pneuma“, das von hier aus in den Körper gelange und diesen beseele.

Der französische Philosoph Rene Descartes (1596-1650) ist einer der wichtigsten Vertreter des Substanzdualismus, also dass Leib und Seele zwei grundverschiedene Substanzen seien. Während die Organe des Körpers als „res extensa“ alle Kennzeichen räumlich ausgedehnter Materie erfüllten, gehörten Ideen, Urteile und Entschlüsse unzweifelhaft einer immateriellen Sphäre des Geistigen an, die Descartes „res cogitans“ nannte. Nach seinem streng dualistischen Standpunkt ist also Geist Erkenntnis – Sein Materie. Obwohl aber Leib und Seele verschiedenen, voneinander getrennten Sphären angehören, interagieren sie trotzdem in irgendeiner Weise fortwährend miteinander. Zu erklären, wie sich beide Sphären gegenseitig beeinflussen, wurde zum zentralen Problem des Dualismus.

Diese Zweiteilung des Menschen in Geist und Materie hat Eingang in die modernen Wissenschaften gefunden und liegt deren Einteilung in Geistes- und Naturwissenschaften zu Grunde. Noch heute vertreten manche Philosophen und die meisten Theologen die Ansicht, dass Geist als ein immaterielles, unräumliches und gegebenenfalls auch unsterbliches Etwas überhaupt nichts mit dem materiellen Gehirn zu tun habe, sondern einer ganz eigenen Welt angehöre. Der Geist existiert in diesem Sinne also „unabhängig von den physikalischen Teilchen“ und sei demnach kein „Gefangener der Materie“. Damit hätten wir die bemerkenswerte Doktrin, dass die Welt der Materie und Energie nicht vollständig abgeschlossen ist.

Auch der Gehirnforscher John Eccles (1996 verstorben) glaubte nicht an einen neuronalen Ursprung des menschlichen Geistes, sondern betrachtete diesen als göttliche Schöpfung und eigenständige Existenzform. Er sah in mental-geistigen Prozessen ein stammesgeschichtlich grundsätzlich neuartiges und einmaliges Phänomen, das physikalisch-chemischen Beschreibungen nicht zugänglich sei. Die menschliche Seele wirke lenkend auf die hirnphysiologischen Prozesse ein.

Bei aller Verschiedenheit der Seelenvorstellungen quer durch Epochen und Kulturen prägte die Idee einer unsterblichen Essenz also jahrhundertelang das Selbstverständnis des Menschen. Dieser innere, immaterielle Wesenskern wurde nicht nur Menschen, sondern manchmal auch Tieren und sogar Objekten zugeschrieben. Im Laufe der Geschichte wurden die Begriffe Seele und Geist von philosophischer, psychologischer und klinisch-neurologischer Seite beschrieben und diskutiert und mit verschiedensten Bedeutungsnuancen aufgeladen. Der Zusammenhang zwischen den geistigen Phänomenen (wie Denken, Fühlen, Wahrnehmen) und materiellen Prozessen, z. B. im Gehirn, wurde zu einer Grundfrage der Neurophilosophie, dem Leib-Seele-Problem.

Ludwig Wittgenstein und die Vertreter der analytischen Philosophie betrachteten das Leib-Seele-Problem als Scheinproblem. Schon die Frage, wie mentale und biologische Zustände zusammenpassen, sei falsch. Denn Menschen können auf unterschiedliche Weise beschrieben werden – etwa mit biologischen und geistigen Begriffen. Scheinprobleme entstünden immer nur dann, wenn wir ein bestimmtes Vokabular im falschen Kontext anwenden und so verschiedene Beschreibungsweisen aufeinander reduzieren. Deshalb entstünde begriffliche Verwirrung, wenn wir im Gehirn (biologische Vokabel) nach mentalen Zuständen (geistiges Vokabular) suchen. Vielleicht, so der Verdacht, habe die jahrtausendelange Rede von „Leib und Seele“, „Körper und Geist“, „Soma und Psyche“ dazu geführt, dass man nur noch in diesen Kategorien dachte und sie schließlich für real hielt.

Heute wird zwar von kaum jemand bezweifelt, dass beim Menschen das Gehirn eine notwendige Voraussetzung für geistige Leistungen, d. h. für Wahrnehmung, Vorstellung und Denken, ist. In der Frage allerdings, welchen Grad von Autonomie der Geist gegenüber dem Gehirn hat und wie eng die Beziehung zwischen Gehirn und Geist ist, prallen heute naturwissenschaftliche Auffassungen mit unterschiedlichen philosophischen, religiösen und ideologischen Grundüberzeugungen zusammen.

Ein streng dualistischer Standpunkt , der den Geist als eine vom Gehirn unabhängige, autonome Wesenheit ansieht, ist mit dem gegenwärtigen naturwissenschaftlichen Erkenntnisstand allerdings nicht zu vereinbaren. In der Neurowissenschaft spricht nichts für eine Aktivierung durch einen reinen Geist. Dagegen sprechen z. B. die neurowissenschaftlichen Beobachtungen: Ihnen zufolge können körperliche Störungen die Psyche systematisch verändern. Zudem gibt es einen Zusammenhang zwischen geistigen Fähigkeiten und Gehirnzuständen.

Die meisten heutigen Bewusstseinsphilosophen halten den Dualismus deswegen für unvertretbar, weil man dann unterstellen müsste, dass geistige Ereignisse irgendwie ins Räderwerk der Energieerhaltung und Energietransformation der rein natürlichen Vorgänge eingreifen müssten. Die Naturgesetze lehrten aber, dass nichts kausal in ein Geschehen eingreifen kann, das selber nicht über Energie verfügt und damit materiell ist. Naturwissenschaftler haben heute also wenig Grund, an eine Seele zu glauben. Vertraut man auf ihre Erklärungen, gibt es für eine Seele keine Anzeichen. So fand der französische Arzt und Philosoph Julien Offray de La Metrie schon im 18. Jahrhundert für eine im Körper agierende Seele keinen Beweis. Er beschrieb den Menschen als eine nach rein mechanischen Prinzipien funktionierende Maschine, die keiner vernunftbegabten Seele bedürfe.

Die Trennung von Körper und Bewusstsein, Leib und Seele, erscheint jedenfalls heute als ein Relikt alter Zeiten, von dem sich die Forscher lange verabschiedet haben. In den vergangenen hundert Jahren verschwand so der Begriff Seele nahezu völlig aus der Psychologie, der Wissenschaft vom Erleben und Verhalten. Er kommt heute auch in den Theorien der Hirnforscher so nicht mehr vor. Er wird nicht mehr benötigt, meint der Philosoph Thomas Metzinger. Im Alltag müssen wir uns aber oft anstrengen und gleichsam mit analytischer Skepsis gegen einen Strom intuitiver Überzeugungen anschwimmen, um zu dem Schluss zu gelangen, dass sich im Körper keine übernatürliche Seele verbirgt.

Oliver Sacks, Neurologe an der Medical School in New York, kann sich „keinen Seins-Raum für ein geistiges Prinzip vorstellen, das sich nicht vollständig im Körper ausdrückt“. Wenn man aber mit der Seele die Gesamtheit einer Persönlichkeit meine – deren Hoffnungen und Streben, religiöse, erotische und ästhetische Empfindungen -, dann gebe es sie natürlich. In diesem Sinne kennzeichnet die Seele eine Person als einzigartiges Individuum – und ebenso kennzeichnet sie dessen Nervensystem als von allen anderen verschieden. „Was wir Seele nennen, ist verkörpert und verliert dadurch weder seine Würde noch seine Schönheit.“

Stand heute

Die Neurowissenschaften gehen heute von drei zentralen Grundannahmen aus:

  1. Das Gehirn gehorcht physikalischen Gesetzen (den Gesetzen der Klassischen Physik).
  2. Verhalten ist das Resultat von Informationsverarbeitung im Gehirn.
  3. Diese Informationsverarbeitung beruht auf entsprechenden physikalische Vorgängen.

Geist ist demnach untrennbar an Materie gebunden. Seine Existenz unabhängig vom Körper ist eine Fiktion. Geistige Vorgänge spielen sich im Rahmen und auf der Grundlage messbarer physikalischer und physiologischer Prozesse ab. Sie sind durch die aktuellen Aktivierungszustände determiniert, die wiederum vom Genom, der Lerngeschichte (Erfahrung) und den momentanen Reizgegebenheiten (Umwelt) abhängen. Dabei wird das bewusste Erleben entweder mit dem zugehörigen Hirnprozess gleichgesetzt oder als durch diesen notwendig verursacht. Es ist also kein mysteriöser Vorgang, wenn die informationsprozessierenden Eigenschaften des Gehirns bewusst werden. Nach dieser heute weit verbreiteten Sichtweise ist das Geistige also ein Produkt oder eine Begleiterscheinung neuronaler Prozesse, quasi ein Attribut der Materie oder der physikalischen Welt.

Mentale Ereignisse, alle Gedanken, Gefühle, Wünsche und Überzeugungen sind also mit bestimmten funktionalen Zuständen (neuronalen Zuständen) des Gehirns identisch oder entsprechen diesen zumindest unmittelbar. Sie beruhen auf Verknüpfungen zwischen Nervenzellen. Gerade die Verknüpfungspunkte, die Synapsen, sind die eigentlichen geistproduzierenden Stellen – wenn man das so ganz reduktionistisch sagen darf. Der Prämisse folgend, dass jeder geistige Zustand aus Vorgängen im Gehirn besteht, suchen heute Neurowissenschaftler nach dem Geist tief in den Windungen unseres Denkorgans.

[Einige Argumente sprechen neben neuropsychologischen Befunden zur Epilepsie und transzerebralen Magnetstimulationen für die zentrale Stellung des Schläfenlappens (ein Teil des Großhirns) und des damit assoziierten Limbischen Systems (Hypothalamus, Hippocampus, Amygdala) bei spirituellen oder religiösen Erlebnissen. Manche Wissenschaftler bezeichnen diese Strukturen daher metaphorisch sogar als „Sitz der Seele“.]

Nach Ansicht des britischen Philosophen Gregory Bateson sind Geist, Verstand und Intelligenz unausweichliche Konsequenzen einer gewissen Komplexität, die einsetzt, lange bevor die Organismen ein Gehirn und ein höheres Nervensystem entwickelten. Die Geistestätigkeit wird dabei als die Organisation aller Funktionen dargestellt: auf niederer Ebene oft als Verhalten, auf höherer Ebene der Komplexität jedoch nicht auf Verhalten beschränkt, da es dort eigentümliche nichträumliche und nichtzeitliche Qualität annimmt, die wir mit Geist verbinden. Geist ist so die Manifestation einer Gruppierung von Systemeigenschaften, von Prozessen, in denen die Dynamik der Selbstorganisation zum Ausdruck kommt.

Geist, Moral und sogar der Glaube an Gott sind demnach das Ergebnis einer Hirnstruktur, die so organisiert ist, wie es der Aufstieg des Menschen in Jahrmillionen erforderte. Daher ist denkbar, dass, wie die elektrische Ladung ein fundamentales Charakteristikum des Universums ist, jedoch selbst keinerlei Funktion besitzt, auch das Bewusstsein, der Geist, lediglich ein Nebenprodukt der Gehirnentwicklung sein könnte, das keinen besonderen Zweck erfüllt.

REM

Die Inflations-Theorie

Das Standardmodell des heißen Urknalls kann eine Reihe von Eigenschaften unserer Welt nicht recht erklären. Warum pflanzt sich das Licht im Durchschnitt geradlinig im Universum fort? Oder anders gefragt: Warum ist der Raum in seinen drei Dimensionen fast völlig „flach„, wie wir es aus dem Alltag gewohnt sind? Ein flaches All stellt nämlich gemäß Relativitätstheorie ein eher unwahrscheinliches Ergebnis der Entwicklung dar; das All könnte genauso gut mehr oder weniger stark gekrümmt sein.

Und warum ist das Universum äußerst gleichförmig, obwohl weit entfernte Regionen früher nicht in Kontakt – oder, wie die Physiker sagen, in „kausaler Verbindung“ – standen und keine Gelegenheit hatten, sich zu durchmischen? Wie konnten sie sich dann derart gleich entwickelt haben? Und wie kam es andererseits zu den charakteristischen kleinen Inhomogenitäten, aus denen letztendlich Strukturen wie Galaxien und Galaxienhaufen entstanden sind?

(3.) Inflation

Um die genannten Fragen in der Standardtheorie zu beantworten, schufen Wissenschaftler eine komplizierte Theorie, die Theorie der Inflation (lat. „inflatio“ = Aufblähung), wobei sie die Kosmologie mit Ideen der Teilchenphysik verbanden. Dazu nutzten sie eine mögliche Lösung der Einsteinschen Gleichungen aus, indem sie an diese Stelle eine Einwirkung der Quantenmechanik einbrachten. Dadurch konnte erklärt werden, wie Quantenprozesse das Universum wild aufgeblasen haben, bevor es zu der gemächlichen Form der Expansion kam, wie wir sie heute beobachten.

Die Inflationstheorie geht davon aus, dass am Anfang das Universum auf subatomarer Größe zusammengepresst war und eine hohe Symmetrie hatte, wie die Astronomen sagen, also einfach und regelmäßig war – ein Raum, nahezu frei von Materie, aber beherrscht von einem Energiefeld (Quantenfeld), wahrscheinlich dem sogenannten Inflaton-Feld. Dieses gilt als die treibende Kraft für die exponentielle kosmische Expansion, die weniger als eine Billionstel Sekunde nach dem hypothetischen Ausgangspunkt des Universums (dem Urknall) stattfand.

Als ein Skalarfeld ist das Inflaton-Feld viel einfacher als beispielsweise ein elektrisches Feld, denn es wird an jedem Ort im Raum durch eine einzige Zahl, seine Stärke an genau diesem Ort, beschrieben. Im Gegensatz dazu besitzt ein Vektorfeld, etwa das elektromagnetische Feld, Magnetfelder oder die Windstärke, an jeder Stelle neben einem Zahlenwert, der Feldstärke, auch noch einen Richtungswert. (Beispiele für Skalarfelder sind z. B. Temperatur und Druck. Ein konstantes Skalarfeld, z. B. konstanter Luftdruck, ähnelt einem Vakuum: Wir erkennen es nicht, selbst wenn wir davon umgeben sind.)

Das Universum befand sich im ersten Moment seiner Existenz in einem energetisch keineswegs optimalen Zustand – es hatte noch kein Gleichgewicht gefunden. Die Astrophysiker sprechen von einem „falschen Vakuum„. Durch die Änderung der Eigenschaften des Vakuums unmittelbar nach dem Urknall wurde die anfängliche Symmetrie gebrochen. Das Quantenfeld zerfiel spontan und das „echte“ Vakuum entstand (ein neuer Zustand, in dem sich unser Universum seither befindet). Dabei wurde Energie frei, die – mit den passenden Eigenschaften ausgestattet – zu der gravitativen Abstoßung führte, welche das Universum für kurze Zeit mit exponentiell wachsender Geschwindigkeit buchstäblich auseinanderfliegen ließ. Es blähte sich explosionsartig auf makroskopische Dimensionen auf.

Zwei beliebige Raumpunkte vergrößerten dabei ihren Abstand mit zunehmendem Tempo, schließlich sogar über die Lichtgeschwindigkeit hinaus. Dies ist keineswegs ein Widerspruch zur Speziellen Relativitätstheorie, der zufolge sich kein materieller Gegenstand schneller als Licht zu bewegen vermag. Denn während der Inflation expandierte der Raum selbst mit Überlichtgeschwindigkeit. Dabei verloren einst zusammenhängende Gebiete ihre Verbindung. Erst nach dem Ende der Inflation vermochte das Licht die langsamere Standard-Expansion gleichsam zu überholen und Informationen zwischen vorher separaten Gebieten zu übertragen. Wegen der beschleunigten Expansion ist das heute beobachtbare Universum immer noch nur ein winziger Ausschnitt eines sehr viel größeren Universums.

Die Inflation hat zahlreiche Merkmale des ganz frühen Universums ausgelöscht. Wir können daher nicht nachprüfen, was vorher war. Ungleichmäßigkeiten des Raumes, z. B. in der Energieverteilung und in der Verteilung von Materie wurden beseitigt („verschmiert“). Unser Universum erscheint deshalb heute glatt und gleichförmig.

Aber das Universum ist nicht perfekt homogen, da durch Quantenfluktuationen* entstandene (fluktuierende) Teilchen durch die rapide Expansion innerhalb kürzester Zeit so weit auseinander gezogen wurden, dass sie sich nicht mehr gegenseitig vernichten konnten. Dadurch wandelten sich viele virtuelle Teilchen in reale Teilchen um. Die potentielle Energie des berstenden Inflatonfelds hat sich also beim Übergang vom „falschen“ ins „echte“ Vakuum in eine Kaskade von Elementarteilchen verwandelt – die Geburt der Materie- und Energieformen, die heute das Universum erfüllen: Heiße, gewöhnliche Materie Dunkle Materie und Strahlung.

*Quantenfluktuationen treten als Folge der Heisenbergschen Unbestimmtheitsrelation im Raum (Vakuum) auf, wobei scheinbar aus dem Nichts spontan Teilchen und deren Antiteilchen erzeugt werden, die sich in Sekundenbruchteilen wieder gegenseitig vernichten.

Kleine Unregelmäßigkeiten in der Verteilung der Teilchen wurden durch die rapide Expansion enorm vergrößert. Die dichteren Bereiche wurden zu Keimen von Sternen und Galaxien. Die Teilchen, aus denen die heutigen Galaxien, Sterne und Planeten bestehen, sind also die Reste des Übergangs von einem Vakuumzustand zum anderen, der kurz nach dem Urknall die Brechung des Symmetrie veranlasste. Sollte die Theorie richtig sein, dann wären wir selbst – genauer: die Materie, aus der wir bestehen – ein Produkt des Vakuums.

Wegen der Fluktuationen gab es am Ende der Inflation in verschiedenen Raumregionen auch Temperaturunterschiede: Wo die Materie etwas dichter war, wurde es etwas wärmer. Durch die Dichteunterschiede in der Urmaterie wurde so das Temperaturmuster in der heute gemessenen Hintergrundstrahlung erzeugt. Außerdem mussten die Wellenlängen von Gravitonen, den hypothetischen Teilchen der Schwerkraft, von mikroskopischen auf makroskopische Größenordnungen ausgedehnt worden sein und dabei ein Spektrum von Gravitationswellen erzeugt haben, das bis heute die Bedingungen in jenen ersten Momenten des Urknalls widerspiegelt. Sollte man diese ursprünglichen Gravitationswellen entdecken, könnten sie uns ein direktes Signal vom physikalischen Zustand des ganz frühen Universums vermitteln.

Wie lange die rasante Inflation währte, ist von Modell zu Modell verschieden. Die jedenfalls sehr kurze Phase (wohl zwischen 10-34 und 10-36 Sekunden) endete mit dem Beginn der Expansion des Weltraums gemäß dem Kosmologischen Standardmodell, eine Phase mäßiger, sich zunächst verlangsamender Ausdehnung, in deren Verlauf sich die Materie zu den bekannten kosmischen Strukturen verdichtete.

Bedeutung der Theorie der Inflation

Das jähe, exponentielle Aufbäumen des Universums kurz nach dem Urknall ist eine überzeugende Idee und die von den meisten Kosmologen akzeptierte Theorie. Das erstmals 1981 vorgeschlagene Szenario glänzt in seinen Grundzügen durch Einfachheit und Eleganz. Man benötigt keine Effekte der Quantengravitation, keine Phasenübergänge, keine Unterkühlung, nicht einmal die Standardannahme, dass das Universum ursprünglich heiß war. Die Inflation ist kein exotisches Phänomen, sondern vielmehr ein allgemeines Phänomen, das ganz zwanglos in einem weiten Bereich teilchenphysikalischer Theorien auftritt. (In der Stringtheorie und anderen „Großen Vereinigungstheorien“ der Naturkräfte treten Skalarfelder zu Hunderten auf.) Im chaotischen Urzustand des Kosmos gab es gewiss ein Raumgebiet, wo eines dieser Felder die Bedingungen für die Inflation erfüllte.

Die Theorie der Inflation vermag eine Vielzahl von Beobachtungen präzise zu erklären, die sonst unlösbare Probleme aufwerfen, und erklärt einige Aspekte des Standardmodells, die ansonsten als Anfangsbedingungen hingenommen werden müssten.

  • So erklärt die Theorie die so gleichmäßige Ausdehnung (Expansion), wie sie sich heute noch messen lässt.
  • Die riesige Menge an Materie im Universum (rund 1090 Atome) liegt genau in derselben Größenordnung wie die Volumenzunahme in der Inflation, was zur Erklärung der Teilchenzahl eine Rolle spielen könnte.
  • Exotische Relikte (z. B. magnetische Monopole, eindimensionale Strings, usw.) würden nach der Theorie „weginflationiert“. Sie tauchen in manchen Fundamentalphysik-Theorien auf, werden aber tatsächlich nicht beobachtet.
  • Die Inflation erklärt die extreme großräumige Gleichförmigkeit des beobachtbaren Universums (überall und in allen Richtungen) und seine „flache“ Geometrie, welche als zufällige Anfangsbedingung extrem unwahrscheinlich ist, aber notwendig, um die beobachtete Entwicklung des Universums zu erklären.
  • Die winzigen Temperaturunterschiede in der kosmischen Hintergrundstrahlung haben genau die Stärke und räumliche Verteilung, die die Inflationstheorie voraussagt.
  • Amplitude und Form der großräumigen Materiefluktuationen stimmen einigermaßen mit dem erwarteten Vergrößerungseffekt überein, den die Inflation auf das Quantenvakuum ausgeübt haben sollte.

Das Inflationsmodell hat inzwischen so viele Tests und indirekte Überprüfungen bestanden, dass es alle konkurrierenden Hypothesen aus dem Feld geschlagen hat. In allen Fällen widerspricht die Inflation auch nicht dem Satz von der Energieerhaltung. Wegen ihrer großen Erklärungskraft gilt die Theorie fast schon als „Erweiterung“ der Standardtheorie vom sehr frühen Universum.

Der Hauptunterschied zwischen der inflationären Theorie und der alten Kosmologie wird deutlich, wenn man die Größe des Universums am Ende der Inflationsphase berechnet. Die Zahlen hängen zwar von den verwendeten Modellen ab, doch liefern die meisten einen Wert, der höher ist als der Radius des beobachtbaren Universums. Der Kosmos muss demnach viel gigantischer sein, als bislang gedacht – und das beobachtbare Universum nur ein winziger Ausschnitt davon.

Inzwischen gibt es Hunderte konkurrierender Modelle mit verschiedenen Versionen der Inflation, die zu höchst unterschiedlichen Universen führen. Direkt aus der Quantenphysik einer beschleunigten Expansion führt die Möglichkeit, dass die Inflation ewig andauert und nur lokal aufhört (in einem neuen Urknall). „Die Inflation ist dann in gewisser Weise nicht ein Teil des Urknalls, wie früher gedacht, sondern der Urknall ist ein Teil des Szenarios der kosmischen Inflation. “ (Andrei Linde) Anders ausgedrückt: Die Inflation wäre also nicht die Folge des Urknalls, sondern seine Ursache. Und es müssten unzählige weitere Universen „neben“ unserem existieren, die jeweils mit ihrem eigenen Urknall begonnen haben und in denen völlig andere, ja beliebig andere Verhältnisse – je nach Stärke des Inflatons – herrschen könnten.

In einem solchen langsam expandierenden Blasen-Universum entsteht dort, wo die Inflation lokal aufhört – gewissermaßen durch einen neuen Urknall – eine neue Blase, sprich ein neues Universum. Somit bilden sich unzählige, voneinander getrennte Tochter-Universen und vergehen wieder, während sich die kosmische Inflation „global“ in alle Ewigkeit fortsetzt. Auch unser beobachtbares Universum wäre dann nur eine Blase neben vielen anderen in diesem Multiversum. Sein Urknall würde sich demnach auf ein lokales Ereignis vor etwa 13,82 Milliarden Jahren reduzieren, als aus einem anderen Universum (Eltern-Universum) unser Universum geboren wurde.

Einwände

Die Vielfalt der Inflations-Modelle erscheint verwirrend, und kein Modell hat bislang breite Anerkennung gefunden. Nach Berechnungen einiger Theoretiker wäre ein flaches Universum – als Ergebnis einer Periode beschleunigter Expansion – erst einmal sehr unwahrscheinlich. Daher berufen sich einige Forscher auf das Anthropische Prinzip, dass nämlich unser Universum so geschaffen sein muss, dass – oder sogar: damit – Beobachter existieren können, um es zu beobachten. Unsere Weltraum-Insel sei also zwar sehr untypisch, biete aber die Voraussetzungen für die Entstehung von Leben und Intelligenz. (Die meisten Blasen-Universen hätten vermutlich keine Sterne und Planeten. Aber wenn alles Mögliche realisiert werden kann, brauchten wir uns nicht zu wundern, dass wir in einem lebensfreundlichen Universum leben.)

Trotz der immer stärker werdenden Argumente für die Inflation mehren sich auch die Einwände. Die kosmologischen Daten haben zwar die wichtigsten Aussagen der Inflations-Theorie verifiziert, sie bestätigen aber nur die Vorhersagen, denen zufolge die Inflation zu einem Ergebnis führt, das den Gesetzen der klassischen Physik gehorcht. Die Elementarteilchentheorie, auf der die inflationären Theorien beruhen, ist aber selbst noch nicht frei von Unsicherheiten. Die physikalische Unterfütterung der Inflationsmodelle lässt also einiges zu wünschen übrig. Zwar beruhen die Modelle zum großen Teil auf bekannten physikalischen Gesetzmäßigkeiten, weiten deren Gültigkeit jedoch in Richtung noch unerforschter, extrem hoher Energien aus.

Es gibt keine Möglichkeit, die tatsächlichen Randbedingungen für die Inflation aus ersten Prinzipien zu errechnen. Die Überlegungen dazu beruhen allesamt auf groben Vereinfachungen und umstrittenen Abschätzungen. Wir wissen also nicht einmal, welche Quantenfelder an der Inflation beteiligt waren, oder was das Inflaton eigentlich ist, woher seine gewaltige potenzielle Energie kommt und welche Prozesse bei den enorm hohen Energien ablaufen. Die inflationäre Energie ist eine reine Hypothese, für die es kein direktes Indiz gibt.

Nach wie vor müssen bestimmte Bedingungen präzise erfüllt sein. So muss der kleine Bereich, aus dem das Universum entstanden ist, wirklich homogen sein. Sonst müssten sich bestimmte Inhomogenitäten während der jähen Expansion vergrößert haben und wir hätten heute ein stärker strukturiertes, anisotropes (in verschiedenen Richtungen unterschiedliches) und mit Rotation versehenes Universum, was de facto nicht der Fall ist. Der Inflationsprozess muss außerdem gerade lang genug sein und mit genau der richtigen Rate abgelaufen sein, um ein Universum zu bilden, in dem Sterne und Galaxien entstehen können. Ein kürzerer, weniger intensiver Inflationsschub würde das frühe Universum in einem zu chaotischen Zustand hinterlassen, womit es in Gefahr schweben würde, rasch wieder zurück zu kollabieren; ein längerer, intensiverer Inflationsschub hätte den Inhalt des frühen Universums so sehr verdünnt, dass sich nie Sterne oder Galaxien hätten bilden können. Dieses „Feinabstimmungsproblem“ wird im Allgemeinen als die größte Schwierigkeit der Inflation angesehen.

Die Inflationstheorie gilt daher weiterhin als keineswegs gesichertes Wissen. Sie ist keine präzise Theorie, sondern eher ein Szenario, eine pure Annahme, in der viele Details bis heute rätselhaft sind. Neue Messungen der kosmischen Hintergrundstrahlung wecken zudem Zweifel am gängigen Inflationsmodell. (Allerdings gibt es auch einige Modelle, die solche Merkmale voraussagen.) Was fehlt, ist ein direkter Nachweis, dass die Inflation tatsächlich stattfand, sowie Aufschluss über die ihr zu Grunde liegende Physik. Die Entdeckung ursprünglicher Gravitationswellen wäre hier eine große Hilfe. Diese wurden aber bisher noch nicht beobachtet.

Alternativen zum Inflationsmodell

Alles ist also noch sehr spekulativ und unvollständig. Man weiß immer noch nicht genau, wann und wie die Inflation begann, wie lange sie gedauert und warum sie aufgehört hat. Angesichts der Probleme fragen sich manche Forscher ernsthaft, ob eine Inflation überhaupt je stattgefunden hat und das Universum seinen gegenwärtigen Zustand nicht auch ohne Inflation erreichen konnte. So hat die Inflationstheorie – trotz des großen Erfolgs ihrer Szenarien – inzwischen Konkurrenz von neuen, anderen Theorien und kosmologischen Modellen bekommen, die ohne Annahme wie Dunkle Materie, Dunkle Energie und Inflation auskommen. Vor dem Hintergrund der Stringtheorie wurden bereits einige Alternativen entwickelt.

Stephen Hawking hatte schon 2008 erwogen, dass der Urknall womöglich nicht der absolute Anfang von allem, sondern nur der Übergang von einem früheren Universum gewesen sein könnte. Statt des vermeintlichen Urknalls habe ein Urprall (engl.: Big Bounce) stattgefunden, mit dem vor etwa 13,82 Milliarden Jahren eine noch frühere kosmologische Periode in die gegenwärtige Expansionsphase überging – als Teil eines ewigen Zyklus von Erschaffung und Vernichtung. Dabei kann eine vorausgehende, Milliarde Jahre währende, langsame Kontraktionsphase wie eine plötzliche Explosion wirken und für ein glattes und flaches Universum sorgen: Die Materie hätte dann schon lange vor Beginn der Expansion viel Zeit gehabt, sich gleichförmig zu arrangieren. Die Kontraktion vor dem Urknall kann somit das leisten, wozu die Inflation ursprünglich erfunden wurde. Die Annahme eines bislang unbekannten Inflatonfeldes wäre nicht nötig, um die Inflation anzutreiben.

Arbeiten von Steinhardt, Turok und anderen beschrieben 2017 erstmals im Rahmen der Schleifen-Quantenkosmologie im Detail, wie das Universum von der Kontraktion zur Expansion übergehen konnte, und konstruierten so eine vollständige Urprallkosmologie. Nach dieser sogenannten Zyklischen Theorie geht die Expansion nach rund einer Billion Jahren in eine Kontraktion über. Und diese führt dann über einen neuen Rückprall wieder zur Expansion, die mit der Erzeugung von Materie und Strahlung einhergeht.

Die Inflation geht in diesem Modell ganz natürlich aus der atomaren Beschaffenheit der Raumzeit hervor. Die Beschleunigung tritt automatisch auf. Entscheidend ist, dass die Glättung des Universums vor dem Urknall stattfindet – während der Kontraktionsphase. Alle Ausreißergebiete schaffen sich quasi selbst ab und bleiben daher vernachlässigbar klein. Zwar ist die Zyklische Theorie relativ neu und mag ihre eigenen Probleme haben, doch sie zeigt, dass Alternativen, denen nicht der unkontrollierbare Makel der ewigen Inflation anhaftet, denkbar sind.

Urpralltheorien bedeuten eine dramatische Abkehr vom Paradigma der Inflation. Derzeit spricht kein Indiz gegen sie. Zugleich haben sie gegenüber der Inflation einen wichtigen Vorteil: Wenn die Kontraktionsphase beginnt, ist das Universum bereits groß und klassisch – d. h. es gehorcht der Allgemeinen Relativitätstheorie -, und der Urprall tritt ein, bevor es so sehr schrumpft, dass Quanteneffekte wichtig werden.

[Eine andere, vielversprechende und gleichzeitig die provokanteste Alternative zum Inflationsmodell ist die Theorie der veränderlichen Lichtgeschwindigkeit oder VSL-Theorie (varying-speed-of-light theory). Sie geht davon aus, dass die vermeintliche Konstante der Lichtgeschwindigkeit in einem Urknall-Universum tatsächlich mit der Zeit variieren kann – so wie es bei Dichte und Temperatur der Fall ist. Nach der Inflationstheorie wurde im frühen Universum durch die schnelle Expansion des Raumes die Reichweite des Lichtes ungeheuer groß, scheinbar unabhängige Regionen standen dadurch miteinander in Verbindung und erreichten eine gemeinsame Temperatur und Dichte. Erst nach Ende der inflationären Phase verloren diese Regionen den Kontakt. Wie leicht einzusehen ist, könnte dasselbe ebensogut durch eine im frühen Universum erhöhte Lichtgeschwindigkeit erreicht worden sein. Die VSL-Theorie ist aber noch wenig weit entwickelt und momentan reine Spekulation.]

Fazit

Die Inflationstheorie wird heute in gleichem Maße wie die Elementarteilchenphysik modifiziert und weiterentwickelt. Das Universum vor der Inflation – und der Ursprung der Naturgesetze selbst – wird sich aber wohl erst mit Hilfe einer allumfassenden, fundamentalen physikalischen Theorie verstehen lassen. Wir benötigen eine Quantentheorie der Gravitation, wie z. B. die Stringtheorie oder die Schleifen-Quantentheorie, die allerdings beide gegenwärtig nicht gesichert bzw. experimentell bestätigt sind.

REM