Hervorgehoben

Unser Mesokosmos

Unser Gehirn hat nur einen indirekten Zugang zur Welt. Von dem, was „da draußen“ (in der Außenwelt) vorgeht, bekommt es nur etwas mit, wenn es entsprechende Signale erhält, die von unseren Sinnesorganen aufgenommen werden können. Diese sind unsere „Fenster zur Außenwelt“, durch die das Gehirn mit Informationen über unsere Umwelt versorgt wird.

Die Leistungen unserer Sinnesorgane sind das Resultat der Evolution. Sie haben sich in unserer Stammesgeschichte in Anpassung an unsere unmittelbare Umwelt zum Zwecke der Orientierung entwickelt. Ihre Strukturen passen heute auf die Strukturen der Wirklichkeit um uns herum aus demselben Grund, aus dem die Flügel eines Vogels zur Luft oder der Fuß eines Kamels auf den Wüstensand passt. In einer Welt, in der es beispielsweise gar keine elektromagnetische Strahlung im sichtbaren Licht gäbe, hätten sich auch dafür keine Augen entwickelt. Wozu hätten sie dienen sollen? Die Evolution steckt aber keine Energie in nicht unbedingt nötige Strukturen.

Auch die Reichweite unserer körperlichen Sinne ist auf das unbedingt notwendige Maß beschränkt, ihr Empfindungsbereich ist eng begrenzt. Unsere Sinne erfassen vor allem nur jenen Teil der Realität, der für die Orientierung und das Überleben in der Umwelt unserer stammesgeschichtlichen Vorfahren besonders wichtig war. Andere Dinge fallen in unserer Wahrnehmung aus der für uns objektiven Wirklichkeit normalerweise heraus.

Daher ist unsere Wahrnehmung günstigenfalls nichts anderes als ein abstrahiertes Abbild der Umwelt. Die Evolutionäre Erkenntnistheorie bezeichnet jenen Ausschnitt der Welt, den unser Organismus ohne künstliche Hilfsmittel erkennend, also rekonstruierend und identifizierend bewältigt, als kognitive Nische oder Mesokosmos. Diese mesokosmischen Strukturen sind demnach solche, die wir als anschaulich bezeichnen.

Der Mesokosmos des Menschen entspricht einer Welt der mittleren Dimensionen. Er reicht von Millimetern bis zu Kilometern, vom subjektiven Zeitquant (eine sechzehntel Sekunde) bis zu Jahren, von Gramm bis Tonnen, von Stillstand bis etwa Sprintgeschwindigkeit, von gleichförmiger Bewegung bis zu Erd- und Sprintbeschleunigung, vom Gefrierpunkt bis zum Siedepunkt des Wassers, usw. Er schließt Licht ein, Röntgen- oder Radiostrahlung dagegen aus. Elektrische und magnetische Felder gehören nicht zu der kognitiven Nische des Menschen (allerdings mancher Tiere). Im Hinblick auf Komplexität reicht der Mesokosmos von Komplexität null (isolierte Systeme; gleichförmige Zusammensetzung) bis zu bescheidener Komplexität (lineare Zusammenhänge).

Aus dem breiten Spektrum elektromagnetischer Wellen, das von Gammastrahlung auf der kurzwelligen Seite bis zu Infrarotstrahlen auf der langwelligen Seite reicht, kann unser Auge nur einen verschwindend kleinen Ausschnitt verarbeiten: Wellenlängen zwischen 380 und 760 Nanometern (1 nm = ein Milliardstel Millimeter). Von den mechanischen Schwingungen in Gasen (z. B. Luft), Flüssigkeiten (z. B. Wasser) oder festen Körpern (z. B. Knochen) kann unser Ohr nur Frequenzen zwischen 16 und 20 000 Hertz (Schwingungen pro Sekunde) registrieren, die wir dann als Töne oder Geräusche hören.

Die reale Welt umfasst also weit mehr Strukturen, als wir mesokosmisch bewältigen – einfach ausgedrückt, vor allem die besonders kleinen (Mikrowelt), die besonders großen (Makrowelt) und die besonders komplizierten (komplexen) Systeme. Diese sind für uns nicht unmittelbar zugänglich. Sie wahrzunehmen hätte für unsere Vorfahren einfach auch keinerlei Selektionsvorteile gebracht.

Erschließung der Welt

Im Laufe der Evolution aber hat sich die Fähigkeit zur Erschließung der nicht sinnlich erfahrbaren Welt offenbar als nützlich erwiesen. Die Erkenntnisstrukturen des Gehirns befähigten den Menschen, den eigenen Körper, Raum und Zeit zu überwinden.

Schon die Herstellung eines zweckmäßigen Steinwerkzeugs ist ohne eine Ahnung des künftigen Gebrauchs kaum denkbar. Als die Menschen es im Laufe der Evolution verstanden, ihr Wissen systematisch weiterzugeben und auszutauschen, konnten sie ihr technologisches Know-how hochtreiben. So verfügten sie bald über eine Reihe von Technologien, mit deren Hilfe sie nicht nur die für sie nutzbare Umwelt erweiterten, sondern auch ihre körperlichen Grenzen sozusagen verschoben: Fertigkeiten von der Werkzeugherstellung über das Kochen bis zum Bau von Behausungen.

Zu einem wichtigen Hilfsmittel zur Erschließung der Welt wurde die menschliche Sprache. Mit ihrer Hilfe können wir Erwartungen und Vermutungen aussprechen, Fragen und Zweifel äußern. Sie erlaubt uns, Sachverhalte zu entwerfen und Dinge zu beschreiben, die wir uns nicht mehr anschaulich vorstellen können (z. B. vierdimensionale Welten oder nicht-kausale Ereignisfolgen), sogar solche, die überhaupt nicht existieren können (wie z. B. „fliegende Teppiche“). Und mit ihr sind wir in der Lage, abstrakte Zusammenhänge zu erkennen.

Der Mensch strebte nach zuverlässigem Wissen über die Natur und die Welt, unabhängig von Phantasie und Spekulation. Dazu entwickelte er die Wissenschaft. Dabei war sein ursprüngliches Ziel, die göttlichen Prinzipien in der Welt zu entdecken. Er begann, seine Umwelt systematisch zu beobachten. Aus einer oder mehreren Einzelbeobachtungen schloss er auf das Allgemeine: Die Sonne geht auf und die Sonne geht unter, also wird die Sonne auch in Zukunft auf- und untergehen – ein Induktionsschluss. Später tritt zur Induktion, also der Erkenntnisgewinnung durch Beobachtung, das Experiment: Lernen durch Versuch und Irrtum. Die Wissenschaft akzeptierte nur noch das, was durch Experiment oder Beobachtung, also empirisch, überprüft war.

Nach der „Kopernikanischen Wende“ stimmte das, was die Wissenschaft erkannt hatte, zum ersten Mal nicht mehr mit dem Augenschein überein. Als Geburt der modernen Wissenschaft in Europa gilt der Beginn des 17. Jahrhunderts. Zu ihren Gründungsvätern gehörte der Italiener Galileo Galilei. Seither sind die Wissenschaftler bei der Erforschung der Wirklichkeit immer mehr auf Abstand zum sinnlichen Erleben gegangen und konzentrierten sich auf das technisch messbare.

Überwindung des Mesokosmos

Eine unverzichtbare Brücke zwischen den experimentellen Messungen und Beobachtungen auf der einen Seite und dem Auffinden von Naturgesetzen und Grundprinzipien auf der anderen ist eine Theorie. Sie ist dann eine gute Theorie, wenn sie zu einem Modell führt, das sich an nachprüfbaren Fakten orientiert und eine Fülle von Beobachtungen widerspruchsfrei beschreiben kann. Außerdem muss es imstande sein, die Ergebnisse zukünftiger Beobachtungen vorherzusagen. Wenn die Voraussage sich bestätigt, ist das ein Test für den Wirklichkeitsgehalt des Modells.

Die Ebene der Modelle ist der Bereich, der heute die wissenschaftliche und technische Innovation immer schneller – und immer weniger kontrollierbar – vorantreibt. Modelle sind aber immer Vereinfachungen. Sie sollen die größte Vielfalt an komplexen Phänomenen mit der einfachsten Menge an Konzepten erfassen, die für das menschliche Gehirn verständlich sind. Ob sie die Realität treffen, ist eine abstrakte Frage.

Über Gedankenexperimente müssen sich die Wissenschaftler oft erst mal einen Weg bahnen, wie etwas ungefähr vorstellbar ist. Selbst wenn Versuche im Geist oft mehrere Interpretationen zulassen, werfen sie ein neues Licht auf althergebrachte Ansichten und erzeugen fruchtbare Diskussionen. Mit dieser Methode lassen sich gedanklich auch Annahmen überprüfen, die experimentell nicht erforscht werden können, und Theorien hinterfragen.

Die menschliche Sprache taugt für die physikalische Wirklichkeit nur begrenzt. Sie hat sich an den Gegenständen unserer alltäglichen Erfahrung entwickelt und hält, beispielsweise für die Befunde der subatomaren Realität, keine Begriffe mehr bereit. Auf der Wirklichkeitsebene des Atoms lassen sich die Befunde und Entdeckungen endgültig nur noch in der Sprache der Mathematik ausdrücken.

Bedeutung der Mathematik

Die Mathematik erwies sich als ein wirkungsvolles Instrument, um die Umwelt, die Natur, besser verstehen und beschreiben zu können. Sie gehörte von Anfang an zur menschlichen Kultur. Die Basis aller Mathematik ist der angeborene Zahlensinn: Mengen von bis zu vier Gegenständen werden auf einen Blick erfasst. Größere Mengen können wir zunächst nur näherungsweise schätzen. Dieser angeborene Schätzsinn erlaubt keine Genauigkeit, war aber wohl in der Evolution von Nutzen. Wahrscheinlich schaffte die Fähigkeit, Mengen zu erfassen, Vorteile im Überlebenskampf.

Stanislas Dehaene nimmt an, dass unser angeborener Zahlensinn logarithmisch funktioniert – wie auch unser Gehör, das Lautstärken nach logarithmischen Dezibel wahrnimmt. Die Zahlenreihe sei erst durch kulturelle Einflüsse zur Gerade gestreckt worden. Darauf deutet hin, dass z. B. einzelne archaisch lebende Völker, wie die Mundurucu- Indianer vom Amazonas, Zahlen nicht linear, sondern logarithmisch ordnen – wie das auch europäische Kindergartenkinder tun.

Auf dem evolutionär alten Schätzsystem basiert unser exaktes Rechenvermögen, wozu aber erst die Fähigkeit, Symbole zu schaffen, beitrug. Auf den Zahlsymbolen, die noch vor den Schriftzeichen erfunden wurden, baut das Denksystem der Mathematik auf.

Die Wissenschaftler benutzen die Mathematik als Formelsprache in ihren Modell-vorstellungen. Weil unser Anschauungsvermögen nur mesokosmischen Strukturen gerecht wird, ist eine Naturwissenschaft, die sich nicht mit Beschreibungen zufrieden gibt, sondern Erklärungen sucht, auf die Verwendung mathematischer (und damit oft unanschaulicher) Strukturen unabdingbar angewiesen. Eine Theorie muss daher in aller Regel zunächst in mathematischen Gleichungen ausgedrückt werden, erst dann ist sie durch Beobachtungen überprüfbar.

Mathematik kann die verschiedensten Dinge und Ereignisse in der Realität modellieren, d. h. durch Gleichungen beschreiben. Sie liefert aber keine direkte Erkenntnis über die Welt, sondern stellt in vielfältige Weise nur Strukturen zur Verfügung, die wir auf ihre Anwendbarkeit bei der Beschreibung der Natur prüfen können. Ihre Gleichungen formulieren exakt oder sogar quantitativ, was wir uns vage und qualitativ immer schon vorgestellt haben, erfassen aber auch Strukturen, die uns anders überhaupt nicht zugänglich sind, darunter auch sehr komplizierte und komplexe Systeme.

So vermögen wir mit Hilfe der Mathematik zu einer tieferen Ebene des Verständnisses der Welt vorzudringen und zu weiterführenden Schlussfolgerungen über sie zu gelangen. Auf Grund seiner mathematischen und technologischen Fähigkeiten schuf der Mensch technische Hilfsmittel, mit denen es ihm gelang, die Grenzen des Mesokosmos zu überwinden. Zunächst waren das Teleskope und Mikroskope. Er schuf Ultraschallgeräte und Tomographen, er erzeugte Laser und entwarf unter Zuhilfenahme eines Rechners komplizierte logische Konstruktionen. Bald wird der erste Quantencomputer anwendungsbereit sein. Die Vielfalt der Anwendungen, der Inspirationen und der Methoden ist unermesslich.

Die mathematischen Strukturen wie Zahlen, Vektoren, Gleichungen und geometrische Objekte beschreiben die Welt erstaunlich wahrheitsgetreu. Über den Zusammenhang zwischen Mathematik und Natur gibt es zwei diametral entgegengesetzte Meinungen, die bis auf die antiken Philosophen Platon und Aristoteles zurückgehen. Nach Aristoteles ist die physikalische Realität grundlegend und die mathematische Sprache nur eine nützliche Annäherung. Platon zufolge ist die mathematische Struktur das eigentlich Reale, das von Betrachtern nur unvollkommen wahrgenommen wird. Kinder, die noch nie von Mathematik gehärt haben, sind spontane Aristoteliker. Die platonische Sicht wird erst allmählich erworben.

Theoretische Physiker neigen heute mehrheitlich zum Platonismus. Sie vermuten, dass die Mathematik das Universum so gut beschreibt, weil es an sich mathematisch ist. Schon Galilei schrieb: „Das Buch der Natur ist in der Sprache der Mathematik geschrieben.“ Algebraische und geometrische Systeme sind nicht nur nützliche Instrumente und Erfindungen, sie existieren auch außerhalb von Raum und Zeit, meinen heute die meisten Wissenschaftler. Mathematische Strukturen werden demnach nicht erfunden, sondern entdeckt. Sie sind im ganzen Universum wahr.

Die Welt um uns herum lässt sich mit den seltsamen Symbolen und Zeichen der Mathematik beschreiben und erklären. „Verstehen“ können wir sie trotzdem nicht, denn das, was die Formeln ausdrücken, entzieht sich unserer Vorstellungskraft – es liegt außerhalb unseres Mesokosmos. Viele der tiefgründigsten Errungenschaften des 20. Jahrhunderts – Relativitätstheorie, Quantenmechanik, Kurt Gödels Unvollständigkeitssatz, Chaos-Theorie – ziehen dem begreifenden Geist bestimmte Schranken. Quantenfelder, Strings, Wurmlöcher, Urknall oder die Topologie des Universums lassen sich nur über den schmalen Grat der höheren Mathematik erreichen.

Die Physik muss zusätzlich zu den mathematischen Beschreibungen die Wirklichkeit erklären: mit theoretischen Modellen. Sie haben aber keinen absoluten Wahrheitsanspruch. Sie müssen immer wieder kritisch hinterfragt werden und im Licht neuer Indizien und Entdeckungen gegebenfalls modifiziert oder sogar ersetzt werden. Daher nähern sich unsere Theorien und Vorstellungen der Wirklichkeit nur an und sind lediglich begrenzt gültig. Man weiß keineswegs, ob der Raum wirklich gekrümmt ist, wie das die Allgemeine Relativitätstheorie behauptet. Aber bis heute ist keine physikalische Sicht der Welt bekannt, die überzeugender wäre als diejenige, sich den Raum „gekrümmt“ vorzustellen.

Das Realismusproblem ist ein Dauerthema der Philosophie und Wissenschaftstheorie. „Wir können nicht fragen, was die Wirklichkeit ist, denn wir haben keine modellunabhängigen Überprüfungen von dem, was real ist“, schrieb Stephen Hawking. „Ich stimme nicht mit Platon überein, nach dem die Naturgesetze unabhängig von uns existieren.“

Der theoretische Elementarteilchenphysiker Henning Genz setzt der These, dass das Universum mathematisch und Gott ein Mathematiker sei, die These entgegen, dass im Universum Prinzipien regieren, die ohne Mathematik formuliert und verstanden werden können. „Man kann geradezu sagen, dass fundamentale Fortschritte der Physik mit der Ablösung mathematischer Prinzipien durch nichtmathematische einhergehen.“ (Henning Genz: „Gedankenexperimente“; S.177) Die Mathematik sei praktisch gezwungen, ihre selbst auferlegten Grenzen zu verlassen, um zu immer komplexeren und reicheren Systemen vorzustoßen.

Es führt kein Weg daran vorbei, dass wir die reale Welt von ihrer mathematischen Beschreibung unterscheiden müssen. Daher werden wir sie nie mit vollkommener Genauigkeit erfassen, also nie endgültig erklären können. „Dort reicht das Auge nicht hin, die Sprache nicht, nicht der Geist.“ (Upanischaden)

REM

Unser Gedächtnis

Der römische Philosoph Cicero schrieb: „Das Gedächtnis ist der Schatzmeister und Hüter aller Dinge.“ Es ist tatsächlich alles, was unser Leben ausmacht; es dient uns durch den außergewöhnlichen Einfluss von Erfahrung und Lernen zur Gegenwartsbewältigung, verleiht uns eine individuelle Persönlichkeit und macht uns zu kulturellen Wesen.

Es spricht manches dafür, dass sich Gedächtnissysteme in der Evolution in gewissem Maße nacheinander entwickelt haben. Denkbar und auch aus der Tierbeobachtung ableitbar ist, dass als erstes das Vermögen aufkam, früher Wahrgenommenes wieder zu erkennen. Geruchs- und evt. auch Geschmackseindrücke mögen dabei zu den ersten Eindrücken gehört haben, die sich abzuspeichern lohnten. Die so entstandene Annäherungs-Vermeidungs-Funktion war überlebenswichtig und wurde im Laufe der Evolution auf die Gefühle verlagert, wobei sich die Verknüpfung von Gefühlen zum Gedächtnis in all seinen Varianten entwickelte. Während zunächst also der Duft selbst Botschaften enthielt, löst er bei höheren Tieren und beim Menschen Emotionen aus, die verhaltenssteuernd wirken können. Heute noch ist das limbische System, ein alter Gehirnkomplex (zu dem auch Amygdala und Hippocampus gehören), noch immer auch u. a. für die Bewertung von Gerüchen verantwortlich.

Gedächtnisbildung

Gedächtnisbildung ist ein komplexer Prozess im Gehirn, an dem außer dem limbischen System auch verschiedene Regionen der Großhirnrinde (Kortex) beteiligt sind. Auf der zeitlichen Ebene kann man folgende Schritte unterscheiden:

  1. Informationsaufnahme 2. Einspeicherung 3. Konsolidierung 4. Ablagerung 5. Abruf

Informationsaufnahme

Informationen aus der Umwelt werden von den Sinnesorganen aufgenommen und dort schon mehr oder weniger unbewusst vorverarbeitet. Anschließend gelangen sie (über Thalamus und Hippocampus) zur weiteren Verarbeitung in die sensorischen Zentren der Gehirnrinde. Hier wirken sämtliche Sinnesreize für ungefähr eine Viertelsekunde nach, wodurch es ermöglicht wird, dass die je nach Sinnesorgan unterschiedlich schnell ankommenden Signale zeitlich angeglichen werden können. Dieses sensorische Gedächtnis kann enorm viele Reize speichern, allerdings gehen sie auch schnell wieder verloren. Sie werden durch nachfolgende Reize meist überschrieben, damit sie sich nicht gegenseitig stören.

Der Input in allen sensorischen Kortexen fließt wieder zum Hippocampus zurück. Auf diesem Weg wird die Information mit bereits gespeicherten Informationen verknüpft und eine Bedeutungsanalyse vorgenommen. Dazu prüft das Emotionszentrum des Gehirns, die Amygdala, die einlaufenden, noch unbewussten Eindrücke, ob sie emotionsauslösende Reize enthalten, und gibt den Erinnerungen eine emotionale Färbung. In den Basalganglien, die unterhalb der Großhirnrinde liegen, wird überprüft, ob die eingegangene Information vor dem Hintergrund vorheriger Erfahrung hinreichend neu oder hinreichend wichtig bzw. auffällig ist. Das Ergebnis melden die Basalganglien an den Hippocampus zurück. Sind die Sinnesdaten alt und unwichtig, werden sie nicht weiterverarbeitet und gelangen dann auch nicht in unser Bewusstsein. Sind sie wichtig, aber hinlänglich bekannt, werden Verarbeitungsautomatismen aufgerufen, die wir nicht oder höchstens intuitiv erleben. Nur das, was aktuell neu und wichtig ist, nützlich oder interessant, rückt in unsere bewusste Aufmerksamkeit und gelangt ins Arbeitsgedächtnis.

Arbeitsgedächtnis

Das Arbeitsgedächtnis stellt den eigentlichen Eingang in das Gedächtnis dar und ist zuständig für die kurzfristige Verarbeitung von Sinnesinformationen. Es fokussiert die Aufmerksamkeit und ist so gut wie an allen kognitiven Prozessen beteiligt. Für Sekunden, aber auch für mehrere Stunden kann das Arbeitsgedächtnis Erinnerungen speichern. So arbeitet es im Hintergrund, während wir lesen, kopfrechnen oder ein Gespräch führen. Es sorgt für eine möglichst sinnvolle Verbindung aktuell abgerufener Gedächtnisinhalte und ermöglicht einen Vergleich mit Vorerfahrungen, wenn wir einen Gedanken verfolgen. Dabei blendet es unwichtige Details aus und schirmt die Inhalte gegen unerwünschte störende Einflüsse ab.

Insgesamt wird nur ein Bruchteil der ursprünglichen Informationsmenge in diesem Kurzzeitspeicher festgehalten. In der begrenzten Verarbeitungs- und Speicherkapazität liegt ein wesentliches Merkmal des Arbeitsgedächtnisses. Sie ist u. a. der Grund, warum es so schwierig ist, länger als wenige Minuten komplizierte Inhalte zu verfolgen. Kaum ein Mensch kann einem Vortrag über einen neuen und komplizierten Lerninhalt für mehr als ein paar Minuten konzentriert zuhören. Dann muss das Arbeitsgedächtnis Gelegenheit erhalten, „Atem zu holen“, währenddessen das Gehörte (oder Gelesene) vorläufig zusammengebunden und ins Zwischengedächtnis transportiert wird. Anderenfalls „schiebt“ neue Information die alte aus dem Arbeitsgedächtnis hinaus.

Es handelt sich beim Arbeitsgedächtnis um eine äußerst labile Form der Fixierung bzw. Speicherung von Gedächtnisinhalten. Sobald dieses die Inhalte (Informationen) nicht mehr aktiv bearbeitet oder wiederholt, verblassen die Inhalte. Der eigentliche „Zweck“ des Arbeitsgedächtnisses liegt also nicht in der Speicherung der Informationen, sondern in deren Verarbeitung. Daher der Name. Das Arbeitsgedächtnis ist unerlässlich für viele geistige Tätigkeiten und kognitive Fähigkeiten wie z. B. Kopfrechnen, logisches Schlussfolgern, Verstehen von Sprache oder Planen von Handlungen. Mit ihm bewältigen wir unser Hier und Jetzt. Dafür ist es notwendig, kurzfristig vielerlei Informationen aufzunehmen, die wir schon bald wieder vergessen können. Schließlich brauchen wir nicht die Sachen für jeden Einkauf oder die Zimmernummer des Aufenthalts in einem Hotel lange im Gedächtnis zu behalten.

Wenn das Arbeitsgedächtnis aussetzt, stehen wir in einem Raum, ohne zu wissen, was wir dort tun wollten. Oder wir lesen einen Satz immer und immer wieder, weil wir uns beim besten Willen nicht auf den Inhalte konzentrieren können.

Die Einspeicherung im Hippocampus ist die biologische Grundlage des Arbeitsgedächtnisses. Über das „Tor zum Gedächtnis“ (Hippocampus) werden Neurone im Kortex verknüpft (gleichzeitig aktiv). Das „flüchtige Gedächtnis“ entsteht dann in Form rasch abklingender Erregungsschleifen immer wieder neu aus der koordinierten Aktivität verschiedener Hirnregionen, die zuvor an der Wahrnehmung und Repräsentation einer Information beteiligt waren. Dabei kommt den Synapsen, welche die Milliarden Nervenzellen in unserem Gehirn verbinden, eine zentrale Rolle zu: Es kommt zu einer vorübergehenden funktionellen Verstärkung der Nervenverbindungen, was eine leichte und schnellere Signalübertragung ermöglicht. „Stabile“ Kontakte werden nicht ausgebildet.

Konsolidierung (Übergang ins Langzeitgedächtnis)

Sind die Informationen langfristig wichtig genug, beginnt nach etwa 30 Sekunden bis 30 Minuten allmählich die Einspeicherung ins Langzeitgedächtnis, dessen Behaltensspanne zwischen 30 Minuten bis Jahrzehnte liegt (s. u.). Den Übergang von kurzfristigen zu dauerhaften Gedächtnisspuren, also vom Arbeitsgedächtnis ins Langzeitgedächtnis, nennen Neurowissenschaftler Konsolidierung. Diese wird gefördert durch den Grad der Aufmerksamkeit (Konzentration), emotionale Bedeutung und Neuheit.

Lernen beruht aus neurobiologischer Sicht auf der langsamen Umstrukturierung neuronaler Netzwerke, die sich über verschiedene Bereiche des Gehirns erstrecken. Je häufiger Neurone gemeinsam aktiv sind, desto fester und stabiler werden die synaptischen Verbindungen innerhalb dieses Netzwerks. Neue synaptische Strukturen ermöglichen es dem Gehirn, Informationen differenzierter zu verarbeiten. Gleichzeitig werden andere Zellen eliminiert, mutmaßlich die, welche widersprüchliche Assoziationen liefern würden. Entscheidend an der Gedächtniskonsolidierung ist die Neubildung von Nervenzellen (Neurogenese) im Hippocampus, beim Menschen sind es täglich etwa 1400. Durch körperliche Aktivität oder Leben in reizreicher Umgebung lässt sich die Neurogenese erhöhen. Vermutlich dienen die neuen Neurone dazu, flexibel neue Informationen in bestehende Kontexte zu integrieren und ähnliche Information voneinander zu unterscheiden (Feinabstimmung).

[Thetawellen, die sich drei- bis siebenmal in der Minute wiederholen, helfen beim Abspeichern von Erinnerungen, aber auch beim orchestrierten Abruf (s. u.). (Feuern einzelne Neurone unabhängig von diesem Rhythmus, wird das Gelernte schnell wieder vergessen.) Thetawellen treten im Gehirn vor allem auf, wenn wir unser assoziatives Gedächtnis bemühen. Durch die Oszillationen werden vermutlich weit entfernte Hirnzentren miteinander synchronisiert. ]

Je nach Umständen gehen uns aus der Menge der Informationen, die wir alltäglich erhalten, 60 bis 80% verloren. Nur Bruchteile der ursprünglichen Information kommen also im Langzeitgedächtnis an. Die Konsolidierung kann gestört und blockiert werden, etwa durch Drogen, Medikamente oder Stress. Dann verfliegt die Erinnerung und massive Erinnerungslücken können die Folge sein.

Zur Aufnahme und Verarbeitung der Information braucht unser Gehirn eine gewisse Zeit. Offenbar findet der eigentliche Lernprozess gerade dann statt, wenn Pausen eingelegt werden. Dann arbeiten wiederholt die Bereiche, die schon vorher (z. B. während des Übens) aktiv waren, allerdings diesmal dreimal so häufig und in 20-facher Geschwindigkeit. Für die Konsolidierung ist in der Regel der Schlaf besonders wichtig. Im Schlaf gelangen keine neuen Informationen in den Hippocampus – und Wichtiges kann ungestört in die Großhirnrinde geleitet werden, wo es abgespeichert wird. Tendenziell schwächer ausgebildete Synapsenverstärkungen vom Vortag werden oft während des Schlafes zurückgebaut. Mache Erinnerungen gehen also buchstäblich über Nacht verloren. Der wesentliche Kern der Erinnerung jedoch bleibt (auch im Hippocampus) gespeichert. So können wir auch künftig eine neue Situation blitzschnell einordnen und darauf reagieren.

Langzeitgedächtnis

Erst im Laufe von Stunden oder Tagen werden Informationen – äußerst selektiv nach der emotionalen und kognitiven Bewertung und je nach individueller Situation – in das Langzeitgedächtnis übertragen. Im Vergleich zu den ungeheuren Datenmengen, die vom Gehirn aufgenommen und bewertet werden, wird nur relativ weniges davon dauerhaft gespeichert. Nur bei einem einschneidenden, also hochemotionalen Erlebnis gelangen meist auch belanglose Begleitumstände in den Dauerspeicher. Allerdings ist die Speicherkapazität des Langzeitgedächtnisses im Vergleich zum Arbeitsgedächtnis sehr groß: Man spricht von 10 Milliarden bis 100 Billionen Bit. (Schätzungsweise durchschnittlich einen Million Dinge kann ein Mensch speichern.)

Der Hippocampus legt fest, wo in der Großhirnrinde was in welchem Kontext abgespeichert wird. Da er einen geringen Speicherplatz hat, ist er langfristig nur für biografische Erinnerungen wichtig. Ansonsten verbleiben im Hippocampus lediglich Stichworte, etwa der zeitliche Kontext. Über diese Stichworte lassen sich komplexere Informationen aus dem Kortex, der im Wesentlichen für das Langzeitgedächtnis verantwortlich ist, abrufen. Fehlt der Hippocampus oder ist er beschädigt, bleibt das Langzeitgedächtnis zwar bestehen, aber es können keine neuen Erinnerungen mehr enkodiert werden. Gerade Erlebtes bleibt dann nicht länger als fünf Minuten im Gedächtnis. Im Neokortex, der äußeren Struktur der Großhirnrinde, sind die synaptischen Verbindungen in den neuronalen Schaltkreisen (Netzwerken) im Unterschied zum Arbeitsgedächtnis langfristig gefestigt. Sie befinden sich vor allem in den Regionen, die auch am ursprünglichen Erleben beteiligt waren: in den motorischen, sensorischen und emotionalen Zentren.

Unterteilung des Langzeitgedächtnisses

Es scheint verschiedene Arten von Gedächtnisprozessen zu geben, die bezüglich ihrer Lokalisation im Gehirn, aber auch funktional unterscheidbar sind. Sie arbeiten grundsätzlich aber zusammen und ergänzen sich (im Alltag z. B. beim Autofahren oder Spielen eines Musikinstruments). Die Befunde sprechen vor allem für die funktionale Unterteilung des Langzeitgedächtnisses in ein deklaratives (oder explizites) und ein prozedurales (implizites) Gedächtnis bzw. Wissen.

Das prozedurale oder Fertigkeitengedächtnis speichert Verhaltensweisen, Gewohnheiten, automatisierte Bewegungsfolgen und unausgesprochene Regeln – also Inhalte im Sinne von „gewusst, wie“ -, die unbewusst ablaufen. Kennzeichnend sind ein langsamer Erwerb (z. B. durch Einüben) sowie eine feste und langfristige Speicherung. Die Fertigkeiten sind hochgradig automatisiert (z. B. komplexe Handlungen wie Stabhochsprung oder Gitarrenspiel).

Die Informationen werden neuronal in den motorischen und sensorischen Arealen der Großhirnrinde abgelegt. Aber auch die Basalganglien und Areale des Kleinhirns sind involviert. Beim Brachliegen einer Fertigkeit (z. B. Fahrradfahren) werden die beim Lernen gewachsenen Zellkontakte im Gehirn nicht abgebaut, sondern nur stillgelegt. So bleibt eine Fertigkeit, einmal erlernt, ein Leben lang in unserem Denkorgan gespeichert.

Im deklarativen Gedächtnis wird das Wissen, das man von der Welt hat, gespeichert. Es handelt sich also um Inhalte im Sinne von „gewusst, was„. Im engeren Sinne unterscheidet man das episodische (oder autobiografische) Gedächtnis (Ereignisse oder Erlebnisse) und das semantische Gedächtnis oder Wissenssystem (Allgemeinwissen und Fakten). Beide sind wohl eng miteinander verflochten, wobei das zweite dem ersten vielfach übergeordnet sein dürfte.

Deklarative Lernprozesse laufen extrem schnell ab. Dem Hippocampus reicht häufig schon eine einmalige Konfrontation mit einem Ereignis, um eine dauerhafte Gedächtnisspur zu bilden. Das erscheint sinnvoll, denn Erlebnisse sind einmalig und erfordern daher eine sofortige Abspeicherung. Genauso schnell jedoch werden die Inhalte häufig auch wieder vergessen.

Semantisches Gedächtnis (Wissensgedächtnis)

Im Wissensgedächtnis werden kontext- und erlebnisunabhängige Wissensinhalte im engeren Sinne (Fakten) abgespeichert. Es kommt eher ohne Emotionen aus. Seine Inhalte können leicht abgerufen werden. Die Verfestigung von Fakten dauert in der Regel Tage bis Wochen. Hat sich das System noch nicht konsolidiert, kann es leicht überlagert werden.

Faktisches Wissen wird vor allem in die Assoziationsgebiete des Kortex (linke Hirnhälfte) übertragen und dort abgespeichert.

Episodisches (autobiografisches) Gedächtnis

Das episodische Gedächtnis ist der Dreh- und Angelpunkt unseres Menschseins. Es enthält Episoden mit Ketten von Ereignissen, die Menschen in ihrem Leben erfahren haben. Das autobiografische Gedächtnis wird nach überwiegender Auffassung heute als eigenständige Form angesehen. Es enthält nur Erinnerungen an selbst Erlebtes und auch semantisches Wissen über uns selbst. Das autobiografische Gedächtnis bildet sich im Laufe der Kindheit aus und ist die Basis dafür, eine eigene Identität zu entwickeln. Der Prozess ist erst zum Ende der Adoleszenz vollständig abgeschlossen. Beim alten Menschen – mitunter auch vorher – kann dieses persönliche Gedächtnis auch wieder aussetzen. Weil das autobiografische Gedächtnis so komplex ist, lässt es sich auch am einfachsten aufs Glatteis führen (s. u.).

Gemeinsam mit Teilen des Stirnlappens ist das limbische System, vor allem der Hippocampus, für das Abspeichern autobiografischer Ereignisse verantwortlich. Diese werden vor allem in den Assoziationsgebieten der Großhirnrinde (rechte Hemisphäre) abgelegt. (Forscher vermuten, dass alles, was später im autobiografischen Gedächtnis landet, vorher auch vom Faktengedächtnis überprüft wird.)

Am heranwachsenden Menschen zeigt es sich, wie die Gedächtnisfunktionen vermutlich aufeinander aufbauen. Ein Säugling lernt zunächst, Sinneseindrücke zu unterscheiden und selektiv damit umzugehen. Erst später erwirbt er die Kontrolle über die Bewegungen (Fertigkeitsgedächtnis), z. B. Greifen, Gehen, Sprechen. Die Forscher nehmen an, dass Kinder nicht früher als mit drei bis vier Jahren ein echtes episodisches Gedächtnis aufzubauen beginnen, wenn sie einen größeren und sichereren Wortschatz erworben haben. Das Wissenssystem scheint daraus erst später hervorzugehen. (siehe auch unten!)

Abruf der Gedächtnisinhalte (Erinnerungen)

Zum einen können wir aktiv (mit einem hohen Maß an Assoziationskraft) versuchen, uns zur rechten Zeit an etwas zu erinnern. Dazu breitet sich im Gehirn eine Aktivitätswelle aus. Wird dabei das gesuchte Element erfasst, so wird es erinnert. Es kann aber auch passieren, dass uns eine Absicht, ein Ereignis oder ein Begriff ganz plötzlich wieder „in den Kopf schießt“, obwohl wir zuvor gar nicht darüber nachgedacht haben. Bei der Wiederaktivierung von Gedächtnisinhalten spielen wie bei der Einspeicherung auch unbewusste Anteile, z. B. Stimmungen, mit.

Die Chance, etwas im richtigen Moment abzurufen, hängt davon ab, wie gut wir die Erinnerungen sozusagen „etikettiert“ haben. Je mehr Bezüge ein Begriff zu anderen Begriffen besitzt, desto dauerhafter ist er gespeichert und umso wahrscheinlicher ist ein schneller Abruf. Eine episodische Erinnerung besteht grundsätzlich aus einem Inhalt sowie einem Kontext, sprich: dem Ort und der Zeit des Erlebens, sowie dem damaligen emotionalen Zustand. Sie ist in verschiedene Elemente (Seh-, Hör-, Tast-, Geruchsinformationen usw.) zerlegt, die an ganz verschiedenen Stellen gespeichert sind, aber alle zusammen machen die Spur einer Erinnerung aus. Je mehr dieser Repräsentationen vorhanden sind, umso stärker ist das Netzwerk organisiert und desto besser wird ein Inhalt erinnert. So entstehen komplexe Sequenzen von Erinnerungen, die uns helfen, Zusammenhänge zu erfassen und kommende Ereignisse vorauszusehen.

Beim Abrufen und Auftauchen der Erinnerungen wird das weit verteilte, vielgliedrige Netzwerk von Neuronen, das bei der Herstellung von Erinnerungsspuren in Anspruch genommen wurde, wieder aktiviert. Daran wirkt auch wieder der Hippocampus mit. (Er wird allerdings nicht beim Abruf von Wissen, das automatisiert ist, benötigt; hierbei synchronisieren sich die neuronalen Instrumente von selbst.) Aufgrund der vielen festen Verbindungen in den Netzwerken kommt es schon zur Aktivierung des gesamten Musters, wenn nur wenige oder ein Teil der dazugehörigen Neuronen aktiviert werden. Häufig reicht dann schon ein kleiner Hinweisreiz aus, um Erlebtes erneut abzurufen.

[Die oszillatorischen Theta-Muster, die während der Konsolidierung auftreten, wiederholen sich beim Abruf einer Information – und zwar umso deutlicher, je besser man sich erinnert. Können korrekte Assoziationen nicht mehr hergestellt werden, ist auch das ursprüngliche Theta-Muster nur schwach ausgeprägt.]

Gedächtnisprobleme

Erst wenn Kinder lernen, über Erlebtes zu sprechen, beginnen sie, dieses biografisch einzuordnen und gleichzeitig die Erinnerung daran zu festigen. Mit zunehmendem Alter verweilen die Erinnerungen immer länger im Langzeitspeicher. Allerdings reicht ein solches Gedächtnis noch nicht unbedingt für eine autobiografische Erinnerung. Daher können sich Erwachsene meist nicht mehr an Erlebnisse aus ihren ersten Lebensjahren, in denen wir unglaublich viel lernen, bewusst erinnern.

Der für das Gedächtnis besonders wichtige Hippocampus ist zunächst noch nicht genügend ausgereift. Ein Teil von ihm ist erst im Alter von vier bis fünf Jahren voll entwickelt. Außerdem ist die Ummantelung der Nervenfasern (Axone) mit einer fetthaltigen Isolierschicht (Myelinisierung), die für eine schnelle und sichere Weiterleitung der Nervenimpulse wichtig ist, noch nicht abgeschlossen.

Aber auch im Gedächtnis der Erwachsenen ist Wissen nicht sicher abgelegt wie in einem Computerspeicher, um es jederzeit wieder eins zu eins, also unverändert, abrufen zu können. Erinnern ist grundsätzlich eine Rekonstruktion früherer Erfahrungen – eine Neuzusammenstellung aus den vielen parallel aktiven Einzelnetzwerken, in denen Teilaspekte einer Erfahrung abgespeichert sind. Durch Schüsselreize werden sie beim Erinnern abgerufen und neu zusammengefügt, aber nicht immer korrekt. Manchmal vermischen sich neue Eindrücke mit alten, oder sie verfärben sich durch veränderte Gefühle, Stimmungen oder Meinungen. So kann sich der aktuelle Informationsabruf im Detail von der letzten Erinnerung unterscheiden.

Das Gedächtnis dient dem Leben, und dieses bedarf fließender Anpassungen des erworbenen Wissens an die Anforderungen des gegenwärtigen Augenblicks und der Zukunftsplanung. Daher nimmt es, was ihm nützt, und sortiert aus, was ihm überflüssig oder unangenehm erscheint. Wann immer wir eine Erinnerung aktivieren, ist sie also formbar – durch äußere Einflüsse, aber auch durch eigene Überlegungen. Schon das bloße Nachdenken über Vergangenes kann unsere Erinnerung beeinflussen. Auch wenn diese in eine sprachliche Form gegossen wird, büßt sie mit jedem Abrufen an sinnlicher Kraft ein. Es reicht schon eine einzige Unterhaltung unter Freunden, um die Erinnerung eines jeden Einzelnen zu verändern. Wenn ein Zeuge den Hergang eines Unfalls zum dritten Mal schildert und dabei einen Fehler macht, ist es sehr wahrscheinlich, dass er diesen Fehler als wahres Detail in die vierte und fünfte Schilderung einbaut.

Britische Forscher haben nachgewiesen, dass die Beschreibung eines Vorfalls umso phantastischer ausfällt, je länger das Ereignis zurückliegt. Dafür sorgt auch unsere ausgeprägte Vorliebe für Assoziationen. Diese verbinden unübersichtliche Fakten zu einem leicht begreifbaren Ganzen. Dabei lassen wir auch Vermutungen einfließen, die von der erlebten Realität abweichen. Besonders bei sekundenschnellen Szenen im Straßenverkehr können Erinnerungen leicht „verschmutzen“. Falsche Erinnerungen können aber auch durch starke Emotionen, Schlafmangel oder z. B. den Konsum von Cannabis entstehen.

Durch Suggestion ist unser Gedächtnis auch gezielt manipulierbar, wobei in der Regel dabei Sprache (Suggestivfragen) als vermittelndes Medium beteiligt ist. Setzt man Zeugen eines Geschehens nachträglich neuen und irreführenden Schilderungen des Ereignisses aus, beispielsweise durch Berichte aus Medien, so werden ihre Erinnerungen daran verzerrt, ohne dass sie sich dessen bewusst sind. Menschen, vor allem wenn sie als Person nicht allzu gefestigt sind (z. B. auch Kinder und Jugendliche) lassen sich sogar bei Verhören oder in einer psycho-therapeutischen Sitzung durch fingierte Indizien dazu bringen, die Schuld für eine nie begangene Tat zu übernehmen; sie schmücken dann sogar die falschen Erinnerungen mit Details aus, die sie in ihren Schuldgefühlen bestärken.

Unsere Erinnerungen sind also keineswegs in Stein gemeißelt, sondern verändern sich mit jedem Abruf. Die Vergangenheit sei eine Nachbildung, die Zukunft eine Abbildung, meinte schon der griechische Philosoph Aristoteles vor über 2300 Jahren lebte. Es ist der Normalfall, dass wir keine stabilen Daten wiedergeben, obwohl wir das, was wir „aus dem Gedächtnis“ reproduzieren, nur allzu gerne für „wahr“ halten. Meist wird die Vergangenheit verklärt und wir stehen in unserem Bild vergangener Tage in einem zu guten Licht da. „Jeder von uns“, schrieb der Schweizer Schriftsteller Max Frisch, „wird eines Tages die Biographie erfinden, die er für sein Leben hält.“

Der Abruf manch alter Erinnerung kann auch zumindest zwischenzeitlich erschwert, wenn nicht unmöglich gemacht werden. Bestimmte Umweltsituationen können sich so auf das Gehirn auswirken, dass es zu Gedächtnisblockaden kommt. Unter Stress wird die Produktion des Hormons Cortisol gesteigert. Geschieht dies in moderatem Umfang, verbessert sich dadurch die Gedächtnisleistung. Tritt Stress aber zu stark oder chronisch auf, ist der normale Informationsfluss blockiert und das Abrufen von Gedächtnisinhalten gehemmt. Die Denkleistung fokussiert sich dann ausschließlich auf den Stressauslöser oder schaltet sich sogar komplett ab.

Dies führt oft so weit, dass andauernde oder sehr starke Stresserfahrungen die kognitiven Fähigkeiten langfristig verschlechtern. Erfahrungen, die uns (im positiven wie im negativen Sinn ) emotional aufwühlen, bleiben außergewöhnlich gut im Gedächtnis haften. So brennt sich etwa ein schweres Trauma tief ins Gedächtnis ein. Bei solch schrecklichen Erfahrungen kann der Abruf der Erinnerung aber auch blockiert sein und tritt nur bruchstückhaft in Form von Flashbacks auf.

Vergessen

Das biologische Gehirn ist nicht nur dafür bekannt, dass es sich immer wieder irrt, ihm gehen auch allzu leicht Dinge verloren – offensichtlich nicht nur mangels Aufmerksamkeit. Vergesslichkeit gehört neben Fehlern zur Natur des Menschen. Längerfristiges Speichern und Erinnern leisten wir uns nur bei einem verschwindend kleinen Teil unserer Erlebnisse. Im Allgemeinen aber werden Informationen nach einiger Zeit in den Hintergrund gedrängt, manche von neueren, interessanteren Informationen überlagert, ähnliche und damit potenziell störende Informationen unterdrückt. Das verhindert die Anhäufung großer Mengen langfristig unnützer Gedächtnisinhalte und schafft Platz für neue. Im Alltag nutzt uns das z. B., wenn sich unsere Handynummer ändert. Da wir uns die neue Zahlenfolge immer wieder in Erinnerung rufen und so diese Information stärken, verabschiedet sich allmählich die alte Nummer aus dem Langzeitgedächtnis.

Häufig kommunizierende Kontaktstellen zwischen Nervenzellen schwächen weniger benutzte Synapsen, indem sie von ihnen sog. Wachstumsfaktoren (körpereigene Proteine) abziehen, die wichtige Funktionen regulieren. Innerhalb von Stunden oder Tagen können Synapsen sogar einfach von der Bildfläche verschwinden. Auch neue Nervenzellen können zum Vergessen beitragen: Sie beeinflussen bestehende Schaltkreise, indem sie sich offenbar in diese teilweise integrieren und so alte Erinnerungen mit neuen Informationen überschreiben. Allerdings werden ungenutzte Synapsen im Normalfall nicht ganz abgebaut, sondern nur in eine Art Dornröschenschlaf versetzt. Sie können später wieder reaktiviert werden. (s. u.)

Würde jede belanglose Information ewig in unserem Kopf bleiben, wären wir schnell überfordert. Daher behalten wir nur das im Gedächtnis, was für unsere aktuelle Lebenssituation von Bedeutung ist. Vergessen erlaubt es dem Gehirn, sich auf die jeweils wichtigen Informationen zu fokussieren. Auch abstraktes Denken funktioniert nur, wenn wir Unmengen von Informationen weglassen, ignorieren und vergessen. Das Gedächtnis absolviert dabei eine Gratwanderung: Es darf nämlich auch nicht zu viel vergessen, um eine Stabilität im Leben zu gewährleisten.

Vereinzelte Menschen verfügen über ein verblüffend exaktes autobiografische Gedächtnis und erinnern sich detailliert ab einem bestimmten Zeitpunkt in ihrer Kindheit an jeden einzelnen Tag ihres Lebens. Ihr Gedächtnis trennt dabei Wichtiges nicht von Unwichtigem, für viele Betroffene eine äußerst belastende Bürde. Sie haben das Gefühl, in einem reißenden Strom aus Informationen unterzugehen. Andere besitzen ein herausragendes semantisches Gedächtnis und können sich mühelos riesige Mengen eher bedeutungsloser Fakten merken, beispielsweise Reihen und Spalten von Zahlen. Die Betroffenen haben es oft sehr schwer im Alltag, ihr Wissen kreativ und konstruktiv einzusetzen. Häufig gehen solche herausragenden punktuellen Gedächtnisleistungen mit mehr oder weniger starken Defiziten im Allgemeinen einher.

(Verantwortlich könnte ein Versagen der Kontrolle über die Proteinproduktion an den Synapsen sein, aufgrund dessen bereits geringe Reize diese schnell und nachhaltig verändern.)

Heute schließen sich immer mehr Wissenschaftler der Ansicht an, dass wir das Allerwenigste wirklich vergessen. Die meisten einmal erlernten Inhalte sind in Form chemischer Markierungen nach wie vor im alternden Hippocampus vorhanden. Die ständigen Umbauprozesse, die mit dem Lernen neuer Informationen einhergehen, haben lediglich bewirkt, dass wir alte Inhalte nicht mehr wiederfinden. Es handelt sich dabei also nicht um ein Speicher-, sondern um ein Zugriffsproblem: die Erinnerungen bleiben gespeichert, nur die zu ihnen führende Pfade sind nicht mehr vorhanden. Es genügt aber lediglich ein Schlüsselreiz, um eine „vergessene“ Information wieder zu reaktivieren. Auf diese Weise lässt sich auch das leichtere Lernen von Dingen, die schon einmal gelernt wurden, erklären.

Bei älteren Menschen arbeitet das System von Lernen und Gedächtnis offenbar nicht mehr so gut. Bereits ab dem 30. Lebensjahr nimmt die Kapazität des Arbeitsgedächtnisses ab, das ja u. a. die selektive Aufmerksamkeit im Gehirn steuert. Vor allem verringert sich im Alter die Leistung des sog. prospektiven Gedächtnisses („sich rechtzeitig erinnern, dass man etwas machen wollte“), das viel Aufmerksamkeit benötigt. Bis zu zwei Drittel unserer täglichen Gedächtnisprobleme sind darauf zurückzuführen. Das Arbeitsgedächtnis wird zudem beispielsweise auch durch Schlafmangel, Stress und seelische Belastung eingeschränkt.

Das implizite Gedächtnis, das automatisch arbeitet, hat sogar schon in einem Alter von etwa 12 Jahren seine höchste Leistungsfähigkeit, die dann kontinuierlich abnimmt. Mit 35 Jahren beginnt das Nachlassen des deklarativen Gedächtnisses. Je älter wir werden, umso mehr Wissen mit ähnlichen Elementen speichern wir ab. Dadurch kommt das Gedächtnis immer häufiger in die Lage, zwischen ähnlichen Erinnerungsspuren zu schwanken. So arbeitet das semantische Gedächtnis immer langsamer und unpräziser. Namen sind dabei häufiger betroffen als die Bezeichnungen für Gegenstände. Der Klang eines Wortes (seine Phonologie) und die Informationen darüber (der Inhalt) befinden sich in verschiedenen Gehirnregionen. Mit dem Alter lockert sich die Verbindung zwischen diesen – und die Erinnerung an Namen wird schwächer, wenn sie nicht oft benutzt werden. Die Gedächtnisleistung insgesamt nimmt jedoch zunächst noch nicht wesentlich ab.

Im Alter wird es immer schwieriger, gezielt auf Erinnerungen zurückzugreifen und neue Informationen in einen größeren Zusammenhang zu stellen. Schließlich müssen Ältere einen deutlich größeren Datenbestand durchforsten als jüngere, um die gesuchten Fakten oder die gesuchte biografische Erinnerung zu finden. Länger zurückliegende Ereignisse scheinen stabiler und reichhaltiger erinnert zu werden als kürzer zurückliegende, denn im jungen Erwachsenenalter haben Erinnerungen meist eine hohe emotionale Bedeutung – die mit ihnen verbundenen Erlebnisse sind neu und stellen oft Weichen für das weitere Leben. Daher sind Erinnerungen daran nicht nur resistenter gegenüber Veränderungen, sondern auch gegen Reflexionen.

Ältere Menschen achten bei neuen Erfahrungen nicht mehr so sehr auf Details, da ihr Gehirn eine große Zahl an ähnlichen, generalisierbaren Erinnerungen beherbergt. So gelangen im Alter vieler Senioren auch nur noch wenige neue Erinnerungen in den Langzeitspeicher der Großhirnrinde. Vorfreude, Neugier und das Erkunden von Neuem können aber das Lern- und Gedächtnissystem positiv beeinflussen – und es so im Alter fit halten. Dazu scheint auch ein gesunder Lebensstil, eine Kombination aus körperlicher und kognitiver Anstrengung, hilfreich.

REM

Die Anfänge der Kunst

Als eine Art Gegenpol zu den rein nützlichen Dingen schuf der Mensch die Kunst. Vielleicht kam sie mit der Langeweile, als er sich nicht mehr nur um das eigene tägliche überleben kümmern musste. So fand er Zeit, über sich selbst und die Welt um ihn herum nachzudenken, aber auch zum Malen, zum Schnitzen und zum Anfertigen von Schmuck. Manche Wissenschaftler sehen das „Kunst-Können“ als Nebenprodukt der Gehirnentwicklung. Ein größeres Gehirn vermag besser frei zu assoziieren als ein kleineres, schon weil es mehr Zellen und Verbindungen besitzt. Eindrücke sind dadurch untereinander vielfältig kombinierbar. So wurde die Repräsentation von Wissen in neuen Zusammenhängen möglich. Quellen, Bäume und Berge wurden belebt, emotionale Beziehungen zu Pflanzen und Tieren aufgebaut; es entstanden Fantasie, Mythen und Religion.

Die Kunst kam also nicht aus dem Nichts. Neue Ideen waren stets bereits in den Anfängen vorhanden, brachen aber zunächst nur selten aus. Über Hunderttausende von Jahren glommen sie unter der Oberfläche, bis bestimmte kulturelle, soziale oder klimatische Bedingungen – oder eine Kombination von allen – das kreative Potenzial des großen Gehirns in vollem Umfang entfachten. Vielleicht schon bevor unsere Vorfahren Afrika verlassen hatten, haben sie sich fiktive Geschichten erzählt. Später entwickelten sie die Fähigkeit, sich in Bildern und Symbolen auszudrücken und auszutauschen. Die künstlerischen Darstellungen sollten den Zusammenhang und die Bedeutung von Ereignissen erklären und gaben dem Menschen einen Rahmen für sein Handeln.

Eine Anzahl von Funden stärken die Position von einem frühen und allmählichen Erscheinen des symbolischen Denkens. Womöglich bildete dieses sich sogar schon bei den Vorfahren von Homo sapiens und Neandertalern bzw. Denisovanern heraus. Zu Zeiten des Homo erectus wurden besondere Arten von Faustkeilen gefunden – manchmal aus wertvollem Material hergestellt und eingehender bearbeitet, als es für einen reinen Gebrauchsgegenstand nötig gewesen wäre, aber nicht mehr brauchbar zum Zerteilen von Tieren oder Zerhacken von Pflanzen. Sie wurden wohl demonstrativ zur Schau gestellt, möglicherweise als Statussymbol.

Auf der indonesischen Insel Java (in Trinil) wurde ein Haufen von etwa 200 Muschelschalen gefunden – zwischen 430 000 und 540 000 Jahre alt. Auf einer der Muschelschalen wurden innen geometrische Einritzungen (Zickzacklinien, Winkel) entdeckt, erstaunlich gerade Linien, die wohl mit Hilfe von Zähnen von Süßwasserhaien angefertigt wurden – ob absichtlich, ist allerdings noch umstritten.

Inzwischen belegen viele Fundstücke, dass unsere Vorfahren sich aber schon sehr früh bewusst schmückten oder Alltagsgegenstände verschönerten. Erste Hinweise darauf bildet der Gebrauch von Ocker, einem anorganischen Pigment, dessen variierender Gehalt an Eisenhydroiden, -sulfaten und -oxiden dem krümeligen Mineral seine breite Farbpalette von blassem Gelb bis Braun verschafft. Wird es erhitzt, wandelt es sich in leuchtend roten „Rötel“ (Hämatit) um.

Noch heute verwendet eine Untergruppe der San in Afrika roten Ocker, um, als Teil des Hochzeitsrituals, Brautleute zu überpudern. Ebenso verfahren Gruppen der Aborigines in Australien während der Initiationsriten und bei Reinigungszeremonien. Rötel symbolisiert für die Uraustralier das Blut von mythischen Ahnen.

Vielleicht brachten die Menschen schon in der Frühzeit die Farbe Rot in Verbindung zu Blut und/oder Menstruation und Fruchtbarkeit. Indizien am Jebel Irhoud in Marokko sprechen für den Gebrauch von Farbpigmenten schon vor rund 300 000 Jahren. Das Alter dieser Funde stimmt gut mit dem der bisher ältesten Homo-sapiens-Fossilien überein. In Kenia, am Baringo-See, stießen die Forscher in mindestens 280 000 Jahren alten Schichten auf große Mengen roten Ockers. Dazu fanden sie Mahlsteine zum Zerreiben dieses Eisenerzes. Hinweise auf frühe Ockerverarbeitung zeigen sich auch in mehr als 300 pflaumen- bis kindskopfgroßen Pigmentknollen, die in einer Höhle unweit von Lusaka (Sambia) gefunden wurden und ein Alter von 200 000 (eventuell sogar 250 000) Jahren haben.

In vielen südafrikanischen Höhlen entdeckte man in bis zu 164 000 Jahre alten Schichten (z. B. am Pinnacle Point) teils offensichtlich bearbeitete, teils unbearbeitete rote Ockerstücke. Aus ihnen gewannen die Menschen das rote Pulver, das sie wahrscheinlich mit einem Bindemittel (z. B. Tierfett) vermischten und zur Bemalung ihres Körpers wie auch von Gegenständen verwendeten. Manche Forscher glauben sogar, dass der Ocker auch zu rituellen Zwecken benutzt wurde.

Auch Neandertaler haben in der Mittleren Steinzeit mit Farben gearbeitet. Man entdeckte – aus der Zeit zwischen 250 000 und 200 000 Jahren – an ihren Wohnplätzen an mehreren europäischen Orten Überreste von roten, gelben und schwarzen (Manganoxid) Farbbrocken. Was die Neandertaler mit der Farbe machten, ist unbekannt. Vielleicht haben sie sich selbst bemalt. Jedenfalls verfügten sie schon über eine gewisse ästhetische Ader – und zwar bereits bevor sie in Kontakt mit dem Homo sapiens traten.

Aus der Zeit vor 90 000 bis 40 000 Jahren existieren eine Menge von Gegenständen, die Neandertaler ganz offensichtlich aus einem Bemühen um Schönheit angefertigt und/oder durch Verzierungen und Farbstoffe verschönert haben. In den Höhlen von La Pasiega, Maltravieso und Ardales in Spanien entdeckte man in rotem Ocker aufgebrachte Formen und Figuren an den Wänden – vor 66 700 bis 64 800 vermutlich von Neandertalern angefertigt. In zwei Höhlen nahe der spanischen Mittelmeerküste (Cueva de los Aviones und Cueva Anton) stießen Archäologen auf eine anscheinend gezielt angelegte Sammlung von Muschelschalen mit Farbresten, die bis zu 50 000 Jahre alt sind und möglicherweise als Gefäße zum Anrühren der Farben dienten. Andere Muschelschalen waren angemalt und gelocht und dienten wohl – zu einer Kette aufgefädelt – als Schmuckanhänger.

In der Eichhornhöhle im Harz haben Forscher einen von einem Neandertaler verzierten Riesenhirsch-Knochen entdeckt, mindestens 51 000 Jahre alt. Die Archäologen sprechen von der komplexesten der bisher bekannten künstlerischen Ausdrucksformen von Neandertalern. In Europa und in einigen Teilen Asiens wurden bisher insgesamt zwei Dutzend Vogelkrallen gefunden, die ältesten (aus Kroatien) sogar 120 000 Jahre alt – früheste Beispiele einer symbolischen Kultur. Fundstätten in Frankreich und Italien belegen, dass bei Neandertalern vor etwa 40 000 Jahren hier eine Tradition vorherrschte, sich Adlerkrallen zu beschaffen. Dass Kunstgegenstände und Schmuck der Neandertaler nur relativ selten gefunden bzw. nachgewiesen wurden, kann auch an der Vergänglichkeit vieler Materialien wie Holz, Federn, Leder und Geflecht liegen.

Verblüffend ähnlichen Schmuck wie Homo sapiens zur gleichen Zeit schätzten Neandertaler der Grotte du Rennes (im französischen Burgund), die dort vor 41 000 Jahren lebten: Durchbohrte Elfenbein-, Knochen- und Tierzahnstücke, die als Anhänger oder Halskette getragen werden konnten. Umstritten ist, ob sei bei der Herstellung der Gegenstände Techniken imitierten, die sie bei ihren Nachbarn, den anatomisch modernen Menschen gesehen hatten, ob sie die Schmuckstücke durch Handel erworben hatten oder ob sie die Technik parallel entwickelten. Die Fundstücke erscheinen eigentlich eher wie eine Weiterentwicklung einer eigenständigen Neandertaler-Kultur. Diese veränderte sich vielleicht unter dem Einfluss des Homo sapiens. Aber auch ein umgekehrter Einfluss, also vom Neandertaler auf den Homo sapiens, gilt als wahrscheinlich. Die jüngsten Funde zeigen jedenfalls, dass beide Arten von Menschen bei ihrem Zusammentreffen auf vergleichbarem Niveau standen. Im Gegensatz zu den Neandertalern handelten die anatomisch modernen Menschen mit ihren fein gearbeiteten Schmuckstücken und tauschten sie quer durch ganz Europa miteinander aus. Vielleicht hatte der Schmuck für sie auch eine Bedeutung, die den Neandertalern fremd war, z. B. als Erkennungs- und Statussymbol.

Nach dem portugiesischen Paläoanthropologen Joao Zilhao sorgte zunehmende Bevölkerungsdichte mit kulturellem Austausch und enger sozialer Vernetzung im größeren Rahmen für die nötige Voraussetzung, um der menschlichen Kreativität zur Blüte zu verhelfen. Es wurden soziale Identifikationssysteme geschaffen; eventuell dienten Schmuckstücke auch zum Austausch von Geschenken (z. B. hübschen Perlen) als Zeichen der Freundschaft.

Afrika

Vor 100 000 Jahren hatte die Menschheit in Afrika die gleiche Bevölkerungsdichte erreicht, wie sie erst später im Jungpaläolithikum in Europa herrschte. Von weiträumigen Wanderungen auf dem afrikanischen Kontinent und kontinuierlichen Kontakten und regem Austausch der Bevölkerungsgruppen zeugen u. a. Funde von Schneckengehäusen aus allen Teilen des Kontinents – die ältesten von ihnen übrigens in Nordafrika -, die durchbohrt sind und vermutlich als Anhänger und Statussymbole dienten. Als eine Art „Mehrwegflaschen“ verwendete Straußeneierschalen waren mal mit einem Band aus einer Vielzahl schraffierter Striche, mal mit akkurat gezogenen parallelen Linien dekoriert. Offenbar handelte es sich um eine weithin gebräuchliche, von allen anerkannte Symbolik, denn das Dekor variierte zwischen 65 000 und 55 000 vor heute – also über rund 10 000 Jahre hinweg – kaum.

In der Blombos-Höhle an der afrikanischen Südküste ritzten Jäger und Sammler vor rund 100 000 bis 72 000 Jahren geometrische Muster in Ockerstücke. Es gab sogar eine Art Malerwerkstatt, wo die Menschen roten Ocker zermahlten, den sie dann in kleinen, aus Abalonemuscheln hergestellten Gefäßen aufbewahrten. Die farbige Paste könnte sowohl zur Bemalung von Gegenständen, für eine schmückende Gesichts- oder Körperbemalung als auch als Hautschutz verwendet worden sein.

Die Menschen des afrikanischen Mittleren Steinzeitalters könnten sich aber auch mittels anderer, vergänglicherer Materialien geschmückt oder künstlerisch ausgedrückt haben. Wir wissen fast nichts darüber, was die Menschen aus Holz, Rinde, Leder, Pflanzenfasern usw. vor Zehntausenden von Jahren an Objekten geschaffen haben könnten. Anscheinend hatte jeweils eine dichte Besiedlung in Südafrika mit weitreichenden intensiven Kontakten vor rund 70 000 Jahren (Stillbay-Kultur) und vor 65 000 Jahren (Howieson’s-Poort-Industrie) eine gute Voraussetzung für den geistigen Fortschritt geboten. Womöglich war ein solcher Kulturausbruch auch der Anlass dafür, sich auf andere Kontinente aufzumachen.

Asien und Australien

Zeitgleich mit dem Erscheinen des Homo sapiens in Europa und Asien trat auch dort vermehrt Kunstsinn auf und breitete sich wie ein Feuer aus. Höhlenmalerei scheint auf beiden Kontinenten vor 40 000 Jahren etwa zeitgleich aufgekommen zu sein – trotz einer Distanz von Tausenden von Kilometern. Ob sie tatsächlich eine zweifache, voneinander unabhängige „Erfindung“ ist, oder ob sie bereits Bestandteil des kulturellen Repertoires des Homo sapiens war, bevor er sich hierhin ausbreitete, ist unklar. Aus der Zeit vor seiner Expansion ist allerdings bisher kaum figurative Höhlenkunst bekannt.

Auf der Insel Sulawesi (Indonesien), die damals noch mit dem asiatischen Festland verbunden war, wurden in bislang etwa 300 Höhlen (im Maros-Pangkep-Karst) Malereien von hoher Qualität entdeckt. Sie sind bis zu 43 900 Jahre alt und zeigen Handabdrücke (zumeist aufgesprüht) und Jagdwild. Ein mit dunkelrotem Ocker gemaltes lebensgroßes Bild eines Sulawesi-Warzenschweins aus der Leang-Tedongnge-Höhle scheint sogar mindestens 45 500 Jahre alt zu sein. Auf einem Felsbild sind auch kleinere menschenähnliche Figuren mit Tierköpfen, ebenfalls in roten Tönen gemalt, zu erkennen, die wahrscheinlich deutlich größeren Warzenschweinen und Zwergrindern mit Speeren und Seilen nachstellen. Auf Borneo wurden Höhlenbildnisse entdeckt, die den Maros-Malereien auffällig ähneln – mindestens 40 000 Jahre alt. Andere Funde aus der Region könnten sogar noch wesentlich früher entstanden sein.

In Australien gefundene Brocken roter Mineralien mit deutlichen Abnutzungsspuren deuten auf den Gebrauch von Farbstoffen für symbolische und künstlerische Zwecke hin. Da man dabei auch die einzige Darstellung eines tapirartigen Beuteltieres entdeckte, das bereits vor 46 000 Jahren ausgestorben sein muss, sind diese Hinterlassenschaften wahrscheinlich noch viel älter. Felskunstwerke des fünften Kontinents direkt zu datieren, ist allerdings äußerst schwierig. Das älteste sichere Datum für ein australisches Felsbild liegt einstweilen bei 34 000 Jahren. In der höhlenartigen Stätte Nawarla Gabarnmang (etwa: „Ort des Felsenlochs“), wo sich die Vorfahren der Aborigines erstmals vor rund 50 000 Jahren aufhielten, fand man Malereien, die mindestens 28 000 Jahre alt sind. In noch älteren Grabungsschichten wurden Ockerstücke entdeckt, die wie Malstifte verwendet wurden.

Europa

Aurignacien

In Europa schufen die Einwanderer vor spätestens 43 000 Jahren die hoch entwickelte Kulturstufe des Aurignacien mit deutlich weiter entwickelten Werkzeugen und künstlerischen Werken. Neben dem Schmuck sind Höhlenmalereien, verzierte Werkzeuge, Musikinstrumente und Frauenfiguren kennzeichnend. Die Werke zeugen von hohem Kunstverstand und enormem handwerklichen Können und Geschick. Der kraftvolle kulturelle Aufbruch könnte durchaus dem Übergang vom Mittleren ins Späte Steinzeitalter Afrikas entsprechen (s. o.). Einige Wissenschaftler sehen die Ursache für diesen Entwicklungsschub in der Konkurrenz zu den Neandertalern.

Verzierungen auf Mammutknochen und Gesteinsbrocken aus der Zeit von vor 41 000 bis 35 000 Jahren finden sich in vielen Regionen Eurasiens. Vor allem in den Höhlen der Schwäbischen Alb tauchte neben vielen Kunstgegenständen wie elfenbeinernen Anhängern, durchbohrten Knochenperlen und Tierzähnen „echte“ figürliche Kunst auf. Die Forscher fanden kleine Skulpturen aus Stein, Knochen oder Geweih in großer Zahl. Es waren kleine Darstellungen von hoher Ausdruckskraft, mit dem eigenen Stil der Künstlerinnen oder Künstler versehen: Tiere wie Wildpferd und Löwe, Mammut und Wisent, Bär und Leopard – sogar ein Fisch, ein Wasservogel und ein Igel.

Als das älteste plastische Kunstwerk der Welt gilt die aus Mammutelfenbein gefertigte, sechs Zentimeter hohe „Venus vom Hohle Fels“ (42 000 Jahre alt). Sie besteht hauptsächlich aus großen Brüsten, einem breiten Gesäß und einer auffälligen Scham; anstelle des Kopfes trägt sie eine Öse und konnte vermutlich als Anhänger getragen werde. Noch beeindruckender sind Mischwesen aus Tier und Mensch, am faszinierendsten wohl der „Löwenmensch“, ein 2 1/2 Zentimeter großes Mensch-Tier-Wesen, zwischen 33 000 und 31 000 Jahre alt. Diese Figurinen weisen auf Glaubensvorstellungen und schamanistische Praktiken hin. Sie stehen also für einen kognitiven Sprung in eine Welt jenseits der Natur und jenseits menschlicher Erfahrung. Die Statuen wurden wahrscheinlich gemeinschaftlich genutzt und vielleicht sogar von Generation zu Generation weitergegeben.

Besonders spektakulär sind Musikinstrumente. Das älteste gesicherte Instrument ist wohl die etwa 13 cm lange und aus über 20 Fragmenten zusammengesetzte Schwanenknochenflöte aus der Geißenklösterle-Höhle, die vor etwa 42 500 Jahren hergestellt wurde. Insgesamt acht Flöten (zwischen 40 000 und 35 000 Jahre alt) wurden in den Höhlen am Südrand der Schwäbischen Alb gefunden, einige aus Mammut-Elfenbein, andere aus hohlen Flügelknochen von Gänsegeier oder Singschwan geschnitzt. Auch in Frankreich (Isturitz) wurde eine Knochenflöte gefunden. Die Flöten besaßen meist drei bis fünf Grifflöcher, die vermutlich das Spielen von acht bis zehn verschiedenen Tönen erlaubte. Niemand weiß aber, ob auf den Flöten tatsächlich Musik gespielt wurde oder ob sie lediglich zur Erzeugung von Locklauten zur Vogeljagd verwendet wurden.

In der Pyrenäenhöhle von Marsoulas, die auch Malereien enthält, wurde ein mit rotem Pigment verziertes Gehäuse einer Tritonschnecke (31 x 18 cm groß) gefunden, das als Blasinstrument gedient haben könnte. Die Forscher gehen davon aus, dass an dem Gehäuse einst ein Mundstück angebracht war. Eine der ersten Windungen war durchlöchert, die Spitze abgeschlagen.

Gravettien

Handabdrücke in mehr als 40 Höhlen Südwesteuropas sind besonders typisch für die archäologische Kultur des Gravettien vor etwa 32 000 bis 24 000 v. h., von der man Spuren von Spanien bis zur Ukraine fand. Um die Handumrisse herzustellen, wurde meist eine Hand auf die Höhlenwand gepresst und dann mit einem Halm oder einem hohlen Vogelknochen ein dünnflüssiger Brei aus gemahlenen Farbpigmenten und Wasser darauf geblasen. Nach Handanalysen stammen viele der Handabdrücke von Frauen, mindestens aber ein Viertel von zwei- bis zwölfjährigen Kindern, wobei ältere Geschwister oder Eltern bei der Herstellung mitgeholfen haben müssen.

Weit verbreitet über den ganzen Kontinent waren zu dieser Zeit auch meist nur einige wenige Zentimeter große, aus Knochen, Stein, Elfenbein oder Rentierhorn geschnitzte oder aus Lehm geformte Venusfigurinen mit markanten Geschlechtsmerkmalen. Typisch sind auch hier kurze Ärmchen, hängende Brüste, ein schwerer Bauch und ein ausladendes Gefäß. Mehr als 100 solcher Statuetten sind inzwischen in ganz Europa gefunden worden. Eine der bekanntesten ist die Venus von Willendorf (Österreich), 11 cm hoch, 29 500 Jahre alt. Die Figur aus Oolith zeigt eine gesichtslose Frau mit ausgeprägten Brüsten, breiten Hüften und einem kunstvollen Kopfschmuck. In der Ostukraine wurden ganz ähnliche Frauenfiguren aus dieser Zeit entdeckt.

Was die Bedeutung der rätselhaften Venusfigurinen betrifft, gehen die Interpretationen der Wissenschaftler weit auseinander. Manche halten die üppigen Frauen wegen der starken Betonung der Geschlechtsmerkmale für Fruchtbarkeitssymbole. Sie könnten in Verbindung mit Schwangerschaft und Geburt stehen und wurden vielleicht als Glücksbringer oder Geburtshelfer an die Töchtergenerationen weitervererbt. Die große Anzahl der gefundenen Venusfigurinen spricht jedenfalls für ihre bedeutende Rolle in der Glaubenswelt der damaligen Menschen. Andere Forscher glauben, dass die Figuren von Männern angefertigt wurden und eine sexuelle Bedeutung gehabt hätten. Manche der stark stilisierten Menschendarstellungen wirken, als würden zugleich weibliche und männliche Geschlechtsmerkmale symbolisch ausgedrückt. So hat die aus Ton gefertigte „Schwarze Venus“ von Dolni Vestonice (Südmähren) – 11,4 cm groß – durchaus weibliche Formen. Aber die Beine sind durch ein die weibliche Sexualität kennzeichnendes Dreieck ersetzt, und Kopf und Brust erinnern an die Geschlechtsorgane eines Mannes.

In Niederösterreich und Mähren ((Pavlov-Kultur) tauchten um 27 000 v. h. neben den berühmten Venusfigurinen und zahlreichen Objekten aus Elfenbein auch Schmuckstücke aus Keramik auf. In Dolni Vestonice fand man Bruchstücke von großen Pflanzenfressern (z. B. Mammuts) und Raubtieren, zudem Fragmente von Menschendarstellungen (s. o.). Die Oberfläche der flachen Skulpturen aus Elfenbein wirken oft so blank poliert, als wären sie täglich getragen worden. Einige Forscher glauben, dass ihre Herstellung und bewusste Zerstörung eine symbolische Bewandtnis hatten.

An anderen steinzeitlichen Siedlungsplätzen kamen auch Tausende teils nur wenige Zentimeter große Ritz- und Schnitzwerke ans Licht. Auf einem Knochenstück aus der Dordogne erkennt man Menschen mit geschulterten Speeren, die sich einem überlebensgroßen Mammut nähern. Ein Fund aus der La-Vache-Höhle (in den Pyrenäen) zeigt eine Gruppe Menschen hinter einem riesigen Pferd, unter dessen Schweif ein Bär zu sehen ist.

Magdalenien

Die bekanntesten künstlerischen Hinterlassenschaften des Homo sapiens in Europa sind die mehr als 250 Felsbilder aus den Kalkhöhlen Frankreichs und Spaniens, z. B. aus den sogenannten „Eiszeit-Kathedralen“ Lascaux und Altamira. Sie entstanden erst nach dem Höhepunkt der letzten Eiszeit im Magdalenien, als es wieder wärmer wurde. Mit gemahlenem Ocker sowie Tierfett wurden die Bilder beim Schein von Fackeln oder Fettlampen in den düsteren Höhlen auf die Wände gemalt. Die angewandten Herstellungstechniken sind so vielfältig wie die gezeigten Motive. Mal wurden die Bilder mit Pinseln oder mit Schwanzhaaren kleiner Tiere oder mit angekauten Zweigen gemalt, mal wurde die Farbe durch ein Röhrchen geblasen oder einfach aufgespuckt. Einige prähistorische Künstler nutzten Steinhämmer oder – messer, um die Umrisse in glatte Felsoberflächen zu meißeln oder zu ritzen.

Die Bilder zeigen Jagdszenen und einzelne Tiere, wobei Pferd und Bison die weitaus häufigsten Motive sind. Das flackernde Licht der Fettlampen belebte die Felswände, die meist voller Vertiefungen und Erhebungen sind. Es entstanden Schatten, die mit Fackelträgern weiter wanderten und Leben auf die Wände zauberten. Manchmal kamen die Konturen eines Tieres zum Vorschein, ein Bison etwa oder ein Mammut. Manchmal sah man nur ein Detail, das dann vervollständigt werden musste. Etliche Wandbilder zeigen lebhafte, bewegte Szenen. Der Effekt wird durch verschiedene Darstellungstricks unterstützt, welche die Lichtbedingungen und Eigenarten unseres Sehsinns mit einbezogen.

An einer der Felswände in der Höhle von Lascaux sieht man das Bild einer roten Kuh mit schwarzem Kopf, die aus der Nähe betrachtet gestreckt, vom Boden aus gesehen aber als normal proportioniert wirkt. Diese Darstellungstechnik (Anamorphose) legt nahe, dass das Bild betrachtet werden sollte. Den Künstlern war es offenbar auch wichtig, das Verhalten, die Bewegungsweisen und die damit einhergehende Emotionen der Tiere genau zu erfassen. Manchmal zeichneten sie dasselbe Tier mehrfach dicht hinter- und übereinander in jeweils einer anderen Phase der Bewegung. Oder sie gaben ihm einfach mehr Beine, Köpfe oder Schwänze, die unterschiedliche Positionen markieren und somit Schwanzschlagen, Kopfhochwerfen, Gehen und anderes illustrieren.

In der Höhle Roc-aux-Sorciers fand man den Teil eines 18 m langen und 2,50 m hohen Felsreliefs mit Menschen- und Tierdarstellungen. Höhepunkt des Kunstwerks – was Präzision, handwerkliche Ausführung und Realitätsnähe betrifft – ist ein Steinbockzyklus, der wie eine Bildergeschichte das Leben der Steinböcke in der Brunftzeit erzählt. Viele Ähnlichkeiten mit den Figuren von Roc-aux-Sociers erkennt man in der rund 150 km Luftlinie südlich gelegenen Höhle von La-Chaire-a-Calvin, was darauf hindeutet, dass hier derselbe Künstler am Werk gewesen sein muss – oder jemand aus seinem Umfeld. Die bis heute älteste bekannte Felsskulptur befindet sich an der Decke der sogenannten „Höllenschlucht“ in Frankreich: ein über ein Meter langer Lachs, 25 000 alt.

Zeitgleich mit den Kunstwerken vom Roc-aux-Sorciers entstanden in Gönnersdorf vor 15 000 Jahren Hunderte gravierter Schieferplatten mit fein geritzten Bildern von Tieren und Menschen, darunter mehr als 500 Frauendarstellungen. Über die Verwendung der Platten brechen sich die Wissenschaftler bis heute den Kopf. Vermutlich hatten sie eher einen profanen Charakter als einen heiligen Zweck. Die im Gegensatz zu den Tierbildern stilisierten Frauendarstellungen waren zu jener Zeit in gleicher Weise gezeichnet, gemalt, graviert oder zu Plastiken geformt überall in Europa zu finden (siehe auch oben). Diese wie auch Prestigegüter (z. B. Schmuckschnecken) demonstrieren, dass spätestens im Magdalenien ein europaweites „soziales Netzwerk“ existierte, in dem nicht nur Rohstoffe, sondern auch Ideen ausgetauscht wurden.

Die Forscher gehen heute von unterschiedlichen Ursprüngen und Beweggründen für die Bildmalerei in unterirdischen Höhlen aus. Vielleicht hielten die Menschen sie für die Wohnstätten der Götter oder die Welt der Ahnen, Geister und Toten – eine Vorstellung, die heute noch auf der ganzen Welt in vielen Kulturen und Religionen verbreitet ist. Sie besuchten die Grotten wohl, um wichtige Kulthandlungen, religiöse Riten und Zeremonien zu vollziehen. Vielleicht suchten sie Schutz und Hilfe gegen die Gefahren in der Natur, oder sie beschworen durch magische Riten ihr Jagdglück. Viele Forscher sind der Meinung, dass die prähistorische Kunst Teil einer schamanistischen Kultur war – eine besondere Form der Zwiesprache des Menschen mit den Geistern. Praktisch keine der Menschendarstellungen in den Bilderhöhlen Europas sind normale Personen, sondern wundersame Mensch-Tier-Mischungen, die man als Schamanendarstellungen deuten kann.

Einige Wissenschaftler sind der Meinung, Musik, Höhlenmalerei und Schamanismus könnten durch Rauschzustände entstanden sein. Die berauschende Wirkung von Drogen öffnet das Bewusstsein und lässt den Atem der Geister spüren. Die Bilder dienten dann als Mittler zwischen der hiesigen und jenseitigen Welt. Wahrscheinlich wurden in den Höhlen auch Initiationsriten abgehalten, denn man fand hier viel Fußspuren jugendlicher Menschen. Vielleicht sollten die Höhlenmalereien aber auch nur Geschichten erzählen – von wichtigen Ereignissen im Leben der eindrucksvollen Tiere, denen die Steinzeitmenschen begegneten, aber auch wohl von eigenen Lebensepisoden.

Erste Schrift?

In den Eiszeithöhlen fielen auch Zeichen auf, die offenbar Details einer größeren Figur darstellten, wie etwa der Stoßzahn eines Mammuts – ohne den zugehörigen Körper. Hier repräsentiert der Mammutstoßzahn offenbar das ganze Tier, also ein Teil das Ganze. Dieses Prinzip (Synekdoche) kennzeichnet alle piktografischen Sprachen (die über Bilder kommunizieren) und kann Information in knapper Form vermitteln. Es lassen sich auch viele geometrische Zeichen (wie Halbkreise, Linien, Dreiecke und Zickzacklinien) und schematische Darstellungen (wie Reihen farbiger Punkte und Gittermuster) an Felswänden und Gegenständen nachweisen. Nach heutigem Wissensstand handelte es sich dabei um einen geschriebenen „Kode„, der allen prähistorischen Stämmen damals verständlich gewesen sein dürfte, zumindest denen, die im Gebiet des heutigen Frankreich, möglicherweise aber auch darüber hinaus, lebten.

Bestimmte Zeichen tauchen wiederholt in Paaren auf, oder in Gruppen zu vier Zeichen: z. B. Hände, Punkte, fingerartige und daumenartige Zeichen. Solche Gruppierungen findet man in frühen piktografischen Schriften (Bilderschriften) generell öfters, wobei die kombinierten Symbole für neue übergeordnete Bedeutungen stehen. Die unscheinbaren Formen könnten also von den ersten Schritten zeugen, mit denen sich die Menschheit dem Gebrauch von Schriftsymbolen näherte – womöglich die ersten Anzeichen eines rudimentären Schriftsystems.

Vielleicht versteckten sich hinter den Zeichen aber auch noch andere Botschaften. Die Deutungen reichen von Markierungen der Wanderbewegungen bis zu Tierfallen.

Fazit

Wenig über die Kunst des Eiszeitalters ist aber wirklich gesichert. Was sich die Eiszeitmenschen bei ihren Werken tatsächlich gedacht haben, wird wohl immer ein Geheimnis bleiben. Die geschnitzten Figuren, mit Ritzzeichnungen versehenen Gegenstände, Musikinstrumente sowie Fels- und Höhlenmalereien sind die einzigen, nur bruchstückhaften Zeitzeugen; sie stellen lediglich einen Ausschnitt dessen dar, was einmal war. „Das archäologische Bild einer Kultur ist stets viel ärmer, als diese Kultur selbst war“, schrieb der Autor Martin Kuckenberg.

Es ist aber deutlich, dass die Menschen damals nicht nur über die physikalische Realität ihres alltäglichen Daseins nachdachten. Sie hatten nicht nur ihr Leben selbst in die Hand genommen, sondern beschäftigten sich auch mit den transzendenten Aspekten der Welt, wobei sie die Natur zu Rate zogen. Einige Antworten fanden sie in der Kunst, indem sie sich ihrer Mittel bedienten, um die verschiedenen Welten darzustellen. Vielleicht zeichnet sich der Homo sapiens gerade durch seine Fähigkeit aus, Kunstwerke zu schaffen und so die Realität in etwas anderes zu verwandeln. Damit schuf er eine Verbindung zwischen Intuition und Wissen, zwischen Wissen und Denken, Denken und Sprache. Die Menschen hatten damals schon ein Bewusstsein wie wir: Sie waren Menschen mit Kultur, Religion und Seele.

REM

ENERGIE fürs LEBEN

Der Planet Erde verfügt hauptsächlich über zwei Energiequellen: Sonne und Wärme aus dem Erdinneren und der Gravitation. Der Durchfluss der Energie von der Sonne und der Energie aus radioaktivem Zerfall innerhalb der Erde führen zu physikalischer und chemischer Organisation und Aufrechterhaltung dieser Ordnung. Sie sind verantwortlich für nahezu jegliche Organisationsform, die um uns herum auftritt.

  1. Entstehung des Lebens

Wasserstoff ist der wichtigste Kraftstoff für das Leben. Er ist chemisch reduzierend, d. h., er kann in Stoffwechselprozessen Elektronen liefern. Erst durch den Wasserstoff war es überhaupt möglich, den Kohlenstoff – Hauptbestandteil von organischen Molekülen – aus dem ebenfalls im Wasser gelösten Kohlenstoffdioxid (CO2), das auf der frühen Erde allein als Kohlenstoffquelle zur Verfügung stand, zu lösen und Moleküle mit höherem Energiegehalt und Ordnungsgrad zu bilden. Aus der Reaktion von Wasserstoff mit Kohlenstoffdioxid gehen auf anorganischem Wege zunächst Kohlenwasserstoffe wie Essigsäure (C2H4O2 bzw. CH3COOH), Methan (H2 + CO2 -> CH4 + H2O) oder Formaldehyd (2 H2 + CO2 -> CH2O + H2O) hervor, Vorläufermoleküle des Lebens.

Sechs geologische Prozesse sind bekannt, bei denen Wasserstoff entstehen kann. Beispielsweise fällt er bei Gesteinsumwandlungen an, bildet sich aber auch während des Zerfalls von im Erdinneren natürlich vorkommenden radioaktiven Elementen wie Uran, Kalium oder Thorium, deren Strahlung u. a. Wassermoleküle in Wasserstoff und Sauerstoff zerlegt. So entstehen ständig riesige Mengen des molekularen Wasserstoffs (H2) in der Erdkruste und stellen eine üppige Energiequelle für Mikroben dar.

Allerdings finden Reaktionen zum Aufbau organischer Stoffe nicht ohne Katalysator statt. Die allgegenwärtigen Metallverbindungen aus Eisen, Nickel, Schwefel, Mangan usw. (Oxide und Sulfide), aber auch Stickstoffverbindungen, förderten die Kohlenstoffanlagerung. So enthält beispielsweise das an den Unterwasserschloten austretende heiße Wasser eine Fülle reaktiver chemischer Stoffe und gelöster Metalle, darunter auch Eisensulfid (FeS) und Schwefelwasserstoff (H2S). Wenn sie miteinander reagieren, entstehen Pyritkristalle (Eisenschwefelerz, auch Katzengold genannt, FeS2), wobei Energie frei wird.

Die Pyritbildung könnte die langgesuchte zuverlässige und dauerhafte Energiequelle sein, die zur Bildung lebenstragender Moleküle auf der frühen Erde notwendig war. Sie stellt eine Art Endlos-Batterie dar, von deren Energie sich aus niedermolekularen Bestandteilen immer komplexere Verbindungen, u. a. Grundmoleküle des Lebens wie Aminosäuren, Fettsäuren, einfache Zucker und organische Basen, gebildet haben könnten.

Wasserstoff spielt für universelle Vorgänge zur Energiegewinnung immer noch eine herausragende Rolle. Einige Mikroben im Erdinneren (sogenannte Extremophile) nutzen heute noch in Wasser gelöstes Kohlenstoffdioxid und Wasserstoff aus radioaktivem Zerfall oder aus der Verwitterung von eisenhaltigen Silikaten in den umgebenden Basaltformationen als Energiequelle.

Unter den richtigen Bedingungen konnte sich so vor etwa 4 Milliarden Jahren aus den einfach ablaufenden Reaktionen spontan ein Reaktionsnetzwerk – wahrscheinlich mit Hilfe anorganischer Katalysatoren – entfalten, ohne dass dafür komplexe Proteine und Enzyme nötig waren, die in heutigen Zellen diese Reaktionen ermöglichen. Rasch entwickelte sich daraus ein durch Enzyme befeuerter biochemischer Stoffwechsel. Dieser primitive Stoffwechsel war bereits in der Lage, aus anorganischen Verbindungen neben Zuckern und Lipiden auch Aminosäuren, Nukleotide sowie Vitamine zu produzieren, die für Synthese von Proteinen und Wachstum gebraucht werden.

Im archaischen Stoffwechsel identifizierten Biologen 402 biochemische Einzelreaktionen, in denen entsprechende Prozesse ablaufen. Sie liefern die Grundbestandteile der Zelle und stellen auch so etwas wie den Basisstoffwechsel heutiger Zellen dar. Sie waren daher wohl auch ein zentraler Teil des biosynthetischen Metabolismus im letzten gemeinsamen Vorfahren aller heutigen Lebewesen („LUCA“ – Last Universal Common Ancestor), nach derzeitigem Kenntnisstand ein primitives zellähnliches Gebilde mit rudimentärem Stoffwechsel , das seine Energie maßgeblich aus Wasserstoff bezog. )

2. Fotosynthese

Die ersten Lebewesen eroberten den Planeten, erfanden neue Stoffwechselwege und lernten, weitere Energiequellen zu nutzen. Einige frühe Prokaryoten (einzellige Organismen ohne Zellkern) begannen, Lichtenergie zu absorbieren und in chemische Energie umzusetzen. Das älteste Fotosynthese-System haben nach umfassenden Verwandtschaftsanalysen der fünf Fotosynthese treibenden Bakteriengruppen wohl die Purpur-Bakterien gebildet. So wurden die infraroten Photonen der Sonne zum Haupt-Energielieferanten für die Entwicklung des Lebens auf der Erde.

Möglicherweise ebneten wie bei den ersten Stoffwechselprozessen mineralische Katalysatoren den Weg zur Fotosynthese: Manganhaltige Minerale, die an der Oberfläche ursprünglicher Zellen gebunden waren, um sie unempfindlicher gegen die zerstörerische UV-Strahlung zu machen. (Manganatome sind wegen ihrer größeren Zahl an Valenzelektronen – Elektronen in der äußersten Atomschale – ziemlich strahlungsresistent.)

Da die Atmosphäre nach sauerstofffrei war, müssen die ersten fotosynthetisierenden Mikroben anstelle von Chlorophyll andere Pigmente zur Lichtaufnahme verwendet haben. Mit ihnen absorbierten sie nahes Infrarot (am langwelligen Rand des sichtbaren Lichts) und produzierten Schwefel- oder Sulfatverbindungen (anoxygene Fotosynthese). An diesen chemischen Reaktionen waren Wasserstoff, Schwefelwasserstoff oder Eisen beteiligt – aber kein Wasser! Darum wurde auch kein Sauerstoffgas freigesetzt.

Aus Befunden lässt sich schließen, dass mindestens vor 3,4 Milliarden Jahren schon den Cyanobakterien ähnliche Organismen existierten. Ihre Nachfolger, eben die Cyanobakterien, perfektionierten schließlich das Fotosynthese-System durch das Hintereinanderschalten von zwei Fotosystemen und erfanden damit vor rund 2,7 Milliarden Jahren die oxygene Fotosynthese, bei der der Sauerstoff sozusagen aus dem Wasser „befreit“ wurde. Vielleicht wurde ihre Entwicklung zu einem Zeitpunkt begünstigt, als nur noch begrenzte Mengen an Schwefelwasserstoff für die anoxygene Fotosynthese verfügbar waren.

Bei der oxygenen Fotosynthese werden zwei in Serie geschaltete Ladungsgeneratoren, als Fotosystem I und Fotosystem II bezeichnet, durch elektromagnetische Strahlung leicht unterschiedlicher Wellenlängen im sichtbaren Spektralbereich angetrieben. Zwei solcher Systeme sind notwendig, um genügend Energie für die angekoppelten chemischen Reaktionen bereitzustellen. Insgesamt besteht der fertige Fotosynthesekomplex aus mehr als 80 Einzelproteinen, in die rund 180 Moleküle Chlorophyll eingebettet sind.

Ein radförmiger Antennenkomplex (Doppelring aus Proteinen) mit Farbpigmenten sammelt das Licht, dessen Energie in Form angeregter Elektronen über eine Kette von Einzelschritten an das Reaktionszentrum weitergeleitet wird (Lichtreaktion). Dort wird die ganze Energie zu einem einzigartigen Metallkomplex (Mn4CaO5) geleitet, wo der zentrale Schritt der oxygenen Fotosynthese, die Spaltung (Oxidation) von Wasser, abläuft. Allerdings entsteht dabei nicht direkt Wasserstoff, sondern sein Äquivalent in Form von Protonen und gebundenen Elektronen. Sie werden für die Reduktion von Kohlenstoffdioxid benutzt, wobei Sauerstoff quasi als Abfallprodukt abgespalten wird und als Gas (O2) in die Atmosphäre entweicht. (Die oxygene Fotosynthese ist der einzige bekannte natürliche Prozess, bei dem Wassermoleküle in großem Umfang gespalten werden und molekularer Sauerstoff freigesetzt wird.) In einer späteren Stufe (Dunkelreaktion) folgt die Nutzung der gespeicherten Energie zum Aufbau organischer Substanz. In einer komplizierten Reaktionskette, dem sogenannten Calvinzyklus, entstehen so letztlich organische Moleküle: Kohlenhydrate (Zuckerverbindungen). Dabei handelt es sich chemisch gesehen um einen Redox-Prozess (d. h., die Umwandlung von Kohlenstoffdioxid-Molekülen zu Zucker entspricht einer Reduktion).

Während also ursprünglich das Leben Wasserstoff nutzte, der tief in der Erde durch chemische Reaktionen entstand, griffen die ersten zur oxygenen Fotosynthese fähigen Cyanobakterien auf das allgegenwärtige Wasser zurück und entzogen ihm mit Hilfe der Sonnenenergie den Wasserstoff. Der in den Reaktionen anfallende Sauerstoff wurde als Abfall ausgeschieden und reicherte sich in der Atmosphäre an.

Die Energie, die etwas mehr als acht Minuten vorher auf der Sonne dadurch frei wurde, dass zwei schwere Wasserstoffatome zu einem Heliumkern verschmolzen und ihre überschüssige Bindungsenergie in ein Photon steckten, wurde innerhalb der Zelle dazu genutzt, einen Energiespeicher (Zucker / Glukose) aufzubauen. Das geschieht innerhalb von zwei Millisekunden; pro Sekunde kann dieser Prozess also 500mal durchlaufen werden, was der Spaltung von 1000 Wassermolekülen entspricht. Die gespeicherte biologische Energie steht dann für verschiedene Aufgaben zur Verfügung. Sie kann bei der Umsetzung mit Sauerstoff – durch Verbrennung (Zellatmung) – wieder freigesetzt werden.

Die Erfindung der Fotosynthese war die letzte große Errungenschaft des Lebens im Bereich des aufbauenden Stoffwechsels. Mit ihr wurde eine hocheffiziente Energieversorgung ermöglicht, die Voraussetzung für das Leben aller tierischer Organismen und die Evolution höherer Lebensformen mit einer komplexeren Organisation, einschließlich des Menschen. Das irdische Leben in seiner heutigen Form verdankt damit den Cyanobakterien letztlich seine Existenz und seine erstaunliche Vielfalt. Die Fotosynthese in den mikroskopischen Pflanzen, die in den Weltmeeren treiben, liefert heute 90% des Sauerstoffs, den wir einatmen. Das ist einer der Gründe, warum wir uns um den Zustand der Weltmeere Sorgen machen müssen.

Allerdings ist die Fotosynthese nicht perfekt: Sie ist ineffektiv, da die Pflanzen ca. ein Drittel des aufgenommenen CO2 wieder ausspucken und damit weniger Kohlenhydrate herstellen können und langsamer wachsen. Der Grund dafür liegt darin, dass ein Schlüsselenzym der Fotosynthese (Rubisco) nicht besonders gut zwischen Kohlendioxid und Sauerstoff unterscheiden kann, was in der sauerstoffarmen Atmosphäre der frühen Erde kein Problem war, da der Sauerstoff keine Konkurrenz für das Kohlendioxid darstellte. Erst als der Sauerstoffanteil der Atmosphäre immer mehr stieg, veränderte das die Situation, da mehr Sauerstoff anstelle des gewünschten Kohlendioxids fixiert wird und der Zelle damit wertvolle chemische Energie verloren geht.

3. Anstieg des Sauerstoffs

Das Proterozoikum (2500 – 570 Millionen Jahre vor heute) gilt als das Zeitalter der Cyanobakterien. In dieser Phase der Erdgeschichte waren sie die wichtigsten Primärproduzenten in der Biosphäre. Sie breiteten sich zunächst in den flachen Küstengewässern des Urozeans aus und bildeten erste „Sauerstoff-Oasen“. Ihre Vermehrung war die erste Bevölkerungsexplosion auf der Erde. Einige Cyanos wuchsen zu großen Kolonien oder Matten heran; in diesen lagerten sie Kalk ab und bildeten Stromatolithen. Diese aus Kalkschichten gestapelte, manchmal meterhohen Körper, auf denen die Cyanobakterien außen siedelten, breiteten sich im flachen Wasser riesiger Schelfgebiete aus und produzierten große Mengen Sauerstoff.

Der freigesetzte Sauerstoff wurde, nachdem er sich in den oberen, lichtdurchfluteten Schichten der Meere nach und nach angereichert hatte, zunächst in geochemischen Prozessen verbraucht. Er verband sich sofort mit den damals in reduzierter Form in den Meeren gelösten Mineralen (z. B. den großen Mengen zweiwertigen Eisens) zu Metalloxiden. Diese Oxidationsprozesse verzehrten fast allen Sauerstoff. Erst nach ein oder zwei Milliarden Jahren waren die meisten Minerale im Meer oxidiert und es trat ein grundlegender Wandel ein: Der von den Cyanos produzierte freie Sauerstoff konnte sich nun Im Wasser anreichern und auch in die Atmosphäre aufsteigen.

Bei dem höherem Sauerstoffgehalt im Wasser entstanden vor 1,2 Milliarden Jahren Rot- und Braunalgen mit komplexeren Zellstrukturen. Als auch seichte Gewässer vor schädlicher UV-Strahlung sicher waren, entwickelten sich Grünalgen, die besser an das helle Licht in Oberflächengewässern angepasst waren. Aus ihnen gingen vor 475 000 Jahren die ersten Landpflanzen hervor: Moose und Flechten. Für Reaktionen auf dem Festland (oder gar für die Atmung höherer Organismen) reichte der Sauerstoffgehalt der Atmosphäre jedoch erst aus, als er mit etwa einem Prozent der heutigen Konzentration in der Atmosphäre vorhanden war.

Als genügend Sauerstoff in der Atmosphäre vorhanden war, wurde auch die Bildung von Ozon möglich. Es entsteht, wenn molekularer Sauerstoff (O2) durch harte Sonnenstrahlung in der Atmosphäre in die hochreaktive atomare Form (O) gespalten wird, die sich teilweise wieder in den gewöhnlichen molekularen Sauerstoff (O2), zum Teil aber auch in Ozon, das dreiatomige Sauerstoffmolekül (O3) umwandeln kann. Vor 600 Millionen Jahren kam es zwar zu einem Anstieg der Sauerstoffkonzentration in der Atmosphäre, aber bis vor rund 400 Millionen Jahren lagen die Sauerstoffwerte nach neueren Berechnungen erst bei ein bis zwei Prozent – und die Ozonschicht war offenbar nur relativ dünn. Erst bei dem weiteren Anstieg der Sauerstoffkonzentration, der jetzt einsetzte, kam in der Stratosphäre eine Ozonschicht zustande, welche die Erdoberfläche vor einem Großteil schädlicher UV-Strahlung effektiv abschirmen konnte. Sie erlaubte es – zusammen mit dem höheren Sauerstoffanteil der Atmosphäre – komplexerem Leben, die Meere zu verlassen.

4. Die Superzelle

Der Sauerstoff, den die Cyanobakterien in den Flachwasserzonen vor den Urkontinenten erstmals erzeugten, war für die übrigen damals lebenden Prokaryoten, die ihren Stoffwechsel mit Wasserstoff antrieben, aber auch für die Purpurbakterien, zunächst nichts anderes als ein tödliches Gift. Die meisten der Methan- und Essigsäurebildner, mit denen alles angefangen hatte, starben aus oder wurden an die Wand gedrängt, ein frühes Beispiel einer Umweltkatastrophe globalen Ausmaßes. Überlebt haben die Krisenzeit vermutlich nur jene Einzeller, die eine Rückzugsmöglichkeit hatten (solche Refugien, die sie heute noch besiedeln, bezeichnen wir als „extrem“) oder Schutzmechanismen entwickelten.

Möglich ist, dass zunächst Vorläufer von Peroxisomen (ältere Zellorganellen, die heute noch in Pflanzen und Tieren verbreitet sind) die erste Phalanx gegen den bedrohlichen Sauerstoff bildeten. In ihnen laufen Stoffwechselvorgänge unter Sauerstoffverbrauch ab. Ein solcher einfach organisierter Prokaryot wurde von einem anderen Einzeller aufgenommen, aber nicht verdaut. Aus anfänglicher Duldung konnte irgendwann wechselseitige Unterstützung, eine Symbiose, entstehen – und schließlich sogar gegenseitige Abhängigkeit. Vermutlich rettete die Fähigkeit zur Zusammenarbeit so einige der frühen Einzeller vor dem Aussterben in der für sie lebensfeindlichen, sauerstoffangereicherten Umwelt.

Der ursprüngliche Vorteil für den Wirt muss zunächst nicht unbedingt in der Atmung, sondern vielmehr in der Verwendung der Abfallprodukte bestanden haben. Der aufnehmende Prokaryot war dadurch in der Lage, anaerob aus organischen Substanzen Wasserstoff zu erzeugen, der der Wirtszelle die Energiegewinnung durch Methanbildung ermöglichte. Diese wurde dadurch unabhängig von geologischen Wasserstoffquellen und erschloss sich neue Lebensräume. Der Preis dafür war die wachsende Abhängigkeit vom Symbiosepartner als Wasserstoffquelle.

Vor rund zwei Milliarden Jahren entstanden überaus erfolgreiche Symbiosen zwischen Prokaryoten. Nach der Endosymbionten-Hypothese verloren mit der Zeit die aufgenommenen Einzeller (Endosymbionten) die Fähigkeit, eigenständig zu existieren – sie wurden zu untrennbaren Teilen der Wirtsorganismen, zu Organellen.

Einigen Prokaryoten, die sich erfolgreich an den Sauerstoff anzupassen vermochten, gelang es schließlich, den Sauerstoff sogar für den eigenen Stoffwechsel einzusetzen. Sie fanden einen Weg, auf dem organische Moleküle effizient und unter konkurrenzlos hohem Energiegewinn mit Sauerstoff verbrannt werden können. Gleichzeitig wird dabei Kohlenstoffdioxid, der wichtige Stoff für die fotosynthetisch aktiven Bakterien, an die Umgebung freigesetzt.

Solch ein Prokaryot, der eine hohe Leistungsfähigkeit in der Verwertung von Sauerstoff entwickelt hatte, wurde von einem Bakterium „gefressen“ und blieb als Endosymbiont erhalten. Aus ihm entstand schließlich eines der wichtigsten Zellorganellen, das Mitochondrium. Es versorgt die Zelle mit Energie – und zwar mit sehr viel mehr – aus seinem Atmungsstoffwechsel und hielt auch den für das Zellmilieu gefährlichen Sauerstoff beziehungsweise die toxischen Verbindungen auf einem weit niedrigeren Niveau, als z. B. Peroxisomen das können. Es ist noch umstritten, ob sich eine solche Endosymbiose ein- oder mehrmals ereignete. Die Mehrheit der Wissenschaftler plädiert für eine gemeinsame Herkunft aller bekannten Mitochondrien.

Mit der Endosymbiontenhypothese versucht man auch zu erklären, wie Zellen erstmalig in den Besitz von Plastiden kamen. Einige dieser großen Einzeller (Eukaryoten; s. u.) verleibten sich demnach auch fotosynthetisch aktive Lebensformen (z. B. Cyanobakterien) ein, die in ihnen weiterlebten. Sie umgaben sie mit einer zusätzlichen Hülle, wodurch sie mit dem „giftigen“ Sauerstoff zurechtkamen. Anfangs handelte es sich auch hier vermutlich um eine echte Symbiose (Energie gegen Schutz). Im Laufe der Evolution büßten die vereinnahmten Prokaryoten ihre Eigenständigkeit ein und konnten nur noch innerhalb der Zelle existieren. Sie waren zu Organellen geworden. Es gibt davon mehrere ineinander umwandelbare Arten, die beispielsweise als Protein- oder als Stärkespeicher fungieren. Am markantesten sind die Chloroplasten für die Fotosynthese, deren Wirtszelle nach einer neuen Studie schon relativ komplex gewesen sein muss: wohl ein methanbildendes Archaeon, das bereits andere Organellen besaß.

Genaueren Analysen zufolge dürften fotosynthetisch aktive Bakterien dreimal unabhängig voneinander aufgenommen worden sein. Aus diesen Symbiosen entwickelten sich die Rot-, Braun- und Grünalgen. Von Letzteren stammen wiederum alle Pflanzen ab, die schließlich das Land eroberten. Die Fähigkeit der mehrzelligen Pflanzen zur Fotosynthese ist also letztlich den Prokaryoten zu verdanken.

Gentransfer

Früher oder später hatte die symbiotische Lebensgemeinschaft den Transfer von Genen aus dem Genom des Endosymbionten in das Genom der Wirtszelle erfordert. Nach und nach hatte so der eingefangene Prokaryot den Großteil seiner Gene, den er einst für ein autonomes Leben brauchte, verloren. Schließlich war der Endosymbiont völlig unter die Kontrolle des genetischen Apparates im Zellkern geraten.

Die heutigen Reste des eigenen Genoms von Mitochondrien und Plastiden sind klein und ringförmig wie bei den Bakterien – aber trotzdem noch funktionsfähig. Die Plastiden verloren fast ihre gesamte Erbsubstanz und enthalten nur noch zwischen 100 und 200 Proteingene, während ihre Vorläufer, die frei lebenden Cyanobakterien, mindestens 2000 Proteingene besitzen. Ein wesentlicher Teil der zu ihrer Synthese benötigten genetischen Information befindet sich in der chromosomalen DNA des Zellkerns ihres Wirtes. Die entsprechenden Proteine werden in dessen Zellplasma synthetisiert und in die Plastiden importiert.

Auch der Vorläufer der Mitochondrien (deren DNA am meisten denjenigen aerober Purpurbakterien ähnelt) verlor mit der Zeit seine Eigenständigkeit fast vollständig. Das Erbgut der Mitochondrien beinhaltet heute 37 Gene mit Bauplänen für lediglich 13 Proteine – das unbedingt notwendige Mindestmaß, welches die Organellen für ihre Arbeit benötigen. Diese Proteine sind für das Herzstück der Energiegewinnung, den Elektronentransport in der sogenannten Atmungskette, wichtig. Von genetischem Ballast befreit konnte sich das Mitochondrium vielfach vermehren und auf die Produktion von Energie spezialisieren. Mehr als 2000 Mitochondrien finden sich heute z. B. in manchen menschlichen Zellen. Sie sind im Cytoplasma frei beweglich und nehmen im Durchschnitt ein Viertel des Zellvolumens ein. Je höher der Energieumsatz, umso größer ist die Zahl der Zell-Kraftwerke. Die aus der Verbrennung von Nährstoffen mit Hilfe von Sauerstoff freigesetzte Energie dient den meisten Stoffwechselprozessen, dem Prinzip der Zellpumpen und für andere chemische Reaktionen oder für Bewegungen.

Die Energieversorgung durch die Mitochondrien ermöglichte im Laufe der Evolution größere und komplexere Zellen (Eukaryoten) mit Zellkern und weiteren Organellen. Der entscheidende Schritt auf dem Weg zur Komplexität scheint dabei das Auslagern von endosymbiontischen Genen in die Wirtschromosomen gewesen zu sein. Die überragende Energieversorgung durch die Mitochondrien beseitigte den starken Selektionsdruck, alle nicht benötigten Gene zu entfernen, der die Evolution der Prokaryoten bis heute begrenzt.

So kam es zu einem gewaltigen Anstieg der Genomgröße. Statt aber zahllose Kopien des vollständigen Genoms mit sich herumzuschleppen, konnten eukaryotische Zellen neue Zellfamilien und regulatorische Elemente entwickeln. Das öffnete die Tür zu einer Proteinevolution, die für Zellen ohne Mitochondrien unerreichbar bleibt. (Eine eukaryotische Zelle besitzt 10 000 bis 100 000 Mal so viele Proteine wie eine Prokaryotenzelle.)

Erste eukaryotische Zellen mit Zellkernen und Zellstrukturen gab es schon vor 1,7 Milliarden Jahren. Mit ihrem Auftreten war eine völlig neue Organisationsform entstanden, die die bereits zuvor in Milliarden Jahren prokaryotischer Evolution entwickelten Formen bakteriellen Lebens überschichtete und eine weit wirkungsvollere Evolution ermöglichte. Vor rund 800 000 Jahren brachten sie viele Varianten hervor, und es entwickelten sich Tausende von eukaryotischen Einzellerarten mit unterschiedlichsten Formen und Lebensweisen – hochkomplexe Organismen, gegenüber denen ein Prokaryot geradezu rudimentär ausgestattet ist.

Bis heute wurden ungefähr 50 000 Arten beschrieben. Das erheblich erweiterte Repertoire neuartiger Proteinfaltungen, -wechselwirkungen und Regulationswegen ermöglichten die Entstehung von vielzelligen Lebewesen, also aller Pflanzen, Pilze und Tiere – und schließlich auch uns Menschen. Alle komplexen Lebewesen bestehen also ausnahmslos aus eukaryotischen Zellen („Superzellen„).

Die Entwicklung der Sauerstoffatmung war auch der erste Schritt auf dem Weg zur Intelligenz. Informationsverarbeitung kostet Energie. Die energetischen Anforderungen für ein Gehirn sind so hoch, dass sie nur durch Reaktionen in Verbindung mit Sauerstoff zu erfüllen sind. So verbraucht beispielsweise das menschliche Gehirn rund 20 Joule pro Sekunde, wobei bis zu 80% der Energie in die Signalübertragung fließen. Selbst im Koma verbraucht unser Denkorgan mehr Energie als andere Gewebe des Körpers.

Die Botenstoffe an den Synapsen sind in Bläschen verpackt, die im aktiven Gehirn unter hohem Energieaufwand immer wieder neu gefüllt werden müssen. Selbst im ruhenden Gehirn verbrauchen die auf Vorrat gelagerten Neurotransmitter-Bläschen Energie, da sie ständig Protonen nach außen verlieren, die dann von einem Enzym unter Energieaufwand wieder ersetzt werden müssen. Angesichts der enormen Zahl solcher Nervenenden und der Tatsache, dass dieser Energieverbrauch ständig anhält, bedeutet das eine substanzielle Grundlast für das Gehirn. Im Neuron selbst sind Ionenpumpen in der Zellwand die größten Energieverbraucher. Sie befördern stetig Natriumionen (Na+) aus der Zelle hinaus und Kaliumionen (K+) hinein. Damit erzeugen und erhalten sie das Konzentrationsgefälle zwischen Zellinnerem und Zellzwischenraum. Ohne dieses könnten die Neurone nicht feuern, so dass die Informationsverarbeitung zum Erliegen käme.

Ein komplexes Zusammenspiel von chemischen Reaktionen und Stoffkreisläufen macht also die Energie verfügbar für unser Denken, Fühlen und Handeln. Die wichtigste Energiequelle – praktisch der einzige Brennstoff, mit dem das Gehirn arbeitet – ist Traubenzucker (Glukose). Glukose ist „schnelle Energie“. Etwa 100 g davon nimmt unser Denkorgan pro Tag aus dem Blut auf. Zur Verbrennung dieser Zuckermenge werden 100 g Sauerstoff benötigt, wobei 140 g Kohlenstoffdioxid anfallen – so viel, wie ein Mittelklassewagen pro Kilometer ausstößt.

5. Chemisches und thermodynamisches Ungleichgewicht

Prokaryoten entwickelten ganz wesentlich die Kreisläufe von Schwefel, Eisen, Phosphor und Stickstoff – und auch die Fotosynthese ist ihre Erfindung, durch die der Planet Erde für größere Formen erst bewohnbar wurde. Sobald die Erde über ausreichend Sauerstoff verfügte, fand dann die rasche Evolution des Lebens von den Prokaryoten über die Eukaryoten zu den Metazoen (vielzelligen Organismen) statt. So konnten sich auch z. B. Kreaturen mit größeren, beständigeren und aktiveren Körpern ausbilden, was notwendig war, um die Ozeane zu verlassen und die Kontinente zu besiedeln.

Die innere Ordnung der Lebewesen kann nur durch einen ständigen Zustrom geordneter, arbeitsfähiger Energie aufrechterhalten werden. In einem tierlichen Organismus dienen 33 bis 50% der zugeführten Energie dazu, ihn mit Hilfe von Proteinumsatz, Ionentransporte, Blutkreislauf und Atmung einfach am Leben zu halten. Hinzu kommen dann noch notwendige Aktivitäten wie Bewegung, Fortpflanzung, Ernährung und andere Verhaltensweisen.

Das tägliche Verhalten der meisten Tiere wir daher bestimmt durch das Beschaffen von Nahrung, also komplexen chemischen Verbindungen, in denen Energie gespeichert ist. Diese müssen für die Produktion der zur Selbsterhaltung benötigten Moleküle und zur Freisetzung der für die Lebensvorgänge notwendigen Energie wieder abgebaut werden. Dabei sind die stofflichen, energetischen und kommunikativen Prozesse im Organismus aufs Engste aufeinander abgestimmt und vernetzt, um die innere Organisation zu erhalten.

Dieser „organisierte Metabolismus“ (Penzlin in „Das Phänomen Leben“), also das Netzwerk chemischer Reaktionen mit ein- und ausgehenden Energie- und Stoffströmen weit jenseits des thermischen Gleichgewichts, ist die grundlegende Daseinsweise aller Lebewesen. Die beim Abbau der Nahrung freiwerdende Energie (meist langwellige Wärmestrahlung) wird abgestrahlt – letztlich in den deutlich kälteren Weltraum. Ohne die Möglichkeit, den Wärmeüberschuss ans Weltall zu „entsorgen“, würde der Energiedurchfluss, der die irdische Biosphäre in Gang hält, zum Erliegen kommen. Die Verhältnisse auf der Erde wären dann ebenso lebensfeindlich wie auf Venus oder Mars.

Dass sogar ein befruchtetes und bebrütetes Hühnerei nicht nur Ordnung erzeugt, sondern auch Unordnung, zeigt, dass es kein abgeschlossenes System ist. Bei seiner Entwicklung zehrt der Kükenembryo zwar von gespeicherter Energie, gleichzeitig gibt das Ei aber Wärme, also nicht mehr nutzbare Energie, an die Umgebung ab.

Auch das gesamte System Erde verharrt in einem bemerkenswerten Zustand chemischen und thermodynamischen Ungleichgewichts, das mit der Sonne als Energiequelle und mit Hilfe der Lebewesen aufrechterhalten wird. Die Leuchtkraft der Sonne hat im Verlauf der letzten vier Milliarden Jahre zwar um 25 bis 30% zugenommen, aber das komplexe System fast geschlossener Stoffkreisläufe hält eine relativ ausgeglichene Energiebilanz auf dem Planeten Erde aufrecht.

Dabei wirkt der globale Karbonat-Silikat-Kreislauf als natürlicher Thermostat. Bei ihm handelt es sich um einen geobiochemischen Rückkopplungsmechanismus, der – verkürzt gesagt – bei steigenden Temperaturen über schnellere chemische Verwitterung und den Aufbau von Kalkskeletten in Lebewesen (z. B. vor allem in pflanzlichem Plankton) der Atmosphäre Kohlenstoffdioxid entzieht und auf diese Weise eine Abkühlung der irdischen Temperaturen bewirkt. Daraufhin sinkt wiederum die Verwitterungsrate und die Einlagerung von CO2 in Lebewesen, so dass dessen Anteil in der Atmosphäre wieder zunimmt und die Temperaturen wieder steigen. Höhere Temperaturen bedingen wiederum einen größeren Verbrauch des Kohlenstoffdioxids, was wiederum zu einer Abkühlung des Klimas führt, usw.

Die meisten Wissenschaftler stimmen heute der Annahme zu, dass das Leben selbst diese Rückkopplung maßgeblich beeinflusst hat, selbst wenn wir noch längst nicht alle Einzelheiten der Mechanismen kennen. Ohne die Selbstregulierung wäre das irdische Leben wohl schon seit Millionen Jahren ausgestorben. Da auch der Mensch selbst ein Teil der Natur und damit ohne Zweifel in die Kreisläufe der Biosphäre mit eingebunden ist, beeinflusst er heute in hohem Maße durch sein Handeln das weitere Schicksal des Lebens auf unserem Planeten. Er sollte sich dieser Verantwortung immer bewusst sein.

REM

Strukturbildung im frühen Universum

Rekombination – Dunkles Zeitalter – Reionisation

Das Universum kühlte sich in den ersten drei Minuten nach dem Urknall so weit ab, dass zunächst die physikalischen Gesetze, dann die Kernbausteine und schließlich die leichten Elemente, vor allem Wasserstoff- und Heliumkerne, entstehen konnten. Für weitere Kernfusionsprozesse aber reichten Temperatur und Dichte nicht mehr aus. So war das Universum zum einen mit einem Plasma aus einer Mischung aus Protonen, Elektronen, Neutrinos und Photonen sowie einer Prise leichter Atomkerne, zum anderen mit sogenannter Kalter Dunkler Materie gefüllt. Die Photonen konnten sich nicht ungehindert ausbreiten, sondern wurden nach kurzer Wegstrecke von den elektrisch geladenen Teilchen – vor allem Protonen und Elektronen – absorbiert und anschließend wieder emittiert. Und jedes Elektron, das von einem Kern eingefangen wurde, konnte sofort wieder von einem hochenergetischen Strahlungsteilchen entrissen werden, so dass alle Wasserstoffatome letztlich in ionisiertem Zustand verblieben.

Rekombination

Da sich das Universum weiter ausdehnte und damit abkühlte, kippte nach etwa 379 000 Jahren – das Universum war nur noch tausendmal kleiner als heute – bei einer Temperatur von unter 3000°C das Gleichgewicht von Strahlung und Materie. Durch ihre Trennung wurde der Kosmos erstmals für Licht durchsichtig. Da die Energie der Photonen nicht mehr dafür ausreichte, um Wasserstoff zu ionisieren, waren die freien Protonen und Elektronen jetzt in der Lage, sich zu elektrisch neutralen Wasserstoffatomen zu verbinden. Innerhalb von etwa 40 000 Jahren – der Epoche der Rekombination – waren alle elektrisch geladenen Teilchen – auch die Deuterium-, Tritium-, Helium- und Lithium-Kerne – in elektrisch neutralen Atomen gebunden.

Dunkles Zeitalter

Durch die weitere Expansion des Universums wurde die Strahlung zu immer größeren Wellenlängen hin verschoben. Zugleich schluckte der atomare, elektrisch neutrale Wasserstoff die Strahlung in verschiedenen Wellenlängenbereichen. Und es gab keine Lichtquellen, die die abkühlenden Gasschwaden hätten beleuchten können. Es wurde dunkel im Universum. Die Astronomen sprechen von der Dunklen Ära (Dunkles Zeitalter), das den Zeitraum von der Freisetzung der Hintergrundstrahlung bis zum Aufleuchten der ersten Sterne umfasste und bis zu 400 Millionen Jahre dauerte.

Das Dunkle Zeitalter war aber nicht völlig finster. Das elektrisch neutrale Wasserstoffgas muss schwache Radiowellen ausgesandt haben, nachdem es durch die Hintergrundstrahlung beleuchtet wurde. Wasserstoffgas strahlt aber auch ohne Energiezufuhr. Möglich ist das durch den Spin subatomarer Teilchen (kann man vereinfacht als ihre Drehrichtung auffassen). Astronomen suchen heute nach dieser Strahlung.

In der Zeit der Dunklen Ära durchlief das Universum gewaltige und entscheidende Veränderungen, die seine weitere Entwicklung prägten. Nach theoretischen Überlegungen und Computer-Simulationen hatte die Dunkle Materie wohl bereits kurz vor der Rekombinationszeit erste schwach ausgeprägte Massenkonzentrationen gebildet. (Ihre Teilchen treten nicht mit Strahlung in direkte Wechselwirkung, sondern unterliegen lediglich der Schwerkraft.)

Als sich das heiße junge Universum weiter ausdehnte und langsam weiter abkühlte, sammelte sich die Dunkle Materie unter dem Einfluss ihrer wechselseitigen Schwerkraft in kleinen, relativ massearmen Halos, den ersten Strukturen im Universum. Die normale (baryonische) Materie wurde wegen der Abstoßung zwischen den positiv geladenen Wasserstoff-Atomkernen zunächst daran gehindert, sich zu Wolken zusammenzuziehen. Sie konnte aber der Schwerkraft der Dunkle-Materie-Halos nicht widerstehen, und so sammelte sich schließlich immer mehr Gas aus der Umgebung – hauptsächlich Wasserstoff, weniger Helium und Spuren anderer leichter Atome – in den Wolken an.

In den heißen und dichten Bereichen der ursprünglichen Wasserstoff-Helium-Wolken bildete sich molekularer Wasserstoff (H2), der Infrarot-Strahlung emittierte und die Wolke auf 200 bis 300 Kelvin (etwa -73 bis +27°C) abkühlte. Infolgedessen fiel in den innersten Bereichen der Gasdruck und die Gravitation konnte das Gas noch weiter zusammenklumpen. Während sich die Wasserstoff-Helium-Wolke verdichtete, blieb die Dunkle Materie gleichmäßig über den riesigen Halo verteilt. Daher spielt der Vorgang der Abkühlung der Materiewolke eine entscheidende Rolle für die Trennung von gewöhnlicher und Dunkler Materie.

Ohne die Geburtshilfe der Dunklen Materie gäbe es vermutlich keinen Sterne und Galaxien in unserem Universum. Die Gravitation der sichtbaren Materie hätte nicht ausgereicht, um die bekannten Strukturen des Weltalls zu bilden. Die beobachteten Abweichungen von einer isotropen Verteilung der baryonischen Materie waren viel zu gering. Erst die Annahme der Dunklen Materie lässt die Gravitationskraft so groß werden, dass eine Zusammenballung möglich wurde und genügend Zeit blieb, Objekte von der Größe ganzer Galaxien zu bilden.

Bei weiterer Verdichtung durch die Kontraktion der Gasklumpen versagte schließlich die Kühlung, denn die Wasserstoffmoleküle kollidierten nun mit anderen Atomen, bevor sie Zeit hatten, ein Infrarotphoton auszustrahlen. Das erhöhte wieder die Gastemperatur, und der enorme Druck des heißen Gases verlangsamte die Kontraktion der Wolken. (Bei höheren Temperaturen bewegen sich Materieteilchen schneller – und je schneller sich Teilchen bewegen, desto mehr können sie der Gravitationskraft entgegensetzen.) Doch ihr Kernbereich zog immer mehr Materie aus der Umgebung an. Als er auf einige hundert Sonnenmassen und mehr angewachsen war, konnte die Schwerkraft den Kern so stark zusammendrücken, dass die Kernfusion zündete. Das Wasserstoffbrennen begann – ein Stern war geboren.

Die ersten Sterne

Die ersten Systeme, in denen sich Sterne bilden konnten, sollen bereits 100 bis 250 Millionen Jahre nach dem Urknall aufgetaucht sein. Sie ähnelten einer Mini-Galaxie mit einer Scheibe aus gewöhnlicher Materie, umgeben von einem Halo Dunkler Materie. Die erste Sterne, die hier entstanden – Astronomen bezeichnen diese erste Generation als Population III – unterschieden sich grundlegend von den heutigen Sternen: Sie bestanden fast nur aus Wasserstoff und Helium. Ohne schwere Elemente, die als Kühlmittel wirken, laufen Kernfusionsprozesse weniger effizient ab. Wasserstoff – in seiner molekularen Form H2 – und Helium eignen sich für diese Art der Kühlung aus atomphysikalischen Gründen nicht gut. Daher waren die ersten Sterne im Durchschnitt wesentlich heißer und massereicher (vermutlich einige hundert Mal) als die Sterne späterer Generationen. Sie leuchteten mehrere Millionen Mal heller als die Sonne. Ihre Oberflächentemperatur dürfte bei dem rund 17-fachen der Sonnenoberfläche (5500°C) gelegen haben.

Mit ihrer Masse wuchs auch die Gravitationskraft, die die Sterne zusammendrückte. Um sie auszugleichen, mussten sie ihren Wasserstoffvorrat schneller und bei höheren Temperaturen verbrennen als kleine, leichte Sterne – wie etwa unsere Sonne. Die Riesensterne hatten daher nur eine Lebensdauer von wenigen Millionen Jahren. Am Ende ihres kurzen Lebens explodierten sie als Supernovae und gaben einen Großteil ihrer Materie in den kosmischen Kreislauf zurück – angereichert mit den ersten schweren Elementen, die die Sterne in ihrem Inneren durch Kernfusion erbrütet hatten (darunter die für das Leben wichtigen Grundelemente wie Kohlenstoff und Sauerstoff).

Das Universum hat sich wohl sehr schnell mit schweren Elementen angereichert. Diese neigen zur Bildung von feinem Staub – im Gegensatz zu Wasserstoff und Helium, die gasförmig vorliegen. Der Staub hatte allerdings im interstellaren Medium zunächst nicht lange Bestand, denn Stoßwellen nachfolgender Supernovae zerstörten die Staubteilchen, kurz nachdem sie entstanden waren. Aber bereits einige hundert Millionen Jahre später gab es im interstellaren Gas ähnliche Anreicherungen von Kohlenmonoxid und Staub, wie wir sie heute noch, 13 Milliarden Jahre später, im interstellaren Gas benachbarter Galaxien vorfinden.

Reionisation

Mit der Entstehung der ersten Strahlungsquellen – als das Universum vielleicht 400 Millionen Jahre alt war – endete das Dunkle Zeitalter. Die Riesensterne der ersten Sterngeneration (Population III) veränderten das Universum und seine weitere Evolution fundamental. Sie markieren den Beginn einer neuen Epoche, welche die Astrophysiker „Reionisation“ nennen. Diese dauerte rund eine halbe Milliarde Jahre und war etwa 1,1 Milliarden Jahre nach dem Urknall abgeschlossen. (Manche vermuten sogar, dass sie bereits 100 bis 200 Millionen Jahre nach dem Urknall einsetzte.)

Die ersten Sterne, die von einem Nebel aus elektrisch neutralem Wasserstoff umgeben waren, strahlten einen großen Teil ihrer Energie zunächst vor allem im energiereichen Ultraviolett-Bereich ab. Das war gerade der Teil des Spektrums, den die neu gebildeten Wasserstoff-Atome bevorzugt absorbierten. Schließlich war die Strahlung aber so intensiv, dass sie die Elektronen aus den Atomhüllen löste, d. h., die Atome wieder ionisierte. So lichtete sich der Nebel aus neutralem Wasserstoff und Helium und um die Sterne bildeten sich heiße Blasen ionisierten Gases, die immer weiter anwuchsen. Ein einziger der Sterne konnte um sich herum mit der Zeit eine Blase von 15 000 Lichtjahren Durchmesser erzeugen. (Zum Vergleich: Unsere Milchstraße hat einen Durchmesser von 170 000 bis 200 Lichtjahren.)

Als im Laufe von Hunderten Millionen Jahren immer mehr Sterne entstanden, wurden die Blasen immer zahlreicher und verschmolzen schließlich. Nach neuesten Erkenntnissen wurden wahrscheinlich vor 1,1 Milliarden Jahren die letzten Zonen neutralen Wasserstoffs ionisiert. Nur jedes zehntausendste Wasserstoffatom blieb verschont, schätzen die Kosmologen. Das intergalaktische Gas ist deshalb seither nicht kalt und elektrisch neutral, sondern heiß und ionisiert. Das ionisierte Plasma des intergalaktischen Raumes enthält heute den überwiegende Teil der baryonischen Materie im Universum.

[Spezielle Zwerggalaxien, sogenannte Green-Pea-Galaxien (Grüne-Erbsen-Galaxien), könnten durch ihre Ultraviolettstrahlung wesentlich zum Ende des Dunklen Zeitalters beigetragen haben. Zu dem kuriosen Namen sind sie durch ihr Erscheinungsbild auf Aufnahmen gekommen, die Amateuren als grünliche, kreisrunde Punkte aufgefallen waren. Es sind kompakte Zwerggalaxien, die zwar recht klein sind, in denen aber viele Sterne entstehen. Sie enthalten bloß einen geringen Anteil an schweren Elementen, dafür aber sehr viele massereiche Sterne. Wenn ausreichend viele solcher Galaxien im jungen Universum existiert haben, könnten sie das All über Jahrmillionen hinweg ionisiert haben, bis es schließlich rund eine Milliarde Jahre nach dem Urknall wieder hell wurde.]

Dieser Ablauf der Ionisierung mag plausibel klingen, ist aber bisher nicht mehr als eine Hypothese. Da sich die ersten Sterne heute nicht mehr direkt beobachten lassen, sind wir auf die Ergebnisse von Simulationen angewiesen. Die Realitätstreue von Simulationen hat aber ihre Grenzen, daher ist das letzte Wort noch nicht gesprochen. Es ist möglich, dass die ersten Sterne das intergalaktische Medium nicht so schnell ionisieren konnten, wie es die Daten nahe legen. Dann muss es eine weitere Energiequelle im frühen Universum gegeben haben. Die wahrscheinlichsten Kandidaten dafür sind intensiv leuchtende Gasjets, die von Schwarzen Löchern ausgingen. (Welchen Anteil ihre energiereiche Strahlung bei Schwarzen Löchern hatte, ist allerdings unklar.)

Schwarze Löcher

Vielleicht haben also nicht die Riesensterne selbst die Ionisierung angetrieben, sondern die aus ihnen hervorgegangenen Schwarzen Löcher. Sterne mit mehr als 250 Sonnenmassen kollabierten schließlich sehr schnell zu ähnlich massereichen Schwarzen Löchern. (Aber auch ein Stern mit 100 Sonnenmassen konnte zu einem Schwarzen Loch zusammenstürzen, das anschließend unter geeigneten Bedingungen zu einem massereichen anwuchs.)

Quasare sind die fernsten noch erkennbaren Objekt im Universum. Da sie auf den ersten Blick fast wie normale Sterne aussehen, nannten sie ihre Entdecker „quasistellare“, also sternähnliche, Radioquellen: „Quasistellar Radio Source“ – Quasar. Es handelt sich bei ihnen um supermassive Schwarze Löcher, deren Schwerkraft gewaltige Mengen an Gas und Staub ansaugt. Während der größte Teil der Materie in einem gigantischen Strudel ins Schwarze Loch stürzt, wird ein anderer Teil in Form von eng gebündelten Gasstrahlen – hochenergetischen Röntgen- oder Gammastrahlen – in den Raum ausgestoßen. Diese Jets strahlen so hell, dass sie über riesige Entfernungen sichtbar bleiben. Ihre Strahlungsleistung übertrifft häufig die von tausend normalen Galaxien.

Quasare haben aus diesem Grund ein großes Ionisierungspotenzial und könnten die Umgebung sogar weiter und gleichförmiger ionisiert haben als Sterne, da sie größere Blasen bilden. Doch es ist unklar, ob damals, ca. 400 Millionen Jahre nach dem Urknall, schon massereiche Schwarze Löcher existierten. Denn um als Quasare hell aufzuleuchten, benötigten sie eine enorme Masse. Andererseits könnten die Schwarzen Löcher auch durch sukzessive Verschmelzung immer größer geworden sein, da sie sich in den dichtesten Regionen des Universum befanden. Trotzdem bleibt rätselhaft, wie das schnell genug gegangen sein soll.

Eine neuere Idee geht davon aus, dass große Gasscheiben direkt zu Schwarzen Löchern kollabiert sind, weil die Sternentstehung unterblieb. Stößt ein so entstandenes Schwarzes Loch mit einer benachbarten Molekülwolke zusammen, verschlingt es Gas und Sterne und wächst rasant. Auch könnten in frühen Sternsystemen (Protogalaxien) bereits kleine Schwarze Löcher enthalten gewesen sein, die durch Akkretion von benachbarter Materie „Mini-Quasare“ produzierten. Diese könnten weiter angewachsen sein – vielleicht eine zusätzliche Quelle von Licht und ionisierender Strahlung. Die ältesten von Astronomen bisher entdeckten Quasare leuchteten jedenfalls etwa 700 Millionen Jahre nach dem Urknall, als noch ein Großteil des Wasserstoffs im All nicht ionisiert war.

Weitere Sternbildung

Das Feuerwerk der ersten Stunde schnürte sich zunächst gewissermaßen selbst die Luft ab. Das Problem war ein negativer Rückkopplungseffekt: Weil die Reionisation die Umgebung aufheizte, verzögerte sie die Stern- und Galaxienbildung. Erst nach weiteren rund 100 Millionen Jahren waren die Bedingungen wieder günstig für die Geburt der nächsten Sterne.

Die Population-III-Sterne, bestehend aus Wasserstoff (75%) und Helium (25%), hatten das interstellare Medium für immer verändert. Als sie am Ende ihres kurzen Lebens explodierten, waren die in ihnen durch Kernfusion produzierten schweren Elemente frei. (Messungen zeigen, dass bereits 850 Millionen Jahr nach dem Urknall Kohlenstoff und Sauerstoff sowie möglicherweise Silizium in einem Quasar vorkamen.) Die Erzeugung und Verteilung relativ kleiner Mengen dieser schweren Elemente hatte wohl schon enorme Auswirkungen auf die weitere Sternbildung. So ermöglichte die dadurch verursachte effiziente Kühlung die Bildung von Sternen geringerer Masse und erhöhte vermutlich die Sternbildungsrate beträchtlich.

Daher besaß die neue Sterngeneration, die Population II, weit weniger charakteristische Sonnenmassen wie die allererste Generation. Ihre Sterne hatten zum Teil schon ähnliche Eigenschaften wie heutige Exemplare. Diejenigen unter ihnen, die mehr Masse als die Sonne aufwiesen, existieren auf Grund ihrer Lebensdauer von weniger als zehn Milliarden Jahren heute allerdings nicht mehr. Die anderen jedoch, mit weniger als einer Sonnenmasse, können wir heute noch beobachten. Ihr typischer Gehalt an schweren Elementen beträgt ein Hundertstel des solaren Werts.

Die weiteren Kreisläufe der Sternentstehung und -vernichtung reicherten das interstellare Gas weiter mit schweren Elementen an, die der nächsten Generation von Sternen (auch unserem Sonnensystem) wieder als Rohstoff dienten. Bis zum Ende der Reionisation war das anfängliche Wasserstoff-Helium-Gemisch mit allen schweren Elementen angereichert, die wir heute kennen.

Erste Galaxien

In den Halos Dunkler Materie waren zunächst kleine, unregelmäßig geformte Sternansammlungen (Protogalaxien) entstanden. Durch die Verschmelzung der Halos wuchsen auch die Sternhaufen und bildeten die ersten Zwerggalaxien. Diese noch klumpigen, gleißend hell strahlenden Urgalaxien hatten allerdings kaum Ähnlichkeit mit den Spiralen und Ellipsen von heute: Sie bestanden hauptsächlich aus Wasserstoff und waren weniger geordnet und viel kleiner (vielleicht nur 1% der Masse unserer Milchstraße). Da die Urgalaxien im jungen Universum aber viel dichter beisammen waren als heute, kam es wohl oft zu Zusammenstößen und Verschmelzungen zwischen ihnen. So wuchsen sie rasant und bildeten mit einer erstaunlich großen Rate neue massereiche Sterne.

Die Astronomen haben jetzt vermutlich das Licht einer Urgalaxie (HD1) nachgewiesen, die schon 300 Millionen Jahre nach dem Urknall existierte. Es ist das bis heute älteste Objekt, das Astronomen je aufgespürt haben. Warum es so hell im UV-Licht leuchtet, ist unklar. Vielleicht entstehen dort sehr viele Sterne der ersten kosmischen Generation (III) – oder HD1 beherbergt ein supermassereiches Schwarzes Loch mit etwa 100 Millionen Sonnenmassen. (Allerdings wäre es für die Astronomen ein noch größere Überraschung, bereits 300 Millionen Jahre nach dem Urknall ein derart massereiches Schwarzes Loch zu finden.)

Mit Hilfe von Gravitationslinsen hat man bereits zwei weitere Galaxien (SPT065-JD und HGN-z11) entdeckt, die wohl 400 Millionen Jahre nach dem Urknall existierten. Sie sollen etwa eine Milliarde Sonnenmassen an Sternen besitzen, sind aber so klein, dass man Einzelheiten ihrer Struktur nicht erkennen kann. Die Strahlung einer weiteren Galaxie (IR 1916) wurde 460 Millionen Jahre nach dem Urknall freigesetzt. Die Galaxie erscheint noch relativ klein – Durchmesser weniger als 3000 Lichtjahre (zum Vergleich: Milchstraße 170 000 bis 200 000 Lichtjahre) – und durchläuft eine Epoche intensiver Sternentstehung. Es handelt sich bei ihr eindeutig um einen frühen Baustein der Galaxienbildung. Die Galaxie A1 689-zD1 entstand 700 Millionen Jahre nach dem Urknall. Mit einigen Milliarden Sternen besitzt sie ebenfalls nur einen Bruchteil der Größe der Milchstraße. Ihre Beobachtungen deuten allerdings auf ein wahres Feuerwerk neu entstehender Sterne hin. [Unlängst wurde ein Objekt (GNz7q) aus der Zeit 750 Millionen Jahre nach dem Urknall entdeckt, bei dem es sich möglicherweise um ein noch junges und nur rund 10 Millionen Sonnenmassen schweres Schwarzes Loch handelt. Der staubverhüllte und heranwachsende Quasar befand sich in einer intensiv sternbildenden Region.]

Die Milchstraße entstand vermutlich vor 13,6 Milliarden Jahren, also 200 Millionen Jahre nach dem Urknall. Manche Wissenschaftler datieren den Ursprung der Milchstraße allerdings auf 13,3 Milliarden Jahre. Jedenfalls bewegen sich ihre noch existierenden Sterne der Population II heute überwiegend im galaktischen Halo, einer Art kugelförmiger Atmosphäre aus Gas, Dunkler Materie und relativ wenigen Sternen rund um die Milchstraße, wurden inzwischen aber auch im galaktischen Zentrum gefunden. Die galaktische Scheibe hingegen birgt die viel später entstandenen Sterne der Population I, zu denen etwa unsere Sonne gehört. Diese Sterne sind jünger als etwa 9 Milliarden Jahre. Unsere Sonne hat ein Alter von 4,6 Milliarden Jahre; es gibt wohl nur wenige Sterne, die noch mehr schwere Elemente besitzen. (Der maximaler Anteil liegt wohl bei 4%.)

Die Häufigkeit von Galaxien nahm offenbar in der kurzen Zeitspanne zwischen 12, 95 und 12,7 Milliarden Jahren vor unserer Zeit (850 bis 1100 Millionen Jahre nach dem Urknall) auf das Drei- bis Sechsfache zu. Dieser plötzliche Anstieg deutet darauf hin, dass das Universum zu Beginn dieses Zeitraums noch zu jung war, um eine höhere Anzahl von größeren, stark leuchtenden Galaxien zu bilden.

[Das Licht der Galaxie AzTEC-3 hat uns nach 12,6 Milliarden Jahren erreicht. In dieser Galaxie entstehen pro Zeitintervall rund tausendmal so viele Sterne wie heute in der Milchstraße. Das Licht ihrer Sonnen wird von interstellarem Staub absorbiert und im Infrarotbereich wieder abgestrahlt. Die Messdaten lassen erkennen, dass wir AzTEC-3 relativ kurz nach der Verschmelzung mit einer anderen Galaxie sehen. Daneben entdeckte man drei weitere Galaxien mit vergleichbaren Entfernungen zu uns. Vermutlich gehören alle vier Galaxien – obwohl noch nicht gravitativ aneinander gebunden – zu einem Komplex. Sie könnten einen entstehenden Galaxienhaufen im Frühstadium präsentieren.]

Periode der gravitativen Unterkühlung

Hunderte Millionen Jahre lang war die kosmische Ursuppe gleichmäßig und strukturlos geblieben, weil es keine großen leuchtkräftigen Objekte gab, welche sie in Wallung bringen konnte. Das kreative Potenzial der Schwerkraft brauchte die Zeit, um aus den anfänglichen Dichteschwankungen im Urgas die Gestirne zu formen, die wieder Licht ins Dunkel des noch jungen Universums brachten. Das mit Sternbildung und Reionisation einhergehende Ende des sogenannten Dunklen Zeitalters war die vorletzte große Veränderung des gesamten Universums. Sie war etwa eine Milliarde Jahre nach dem Urknall abgeschlossen. Das Universum trat in ein neues Stadium ein, die Periode der gravitativen Unterkühlung, die gekennzeichnet ist durch stetige Abkühlung, Kondensation und die Bildung immer größerer, komplexerer Strukturen. Dieser Vorgang erstreckte sich über Jahrmilliarden hinweg.

Frühestens zwei Milliarden Jahre nach dem Urknall setzte eine länger andauernde Phase intensivster Sternentstehung, Galaxienbildung und Quasaraktivität ein. Wann immer eine neue Gaswolke mit einer anwachsenden Galaxie kollidierte, erzeugte die auftretende Stoßfront eine Sternentstehungsexplosion. Die Sternentstehungsrate erreichte etwa 4 Milliarden Jahre nach dem Urknall, also vor knapp 10 Milliarden Jahren, ihren Höhepunkt. In jener Zeit brachte das Weltall ungefähr die Hälfte seiner Sterne hervor. War zunächst noch mehr Masse in Form von interstellarer Materie als in Form von Sternen vorhanden, kehrte sich das Verhältnis um. Die Geburtenrate neuer Sterne hat seither um mehr als das Zehnfache abgenommen.

Die Galaxien sammelten immer mehr neue Sterne ein, wenn sie mit anderen Galaxien zusammenstießen und verschmolzen oder kleinere Galaxien einfingen und sie gleichsam kannibalisierten. So wuchsen sie in Masse und Größe. Astrophysiler schätzen nach Computersimulationen, dass die heutigen massereichen Galaxien mit Ansammlungen von Milliarden bis Hunderten von Milliarden Sternen (wie die Milchstraße) bis zu 80% und mehr ihrer Masse durch „Kannibalismus“ zusammengetragen haben. Mit der Expansion des Universums verlangsamte sich allerdings das Wachstum der Galaxien.

Die Dunkle Materie hatte sich unter dem Einfluss der Gravitation zu einem riesigen Netz aus fadenförmigen Strukturen (Filamenten) zusammengezogen und eine Art Skelett gebildet, das sich noch heute durch das gesamte Universum zieht. Hier sammelten sich die Galaxien. Besonders dichte Knoten des kosmischen Gewebes wurden zu Keimzellen von Galaxienhaufen aus Dutzenden bis Hunderten von Galaxien. So entstand die kosmische Ordnung aus Sternen, Galaxien, Galaxienhaufen und Galaxiensuperhaufen – mit vielen ausgedehnten Leerräumen (Voids) dazwischen.

Die letzte große Veränderung begann vor ungefähr 6 Milliarden Jahren, als das Universum 60% seiner heutigen Größe erreicht hatte. Die auseinander strebende Kraft der sogenannten Dunklen Energie gewann die Oberhand über die Schwerkraft und stoppte die weitere Strukturbildung auf großer Skala. Seither dehnt sich der Weltraum mit wachsender Geschwindigkeit aus und der Abstand zwischen allen großräumigen Objekten wächst, während lokal noch die Schwerkraftwirkung dominiert.

REM

Homo erectus verlässt Afrika

Die räumliche Mobilität menschlicher Bevölkerungen ist so alt wie der evolutiv neuartige Körperbau der Gattung Homo, der mit allen seinen Anpassungen – insbesondere der damit verbundenen physischen Ausdauer – lange Wanderungen erst ermöglichte. Vielleicht begann alles damit, dass der Frühmensch den Weidetieren nachzog, die durch das stark gegliederte Wettergeschehen in Trocken- und Regenzeiten große Strecken zurücklegen mussten. Das „Mitwandern“ bot die beste Chance für eine nachhaltige Nutzung der Tiere. Interessanterweise entspricht die „Durststrecke“ der Menschen etwa der der Wiederkäuer. Für Raubtiere ist ein Mitwandern ungünstig, da sie ein ausgeprägtes Ruhebedürfnis haben und ihre Jungen nicht mitnehmen können.

Spätestens irgendwann vor etwa 1,9 Millionen Jahren müssen sich Gruppen von Homininen, die dem Homo erectus zugerechnet werden, weiter als jemals zuvor ins Unbekannte vorgewagt haben. Vielleicht folgten sie den Tierherden in ausgedehnte Regionen, vielleicht trieben auch Vulkanausbrüche oder gravierende klimatische Veränderungen diese Menschen weiter. Viele vermuten, dass steigende Populationsgrößen es für einzelne Gruppen notwendig machten, neuen Lebensraum zu erschließen.

Erste Ausbreitungswelle

Homo erectus erweiterte seinen Lebensraum (vermutlich vom heutigen Kenia aus) zunächst auf die damaligen Grasländer im südlichen Afrika, im Kongo-Becken und in der heutigen Sahel-Zone. Die damals dort verbreitete Savannenvegetation dürfte ihm vertraut erschienen sein. Mit der Zeit gelangte er auch immer höher in den Norden des Kontinents und erreichte wohl bald das Mittelmeer. Schließlich verließen die Homininen den afrikanischen Kontinent. Im heutigen Israel fanden Forscher 1,9 Millionen Jahre alte steinerne Artefakte. Vor spätestens 1,8 Millionen Jahren gelangten Gruppen an den Südrand des Kaukasus. Im georgischen Dmanisi, 85 Kilometer Luftlinie südwestlich von Tiflis, wurden 1,8 Millionen Jahre alte menschliche Skelettknochen gefunden, darunter Schädel mit Gehirnvolumina zwischen 546 und 775 cm3.

Die Frühmenschen von Dmanisi sind sogenannte „Mosaiktypen„: Einige ihrer Skelett- und Schädelmerkmale sehen relativ modern aus, andere erinnern an frühere Homininen. Wegen ihres charakteristischen Merkmalsmosaiks, das auch gut zu einer Übergangsform passen könnte, werden sie oft unter dem Namen „Homo georgicus“ geführt. Diese Menschen stellten ihre Werkzeuge noch nach der primitiveren Oldowan-Methode her. Es gibt Hinweise, dass sie gelegentlich Tiere zerlegten, ob selbst erlegt oder Raubtieren abgejagt ist unklar.

Vielleicht kamen die Dmanisi-Menschen auch ins südliche Europa, wo sie bald wieder ausstarben. Einige Gruppen von ihnen könnten nach Südostasien weitergezogen sein. Ein zweiter Hauptstrom der ersten Auswanderer könnte aber auch schon weit vor dem Kaukasus gen Osten abgebogen sein und über die Arabische Halbinsel und den während kälterer Klimaepisoden trocken gefallenen Persischen Golf nach Indien und schließlich bis in den Fernen Osten gelangt sein. Frühmenschen erreichten jedenfalls spätestens vor 1,8 Millionen Jahren die heutige indonesische Insel Java, die in Eiszeiten mit dem asiatischen Festland verbunden war. Hier breitete sich Homo erectus explosionsartig aus und bevölkerte wohl bald auch die Wälder und Steppen Ostasiens. (Sicher belegt ist die Besiedlung Ostasiens aber erst für eine Phase vor etwa 1,1 Millionen Jahren.)

Die menschlichen Fossilien aus jener Zeit auf Java zeigen grundsätzliche morphologische Übereinstimmungen im Schädelbau mit den afrikanischen Fossilien. Sie unterscheiden sich allerdings durch etliche Merkmale vom Homo georgicus, was als Anpassung an unterschiedliche Ernährungsgewohnheiten gedeutet werden kann. Die Trockenzeit fällt auf Java sehr kurz aus, so dass vor allem Pflanzen zum Nahrungsspektrum zählten und eine geringe Notwendigkeit zur Beschaffung von Fleisch bestand.

Die erste Welle der Ausbreitung unserer Urahnen stellt eine beachtliche Leistung dar – vor allem die 14 000 Kilometer lange Wanderung von Ostafrika nach Ostasien. Mit Hilfe einfachster Technologie drang Homo erectus in völlig neue Biotope und Klimate vor und passte sich dort erfolgreich an die lokalen Gegebenheiten an. Die genaue Route dieser großen Wanderungen über viele Generationen hinweg ist immer noch unklar: Es gibt keinerlei Hinweise darauf, ob sie entlang der Flussläufe oder der Küstenlinien verlief oder ob die Menschen den Wanderrouten von Tierherden im Landesinneren folgten.

Zweite Ausbreitungswelle

In den folgenden Hunderttausenden Jahren mögen zwar einzelne Gruppen in wärmeren und feuchteren Zwischenphasen immer wieder mal die mittlerweile bekannten Pfade aus Afrika hinaus beschritten haben, aber der breite Strom der Auswanderer riss auf lange Zeit ab. Denn während der Perioden globaler Abkühlung dehnte sich immer wieder eine gewaltige Wüste zwischen Afrika und Eurasien aus. Unterdessen verbreitete sich Homo erectus nach und nach über große Teile des afrikanischen Kontinents.

Der Unterschied zwischen wärmeren und wesentlich kälteren Abschnitten wurde vor etwa 1,4 Millionen Jahren zunehmend ausgeprägter, so dass sich auch die Lebensbedingungen und die gewohnten Ressourcen oft abrupt veränderten. Eine neue Ausbreitungswelle aus Afrika hinaus ereignete sich vor 1,4 bis 1,0 Millionen Jahren. Diesmal erreichten die Homininen auch Südeuropa. Im südspanischen Orce fand man 1,3 Millionen Jahre alte Steinwerkzeuge. Vor 1,2 Millionen Jahren besiedelten erste Menschen Höhlen und Felsspalten in Nordspanien (Sierra de Atapuerca). Die Auswanderer könnten über die Straße von Gibraltar gekommen sein. Eine Landbrücke zwischen dem heutigen Marokko und Spanien wird zwar ausgeschlossen, aber die Frühmenschen könnten auf einfachen Flößen oder ausgehöhlten Baumstämmen die damals schmale, 5 bis 10 Kilometer breite Wasserstraße (heute 14 Kilometer breit) überquert haben.

Schwer vorstellbar ist auch, dass zwischen Tunesien und Sizilien eine feste Landbrücke bestand. Es gibt dort am Meeresgrund Tiefseebecken und eingeschnittene Täler. Doch scheinen Elefanten und andere Tiere das zentrale Mittelmeer tatsächlich überbrückt zu haben. Vielleicht entstand hier, zumindest in besonders kalten Wintern, eine ähnliche Situation, wie wir sie von der Ostsee kennen. Durch einen weit geringeren Salzgehalt als heute – aufgrund des eingeschränkten Wasseraustauschs mit dem Atlantik bei einem niedrigen eiszeitlichen Meeresspiegel – könnte das Mittelmeer einfach zugefroren sein oder sich durch Packeis eine weit ins Meer hineinreichende begehbare Zone gebildet haben.

Die Anatomie der in Spanien gefundenen Menschen ist so einzigartig, dass ihnen die spanischen Forscher einen eigenen Namen, Homo antecessor (wörtlich: „der Mensch, der vorausgeht“), gegeben haben. Sie waren rund 1,70 Meter groß, besaßen eine niedrige Stirn, kräftige Wülste über den Augen und starke Zähne. Die meisten Paläontologen halten sie für eine Variante vom frühen Homo erectus. Ihre Werkzeuge waren noch primitiv, sie ernährten sich vorwiegend von pflanzlicher Kost und verzehrten Fleisch vermutlich noch roh.

Es hat wohl mehrere Einwanderungswellen bzw. erste Vorstöße nach Europa gegeben, wobei sich manche Populationen eine Zeit lang hielten, viele aber bald wieder verschwanden, wenn die Lebensräume durch Klimaverhältnisse unfreundlich oder sogar nicht mehr bewohnbar wurden. So kehrten Gruppen der Auswanderer auch nach Afrika zurück und vermischten sich wieder mit der dort ansässigen Bevölkerung. Dieses Kommen und Gehen macht die Aufstellung von geraden Entwicklungslinien äußerst schwierig.

Der langbeinige und mit einem großen Gehirn ausgerüstete Jäger Homo erectus (Homo ergaster), der vor ca. 1,8 Millionen Jahren plötzlich in Ostafrika auftauchte, könnte sich sogar aus Rückwanderern aus Westasien entwickelt haben. Vor 1,4 Millionen Jahren scheint Homo erectus dann in Afrika verschwunden zu sein, bis er später hier wieder nachweisbar ist. Gruppen seiner Art zogen dann wieder nach Eurasien.

Immer wieder tauchten vor etwa einer Million Jahren Menschen im europäischen Mittelmeergebiet auf, kamen aber dauerhaft zunächst nicht über die südlichsten Regionen des Kontinents hinaus. So sind Frühmenschen in Ceprano (südlich von Rom), in Südfrankreich (Le Vallonet, nahe Mentaon) und in Nordgriechenland (Höhle bei Petralona) nachgewiesen. In der Grandolina-Höhle in der Sierra de Atapuerca (Spanien) kamen menschliche Knochen und Zähne zutage, die auf mindestens 780 000 Jahre geschätzt werden. Viele Merkmale erinnern stark an den frühen afrikanischen Homo erectus, aber es gibt auch einige moderne Merkmale: So zeigen der flache Gesichtsschädel mit eingesenkten Wangenknochen und vorspringender Nase sowie der Bau des Unterkiefers bereits deutliche Ähnlichkeiten zu anatomisch modernen Menschen. Allerdings gibt es keine Hinweise auf die fortschrittliche Acheuleen-Technologie.

In Asien wurden in Wolo Sege auf der kleinen Sunda-Insel Flores, zwischen Java und Timor gelegen, mindestens 1,02 Millionen Jahre alte Werkzeuge gefunden. Die Insel war auch zu Zeiten niedrigsten Wasserspiegels stets durch mindestens 19 Kilometer offenen Meeres von der Nachbarinsel Sumbawa getrennt. Das bedeutet also, dass die Einwanderung der Frühmenschen nur über das offene Meer erfolgt sein konnte. Demnach musste auch hier Homo erectus bereits über seetüchtige „Fahrzeuge„, z. B. Bambusbündel oder -flöße, verfügt haben. Auf Flores und Timor wurden auch rund 840 000 Jahre alte, grob behauene Steinwerkzeuge gefunden. Interessanterweise gibt es Langzeit-Parallelen bei der Entwicklung der Steinwerkzeuge auf Java und Flores. Daraus folgert man, dass es einen ständigen sozialen Austausch zwischen den Frühmenschen auf der Insel und denen auf dem Festland gegeben haben muss.

Vom Homo erectus stammen wahrscheinlich auch die zwergförmigen Flores-Menschen (Homo floresiensis) ab. Sie könnten späte Nachfahren des frühen Homo erectus sein, der vor über einer Million Jahren die Küste Indonesiens und die Insel Java erreichte und sich dann isoliert von anderen Artgenossen zu einer eigenständigen Form entwickelte.

Interessanterweise hat sich die Acheuleen-Technologie niemals bis nach Ostasien ausgebreitet. Homo erectus ging hier weitgehend seinen eigenen Weg, unabhängig vom Geschehen in der übrigen Welt. Vermutlich gestalteten die frühesten Ostasiaten ihre Werkzeuge zumeist aus Holz oder Bambus. Aus der Zeit vor etwas mehr als 800 000 Jahren sind in China große Steinwerkzeuge (symmetrisch bearbeitete Schneidewerkzeuge) belegt. Sie ähneln dem bekannten Faustkeil, weisen aber auf eine eigenständige Kultur hin.

Von einem mutmaßlichen Homo erectus , der vor etwa 500 000 Jahren im Raum Peking lebte (Peking-Mensch), fand man in Höhlen Holzkohle (Feuer!), Quarzitspitzen zum Schärfen von Speeren und Äxte zum Fällen von Bäumen. Die gefundenen Schädel hatten bereits ein Gehirnvolumen von durchschnittlich knapp 1100 cm3, bei allerdings großer Streuung. Der Peking-Mensch starb frühestens vor 230 000 Jahren aus. Auf Java lebte Homo erectus nach einer neueren Studie (Fundort Ngandong) noch bis vor 117 000 bis 108 000 Jahren. Wahrscheinlich starb er als eine lokale Art in anderen abgelegenen Gebieten noch viel später aus (wie z. B. die Zwergformen Homo floresiensis oder Homo luzonensis auf Inseln). Ob der asiatische Homo erectus auch wieder ins westliche Europa vorgestoßen ist, ist noch unklar.

Homo heidelbergensis

Wärmere Phasen erlaubten mehrfach ein Vordringen von Urmenschen auch in die nördliche Gebiete Westeuropas. In der Nähe von Worms (Westdeutschland) und bei Happisburgh (im Osten Englands) wurden 800 000 bzw. 780 000 Jahre alte Steinwerkzeuge gefunden. An der Themsemündung stieß man auch auf die bislang ältesten Fußspuren von Menschen außerhalb von Afrika: geschätzt 700 000 Jahre alt. Verbesserte Werkzeuge, eine hohe Flexibilität, ein ausgeprägtes Sozialverhalten und die Fähigkeit, Feuer zu machen und zu beherrschen trugen dazu bei, dass die frühen Menschen immer weiter in kältere Klimazonen vordringen konnten. Eine nennenswerte und kontinuierliche Besiedlung im Norden Europas fand aber erst vor 600 000 bis 500 000 Jahren statt.

Die neuen Menschenformen, die sich in Europa, Afrika und Westasien herausbildeten und hier bis vor etwa 200 000 Jahren lebten, werden vorläufig als Homo heidelbergensis bezeichnet, zunehmend auch Funde, die bisher als Relikte des frühen Neandertalers galten. Vielleicht stammt dieser Menschentyp vom Homo antecessor ab. Da aber auch in Afrika Fossilien gefunden wurden, die dem Heidelberger Typ entsprechen – z. B. ein 600 000 Jahre alter Schädel aus Bodo / Äthiopien – glauben viele Paläoanthropologen, Homo heidelbergensis habe sich zuerst in Afrika aus einer dortigen Form des Homo erectus entwickelt und sei dann nach Europa vorgedrungen. Homo antecessor wäre in diesem Fall lediglich ein fehlgeschlagener erster „Ausflug“ einer früheren afrikanischen Menschenform nach Europa gewesen, die wieder verschwand und keinen Nachkommen hinterließ – quasi ein Irrläufer der menschlichen Evolution.

Vor rund einer halben Million Jahren verstärkten die Kaltphasen der Eiszeiten die Isolierung Europas noch weiter. Die Eisdecken dehnten sich über dem Nordwesten des Kontinents und den Hochgebirgen aus. Die Landschaftsarten, die sich heute zwischen Nordskandinavien und dem Mittelmeer erstrecken, drängten sich auf dem Höhepunkt der Kaltzeiten zwischen dem heutigen Belgien und Spanien zusammen. Gleichzeitig sank der Meeresspiegel, so dass entlang der Küsten neuer Lebensraum hinzukam: Ärmelkanal, Nordsee und nördliche Adria lagen trocken.

Tundra-Verhältnisse in Mitteleuropa bedeuteten eine trockene Kälte mit hoher Sonneneinstrahlung. Die Sommer waren warm und angenehm, die Winter aber streng – ein Klima, das insgesamt den Ansprüchen der Menschen zuträglicher ist als das heutige Klima in unseren Breiten mit reichlich Niederschlägen. Die Tundra war reich bewachsen; die Pflanzen enthielten viele wertvolle Mineralstoffe. Dies war eine der Ursachen für den ungeheuren eiszeitlichen Tierreichtum und machte erst die Größe der Tiere und ihre Fähigkeit, den eiszeitlichen Winter zu überstehen, möglich. Der höhere Fettgehalt im Fleisch sorgte auch bei den Homininen für einen wichtigen „Brennstoff“ gegen die Winterkälte; die Mineralien, vor allem die reichliche Versorgung mit Phosphorverbindungen, sorgten für den weiteren Aufbau des menschlichen Gehirns. Dessen Volumen erreichte beim Homo heidelbergensis bereits 1200 bis 1300 cm3.

Mit Beginn des Mittelpleistozäns vor rund 400 000 Jahren gab es zusätzlich zu den großen, periodisch wiederkehrenden Klimaschwankungen der eigentlichen Eis- und Zwischeneiszeiten wohl auch während der einzelnen Warmzeiten etliche kurze, durchaus heftige Einbrüche. Wie die Evolution der Homininen in Afrika stark von lokalen wie von globalen Klimaumschwüngen beeinflusst war, mit denen eine Ausbreitung oder Rückbildung der Wald-, Savannen- oder Wüstenregionen einherging, so gab es auch für die damalige europäische Entwicklung des Menschen mit den stark wechselnden Klimabedingungen vergleichbare Ursachen. Es bildeten sich verschiedene Lokalpopulationen mit ganz bestimmten Merkmalskomplexen und Fähigkeiten heraus. Trafen diese Gruppen nach einiger Zeit bei ihren Wanderungen wieder aufeinander, ergab sich die Gelegenheit, Wissen und Gene auszutauschen.

Schließlich vermochte Homo heidelbergensis mit seinen Fertigkeiten (von verbesserter Werkzeugherstellung über Kochen bis zum Bau von Behausungen) die Natur effizienter auszubeuten als seine Vorfahren. Er kannte bereits die Werkstoffeigenschaften von Steinen, Knochen und Geweihen und verwendete Zahnbein und Holz und wahrscheinlich auch andere organische Stoffe. Diese Menschen waren überwiegend Rechtshänder und benutzten bei manchen Beschäftigungen, z. B. beim Bearbeiten von Fellen, das Gebiss als „dritte Hand“.

Funde von zahlreichen seiner Rastplätze belegen, dass Homo heidelbergensis schon ein geschickter Großwildjäger mit perfektionierten Waffen gewesen sein muss, noch erfolgreicher als seine Vorgänger. Die älteste bekannte unzweifelhafte Jagdwaffe ist eine Stoßlanze aus Clacton (England), die das Töten von Großwild, wenn auch nur aus nächster Nähe, erlaubte. Auch Geweihhacken könnten als Jagdgeräte gedient haben. Für die Jagd auf Wasservögel wurden Wurfstöcke (Wirbelhölzer) benutzt.

Die Gefahren für den Jäger, die vom gejagten Großwild ausgingen, waren allerdings beträchtlich und wurden erst mit der Erfindung des Wurfspeers vermindert. Zumindest der späte Homo heidelbergensis verstand es, Speere mit praktisch perfekten Wurfeigenschaften herzustellen. Am Nordrand des Harzes (Schöningen / Deutschland) fand man zweieinhalb Meter lange Speere, die so ausbalanciert waren wie heutige Sportspeere und mit denen sich treffsicher einige Dutzend Meter weit werfen ließ. Auf dem zwischen 370 000 und 290 000 Jahre alten Jagdplatz fand man neben den Speeren auch Skelettreste von mindestens zwanzig Pferden (Hengste, Stuten, Fohlen).

Um bei der Jagd erfolgreich zu sein, musste Homo heidelbergensis die gesamte Natur beobachten. Er musste die Jahreszeiten genauestens kennen, über präzise Ortskenntnis verfügen und grundlegendes Wissen über das Verhalten der Tiere haben. Insbesondere die Großwildjagd stellte hohe Anforderungen an geistige Beweglichkeit, Reaktionsvermögen und soziale Kommunikation. Diese Menschen mussten also nicht nur Situation blitzschnell erfassen, sondern sich untereinander auch rasch verständigen können. Schnelle und kräftige Wildtiere, wie z. B. Pferde, konnten wohl nur von Menschen erlegt werden, die in Gruppen organisiert waren und sprachlich miteinander kommunizierten. Daher gilt heute als sicher, dass bereits Homo heidelbergensis eine Sprache entwickelt hatte. Wir wissen allerdings nicht, wie komplex die Sprache war.

Vor 370 000 Jahren hatten Vertreter des Homo heidelbergensis eine kleine Siedlung beim heutigen Bilzingsleben (Thüringen) angelegt, die sie immer wieder eine Zeitlang (vielleicht sogar über mehrere Jahre) bewohnten. Sie war in Wohn-, Arbeits- und andere Aktivitätsbereiche untergliedert, was auf eine soziale Organisation hindeutet. Die größte Sensation ist ein fast runder Platz von neun Metern Durchmesser am Rande des Lagers, zu dem eine gerade Reihe aus großen Steinbrocken führte. An deren Anfang grub man zwei 1,80 Meter große Elefantenstoßzähne aus, die wahrscheinlich ursprünglich aufrecht standen.

Der Platz selbst war dicht mit Steinen und flachen Knochenstücken gepflastert und frei von jeglichen alltäglichen Sachen. Offensichtlich nahm das Areal im Alltagsleben der Gruppe eine herausragende Stellung ein. In der Mitte dürften auf Steinplatten Feuer entfacht worden sein. Auf einem Quarzitblock, der zwischen den Hornenden eines in das Pflaster eingelassenen Wisentschädels steckte, wurden Knochen zerschlagen. Man fand auch mehrere menschliche Schädelfragmente, möglicherweise Anzeichen für ein Ritual.

In der Zeit des Homo heidelbergensis wurden vielfach die Schädel Verstorbener an Lagerplätze gebracht und eine Zeitlang aufbewahrt. Die Schädel der Pferde in Schöningen waren nicht zerschlagen – ein Erstbefund in der Altsteinzeit -, was auf eine ehrfurchts- und respektvolle Behandlung des erbeuteten Wildes oder eventuell auch auf ein Ritual hindeuten könnte.

Auf dem Platz in Bilzingsleben fand man auch eine besondere Art von Faustkeil, der nicht aus Feuerstein war und zudem so groß und schwer, dass er nicht zum Zerteilen von Tieren oder Zerhacken von Pflanzen hergestellt worden sein konnte. Er diente möglicherweise als Statussymbol. Auch in einer spanischen Höhle (Sima de los Huesos) hatte man einen aus wertvollem Material (rotem Quarzit) hergestellten Faustkeil gefunden, der offensichtlich bei der Bestattung einem Gruppenmitglied mitgegeben wurde.

Die Gedanken des Homo erectus reichten offensichtlich weit über die notwendigsten alltäglichen Verrichtungen der Existenzsicherung hinaus. Nicht erst Homo sapiens erfand also die menschliche Kultur, symbolisches Denken, planvolles Handeln und Sprache. Die Grundsteine dazu hatte der Homo erectus schon längst gelegt. Der Urgeschichtler Hansjürgen Müller-Beck geht davon aus, „dass mit Sicherheit bereits vor 400 000 Jahren der Schritt zu einem Menschen vollzogen worden war, der sich in seinen Möglichkeiten von uns nicht mehr grundsätzlich abhebt“.

Unklare Verhältnisse

Eine Geschichte des Menschen, die vor allem auf Anatomie und Knochen aufbaut, weist leider zahlreiche Lücken und Irrtümer auf und vermittelt im Detail bestenfalls ein diffuses Abbild dessen, was einst eine verwickelte Abfolge von Ereignissen gewesen sein muss. Das liegt zum Einen daran, dass auf einige tausend Generationen rein statistisch betrachtet lediglich ein einziger Fund kommt. Des Weiteren sind viele morphologische Merkmale individuell sehr variabel und lassen sich nicht einfach als vorhanden oder nicht vorhanden klassifizieren. Parallelentwicklungen und Umkehrungen von Merkmalsausprägungen sowie Rückbildungen können ebenso in die Irre führen und die Einordnung von menschlichen Fossilien letztlich sehr verkomplizieren.

Offensichtlich zeichnete sich Homo erectus durch eine große anatomische Vielfalt aus. Aus diesem Grunde haben einige Paläoanthropologen separate Artnamen vergeben: Homo ergaster, Homo georgicus, asiatischer Homo erectus, Homo antecessor, Homo heidelbergensis. Es scheint aber keinen Sinn zu machen, die unterschiedlichen Populationen des Homo erectus als eigene Arten zu führen. Die Forscher verweisen auf eine zu erwartende große Variation bei lange Zeit und weit verstreut existierenden Formen hin. Vor allem die zunehmende räumliche Trennung der Populationen und eine gewisse Anpassung an die örtlich vorherrschenden Verhältnisse führten zur Entwicklung regionaler Menschenformen. Aber selbst innerhalb derselben lokalen Fortpflanzungsgemeinschaft ist das Gemisch aus alten und moderneren Merkmalen oft verwirrend.

Für die Wissenschaftler ist es schwierig, DNA unserer Vorläufer zu finden, da sich das Molekül unter den damaligen Klimabedingungen im Laufe der langen Zeit schnell zersetzte. Allerdings ist es Forschern inzwischen gelungen, aus dem Zahnschmelz eines Homo heidelbergensis Erbgutinformationen zu erhalten. Danach könnte er eng mit dem gemeinsamen Vorfahren von Denisovaner, Neandertaler und Homo sapiens verwandt sein. Die gemeinsamen Eigenschaften dieser Homininenarten sind also womöglich noch früher entstanden, als wir bislang vermutet haben. Der Vorfahr könnte ein Homo heidelbergensis gewesen sein, der nach Afrika zurückkehrte, sich aber später wieder in Eurasien ansiedelte.

Eine klare Grenzziehung zwischen Homo heidelbergensis und Neandertaler anhand der Schädel- und Skelettmerkmale ist nicht möglich, da auch die Fossilien aus dieser Periode individuell verschiedene, mosaikartige Muster aus alten und fortschrittlicheren Merkmalen besitzen. Vor etwa 400 000 Jahren sollen jedenfalls Neandertaler und Denisovaner schon getrennte Wege gegangen sein, wobei sich Letztere vor allem in Ost- und Südostasien ausbreiteten, bevor Homo sapiens dort auftauchte. Dieser hat sich, davon gehen die meisten Forscher nach den vorliegenden afrikanischen Menschenfossilien aus, weitgehend unabhängig von den Kolonisten des Nordens in Afrika aus dem (afrikanischen) Homo erectus über den archaischen Homo sapiens zum modernen Typ entwickelt, bevor auch er den Kontinent verließ.

REM

Der frühe Homo erectus

Von frühesten Zeiten an war Afrika das Ursprungszentrum neuer Menschenlinien. Vor rund zwei Millionen Jahren betrat hier mit dem Homo erectus eine großwüchsige und wendige Menschenform, die der unseren bereits deutlich ähnelt, die Bühne. Die ältesten Funde stammen aus den klassischen Verbreitungsgebieten der Homininen: aus den mehr oder weniger offenen Savannengebieten und Galeriewäldern Ost- und Südafrikas. Mit Homo erectus zusammen lebten damals in Ostafrika, z. B. rund um den Turkana-See (im Norden des heutigen Kenia) – wahrscheinlich mindestens einige hunderttausend Jahre lang – drei weitere Homininenarten: Paranthropus boisei, Homo habilis und Homo rudolfensis. Die Wissenschaftler vermuten, dass sie unterschiedliche ökologische Nischen besetzten und nicht miteinander konkurrierten.

Homo erectus gilt als der erste definitive Vertreter der Gattung Homo. Er unterschied sich im Körperbau (Körpergröße und Proportionen) nur wenig vom modernen Menschen. Die Aufrichtung des Körpers hatte sich schon durchgesetzt. Er hatte lange Beine und kürzere Arme, da er nicht mehr klettern musste – ein „Läufertyp„, hervorragend angepasst an das Leben im offenen Grasland. Charakteristische Skelettmerkmale sind dickwandige Knochen, vorspringende Überaugenwülste und ein langgezogener und niedriger Hirnschädel.

Ernährung

Die Trockenzeit vor zwei Millionen Jahren war eine Zeit des verschärften Existenzkampfes, der ständig neue innovative Lösungen von den ums Überleben kämpfenden Homininen forderte. Essbare Knollen (stärkehaltige Speicherorgane von Pflanzen) machten den Löwenanteil der Nahrung der Homininen aus. Sie waren ganzjährig verfügbar und auch leicht mit Grabstöcken erreichbar. Das Problem stark begrenzter Nahrungskapazitäten bei Klimaveränderungen löste Homo erectus, indem er seine ökologische Nische durch die Nutzung fleischlicher Nahrung erweiterte. Diese macht bei ihm nach neueren Untersuchungen im Vergleich zu den allerersten Vertretern seiner Gattung einen größeren Anteil an den Nahrungsmitteln aus. Das Fleisch stammte zunächst vermutlich aus von großen Raubkatzen und Hyänen zurückgelassenen oder ihnen abgejagten Tierkadavern. 1,8 Millionen Jahren alte Funde deuten aber darauf hin, dass Homo erectus zu dieser Zeit schon den Erstzugang zu den Kadavern hatte. Er musste also damals bereits ein primitives Jäger- und Sammlerdasein geführt haben.

Vor ungefähr zwei Millionen Jahren war dem Homo erectus das Öffnen und Zerlegen mit scharfkantigen Steinklingen schon bekannt. Mit Steingeräten vermochte er obendrein Knochen zu zertrümmern, um an das besonders nahrhafte Knochenmark und Hirn heranzukommen. Wahrscheinlich klopften unsere Vorfahren das rohe Fleisch mit Steinhämmern weich, um es leichter verdaulich zu machen und dadurch mehr Energie daraus zu gewinnen. Diese Prozedur war dem Öffnen von Nüssen sehr ähnlich und wurde auch bei anderer Pflanzennahrung angewandt.

Zu reinen Fleischessern wurden diese frühen Menschen deswegen nicht – sie blieben Opportunisten. Die Tierkadaver machten also wahrscheinlich eher einen geringeren Teil der Nahrung aus. Aber schon dass Homo erectus seinen Speisezettel um nennenswerte Mengen an tierlicher Nahrung ergänzte, wertete seine Versorgung auf.

Zum erweiterten Fleischkonsum trug bei, dass das Grasland wieder zunahm und sich just vor 1,8 Millionen Jahren Savannen des heutigen Typs ausbreiteten, wodurch in Ostafrika die Vielfalt und Bestandsdichte der Huftiere zunahm. Zur Beute des Homo erectus gehörte nun ein großer Anteil erwachsener Tiere im besten Alter. Die Suche nach verendenden Großtieren auf den weiträumigen Savannen musste schnell erfolgen: Für Fleisch gab es viele Konkurrenten – vom wehrhaften Großraubtier bis zu Myriaden von Fäulnisbakterien. Generell gewinnt die Gruppengröße bei Auseinandersetzungen mit den Raubtieren. Zehn Steine schleudernde Homininen konnten jeden Konkurrenten von der Beute vertreiben. Möglicherweise jagten diese Menschen aber auch schon aus dem Hinterhalt, lauerten z. B. an den Wasserstellen auf Bäumen und schleuderten aus kurzer Distanz Steine oder gar schon „spitze Holzspeere“ auf nahe vorbeikommende Tiere. Sie verfolgten diese dann, bis sie ihren Verletzungen erlagen.

Sozialleben

Die Ausweitung der ökologischen Nische durch Nutzung größerer Tiere als Quelle fleischlicher Nahrung und vor allem die Kooperation in der Gruppe bedeutete für den Einzelnen eine höherer Überlebenschance und half der Art Homo erectus in ihrer Frühzeit, heftige Klimawechsel und Umweltveränderungen zu überstehen. Sie dürfte sich auch nachhaltig auf die Struktur und Auffächerung des sozialen Lebens ausgewirkt haben. Die Beute wurde unter den Gruppenmitgliedern verteilt, ein für Jäger und Sammler typisches Verhalten. Vermutlich gingen, um das Überleben der Gesamtgruppe zu sichern, die Männer auf Beutezug, während die Frauen mit kleinen Kindern in geschützten Bereichen zurückblieben. Die Frauen sammelten Früchte, Knollen und Insekten. Am Abend trafen dann alle wieder an einem zentralen Lagerplatz zum Verteilen und gemeinschaftlichen Essen zusammen.

Durch die Nutzung von energiereichem Fleisch gewann schon der frühe Mensch mehr freie Zeit, die er ansonsten zur Suche nach pflanzlicher Nahrung hätte aufwenden müssen. Diese gewonnene Zeit ließ sich für viele Aktivitäten einsetzen. Besonders wichtig waren die Pflege von sozialen Kontakten und die Weitergabe von Wissen (z. B. zur Werkzeugherstellung). Dies führte wiederum zu einer stärkeren sozialen Bindung und Organisation der Gruppenmitglieder, eventuell auch zu einer engeren Paarbindung. Die Gruppen des Homo erectus waren in ihrem Lebensraum weit verstreut, die Bevölkerungsdichte insgesamt wahrscheinlich niedrig. Eine zeitweise genetische Isolation begünstigte die Entwicklung regionaler anatomischer Varianten. Kam es nach langer Isolation wieder zu Kontakten zwischen den Gruppen, fand erneut Genfluss statt.

Hirnentwicklung

Die zunehmende Vergrößerung und Differenzierung des Gehirns war die entscheidende Weiterentwicklung des Homo erectus. Nach der populärsten und ältesten Modellvorstellung konnte sich das Gehirn durch den Erwerb des Aufrechtgangs und der damit verbundenen Verfügbarkeit der Hände (z. B. für Werkzeuggebrauch und -herstellung) weiter entwickeln. Dies war aber wohl nur eine wichtige Vorbedingung, jedoch nicht die ausschlaggebende Triebkraft für die Zunahme des Gehirnvolumens. Wahrscheinlich war auch die Umstellung auf tierliche Nahrung – Fleisch und Knochenmark – eine wichtige Voraussetzung für den ersten Schub des Hirnwachstums. Denn nur mit Fleisch war die dafür nötige Versorgung mit Phosphaten und Fettsäuren gewährleistet. Doch kann die rein stoffliche Sicht höchstens Randbedingungen der Gehirnevolution angeben, nicht aber deren Ursachen.

Vermutlich war es nicht ein einzelner Grund, der die Entwicklung zu einem größeren, stärker spezialisierten Gehirn forcierte, sondern eine Kombination von Gründen – ein „Karussell“ aus positiven Rückkopplungen. Ein verbesserter Zugang zu Fleisch brachte eine bessere Versorgung mit Nahrungsenergie und auch mit Gehirngewebe-Bausteinen, was zur Begünstigung des Gehirnwachstums führte. Dieses brachte wiederum eine erweiterte Lernfähigkeit, wodurch ein komplexes Sozialleben und Verständigungsmuster, innovativere Werkzeuge und erfolgreichere Jagdstrategien ermöglicht wurden – und dadurch wiederum ein verbesserter Zugang zu Fleisch. Angetrieben wurde dieses „Karussell“ vom immer trockener werdenden Klima, das steten Selektionsdruck in Richtung auf innovative Problemlösungen und damit auf ein größeres Gehirn erzeugte.

Feuer

Neben einem größeren Fleischanteil in der Ernährung begünstigte aber wohl auch die „Erfindung“ des Feuers die Hirnentwicklung. Mit der Aneignung des Feuers gelang es dem Homo erectus erstmals, eine Naturkraft zu zähmen, vor der alle anderen Tiere Angst haben. Er nutzte glimmende Holzstücke aus Blitzeinschlägen und Buschbränden, um ein Feuer zu unterhalten. Zum ersten Mal hatten Menschen damit Energie in der Hand und stellten sie in ihre unmittelbaren Dienste. Das Feuer wurde zum Bestandteil des öffentlichen Lebens. Es sicherte Nachtlicht und bot Schutz vor Kälte und gefährlichen Tieren. Die Feuerstelle wurde zum Lagerfeuer, zum sozialen Mittelpunkt, um den sich die Gruppenmitglieder versammelten, womit der weitere Zusammenschluss der Gemeinschaft gefördert wurde. Unter der Hitzewirkung barsten Steine zu scharfkantigen Werkzeugen. Zudem ließen sich durch Feuer Jagdtiere einschüchtern und in die Enge treiben, besonders wenn man gemeinschaftlich vorging.

Vor mindestens 1,5 Millionen Jahren lernte Homo erectus – neben der Kunst des Feuermachens – auch Fleisch zu kochen und dadurch verwertbarer und länger haltbar zu machen. Feuer tötet Mikroben ab. Das Fleisch wird durch Garen und Rösten nicht nur schmackhafter, sondern auch leichter verdaulich, denn das Erhitzen der Nahrung wirkt wie eine Art Vorverdauung außerhalb des Organismus. Der reduzierte Verdauungsaufwand führte einerseits zu einem deutlich verkleinerten Kauapparat. Niemals in der menschlichen Evolution haben sich die Zähne stärker verkleinert als beim Übergang von Homo habilis zu Homo erectus. Zum anderen verkürzte sich der Magen-Darm-Trakt. Der Darm verbraucht viel Energie. Durch seine Verkürzung war mehr Energie für die Hirnleistung vorhanden, was zu einem Schub in der Hirnvergrößerung führte.

Werkzeug-Technologie

Steigende Hirnleistung war wiederum Voraussetzung für die Erfindung und den Einsatz von Werkzeugen. Nach der bisherigen Vorstellung entwickelte Homo erectus spätestens vor 1,7 Millionen Jahren die fortschrittliche Acheuleen-Technologie (benannt nach dem Erstfundort St. Acheul im Somme-Tal in Frankreich). In mehreren aufeinander abgestimmten Arbeitsschritten wurde dabei die gewünschte Form aus einem Rohling herausgeschlagen. Erstmals wurden also Werkzeuge mit Hilfe von Werkzeugen hergestellt – ein enormer technischer Fortschritt, der Planung und Vorstellungskraft erforderte. Faustkeile, vielseitig verwendbare mandelförmige Werkzeuge, lang und flach mit beidseitig scharfen Kanten, sind die Markenzeichen des Acheuleen und gelten als die Schweizer Messer der Altsteinzeit. Ihre starke Verbreitung bezeugt, wie geschickt der Homo erectus schon früh mit dem Werkstoff Stein umzugehen wusste.

Aber auch die ältere Oldowan-Technologie – mit der simple Geröllbrocken mit einer einzigen Schneidekante hergestellt wurden – blieb offenbar noch die gesamte Altsteinzeit über in Gebrauch. Homo erectus nutzte anscheinend beide Technologien parallel. Er reagierte damit flexibel auf die aktuelle Situation – je nachdem, welche Rohmaterialien rund um seinen Lagerplatz verfügbar waren und wofür er das Werkzeug brauchte. Die standardisierten Artefakte des späten Oldowan und noch mehr dann die ausgefeilten Stücke des Acheuleen sprechen dafür, dass die Hersteller Wissen schon viel besser weiterzugeben und auszutauschen verstanden.

Das Acheuleen bestand in Afrika und Eurasien mit immer weiter verfeinerten Werkzeugen bis vor rund 150 000 Jahren. (Faustkeile in archaischer Form verschwanden vor ca. 400 000 Jahren.) Dass das Know-how zwischen Afrika, Asien und Europa ausgetauscht wurde, ist angesichts fast identischer Geräteformen wahrscheinlich.

Nacktheit

Die Notwendigkeit schnellen und dauerhaften Laufens zum Erwerb fleischlicher Nahrung in der offenen Savanne geriet in Konflikt mit den hohen Temperaturen des tropischen Klimas. (Für eine nächtliche Nahrungssuche reicht die Leistungsfähigkeit der menschlichen Sinne nicht aus!) Die Lösung des Problems lag in der Entwicklung und Zunahme von wasserverdunstenden und salzkonzentrierenden Schweißdrüsen am ganzen Körper und gleichzeitig eine Verminderung der Haarzellen bzw. eine Verringerung der Haargröße. Höchstwahrscheinlich war Homo erectus spätestens vor 1,6 Millionen Jahren der erste Hominine ohne komplette Körperbehaarung und mit einer großen Menge Schweißdrüsen, was zu einer wirkungsvollen Kühlung des Körpers in der Hitze der Savanne führte. (Da sich Haare nicht erhalten haben, bleibt es allerdings Spekulation, ob die Verdünnung und Reduzierung der Behaarung erst beim Homo erectus Verhältnisse ähnlich wie beim heutigen Menschen erreichte.)

[Nur die Haare auf dem Kopf und die Scham- und Achselbehaarung blieben. Die Kopfbehaarung steht im Zusammenhang mit der Thermoregulation des Körpers. Das wärmeempfindliche Gehirn muss vor Überhitzung (Sonnenstich!) geschützt werden. Das dichte Haupthaar umschließt ein isolierendes Luftkissen und sorgt an heißen Tagen für kühlere Luft zwischen der schwitzenden Kopfhaut und der heißen Haaraußenschicht, da der Kopfschweiß in den kühleren Luftraum hinein verdunstet. Dichte Locken sind in dieser Hinsicht die denkbar beste Kopfbedeckung, da sie die Dicke der Luftschicht erhöhen und zugleich eine Ventilation erlauben.

Scham- und Achselhaare dienen der Verbreitung des spezifischen Körpergeruchs eines Menschen. Vor allem hier sitzen Drüsen, die ein ganzes Bukett an Düften produzieren. Die Haare in diesen Bereichen sind bei allen Menschen gekräuselt und so mit einer besonders großen Oberfläche versehen, wodurch die Duftstoffe auf eine vergleichsweise große Fläche verteilt werden. Auf den Haaren befinden sich zahlreiche Bakterienarten, die in ihrer Zusammensetzung offenbar ganz spezifisch für jedes Individuum sind und durch einen in seinen einzelnen Schritten noch nicht vollständig geklärten chemischen Abbau des Duftdrüsensekrets zum kommunikativen Endprodukt führen, eben zu dem für jeden Menschen typischen Körpergeruch. Dieser individuelle Geruch spielte bei Homo erectus im Zusammenleben wohl noch eine wichtige regulative Rolle – und tut es (in geringerem Maße) bei den modernen Menschen wohl heute noch.]

Der Kühlungstrick verschaffte Homo erectus gewaltige Vorteile. Während die großen Raubtiere der Savanne in der Regel in sengender Tageshitze im Schatten von Bäumen ruhen müssen und erst in der Dämmerung aktiv werden, konnte der frühe Mensch auch unter solchen extremen Bedingungen aktiv werden. So war Homo erectus der erste Hominine, der vom Gejagten über die Zwischenstufe des Fleischdiebs an Raubtierrissen schließlich zum tagaktiven Ausdauerjäger wurde.

Durch den Verlust des Haarkleids war Homo erectus den gefährlichen UV-Strahlen der Sonne schutzlos ausgesetzt. Das Problem konnte durch die Entwicklung einer starken dunklen Hautpigmentierung gelöst werden. Vor allem zum Schutz vor nächtlicher Unterkühlung baute sich im Laufe der Zeit eine Fettschicht auf, das Unterhautfettgewebe, eine Besonderheit des Menschen, die anderen Primaten fehlt. Möglicherweise aber blieb Homo erectus auch schon die wärmende Eigenschaft getrockneter Tierhäute nicht verborgen. Diese hielten auch während der Regenzeit warm, denn Tierfelle sind aufgrund der wasserabweisenden Talgschicht der Haare wasserdicht.

Kommunikation und Zusammenarbeit

Wohl erst als unsere Vorfahren durch kräftiges Schwitzen überschüssige Körperwärme leicht loswerden konnten, vermochte sich das temperaturempfindliche Gehirn stark zu vergrößern. Bei den frühen Formen des Homo erectus betrug das Gehirnvolumen vor 1,5 Millionen Jahren bereits 800 bis 900 Kubikzentimeter, immerhin schon doppelt so viel wie die damals lebenden Affen. Größere Gehirne befähigen, wie schon erwähnt, zu komplexerem sozialem Verhalten, was wiederum die Taktiken der Nahrungsbeschaffung verbesserte. Und indem die Ernährungslage immer günstiger wurde, konnte auch das Gehirn noch größer werden. (Beim späten Homo erectus erreichte das Hirnvolumen mehr als 1200 Kubikzentimeter.)

Durch die verzögerte Entwicklung verlängerte sich die Kindheit (längere Reifezeit) schon beim frühen Homo erectus. So kam dem Lernen eine immer größere Bedeutung zu, während starre, durch das Erbgut programmierte Verhaltensmuster immer stärker in den Hintergrund traten. Die raschen Umweltveränderungen durch abrupt einsetzende Wärme- und Kälteperioden, die sich teils sogar innerhalb der Lebensspanne eines Individuums ereigneten, erforderten flexibleres und vielseitiges Verhalten. Sie könnten ebenfalls die Zunahme der geistigen Fähigkeiten und der geistigen Beweglichkeit des Homo erectus gefördert haben.

Für die gemeinsame Jagd und das Leben in Gruppen war eine Form von Kommunikation erforderlich. Vermutlich war Homo erectus in der Lage, zumindest durch Lautkombinationen und Gesten mit seinen Artgenossen zu kommunizieren. Viele Forscher sehen in ihm sogar den ersten Homininen, der zu einer gewissen sprachlichen Kommunikation fähig war. Da er immer raffiniertere Werkzeuge entwickelte, Großwildjagd betrieb und lernte, das Feuer zu beherrschen, hätte er jedenfalls schon mehr Verwendung für Sprache gehabt als seine Vorgänger. Die Entwicklung einer, wenn auch primitiven Sprache könnte für eine kleinere Population sogar einen so enormen Vorteil gebracht haben, dass diese auf Kosten anderer Populationen erfolgreich gewesen wäre.

Der Kehlkopf des Homo erectus lag auf jeden Fall bereits etwas tiefer im Hals und zeigte die ersten Anzeichen einer Entwicklung zum Sprachorgan. Zudem war der Rachenraum durch den Aufrechtgang so stark vergrößert, dass eine bessere Vokalartikulation möglich war. Die anatomischen und neurologischen Voraussetzungen für eine gewisse Sprachfähigkeit mögen damals also vorhanden gewesen sein, aber anatomische Details der Schädelbasis und des Unterkiefers lassen, wenn überhaupt, nur auf ein sehr primitives Sprachvermögen schließen. Vor allem fehlte Homo erectus die nervliche Fernsteuerung der an Sprache beteiligten Muskeln. Er konnte daher wohl noch nicht „richtig“ sprechen.

Am Ende stand ein an sich unscheinbares, aber für die Umwelt höchst gefährliches Wesen: Ein nahezu haarloser Zweibeiner, der ausdauernd war, ein großes Gesichtsfeld überblicken konnte und zwei Hände hatte, die wie geschaffen für Werkzeuge und Waffen waren. Vor allem aber verfügte er über ein Gehirn, das alle diese Vorteile sinnvoll nutzen und kombinieren konnte. Wirklich Furcht erregend für die übrige Natur wurden die Wesen aber dann, wenn sie als Gruppe effektiv zusammenarbeiteten. Dann waren sie in der Lage, auch diejenigen Tiere, die ihnen an Größe, Kraft und Schnelligkeit überlegen waren, zu Fall zu bringen. Sollte die Vermutung richtig sein, dann hat Homo erectus schon bald ganze Ökosysteme radikal verändert. Insbesondere nach der Zeit vor 1,5 Millionen Jahren fiel die Anzahl großer Raubtiere steil ab. Ganze Artengruppen, wie etwa die Säbelzahnkatzen, verschwanden in Afrikas Savannen. Stattdessen machten sich moderne Arten zunehmend breit, darunter die Löwen, Leoparden und Schakale.

REM

Wasser – das besondere Molekül

Wasser ist das dritthäufigste Molekül im Universum. Es wurde in rund 12,88 Milliarden Lichtjahre entfernten Galaxien nachgewiesen, existierte also schon weniger als eine Milliarde Jahre nach dem Urknall. Nach einer langen Reise als gefrorene Schicht auf interstellaren Staubpartikeln gelangte es letztendlich auch auf die Erde. Diese befindet sich gerade so weit (149,5 Millionen Kilometer) von ihrem wärmespendenden Zentralgestirn, der Sonne, entfernt, dass die Temperaturen flüssiges Wasser erlauben. Obwohl sich die Sonnenstrahlung seither um rund 30% erhöht hat, bewegen sich die Temperaturen (aufgrund des Karbonat-Silikat-Zyklus*) immer noch in dem für flüssiges Wasser günstigen Bereich. Auf mehr als zwei Drittel seiner Oberfläche (1,5 Milliarden Kubikkilometer) bedeckt es heute die Erde.

*Der Karbonat-Silikat-Zyklus bezeichnet in der Chemie die geochemische zyklische Umwandlung von freiem Kohlendioxid und Silikaten zu Karbonaten und Siliziumdioxid und umgekehrt. Er reguliert auf lange Zeiträume den Kohlendioxid-Gehalt der Atmosphäre.

Das wasserreiche Erscheinungsbild der Planetenoberfläche täuscht aber darüber hinweg, dass unser Heimatplanet eigentlich ein wasserarmer Planet ist. Der gesamte Wasseranteil beträgt tatsächlich nur 0,005%, wobei sich der größte Teil des Wassers sogar im Erdinneren verbirgt. Wissenschaftlichen Schätzungen zufolge soll die Erdkruste zu etwa 0,2% aus Wasser bestehen, fünfmal so viel, wie alle Ozeane der Erde zusammen enthalten. Die Wassermenge im Erdmantel (zum großen Teil an Mineralien, etwa Silikate gebunden) entspricht nach vorsichtigen Schätzungen zwei bis zehn Erdmeeren. Wie viel Wasser im Erdkern steckt, wissen wir nicht.

Bedeutung des Wassers für das Klima der Erde

Das flüssige Wasser an der Erdoberfläche beeinflusst wie kein anderer Stoff unser Wetter und Klima. Zunächst können die Meere mehr als tausendmal so viel Wärmeenergie speichern wie die Atmosphäre, allein in ihren oberen zwei Metern mehr als die gesamte atmosphärische Luftschicht, die auf ihnen lastet. Das Wasser bildet Nebel, Dunst und Wolken und fällt als Regen, Hagel oder Schnee vom Himmel herab auf die Erdoberfläche. Wolken sind ein zentrales Glied im globalen Kreislauf des Süßwassers zwischen Meeren, Atmosphäre und Festland und spielen in allen Wetter- und Klimamodellen eine entscheidende Rolle.

Wasser verdunstet und steigt als Dampf mit der warmen Luft in der Atmosphäre auf. Mit zunehmender Höhe fallen Luftdruck und Temperatur, der Wasserdampf kühlt ab und die Feuchtigkeit kondensiert. Es bilden sich Wolken – allerdings nur dann, wenn in der Luft Kristallisationskerne in Form von mikroskopisch kleinen Staubpartikeln (Aerosolen) vorhanden sind. An sie lagern sich die Wassermoleküle an, gefrieren und bilden Eiskristalle. Diese wachsen und gefrieren weiter, bis sie schließlich so schwer sind, dass sie aus der Wolke fallen und dabei andere Kristalle und Tropfen mitnehmen. Je nach Jahreszeit kommen sie dann als Schnee, Hagel oder in wärmerer Luft aufgetaut als Regen am Boden an. Geht der Regen über einer Landfläche nieder, verdunstet ein Teil des Wassers wieder. Ein Teil fließt an der Oberfläche über Bäche und Flüsse ins Meer zurück, der Rest versickert ins Grundwasser, von wo es schließlich auch wieder an die Oberfläche und letztlich in die Meere gelangt.

Wolken steuern wesentlich den Strahlungshaushalt unseres Planeten. Sie sind in der Lage, die Erde sowohl aufzuheizen als auch abzukühlen. Einerseits halten Wolken die von der Erde abgegebene Wärmestrahlung zurück und erwärmen so die Atmosphäre. Andererseits reflektieren sie die Strahlung der Sonne in den Weltraum, was eine abkühlende Wirkung auf das Erdklima hat. Addiert man die Wirkungen beider Effekte, dann kühlen tiefe Wolken eher, während hohe eher wärmen. Da die Erdoberfläche stets zu etwa 60% von Wolken bedeckt ist, können schon kleine Veränderungen bei ihrer Entstehungsrate und ihren Eigenschaften das Klima dramatisch beeinflussen.

Herkunft des Wassers

Woher das Wasser der Erde genau kommt, ist traditionell umstritten. Wahrscheinlich stammt es aus mehreren Quellen. Die populäre Annahme geht davon aus, dass wasserreiche Kometen, die sich aus dem solaren Urnebel gebildet hatten, rund 100 Millionen Jahre nach Beginn der Erdentstehung auf der noch heißen Erde einschlugen. Zusammen mit vielen anderen chemischen Verbindungen sollen sie so (auch) große Wassermengen auf die Erde gebracht haben. Vom zeitlichen Ablauf her wäre das verständlich, aber es hat sich herausgestellt, dass das irdische Wasser und das Kometen-Eis chemisch sehr unterschiedlich sind. Der Anteil des schweren Wasserstoff-Isotops Deuterium, der D/H-Wert, stimmt bei beiden nicht überein. Daher gehen die meisten Wissenschaftler heute davon aus, dass Kometen wohl nur einen geringen Teil Anteil (höchstens 10%) zum irdischen Wasser beigetragen haben.

Es muss also noch weitere Wasserquellen für die Erde gegeben haben. Da Wasser schon ein Bestandteil der ursprünglichen Nebelwolke war, aus der Sonne und Planeten entstanden, könnte es auch schon in den kleinen Brocken, aus denen sich unser Planet nach und nach bildete, enthalten gewesen sein. Vor allem auf den Planetoiden, die sich die Erde im letzten Drittel ihrer Wachstumsphase einverleibte, war es wohl verbreitet. Es bedurfte wahrscheinlich nicht vieler Kollisionen, um auf diese Weise genügend Wasser auf die Erde zu schaffen. Sollte diese Theorie zutreffen, war also bereits bei der Geburt der Erde Wasser vorhanden, das schließlich nach Abkühlung der irdischen Oberfläche auf unter 100°C kondensierte und die ersten Ozeane bildete.

Indizien sprechen vor allem für die Kohligen Chondriten (bestimmte kleine Brocken von Planetoiden) als Wasserlieferanten. Viele von ihnen befinden sich heute noch im Asteroidengürtel zwischen Mars und Jupiter. Sie enthalten neben einer Vielzahl von organischen Verbindungen auch rund 10 bis 20% Wasser. Jüngste Analysen zeigen, dass dessen D/H-Wert gut zu dem der Erdozeane passt. (Allerdings ist besonders das Wasser im Erdmantel etwas leichter, enthält also weniger Deuterium.)

Auch andere Chondrite, welche das Mineral Enstatit enthalten (Enstatit-Chondrite), kommen als potentielle Quelle des Wassers auf der Erde in Frage. Ihre Isotopen- und Elementverhältnisse sprechen dafür, dass die Erde größtenteils aus ihnen zusammengeschweißt wurde. Im Gegensatz zu den Kohligen Chondriten sind sie ursprünglich diesseits der „Schneegrenze“* entstanden, dort, wo auch die Erde anfing, sich zusammenzuballen. Auch das D/H-Verhältnis des Wassers passt einigermaßen. Allerdings enthalten Enstatit-Chondrite deutlich weniger Wasser (nur ein paar Promille) als Kohlige Chondrite.

*Die sog. Schneegrenze bezeichnet den Abstand vom Zentralgestirn, ab dem Wasserdampf und andere Gase ausfrieren und zu Eis werden.

Das Wasser-Molekül

Das Molekül Wasser setzt sich zusammen aus zwei Wasserstoffatomen und einem Sauerstoffatom (chemisch: H2O). Ein Wasserstoffatom besteht aus einem Proton im Kern und einem Elektron in der Hülle, das Sauerstoffatom hat in der Regel acht Protonen, acht Neutronen sowie acht Elektronen, von denen sich zwei in der inneren Hülle, sechs in der äußeren befinden. Aufgrund eines physikalischen Gesetzes strebt jedes Wasserstoffatom nach zwei außen liegenden Elektronen. Ihm fehlt also noch ein Elektron zur vollständigen Belegung, während das Sauerstoffatom noch Platz für zwei Elektronen in der äußeren Hülle hat. Eine Vervollständigung der Außenhülle können die Atome erreichen, wenn sie Elektronen miteinander teilen (Bindungselektronen). Auf diese Weise sind Wasserstoffatome und Sauerstoffatom miteinander verschmolzen und bilden das Wassermolekül.

Weil der Sauerstoff eine höhere Kernladungszahl (mehr positive Ladungen) besitzt als der Wasserstoff, übt er auf die Bindungselektronen im Wassermolekül einen stärkeren Sog aus und zieht die negativ geladenen Elektronen der Wasserstoffatome etwas weiter zu sich heran. Diese halten sich also häufiger in seiner Nähe auf als in der Umgebung der Wasserstoffkerne. So bilden die zwei Wasserstoffatome und das Sauerstoffatom ein schmales Dreieck, an dessen Spitze der Sauerstoff und an dessen Schenkeln die beiden Wasserstoffatome (unter einem Winkel von 104,5°) sitzen.

Aufgrund dieser asymmetrischen Geometrie des Wassermoleküls ist der Sauerstoff leicht negativ aufgeladen, die beiden Wasserstoffatome hingegen leicht positiv. Jedes Wassermolekül verfügt also gewissermaßen über zwei elektrische Pole – ähnlich wie ein Stabmagnet mit seinem positiven und negativen Ladungsende. Die Forscher sprechen von einem „Dipolmoment„. Der leicht negativ geladene Sauerstoff des Wassermoleküls kann nun eine schwache (und flüchtige) Bindung zu einem leicht positiv geladenen Wasserstoffatom eines anderen Moleküls aufbauen. Chemiker bezeichnen dieses Phänomen als „Wasserstoffbrücke„, durch die die Wasserteilchen lose aneinander haften können.

Ein Wassermolekül kann auf diese Weise bis zu vier Wasserstoffbrücken zu seinen Nachbarn ausbilden. Die Bindungen sind jedoch nicht stabil, denn die Anziehungskraft reicht nicht aus, um sie lange aufrechtzuerhalten. So brechen die Wasserstoffbrücken wieder auf und die Moleküle trennen sich wieder voneinander. Sofort „suchen“ sie sozusagen nach neuen Partnern, um an ihnen anzudocken – wieder nur für einen Moment, so dass fortwährend im Wasser die Wasserstoffbrücken aufgelöst und neu geknüpft werden. Auf diese Weise wechseln die Wassermoleküle – ohne den Kontakt zueinander zu verlieren – ständig ihre Position und bilden wechselnde Gruppen (Cluster) mit bis zu 700 Molekülen.

Das passiert bei Zimmertemperatur und normalem Druck im Takt von Piktosekunden, also millionstel millionstel Sekunden. Die Brücken, die Wasserstoffatome zu ihren molekularen Nachbarn schlagen, sind deutlich schwächer als die Bindung der Atome innerhalb der Wassermoleküle. Dennoch reicht die Stärke der Wasserstoffbrücken aus, um bei Zimmertemperatur zu verhindern, das Wasser verdampft.

Eine nur geringe Ladungsverschiebung im Wassermolekül ist also die Ursache, dass eine bewegliches Netzwerk aus lose über Wasserstoffbrücken miteinander verbundenen Molekülen entsteht und Wasser dadurch letztlich flüssig ist. Sähen Wassermoleküle nur geringfügig anders aus, würden sie bereits bei Raumtemperatur aufgrund ihrer Bewegungsenergie auseinander fliegen und sich als Gas verflüchtigen. Unser Planet wäre ein trockener Ort, eine leblose Ödnis in den Weiten des Universums.

Sonderbare Eigenschaften

Dass Wasser ein besonderer Stoff ist, erkannte schon vor gut 2500 Jahren Thales von Milet und hob es auf Platz 1 unter seinen vier „Elementen“. Es fällt, chemisch betrachtet, völlig aus dem Rahmen, etwa in Hinsicht auf seine Oberflächenspannung, Wärmekapazität, Kompressibilität sowie den Schmelz- und Siedepunkten. Seine sonderbaren Eigenschaften, die es von anderen Flüssigkeiten unterscheidet, sind der Schlüssel für viele Vorgänge auf der Erde.

Die Oberflächenspannung von 70×10-3 N/m (Newton pro Meter) macht Wassertropfen stabil und groß. Ihre Molekülgitter schützen sie wie ein Netz vor dem Zerfall in mikroskopisch kleine Teilchen. Wenn sie ins Wasser fallen, vermischen sie sich daher nicht sofort, sondern stülpen sich wie eine Krake immer wieder neu aus, bis sie ihre größte Oberfläche erreicht haben.

Die Wärmespeicherung von Wasser kann ein Mehrfaches betragen im Vergleich zu ähnlich großen Molekülen. Es erwärmt sich langsamer als die meisten anderen Flüssigkeiten – doppelt so lange, wie man eigentlich annehmen sollte – und kühlt sich auch gemächlicher ab.

Erst bei vergleichsweise hohen Temperaturen, in der Regel bei 100°C, erreichen die Wasserteilchen eine derart hohe Geschwindigkeit, dass die anziehenden Kräfte (elektrische Pole und Wasserstoffbrücken) nicht mehr zum Tragen kommen („Siedepunkt„). Das flüssige Wasser verwandelt sich in ein Gas, seine Teilchen verflüchtigen sich in die Luft. Sinkt die Temperatur des Wasserdampfes, bewegen sich die Moleküle wieder langsamer. Schließlich überwiegen erneut die Anziehungskräfte und die Wassermoleküle schließen sich erneut zu Ketten zusammen. Der Dampf kondensiert, flüssiges Wasser entsteht.

Kein anderes Molekül, das so klein ist wie Wasser, hat einen derart hohen Siedepunkt. Eigentlich müsste es aufgrund seines Molekulargewichts schon bei -75°C in Dampf übergehen. Die am ehesten vergleichbare Verbindung, Schwefelwasserstoff (H2S), hat einen Siedepunkt von -60°C. Der stickstoffhaltige Ammoniak verflüchtigt sich bei -33°C, Methan sogar schon bei -162°C. Dabei umfasst der Temperaturbereich, in dem solche Moleküle flüssig sind, meist nur wenige Grad.

Der Gefrierpunkt von Wasser liegt bei 0°C, einem phantastisch hohen Wert. Gemessen an ähnlich kleinen Molekülen müsste er eher bei -100°C liegen. Während bei fast allen anderen Flüssigkeiten während des Abkühlens die Dichte zunimmt und Wärmekapazität und Kompressibilität sinken, verhält sich Wasser anders. Die Moleküle rücken zwar auch zunächst umso dichter zusammen, je kälter es wird. Es bilden sich winzige Kerne aus kristallin angeordneten Molekülen, die sich jedoch wieder auflösen, aber auch durch Anlagern weiterer Wassermoleküle wachsen können. Teile der Wassercluster wechseln also ständig ihren Zustand von flüssig zu kristallin und umgekehrt.

90 Moleküle braucht es mindestens, damit Wasser eine Kristallstruktur annimmt und zu Eis wird. Wenn die Temperatur sich dem Nullpunkt nähert, schließen sich immer Einzelmoleküle den Clustern an. Wirklich stabile Cluster sind erst ab 150 Molekülen möglich.

Die maximale Dichte erreicht Wasser bei +4°C. Bei tieferen Temperaturen vernetzen sich die V-förmigen Wasserteilchen zu einem dreidimensionalen Gerüst, in dem die jetzt exakt geordneten Moleküle wieder etwas weiter auseinander liegen. Deshalb dehnt sich Wasser beim Erfrieren aus („Dichteanomalie„), während sich andere Stoffe beim Erstarren zusammenziehen. Das führt dazu, dass Wasser in seiner festen Form um 9% voluminöser ist als im flüssigen Zustand – und mithin leichter (um etwa 11%). Diese einzigartige Volumenzunahme hat über Jahrhundertmillionen dazu geführt, dass ganze Gebirge auf der Erde erodierten.

Beim Gefrieren bedarf es Verunreinigungen (z. B. Staubpartikeln) als Kristallisationskerne. Sie erst zwingen die Wassermoleküle dazu, eine kristalline Form anzunehmen. Reines Wasser (das es in der Natur allerdings nicht gibt) lässt sich, bevor es gefriert, noch bis zu einer Temperatur von -40°C (nach anderen Angaben -48°C) oder 233K herunterkühlen, wird dann allerdings sehr schnell zu Eis.

Beim Übergang vom flüssigen Zustand zu Eis muss das Wasser Kristallisationswärme an die Umgebung abgeben. Das ist dort am einfachsten, wo es in direktem Kontakt mit der kalten Außenwelt steht. Daher bildet sich Eis zunächst an der Oberfläche und an den Gefäßwänden. Überschreiten die kristallinen Strukturen eine bestimmte Größe, pflanzt sich die Information wie umfallende Dominosteine über die Wasseroberfläche fort, bis die Bewegung des Wassers erstarrt ist. Da Eis eine geringere Dichte hat als flüssiges Wasser, schwimmt es obenauf.

Würde das Wasser beim Gefrieren schwerer werden, würde sich im Winter das Eis auf dem Boden der Seen und Weltmeere ablagern. Die Wasseroberfläche würde weiterhin Energie abgeben, und es würde sich immer mehr Eis am Boden der Ozeane ablagern, bis sich schließlich die ganzen Weltmeere in einen einzigen Eisklumpen verwandelt hätten. In einem solchen gefrorenen Zustand, bei dem die helle Oberfläche die Sonnenwärme reflektieren würde, wäre es sehr schwierig, den Planeten wieder aufzutauen.

[Eis tritt wegen der speziellen Bindungen, die die Wassermoleküle mit ihren Nachbarn eingehen, in einer Vielzahl unterschiedlicher Formen auf. Forschern ist es bislang gelungen, 16 verschiedene kristalline Eisformen herzustellen, die alle unterschiedliche Eigenschaften besitzen. Nur eine einzige, das Eis-„Ich“ (eins-h), kommt natürlicherweise auf der Erde vor. Und erstaunlicherweise hat nur „unser“ Eis die Eigenschaft, auf dem Wasser zu schwimmen. Die anderen Eissorten existieren bei höheren Drücken und tieferen Temperaturen. Es gibt Eisformen, die noch bei 500°C Hitze gefroren bleiben. Andere verwandeln sich zwischen -137 und -146°C (125 und 136K) in eine viskose Flüssigkeit. In ihr sind die Wasserstoffbrückenbindungen nicht starr fixiert, weshalb das Eis selbst bei einer Temperatur dicht über dem absoluten Nullpunkt (-273,15°C oder 0 Kelvin) noch fließen kann, wenn es mit ultraviolettem Licht bestrahlt wird. Die exotischen Formen von Eis mit ihren besonderen physikalischen und chemischen Eigenschaften, die wir gerade erst zu verstehen beginnen, könnten am Ende mehr über die Geschichte des Universums verraten, als Wissenschaftler dies jemals für möglich gehalten hätten.]

Noch immer offenbart Wasser scheinbar paradoxe Phänomene: Stellt man beispielsweise einen Topf mit dampfend heißem und einen Topf mit lauwarmem Wasser in eine Gefriertruhe, erstarrt das heiße Wasser zuerst. Und ein Bauchplatscher ins kalte Wasser schmerzt weniger als einer ins warme. Einige Wissenschaftler erklären die seltsamen Eigenschaften, indem sie Wasser als ein Gemisch zweier einfacher Substanzen betrachten, in denen die Wassermoleküle unterschiedlich kompakt sortiert sind: In derjenigen mit niedriger Dichte (low density liquid: LDL) sind die meisten Moleküle von vier anderen umgeben, was eine relativ offene Tetraederstruktur herbeiführt. In der Flüssigkeit höherer Dichte (high density liquid: HDL) sind die Moleküle enger gepackt; es kommen weniger gerichtete, schwächere molekulare Wechselwirkungen zum Tragen. Laut dieser Idee ändert sich der jeweilige Anteil der beiden Komponenten mit der Temperatur des Wassers. Sinkt diese, entsteht mehr LDL-Wasser und es kommt sowohl zu der bei Flüssigkeiten üblichen Zunahme der Dichte als auch zur vermehrten Bildung von Wasser niedriger Dichte. Unter dem Strich führt das zum beobachteten Dichte-Maximum bei 4°C und zu weiteren Anomalien im Wasser.

Andere Experten stehen der Annahme äußerst skeptisch gegenüber und widersprechen vehement: So eine Aussage passe nicht zu den Grundprinzipien der physikalischen Chemie. Wasser erhalte seine einzigartigen Eigenschaften beim Abkühlen weniger durch ein Nebeneinander zweier Flüssigkeiten, sondern eher tatsächlich dadurch, dass die Orientierung der Wassermoleküle allmählich regelrecht in tetraedischer Ausrichtung einfriert, sogar bereits dann, wenn sie sich noch flüssigkeitstypisch bewegen. Ein Konsens ist unter Physikchemikern noch nicht in Sicht.

Biologische Bedeutung

Auf den besonderen Eigenschaften des Wassermoleküls beruht auch die große biologische Bedeutung des Wassers. Nur wo es flüssiges Wasser gibt, ist Leben, wie wir es kennen, überhaupt möglich. Die ganze komplizierte Chemie des Lebens beruht auf Wasser. Wie es scheint, war Wasser in fester oder flüssiger Form schon von Anfang an an der Entstehung des Lebens, speziell der Bildung und Weiterentwicklung seiner Basismoleküle, beteiligt. Diese entwickelten sich schon bald nach dem Auftauchen der ersten Wasserströme. Dass die Fotosynthese der grünen Pflanzen und Cyanobakterien im Wasser funktioniert, liegt an einer weiteren besonderen Eigenschaft, nämlich der Durchsichtigkeit des Wassers. Eigentlich ist es bis auf einen schmalen Frequenzbereich (nämlich den des sichtbaren Lichts) pechschwarz. Ein anderes Absorptionsverhalten des Wassers und Leben in der heutigen Form wäre niemals entstanden.

Eis ist eigentlich ein Feind des Wassers. Die exakte Ordnung der Moleküle treibt die in den Kristallen gelösten Substanzen aus, wobei die scharfkantigen Eispartikel organisches Material unwiederbringlich zerreißen. Andererseits bildet Wasser, weil es in festem Zustand leichter ist als flüssig, bei 0°C eine das Leben schützende Eisdecke. Diese wirkt als isolierender Deckel, der die Verdunstung stoppt, was dazu beiträgt, das darunter liegende Wasser warm zu halten. So sind Tiere und Pflanzen in der Lage, in zugefrorenen Meeren, Seen und Flüssen zu überwintern.

Für Lebewesen, die im Laufe der Evolution das Festland besiedelten und sich allmählich vom Leben im Wasser emanzipierten, ist Wasser trotzdem unverzichtbares Lebenselement geblieben. Das Gefäßsystem der Landpflanzen und das Blutgefäßsystem der Tiere sorgt dafür, dass landlebende Organismen nie „auf dem Trockenen sitzen“. Wasser ist der Hauptbestandteil aller lebenden Organismen (meist zu 90%). Auch der Mensch besteht zu gut 60% aus Wasser. Es ist in flüssigem Aggregatzustand für die Aufrechterhaltung sämtlicher Lebensvorgänge unbedingt notwendig. Es ist beteiligt an der Regulation der Körpertemperatur und an dem Transport von Stoffen und Atemgasen über das Blutgefäß- und Lymphsystem. Es hilft bei der Absorption von Nährstoffen und bei der Beseitigung von Abbauprodukten über Darm, Nieren, Lunge und Haut. Das meiste Wasser befindet sich innerhalb der Körperzellen, in denen es wichtige Aufgaben erfüllt.

Das, was Wasser in der Zelle so universell nutzbar macht, ist seine Polarität – die große große Anziehungskraft der Dipole auf Nachbarmoleküle. Zahlreiche Substanzen in der Natur bestehen ebenso wie Wasser aus geladenen Teilchen (Ionen). Mit ihren unterschiedlich geladenen Polen vermögen sich die Wassermoleküle an diese Ionen anzulagern und bilden so einen wässrigen Mantel („Hydrathülle„) um sie. Positiv und negativ geladene Ionen werden dadurch getrennt, die Substanz wird löslich. Insgesamt sind 84 aller bekannten 103 chemischen Substanzen, darunter zahlreichen, die in den Zellen benötigt werden, wasserlöslich.

Fällt ein Salzkristall (NaCl) in ein Glas Wasser, dauert es nicht lange, bis er sich auflöst. Die winzigen Natrium- und Chlor-Ionen, die nun in der Flüssigkeit umherschwimmen, sind umhüllt von Wassermolekülen. Dutzende der V-förmigen Wasserteilchen lagern sich jeweils mit ihrem negativ geladenen Sauerstoff-Pol um die positiv geladenen Natrium-Ionen, sechs davon in direkter Nachbarschaft. Andere Wasserteilchen wiederum docken mit ihrer positiven Wasserstoffseite an die negativ geladenen Chlor-Ionen an.

Wasser ist also ein perfektes, einzigartiges Lösungsmittel und für biochemische Reaktionen unabdingbar. Alle physiologischen Vorgänge basieren auf wässrigen Lösungen. Eine Zelle ist so sehr mit Biomolekülen (z. B. Enzymen, Hormonen, Fettsäuren, Salzen, Zuckern) angefüllt ist, dass zwischen ihnen nur Platz für gerade mal drei oder vier Wassermoleküle ist. Dadurch ist deren Beweglichkeit so eingeschränkt, dass die Kettenmoleküle selbst von dem Lösungsmittel Wasser nicht zerstört werden können. Wie ein stützendes Korsett liegen Vielmehr liegen die Wassermoleküle wie ein stützendes Korsett um die positiv oder negativ geladenen Bereiche der organischen Moleküle und verhindern, dass deren voluminöse chemische Strukturen – teils sind sie zigtausendmal größer als ein Wassermolekül – kollabieren.

Die Biomoleküle nehmen nur in einer wässrigen Umgebung ihre typische dreidimensionale Faltung und Struktur stabil ein. Und erst wenn sich Aminosäureketten korrekt verflechten, können Eiweiße etwa in Form von Enzymen ihre vielfältigen Aufgaben in der Zelle erfüllen, z. B. bei der Zerlegung von Nährstoffen. Wie den Proteinen verleiht Wasser auch den Nukleinsäuren ihre interessante Struktur und damit auch ihre Eigenschaften. Milliarden Wasserteilchen sind in die Erbsubstanz DNA eingelagert und sorgen durch Wasserstoffbrücken dafür, dass das riesige Molekül seine Spiralstruktur aufrecht erhält. (Außerdem schützen Wasserstoffbrücken Nukleinsäuren wie auch Proteine vor Schädigungen durch UV-Strahlen.) Experimente haben gezeigt, dass die DNA ihre Arbeit versagt, sobald man sie in andere Flüssigkeiten gibt. Erst in dem vom Wasser geschaffenen Umfeld konnte also die Basis aller höheren Lebewesen entstehen.

Wasser stützt somit als biologischer Klebstoff die großen Moleküle räumlich und hält sie biologisch aktiv. Es spielt auch selbst ein Hauptrolle bei den komplexen chemischen Prozessen in der Zelle. Wassermoleküle sind z. B. in der Lage, chemische Reaktionen anzustoßen oder zu beschleunigen. Es scheint inzwischen klar, dass sich die biologische Aktivität der Proteine – etwa bei der Wirkung von Medikamenten in Körperzellen – nicht unabhängig vom Wasser verstehen lässt.

Die Wasserschicht, die z. B. ein Protein umhüllt, verändert die Art, wie dieses andere Moleküle erkennt. Wassermoleküle füllen dabei Lücken aus und sorgen so für eine gute Passung des jeweiligen Stoffes, können aber auch das Andocken stören. Nur genau definierte Stoffe sind in der Lage, im aktiven Zentrum von Enzymen anzudocken. Dazu benötigen manche offenbar nur einige wenige Wassermoleküle. Durch die Position lediglich eines Wassermoleküls entscheidet sich beispielsweise, dass etwa der Neurotransmitter Glutamat, nicht aber sein synthetischer Ersatz akzeptiert wird.

Alles, was sich im Wasser befindet, verändert wiederum dessen Netzstruktur. Daher ist die Bewegung des Wassers nicht gleichförmig um ein Enzym verteilt. In der Nähe des aktiven Zentrums verlangsamt es seine zittrigen Bewegungen. Das bedeutet, dass ein Substrat wahrscheinlich nicht zufällig an der richtigen Stelle andockt wie im ruhigen Wasser eines Hafens. Funktionsfähige Proteine können Wassermoleküle am besten ausbremsen, während denaturierte oder mutierte Moleküle weniger effektiv sind – ein Hinweis auf eine evolutionäre Optimierung. Mit Terahertz-Spektrometern konnten Forscher sehen, wie die biologisch aktiven Proteine das Wasser in ihrer Umgebung beeinflussen. Der Einfluss beschränkt sich dabei nicht auf die unmittelbare Umgebung, sondern reicht weit darüber hinaus – so weit, dass es in der dicht gepackten Zelle gar kein unbeeinflusstes Wasser gibt.

Den Rekord im Manipulieren des Wassers hält ein Frostschutz-Protein. Das Blut antarktischer Fische müsste eigentlich bei 0,9°C gefrieren. Tatsächlich aber überleben die Tiere tiefere Temperaturen – dank eines Frostschutz-Proteins, das Hunderte Male so wirksam ist wie das Frostschutzmittel im Auto. Es ist – anders als die meisten anderen Proteine – am effektivsten, wenn die Temperatur nahe am Gefrierpunkt liegt. Das Protein kann das Wassernetzwerk über 2,7 Nanometer hinweg beeinflussen – eine winzige Entfernung, aber immer noch zehnmal so groß wie die Reichweite anderer Proteine.

Dank der flexiblen Unordnung seiner Bindungen ist Wasser also fähig, seine innere Struktur rasch an die physikalischen und chemischen Erfordernisse von Organismen anzupassen und viele Reaktionen zu beeinflussen. Es gibt keine andere Flüssigkeit mit ähnlich einzigartigen Eigenschaften. Das fein abgestimmte Wechselspiel zwischen dem Wasser und den Biomolekülen, durch die das Zellgeschehen gerade so im Gleichgewicht gehalten wird und schnell von einem Zustand zum anderen wechseln kann, macht Leben wie wir es kennen erst möglich.

REM

Der „Freie“ Wille

Seit der Antike beschäftigen sich Philosophen mit der Freiheit oder Unfreiheit des menschlichen Willens. Heute ist das Problem der freien Willensentscheidung eine der wichtigsten Fragen, die gegenwärtig an der Berührungsfläche zwischen Natur- und Kulturwissenschaften diskutiert wird.

Verschiedene Kriterien wurden aufgestellt, die erfüllt sein müssen, damit eine Entscheidung oder Handlung als freiwillig anzusehen ist. Die drei wichtigsten lauten:

1. Prinzip des Anderskönnens: Eine Person muss in einer Situation zwei oder mehr Handlungs- oder Entscheidungsalternativen besitzen, aus denen sie auswählen kann. 2. Prinzip der Urheberschaft: Es muss von der Person selbst abhängen, also im Einklang stehen mit ihren Motiven und Überzeugungen, welche der möglichen Alternativen ausgewählt wird. 3. Prinzip der Autonomie: Die Wahl der Alternative muss autonom, also selbständig durch die Person erfolgen. (Anders wäre dies, wenn jemand unter Zwang handelt.) In der Ethik bedeutet die Aussage, der Mensch habe einen freien Willen, dass er sittlich autonom über sich selbst verfügt und fähig ist, dem Handeln Zwecke vorzugeben, die von der Natur nicht vorgegeben sind.

Nach der landläufigen Vorstellung verfügen wir über einen freien Willen und könnten dementsprechend bei den meisten Entscheidungen auch anders wählen. Jedenfalls fühlt es sich intuitiv so an. Bei Philosophen und Naturwissenschaftlern gehen in der Frage der Willensfreiheit die Meinungen weit auseinander. Zwei Extreme scheinen sich in der Diskussion gegenüberstehen: „Mein Wille ist frei. Ich kann alles tun und wollen und völlig frei entscheiden. Neurobiologische Erkenntnisse haben keinerlei Bedeutung für unser Selbstkonzept als frei und verantwortlich handelnde Menschen.“ und „Für alles gibt es eine kausale Erklärung, also auch für menschliches Handeln und Entscheiden. Der ‚Freie Wille‘ ist eine Illusion. Personen handeln als Automaten, denen ihr Gehirn vorgaukelt, sie würden selbst entscheiden.“

Die Illusion

In der klassischen Physik gilt ein strenger Determinismus: Die Welt ist geschlossen, das Gegenwärtige ergibt sich nach festen Ursache-Wirkungs-Beziehungen zwangsläufig aus dem Vorhergehenden. Wenn fast alle physikalischen Prozesse festen Gesetzmäßigkeiten folgen – außer vielleicht Quantenprozesse*, die in ihrer Regellosigkeit aber keine vernünftige Basis für freie Willensakte sein können -, sind auch die Vorgänge im Gehirn stets durch vorangegangene neuronale Prozesse determiniert, also festgelegt. Es scheint keinen Raum für einen freien Willen zu geben, der unabhängig von allen materiellen Wechselwirkungen entscheidet und dann auf die neuronalen Prozesse so einwirkt, dass diese ausführen, was der Wille „will“. Ein freier Wille scheint also mit dem Determinismus nicht vereinbar (kompatibel).

*Tatsächlich hat es immer wieder Versuche gegeben, die freie Willensentscheidung mit quantenmechanischen Unbestimmtheiten in Verbindung zu bringen. Die probabilistischen Phänomene konnten bisher allerdings nur auf atomarer und subatomarer Ebene, nicht aber für makroskopische Systeme wie das Gehirn oder einzelne Neurone nachgewiesen werden. Vielmehr mitteln sich die Quanteneffekte schon auf der molekularen Ebene durch thermisches Rauschen vollkommen weg.

Die Experimente der Neurophysiologen Benjamin Libet und Bertram Feinstein legen die Schlussfolgerung nahe, dass wir in der Tat gar nicht das tun, was wir als bewusste Lebewesen wollen, sondern dass das, was wir wollen, aus einer im Verborgenen ablaufenden Kette von Hirnprozessen resultiert. Ihre Versuche ergaben, dass etwa 300 Millisekunden, bevor ich eine Entscheidung bewusst treffe, genau jetzt einen Finger zu krümmen, motorische Areale des Gehirns bereits die entsprechenden Weichen gestellt haben.

Libet interpretiert das so, dass in dieser Zeitspanne von einer knappen halben Sekunde ein die Bewegung vorbereitendes Bereitschaftspotenzial aufgebaut wird, das die spezifische Willkürbewegung anzeigt. Diese Hirnaktivität tritt nicht ins Bewusstsein, während der gewissermaßen hinterher hinkende bewusste Entschluss aber als das erste Glied des Entscheidungsprozesses erlebt wird. Das Bewusstsein stellt sich also selbst als Initiator unserer Handlungen vor, was es jedoch nicht ist, da die Ereignisse bereits im Gange sind, ehe es auftritt.

Die Empfindung, etwas zu wollen, ist demnach nur das Echo von unbewussten Prozessen, die zuvor in den Windungen des Gehirns abgelaufen sind. Nichts deutet darauf hin, dass die Kausalketten irgendwo unterbrochen wären. Falls es darüber hinaus noch Einflüsse des Zufalls gibt, etwa durch thermisches Rauschen, dann wird die je folgende Handlung etwas unbestimmter, aber dadurch noch nicht dem freien Willen unterworfen.

Je mehr die Neurowissenschaften über bewusste und unbewusste Hirnprozesse in Erfahrung bringen, desto enger scheint sich der Spielraum für freie Willensentscheidungen zusammenzuziehen. Neueste Forschungsergebnisse (mittels Kernspintomographie) erlauben sogar schon zu sagen, eine Versuchsperson wird jetzt dieses tun und nicht jenes. Und das bereits lange, bevor diese sich entschieden hat. Die Experimente legen darüber hinaus nahe, dass wir uns nachträglich Begründungen zurecht legen für die Entscheidungen, die durch die verborgenen Hirnprozesse generiert wurden. Das Gehirn scheint uns also Willensfreiheit vorzugaukeln, wo keine besteht. Willensfreiheit wäre dann also, freiwillig zu tun, was man unfreiwillig tun muss – oder, wie der Philosoph Arthur Schopenhauer (1788 – 1860) schon im 19. Jahrhundert meinte: „Der Mensch kann zwar tun, was er will, aber nicht wollen, was er will.“

Die Vorstellung, dass wir als handelnde Individuen ohne Ursache neue Ereignisketten in Gang setzen können, vertritt heute unter Philosophen längst nur noch eine kleine Minderheit. Es scheint unsinnig, dem deterministischen Denken der Hirnforscher ein Konzept der Willensfreiheit entgegenzustellen, das auf eine Art naiven Indeterminismus hinausläuft. Würden wir alle Faktoren kennen, die unsere Entscheidungen beeinflussen, dann würden wir unser eigenes Handeln vielleicht ähnlich betrachten wie das einer Robo-Ratte. Forscher können durch Fernsteuerung nicht direkt beeinflussen, was die Ratte tut, aber sie können beeinflussen, was die Ratte tun möchte.

Kausallücken?

Manche Philosophen und Theologen sehen aber noch ein winziges Schlupfloch zur Willensfreiheit. Sie spekulieren, dass die Naturgesetze hübsche kleine Lücken ließen, in denen der freie Wille agieren könne. Libet selbst brachte das Veto-Prinzip ins Spiel: Der menschliche Wille könne ja eine zerebral vorbereitete Handlung buchstäblich im letzten Moment unterbrechen bzw. stoppen. Der freie Wille initiiert demnach keinen Prozess, sondern kontrolliert ein letztes Mal, ob z. B. eine Bewegung tatsächlich sinnvoll oder notwendig ist. Ein solches „bewusstes“ Veto wäre also erst nötig, wenn sich der bewusste Wille und die nichtbewusste Regung widersprechen würden.

Tatsächlich stellte sich in Experimenten heraus, dass das Bewusstsein eine geplante Bewegung noch verhindern kann, wenn dafür genügend Zeit bleibt. So gelang es Probanden, einen Tritt aufs Pedal abzubrechen, nachdem der Computer bereits das Bereitschaftspotenzial aus ihren Hirnwellen herausgelesen hatte. Blendete der Computer das Stoppsignal allerdings weniger als 200 Millisekunden vor den ersten Muskelzuckungen der Versuchsteilnehmer ein, waren sie nicht mehr in der Lage, die Bewegung komplett zurückzuhalten. Die Signale waren bereits im Motorkortex angekommen und wurden ausgeführt – auch gegen den Willen der Probanden.

Einige Hirnforscher deuten die dem Entschluss vorangehende Hirnaktivität als eine Art Vorschlag, in einer bestimmten Art und Weise zu agieren. Erst wenn der Mensch zustimme, würde diese als bewusste Entscheidung empfunden. Manche meinen sogar, das sog. Bereitschaftspotenzial sei gar nicht ursächlich mit der Handlung verknüpft, sondern Ausdruck eines Grundrauschens, einer steten Hintergrundaktivität, welche die Entscheidung für eine Bewegung oder ein bewusstes Urteil erleichterte, sobald eine bestimmte Schwelle überschritten wird. Für andere wiederum spiegelt die neuronale Aktivität eine generelle Erwartung wider, die in die eine oder andere Handlung münden kann.

Dies erinnert an die Funktionsweise des Bremsassistenten bei Autos. Wenn er richtig funktioniert, so zeichnet er sich dadurch aus, dass eine elektrische Aktivität in den Steuerzentren für die elektronische Bremse messbar ist, noch bevor der Fahrer mit seinem Fuß das Bremspedal berührt, also sozusagen noch bevor dem Auto die Intention zu bremsen „bewusst“ werden könnte. Der Bremsassistent interpretiert hier ein eventuell schnelles Liften des Fußes vom Gaspedal als wahrscheinlich folgenden Bremswunsch und konfiguriert die Bremse schon mal vorsorglich hinsichtlich optimaler Bremskraft, d. h., er verändert das Ansprechverhalten und die Kennlinie des Bremskraftverstärkers.

Trotz allem wären damit die Einflussmöglichkeiten des Bewusstseins immer noch mehr oder weniger begrenzt, so dass auch die Willensfreiheit in gleichem Maße begrenzt wäre. Man könnte dann also allenfalls von einer mehr oder weniger eingeschränkten, einer sog. „bedingten“ Willensfreiheit sprechen. Kritiker meinen, dass selbst eine reduzierte Schiedsrichterfunktion wiederum allein durch Hirnprozesse gesteuert sein müsste.

Kompatibilität

Es scheint also sehr unwahrscheinlich, dass wir tatsächlich in einer Welt mit Kausallücken leben – ganz zu schweigen davon, dass ein autonomes Ich die Vorgänge im Gehirn völlig selbständig beeinflusst (abgesehen von der Frage, woher es kommt und wie es Wünsche und Überzeugungen generiert). Ein deterministisches Menschenbild widerspricht aber unserem intuitiven Selbstverständnis. Für uns Menschen ist der freie Wille eine reale Erfahrung – wir erfahren uns ja tatsächlich als frei in unseren Entscheidungen. Der Dichter Samuel Johnson (1709-1784) brachte es einst auf den Punkt: „Alle Theorie spricht gegen die Freiheit des Willens – und die gesamte Erfahrung dafür.“ Trotz der Gegensätzlichkeit der Standpunkte versuchen Philosophen und Hirnforscher, sie miteinander zu versöhnen und das Erlebnis der Willensfreiheit kompatibel zu machen mit dem in der Welt herrschenden Determinismus.

Es gibt wohl theoretisch tatsächlich einen Punkt, von dem aus ich völlig determiniert handle, aber dieser liegt sehr weit entfernt von meinem Erleben – am Endpunkt der Physik. Ein komplexes, vollständig bestimmtes und determiniertes System (z. B. Verhalten), das also ganz und gar von auf einfacheren Stufen wirkenden Gesetzen gesteuert wird, kann so kompliziert sein, dass wir es höchstwahrscheinlich niemals berechnen können. Das Nicht-voraussagen-können unseres eigenen Handelns könnten wir dann im Alltag als „Freiheit“ interpretieren. Willensfreiheit wäre in dem Sinne also die Beschreibung für eine weder vom Individuum selbst noch von Philosophen und Neurobiologen überschaubare Kausalität.

Unsere Freiheit existiert nicht auf der Mikroebene der Materie, der Ebene der Teilchen, sondern auf derjenigen der Menschen, der Makroebene des Geistes. Nach dem Philosophen Michael Pauen handelt ein Mensch frei und autonom, wenn seine Handlungen und Entscheidungen weder vom Zufall noch durch äußere Zwänge bestimmt werden, sondern nur von ihm selbst, von seinen in der Regel tief in seiner Person verankerten Überzeugungen, Erfahrungen, emotionalen Bewertungen, Motiven und Wünschen. Auch in der Psychoanalyse ist es mein Selbst, die einmalige Persönlichkeit mit ihrer unverwechselbaren Biografie, der die Entscheidungsgewalt zukommt.

Diejenigen Entscheidungen sind also frei, die wir selbst im Einklang mit erlernten Verhaltensmustern, erlernten oder angeborenen Vorlieben, Ereignissen der Vergangenheit, unbewussten Mechanismen usw. treffen und nicht etwa durch Zwang. Jeder Mensch hat einen durch sein Genom, seine Erlebensgeschichte und aktuelle Sachzwänge begrenzten Entscheidungsfreiraum. Sein Wille agiert demnach in einem strukturierten Feld; er hat seine Vorgeschichte. Die Wünsche, Ziele und Überzeugungen, die uns schon vor einer Entscheidung eigen sind, legen den Raum der Handlungsoptionen fest, in dem wir uns bewegen. Wir sind also Autoren unserer eigenen Handlungen, weil wir nicht aus einem willenlosen Entscheidungsvakuum heraus handeln, sondern in dem ständig fließenden Abgleich zwischen Wahrnehmungen, Erfahrung, langfristigen Interessen und Neigungen bis zu aktuellen Bedürfnissen.

Ein absolut freier und in jeder Richtung gleichermaßen offener Wille führt schon aus rein begrifflichen Gründen zu Widersprüchen. Ohne von Gründen, Prinzipien, Zielvorstellungen und Überzeugungen geleitet zu sein, wäre es unmöglich, ein gewolltes Ziel „frei“ zu erreichen. Wenn unsere Handlungen unter exakt gleichen Bedingungen auch anders ausfallen könnten, dann sind sie de facto nicht weit von einem Zufallsereignis entfernt. Aber Zufall ist gerade nicht das, was wir mit „Freiheit“ meinen.

Eine freie Handlung darf also sehr wohl determiniert sein, sofern die Determination vom Urheber ausgeht. In dieser Hinsicht besteht kein Widerspruch zwischen Handlungsfreiheit und Naturkausalität. Diese „kompatibilistische“ Sichtweise, die heute weit verbreitet ist, überwindet nicht nur den Gegensatz zu wissenschaftlichen Prinzipien, sondern wird auch unseren intuitiven vorwissenschaftlichen Vorstellungen besser gerecht. Wenn unser Verhalten auch durch Gesetze und Anfangsbedingungen vollständig festgelegt ist, erscheint es also trotzdem sinnvoll, es mit Begriffen wie Entscheidung und Wille zu beschreiben.

Die tagtägliche Entscheidung, dass wir zwischen Handlungsalternativen wählen können, ist also keine pure Illusion. Wir sind keine Automaten, in denen gerade Ursachen und Wirkungen ablaufen, die für uns selbst undurchsichtig bleiben. Es klingt wie ein Witz, wenn jemand sagt: „Ich kann über mein Tun und Denken nicht frei entscheiden; ich bin nicht freiwillig hier – und dass ich das sage, geschieht auch nicht freiwillig.“ Entweder geben unbewusste Motive oder Impulse den Ausschlag für eine Wahlentscheidung, oder die Vernunft trifft sie im Sinne eines dominierenden Interesses. Der Determinismus wird dadurch zwar nicht aufgehoben, aber der Mensch wird – sofern nicht äußere oder innere Zwänge dem entgegenstehen – in die Lage versetzt, zu tun, was er will. Der Schweizer Philosoph Peter Bieri spricht von einem „bedingt freien Willen„.

Heute glauben 80% der befragten Wissenschaftler zumindest an diese schwache Form der Willensfreiheit, die mit dem Determinismus vereinbar ist. Einige sprechen von einem Scheinproblem. Sie halten den philosophischen Begriff der Willensfreiheit für überholt. Statt sich mit dem allzu simplen Gegensatz von Freiheit und Determinismus zu beschäftigen, stehe eher das Verhältnis zwischen Handeln und den subjektiven Gründen dafür zur Debatte. In den Labors und Instituten beschäftigt man sich heute mehr damit, zu erkunden, wie Materielles und Geistiges zusammenhängen. Die Trennung von Körper und Geist erscheint als ein Relikt alter Zeiten, von dem sich die Forscher schon lange verabschiedet haben.

———————————————————————————————————–

Verantwortung und Schuld

Ein deterministisches Weltbild lässt sich nur schwer mit traditionellen Begriffen wie „Freiheit“, „Verantwortung“ und „Schuld“ vereinbaren, denn wenn das Gehirn durchweg deterministisch arbeitet, kann für diese Begriffe offensichtlich kein Raum sein. Wenn aber aus kompatibilistischer Sicht Verhalten und Urteile aus einem Prozess des Überlegens aus Motiven, Wahrnehmungen, Zukunftsvorstellungen und so weiter hervorgebracht werden, verlangt das auch Verantwortung für das, was ich sage und tue. Allerdings ist die Unterstellung, der Mensch wäre generell in der Lage, sich gegen Gewalt und für das Recht zu entscheiden, unter Strafrechtlern umstritten. Es gibt ganz handgreifliche und schwer zu leugnende Unterschiede hinsichtlich der Fähigkeit, das eigene Handeln zu steuern.

In früheren Zeiten wurden Epileptiker und Schizophrene noch als vom Teufel besessen angesehen, ausgegrenzt, verurteilt und brutal behandelt. Wir verstehen sie heute als Opfer, die für ihre Handlungen nichts können. Psychisch Kranke, aber auch Kinder, betrachten wir deshalb in einem wesentlich geringeren Maße als verantwortlich für ihr Tun als gesunde Erwachsene. Wir nehmen auch zumindest eine verminderte Schuldfähigkeit infolge von Drogenkonsum oder eines psychischen Ausnahmezustands an. Es muss also immer der Mensch mit seiner gesamten soziologischen und biologischen Vorgeschichte sowie im Licht hirnphysiologischer Erkenntnisse beurteilt und eventuell mit Strafe belegt werden – und nicht allein die abstrakte Handlung des Täters. Gerade besonders abscheuliche Delikte hängen nachweislich oft mit angeborenen oder früh erworbenen neuronalen Schäden zusammen. In einem solchen Fall muss ein Täter meist für unzurechnungsfähig erklärt werden.

Strafe scheint aber generell auch dann gerechtfertigt und in vielerlei Hinsicht eine wichtige Maßnahme zu sein, wenn ein Täter nicht anders hätte handeln können. Nicht nur die Kompatibilisten sagen: Ja, wir dürfen die Rechtsbrecher weiterhin für schuldig erklären und ihnen moralische Vorwürfe machen! Da Menschen sich Vorwürfe zu Herzen nehmen und ihr Verhalten danach ausrichten würden, sei es, so meinte der Physiker und Philosoph Moritz Schlick (1882-1936), durchaus sinnvoll, sie für ihr Tun moralisch zu verurteilen und strafrechtlich zur Verantwortung zu ziehen. Allein schon die Androhung von Freiheitsentzug sei ein effektives Abschreckungsmittel, das das Verhalten des Einzelnen beeinflusse.

Die Menschen haben ein substanzielles Interesse an einem Rechtssystem, das Leib und Leben, Hab und Gut schützt. Und es funktioniert offensichtlich nur dann, wenn es seinen Forderungen durch Strafen Nachdruck verleiht. Die neuzeitlichen und aufklärerischen Staatstheoretiker wie Thomas Hobbes (1588-1679), John Locke (1632-1704), Jean-Jaques Rousseau (1712-1778) und Immanuel Kant (1724-1804) hatten die Idee eines gesellschaftlichen Vertrages, der den Menschen Sicherheit für Leben und Besitz bieten sollte und von ihnen im Gegenzug verlangte, die Sicherheit anderer zu respektieren. Das schloss auch Strafen ein, sofern sie die Sicherheit garantierten und nur im Fall der Vertragsverletzung verhängt würden.

Nur „Wegsperren“ ist nicht unbedingt von Nutzen. Die Gesellschaft muss weitergehende Maßnahmen ergreifen, damit unerwünschtes Verhalten nicht wieder vorkommt. Dazu gehören u. a. Schulungs- und Therapieprogramme (auch präventiv). Social Engineering nennt man die Behandlung sozial schädlichen Verhaltens mit dem Ziel, es zu korrigieren oder wenigstens die Gesellschaft vor seinen Folgen zu schützen. Schließlich darf aber auch der Nutzen eines Strafsystems für die Opfer nicht vernachlässigt werden. Für diese ist es wichtig, Solidarität zu verspüren und zu wissen, dass das Geschehene nicht einfach hingenommen wird. Solche Erfahrungen bedingen auch zukünftiges Handeln mit.

————————————————————————————————————

REM

Das Ende eines Sterns

Die meiste Zeit verbringen Sterne in einer stabilen Phase, in der in ihrem Zentrum Kernfusionsreaktionen, vor allem die Verschmelzung von Wasserstoff zu Helium, ablaufen. Dabei wird Energie (nukleare Bindungsenergie) frei. Die Kernfusion heizt so das Innere des Sterns auf und erzeugt damit Druck gegen die äußeren Schichten, die aufgrund der Schwerkraft nach innen streben. Mathematisch ist der Gasdruck im Inneren des Sterns das Produkt aus Teilchendichte und Temperatur. Durch die Fusion von jeweils vier Wasserstoffkernen zu einem Heliumkern sinkt die Teilchendichte im zentralen Bereich und er kontrahiert mit der Zeit etwas. Dadurch wird die Fusion aber auch effektiver, die Temperatur steigt. Solange der Druck von Gas und Strahlung aus dem Inneren dem Gravitationsdruck der äußeren Schichten die Waage hält, bleiben die Sterne stabil.

Die Lebensdauer eines Sterns hängt vor allem davon ab, wieviel Wasserstoff zur Verfügung steht und wie schnell er verbraucht wird. Je mehr Masse ein Stern hat, umso mehr Brennstoff muss er pro Sekunde verbrauchen, um sich gegen die eigene Schwerkraft zu behaupten. Daher strahlen massereiche Sterne auch wesentlich stärker. Aus den physikalischen Gesetzen, die seinen Aufbau bestimmen, ergibt sich, dass die Leuchtkraft und damit der Energieverbrauch mit der 3,5ten Potenz der Sternmasse ansteigt.

Massereiche Sterne brauchen ihren Brennstoff aber deshalb auch erheblich schneller auf als massearme, obwohl sie anfangs mehr davon haben, und steuern in rasantem Tempo auf ein spektakuläres Ende zu. Die leichtesten Sterne – von denen einige nur 1/10 der Masse unserer Sonne aufweisen – haben die höchste Lebenserwartung: bis zu einigen Billionen Jahren. Im Gegensatz dazu liegt die Lebenserwartung der schwersten Sterne nur bei wenigen Millionen Jahren.

Auch welchen Endzustand der Kern eines Sterns erreicht und ob und wie heftig die verbleibende Hülle abgestoßen wird, hängt von seiner Masse ab. Dabei ist das Ende der Sterne weitaus vielfältiger als man annehmen könnte. Manche Sternexplosionen sind hundertmal heller als gewöhnliche, andere wiederum hundertmal schwächer. Einige erscheinen tiefrot, manche senden vor allem ultraviolette Strahlen aus. Eine ganze Reihe von ihnen ist jahrelang sichtbar, andere verblassen innerhalb weniger Tage. Die Masse des Sterns bestimmt auch die Art von chemischen Elementen, die er an das interstellare Gas abgibt und damit der nachfolgenden Generation zur Verfügung stellt.

Schicksal der masseärmeren Sterne

Wenn fast aller Wasserstoff im Zentralbereich eines Sterns zu Helium verschmolzen ist, erlischt hier die Kernfusion. Da es in den äußeren Schichten noch ausreichend Wasserstoff gibt, wandert die Zone, in der noch Kernreaktionen stattfinden, schalenförmig nach außen. Während der Kern wegen der Abnahme der inneren Hitze schrumpft, heizt sich die Hülle schlagartig auf und expandiert. Binnen kurzer Zeit schwellt der Stern auf ein Vielfaches seines ursprünglich Durchmessers an. Etwa eine Milliarde Jahre nach Versiegen des Wasserstoffbrennens im Kern hat sich z. B. ein sonnenähnlicher Stern auf das 160fache seines ursprünglichen Durchmessers ausgedehnt und leuchtet mehr als 2000mal so hell. Dabei hat sich seine Farbe in ein tiefes Rot verändert, da durch die Expansion die Temperatur an der Oberfläche um etwa 3000°C abgenommen hat. Seine Leuchtkraft ist indes höher als zuvor, da die Oberfläche um ein Vielfaches zugenommen hat.

Dieses Stadium – die Astronomen bezeichnen den Stern jetzt als „Roten Riesen“ – kann wiederum Jahrmillionen oder Jahrmilliarden dauern, währenddessen im Inneren weitere chemische und physikalische Prozesse stattfinden. Zeitweilig wird ein Teil der Sternmaterie stark durchmischt, gelangt an die Oberfläche und wird als Teilchenwind ins All ausgestoßen. Der Rote Riese pulsiert schließlich mit immer heftigeren Bewegungen und schleudert dabei Materie ins All. Im Kern kann bei einer genügend hohen Temperatur Helium weiter zu Kohlenstoff und Sauerstoff fusioniert werden. Allerdings wird der Kern eines Sterns von bis zur acht- bis zehnfachen Masse der Sonne nicht heiß genug, um einen merklichen Anteil seines Kohlenstoffs in Sauerstoff umzuwandeln.

Sobald der Rote Riese sämtliche Heliumvorräte in Kohlenstoff umgewandelt hat, fällt er in sich zusammen. Kurz vorher wirft er die äußeren Schichten, die dem Strahlungsdruck von innen nicht mehr standhalten können, ab. Nach der Theorie der wechselwirkenden Sternwinde verlässt ungefähr tausend Jahre später ein dünnerer, aber wesentlich schnellerer Wind den sterbenden Stern. Er holt alsbald die langsameren äußeren Schichten des Roten Riesen ein und kollidiert mit ihnen. Dabei verdichtet sich die Materie und energiereiche UV-Strahlung entreißt den Atomen der Nebelschwaden Elektronen.

So entsteht die verschwenderische Farbpalette der Planetarischen Nebel, die bis zu zwei Lichtjahre groß sein können. Für ungefähr 100 000 bis eine Million Jahre – je nach Anfangsmasse des Sterns – bleibt er sichtbar, dann hat sich die Hülle im interstellaren Raum verteilt und mit dem dortigen Gas vermischt. Der Name „Planetarischer Nebel“ hat also nichts mit Planeten zu tun; er geht auf den englischen Astronomen William Herschel zurück: Die winzigen blaugrünen Scheibchen, die er (1785) in seinem Teleskop sah, erinnerten ihn an den Planeten Uranus, den er vier Jahre zuvor entdeckt hatte. Schätzungsweise 50 000 Planetarische Nebel soll es allein in der Milchstraße geben; 1500 sind bekannt.

Der heiße Kern des Roten Riesen kollabiert nicht vollständig. Es sind die abstoßenden Quantenkräfte, die den völligen Zusammenbruch verhindern. Die Gesetze der Quantenmechanik verbieten es, dass zwei Elektronen exakt den gleichen Energiezustand einnehmen. Sie lassen sich nicht weiter zusammenpressen und setzen dadurch der nach innen wirkenden Schwerkraft einen nach außen gerichteten Druck, den Entartungsdruck der Elektronen, entgegen. Er stabilisiert den abgebrannten Stern.

Was übrig bleibt, ist ein Weißer Zwerg von der Größe der Erde, aber mit einer Dichte von einer Tonne pro Kubikzentimeter (im Zentrum sogar 1000 Tonnen pro Kubikzentimeter) und fast soviel Masse wie die heutige Sonne. Er besteht hauptsächlich aus Kohlenstoffatomkernen und Elektronen, ist sehr heiß, hat aber eine geringe Leuchtkraft. Im Verlauf von Milliarden Jahren kühlt der Weiße Zwerg, umkreist von den Trümmern seines einstigen Planetensystems, langsam aus und wird immer leuchtschwächer. Dabei behält dieser kosmische „Aschehaufen“ im Wesentlichen seine Größe: Die meisten Weißen Zwerge besitzen 0,56 Sonnenmassen. Das sog. Chadrasekhar-Limit besagt, dass sie nicht schwerer als 1,4 Sonnenmassen sein können, sonst würden sie weiter zu Neutronensternen oder Schwarzen Löchern kollabieren. (In einem Doppelsternsystem kann ein Weißer Zwerg kontinuierlich Masse von seinem Nachbarstern abziehen und diese Massengrenze überschreiten.)

Der Weiße Zwerg wird schließlich erlöschen. Nur der Kranz aus Staub und Gas, gebildet aus der abgestoßenen Materie, erinnert dann noch an seine frühere Existenz. 15 000 dieser Sternleichen soll es allein im Umkreis von 300 Lichtjahren um die Erde geben. Der uns nächste, nur mit dem Teleskop sichtbare Weiße Zwerg ist Sirius B – der Begleiter des hellsten Sterns am Nordhimmel, Sirius A. Er ist nur etwa doppelt so groß wie die Erde, aber fast so schwer wie die Sonne. Sein Licht braucht nur acht Jahre und 202 Tage für den Weg zu uns.

Schicksal von massereichen Sternen

Bei Sternen mit dem Acht- bis Zehnfachen der Sonnenmasse laufen die Fusionsprozesse umso rascher ab, je höher Druck und Temperatur im Sterninneren sind. Immer hektischer zünden nun Fusionsreaktionen schwerer Atomkerne, bis bei Eisen und Nickel die Kernfusion abbricht. Eisen hat die energieärmsten Atomkerne; eine weitere Fusion zu noch schwereren Elementen liefert keine Energie mehr, sondern würde welche erfordern. Somit kommen die Kernverschmelzungsprozesse im ausgebrannten Sternkern rapide zum Erliegen. Der Stern ist „ausgebrannt“.

In einem Stern von der 25fachen Masse der Sonne dauert das Wasserstoffbrennen nur sieben Millionen Jahre, das Heliumbrennen 500 000 Jahre. Das Kohlenstoffbrennen hält den Stern sogar nur für sechs Jahrhunderte heiß, Sauerstoff für sechs Monate, und die Umwandlung von Silizium zu Eisen-56 läuft in einem Tag ab. Kleinere Sterne bis minimal mehr als acht Sonnenmassen, erreichen diesen Zustand nach sehr viel längerer Zeit.

Die Folge der Brennvorgänge ist ein „Zwiebelstern“ mit konzentrierten, kugelsymmetrischen Schalen, in denen sich von außen nach innen jeweils die Asche der früheren nuklearen Brennphasen anordnet, mit Eisen als schwerstem Element im Zentrum. Weiter außen liegende Schichten bestehen nacheinander hauptsächlich aus Sauerstoff, Kohlenstoff, Helium und Wasserstoff. Was weiter geschieht, hängt vor allem von der Masse des Kerns ab, denn die entscheidet über die Temperatur- und Druckverhältnisse im Zentrum.

Das 1,4fache der Sonnenmasse ist die maximale Masse, die vom nachlassenden Druck der Elektronen noch zusammengehalten werden kann. Oberhalb dieser Massengrenze kann zunächst nichts mehr der wachsenden Schwerkraft standhalten: Der Stern wird instabil. In Sekundenbruchteilen bricht die Eisenkugel von rund 3000 Kilometern Durchmesser – ungefähr der Größe des Erdmonds – mit einem Viertel der Lichtgeschwindigkeit (75 000 km/s) in sich zusammen. Bei der Implosion zerlegen die energiereichen Photonen die Eisenkerne in einzelne Protonen, Alphateilchen und immer mehr Neutronen. Die Materie hat sich so verdichtet, dass Kernreaktionen zwischen Protonen und Elektronen einsetzen. Die bis dahin freien Elektronen werden unter dem extrem starken Gravitationsdruck gleichsam in die Protonen hineingequetscht und bilden mit ihnen zusammen Neutronen. Gleichzeitig werden binnen 10 bis 15 Sekunden 1058 Neutrinos frei.

Jetzt setzt ein neuer Stabilisierungsmechanismus ein. Es ist der Entartungsdruck der Neutronen, der den Prozess aufhält. Sie lassen sich nicht weiter zusammenpressen, wodurch ein nach außen gerichteter Druck erzeugt wird. Die Materie, die mit bis zu 15% der Lichtgeschwindigkeit aus den äußeren Sternschichten weiter auf den neugeborenen Neutronenstern niederstürzt, wird zurückgeschleudert. Die Implosion geht in eine Explosion über – eine Supernova.

Der ungeheure Energieausstoß der Explosion wird als plötzliches Aufleuchten des Sterns sichtbar. Dabei sollen die Neutrinos 99% der bei der Sternexplosion erzeugten Energie ausmachen. (Als Antrieb der Explosion kommen auch noch andere Explosionsmechanismen in Frage, z. B. Schallwellen oder magnetische Energie.) Eine einzelne Supernova strahlt so viel Energie ab wie unsere Sonne während ihrer ganzen Existenz. Sie kann kurzfristig sogar heller leuchten als eine ganze Galaxie und ist bis 5000 Lichtjahre entfernt noch zu sehen. Die Maßstäbe übersteigen unser Vorstellungsvermögen.

Die gewaltige Stoßwelle sprengt die äußeren Schichten des Sterns innerhalb von Minuten mit der Gewalt von zehn Wasserstoffbomben ab und katapultiert sie größtenteils in den interstellaren Raum. Mit der Geschwindigkeit von einigen Prozent der Lichtgeschwindigkeit breitet sich die ehemalige Sternhülle, eine bis zu zehnmal größere Masse als die Sonne, aus. Die Trümmerwolke, die die Druckwelle der Explosion vor sich hertreibt, rast in den noch vorhandenen, wesentlich langsameren Sonnenwind, den der Überriese vordem ins All geblasen hat. Bei dieser Kollision erhitzen sich die Gase und erzeugen elektromagnetische Strahlung, u. a. auch hochenergetische Röntgen- und Gammstrahlen.

Der Krebsnebel in der Nähe des Sternbildes Orion ist die Explosionswolke der großen Supernova, die chinesische Hofastronomen 1054 entdeckten und deren hochenergetische Strahlung man 1991 nachweisen konnte. Sie ereignete sich vor rund 7300 Jahren.

Hinter sich her zieht die Stoßfront der Supernova eine nuklear brennende Front und hinterlässt ein Gemisch an frisch fusionierten Elementen, darunter Silizium, Kalzium, Eisen und radioaktive Isotope von Nickel, Kobalt und Titan. Etwa 70% des Eisens, das heute in den Galaxien nachweisbar ist, stammt aus Supernova-Explosionen. Sie lieferten auch das Baumaterial zur Bildung neuer Sterne, Planeten und aller Lebensformen auf der Erde. (Die mittlerweile beobachtete Vielfalt der Supernovae deutet darauf hin, dass deren unterschiedliche Kategorien bevorzugt Elemente jeweils verschiedener Bereiche des Periodensystems produzieren.)

Die Leuchtkraft des Feuerballs steigert sich etwa ein bis drei Wochen lang, angeregt durch den Zerfall instabiler schwerer Elemente, insbesondere radioaktivem Nickel, bis sie ein Maximum erreicht und danach über Monate hinweg langsam abfällt. Dabei erzeugt sie mehr Licht als hundert Milliarden Sterne einer Galaxie und lässt sich noch Jahre später als immer weiter expandierende Blase beobachten. Meist haben die heißen, gasförmigen Überreste des Sterns eine asymmetrische Gestalt und sind zerfranst in größere und kleinere faserige Strukturen mit klumpenartigen Verdichtungen sowie Bereichen geringerer Materiekonzentration. Selbst einige Jahrhunderte später ist um den Neutronenstern noch eine leuchtende Gashülle auszumachen, die sich beständig weiter ausdehnt.

Viele der hellsten Supernovae (Typ Ia) sind thermonukleare Explosionen von Weißen Zwergsternen, die in einem engen Doppelsternsystem Materie von ihrem Nachbarn abgezogen und schließlich die kritische Grenze von 1,4 Sonnenmassen überschritten haben. Supernovae vom Typ Ia können auch entstehen, wenn zwei Weiße Zwerge sich immer näher kommen und schließlich verschmelzen.

a) Neutronensterne

Übrig bleibt bei einem Sternrest von bis zu 3,2 Sonnenmassen ein äußerst kompaktes Gebilde, ein heißer, dichter Neutronenstern mit nur etwa 20 Kilometern Durchmesser. Er besteht fast nur noch aus Neutronen (und zu etwa 5% aus Protonen). Seine Dichte entspricht der eines Atomkerns: ca. eine Milliarde Tonnen pro Kubikzentimeter. Ein Stecknadelkopf dieser Materie wäre immer noch etliche Tonnen schwer. Er besitzt ein brachiales Gravitationsfeld: Die Schwerkraft auf der Oberfläche ist so groß, dass eine imaginäre Rakete eine Fluchtgeschwindigkeit von 2/3 der Lichtgeschwindigkeit erreichen müsste, um der Gravitation zu entkommen.

Wie genau es der Materie im Inneren des Neutronensterns ergeht, ob sich unter dem ungeheuren Druck beispielsweise Quarks (die Bestandteile von Protonen und Neutronen) frei bewegen können oder andere Quarkvarianten auftreten, ist derweil noch unklar.

Im Verlauf der Supernova wird beim Kollaps des Kerns Gravitationsenergie der in sich zusammenfallenden Masse in Rotationsenergie umgewandelt. Nach ihrer Geburt drehen sich daher Neutronensterne in der Regel sehr flott um sich selbst – bis zu 1000mal in der Sekunde. Da in ihrem Kern auch geladene Teilchen wie Protonen und Elektronen schwimmen, entsteht wie bei einem Dynamo ein starkes Magnetfeld. Bei den Drehungen wickelt es sich auf und ein Teil der Bewegungsenergie wird in Form elektromagnetischer Schwingungen abgestrahlt.

Wenn sich die Rotations- und Magnetfeldachse des Neutronensterns nicht decken, entsteht eine Art Leuchtfeuer mit zwei engen Strahlenkegeln (Jets), die an zwei entgegengesetzten Orten des Sterns austreten. Liegt die Erde zufällig im Strahlungsbereich eines Lichtkegels, können Astronomen das Signal (vor allem Radiowellen) als regelmäßige Pulse messen. Daher bezeichnet man rasch rotierende Neutronensterne auch als Pulsare. Die Bezeichnung „Pulsar“ ist eigentlich irreführend, denn der Stern pulsiert nicht, wie sein Name suggeriert, sondern „blinkt“ wie ein Leuchtturm, da er das irdische Beobachtungsfeld periodisch anstrahlt.

Mit der Zeit nimmt die Rotationsgeschwindigkeit und damit auch die Emissionsfrequenz der der Pulsare ab, denn der Wind aus geladenen Teilchen und elektromagnetischen Wellen niedriger Frequenz, den der Pulsar abgibt, trägt Energie und Drehimpuls davon. Je länger der Pulsar strahlt, desto mehr Rotationsenergie muss er demgemäß umgesetzt haben und umso langsamer sind seine Umdrehungen geworden. Nach etwa 10 bis 20 Millionen Jahren erlischt bei einer Rotationsdauer von 0,5 bis 4 Sekunden das Funkfeuer: Der himmlische Radiosender ist zum stillen Neutronenstern geworden. Aufgrund des Entartungsdruckes bleibt er aber noch Milliarden Jahre nach seiner Entstehung stabil.

[Neutronensterne mit einem extrem starken Magnetfeld werden „Magnetare“ genannt. Sie könnten ein Relikt des Zusammenstoßes zweier massereicher Sterne sein. Ihr Feld ist 10- bis 1000mal stärker als das gewöhnlicher Neutronensterne und übertrifft alles, was Physiker kennen. Sie rotieren besonders schnell um ihre Achse (in nur wenigen Millisekunden einmal) und geben große Mengen an Röntgen- und Gammastrahlung ab. Ein Teil der Energie aus ihrer extrem schnellen Drehbewegung geht an die expandierende Explosionswolke über und lässt sie heller erscheinen. Magnetare sind aber nur etwa 10 000 Jahre lang aktiv und damit sichtbar; gerade einmal 30 sind aus unserer Galaxie bekannt. Millionen von ihnen könnten aber unbemerkt durch die Milchstraße treiben.

Schätzungen gehen von insgesamt einer Milliarde Neutronensternen in der Milchstraße aus. Einige Tausend wurden bisher gefunden. Die nächstgelegenen Neutronensterne sind Geminga und Monogem. Geminga im Sternbild Zwillinge (Geminga) ist etwa 800 Lichtjahre entfernt und 370 000 Jahre alt. Monogem befindet sich in einer Distanz von 900 Lichtjahren und ist etwa 100 000 Jahre alt. Der jüngste bekannte Pulsar ist der Überrest der 1054 beobachteten Supernova im Herzen des Krebsnebels (s. o.), deren scheinbare Lichtimpulse das gesamte Spektrum von Radio- bis hin zu Röntgen- und Gammawellenlängen abdecken und deren Leuchtkraft dafür sorgt, dass die Überreste der Explosion selbst heute noch hell zu sehen sind.

b) Schwarze Löcher

Wenn der Sternrest nach einer Supernova-Explosion den Wert von 3,2 Sonnenmassen übersteigt, gibt es keine Möglichkeit mehr, sich gegen die Schwerkraft zu behaupten. Sie gewinnt die Oberhand über alle Druckkräfte, die sich ihr entgegenstemmen könnten – sei es der thermonukleare Druck im Inneren des Sterns, die abstoßende Kraft zwischen den positiven Ladungen im Inneren der Atomkerne oder der Entartungsdruck von Elektronen und Neutronen. Der Kern kollabiert zu einem Schwarzen Loch.

Albert Einstein hatte mit seiner Allgemeinen Relativitätstheorie den Grundstein für die Theorie der Schwarzen Löcher gelegt: Überschreitet nach seinen Gleichungen die Masse in einem Raumgebiet eine kritische Grenze, werden die Gravitationskräfte so groß, dass Materie unendlich dicht zusammengedrängt wird und weder sie noch Licht oder ein anderes Signal mehr entweichen kann. Einstein wurde allerdings nicht müde, immer wieder zu erklären, dass es die „mathematische Katastrophe“ nicht geben kann. Erst 1939 konnten Robert Oppenheimer (der Vater der Atombombe), Robert Serber und Georg Volkoff beweisen, dass es beim Kollaps eines Riesensterns (oder beim Zusammenstoß von massereichen Sternen) keine Möglichkeit mehr gibt, sich der endgültigen Vernichtung zu entziehen, wenn der entstehende Sternrest 3,2 Sonnenmassen überschreitet.

Die Bezeichnung „Schwarzes Loch“ wurde 1967 auf einer wissenschaftlichen Konferenz geprägt und von John Archibald Wheeler aufgegriffen; sie setzte sich dann rasch durch. Für theoretische Physiker sind Schwarze Löcher zunächst nur bestimmte Lösungen der von Einstein aufgestellten Feldgleichungen. Obwohl astronomische Beobachtungen stark für ihre Existenz sprachen, konnten sie bis vor Kurzem nur indirekt nachgewiesen werden. Theoretisch sind sie immer noch nicht vollständig verstanden, obwohl es die am genauesten erforschten theoretischen Gebilde der Menschheit sind. Für ein Verständnis ihrer Zentralregion bedarf es wohl einer Theorie der Quantengravitation, die Raum und Zeit quantenphysikalisch beschreibt.

Ein Schwarzes Loch besteht aus zwei Teilen. In seinem Zentrum liegt eine unendlich kleine Masse, eine sog. Punktmasse, in der sich die gesamte Materie des Sterns zusammenballt. Die Mathematiker nennen ein solches unvorstellbar kleine Gebiet mit praktisch unendlich hoher Dichte und Temperatur eine Singularität. Nicht einmal Licht kann dort der Gravitation entkommen, geschweige denn Materie. Es ist weder ein materieller Körper, noch Strahlung, sondern gewissermaßen ein „Loch“ in der Raumzeit – aber das sollte man nicht wörtlich nehmen. (Physiker betrachten Singularitäten als Folge einer unzureichenden mathematischen Formulierung oder als Ausdruck einer inneren Unvollständigkeit der Theorie.)

Weil fast alle Sterne einen Drehimpuls haben, muss auch das durch den Kollaps eines Sterns entstandene Schwarze Loch rotieren. Nach den heutigen Erkenntnissen kann die Rotationsenergie bis zu einem Drittel der Gesamtenergie ausmachen. Der Drehimpuls schlägt sich in Form und Bewegung des Gravitationsfeldes nieder: Obwohl nicht direkt sichtbar, rotiert in der Nähe eines Schwarzen Loches die Raumzeit selbst. Der Schwerkrafteinfluss auf die Umgebung ist ein Indiz für seine Existenz. Durch Schwingungen des Schwarzen Lochs entstehen auch Gravitationswellen, die das Raumzeitgefüge verzerren und auf der Erde gemessen werden können.

Das Schwarze Loch zieht Materie aus dem Umfeld an: interstellares Gas, Staub, Teile eines eng benachbarten Sterns, ja ganz Sterne. Für uns verrät es sich optisch durch eine flache, teils sich von innen nach außen stark auffächernde, mit hoher Geschwindigkeit um das Schwarze Loch herum rotierende, leuchtende Scheibe (Akkretionsscheibe), dem sog. Ereignishorizont. Er trennt unausweichlich außen von innen, das Schwarze Loch vom umgebenden Raum. Hier sammelt sich die angezogene Materie und leuchtet zum letzten Mal auf, bevor sie im Schlund des Schwarzen Lochs verschwindet.

Durch dessen Rotation geraten die Teilchen, die von fern genau radial auf das Schwarze Loch zustürzen, in seiner Nähe unweigerlich auf eine Spiralbahn. Vor allem das Zusammenspiel eines starken Magnetfeldes mit einer dichten Akkretionsscheibe ruft ein Gewirr sehr schneller Partikel hervor, die untereinander sowie mit Photonen wechselwirken. Ein merklicher Bruchteil, bis zu einem Viertel des einfallenden Materials, wird dadurch in Energie verwandelt und abgestrahlt.

Während des Einsturzes bewegt sich die Materie auf ihren Umläufen immer rasanter. Die Schwerkraft drückt sie extrem stark zusammen und der Mahlstrom heizt sich immer weiter auf – bis auf Temperaturen von Millionen und Milliarden Grad. Die Materie sendet umso mehr elektromagnetische Strahlung aus, je mehr sie sich dem Punkt ohne Wiederkehr am inneren Rand der Scheibe nähert. So finster das Schwarze Loch selbst ist, so intensiv leuchtet daher seine Umgebung. (In Kombination mit Gaswolken gehören die Umgebungen Schwarzer Löcher daher oft zu den hellsten Regionen des Kosmos.)

Bevor Materie auf Nimmerwiedersehen im Schwarzen Loch verschwindet, können die extremen Bedingungen dafür sorgen, dass ein Teil dieser Materie gebündelt wird und als gerichteter, eng begrenzter Teilchenstrahl entlang der Pole ins All schießt. In diesen Jets rast die Materie mit annähernd Lichtgeschwindigkeit tausende Lichtjahre, bei Aktiven Galaxienkernen (s. u.) sogar viele Millionen Lichtjahre weit ins All.

Der nicht abgestrahlte Rest der Materie wird vom Schwarzen Loch aufgesogen. Ab dem Abstand, ab dem jede Art von Materie aufgrund der starken Gravitation in diesen kosmischen Strom hineingezogen wird, kann weder Masse noch Licht nach außen dringen. Das Objekt ist unsichtbar, nach außen hin also schwarz, denn die ausgesandten Lichtstrahlen sind zueinander gekrümmt und laufen somit zusammen, statt auseinander. Keinerlei Information vermag über ein Ereignis im Inneren dieses Bereichs zu künden, daher auch der Begriff „Ereignishorizont„.

Im Inneren des Schwarzen Lochs wird alles zermalmt und in seine Grundbestandteile zerlegt – die absolute Vernichtung. Man kann ein Schwarzes Loch am besten durch die Worte des mittelalterlichen italienischen Dichters Dante Alighieri charakterisieren, der als Einführung über das Reich der Hölle (Inferno) geschrieben hat: „Ihr, die ihr eintretet, lasst alle Hoffnung fahren.“ In der Nähe des unendlich dichten Mittelpunkts eines Schwarzen Lochs müsste sogar die Zeit vollständig zum Stillstand kommen.

Wie schwer ein Schwarzes Loch werden kann, das aus einem Riesenstern hervorgeht (stellares Schwarzes Loch), hängt von der Masse seines Vorläufersterns ab und wie viel dieser verliert, bevor er als Supernova explodiert. Seine Größe hängt auch davon ab, ob es rotiert oder nicht. So haben die dunklen Objekte zwischen einigen wenigen und mehr als eine Million Sonnenmassen, und ihre Durchmesser reichen von ein paar Kilometern bis zu Millionen Kilometern.

Aus der Verschmelzung zahlreicher stellarer Schwarzer Löcher (sowie durch Einverleibung von Gas, Staub und ganzen Sternen) entstehen im Lauf der Zeit mittelschwere Schwarze Löcher – mit zwischen einigen tausend und einigen hunderttausend Sonnenmassen. Sie wurden schon im Zentrum von Kugelsternhaufen nachgewiesen und sollen schon sehr früh in der Geschichte des Universums entstanden sein – aber ohne Umweg über eine Sternexplosion, sondern über den direkten Kollaps von riesigen Gaswolken. Ein solches Mittelgewicht kann durch einstürzendes Gas und weitere Verschmelzungsprozesse zu einem supermassereichen Schwarzen Loch anwachsen.

Ein solches enthält die millionen- bis milliardenfache Masse der Sonne in einem Raumgebiet, das kleiner ist als unser Sonnensystem. Solche Schwarzen Löcher sitzen im Zentrum vieler Galaxien. Ein Schwarzes Loch mit einer Million Sonnenmassen, wie es Astrophysiker im Zentrum unserer Milchstraße vermuten, besäße einen Radius von drei Millionen Kilometern, wäre also viermal so groß wie die Sonne. Aktive Schwarze Löcher können sich durch intensive Strahlung in der Akkretionsscheibe noch über viele Milliarden Lichtjahre bemerkbar machen – als Blazare, Quasare, Aktive Galaktische Kerne, Seyfert- oder Radiogalaxien.

Heute sind aber nur noch 0,001% aller Schwarzen Löcher in Galaxien aktiv – drei Milliarden Jahre nach dem Urknall waren es tausendmal mehr. Denn nach einiger Zeit hat dieser Moloch alle Materie in seiner Umgebung aufgesogen und fällt dann gewissermaßen in Schlaf. Dem gerade noch üppig gemästeten Schwarzen Loch fehlt plötzlich die Nahrung. Ohne ständige Zufuhr an frischer Materie kommt die Strahlung in seiner Umgebung rasch zum Erliegen. Der Quasar erlischt und wird zu einer relativ lichtschwachen Galaxie – mit einem auf Diät gesetzten Massenmonster im Zentrum. Viele dieser Art bevölkern heute das Weltall. Sie machen sich indirekt über ihre gewaltige Schwerkraft bemerkbar, indem sie die Bewegungen naher Sterne und Gaswolken beeinflussen. Kühlt sich das Gas einer Galaxie ab, kann dann wieder mehr davon ins Zentrum strömen und das Schwarze Loch wieder erwecken.

Im Rahmen der Allgemeinen Relativitätstheorie existieren Schwarze Löcher ewig. Aber Quanteneffekte führen dazu, dass sie Strahlung abgeben und sich wahrscheinlich vollkommen auflösen können. Denn am Ereignishorizont entstehen aus den überall vorhandenen Energiefeldern permanent virtuelle Teilchen und Antiteilchen, die aber sofort wieder zerstrahlen. Fällt einer der Partikel ins Schwarze Loch und das andere entkommt ihm, dann wird dem Loch Energie entzogen. Bis Schwarze Löcher aber endgültig zerstrahlen, müssen ungeheuer lange Zeiträume vergehen.

Strittig ist bis heute , was mit der Information geschieht, die nach und während der Entstehung eines Schwarzen Lochs in ihm verschwunden ist. Wenn sich ein Schwarzes Loch vollständig in Zufallsstrahlung auflöst, müssten alle von ihm verschluckten physikalischen Informationen vernichtet sein. Das wäre verheerend, denn Quanteninformation kann nicht zerstört werden, ohne die Quantentheorie und den Energieerhaltungssatz zu verletzen. Andererseits kann sie nicht übrig bleiben, ohne die Stabilität der Welt zu gefährden.

Physiker haben verschiedene Erklärungen vorgeschlagen und Szenarien entwickelt, um das berüchtigte „Informationsparadoxon“ Schwarzer Löcher zu lösen. Manche der hartnäckigsten Probleme könnten sich nach Meinung der Wissenschaftler in Wohlgefallen auflösen, wenn es gelingt, Gravitationstheorie und Quantenmechanik zu einer „Theorie für Alles“ zu vereinheitlichen, einer gültigen Theorie der Quantengravitation. Doch daran beißen sich momentan die Forscher noch die Zähne aus.

REM

Teilchen, Felder – oder was?

Die Quantenfeldtheorie

Vor einigen Jahrzehnten wurde die gewöhnliche Quantenmechanik weiterentwickelt, um Einsteins Gesetze der Speziellen Relativitätstheorie zu berücksichtigen. So entstand die „relativistische Quantentheorie“ als Vereinigung der Theorie klassischer Felder (wie das elektromagnetische Feld) mit quantenmechanischen Prinzipien. Sie taucht in vielen verschiedenen Varianten auf und kann unterschiedlichste physikalische Systeme beschreiben. Auch der mathematische Unterbau des Standardmodells der Teilchenphysik basiert auf einer Quantenfeldtheorie und beschreibt in deren Rahmen die elementaren Materiebausteine und die zwischen ihnen wirkenden Kräfte.

Teilchen und Felder

Der Teilchenbegriff stammt aus dem Weltbild der altgriechischen Atomisten und vollendete mit den Theorien Isaac Newtons (1643-1727) seinen Siegeszug. Er bezieht sich auf etwas, das, meist als kugelähnlicher Partikel – z. B. eine Billardkugel – dargestellt, einen bestimmten Ort einnimmt. Aus mehreren Gründen verhalten sich die Grundelemente der Quantenfeldtheorie jedoch ganz und gar nicht wie Billardkugeln. Stattdessen hatten bereits in den 1920er Jahren Wissenschaftler erkannt, dass eine Theorie, die auf Feldern statt auf Teilchen basiert, einige wichtige Ungereimtheiten aus dem Weg räumt: Angefangen mit Fragen der Kausalität („Wie kann ein weit entferntes Elektron ein anderes über große Distanzen hinweg augenblicklich beeinflussen?“) bis zu der unerwarteten Tatsache, dass Partikel nicht ewig existieren.

Felder sind gemäß der Speziellen Relativitätstheorie keine Zustände der Materie, sondern des Raumes (Einstein: „Zustände in Raum und Zeit, die über Entfernungen hinweg wirken“). Sie weisen jedem Punkt der Raumzeit eine physikalische Größe zu, die sich eindeutig mit beliebig feiner Auflösung im Raum messen lässt (z. B. Temperatur oder elektrische Feldstärke). Die Menge der unendlich vielen Positionen bildet zusammen das Feld, das alle Informationen zusammenfasst. Es ist – wie beispielsweise das elektromagnetische oder Gravitationsfeld – für die Übermittlung einer Kraft verantwortlich.

Quantenfeldtheorie

Nach den Gesetzen der Elektrodynamik bilden sich in der Umgebung einer beschleunigten elektrischen Ladung – also z. B. eines Elektrons – immer ein elektrisches und magnetisches Feld. Dieses wird vom Elektron erzeugt und folgt – vergleichbar der Bugwelle eines Schiffes – der Elektronenbewegung und breitet sich wellenförmig in den Raum aus. Quantentheoretisch ließ sich die elektromagnetische Kraft als Austausch von bestimmten masselosen Quanten, den Photonen, beschreiben. Die Quantentheorie des Elektromagnetismus, die Quantenelektrodynamik (QED), war das erste erfolgreiche Beispiel einer Quantenfeldtheorie in den Vierziger Jahren des 20. Jahrhunderts. Durch ihre Entdeckung verstand man endlich den Elektromagnetismus und das Wesen des Lichts.

Die Grundbausteine der Materie sind heute nicht mehr Teilchen, Wellen oder Kräfte, sondern Quantenfelder, die wie eine Art Gewebe unsere gesamte Raumzeit durchziehen. Sie unterscheiden sich grundlegend von den klassischen Varianten, z. B. von einem Magnetfeld. Aus diesen grundlegenden (fundamentalen) Bausteinen des Kosmos entspringen also Strahlung, Materie und deren Wechselwirkungen. Materie ist in diesem Sinne nur die sichtbare Form von Materiefeldern, die sich verwirklicht haben. Ihre Stabilität ist die Stabilität eines Gleichgewichts (wie ein Ökosystem oder Organismus).

Die Quantenfeldtheorie weist jedem Elementarteilchen ein Feld zu, das keinerlei mechanische Basis besitzt – aber (wie Materie) Energie und Impuls. Diese Felder sind nicht kontinuierlich, sondern Energie und Impuls treten in Portionen oder Quanten auf (die im Labor als „Teilchen“ erscheinen). Zu jeder Art von Kraft gehört demnach eine andere Art von „Kraftteilchen“. Mitunter sagt man auch, das Quant „trage“ die zugehörige Kraft. Es kann in Wechselbeziehung mit Materie treten, wobei es zu einem Austausch von Energie und Impuls kommt. Aus der Summe vieler kleiner Quanten-Kraftstöße ergeben sich die kontinuierlich wirkenden Kräfte der klassischen Physik.

Da die Grundkräfte der Natur sehr ähnliche Formen besitzen, drängte sich der Versuch ihrer Vereinheitlichung geradezu auf. Elektromagnetismus, starke und schwache Kernkraft werden inzwischen erfolgreich durch eine vereinheitlichte Quantenfeldtheorie beschrieben. Außen vor bleibt allerdings immer noch die Schwerkraft (Gravitation). Die Versuche, sie durch eine Quantenfeldtheorie auszudrücken, sind bisher gescheitert. Zur Zeit kann die Gravitation daher nur durch die Allgemeine Relativitätstheorie beschrieben werden.

Das Ende der Teilchen-Interpretation

„Teilchen“ sind Anregungen eines Quantenfelds, keine Dinge – und sie lassen sich auf keine spezielle Lokalität festnageln. Aber nicht nur der Ort des „Teilchens“, sondern sogar die Frage, ob es überhaupt einen Ort einnimmt, ist unklar. Ein Beobachter, der versucht, den Ort eines „Teilchens“ zu messen, wird es mit kleiner, aber von null verschiedener Wahrscheinlichkeit in den entlegensten Winkeln des Universums entdecken. Es hat also offenbar keinen Sinn, lokalisierte, kugelähnliche Teilchen als Grundelemente der Wirklichkeit anzunehmen. Darum ist es eigentlich auch irreführend, von Teilchenphysik zu sprechen und den Begriff „Teilchen“ zu verwenden. Man kann zur Not von Quantenteilchen sprechen, obwohl diese praktisch nichts mit den klassischen Partikeln gemein haben.

Ein extremes Beispiel für die Haltlosigkeit der Teilcheninterpretation ist das Vakuum, definitionsgemäß ein Zustand mit null Teilchen. In der Quantenfeldtheorie aber gibt es keinen im Wortsinn leeren Raum. Selbst wenn man alle Atome entfernen, durch geeignete Abschirmung alle Strahlung fernhalten und ihn auf den absoluten Nullpunkt der Temperatur herunterkühlen würde, bliebe immer noch ein Rest „Wärmestrahlung“ übrig. Denn auch das Vakuum ist von Quantenfeldern durchzogen, die höchst dynamisch sind.

Ständig laufen Prozesse ab, in denen (in unserer Wahrnehmung) Teilchenpaare erscheinen und gleich darauf wieder in den Feldern verschwinden (Fluktuationen). Am bedeutendsten sind dabei – wegen ihrer geringen Masse – Elektron-Positron-Paare, die insgesamt keine elektrische Ladung haben. Im Gegensatz zu „realen Teilchen“ können sich diese Teilchen allerdings nicht frei bewegen, wodurch es unmöglich ist, sie direkt zu detektieren. Physiker bezeichnen sie deshalb als „virtuell„. Man kann sie als kurzzeitige Äußerung (Schwankung) der Felder veranschaulichen.

Ein von Partikeln erfülltes Vakuum mutet absurd an – aber nur, weil uns der klassische Teilchenbegriff in die Irre führt. Sind die Felder besonders stark, können sogar „reale Teilchen“ mit der entsprechenden Masse m entstehen. Anschaulich wird das Vakuum dabei so stark polarisiert, dass die Teilchen-Antiteilchen-Paare auseinanderreißen und zu realen Partikeln werden, weil sie sich nicht mehr gegenseitig vernichten können.

Nach der modernen Physik sind „Teilchen“ und deren Eigenschaften wie Masse, Spin oder Ladung also Manifestationen von Quantenfeldern. Ein Elektron ist demnach nicht nur ein Elektron, sondern eine Summe aus diesem und anderen Partikeln, die durch die Fluktuationen im Quantenfeld entstehen. Deren Beträge gehen in die quantenmechanischen Berechnungen ein und beeinflussen häufig maßgeblich das Ergebnis. Viele Prozesse können sogar nur dann stattfinden, wenn virtuelle Teilchen beteiligt sind, während die Wahrscheinlichkeit für solche Vorgänge sonst null wäre.

Mathematische Beschreibung

Quantenfeldtheorien beschreiben alle Elementarteilchen und Wechselwirkungen mit Hilfe der Mathematik. Allerdings gehören sie auch zu deren schwierigsten Objekten.

Schon die Quantenmechanik, auf der die Quantenfeldtheorie aufbaut, liefert nicht eindeutige Werte, sondern Wahrscheinlichkeiten. Während die Temperatur ihren tatsächlichen Wert wiedergibt (unabhängig davon, ob man sie misst), haben Elektronen bis zu ihrer Beobachtung keine eindeutige Position im Raum. Davor lässt sich ihr Aufenthaltsort nur probabilistisch beschreiben: Dabei ordnet man jedem Punkt Werte zu, die die Wahrscheinlichkeit wiedergeben, ein Teilchen an diesem Ort zu finden. Vor der Messung existiert ein „Teilchen“ überall und nirgendwo. Sogar ein theoretischer Physiker vermag es sich kaum anschaulich vorzustellen.

Doch in der Quantenfeldtheorie geht es noch seltsamer zu: Die vermeintlich fundamentalen Quantenfelder legen nicht einmal Wahrscheinlichkeiten fest; das tun sie erst, wenn sie mit dem sog. Zustandsvektor kombiniert werden. Dieser ist holistisch (ganzheitlich), d. h. er bezieht sich nicht auf einen bestimmten Ort, sondern beschreibt das gesamte System. Damit untergräbt er das, was Felder eigentlich ausmacht, nämlich dass und wie sie sich über die Raumzeit verteilen. Ein klassisches Feld veranschaulicht beispielsweise, wie sich Lichtwellen durch den Raum ausbreiten; das Quantenfeld beraubt uns dieses Bilds und sagt nichts darüber aus, wie die Welt funktioniert.

Trotz intensiver Bemühungen gibt es bis heute keine mathematisch streng begründete Quantenfeldtheorie. Ihr Unvollständigkeit äußert sich im Auftreten unendlich großer Terme in den mathematischen Ausdrücken. Darin spiegelt sich die Tatsache wider, dass „Teilchen“ mehrere Zustände gleichzeitig einnehmen können. Auch wenn die Unendlichkeiten nachvollziehbar sind, erschweren sie doch eine theoretische Formulierung.

Wenn man ein Quantenfeld an einem bestimmten Punkt auswertet, erhält man eine Matrix, also eine Tabelle, die mit Zahlen gefüllt ist. Meist handelt es sich sogar um einen Operator, eine Matrix mit unendlich vielen Zeilen und Spalten. Im Formalismus einer Quantenfeldtheorie müssen ja außer den real vorhandenen auch die unendlich vielen virtuellen Teilchen, die gleichsam spontan aus dem Nichts entstehen, wechselwirken und wieder vergehen, mit einbezogen werden.

Die Probleme werden noch schwieriger zu lösen, sobald die Quantenfelder (z. B. „Teilchen“) miteinander wechselwirken. In der klassischen Mechanik ist die Berechnung von Zusammenstößen von Partikeln einfach: Um beispielsweise die Kollision zweier Billardkugeln zu simulieren, benötigt man bloß die jeweiligen Impulse und fügt sie in eine simple Formel ein. Wenn hingegen zwei Quantenfelder miteinander wechselwirken, erfordert das subtilere Methoden. Man multipliziert den unendlich-dimensionalen Operator des einen Felds mit dem unendlich-dimensionalen Operator des anderen und wertet das Produkt an jedem Punkt in der Raumzeit aus, an dem sie sich treffen. Es entstehen zahlreiche Terme, die unendliche Werte annehmen.

Ein Term, der zu Schwierigkeiten führt, beschreibt z. B. die sog. Vakuumpolarisation: Ein freies Photon kann spontan in ein Elektron-Positron-Paar zerfallen, das sich gleich wieder zu einem Lichtteilchen zusammenfügt. Während ihres kurzen Daseins können das „Teilchen“ und das „Antiteilchen“ allerdings jede beliebige Energie annehmen – sie sind nicht durch die Eigenschaften des ursprünglichen Photons begrenzt. Grund dafür ist die heisenbergsche Unschärferelation, wonach sich Energie und Zeit niemals genau auflösen lassen. Die Natur kann sich kurzzeitig Energie „borgen“, je kürzer der Zeitraum, desto höher der verfügbare Betrag. Bei der Berechnung muss man alle Beträge berücksichtigen, indem man sie gewichtet addiert. In diesem Fall konvergiert die Summe nicht gegen einen festen Wert, sondern wird unendlich.

Lösungsansätze

Die Forscher feilen unermüdlich an Methoden, um die komplizierten Gleichungen zu lösen – oder sich ihnen zumindest verlässlich zu nähern. Die bisherigen Ansätze der Quantenfeldtheorie erweisen sich als so komplex, dass sie sich nicht ohne Vereinfachungen, die in der Realität nicht immer gegeben sind, beschreiben lassen. Inzwischen wurden verschiedene Möglichkeiten entwickelt, um zumindest einigen der komplizierten Gleichungen ein paar Geheimnisse zu entlocken.

Ein Ausweg, um mit den problematischen Termen umzugehen, war die Entwicklung der Renormierung. Der Grundgedanke ist dabei, dass z. B. die Masse oder die Ladung, die man in einem Versuch beobachtet, ebenfalls durch Prozesse auf quantenphysikalischer Ebene beeinflusst werden. Daher können die Werte, die in den Gleichungen auftauchen, in Wirklichkeit auch nicht den experimentellen Messwerten entsprechen. Dank der Normierung konnten die Physiker die lästigen Unendlichkeiten loswerden und hatten zudem auch eine Erklärung dafür, warum sie überhaupt auftreten. Allerdings kann man auf diese Weise auch nicht die Masse oder Ladung eines Teilchens oder andere Details eines Systems berechnen.

Ein weiterer beliebter Ansatz, um die störenden Unendlichkeiten der Quantenfeldtheorie zu umgehen, ist die sog. Gittereichtheorie. Das Modell beschreibt Materieteilchen wie Quarks und Elektronen, die auf den Gitterpunkten eines vierdimensionalen Gitters liegen, und kräftevermittelnde Partikel wie Photonen oder Gluonen, die sich entlang der Seiten bewegen. Ihre Größen werden kontrolliert angenähert, so dass sichergestellt ist, dass sie sich nicht unendlich nahe kommen können. Damit fallen die Unendlichkeiten weg, die sonst bei der Berechnung wechselwirkender Felder entstehen. Die Näherungen sind gut genug, um sie mit experimentellen Messungen zu vergleichen, die ebenfalls nur eine begrenzte Genauigkeit aufweisen. Die Fachleute sind davon überzeugt, dass sich das verdichtende Gewebe auf die idealisierte Vorstellung einer Quantenfelds zubewegt.

Aber auch diese Methode hat Nachteile. Beispielsweise sind die zugrunde liegenden Gleichungen zwar mathematisch wohldefiniert, doch konnte man bisher nicht beweisen, dass der Grenzfall eines sich immer stärker verdichtenden Gitters wirklich die kontinuierliche Theorie wiedergibt. Außerdem braucht man sehr leistungsstarke Computer, um eine zuverlässige Auswertung möglich zu machen.

Die physikalische Realität ist, wie sie ist, und verhält sich, wie sie will – und die Forscher lernen nur mühsam, die mathematischen Werkzeuge an ihr ungebärdiges Verhalten anzupassen. Obwohl Quantenfelder schon seit einigen Jahrzehnten die Grundlage der Physik bilden, sind die Wissenschaftler noch weit davon entfernt, sie vollständig zu verstehen. Mit jeder Vervollkommnung der mathematischen und technischen Werkzeuge aber lernt man neue Aspekte der Wirklichkeit kennen.

Realität

Eine so erfolgreiche Theorie wie die Quantenfeldtheorie löst große grundlegende Kontroversen über die Realität hinter den Messungen aus. Sie beschreibt zwar das Verhalten von Quarks, Myonen, Photonen und diversen Quantenfeldern, aber sie sagt nichts darüber aus, was ein Photon oder ein Quantenfeld wirklich ist. Deren Eigenschaften weichen ja erheblich von dem ab, was man sich im täglichen Leben unter Teilchen und Feldern gewöhnlich so vorzustellen pflegte. Daher sind diese beiden Begriffe wegen ihrer Anschaulichkeit noch immer in Gebrauch, obwohl die meisten Physiker einräumen würden, dass ihre klassische Bedeutung und damit auch unsere Vorstellung davon, nicht zu den Aussagen der Theorie passt.

Das muss sie aber auch gar nicht, denn physikalische Theorien können empirisch gültig sein, ohne metaphysische, also jenseits der Physik liegende, Fragen zu klären. Viele Wissenschaftler lehnen es daher ab, dass die physikalische Theorien die Welt widerspiegeln sollen. Für sie sind Theorien bloß Instrumente, mit denen sich experimentelle Vorhersagen machen lassen – und in vielen Fällen passen die berechneten Ergebnisse hervorragend zu den experimentellen Messungen. Dennoch sind die meisten Physiker davon überzeugt, dass ihre Theorien zumindest einige Aspekte der Natur abbilden, bevor Experimentatoren eine Messung durchführen.

Die Physik allein gelangt nicht zu schlüssigen Aussagten über die fundamentalen Fragen wie die Definition von Objekten, die Rolle der Individualität, den Status von Eigenschaften sowie die Bedeutung von Raum und Zeit. Dazu muss die Philosophie ins Boot geholt werden, die den Rahmen und die Begriffe für die Grundstrukturen der materiellen Welt liefern muss.

Einige Philosophen haben schon grundsätzlich andere Lösungen vorgeschlagen. Statt die Welt in Objekte und Eigenschaften aufzuteilen, sollte man die Eigenschaften als die einzige Grundkategorie ansehen (Tropenontologie). Auf die Quantenfeldtheorie angewandt hieße das: Was wir ein Elektron nennen, ist eigentlich ein Bündel aus verschiedenen Tropen: drei festen Wesenseigenschaften (Masse, Ladung, Spin) sowie zahlreichen wandelbaren, nichtwesentlichen Eigenschaften, die sich auf Wahrscheinlichkeiten für Ort und Geschwindigkeit beziehen. Das Vakuum enthielte dementsprechend, wie es sich gehört, keine Teilchen, wohl aber Eigenschaften. Ein „Teilchen“ wäre dann das, was man bekommt, wenn diese Eigenschaften sich auf eine besondere Art bündeln.

Andere Wissenschaftlern schlagen vor, dass statt Materie Strukturen der eigentliche Stoff sind, aus dem die Welt besteht. Es käme nicht auf das innere Wesen der Dinge an, sondern auf die Beziehungen der Dinge untereinander. Beim Phänomen Masse beispielsweise sieht man niemals die Masse selbst, sondern nur, wie ein massetragender Körper mit einem anderen durch das Schwerefeld wechselwirkt. Dieser sog. Strukturenrealismus betrachtet die Natur als eine letztlich nur mathematisch fassbare Struktur – die durch komplexe Relationen definiert ist – eine revolutionäre Idee.

Dem epimistischen Strukturenrealismus (von gr.: episteme = Wissen) zufolge werden wir niemals das wirkliche Wesen der Dinge erkennen, können aber wissen, wie sie miteinander in Beziehung stehen. Nach dem ontologischen (ontischen) Realismus (von to on = das Seiende) gibt es tatsächlich nichts anderes als Relationen. Diese Idee wird von den vielfältigen Symmetrien der modernen Physik unterstützt, denn sowohl in der einsteinschen Gravitationstheorie als auch in der Quantenmechanik haben bestimmte Veränderungen – sog. Symmetrietransformationen – keine empirischen Konsequenzen. D. h., diese Transformationen vertauschen die einzelnen Dinge, aus denen die Welt besteht, ohne ihre Beziehungen zu verändern.

Viele Physiker und Philosophen halten es aber tatsächlich für unmöglich, dass feste Objekte nur auf der Basis von Relationen entstehen. Darum versuchen einige Verfechter des ontischen Strukturenrealismus einen Kompromiss zu finden: Sie verneinen nicht, dass es Objekte gibt, sondern behaupten nur, Relationen und Strukturen seien primär. Mit anderen Worten: Objekte besitzen keine Wesenseigenschaften, sondern gewinnen ihre Eigenart erst durch ihr Verhältnis zu anderen Objekten.

REM