DENKEN

Wohl jeder glaubt zu wissen, was Denken ist. Doch selbst wenn Fachleute wie Philosophen, Psychologen und Hirnforscher es genauer definieren sollen, haben sie große Schwierigkeiten. Etwa 2000 Jahre lang beruhte die allgemeine Vorstellung davon, was Denken ist, auf der sauberen Definition von Begriffen und deren schlussfolgernder Kombination nach den Regeln der Logik. Als Urbild und Ideal aller Denkvorgänge galt der Syllogismus des Aristoteles, eine Vorschrift zur Erzeugung richtiger Schlussfolgerungen, z. B.: „Alle Menschen sind sterblich. Sokrates ist ein Mensch. Also ist Sokrates sterblich.“

Der Begriff „Denken“ wird heute uneinheitlich angewendet. In kürzester Form wird heute oft definiert: Denken ist inneres, nicht automatisiertes Problemlösen – auch „verinnerlichtes Handeln“ oder „Hantieren im Vorstellungsraum“ genannt. Es geht dem tatsächlichen Handeln voraus und ersetzt viele konkrete Versuche. Dazu ist es erforderlich, Ursachen und Wirkungswahrscheinlichkeiten, also Kausalzusammenhängen zwischen verschiedenen Dingen und Ereignissen erfassen zu können. Psychologen bevorzugen heute statt „Denken“ oft den weiteren Begriff „Kognition“ (von lateinisch „cognitio“ = Erkenntnis), der ein ganzes Spektrum zerebraler Prozesse umfasst: neben Denken im Sinne von Nachdenken auch Wahrnehmen, Schlussfolgern, Erinnern, Problemlösen und Entscheiden.

Netzwerke

Denken gründet jedenfalls auf neuronalen Prozessen im Gehirn. Räumlich organisierte Nervenzellen (Neurone) kommunizieren dabei mittels verschiedener elektrochemischer Signale über ein Vielzahl von Synapsen miteinander. Aus den strukturellen Verflechtungen der Neurone entstehen funktionale, flexible Netzwerke. Erst diese hochkomplexen Netzwerke (das Zusammenspiel vieler Neurone) ermöglichen also kognitive Leistungen wie das Denken.

Wie im Gehirn die Fluten elektrochemischer Impulse, die über die Nervenzellen strömen, in Gedanken übersetzt werden, wird von Neurophysiologen salopp als neuronaler Code, als Sprache des Gehirns, bezeichnet. Ihn zu entschlüsseln ist für die Hirnforschung immer noch aufgrund der unvorstellbar komplexen Organisation des Gehirns und seiner verwirrend komplizierten Funktionsweise eine große Herausforderung. Vielleicht 80 bis 100 Nervenzellen bilden durch exakte Synchronisation ihrer Entladungen eine Ad-hoc-Funktionseinheit, d. h. sie sind (im Bereich weniger tausendstel Sekunden) gleichgeschaltet. Es wird eine Denkleistung erbracht.

Danach kann dieses Ensemble von Nervenzellen wieder auseinander fallen. Die Zellen stehen somit wieder für andere Aufgaben zur Verfügung und können sich anders verschalten. Ein denkendes, also arbeitendes Gehirn verändert ständig die Struktur seiner Netzwerke, reorganisiert und erweitert sie unablässig. Schnelle Veränderungen der Übertragungsstärke an den Synapsen sind entscheidend dafür, dass wir die in den Signalmustern repräsentierten Konzepte miteinander kombinieren können. Aus den ungezählten und immer neuen mentalen Inhalten kristallisieren sich die Gedanken heraus.

Wenn unser Gehirn über etwas „nachdenkt“, sind viele Großhirnregionen aktiv. Es laufen viele parallele und gleichzeitige Prozesse ab. Daten werden erfasst, mit Erfahrungen und Gefühlen verknüpft und die Situation bewertet. Dabei bestimmt nicht nur die Quantität der Synapsen, sondern vor allem ihre Qualität im Netzwerk die kognitiven Kapazitäten. Die Feinabstimmung der Neuronennetze ermöglicht es erst, Signale adäquat zu verarbeiten. Ihre Konfigurationen sind auf maximale Effizienz zugeschnitten: schnellstmögliche Informationsverarbeitung bei minimalem Aufwand.

Manche Gehirn arbeiten effizienter als andere, sie haben schnellere und zum Teil auch komplexere Verbindungen – ihre Besitzer sind kognitiv besonders leistungsfähig. Tatsächlich haben intelligente Menschen eine fokussiertere Hirnaktivität als weniger intelligente, wenn sie eine schwierige Aufgabe lösen müssen. Zudem verbraucht ihr Denkorgan weniger Energie. Der Unterschied zwischen Genie und „Normalo“ liegt also in der neuronalen Verknüpfung, nicht in der Größe einzelner Hirnteile.

Die kurzfristige Modulation von neuronalen Kontakten im präfrontalen Kortex, dem vorderen Teil des Stirnhirns, ist die Grundlage des Denkens. Das Areal steht mit anderen Teilen des Gehirns, auch tiefer sitzenden Strukturen, in Verbindung und mischt auch bei vielen anderen kognitiven Prozessen mit. Die meisten Nervenbahnen bilden Rückkopplungsschleifen. Die Schleifen innerhalb der neuronalen Netzwerke, in denen die Aktivität zirkulieren kann, sind notwendig, um die neuronalen Aktivitätsmuster – etwa für die Dauer eines Gedankens (oder einer Handlung) – für längere Zeit aufrechtzuerhalten. So können mentale Vorgänge im Gehirn als „autonome zentrale Prozesse“ unabhängig von äußeren Reizen ablaufen: die Grundlage von Kognition.

Informationsverarbeitung

In der Regel ist Denken – also das Sich-Befassen mit inneren Bildern – ein bewusster geistiger Vorgang, der sich auf äußere, seltener auch auf innere Gegenstände, insbesondere auf zukünftige eigene Handlungen bezieht. Wir führen uns diese vor Augen, denken über Alternativen nach und setzen sie in umfassende Handlungsstränge ein. Sogar ohne äußeren Anlass können wir uns vollkommen neue Szenarien vorzustellen, um aus solchen mentalen Übungen rationale Schlüsse zu ziehen.

Im Alltag, beim alltäglichen Nachdenken und Schlussfolgern, scheinen wir aber explizit und bewusst logische Prinzipien kaum anzuwenden. Korrektes logisches Schlussfolgern geschieht oft so schnell und unbewusst, dass wir es selbst gar nicht bemerken, z. B. das Benutzen grammatikalischer Regeln. Kognitive Vorgänge sind also nicht unbedingt Resultate eines autonomen, rationalen Bewusstseins. Der Psychologe Daniel Kahnemann unterscheidet zwei Arten des Denkens: das bewusste und anstrengende Überlegen (langsam) und eines, das fortwährend Eindrücke, Gefühle, Intuitionen und Absichten erzeugt (schnell). Letztere arbeitet meist, ohne dass wir und dessen bewusst sind.

Erste Bewertungen einer Situation werden durch unser Vorwissen, unsere früher gesammelten Erfahrungen, und unsere Gefühle bereits erzeugt oder abgerufen, bevor die Information ins Großhirn, wo die kognitive Verarbeitung stattfindet, gelangen. Nach dem Konzept der „Affektlogik“ sind Fühlen und Denken, Emotionen und kognitive Vorgänge, Affekte und Logik, untrennbar miteinander verknüpft. Luc Ciompi spricht von dem Wechselspiel eines qualifizierenden Fühlsystems und eines quantifizierend-abstrakten Denksystems, das sich im Laufe der Evolution bis zum heutigen Menschen enorm verfeinert hat (1993). Durch die Erfahrungen, die im Laufe des Lebens gemacht werden, verbinden sich Fühl- und Denksystem „zu funktionell integrierten affektiv-kognitiven Bezugssystemen“. In ihrer Kombination bilden diese ein hochdifferenziertes Gesamtsystem zur Bewältigung der Alltagswirklichkeit.

In den allermeisten Lebenssituationen wissen wir viel zu wenig, um uns wirklich zuverlässig und logisch konsistent entscheiden zu können. Bei dürftiger Informationslage oder in komplexen Situationen versuchen wir daher zunächst, ein Problem oder eine Aufgabe mit minimalem Aufwand zu lösen, d. h. mit gewohnten Denk- und Verhaltensmustern („Anker-Effekt„). Automatismen erleichtern das Alltagsleben. Und wir kombinieren Eindrücke, die zusammenzupassen scheinen, zu einem einigermaßen plausibel wirkenden Bild, wobei wir dazu neigen, Wissenslücken durch Inhalte und Gedanken zu ergänzen, die uns gerade durch den Kopf gehen.

Dabei zeichnet sich unser Denken eher darin aus, logische Regeln öfter mal zu ignorieren. Der Sinn dieser Tendenz, zunächst nach anschaulicher Plausibilität und Stimmigkeit und erst in zweiter Linie – wenn überhaupt – nach strenger logischer Konsistenz zu suchen, scheint auf den ersten Blick schwer verständlich. Jedoch scheint es durchaus vorstellbar, dass die intuitive, anschauliche Strategie die i. A. praktisch bestmögliche für uns ist, wenn wir uns sehr schnell aus wenigen Informationen ein Bild machen oder uns rasch entscheiden bzw. urteilen müssen.

Dass solche kognitiven Verzerrungen oft unser Denken prägen, werden wir häufig nicht gewahr. Ja, wir glauben Zusammenhänge und Übereinstimmungen zu erkennen, wo in Wirklichkeit gar keine existieren, einfach nur, weil wir sie erkennen „möchten„. Es könnte sein, dass wir umso primitivere Theorien bevorzugen, je hilfloser und bedrohter wir uns in einer objektiv unverstandenen Situation fühlen. Der Psychologe Dietrich Dörner bringt denn auch die beobachtete Tendenz zu einfachen („billigen“) Erklärungen mit Argumentationsmustern totalitären Denkens in Zusammenhang, die die Welt mit Hilfe von simplen, einprägsamen Vorstellungen erklären wollen.

Ein auf diese Weise erst einmal zusammengedrechseltes Gedankengebäude kann stabiler sein als echtes Wissen. Vor allem bei sich rasch wandelnden Situationen, mit denen wir häufig konfrontiert werden, ist unsere Fähigkeit zu einer Veränderung unserer Denkmuster überfordert. Wir neigen eher dazu, hartnäckig an alten Mustern festzuhalten und sogar neue Informationen zu verdrehen, um sie in diese Schemata einzupassen, als dass wir bereit wären, unsere Denkweise zu ändern. Offensichtlich fällt es uns schwer, einmal geglaubte und „verstandene“ Erklärungen grundsätzlich in Frage zu stellen und so der damit verbundenen geistigen Unsicherheit auszusetzen.

Allerdings sind wir dem natürlich nicht vollkommen hilflos ausgeliefert: Schon das Wissen, dass unsere schnellen Überzeugungen und langsamen Vorurteile, dass Konformitätsdruck, Fixierungen, die sog. Ankereffekte und andere Phänomene Urteilsqualität und Fantasie beeinträchtigen, kann uns helfen, das Denkhindernis im Bedarfsfall zu erkennen. Trotzdem bleibt ein unheimliches Gefühl, dass unser Denken immer vorläufig und höchst irrtumsanfällig ist.

Intuition

Die inneren Modelle („Karten„) helfen uns grundsätzlich, die Umwelt und das Geschehen um uns herum zu verstehen und richtig einzuordnen. Sie werden gefestigt, indem das Gehirn in Ruhezeiten die neuen Informationen immer wieder im Schnelldurchlauf durchspielt. Unser Denkorgan benötigt diesen Ruhezustand (Default-Modus), um auf künftige Aktionen vorbereitet zu sein und auf äußere Ereignisse (z. b. einem Perspektivwechsel) abgestimmt und prompt reagieren zu können.

Das Default-Netzwerk wird also dann aktiv, wenn wir die Augen schließen, abschalten und uns entspannen, die Gedanken schweifen lassen oder über uns selbst nachdenken, wenn also nichts unsere Aufmerksamkeit fordert. Es wurde auch bei Tagträumerei, im Schlaf (in frühen Schlafphasen), nach der Gabe von Beruhigungsmitteln und bei komatösen Patienten nachgewiesen. Das Netzwerk gleicht dem „Offline“-Modus eines intelligenten Computers, dem man die Internetverbindung gekappt hat und der in der Zwischenzeit die Daten auf seiner Festplatte sichtet und sortiert. Beschäftigen wir uns mit unserer Umgebung, verstummt das Netzwerk.

Bei kreativen Menschen sind andere Schaltkreise des Default-Mode-Netzwerks beteiligt. Kreatives Denken geht über das Gewohnte hinaus und stellt bekannte Lösungen in Frage. Es kann intuitiv-vorbewusst, aber auch bewusst-rational geschehen (wenn ein konkreter Zweck vorliegt, etwa beim Problemlösen), wobei unsere Fähigkeit hierzu notorisch beschränkt ist. Die Dynamik zwischen Kreativität und Kontrolle ist ein wichtiger Bestandteil unseres Denkens.

Schöpferische Ideen entstehen aber meist nicht im Zustand der engen Fokussierung, sondern dann, wenn man entspannt, analog und bildhaft denkt – am ehesten in Zuständen der Verträumtheit, der Meditation oder beim Übergang vom Schlaf zur Wachheit und umgekehrt. Das Gehirn muss den Weg freimachen und Gedanken und Erinnerungen erst einmal unkontrolliert in viele Richtungen schweifen lassen (weitfokussiertes Denken). Je niedriger der Fokus ist, desto assoziativer und scheinbar konfuser wird der Gedankengang. Logische Regeln, Kontext und Vorwissen werden ignoriert, es wird „um die Ecke gedacht“. Man sagt: Wir denken divergent. Divergentes Denken hat das Ziel, möglichst viele mögliche Lösungen hervorzubringen, auch solche außerhalb der Rationalität. Im Gegensatz dazu zielt konvergentes Denken direkt auf die einzig richtige Lösungsmöglichkeit eines bestimmten Problems ab.

Der Reichtum an Assoziationen wird durch Filterprozesse im Gehirn geregelt, bei denen Nervenüberträgerstoffe wie Dopamin und Serotonin auf mehreren Gehirnebenen eine Rolle spielen. Wie stark, hängt auch von unserer individuellen genetischen Ausstattung ab. Bestimmte Hirnwellen im rechten Schläfenlappen (Alphawellen – zwischen 8 und 13 Hz) unterdrücken dabei gewöhnliche Assoziationen.

Durch übermäßige Assoziationen können Details nicht mehr erfasst werden und eine eventuelle logisch korrekte Antwort überlagern. Wir gelangen zu falschen Schlüssen, obwohl die „richtige“ Antwort im Gehirn verfügbar gewesen wäre. Der Extremzustand sind schließlich Halluzinationen und Träume, bei denen der Mensch den Gedankenbildern völlig ausgeliefert ist. Unter Stress wiederum büßen wir an Ideenreichtum ein. Reizüberflutung wird zum Nachteil, wenn wir auf der Suche nach neuen Ideen sind.

Die meisten Ideen, die uns beim weitfokussierten Denken erscheinen, sind ohne Nutzen und versinken so schnell wie sie aufgetaucht sind. Aber hin und wieder erscheinen in diesen Augenblicken mit der eigenartigen Freiheit des Denkens und der halluzinatorischen Vorstellungstätigkeit durchaus brauchbare, sinnvolle, ja höchst produktive Gedanken. (Im Schlaf werden neu und unbewusst eingegangene Informationen mit schon länger im Gedächtnis gespeichertem Wissen verknüpft, was z. B. zur Lösung eines lange reifenden Problems ganz unvermittelt beitragen kann.)

Dass manchmal ein tiefer Gedanke gewissermaßen fix und fertig in die Vorstellungswelt eindringt, hat viel Ähnlichkeit mit mystischer Erfahrung. Wir haben nicht den Eindruck, die zündende Idee selbst herbeigeführt zu haben, obwohl wir sie durchaus für die eigene Erkenntnis halten. Diese Vorgänge erinnern auch an die Entstehung großer Musik. Johannes Brahms schrieb: „Komponieren ist ein traumartiger Zustand zwischen Schlafen und Wachen. Ich bin bei Bewusstsein, aber hart an der Grenze, das Bewusstsein zu verlieren. In solchen Augenblicken strömen die inspirierenden Ideen in mich ein.“ Es denkt in uns – so könnte man die Erkenntnis zusammenfassen.

Sprache und Denken

Rene Descartes (1596-16509) erhob die menschliche Sprache zum einzigen Kriterium für Denken: „Eine solche Sprache nämlich ist das einzige sichere Indiz dafür, dass hinter der Fassade des Körpers ein Denken verborgen ist, …“ Über das Verhältnis von Sprache und Denken ist vielfach gedacht und diskutiert worden. Formt Sprache das Denken oder Denken die Sprache – oder ist beides unabhängig voneinander? Man kann es sich einfach machen und das Denken definitorisch an die Sprache binden, z. B. Denken als „inneres Sprechen„, wie es auch der antike Philosoph Platon (428-348 v. Chr.) tat: Denken als „inneres Gespräch der Seele mit sich selbst“.

Nach der berühmten Sapir-Whorf-Hypothese, auch linguistisches Relativitätsprinzip genannt, können wir das, wofür wir keine Worte haben, auch nicht denken. Es gibt experimentelle Hinweise, dass auch beim reinen Nachdenken, also beim „stillen Sprechen“, alle Ebenen der Wortproduktion benutzt werden, bis hin zur Silbentrennung und einer leichten Aktivierung der motorischen Zentren. Ein Netzwerk im Gehirn weist auf eine enge Verbindung von Denken und Sprache hin.

Es gibt zwei Einwände gegen die These, Denken sei sprachabhängig: Erstens ist es unbestreitbar, dass wir Sprache auch erwerben müssen. Man kann einen sprachlichen Ausdruck nicht erlernen, wenn man den zugehörigen Gedanken noch gar nicht denken kann. Der zweite generelle Einwand beruht darauf, dass man bei nichtsprachlichen Wesen wie Tieren und Kleinkindern inzwischen ein sehr weites Spektrum an kognitiven Fähigkeiten kennt, die sich nicht grundlegend von denen erwachsener Menschen unterscheiden. Die geistige Vorstellung (Repräsentation) von Situationen und äußeren Gegebenheiten, die Verfügung über Erinnerungen und das Vermögen, zukünftige Situationen vorausahnen zu können – Voraussetzung für elementares Denken – ist unabhängig vom Vorhandensein und vom Gebrauch einer Wortsprache.

Unsere Alltagserfahrung liefert uns genügend Beispiele, die diese Vermutung stützen. So zeigt etwa das gelegentliche Ringen um Worte für einen Gedanken, der klar vor dem geistigen Auge steht, das Denken nicht generell an Sprache oder sprachähnliche Konstruktionen gebunden sein kann. Viele Dinge erfassen wir gedanklich, können sie aber nicht gut versprachlichen, denken wie an geometrische oder räumliche Beziehungen, Geschmack, Duft usw.

In vielen Fällen basiert unser Denken also auf nichtsprachlichen Prozessen. „Inneres Sprechen“ könnte dann lediglich eine Begleiterscheinung des Denkens sein, die für es selbst nicht notwendig ist. Möglicherweise stellt Sprache Strukturen bereit, die vorsprachliches Denken allein nicht hervorbringt. Durch die Interaktion mit anderen erhalten meine Gedanken dann ihren begrifflichen Inhalt. Begriffe können aber auch nichtsprachlich sein, etwa konkrete Begriffe wie Blumen, Bäume oder Werkzeuge. Bei abstrakten Begriffen, etwa bei moralischen, philosophischen oder religiösen, erscheint allerdings die Sapir-Whorf-These eher plausibel. Nach einer zentralen Überzeugung fast alle Logiker ist logisches Denken untrennbar an Sprache gebunden ist. Manche Denkprozesse sind also wohl tatsächlich ohne Sprache undenkbar.

Es kann zumindest kein Zweifel daran bestehen, dass die Existenz eines extrem variablen Kommunikationssystems, wie es die menschliche Sprache darstellt, den Vollzug geistiger Prozesse, etwa im Bereich der Vorstellung und des begrifflichen Denkens, außerordentlich erleichtert. Sprache ist ein enorm wichtiges Instrument, um das Denken zu schärfen und viel effektiver zu machen und ermöglicht uns wesentlich kompliziertere Planungen. Der Philosoph und Physiker Gerhard Vollmer bezeichnet Sprache auch als „Denkzeug„: Wie ein Werkzeug uns hilft, etwas zu bewirken, so hilft uns „Denkzeug“ eben beim Denken. Das können Begriffe und Symbole sein, aber auch Analogien, Bilder oder Perspektivwechsel.

Demnach existieren Denken und Sprache zwar unabhängig voneinander, können sich aber wechselseitig beeinflussen. So prägen Grammatik und Wortschatz bekanntlicherweise unser Denken und unsere Vorstellungen. Beim Denken spielen verschiedene Leistungen zusammen, die eng verbunden sind: Intuition und Wissen, Wissen und Denken, Denken und Sprache. Wir denken mal sprachlich, mal räumlich, mal bildhaft oder musikalisch, wir denken in Formeln und Farben, in Vergleichen und Metaphern, analytisch und intuitiv, wir versetzen uns denkend in andere hinein, blicken in die Zukunft oder stellen uns eine Welt vor, die es nicht gibt. Denken ist kein einheitlicher Prozess.

[Seit einigen Jahren gibt es einen neuen Ansatz: Embodiment oder „verkörpertes Denken“ heißt die Forschungsrichtung, die untersucht, wie kognitive Leistungen durch den Körper und seine Interaktion mit der Umwelt beeinflusst werde. Die Ergebnisse belegen, dass Denken, Wahrnehmen und Motorik (Handeln) miteinander verknüpft sind. Menschliche Gedanken, auch solche über abstrakte Ideen und Konzepte, wurzeln demnach in konkreten körperlichen Erfahrungen.

Körperliche Prozesse prägen unser Denken von klein auf. Wir erlangen Wissen durch Erfahrungen, die wir in Interaktionen mit der Umwelt machen. Zum Beispiel haben wir durch unsere Fähigkeit zu sehen, zu hören und uns zu bewegen, eine räumliche Vorstellung – und diese wirkt sich auf unser Denken aus. So assoziieren wir Glück mit oben und Trauer mit unten. Die Beispiele zeigen also, dass Sinneserfahrungen und Bewegung einen Einfluss auf das Denken haben

Probanden im Hirnscanner aktivieren etwa auch dann Bewegungsareale des motorischen Kortex, wenn sie an Begriffe wie „gehen“ oder „stolpern“ denken. Ausholende Armschwünge fördern in Experimenten kreative Ideen. Oftmals sind unsere Wahrnehmungen und Bewegungen so flüchtig, dass wir ihre Auswirkungen auf unser Denken und Sprechen gar nicht bemerken. Selbst einfache Sinnesreize wie das Gewicht einer Schreibunterlage oder der Eindruck räumlicher Weite beeinflussen kognitive Prozesse.]

REM

Die Voyager-Mission

1972 und 1973 starteten die Raumsonden Pioneer 10 und Pioneer 11 ins All, um die Riesenplaneten Jupiter und Saturn zu erkunden. Zur damaligen Philosophie der NASA gehörte es, solche Unternehmungen gleich im Doppelpack zu planen. So konnte z. B. bei Totalausfall einer Sonde oder auch nur eines der Messinstrumente die Wahrscheinlichkeit erhöht werden, noch die erwünschten Daten zu erhalten. Im Dezember 1973 erreichte Pioneer 10 den Jupiter, etwa ein Jahr später Pioneer 11.

1997 verließ Pioneer 10 mit einer Fluggeschwindigkeit von 54 000 km/h als erstes menschliches Artefakt unser Planetensystem. Die Sonde übermittelte noch Daten über die Zusammensetzung von interstellarem Gas außerhalb der Einflusssphäre der Sonne, bevor der Kontakt am 22. Januar 2003 endgültig abbrach. Die letzten technischen Daten von Pioneer 11 erhielten die Wissenschaftler 1995. Im November 2024 befand sich die Sonde ca. 113, 57 Astronomische Einheiten (AE = Entfernung Erde-Sonne) oder 16,99 Milliarden Kilometer von der Erde entfernt, Pioneer 10 schon 137,28 AE, was 20,54 Milliarden Kilometern entspricht.

Keine der beiden Pioneer-Sonden wird in Zukunft einem Stern näher als 0,6 Lichtjahre kommen. Der engste Vorbeiflug wird Pioneer 11 wohl in 920 000 Jahren an einem Zwergstern namens TYC 992-192-1 gelingen. In vier Millionen Jahren wird die Sonde in der Nähe des Sterns Lambda Aquilae vorbeiziehen. Pioneer 10 wird in zwei Millionen Jahren Aldebaran im Sternbild Stier erreichen. Möglicherweise werden die zwei Raumsonden sogar noch Jahrmilliarden im Weltall weiter umherirren. Beide haben eine 15×22,5 cm große, mit Gold anodisierte Aluminiumplatte dabei, die eine kosmische Grußbotschaft der Erdenbewohner für außerirdische Zivilisationen enthält. Sie zeigt einen Mann und eine Frau, unser Sonnensystem und weitere Symbole.

2006 wurde eine Raumsonde namens New Horizon hinterher geschickt. Sie sollte die „Pioneer-Anomalie“ klären, unerklärliche Bahnabweichungen von Pioneer 10 und 11. Ihre Energieversorgung wird wohl bis 2035 oder länger reichen, so dass die Sonde noch in einer Entfernung von 90 AE funktionsfähig wäre. Dies könnte genügen, um den Terminationsschock (s. u.) zu erreichen, bei dem der Einflussbereich des Sonnenwindes endet.

Der Start von Voyager

Einmal alle 176 Jahre stehen die Planeten gerade so günstig, dass eine Raumsonde durch Swing-by-Manöver in Rekordzeit von einem Planeten des Sonnensystems zum nächsten befördert werden kann. Bei einem Swing-by-Manöver dringt eine Sonde gezielt in das Gravitationsfeld eines Planeten ein, um dadurch Schwung zu holen (oder abzubremsen) und die Flugrichtung zu verändern. Dabei kann Treibstoff eingespart werden. Zufällig stand diese vielversprechende Anordnung 1977 kurz bevor. Die US-Weltraumbehörde nutzte die Planeten-Konstellation, um die identischen Raumsonden Voyager 1 und Voyager 2 mit einer TitanIIIE-Centaur-Rakete ins All zu befördern. Sie sollten die äußeren Gasplaneten Jupiter, Saturn, Uranus und Neptun erkunden und möglichst viele Daten über sie zur Erde senden.

Die Raumsonde Voyager 1 wurde im Sommer 1977 (5. September) kurz nach ihrer Schwestersonde Voyager 2 (20. August) gestartet. An Bord jeder Sonde befindet sich in einem Aluminiumbehälter eine Audio- und Bildplatte: die Voyager Golden Record. Die vergoldeten Datenträger dürften unter Weltraumbedingungen schätzungsweise bis zu einer Milliarde Jahren durchhalten. Sie enthalten verschlüsselt einen guten Teil unseres wissenschaftlichen Wissens und Bilder und Töne, die einen Eindruck von der Welt vermitteln sollen, aus der sie stammen. So ist neben dem Zirpen von Grillen, Walgesängen und dem Geräusch fallenden Regens klassische und traditionelle Musik sowie Rock’n Roll darauf. Daneben enthalten die Platten gesprochene Grußbotschaften in 55 Sprachen sowie Ansprachen des damaligen UNO-Generalsekretärs Kurt Waldheim und des damaligen US-Präsidenten Jimmy Carter.

Carter: „Wir senden diese Botschaft in den Kosmos. Wir wünschen uns eines Tages, nachdem wir unsere Probleme gelöst haben, einer Gemeinschaft galaktischer Zivilisationen beizutreten. Diese Schallplatte steht für unsere Hoffnung, unsere Entschlossenheit und unseren guten Willen inmitten eines unermesslichen, Ehrfurcht gebietenden Universums.“

Die „Späher“ flogen auf unterschiedlichen Bahnen: Voyager 1 flog zudem mit 60 800 km/h schneller als Voyager 2 (56 000 km/h). So wurde Letzterer schon nach vier Monaten von Voyager 1 überholt. 1979 erreichten beide Sonden in einem Abstand von fünf Monaten den Jupiter und sammelten Daten über den größten Planeten unseres Sonnensystems. Sie nutzten den Vorbeiflug, um in seinem Gravitationsfeld weiter zu beschleunigen und sausten nach dem Swing-by Ende 1980 bzw. 1981 an Saturn vorbei. Von da an trennten sich ihre Wege. Für Voyager 1 wäre nach der Begegnung mit dem Ringplaneten zwar noch ein Vorbeiflug an Pluto möglich gewesen, aber stattdessen entschieden sich die Wissenschaftler, den größten Mond Saturns, Titan, anzusteuern und zu erkunden. Danach verließ die Sonde in einem Winkel von 35° die Ekliptik (der Bahnebene des Planetensystems) und strebte dem Rand der Heliosphäre – der vom Sonnenwind verursachten Blase um unser Sonnensystem – zu.

Mit Voyager 2 wollten die Planer die seltene Planetenkonstellation besonders effizient ausnutzen und nach Jupiter und Saturn auch die weiter entfernten Gasplaneten Uranus und Neptun besuchen, um Weiteres über sie zu erfahren. Die Sonde gewann bei ihren Swing-by-Manövern Geschwindigkeiten relativ zur Sonne von rund 10 km/s an Jupiter, 4 km/s an Saturn und 2 km/s an Uranus. Am Neptun (den Voyager 2 nach über 12 Jahren erreichte) wurde es allerdings nötig, um 3 km/s abzubremsen, um noch den Mond Triton besuchen zu können. Danach war ihre Aufgabe erfüllt. Unter dem Strich blieben noch etwa 15 km/s Geschwindigkeit übrig – mehr als genug, um die dortige Fluchtgeschwindigkeit des Sonnensystems von etwa 7 km/s zu überwinden.

An der Grenze des Sonnensystems

Beide Sonden hatten 1989 Pioneer 10 überholt und 1999 bereits mehr als 60 Milliarden Kilometer zurückgelegt. Voyager 1 erreichte am 16. Dezember 2004 in der 122-fachen Distanz Erde-Sonne (AE) den Terminationsschock, wo der Sonnenwind auf das interstellare Medium trifft. Hier wird der Sonnenwind aufgrund der mitgeführten Magnetfelder abrupt abgebremst und erhitzt (daher der Name!). Die folgenden acht Jahre reiste Voyager 1 durch einen etwa 30 AE breiten Zwischenbereich, in dem interstellare und solare Felder und Teilchen miteinander wechselwirken.

Voyager 2 kreuzte den Terminationsschock 2007 bei etwa 84 AE an einer der Flanken der Heliosphäre, die an dieser Stelle eine wellenförmige Oberfläche oder eine vergleichbare Art von Substruktur hat. 2012 verließ Voyager 1 endgültig den Einflussbereich des Sonnenwinds, 2018 auch Voyager 2 (rund 18 Milliarden Kilometer oder 119 AE von uns entfernt). Die Durchstoßpunkte der beiden Sonden waren 160 AE voneinander entfernt. Als Indizien für das Verlassen der Heliosphäre stellte man den Anstieg der Kosmischen Strahlung, den Abfall des Sonnenwinds und ein kälteres und dichteres Plasma fest. Die Passage geschah bei Voyager 2 in nicht einmal einem Tag (entspricht einer Flugstrecke von 700 000 Kilometern).

Die Heliopause, die äußere Grenze der Heliosphäre, sollte an der Bugwelle in Bewegungsrichtung anders aussehen (weniger porös) als seitlich oder hinten. Als Voyager 1 die Heliopause (am Bug) durchquerte, stieg die erwartete sprunghafte Veränderung in der Plasmadichte um das 80-fache. Die Übergangsregion erwies sich als turbulent , aber es gab keine Anzeichen für eine veränderte Ausrichtung des umgebenden Magnetfelds. (Womöglich koppeln sich einige magnetische Feldlinien an solche aus der galaktischen Umgebung, wodurch sich beide angleichen). Das Magnetfeld der Sonne löst sich weiter draußen nach und nach auf.

Bei Voyager 2 war der Plasmastrom eher dünn (die Dichte stieg nur um 20%) und stabil. Dafür wies ihr magnetischer Sensor eine Magnetfeldbarriere nach, die zusätzlich gegen kosmische Strahlung abschirmt. Außerdem registrierten die Messinstrumente der Sonde eine Region zwischen der Heliopause und dem interstellaren Raum, in dem einige Teilchen der Heliosphäre in das interstellare Medium gelangen können. Hingegen war Voyager 1 vor der Grenze auf sonderbare Magnetfeldröhren gestoßen, die kosmische Strahlung ins Sonnensystem eindringen lassen. Möglicherweise haben diese Unterschiede mit der Aktivität der Sonne zu tun.

Ende 2016 befand sich Voyager 1 in einer Distanz von fast 140 AE von uns und entfernt sich immer weiter mit einer Geschwindigkeit von 3,6 AE pro Jahr. Die weite Reise hat den Instrumenten an Bord im Laufe der Jahrzehnte arg zugesetzt: Es zeigten sich erste Alterserscheinungen. Die Isotopenbatterien (Radionuklidbatterien), die Energie (Strom) aus der Zerfallswärme radioaktiver Elemente (Plutonium) erzeugen, wurden langsam schwächer. Es blieb nichts anderes übrig, als einige Instrumente an Bord (nicht essentielle Systeme) 2019 abzuschalten. Aus diesem Grund lieferten die Sonden in den letzten Jahren weniger Daten.

Manche Forscher glauben, die Voyager-Sonden, hätten die Heliosphäre aber noch immer nicht hinter sich. Die meisten finden jedoch den gemessenen drastischen Anstieg der galaktischen kosmischen Strahlung und der Plasmadichte überzeugend genug. Es scheint aber sehr schwierig, die genaue Grenze zum interstellaren Raum festzustellen. Sie ist tief zerfurcht mit enormen Einbuchtungen und bewegt sich wohl entsprechend dem 11-jährigen Aktivitätszyklus der Sonne. So variiert sie zeitlich und räumlich und kann nach neueren Erkenntnissen zwischen 120 und 200 AE liegen.

Im interstellaren Raum

Voyager 2 und Voyager 1 sollten aber heute das Sonnensystem tatsächlich endgültig verlassen haben. Im interstellaren Raum stellten ihre Messinstrumente eine Magnetfeldstärke von 5 bis 6 Mikrogauß fest. Voyager 1 registrierte ein sehr schwaches, andauerndes Grundrauschen, das in einem engen Frequenzbereich stattfindet. Ursache sind Wellen des interstellaren Plasmas, die aus Verschiebungen zwischen den positiv geladenen Ionen und den negativ geladenen Elektronen bestehen. Trotz dieser Verschiebung neigt das Plasma dazu, an Ort und Stelle zu bleiben.

Voyager 1 hat bis heute unvorstellbare 25 Milliarden Kilometer oder die 160-fache Distanz der Erde von der Sonne zurückgelegt. Jedes Signal von der Erde braucht gegenwärtig bis zur Sonde fast 23 Stunden, bis zu Voyager 2 rund 19 Stunden. Jeden Tag entfernen sich die Sonden um weitere drei bis vier Lichtsekunden. Bei einer Geschwindigkeit von etwa 15 km/s legen sie pro Jahr drei Astronomische Einheiten zurück. Ihre einzige Verbindung zur Erde ist das Deep Space Network der NASA. Das sind drei Antennenkomplexe, die rund um den Globus verteilt sind.

Bei Voyager 2 funktionieren noch fünf wissenschaftliche Instrumente, bei Voyager 1 vier. Die fünf wissenschaftlichen Instrumente an Bord sind ein Magnetfeldsensor, zwei Geräte zum Nachweis von Partikeln in verschiedenen Energiebereichen und zwei Instrumente zum Studium von Plasma. Obwohl es immer wieder unerwartete technische Störungen und Pannen gibt – so schaltete Voyager vor Kurzem einen ihrer beiden Funksender ab, bis nach einem halben Jahr wieder eine stabile Verbindung hergestellt wurde -, erweisen sich die Sonden als erstaunlich robust. Wenn alles gut läuft, kann die Mission vielleicht sogar bis in die 2030er Jahre verlängert werden. Alles hängt von der Stromversorgung ab. Der limitierende Faktor ist die Leistung der Isotopen-Batterien, die um etwa vier Watt pro Jahr abnimmt. Aber dass die vier Instrumente nach 47 Jahren überhaupt noch laufen, grenzt an ein Wunder.

Gelegentlich wird auch angemerkt, dass Voyager 1 und 2 eigentlich auf absehbare Zeit gar nicht den Einfluss des Sonnensystems verlassen, sondern nur dessen Atmosphäre aus geladenen Partikeln, gewissermaßen den chemischen und nicht den gravitationsbedingten Teil unserer Sonnensystems. Denn selbst die Oortsche Wolke, eine kugelschalenförmige Ansammlung von kometenähnlichen Körpern in einer Distanz bis zu 100 000 AE bzw. rund 1,5 Lichtjahren, ist schwach an unsere Sonne gebunden. Die Voyagersonden werden ihren inneren Rand frühestens in 300 Jahren erreichen.

Bis auch die Schwerkraft unserer Sonne für sie keine wesentliche Rolle mehr spielt, dauert es noch mehrere tausend Jahre. Voraussichtlich in rund 40 000 Jahren werden die Sonden an anderen Sternen in einem Abstand von weniger als zwei Lichtjahren vorbeifliegen: Voyager 1 am Roten Zwerg Gliese 445 (er wird zu diesem Zeitpunkt nur noch 3,45 Lichtjahre von der Sonne entfernt sein, da er sich mit hoher Geschwindigkeit auf uns zubewegt) und Voyager 2 an dem unscheinbaren Roten Zwergstern Ross 248 im Sternbild Andromeda (in 42 000 Jahren) – und zwar in 1,73 Lichtjahren Abstand. (Er ist jetzt rund 10,5 Lichtjahre entfernt.) Ob dort Planeten existieren, ist ungewiss.

Die Reise der Sonden ist also lange noch nicht zu Ende. Die Voyager-Sonden haben wegweisende Erkenntnisse gebracht und bieten den Wissenschaftlern immer noch einen wertvollen Einblick in den interstellaren Raum. Bedauerlicherweise sind derzeit keine konkreten Pläne für eine neue interstellare Mission bekannt. 2030 steht Jupiter eine Zeitlang günstig für ein Swing-by-Manöver ins äußere Sonnensystem. Danach wird es wieder zwei Generationen dauern, bis eine günstige Fluggelegenheit dorthin besteht.

Perspektiven

Gewiss könnten im Prinzip unbemannte Raumfahrzeuge künftig ferne Sonnensysteme inspizieren, aber wegen der enormen Entfernungen würden Jahrtausende bis zur Rückmeldung vergehen. Höchstwahrscheinlich entstehen in Zukunft neue und bessere Antriebe, welche solche Reisen deutlich schneller schaffen könnten. Aber noch wissen wir wenig über die Technologie, die für interstellare Raumflüge nötig ist. Selbst ein Raumschiff, das 10% der Lichtgeschwindigkeit erreicht, übersteigt derzeit unsere technischen Möglichkeiten bei Weitem.

Um die Entfernungen zu verdeutlichen, können wir uns die Sonne in der Größe eines Basketballs vorstellen. Die Erde (in der Größe eines Maiskorns) wäre dann 30 Meter entfernt, der Pluto 1,6 Kilometer. Der nächste Stern (Proxima Centauri) wäre dann in einer Distanz von 8000 Kilometern, was der Strecke London – San Franzisco entspricht. Eine Reise zu Tau Ceti oder Epsilon Erani (11 Lichtjahre entfernt) würde schon das Dreifache bedeuten.

Es gibt aber optimistische Wissenschaftler, die interstellare Raumfahrt tatsächlich für möglich halten. Als Antrieb für eine ganz neue Raumfahrttechnik kämen etwa gezielt gezündete Wasserstoffbomben in Frage. Es wird auch über kolossale Lichtsegel spekuliert, die von Laserstrahlen angetrieben werden, oder Antimaterie als Antrieb, was allerdings eine riesige wissenschaftliche Herausforderung bedeuten würde.

Interstellare Reisen mit bemannten Raumfahrzeugen scheinen aber nahezu unmöglich. Einige Wissenschaftler zweifeln schon an der Überwindung der Grenze des Sonnensystems. Heute würde eine Reise bis zum Rand der Heliosphäre schon rund 10 Jahre dauern. Die Hin- und Rückreisezeit zu einem Nachbarstern wäre dann so lang, dass sie nicht innerhalb der menschlichen Lebensspanne zu bewältigen ist. Eine Idee zur Erkundung fremder Sternsysteme sind (Multi-)Generationenschiffe, die ferne Welten mit einem Antrieb durch Kernfusion erkunden sollen. Nach den Berechnungen der Forscher sei damit eine Höchstgeschwindigkeit von 12% der Lichtgeschwindigkeit möglich. Aber selbst mit Lichtgeschwindigkeit wären es beispielweise bis Tau Ceti – 11,9 Lichtjahren entfernt – 40 Jahre.

Außerdem wären die Kosten für den Flug astronomisch hoch: Mehr als 1000 Jahre des Weltenergie-verbrauchs. Selbst bei einer phantastisch neuen Antriebsquelle könnten wir uns die Kosten nicht leisten. Doch auch die Frage, ob intelligente Lebewesen Reisen von Stern zu Stern überhaupt überleben können, ist bisher offen. Man müsste die Raumgleiter vor Gasatomen und Staubkörner schützen, denn bei hohen Geschwindigkeiten würde jedes von ihnen wie eine Granate einschlagen. Langsamere Raumschiffe wären daher sicherer, bräuchten jedoch viele Jahrhunderte oder sogar Jahrtausende länger auf ihrer Reise zu fremden Sternen. Eine solche Zeitspanne würde entsprechend riesige Anforderungen an die Lebenserhaltungssysteme stellen.

REM

Die ersten Städte

Ab wann eine Siedlung Stadt genannt werden kann, ist je nach Perspektive umstritten. Die Größe – sowohl die der Fläche als auch die der Bevölkerung – ist auf jeden Fall ein wichtiges Kriterium. Allgemein akzeptabel scheint die Definition von Stadt als „größere zivile, zentralisierte und abgegrenzte Siedlung mit einer eigenen Verwaltungs- und Versorgungsstruktur“. Aus Sicht der Soziologie sind Städte „vergleichsweise dicht und mit vielen Menschen besiedelte, fest umgrenzte Siedlungen mit eigener Verwaltung, eigenem Kult und sozial differenzierter Einwohnerschaft“. Manche Wissenschaftler wenden den Begriff Stadt erst auf ein Gemeinwesen an, das von einer Hochkultur errichtet wurde.

Städte entstehen meist nicht aufgrund einer einzigen Ursache, sondern in der Kombination mehrerer. Die wichtigsten Faktoren sind:

  • Wasserverfügbarkeit
  • Markt- und Handelswachstum
  • Räumlich fixiertes Heiligtum
  • Schutzbedürfnis (Naturkatastrophen, äußere Angriffe)

Jericho

Jericho, in der Nähe des Toten Meeres gelegen, galt lange als „älteste Stadt der Welt“. Diese Einschätzung stützte sich vor allem auf eine ursprüngliche Mauer, die inzwischen jedoch oft als Teil eines Staudamms interpretiert wird, der die Häuser gegen Überschwemmungen und Schlammlawinen schützen sollte. Jericho war tatsächlich wohl keine Stadt, sondern eher eine dörfliche Entwicklung, die allein in der Landschaft lag, gelegen an einer natürlichen Handelsstraße. Es bestanden keine gegenseitigen Abhängigkeiten mit der Umgebung wie bei den späteren proto-urbanen Zentren. Nichtsdestotrotz war Jericho ein Phänomen in seiner Zeit. Zwischen 10 500 und 8000 v. h. lebten hier bis zu 3000 Menschen.

Solche auch flächenmäßig größere Siedlungen wie Jericho bezeichnen wir heute als Megasites. Sie waren ein frühes Experimentierfeld für präurbanes Leben. In ihnen wurde der Grundstein für ein Zusammenleben in großen Gemeinschaften gelegt, vor allem durch die sozialen Regeln, denen sich die Menschen verschrieben hatten.

Catal Höyük

Eine andere dieser Megasites war Catal Höyük in Zentralanatolien (in der Ebene von Konya). Zu seiner Blütezeit vor etwa 8000 Jahren war es eine regelrechte Metropole: Bis zu 8000 Menschen wohnten hier auf 34 Hektar in rund 2000 kleinen, eng aneinander gebauten Lehmhäusern in eindrucksvoller sozialer Organisation – ein völlig neues Lebenskonzept. Es gab keine Straßen; die Flachdächer der wabenartig angeordneten Gebäude dienten als Fußwege. Durch Dachluken konnten die Häuser über Leitern betreten werden. Diese Bauweise wurde bislang als Schutz gegen äußere Feinde gedeutet, aber vielleicht handelte es sich ja um Schutz vor kleinen „Feinden“. Aufgrund der anfallenden Abfälle wimmelte es in den neolithischen Siedlungen sicher vor Mäusen.

Rund um die Stadt legten die Menschen kleine Felder an und versuchten sich in der Zucht von Schafen und Rindern. Zusätzlich jagten sie noch und ergänzten ihre Nahrung mit Wildpflanzen. Vor ungefähr 8500 Jahren, einige Jahrhunderte nach der Gründung der Stadt, hatten die Bewohner begonnen, Keramik zu brennen. Tongefäße dürften die Essenszubereitung erheblich erleichtert haben. Die Menschen in Catal Höyük waren Meister im Töpfern, aber auch im Weben und Fertigen von Steinwerkzeugen aus Obsidian, und bewiesen erstaunliches Talent für Malerei (farbige Wandbilder) und Skulptur. Luxuriöse Gegenstände deuten auf ein hochentwickeltes künstlerisches Know-how hin.

Stempelsiegel lassen auf einen erhöhten Sinn für Eigentum schließen. Jedoch fehlen kommunale Einrichtungen wie z. B. Friedhöfe (die Einwohner begruben ihre Toten unter den Fußböden ihrer Häuser) und jegliche Gebäude, die auf eine soziale Hierarchie hindeuten würden: Paläste, Tempel, Herrschaftshäuser. Aber die Bewohner von Catal Höyük hatten schon eine komplexe Religion entwickelt. Die beiden wichtigsten Gottheiten waren die Große Mutter der Fruchtbarkeit und der Stiergott.

Fast jeder Haushalt hatte Bukranien an der Wand hängen: mit Gips überzogene und rot bemalte Tierschädel, aber auch solcherart behandelte Menschenschädel. Archäologen kennen solche Gepflogenheiten von anderen frühen neolithischen Stätten in der Region des Fruchtbaren Halbmonds (Funde aus der Zeit von 14 000 bis 8500 v. h., z. B. auch in Jericho). Damals war es offenbar weit verbreitet, die Gesichter der Toten aus Gipsmasse auf deren Schädeln nachzubilden. In Catal Höyük scheint man die Totenschädel sogar untereinander ausgetauscht und erneut bestattet zu haben.

Die meisten frühen Megasites in Mesopotamien und Anatolien hatten ihren Scheitelpunkt im 9. Jahrtausend v. h. und wurden dann ab 8000 v. h. größtenteils aufgegeben. Catal Höyük bestand bis etwa 7950 v. h. Manche Forscher glauben, dass die frühen Großsiedlungen an inneren Konflikten ihrer Gesellschaften scheiterten. Andere halten eine Übernutzung der Ressourcen für die wahrscheinliche Ursache des Niedergangs. Dabei dürften klimatische Veränderungen die Lage noch verschärft haben.

Im Nahen Osten entstanden erst um 7500 v. h. wieder erste stadtähnliche Großsiedlungen. Eridu, in der Nähe der Mündung des Euphrat in den Persischen Golf gelegen, erfüllt möglicherweise als erste dieser Siedlungen die Bedingungen für Urbanität. Die „Stadt“ entstand um eine Tempelanlage herum. Es gab bereits eine Stadtmauer und ein Stadttor. Die Siedlung war in ihrer Zeit ein politisches und religiöses Zentrum in Mesopotamien.

Tripolje-Megasites

Gut 1000 Jahre, nachdem im Nahen Osten erste stadtähnliche Großsiedlungen entstanden waren (etwa in Eridu), hatten sich auch in Europa vergleichbare Anlagen mit fünfstelligen Einwohnerzahlen entwickelt, die sog. Tripolje-Megasites. Es waren große, ringförmige Siedlungen in den fruchtbaren Schwarzerdegebieten in dem Gebiet der heutigen Ukraine. Sie lagen in der Nähe von Flüssen und waren weitgehend unbefestigt. In den größeren von ihnen lebten wohl bis zu 15 000 Menschen unter quasi städtischen Bedingungen.

Es waren Agrarstädte, die sich auf Ackerbau und Viehzucht gründeten. Die Feldfluren lagen vermutlich bis zu 7,5 Kilometer von der Siedlung entfernt. Durch eine technische Innovation (Schlittengespanne, die Sommer wie Winter fahrtüchtig waren) konnte der Weg dorthin zeit- und energieeffizient zurückgelegt werden. Neben Ackerbau betrieben die Agrarstadt-Bewohner Viehhaltung, teils innerhalb der Siedlungen, die Mehrzahl wohl in Hütehaltung oder einfachen Gattern außerhalb.

Forscher haben bisher 15 solcher Großsiedlungen in der Zentralukraine und ihrem Umfeld entdeckt. Neun der Siedlungen umfassten zur Zeit ihrer größten Ausdehnung jeweils mehr als 1000 Häuser (aus Holz oder Lehm). Eine der größten, Maidanetske, bestand in ihrer Blüte (zwischen 5955 und 5700 v. h.) aus 1700 Häusern, die in neun konzentrischen Reihen um einen unbebauten Platz gruppiert waren. Zudem gab es bedeutsame Bereiche des öffentlichen Lebens, z. B. spezielle Gebäude für Versammlungen, Feste und Rituale.

Das Abfall- und Hygienemanagement war sehr effektiv. Neben jedem Bau waren Gruben zur Lehmgewinnung ausgehoben, in denen der häusliche Abfall entsorgt wurde. Daneben gab es größere Deponien vor den Stadtgrenzen. Neben den Standardhäusern existierten auch einige größere Wohnhäuser, was ein soziales Gefälle nahelegt. Dort fanden sich auch keine Hinweise auf landwirtschaftliche Tätigkeiten, was auf eine räumlich klar abgegrenzte berufliche Spezialisierung hindeutet. Im größten Bau der Megasite dürfte sich wohl die Zentrale der Siedlung befunden haben.

Aber schon nach etwas mehr als zehn Generationen – bis ca. 5600 v. h. – brannten die Menschen die Großsiedlungen und Häuser systematisch ab. Sie verstreuten sich und siedelten wieder in kleineren Dörfern und schließlich in kleinsten Weilern statt in frühstädtischen Verhältnissen. Warum die Megasites nach nur 500 Jahren wieder verlassen wurden, ist unklar. Nicht Ressourcenknappheit, nicht ausgedehnte Dürreperioden, noch die Pest scheinen für den Zusammenbruch verantwortlich gewesen sein.

Vieles deutet auf eine zunehmende Machtkonzentration in den Ortschaften hin, wodurch das gesellschaftliche Konstrukt seine Basis verlor. „Der Wegfall demokratischer Strukturen auf unterer und mittlerer Ebene war sicher der Hauptgrund für den Kollaps. Ein reibungsloses Zusammenleben von 10 000 bis 15 000 Menschen konnte kaum durch eine zentrale Institution gemanagt werden“, sagen Forscher. Und noch etwas könnte zum Zerfall der Großsiedlungen beigetragen haben: Es fehlte an einer Schrift, um eine Bürokratie im positiven Sinn betreiben zu können. Das war ein signifikanter Nachteil gegenüber den frühen städtischen Siedlungen in Nahost, die viel länger Bestand hatten.

Mesopotamien

Schon im 7. Jahrtausend lebten Menschen aus gutem Grund an den Flüssen Euphrat und Tigris: Jahr für Jahr spülten Überschwemmungen nährstoffreichen Schlick auf ihre Felder, der das Getreide sprießen ließ. Nur ein Problem gab es: Das Frühjahrswasser verschob die Wasserläufe stets aufs Neue. Wollten die Menschen eine sichere Ernte einfahren, mussten sie sich in Gruppen zusammentun und ihre Arbeit gemeinsam organisieren. So verschmolzen Ende des 7. Jahrtausends immer mehr Dörfer nach und nach zu größeren Siedlungen.

Die Sumerer kamen vor 6000 bis 5000 Jahren v. h. ins Zweistromland, woher ist noch weitgehend unbekannt. Sie übernahmen die Siedlungen der Obed-Kultur und machten daraus unter stabileren und immer freundlicheren Klimabedingungen echte Städte. Noch um 5700 v. h. waren gewaltige Flutkatastrophen über die Menschen hereingebrochen (wohl die Zeit der Sintflut, von der die Bibel spricht), bevor sich das Wetter beruhigte.

Fruchtbare Böden und ausgeklügelte Bewässerungssysteme im Süden Mesopotamiens sorgten für hohe Erträge auf den Äckern, die immer mehr Menschen ernähren konnten. Aus einigen Ortschaften an Euphrat und Tigris gingen größere Siedlungen hervor, weit größer und besser ausgebildet als ihre Vorgänger. Was die Menschen dazu trieb, sich auf vergleichsweise kleiner Fläche dicht zu drängen und ihre Häuser mit einer Stadtmauer zu umgeben, ist heute ungelöst. Ob es tatsächlich klimatische und wirtschaftliche Faktoren waren, ist umstritten. Nach Meinung des Landschaftsarchäologen Andrea Ricci könnten soziokulturelle Faktoren die größere Rolle bei der Stadtwerdung gespielt haben, z. B. die Nähe zu einem religiösen Führer (Priester) und der damit verbunden Schutz. Möglicherweise war es aber auch schierer Bevölkerungsdruck.

Die gezielte Anlage von Kanälen und Dämmen zur Kontrolle der Flutgewässer während der Reife- und Erntezeit im April/Mai, die zur großflächigen Kultivierung von Feldfrüchten erforderlich war, ließ sich jedenfalls nur durch den gezielten, massiven Einsatz von Arbeitskräften verwirklichen. Das wiederum begünstigte die Entwicklung einer sozial wie wirtschaftlich differenzierten Gesellschaftsordnung. Einzelne taten sich hervor, und allmählich bildeten sich Eliten heraus. Einige tausend Jahre nach den ersten Ansätzen waren feste Stadtorganisationen mit straffer Verwaltung und hohem Kulturniveau entstanden. Der Zeitpunkt für die urbane Wende wird auf 5650 Jahre v. h. datiert.

Im Süden Mesopotamiens entwickelte sich Uruk zwischen 6200 und 5100 v. h. zum ersten Stadtstaat der Sumerer. Nach neueren Forschungen soll es die Siedlung auch ohne Bewässerungssystem lange Zeit geschafft haben, seine Bevölkerung zu ernähren. Wenn das stimmt, muss man die Schaffung eines Staatswesens vor allem als Antwort auf die weiter zunehmende Zahl der Menschen verstehen, deren sicheres Zusammenleben von einer übergeordneten Institution geregelt werden musste. Um 6000 v. h. lebten in Uruk schon schätzungsweise 20 000 Menschen – nach damaligen Maßstäben wahrhaftig eine Metropole.

Die Stadt war wahrscheinlich einem älteren Vorbild nachgebaut: Brak im nordöstlichen Syrien, für manche der derzeit älteste urbane Ort. Er besaß eine gegliederte Gesellschaft (Indizien weisen auf die Existenz einer Elite hin), Spezialistentum und öffentliche Gebäude – das älteste Gebäude wurde hier bereits 6500 v. h. errichtet -, aber noch keine Schrift.

Seit etwa 5700 v. h. erlebte Uruk ein geradezu spektakuläres Wachstum. Da Rohstoffe fehlten, setzte die Stadt zwangsläufig auf Handel: Steine aus Oman, Holz aus dem Libanon, Schmucksteine aus Afghanistan, Metall aus Anatolien. Auf Grund seines Reichtums spielte Uruk lange Zeit eine dominierende Rolle inmitten einer Schar widerspenstiger Nachbarstädte. Die Stadt verfolgte wohl schon eine Expansionsstrategie: Zahlreiche Funde sprechen dafür, dass Menschen aus dem Gebiet von Uruk ab 5600 v. h. in Nordmesopotamien Kolonien gründeten. Eine der ersten Schlachten tobte vor 5500 Jahren, als die Handelsstadt Hamoukar (im nördlichen Zweistromland) unter Beschuss geriet. Es war wohl ein Konflikt um Ressourcen und Transportwege, der hier möglicherweise mit organisierter kriegerischer Gewalt in großem Stil ausgetragen wurde.

Die Stadt Hamoukar ging auf eine Handwerkersiedlung zurück, die vermutlich vor 6200 Jahren entstanden war. Ihre Bewohner verarbeiteten Obsidian zu scharfen Klingen und begannen vor 6000 Jahren auch mit der Verarbeitung des neuen Werkstoffs Kupfer. Das weckte Begehrlichkeiten in dem 700 Kilometer entfernten Uruk, das arm an Rohstoffen war. Die Angreifer aus dem Süden Mesopotamiens (wahrscheinlich Uruk) gingen offensichtlich systematisch vor. Sie schossen mit Schleudern Hunderte Kugeln aus Ton, jede so groß wie eine Grapefruit, über die Stadtmauer und brachten Häuser zum Einsturz. Zudem prasselten Tausende kleinerer Projektile auf die Bewohner. Ziel war offensichtlich die Vernichtung der Stadt. Nach der Verwüstung Hamoukars übernahm Uruk die Kontrolle der Rohstoffgeschäfte.

Um 5300 v. h. hatte sich das Staatswesen in Uruk voll entwickelt. Ein ausgeklügeltes Be- und Entwässerungssystem hielt das Ackerland das ganze Jahr über gleichmäßig feucht, ob in Dürreperioden oder in Zeiten der Überschwemmung. Das Bett der Kanäle bestand aus luftgetrockneten Lehmziegeln und musste ständig gepflegt und ausgebessert werden. Der bürokratische Apparat, der die Gesellschaft organisierte, wurde immer größer. Mit wenigen Tonmarken – Kugeln, Zylinder, Kegel und Scheiben – ließ sich bis in die Tausende zählen, wobei jede Art einem bestimmten Wert entsprach. Beispielsweise kamen zehn kleine Kegel einer Kugel gleich, und sechs Kugeln einem großen Kegel usw. Spätestens ab 5300 v. h. vermerkten Beamte Güter mit Griffeln auf den Tontafeln. So entstand auch die älteste Schrift der Welt.

Uruk war eine Stadt wie aus dem Lehrbuch – ein Zentrum mit einer vorher unbekannten Konzentration an wirtschaftlicher Macht. Um 5000 v. h. lebten in den Lehmziegelhäusern von Uruk gut 50 000 Menschen, während zur gleichen Zeit Dörfer im Umland verlassen wurden. Immer deutlicher zeichneten sich soziale Unterschiede ab. Je größer und komplizierter das soziale Gefüge wurde, desto mehr bedurfte es einer straffen Organisation. Leiter der Stadt war zunächst ein Priesterkönig, der sich als Sachverwalter der Götter verstand. Er demonstrierte seine Macht mit prächtigen Gebäuden: Versammlungshäuser, massive Tempelkomplexe und eine Stadtmauer (deren Errichtung später dem sagenhaften König Gilgamesch zugeschrieben wurde). Die Stadt war auch Pilgerziel. Die altorientalische Göttin Ischtar soll in der Stadt beheimatet gewesen sein.

Die Glanzzeit Uruks ging bald nach dem Bau der großen Mauer zu Ende. Im Laufe des 5. Jahrtausends v. h. sank die Metropole zu einem regionalen Zentrum herab – die Gründe dafür sind unbekannt. Fortan wurde Uruk meist von anderen Stadtstaaten regiert. Zwanzig weitere sumerische Städte hatten inzwischen das Erfolgsmodell von Uruk kopiert, z. B. Kisch und Nippur, Lagasch und Ur. Sie alle stiegen im 5. Jahrtausend v. h. zu Stadtstaaten auf, die schließlich zu Rivalen wurden. Die ursprünglich von Priestern und Ältesten getroffenen Entscheidungen gerieten mehr und mehr unter die Verantwortlichkeit von Königen – als weltliche Stellvertreter der Schutzgottheit der Stadt. Spätestens ab Mitte des 5. Jahrtausends v. h. hatten in allen sumerischen Städten Könige die lokale Regierung fest in ihrer Hand. Die Schrift, zunächst nur für die Buchhaltung entwickelt, wurde nun auch für literarische Zwecke verwendet. Das Gilgamesch-Epos, das älteste Epos der Welt, entstand vor etwa 4500 Jahren. Auf ihm beruht sehr vieles der griechischen Epen, sehr, sehr vieles aus Tausendundeiner Nacht, aber auch vieles aus der Bibel.

In enger Verzahnung mit dem bäuerlichen Umfeld hatte sich im ganzen Vorderen Orient eine ausgeprägte Stadtkultur entwickelt. Im küstennahen Palästina wurde die Blütezeit zwischen 4900 und 4800 v. h. erreicht, in Nordsyrien dagegen begann die Urbanisierung erst zu diesem Zeitpunkt. Ab 5000 v. h. entwickelte sich in Ägypten Stadtplanung. Bis in das 4. Jahrtausend v. h. waren im Pharaonenreich und den eroberten Gebieten meist Festungen Ausgangspunkt für die Stadtwerdung. Durch Ausbau dienten sie darüber hinaus auch städtischen Nutzungen wie Kult, Handwerk und Handel.

Die Städter lebten zunehmend von der Veredelung und dem Handel mit Rohstoffen (z. B. Gold, Kupfer), waren aber abhängig von den Produkten der umliegenden Landwirtschaft. Das System funktionierte so lange gut, wie diese „Gewinne“ erwirtschaftete. Die Klimakurve senkte sich aber bereits seit geraumer Zeit wieder in Richtung Trockenheit. Als schließlich der „Wertschöpfungskreislauf“ an der Basis durchbrochen wurde, kollabierte das ausgeklügelte Wirtschaftssystem (zwischen 4400 und 4100 v. h.). Die städtische Bevölkerung „renomadisierte“ oder ließ sich in kleinen unbefestigten Siedlungen nieder.

Stadtentstehung in der übrigen Welt

Ähnliche mehr oder weniger zeitgleiche Prozesse der Differenzierung und der Stadtentstehung wie im Nahen Osten fanden Forscher auch am mittleren Niger, am Indus und in China.

Im Delta des Jangtse, unweit von Shanghai, errichteten Menschen vor rund 5300 Jahren eine ummauerte Stadt, Liangzhu, die über ein komplexes, weit verzweigtes System von Dämmen und Kanälen schiffbar war. Ihre Gesellschaft war staatlich organisiert und hoch technisiert (Wasserbewirtschaftung). Liangzhu ist die bisher älteste bekannte Stadt Ostasiens. Bevölkerungsgröße (schätzungsweise 34 500 Einwohner), eine stark hierarchisierte Gliederung der Gesellschaft und monumentale Bauten (Stadtmauer, Plattform mit Palastkomplex, Dammsystem) lassen auf eine Hochkultur schließen. Lediglich eindeutige Beweise für eine Schrift fehlen. Allerdings deutet ein Teil der auf verschiedenen Keramik-und Jadeobjekten gefundenen Symbole darauf hin, dass möglicherweise ein Schriftsystem im Entstehen war.

Liangzhu war fast 1000 Jahre lang bewohnt. Zwischen ungefähr 4400 und 4350 v. h. gab es eine niederschlagsreiche Klimaphase. Die massiven Regenfälle dürften zu so starken Überflutungen des Jangtse und seiner Seitenarme geführt haben, dass selbst die hochentwickelten Dämme und Kanäle der Stadt den Wassermassen nicht mehr standhalten konnten. Liangzhu wurde zerstört und die Menschen flohen aus der Stadt.

Die bescheidenen Anfänge der Zivilisation in Indien gehen auf etwa 5300 Jahre v. h. zurück, als Dörfer entlang der Überschwemmungslinie der parallel laufenden Flüsse Indus und Ghaggar entstanden (Indus-Kultur). Hier entwickelten sich vor über 4600 Jahren die ersten Städte mit über 1000 Einwohnern, die sich über ein erstaunlich großes geografisches Gebiet verteilten: Vom Arabischen Meer bis zu den Vorbergen des Himalaja und von der Ostgrenze Pakistans bis zum Gangestal etwa in Höhe von Neu-Delhi. Sie wiesen eine bemerkenswerte Gleichförmigkeit auf. Möglicherweise wurden die Siedlungen komplett umgebaut oder auch von Grund auf neu angelegt. Sie sind gegliedert in eine zitadellenartige Oberstadt, deren Zweck unbekannt ist, und eine räumlich getrennte Unter- bzw. Wohnstadt. Monumentalbauten sakraler oder kultischer Natur waren der Indus-Kultur allerdings unbekannt.

Die beiden größten Siedlungen, Harappa und Mohenjo-Daro, beherbergten auf ihrem Höhepunkt bis zu 50 000 Einwohner. Mohenjo-Daro („Hügel der Toten“) lag in einem flachen, heißen Überschwemmungsgebiet des Indus, fast 500 Kilometer nördlich des heutigen Karatschi (Pakistan). Es war eine betriebsame Handelsmetropole, die durch Fernstraßen und Wasserwege mit anderen Städten verbunden war. Bemerkenswert ist der für die damalige Zeit hohe Grad an öffentlicher Hygiene: Abflussrinnen an den Straßenrändern mit Auffangbecken, in denen Abfälle hängen blieben; Hauskanalisation aus einem geschlossenen System von Tonröhren; Sitztoiletten.

Harappa lag 650 Kilometer nördlich von Mohenjo-Daro. Monumentale Bauten, Getreidespeicher, Öfen für Metallurgie, Gräberfelder, Goldschmiedkunst und Keramik zeugen von hoher Stadtkultur.

Für das Ende der Kultur im Industal weisen Indizien auf zwei aufeinanderfolgende Dürren hin. Die erste betraf nur die Niederschläge im Winter, die zwischen 4300 und 4000 v. h. abnahmen und zum Niedergang der Städte im Norden führte. Die Städte im Süden konnten offenbar länger durchhalten. Die zweite Dürre trat ungefähr zwischen 4000 und 3700 v. h. auf und beeinträchtigte den Sommermonsun, hatte aber deutlich schwächere Wirkung. Trotzdem konnten die Städte im Süden jetzt schlechter widerstehen, möglicherweise ein Folge auch des Niedergangs der Städte im Norden.

Vor 4500 bis 4000 v. h. waren im gesamten Mittelmeerraum Siedlungen gewachsen, und manche zeigten bereits Merkmale einer Stadt: eine hohe Bevölkerungszahl, eine Umfassungsmauer zur Verteidigung und Zugangskontrolle, dazu öffentliche Gebäude für Verwaltung, Kult oder gemeinschaftliche Vorratshaltung. Manche der frühen Städte profitierte vom Fernhandel, wie z. B. Troja (Gold, Kupfer, Zinn). Poliochni auf der Ägäisinsel Lemnos, unweit (60 Kilometer) von Troja, gilt als eine der frühesten Städte Europas. Die Siedlung dehnte sich zwischen 5200 und 4000 v. h. stark aus. Bei Ausgrabungen kamen Häuser, gepflasterte Straßen mit Kanalisation, Plätze und Gemeinschaftsbauten ans Licht. Die Stadt hatte Handelsverbindungen bis nach Mesopotamien (Ur) und in den Kaukasus.

Hochkulturen

Die ersten Städte waren zunächst gleichsam Inseln in einem Meer dörflich-bäuerlich geprägter, eben neolithischer Lebensweise. Durch die gemeinschaftlich begangenen Kulte konnten sich soziale Normen etablieren und Einzelne sich als Anführer hervortun, etwa, weil sie das Wetter vorhersagen konnten und so das Wohl der Gemeinschaft förderten. Sobald eine soziale Hierarchie existierte, gab es eine Elite, die genügend Arbeiter für Bauprojekte mobilisieren konnte. Weil diese der gesamten Gemeinschaft zugute kamen, verfestigte sich wohl auch die bestehende Gesellschaftsordnung. Der herrschenden Schicht fielen folglich mehr Macht und Reichtum zu. Und beides ermöglichte den Eliten wiederum, weitere monumentale Bauten errichten zu lassen und kunstvolle Objekte zu fertigen.

Solange menschliche Gesellschaften ausreichend mit Nahrung versorgt sind, haben sie Zeit, sich um den kulturellen und technischen Fortschritt zu kümmern. So entwickelten sich in den Städten an den großen Flüssen die im allgemeinen Verständnis ersten Hochkulturen (Mesopotamien, Ägypten, Indien, China). Die kulturellen Neuerungen gehören in vielem bis heute zu den Grundlagen menschlicher Existenz: Ernährungssicherheit, soziale und berufliche Differenzierung, institutionalisierte Herrschaft mit staatlicher Organisation und Verwaltung, Schriftlichkeit, Leistungen in Kunst, Architektur, Recht und Religion.

Die Produktion von Bronze ließ schließlich Umschlagplätze von ungekannter Größe entstehen und Städte zu Metropolen heranwachsen. Die Gesellschaften spalteten sich noch tiefergehender in Eingeweihte und Unwissende, Herrscher und Beherrschte, Arme und Reiche. Mehrere Faktoren führten zunehmend zu militärischen Konflikten: Die geographische Konzentration wichtiger Ressourcen, ökologische Katastrophen, die Abgrenzung gegenüber anderen Kulturen und die Monopolisierung von Gütern und Handelswegen durch eine Gruppe. Kriegsgottheiten entthronten die alten Göttinnen, die zu deren Frauen und Töchtern degradiert wurden. Männliches Patriarchat und männliche Dominanz traten an die Stelle der harmonischen und sozialen Ordnung.

REM

Grenzen der Wissenschaft

Unser Wissen hat seinen Ursprung in unseren Wahrnehmungen. Diese sind geprägt vom Filter der Sinnesorgane und taugen deshalb nur für einen winzigen Bereich auf der Skala der Naturphänomene. Um die biologisch bedingten Grenzen unseres Weltbildes zu erweitern und Erkenntnisse zu sammeln, wie die Welt funktioniert, haben wir die Wissenschaft entwickelt. Religion und Metaphysik hatten als Vorläufer der Naturwissenschaft versucht, Naturerscheinungen zu erklären und die göttlichen Prinzipien in der Welt zu verstehen. Aber sie konnten und können nicht allen Antworten geben, weil sie zu unbestimmt, zu vage sind. Die Auseinandersetzung mit der aristotelischen Philosophie und ihren Prinzipien von Vernunft, Erfahrung und Natur gab den Anstoß, Glauben und Wissen methodisch zu unterscheiden.

Seit der Aufklärung dominierte die Ratio in einer zunehmend verwissenschaftlichen Welt. Aber erst im 19. Jahrhundert etablierte sich die Naturwissenschaft unwiderruflich als dritte kulturelle und akademische Kraft neben der Theologie und der Philosophie. Sie versucht vor allem durch Beobachtungen und Experimente die Phänomene der unbelebten und belebten Natur zu beschreiben und zu erklären. Die grundlegende Naturwissenschaft – das Kernstück der heutigen Naturwissenschaften – ist die Physik. Ihre Gesetze stehen für alles Materielle im Universum. Der harte Kern der Physik wiederum ist die Mathematik und das Experiment.

Wissenschaftliche Erkenntnis

Eine Strategie, um zu wissenschaftlicher Erkenntnis zu gelangen, war es zunächst, komplexe Phänomene auf Grundbausteine zu reduzieren und nach den sie bewegenden Mechanismen zu suchen. Die Welt sollte bis ins Kleinste auseinandergenommen werden, um zu wissen, wie sie funktioniert. Mit dieser analytischen Methode hat die Wissenschaft ungeheure Erfolge erzielt. Allerdings scheitert sie bei komplexen, nichtlinearen Systemen, wenn man diese im Voraus in definierte Untersysteme oder verschiedene Aspekte gliedert. Das Ganze ist mehr als die Summe der einzelnen Teile. Es lassen sich nur wenige heutige physikalische Probleme tatsächlich analytisch mit einem eindeutig zu beweisenden Ergebnis lösen. Fast alle anderen für Physiker interessanten Fragestellungen können auf diese Weise nur mit Hilfe von Näherungen geknackt werden.

Wichtige Eigenschaften der wissenschaftlichen Arbeit sind Objektivität, Einfachheit und Überprüfbarkeit. Die naturwissenschaftliche Erkenntnis beruht auf vier Quellen: Theorie, Beobachtung und Experiment – und neuerdings Computersimulationen. Die Experimente müssen quantitativ, reproduzierbar und unabhängig vom Experimentator überprüft werden können, um einen möglichst hohen objektiven Erkenntniswert zu erhalten. Wenn es keine Möglichkeit zur Messung im Experiment gibt, sind Simulationen (also virtuelle Experimente) ohne Alternative. Theorien, in der Regel Systeme von unter sich widerspruchsfreien Hypothesen, sollen es erlauben, Beobachtungen mit möglichst wenigen, einfachen Prinzipien zu beschreiben. (Üblicherweise wird der Begriff der Theorie für größere Gedankengebäude reserviert, während Hypothesen nachgeordnete Behauptungen darstellen.) Sie sind in der Naturwissenschaft eine unverzichtbare Brücke zwischen experimentellen Beobachtungen auf der einen Seite und dem Auffinden von Naturgesetzen und Grundprinzipien auf der anderen.

Eine Theorie darf aber grundsätzlich nie endgültig „richtig“ genannt werden, ihre Gültigkeit ist nur vorläufig. Durch zukünftige Beobachtungen und Messungen könnte ihr Gültigkeitsbereich nicht nur eingeschränkt, sondern sogar widerlegt werden – und eine andere, bessere Theorie tritt an ihre Stelle. Wissenschaftliche Wahrheiten stellen damit nur Annäherungen an die Wirklichkeit dar, können verbessert oder ganz verworfen werden.

Wissenschaftliche Vorgehensweise und Erkenntnisgewinnung bedeuten, Ergebnisse zu strukturieren, zu vereinfachen und auf eine dem Verstand, der evolutionär lediglich an den Bereich der mittleren Abmessungen angepasst ist, möglichst leicht zugängliche Form zu bringen. Als Bewohner einer Zwischenwelt zwischen Mikro- und Makrokosmos sind wir mit den Gesetzen der klassischen Physik vertraut. Mikrowelt und Makrowelt sind uns aber beide nicht unmittelbar zugänglich. Alle Theorien, Begriffe, Bilder sind daher an menschliche Vorstellungen gebundene Modelle. Sie liefern uns damit nur reduzierte Vorstellungen von der Wirklichkeit. Das Zusammenspiel von Modell und Wirklichkeit ist vielleicht so vage, wie es Platon in seinem Gleichnis von den Menschen in der Höhle schilderte, die von der Wirklichkeit nichts weiter wahrnehmen konnten als die Schattenbilder auf der Höhlenwand.

Wir haben keine modellunabhängigen Überprüfungen von dem, was real ist. Quantenphysik, aber auch Kosmologie, sind so unanschaulich, dass ihre avanciertesten Theorien wie entrückte Spekulationen anmuten. So hat die heutige Physik in der Welt der Atome ein Abstraktionsniveau erreicht, bei dem z. B. der stofflich handfeste Begriff des Teilchens so fragwürdig wird wie die Vorstellung, ein schwingendes Feld habe etwas mit Wasserwellen auf einem Teich zu tun. Werner Heisenberg schrieb, Naturgesetze beschäftigen sich nicht mehr mit Elementarteilchen, sondern mit dem Wissen von diesen „Teilchen“ – d. h. mit dem Inhalt unseres Geistes. Wir können nicht wissen, ob der Begriff ‚Elektron‚ eine Entsprechung in der Realität hat. Die Physiker haben sich im Diskurs lediglich auf seine Verwendung geeinigt, weil er für ihre Zwecke – z. B. die Beschreibung von Blitzen – hervorragend geeignet erscheint. Die Wissenschaft beschreibt also nicht, wie die Natur an sich ist, sondern drückt nur aus, was wir über die Natur zu sagen vermögen.

Mit den theoretischen Modellen können wir also Sachverhalte verstehen, auch wenn wir sie uns nicht vorstellen können. Ein „gutes“ Modell muss sich an nachprüfbaren Fakten orientieren und eine Fülle von Beobachtungen widerspruchsfrei beschreiben können. Außerdem muss es imstande sein, die Ergebnisse zukünftiger Beobachtungen vorherzusagen. „Mich interessiert das Modell, das die Beobachtungen am effizientesten erklärt“, sagt der Physiker und Kosmologe Paul Steinhardt. „Ob es die Realität trifft, ist eine abstrakte Frage.“

Mathematik

Mit der Mathematik können wir die Umwelt besser verstehen und beschreiben. Sie gehörte von Anfang an zur menschlichen Kultur; die Zahlen wurden sogar noch vor den Schriftzeichen erfunden. Mathematik stellt in vielfältiger Weise Strukturen zur Verfügung, die wir auf ihre Anwendbarkeit bei der Naturbeschreibung prüfen können. Die mathematischen Strukturen erfüllen eine Grundbedingung für objektive Existenz: Sie sind für jeden, der sie untersucht, gleich. Außerirdische Zivilisationen würden die gleichen mathematischen Strukturen finden, die wir kennen.

Die allermeisten Mathematiker meinen, dass mathematische Strukturen nicht erfunden, sondern entdeckt werden. Gödel verglich die Tätigkeit der Mathematiker mit der Entdeckungsreise in eine unbekannte Welt geistiger Objekte. Schon Galilei sah „das Buch der Natur … in der Sprache der Mathematik geschrieben“. (Für andere Wissenschaftler ist die Mathematik jedoch ein Produkt des höheren menschlichen Intellekts. Homo sapiens habe Beschreibungen, Abstraktionen und pragmatische Ordnungsprinzipien – Muster, Gesetze und Regelmäßigkeiten – erfunden, um die komplexe Natur zu vereinfachen.)

Eine Wissenschaft, die objektive Erkenntnis anstrebt, wird nicht gleichzeitig die Forderung nach Anschaulichkeit erfüllen können. Da unser Anschauungsvermögen nur mesokosmischen Strukturen gerecht wird, ist eine Naturwissenschaft, die sich nicht mit Beschreibungen zufrieden gibt, sondern Erklärungen sucht, auf die Verwendung mathematischer (und damit oft unanschaulicher) Strukturen unabdingbar angewiesen. Die überragende Bedeutung der Mathematik für die heutige wissenschaftliche Forschung liegt darin, dass sie die gewünschte Anschaulichkeit in gewissem Maße ersetzen kann.

Mit der Mathematik können die verschiedensten Dinge und Ereignisse der Realität modelliert bzw. beschrieben werden und wir gewinnen Erkenntnis, die nicht mesokosmisch, nicht anschaulich, nicht Alltagswissen ist. Es spielt in der modernen Wissenschaft kaum noch eine Rolle, ob wir uns etwas vorstellen können. In der Mathematik gibt es z. B. keinen Grund, warum der Raum nicht (beliebig) mehr als drei Dimensionen haben sollte. Doch anschaulich vorstellen können sich auch Mathematiker eine vierte oder zehnte Dimension nicht, da der menschliche Geist im dreidimensionalen Raum gefangen ist.

An den Grenzen der Wissenschaft dringt die Forschung so in Dimensionen von Raum, Zeit und Energie vor, die vom täglichen Leben unvorstellbar weit entfernt sind und sich oft nur in der Sprache der Mathematik beschreiben lassen. Die Mathematik bietet zwar nur eine abstrakte Darstellung der physikalischen Wirklichkeit, aber einen tiefen Einblick in das Wesen der Wirklichkeit und vertreibt weit verbreitete Missverständnisse. Mit Hilfe mathematischer Gleichungen vermag unser Geist also zu einer tieferen Ebene der Gewissheit vordringen. Damit eine Theorie also hinreichend bestimmt ist, um durch Beobachtungen überprüfbar zu sein, muss sie in aller Regel durch mathematische Gleichungen ausgedrückt werden.

Albert Einstein suchte für seine neue Theorie der Schwerkraft zunächst nach Gleichungen, die ihre Form möglichst unter beliebigen Koordinatentransformationen beibehalten. Mitte 1912 wurde ihm klar, dass seine Gravitationstheorie nach einer neuen mathematischen Ausdrucksweise verlangte. Der Durchbruch war die Erkenntnis, dass sich die Bewegungsgleichung in solchen dynamischen Gravitationsfeldern als Gleichung einer im weitesten Sinne geraden Linie in einer gekrümmten Raumzeit beschreiben lässt. Einstein und Grossmann sahen sich genötigt, die neue Mathematik der Raumzeit mit dem bekannten physikalischen Wissen in Gleichgewicht zu bringen – ein Balanceakt, der ihnen zunächst nicht gelang.

Die Vielfalt der Anwendungen, der Inspirationen und der Methoden haben die Mathematik zu dem gemacht, was sie heute ist: eines der mächtigsten Produkte des Denkens, welches die Menschheit je hervorgebracht hat. Ohne die Errungenschaften der Mathematik würde unsere moderne Welt nicht funktionieren. Ihre eisenharte Anwendung hat dazu geführt, dass wir Computer benutzen, Laserstrahlen erzeugen und zum Mond fliegen können. Bald wird der erste Quantencomputer anwendungsbereit sein.

Der erkenntnistheoretische Status der Mathematik ist deutlich von dem der Physik abgehoben. Auch diese macht reichlich Gebrauch von Formalismen, muss sie aber zusätzlich interpretieren und die Wirklichkeit erklären. Mathematische Beschreibung und Erklärung klaffen jedoch oft sehr weit auseinander, denn unsere Begriffswelt ist menschlich geprägt. So ist der Begriff „elektrische Ladung“ genau betrachtet ziemlich zweifelhaft. Er resultiert aus der Vorstellung, dass Körper, von denen elektrische Kräfte ausgehen, zuvor mit etwas „beladen“ worden seien. Doch wenn man einen Gegenstand elektrisch „lädt“, wird er nicht messbar schwerer oder leichter.

Denken wir auch an die sog. „Farbladung“ (Quantenchromodynamik), ein Begriff, der nur noch ein bildhaftes Abstraktum ist. Solche Modelle sind nicht die Wirklichkeit. Auch den Begriff „Aussehen“ gibt es nur in der mesokosmischen Welt, im Nanobereich besitzt er keine Bedeutung mehr. Und man weiß keineswegs, ob der Raum wirklich gekrümmt ist, wie die Allgemeine Relativitätstheorie behauptet. Aber bis heute ist keine physikalische Sicht der Welt bekannt, die überzeugender wäre als diejenige, sich den Raum „gekrümmt“ vorzustellen.

Physik hat keinen absoluten Wahrheitsanspruch. Ihre Hypothesen sind zwar experimentell äußerst gut bestätigt, müssen jedoch immer wieder kritisch hinterfragt und gegebenenfalls erweitert oder sogar ersetzt werden. Dagegen gilt ein gelungener mathematischer Beweis für immer. Dies ist der Grund, warum die Wissenschaftsdynamik der Mathematik wesentlich kumulativ ist.

Grenzen

Forscher erleben, dass sich „Ereignishorizonte“ der modernen Physik nicht überschreiten lassen. So verbergen sich Schwarze Löcher hinter einem Ereignishorizont – und das expandierende Universum können wir nur bis zur Hubble-Sphäre einsehen, weil die Lichtgeschwindigkeit endlich ist. Auch im Mikrokosmos gibt es Horizonte, etwa bei den Quarks, die in Ensembles gefangen sind. Schließlich definiert die Quantenphysik den wohl „spukhaftesten aller Horizonte“, die Grenze zwischen dem Wirklichen und dem Möglichen. Dort fange „Gott in der Tat an, zu würfeln“, schreibt der Physiker Helmut Salz.

Ob man auch mit der Mathematik an Grenzen stößt, ist eine interessante Frage. Zum Beispiel kommt man mit ihr bei dem Geheimnis des Materie-Antimaterie-Ungleichgewichts nicht weiter. Tatsächlich gibt es Wahrheiten, die sich einer mathematischen und logischen Beweisführung entziehen – dazu gehören sogar Aussagen, von denen man weiß, dass sie stimmen. Wahrheit ist etwas Umfassenderes als bloße Beweisbarkeit. Also kann auch die Mathematik keine letzte Antwort geben. „Man kann sogar sagen, dass fundamentale Fortschritte der Physik mit der Ablösung mathematischer Prinzipien durch nichtmathematische einhergeht.“ (Henning Genz)

Naturwissenschaftler unterschiedlichster Disziplinen sinnieren – trotz all der dramatischen Erkenntnisfortschritte ihres Metiers – vernehmlich über einen „unerklärbaren Rest„. Und sie nähren eine unbehagliche Ahnung: Auch wenn das letzte Gen kartiert, der längste Teilchenbeschleuniger gebaut, die größte Weltraumstation installiert sein wird, bleiben wesentliche Fragen offen. Quantenphysiker vertrauen zumindest in manchen Fällen darauf, dass man eine tiefere Ursache nicht nur nicht finden kann, sondern dass gar keine mehr da ist. „Ganz egal, welches Ding oder Ereignis wir betrachten, ob es ein materielles Objekt ist oder ein geistiges: Je mehr man nach dessen letzter Wirklichkeit sucht, desto mehr scheint es zu verschwinden. Es neigt dazu, seine Identität zu verlieren.“ (Geshe Thubten Jinpa, buddhistischer Philosoph)

Der Astronom Martin Rees bezweifelt, ob ein für die Verbesserung seiner Überlebenschancen in der Savanne optimiertes Gehirn überhaupt in der Lage wäre, die Komplexität von Kosmos, Leben und Geist vollständig zu erfassen. Der Reichtum einer vereinfachten, formalen Beschreibung, die das Bewusstsein mit seiner geringen Bandbreite aufnehmen kann, wird niemals groß genug sein, um die Vielfalt dessen wiederzugeben, was anders und außerhalb von uns ist. „Dort reicht das Auge nicht hin, die Sprache nicht, nicht der Geist. Wir wissen nicht, wir verstehen nicht, …“ (Upanischaden)

Quantengravitation, Stringtheorie, vereinheitlichte Theorien für die physikalischen Fundamentalkräfte, Supersymmetrie, Universen mit zusätzlichen Raumdimensionen, Multiversen – nichts garantiert, dass diese Hypothesen die Welt korrekt beschreiben. Sie besitzen keinerlei experimentelle Absicherung und wurden niemals konkret angewendet, und nur ein Verrückter würde es wagen, auf die Korrektheit ihrer Vorhersagen zu setzen. Und dennoch arbeiten seit Jahrzehnten Tausende von Forschern an solchen spekulativen Konstruktionen (wie etwa die Stringtheorie).

„Was uns beschäftigt ist nicht die Welt, deren Beschaffenheit eine ewiges Rätsel bleiben wird. Was uns vielmehr beschäftigt, das sind die Vorstellungen, die wir uns davon machen … Wir spüren nicht dem Universum nach, sondern dem Tanz, den es in uns anrichtet.“ (Der Physiker Timothy Ferris) Ein besonnener Standpunkt wäre, dass sich die Welt überhaupt nicht verstehen, wohl aber beschreiben lässt. (Bei einer Beschreibung fehlt etwas; es wurde Information aussortiert.)

Und trotzdem …

Wenn wir aber so weit davon entfernt sind, genug zu wissen, um auch nur annähernd die Welt zu verstehen, so folgt daraus unmittelbar – so wie die menschliche Natur einmal beschaffen ist -, dass wir auch keineswegs an die Grenzen der Erkenntnisbereitschaft, also unseres Wissensdranges, stoßen. Gerade die Einsicht in die Unzulänglichkeit aller Wissenschaft ist für Sokrates der Ausgangspunkt für alles weitere Streben nach wahrer Erkenntnis (Episteme). Der Zweifel und nicht die Gewissheit ist es, der uns weiterkommen lässt.

Die wissenschaftlichen Hypothesen sind gewiss spekulativ. Doch auch die heute etablierten Theorien waren einst spekulativ und ungesichert. Theoretische Spekulation unterscheidet sich aber vom Glauben darin, dass wir sie im Licht neuer Indizien und Entdeckungen modifizieren oder verwerfen können. Darin, dass Wissenschaft also über ihre eigenen Prämissen reflektieren und sie nötigenfalls korrigieren kann, zeigt sich ihr Vorteil gegenüber allen anderen Arten, sich der Wirklichkeit anzunähern.

Die Erkenntnisse der Wissenschaften sind oft unsere einzige Chance, die Welt tatsächlich besser zu verstehen. Wenn diese uns dann fremdartig erscheint, ist das nur ein Fehler unserer naiven Alltagstheorien. Kein anderes Wissen verdient so viel Vertrauen wie das der Naturwissenschaft. Diese ist nicht deshalb vertrauenswürdig, weil sie uns sagt, gewisse Dinge seien wahr, sondern weil ihre Antworten die besten sind, die wir besitzen. Das ist fast Definitionssache: Erscheint eine bessere Antwort, so ist eben die neue Antwort ab sofort die „wissenschaftlich aktuelle“.

Die Newton’sche Physik war bis zu Einstein synonym mit der Naturwissenschaft. Als dieser ein besseres Bild entdeckte, in dem der Raum gekrümmt, die Zeit nicht überall gleich ist und das Licht aus Photonen besteht, wurde deswegen die Newton’sche Lehre keineswegs als unwissenschaftlich oder gar falsch abgetan. Ganz im Gegenteil sind wir auch heute noch davon überzeugt, dass sie zu ihrer Zeit eine bemerkenswerte naturwissenschaftliche Theorie war.

Bislang wissen wir nur, dass das angepeilte Weltbild deutlich anders aussehen wird als unser bisheriges. Vielleicht ist eine ganz andere Art von Physik möglich. Zukünftige Entwicklungen werden jedenfalls alles, was bisher erreicht worden ist, weit hinter sich lassen. Unsere gegenwärtigen Beobachtungen erscheinen dann vielleicht ebenso kurios wie die Theorien der Vergangenheit uns heute anmuten.

Obwohl das Wissen der Wissenschaft also vorläufig und fehlbar ist, ist die Wissenschaft eine im Wesentlichen unabhängige Quelle unseres Wissens. Sie beschreibt, erklärt, etabliert, erweitert, kommuniziert und zeigt, wie die Dinge funktionieren. Antworten auf bestimmte Fragenkomplexe werfen wieder neue Fragen auf, auf die wir zuvor nie gekommen wären. Dabei ringen die Forscher laufend darum, uns von zahlreichen Vorurteilen zu befreien und bessere Weltsichten zu entwickeln, die korrekter und effizienter sind. Die Wissenschaft sucht nach dem Verlässlichen und versucht, menschlichen Glauben und Irrtümer auszuschließen.

Die Verteidigung des naturwissenschaftlichen Denkens dient heute der Verteidigung von Rationalität, Zweifel und Dialog – gegen die gefährlichen Gewissheiten von Irrationalismus und Fanatismus und gegen die Gewissheiten und die Arroganz der Macht. Dazu müssen wir rational mit den wissenschaftlichen Aussagen umgehen und sie gegen postmoderne Beliebigkeiten und zwielichtige Zweckentfremdungen (pseudogelehrte Phrasen) verteidigen! Übertragen auf Gesellschaftliches, Persönliches und selbst auf Teile der Medizin kann der naturwissenschaftliche Wahrheitsbegriff zur Ideologie geraten, der die menschliche Wirklichkeit leugnet. Die Folgen sind Denkverbote, Expertokratie und Verantwortungsscheu.

REM

Supernovae

Das Schicksal von Sternen hängt von einem Gleichgewicht der Kräfte ab. Sie bleiben stabil, solange der Druck von Gas und Strahlung aus dem Inneren den äußeren Schichten die Waage hält. Das erfordert zumeist, dass in ihren Zentren Kernfusionsreaktionen ablaufen, die Energie liefern. Die meisten Sterne wandeln dazu zunächst Wasserstoff in Helium um, wobei nukleare Bindungsenergie frei wird. Diese Fusion ist die langlebigste Energiequelle eines Sterns. Deswegen hängt dessen Lebensdauer davon ab, wie viel Wasserstoff zur Verfügung steht und wie schnell er verbraucht wird.

Ein Stern mit der zehnfachen Masse der Sonne strahlt im Vergleich zu ihr 10 000 Mal so hell, hat aber nur 1/1000 ihrer Lebenserwartung, nämlich nur 10 Millionen Jahre. Dagegen übersteigt die Lebensdauer für Sterne mit weniger als 0,8 Sonnenmassen das bisherige Alter des Universums. Auch welchen Endzustand der Kern eines Sterns erreicht und wie heftig dabei die verbleibende Hülle abgestoßen wird, hängt von der Masse des Sterns ab.

Supernovae

Ein Stern von 8 bis 10 Sonnenmassen, das sind 95% aller Sterne, bläht sich, wenn der Wasserstoff im Zentralbereich aufgebraucht ist, zu einem Roten Riesen auf und endet als Weißer Zwerg. Diese ausgebrannten Sternüberreste zeigen verschiedene Arten explosionsartiger Veränderungen („Novae„), wenn sie in einem Doppelsystem einem sonnenähnlichen Nachbarn wasserstoffhaltiges Gas absaugen. Es stürzt auf die Oberfläche des Zwergsterns und zündet dort Kernfusionsvorgänge, bei denen der Wasserstoff zu Helium verschmilzt. Die obere Schicht des Weißen Zwergs wird ins All gefeuert; der Stern selbst bleibt aber intakt. (Verfügt ein Weißer Zwerg über ein starkes Magnetfeld, kann das Material, das er an sich zieht, in die Polregionen geschleudert werden. Bleibt die thermonukleare Detonation auf diese beschränkt, spricht man von einer Mikronova, einem neu entdeckten Phänomen.)

Der Name „Nova“ stammt von Johannes Kepler, der 1604 ein sternartiges Objekt beobachtete, das plötzlich am Himmel erschien. Er schrieb darüber einen Bericht mit dem Titel „De Nova Stella“ („Über einen neuen Stern“).

Ein Stern von mehr als acht bis elf Sonnenmassen endet meist als Supernova, die wesentlich energiereicher ist als eine Nova und bei der in einer thermonuklearen Explosion der ganze Stern zerrissen wird. Übrig bleibt meist eine kompakte Leiche: ein Neutronenstern oder ein Schwarzes Loch.

Je größer ein Stern ist, umso höher sind Druck und Temperatur in seinem Inneren. Die Fusionsvorgänge laufen umso rascher ab, der Stern leuchtet sehr viel stärker. Bei Riesensternen erschöpft sich der Wasserstoff als Energiereservoir daher schon bald. Sterne von der acht- bis elffachen Sonnenmasse „ernähren“ sich beispielsweise nur einige Dutzend Millionen Jahre lang von Wasserstoff, dann höchstens wenige Millionen Jahre lang von Helium und maximal einige tausend Jahre von Kohlenstoff. Das darauf einsetzende Silizium-Brennen dauert bloß noch drei Wochen. Bei Eisen und Nickel bricht die Kernfusion ab, da ab einer Nukleonenzahl von ungefähr 60 bei der Fusion mehr Energie verbraucht als frei wird.

In einem Stern von der 25-fachen Sonnenmasse dauert das Wasserstoffbrennen nur sieben Millionen Jahre, das Heliumbrennen 500 000 Jahre. Das Kohlenstoffbrennen hält den Stern sogar nur für sechs Jahrhunderte heiß, das Neon danach nur für ein Jahr, Sauerstoff für sechs Monate, und die Umwandlung von Silizium in Eisen-56 läuft in einem Tag ab.

Die Folge der Brennvorgänge ist ein „Zwiebel-Stern“ mit konzentrierten Schalen, in denen sich von außen nach innen jeweils die „Asche“ der vorangegangenen Brennphasen anordnen, mit dicht gepacktem geschmolzenem Eisen als schwerstem Element im Zentrum.

Was weiter geschieht, hängt vor allem von der Masse des Eisenkerns ab, welche die Druck- und Temperaturverhältnisse bestimmt. Wächst der Eisenkern auf eine Masse von mehr als 1,4 Sonnenmassen, gibt es kein Halten mehr: Selbst das entartete Elektronengas hält dem Gravitationsdruck der äußeren Schichten nicht mehr stand, der Stern wird instabil und die äußeren Schichten stürzen gen Zentrum. Der Eisenkern kollabiert mit einem Viertel der Lichtgeschwindigkeit (75 000 km/s) in weniger als einer halben Sekunde.

Der Kollaps setzt so viel Energie frei, als würde unsere Sonne ihren auf 10 Milliarden Jahre ausgelegten Vorrat an fusionsfähigem Wasserstoff innerhalb nur weniger Sekunden verbrennen. Ein Großteil der Materie wird zusammengequetscht und vereint Protonen und Elektronen zu Neutronen. Damit steigt die Dichte des Kerns schlagartig um mehrere Größenordnungen, da Neutronen viel weniger Platz als das Plasma beanspruchen. In wenigen Sekunden schrumpft der Kern auf einen Durchmesser von ungefähr 10 bis 20 Kilometern. Da die Neutronen sich nicht mehr weiter zusammenpressen lassen (Entartungsdruck der Neutronen), setzt ein neuer Stabilisierungsmechanismus ein.

Das entstandene Gebilde wird als „Proto-Neutronenstern“ (Vorstufe eines Neutronensterns) bezeichnet – mit der unvorstellbaren Dichte von einer Milliarde Tonnen pro Kubikzentimeter. Für einen Sternrest von bis zu 3,2 Sonnenmassen stellt er den Endpunkt des Kollapses dar. Da sich die Materie nicht mehr weiter zusammenpressen lässt, kehrt sich die Implosionsrichtung um. Wie bei einer zusammengequetschten Feder, die jäh losgelassen wird, entweicht die geballte Implosionsenergie nach außen, wobei die gewaltige Stoßwelle die einstige Sternhülle vor sich herschiebt.

[Wenn ein Riesenstern am Ende eines Brennzyklus in sich zusammenfällt, dürfte er eigentlich nicht in einer Supernova münden. Zwar ballt sich im Inneren der Gaskugel rasch ein Neutronenstern zusammen, an dessen harter Oberfläche einfallende Materie abprallt. Aber da das Umfeld extrem dicht ist und immer weiter nach innen gezogen wird, sollte die nach außen rasende Schockwelle rasch erlahmen. Es käme nicht zu einer Supernova. Dass diese Sterne an ihrem Lebensende dennoch spektakulär explodieren, führen Astrophysiker auf Neutrinos zurück, die bei der Bildung von Neutronen freigesetzt werden. Ein ausreichend heftiger Neutrinopuls könnte also die Stoßwelle mit Energie versorgen und in höher liegende Schichten drängen und den Stern explodieren lassen. Die Sternexplosion könnte aber auch durch Schallwellen, über durch Magnetfelder angezapfte Rotationsenergie oder thermonukleares Brennen angetrieben werden. Der genaue Mechanismus ist noch nicht bekannt („Supernova-Problem„).]

Die Druckwelle der Explosion breitet sich jedenfalls in der Sternhülle mit Überschallgeschwindigkeit aus und hinterlässt ein Gemisch an frisch fusionierten Elementen, darunter Silizium, Kalzium, Eisen und radioaktive Isotope von Nickel, Kobalt und Titan. Innerhalb von Minuten wird der größte Teil des ehemaligen Sterns mit der Gewalt von zehn Wasserstoffbomben in den interstellaren Raum katapultiert. Der auftretende ungeheure Energieausstoß wird als plötzliches Aufleuchten des Sterns sichtbar, bis 5000 Lichtjahre entfernt noch zu sehen sein.

Die Wolke aus nuklearer Asche breitet sich mit der extrem hohen Geschwindigkeit von etwa 10 000 km/s weiter aus und wird im umgebenden Raum verteilt. Die Leuchtkraft des Feuerballs steigert sich noch etwa ein bis drei Wochen lang – angeregt durch den Zerfall instabiler schwerer Elemente (insbesondere radioaktivem Nickel), die bei der Explosion synthetisiert wurden -, bis die Strahlung ein Maximum erreicht (heller als eine ganze Galaxie) und dann über Monate hinweg langsam abfällt. Bei der Kollision mit dem Gas des interstellaren Raums wird auch hochenergetische Röntgen- und Gammastrahlung erzeugt. Selbst einige Jahrhunderte später ist um den Neutronenstern noch eine leuchtende Gashülle auszumachen, die sich beständig weiter ausdehnt.

Bei Riesensternen (mit mindestens dem 25-fachen der Sonnenmasse) kann der Eisenkern auf mehr als 3,2 Sonnenmassen anwachsen. Dann rettet kein quantenmechanischer Effekt die letzten verbliebenen Elementarteilchen vor der zermalmenden Wirkung der Gravitation. Sie gewinnt jetzt die Oberhand über alle Druckkräfte, die sich ihr entgegenstemmen könnten – sei es der thermonukleare Druck im Inneren des Sterns (infolge der Strahlung durch den Brennstoff des Sterns), die abstoßende Kraft zwischen den positiven Ladungen im Inneren der Atomkerne oder der „Fermi-Druck“ (Entartungsdruck) eines Gases entarteter Elektronen oder Neutronen. Die sehr massereichen, kurzlebigen Sterne, die bei ihrer Entstehung nur sehr wenige schwere Elemente enthalten, stürzen unter der Gewalt ihrer eigenen Schwerkraft zusammen. Ihre riesige Masse verdichtet sich auf einen kleinen Raum zu einem Schwarzen Loch. Die äußeren Schichten werden in einer brachialen Explosion abgesprengt. Viele Fragen dazu sind allerdings noch offen.

Arten von Supernovae

Die Astronomen unterscheiden diverse Arten von Sternexplosionen anhand der Eigenschaften ihres Spektrums. Manche Sternexplosionen sind hundertmal heller als gewöhnliche Supernovae, andere wiederum hundertmal schwächer. Einige erscheinen tiefrot, manche senden vor allem ultraviolette Strahlen aus. Eine ganze Reihe davon ist jahrelang sichtbar, andere verblassen innerhalb weniger Tage.

Heute geht man von mindestens zwei fundamental unterschiedliche Arten (Hauptklassen) von Supernovae aus. Bei einer „normalen“ Supernova (Kernkollaps-Supernova), die am häufigsten vorkommt, kollabiert der innerste Bereich eines Riesensterns, wie dargestellt, zu einem Neutronenstern oder sogar zu einem Schwarzen Loch. Dazu gehört z. B. der Supernova-Typ II, der sich vor allem in der Frühzeit des Universums ereignete. Bei den ersten Sternen dominierte Wasserstoff in den Spektren. Solche Supernovae spielten eine besonders wichtige Rolle bei der Anreicherung des Kosmos mit chemischen Elementen, die sich mit anderen Molekülen und Atomen im Lauf der Zeit zu Staubkörnern zusammenfanden. Diese Materie lieferte das Baumaterial zur Bildung neuer Sterne und Sonnensysteme.

Mehrere Unterarten der Kernkollaps-Supernovae unterscheiden sich dadurch, wie die abgestoßenen Hüllen mit der Umgebung und der ausgesandten Strahlung interagieren. Das wirkt sich auf die Lichtkurve aus, die wir auf der Erde messen. Bei einer Supernova beispielsweise vom Typ Ib hat der Stern zuvor seine äußere Hülle aus Wasserstoff durch Sternwinde oder durch den Einfluss eines nahen Begleitsterns verloren. Beim Typ Ic fehlt dem Stern zusätzlich die Heliumschicht. Beide kollabieren aber wahrscheinlich auch zu einem Neutronenstern oder eventuell sogar zu einem Schwarzen Loch.

Hypernova

Hypernovae stellen das obere Ende der superleuchtkräftigen oder superhellen Supernovae. Es gibt mehrere Typen. Der Begriff Hypernova wurde erstmals verwendet, um das heute als Paarinstabilitätssupernova bekannte Phänomen zu beschreiben. Dabei setzt bei sehr massereichen Sterne – von mehr als 100 oder sogar 150 Sonnenmassen – nach dem Kohlenstoffbrennen ein Prozess der Paarinstabilität ein: Energiereiche Photonen wandeln sich in Elektron-Positron-Paare um, was eine gravitative Instabilität auslöst. Je nach Masse wird dadurch der Stern entweder komplett zerrissen oder zu einem Schwarzen Loch.

Besonders starke Supernovae waren vermutlich im frühen Universum eher die Regel als die Ausnahme. Damals gab es besonders viele Riesensterne, die nur sehr wenige Elemente schwerer als Wasserstoff und Helium in ihren Hüllen hatten. Heute sind solche brachialen Explosionen massereicher Sterne sehr selten.

Bislang haben die Astronomen keinerlei schlüssige Erklärung für die extreme Helligkeit einer Hypernova. Nach einer Theorie würde die Rotationsenergie des Sternkerns die Supernova zusätzlich befeuern, indem ein Teil in magnetische Energie umgewandelt wird. Beim Kollaps eines Sterns verdichtet sich nicht nur die Materie, sondern es verdichten sich auch die Magnetfelder. Die dabei freiwerdende Energie zersprengt die Sternhülle und erzeugt zwei gebündelte Jets, die sich fast lichtschnell längs der Rotationsachse des Schwarzen Loches ausbreiten. Sie bohren sich förmlich durch die nachstürzenden Materieschichten und erzeugen weit außerhalb Gammastrahlungsblitze (Gamma Ray Bursts), die zwischen 2 und 1000 Sekunden aufleuchten (lange Gamma-Blitze).

Gammastrahlen-Ausbrüche sind wahrscheinlich die energiereichsten Phänomene, die wir im Universum beobachten. Sie entstehen erst bei Temperaturen von Milliarden Grad und setzen innerhalb einer kurzen Zeitspanne mehr Energie frei als unsere Sonne in Milliarden Jahren. Der genaue Mechanismus für die Erzeugung der Gammablitze ist bisher aber nicht entschlüsselt.

[2009 wurde ein Gammablitz von etwa 10 Sekunden registriert, der sich vor mehr als dreizehn Milliarden Jahren ereignete, als das Universum erst 630 Millionen Jahre alt war. Ursache war vermutlich der Kollaps eines sehr massereichen Sterns. Es war der älteste und fernste je beobachtete Gammastrahlungsblitz. Der hellste je gemessene Gammastrahlenausbruch war GRB221009 und stammt aus rund zwei Milliarden Lichtjahren Entfernung. Er traf am 9. Oktober 2022 die Erde und fegte über Asien, Afrika und Europa hinweg. Auf den Boden schaffte es die energiereiche Strahlung nicht, doch in 300 bis 500 Kilometern Höhe löste sie ein elektromagnetisches Beben aus, das mehrere Stunden messbar blieb. Theoretisch sollte nur alle 10 000 Jahre ein derart energiereicher Ausbruch in so kurzer Distanz zur Erde auftauchen.]

Thermonukleare Explosionen

Viele der hellsten Supernovae sind hingegen thermonukleare Explosionen von Weißen Zwergsternen (Typ Ia). Sie entstehen ausschließlich in engen Doppelsternsystemen. Nach dem klassischen Szenario ist eine der Komponenten ein relativ massearmer Riesenstern, der andere eben ein Weißer Zwerg. Wenn dieser nun über durchschnittlich eine Milliarde Jahre lang gelegentlich Gas von seinem Begleitstern abzieht, kann bei Überschreitung der kritischen Stabilitätsgrenze von ca. 1,4 Sonnenmassen eine plötzliche Fusionsreaktion einsetzen, die einen Großteil des Zwergs erfasst und ihn in einer sehr hellen Supernova-Explosion rückstandslos zerreißt. Da die Helligkeit dabei meist einen bestimmten Wert hat, wird diese auch als Standardkerze zur Entfernungsbestimmung im Weltraum genutzt.

Inzwischen weiß man, dass nur ein kleiner Teil der Ia-Supernovae nach dem klassischen Schema abläuft. Nach Schätzungen könnten bis zu 80% der Supernovae vom Typ Ia auf Doppelsysteme mit zwei Weißen Zwergen zurückgehen, die sich umkreisen. Der Paartanz kostet Energie (Abstrahlung von Gravitationswellen), die beiden Objekte kommen sich immer näher und verschmelzen schließlich. Dabei bringen sie schlagartig eine viel größere Masse zusammen (mindestens aber rund 1,4 Sonnenmassen) und explodieren in einer entsprechend heftigen Supernova.

Im Mittel leuchtet in jeder größeren Galaxie nur etwa alle 300 Jahre eine Supernova des Typs Ia auf (in der Milchstraße nur etwa fünfmal pro Jahrtausend). Sie ist also sehr selten und man muss lange warten, bis sich in einer bestimmten Galaxie solch eine Explosion ereignet. Insgesamt enthält das Universum aber so viele Galaxien, dass alle paar Sekunden eine von der Erde aus beobachtbare Supernova des Typs Ia zündet – die Himmelsforscher müssen sie nur entdecken.

Supernovae vom Typ Iax sind seltene Sternexplosionen, bei denen ein Weißer Zwerg schwach explodiert. Sie fallen weniger hell aus als die Supernovae vom Typ Ia, und ihre Materie wird mit geringeren Geschwindigkeiten und einer anderen chemischen Zusammensetzung (viel Nickel und Mangan) davongeschleudert. Möglicherweise kommt bei einer Supernova dieses Typs auch eine thermonukleare Kettenreaktion auf der Oberfläche eines Weißen Zwergs vorzeitig in Gang. Saugen Sternleichen nämlich sehr langsam Masse von einem Nachbarn auf, kann sich auf der Oberfläche des Zwergs Helium sammeln und dort eine kleinere Explosion, eine vorzeitige Supernova mit geringerer Leuchtkraft, zünden. Die Brennfront würde sich in diesem Fall langsamer ausbreiten und womöglich nur einen Teil des Zwergs zerreißen.

In Grenzbereichen mittelschwerer Sterne (8 bis 10 Sonnenmassen) gibt es einen anderen Explosionsmechanismus. Hier ist der Druck im Sternzentrum zu gering, um Eisen zu erzeugen. Solche Sterne können deshalb nicht den typischen Weg schwerer Sterne gehen, sondern ihre Fusionsreaktionen hören bei Elementen wie Neon, Sauerstoff und Magnesium auf. Der Kern wird dann durch durch die Abstoßungskräfte freier Elektronen (Entartungsdruck der Elektronen) stabilisiert. Wird das Sternzentrum später aber heiß und dicht genug, werden die Elektronen von den Neon- und Magnesium-Atomkernen eingefangen, wobei sich Protonen in Neutronen verwandeln. Dabei verringert sich die Zahl der Elektronen immer mehr und der Druck im Sternzentrum steigt, bis es zum Kernkollaps kommt und – angeheizt durch die dabei freiwerdenden Neutrinos – zur Supernova, bei der die Hülle des Sterns abgesprengt wird und ein Neutronenstern übrig bleibt. (Also kann ein Stern auch dann zu einem Neutronenstern zusammenstürzen, wenn er vorher kein Eisen in seinem Zentrum erzeugt hat.)

Dieser Supernova-Typ heißt Elektronen-Einfang-Supernova. Sie leuchtet relativ schwach und es werden vergleichsweise wenige radioaktive Elemente ins All geschleudert. Außerdem weist sie eine ungewöhnliche Mischung von Elementen auf.

Der Krebsnebel soll aus einer solchen Elektronen-Einfang-Supernova hervorgegangen sein. Für diesen eher leuchtschwachen Typ wäre die Sternexplosion von 1054 allerdings recht hell gewesen. Das erklären die Forscher dadurch, dass der Vorgängerstern vor seinem Ableben große Mengen an Gas ausgestoßen hat, das von der Supernova zusätzlich zum Leuchten angeregt wurde.

Kilonova

Am unteren Ende des Helligkeitsspektrums finden sich auch besonders unspektakuläre Sternexplosionen, die 100-mal schwächer leuchten als gewöhnliche Supernovae.

Auch massereiche Sterne entstehen häufig als sich gegenseitig umkreisende Paare. Die einzelnen Objekte explodieren dann nacheinander als Supernova. Wenn das Paar dabei nicht auseinanderfliegt, bleibt ein Doppelsystem zurück; entweder zwei Neutronensterne, ein Neutronenstern und ein Schwarzes Loch oder zwei Schwarze Löcher. In einem Doppel-Neutronensternsystem findet kein Materieaustausch mehr statt, aber Gravitationswellen werden abgestrahlt. Dadurch verliert das System an Bahnenergie und die beiden Körper nähern sich langsam auf einer Spiralbahn einander an, bis sie kollidieren und verschmelzen Dies verläuft gemächlicher als der Zusammenstoß von Schwarzen Löchern. Das Raumzeitbeben währt mehrere Minuten statt nur einiger Dutzend Millisekunden. Übrig bleibt ein Schwarzes Loch, aber es könnte auch ein kompakter Neutronenstern mit einem enormen Magnetfeld – ein Magnetar – entstehen.

Der Startschuss für das Spektakel, das über Wochen große Mengen an Strahlung freisetzt, deren Wellenlängen sich fast über das gesamte elektromagnetische Spektrum erstrecken, sind kurze Gammablitze. Eine Blase glühender Materie breitet sich (anfangs mit einem Fünftel der Lichtgeschwindigkeit) in den umgebenden Raum aus. Diese Explosionswolke besitzt zwar die tausendfache Helligkeit einer gewöhnlichen Nova, reicht aber nicht an die einer Supernova heran, weswegen Astronomen von einer Kilonova sprechen. Prallt die expandierende Wolke auf das interstellare Medium in der Umgebung, entsteht Röntgen- und Radiostrahlung.

Hinsichtlich vieler Aspekte ist aber noch offen, wie das Material ausgeworfen wird, woraus es besteht und wie sich eine Kilonova genau entwickelt. Vermutlich kommen Kilonovas in vielerlei Gestalt vor. In der gesamten Milchstraße existieren derzeit nach Schätzungen der Forscher nur etwa 10 Vorläufer einer künftigen Kilonova. Dennoch haben sie große Bedeutung für die Evolution des Universums, weil sie vermutlich die Hauptquellen für besonders schwere Elemente sind.

Supernovae – historisch

Moderne Sternkarten verzeichnen mehrere hundert Supernovae, die in der jüngeren Menschheitsgeschichte registriert wurden. Der Stern von Bethlehem war die Supernova, die im Jahre 6 v. Chr. beobachtet wurde. Im Jahr 183 n. Chr. beobachteten ebenfalls chinesische Astronomen eine grelle Explosion im Sternbild Centaurus. 1006 und 1054 beschreiben chinesische Hofastronomen weitere Supernova-Explosionen. Der berühmte Sternkundler Tycho Brahe beschrieb 1572 eine Supernova in der Konstellation Cassiopeia; sie war sogar über Tage sichtbar. Dabei handelte es sich um eine Supernova vom Typ Ia. („Cassiopeia A“, die nach der Sonne stärkste Radioquelle am Himmel, ist das Relikt dieser Supernova-Explosion).

Eine länger anhaltende Supernova, wie sie Kepler 1604 beobachtete, wurde erst am 24. Februar 1987 wieder in der Großen Magellanschen Wolke entdeckt. Damals explodierte ein Blauer Überriese in 160 000 Lichtjahren Entfernung, bis heute die erdnächste Supernova seit 1604.

Schon einige Stunden vor dem Helligkeitsanstieg registrierten Detektoren Neutrinos, die aus der innersten Stoßwelle emittiert wurden. Noch Monate nach der Explosion strahlte die Supernova-Hülle so hell, dass sie mit bloßem Auge zu sehen war. Beobachtungen und Untersuchungen lassen darauf schließen, dass Sanduleak -69°202, der 1986 als Stern mit 20 Sonnenmassen identifiziert wurde, ehemals ein Roter Riese war, der vor der Supernova-Explosion allerdings bereits seine äußere Wasserstoffhülle weitgehend abgestoßen hatte. Als sich die Explosion ereignete, lebten unsere Vorfahren noch in der Steinzeit.

Seit der Geburt unserer Sonne hat die Milchstraße einige hundert Millionen Supernova-Explosionen erlitten. Da wir nicht jeden Stern in unserer Milchstraße sehen können, ist es leicht möglich, dass einige Supernovae heute in der Milchstraße explodieren, ohne von irdischen Astronomen wahrgenommen zu werden. Statistisch müsste es in unserer Galaxie eine Supernova etwa alle 70 Jahre geben.

Es gibt überzeugende Beweise, dass die Erde einige Male relativ nahen Supernova-Explosionen ausgesetzt war – z. B. vor rund 2,5 bzw. 7 Millionen Jahren. Sie waren aber wohl noch weit genug entfernt, so dass sie keinen signifikanten Einfluss auf das Erdklima oder größere Auswirkungen auf die Erdatmosphäre hatten. Vor fünf Millionen Jahren soll dagegen in höchstens 100 Lichtjahren Entfernung von unserem Heimatplaneten eine Supernova explodiert sein. Darauf deutet eine Schicht in der Erdkruste hin, die eine tausendmal größere Konzentration des radioaktiven Eisen-60 enthält als natürlicherweise. Die Supernova leuchtete damals hundertmal heller als der Mond. Möglicherweise hatte sie sogar Auswirkungen auf das Klima. Man weiß heute, dass es auch vor rund 40 000 Jahren zu einer Supernova in Erdnähe (im Abstand von 400 Lichtjahren) kam. Die Explosion hatte zur Folge, dass die Nächte auf unserem Globus über lange Zeit hinweg mehr als doppelt so hell waren wie bei Vollmond.

Die Astronomen träumen heute davon, endlich eine erdnahe Supernova im Umkreis von einigen 10 000 Lichtjahren zu erleben. Einer der bisher erkannten Kandidaten ist Eta Carinae, eines der hellsten Objekte am Südhimmel, 8000 Lichtjahre von uns entfernt. Er befindet sich im Zentrum des Carina-Nebels, einer großen Sternentstehungsregion, in der über 100 heiße Riesensterne leuchten. Sein finales Verglühen als Supernova soll „in absehbarer Zeit“ bevorstehen. Aber niemand kann zuverlässig vorhersagen, ob wir eine neue Sternexplosion in ein paar Jahrhunderten, in wenigen Jahren oder schon morgen registrieren können. Mit Sicherheit ist die von den Forschern erwartete Supernova schon längst explodiert. Die Nachricht von Sterntod hat uns nur noch nicht erreicht.

Je nach Entfernung würde eine nahe Supernova womöglich nicht nur Grund zur Freude bieten. Richtig ungemütlich würde es bei einem Abstand von bis zu 30 Lichtjahren werden. Jahre nach der Explosion würde der Nachthimmel plötzlich taghell, wenig später würde die Erde einem verstärkten Strom elektromagnetischer Strahlung, insbesondere harter UV-, Röntgen- und Gammastrahlen, ausgesetzt sein. Später würde ein Schwarm schneller Teilchen, überwiegend Wasserstoffkerne (Protonen), ankommen. Das würde vermutlich zu einem Anstieg des Stickoxidgehalts führen, was einen Ozon-Abbau zur Folge hätte. Kurzwellige UV-Strahlung könnte vermutlich mehrere Jahrhunderte lang bis zum Erdboden vordringen.

REM

Entwicklungsphasen des Gehirns

Das Gehirn, diese kleine unscheinbare Masse von durchschnittlich 1300 Gramm Gewicht, ist nach allem, was wir wissen, das Zentrum und die Schaltzentrale eines Menschen. Mit seiner Hilfe denkt er über die Welt nach, sehnt sich manchmal aus der Welt hinaus und bleibt doch stets mit der Welt verbunden. Auch wenn das Gehirn deterministisch funktioniert, ist es in seiner Komplexität niemals vollständig versteh- und beschreibbar.

Dieses unser Zentralorgan beginnt sich schon sehr früh im Laufe unserer Individual-entwicklung herauszubilden. Sehr vieles entwickelt sich in selbstorganisierender Weise, das heißt, durch lokale Interaktionen von Nervengeweben und einzelnen Neuronen und aufgrund sehr einfacher, genetisch vorgegebenen Regeln. Die Gene bestimmen auch, wie sich Umwelteinflüsse auswirken, und die Umwelt sorgt dafür, dass bestimmte wichtige Gene überhaupt erst zum Zug kommen. Dieses Wechselspiel von genetischen und umweltbedingten Einflüssen ist in allen Altersphasen von Bedeutung. (Es gibt Hinweise, dass die Ausmaße der größten Hirnabschnitte einer stärkeren genetischen Kontrolle unterliegen als die kleinen, die vermutlich eher von Umweltfaktoren geprägt sind.)

In der embryonalen Frühphase der Hirnentwicklung wird ein Überangebot an Nervenzellen produziert. Bis zur 19. Woche sind schon alle wichtigen Hirnstrukturen anatomisch angelegt. Ein Hormoncocktail wirkt lenkend auf Organisation und Verdrahtung des sich entwickelnden Organs und beeinflusst die Struktur und Neuronendichte in den verschiedenen Bereichen. So formt sich in der zweiten Schwangerschaftshälfte nach Abschluss der Entwicklung der Geschlechtsorgane ein mehr oder weniger typisches männliches oder weibliches Gehirn. Hormonelle Schwankungen können während der Schwangerschaft allerdings Geschlechtsorgane und Gehirn – unabhängig voneinander – beeinflussen.

Bis in den sechsten Monat hinein ist die Hirnoberfläche noch ziemlich glatt. Erst später beginnt sie sich zu falten und furchen. Damit dies korrekt geschieht, ist das Zusammenspiel zahlreicher genetischer, chemischer und mechanischer Faktoren erforderlich. Erst zum Zeitpunkt der Geburt besitzt die Großhirnrinde (Kortex) in etwa seine endgültigen Windungen.

Weil die Hirnrinde wächst, geraten die Nervenfasern zunehmend unter Spannung. Dadurch üben die Fasern Zugkräfte aus. Kortexbereiche, zwischen denen sich viele Kräfte bündeln, werden zueinander gezogen. So entstehen Aufwölbungen (Gyri). Wo die Zugkräfte schwächer sind, bilden sich Einschnitte oder Furchen (Sulci). Auch die Dicke der einzelnen Kortexschichten und selbst ihre innere Struktur werden offenbar durch strukturierende mechanische Kräfte beeinflusst.

Viel zu zahlreich und zunächst wahrscheinlich ungeordnet und chaotisch werden die ersten Verknüpfungen zwischen den Neuronen angelegt. In den letzten Entwicklungsmonaten aber sammelt der Fötus bereits erste Erfahrungen und verankert sie in seinem Gehirn. Er sieht, hört, schmeckt und riecht bereits und beginnt, seinen Körper zu entdecken. Es entsteht die erste „Landkarte“ des kleinen Körpers im Gehirn. Zudem übt der Fötus schon Fähigkeiten ein, obwohl er sie im Uterus überhaupt nicht braucht – aber gleich danach: atmen, schlucken, grinsen oder weinen, freundlich lächeln, gähnen und den richtigen Gebrauch von Armen und Beinen.

Die Erfahrungen vor der Geburt wirken sich offenbar auch auf die Chemie im Gehirn und die spätere psychische Verfassung aus. Wie prägend diese Phase im Mutterleib ist, macht sich häufig erst dann bemerkbar, wenn etwas schief geht, z. B. bei Tabletten- oder Alkoholmissbrauch der Mutter. Die Kinder tun sich dann oft schwerer als ihre Altersgenossen, logisch und abstrakt zu denken. Auch andere negative Einflüsse – wie Stress der Mutter – können die Entwicklung der neuronalen Verarbeitung bremsen.

Kindheit

Bei der Geburt wiegt das Gehirn ungefähr 300 bis 400 Gramm, das Volumen macht etwa 25% des Hirnvolumens eines Erwachsenen aus (nach dem ersten Lebensjahr schon etwa 50%). In den ersten drei bis vier Lebensjahren wächst das Gehirn der Kinder auf rund 2/3 seines endgültigen Volumens an. In dieser Zeit nimmt seine Komplexität schneller zu als es je wieder der Fall sein wird. Einige Bereiche sind noch nicht voll funktionstüchtig, darunter Teile des Stirnhirns. Hippocampus und Amygdala in der Tiefe des Schläfenlappens sind jetzt aber schon bereit, Erinnerungen im Langzeitgedächtnis zu speichern.

Die Anzahl der Nervenzellen steigt nach der Geburt nur noch in relativ geringem Maße an, doch gehen Formveränderungen während des ganzen Lebens weiter. Das Nervenzellgeflecht erstreckt sich zum Zeitpunkt der Geburt bereits über viele hundert Kilometer und verbindet die Nervenzellen in einem vorläufigen Grundmuster miteinander. Außer seinen vorgeburtlichen Erfahrungen bringt der Mensch auch angeborenes Wissen und genetisch festgelegte interne Bewertungssysteme mit auf die Welt. Sie erleichtern ihm, neuronale Strukturen aufzubauen, mit denen er die Welt erfassen und rekonstruieren kann. Der Säugling ist also keineswegs ein unbeschriebenes Blatt, wenn er auf die Welt kommt – im Gegenteil. Die meisten neuronalen Schaltkreise (wie die für Sehen, Greifen, Fühlen) brauchen aber noch eine Weile, um ihre volle Funktionsfähigkeit zu erlangen.

In den ersten Monaten nach der Geburt schießt das Gehirn weit übers Ziel hinaus: Viele Nervenfortsätze sprießen und knüpfen mehr Kontakte, als später im Leben je gebraucht werden. Bis zum sechsten Lebensjahr dauert das ausufernde Wachstum der Axone und Dendritenbäume. Dann wird das Anwachsen der synaptischen Verdrahtung eingeschränkt, und bereits geknüpfte Verbindungen werden bis zur Pubertät teilweise zurückgeschnitten – was auch als „pruning“ (engl. für „Bäume beschneiden“) bekannt ist. Vor allem die neuronalen Verbindungen, die wenig aktiviert werden, bilden sich zurück und verschwinden. Es bleiben nur diejenigen erhalten und verfestigen sich, die sich nach Bedarf und Anregung als offensichtlich „sinnvoll“ erwiesen haben. Dieser wichtige selbstorganisierende Mechanismus ermöglicht später individuelle Unterschiede und Vielfalt.

Der Abbau von Verbindungen kennzeichnet längerfristig eine gesunde Gehirnreifung. Zu dichte Kommunikationsnetze bergen nämlich Probleme: Die Signale können sich hier schnell in die Quere kommen und gegenseitig stören. Wird die neuronale Infrastruktur dagegen an den falschen Stellen oder zu stark beschnitten, sind Dis – oder Hypokonnektivität (gestörte oder fehlende Verbindungen) die Folge, wodurch die Entwicklung des Sozialverhaltens beeinträchtigt werden kann.

Umwelteinflüsse

Das kindliche Gehirn wird über eine Reihe von Schritten aufgebaut, die normalerweise in der richtigen Reihenfolge auftreten. Dazu existieren frühe Zeitfenster für grundlegende Reifungsprozesse, bei denen in bestimmten monate- oder gar jahrelangen Phasen intensiver Entwicklung die entscheidenden Nervenverbindungen geschaltet werden. Die meisten dieser sensiblen (kritischen) Phasen treten in der frühen Kindheit auf, einige sogar erst in der Adoleszenz, der Lebensphase zwischen Kindheit und Erwachsenenalter.

Eine sensible Phase zeichnet sich durch eine gesteigerte neuronale Plastizität aus. In einem kritischen Zeitfenster machen neurochemische Veränderungen bestimmte Teile des Gehirns besonders aufnahmebereit. Durch bestimmte Umwelteinflüsse (Erfahrungen) können dann neuronale Schaltkreise besonders leicht geformt bzw. grundlegend verändert werden. Manche wichtige Fähigkeiten (Kompetenzen) entwickeln sich tatsächlich nur oder zumindest besonders leicht in diesen engen Zeitfenstern, später dagegen nicht mehr oder nur noch unvollständig. Es sind z. B. „kritische Perioden“ in den ersten zwei bis drei Lebensjahren für die Ausbildung des Seh- und Hörsinns gut belegt. Aber es existieren auch „kritische Perioden“ für Motorik, Sprache und verschiedene Formen sozialer Interaktion. Die sensiblen Phasen für Sprache und höhere Kognition (logisches Schlussfolgern, Lesen und Rechnen, planvolles Denken) beginnen spät und enden nie ganz.

Binnen weniger Monate oder Jahre schließen sich die Entwicklungsfenster eins nach dem anderen, und die Empfänglichkeit für fördernde Eindrücke gehen deutlich zurück, so dass es schwer, wenn nicht gar unmöglich wird, in dem jeweiligen Bereich noch Neues zu lernen. Neue Forschungen weisen allerdings darauf hin, dass Entwicklungsfenster durchaus auch wieder aufgestoßen werden können.

[Mehrsprachigkeit

Sieben Monate alte Kinder verarbeiten Muttersprache und Fremdsprache gleich. Sie verfügen noch über eine universale Lautwahrnehmung, d. h., sie sind in der Lage, fast alle der rund 800 auf der Welt existierenden Sprachlaute zu unterscheiden. Danach verlieren sie diese Fähigkeit zu Gunsten einer deutlicheren Wahrnehmung muttersprachlicher Phoneme. Um eine andere Sprache ebenso wie die Muttersprache zu lernen, schließt das Zeitfenster zwischen vier und sechs Jahren. Bleibt die entscheidende Lebensphase bis dahin ungenutzt, kann das Gehirn Feinheiten in Grammatik, Betonung oder Aussprache in der Regel nicht mehr so erfassen wie in der Muttersprache.

(Auch die Probleme, die viele Menschen mit moderner Musik haben, und die Gewöhnungsschwierigkeiten an fremde Musikkulturen könnten darauf beruhen, dass die ungewohnten Melodien, Rhythmen und Strukturen das Gehirn in seinem Versuch irritieren, gewohnte Organisationsmuster zu finden.)]

Besonders prägend für die Hirnentwicklung sind also die ersten Lebensjahre. Mit einer Vielfalt sinnlicher Erfahrungen werden Kinder beweglich an Körper und Geist. Je mehr Erfahrungen und Eindrücke gesammelt werden, je mehr ein Kind geistig gefordert und gefördert wird, umso stärker vernetzen sich die Nervenzellen, die Grundvoraussetzung für menschliche Intelligenz. Auch soziale Erfahrungen in der frühen Kindheit wirken sich tiefgreifend auf die Hirnentwicklung aus. Bei Kindern, die in prekären Familienverhältnissen aufwachsen, hinterlassen die vielen Belastungen sichtbare Spuren im Gehirn. Fehlende Zuneigung oder schwerer Stress können die Reifung von Gehirnzellen ausbremsen und die lernenden Zentren des Gehirns beeinträchtigen.

Bei Heimkindern wurden weniger Neurone und andere Hirnzellen sowie weniger Nervenzell-verbindungen festgestellt. Zudem waren beispielsweise die reizleitenden Axone im Schnitt dünner, und manche Verknüpfungen zwischen den Hirnarealen wiesen unnatürlich Muster auf. Im Großen und Ganzen behielten Heimkinder in den Untersuchungen auch ein geringeres Hirnvolumen als ihre „normal“ aufgewachsenen Altersgenossen. Bei jenen Kindern, die mit vier Jahren in einer stimulierenden Familie lebten, war der Kortex dagegen in manchen Bereichen dicker.

Frühe Misshandlungen können die Entwicklung des kindlichen Gehirns so stark beeinträchtigen, dass dauerhafte Schäden in seiner Struktur und Funktion zurückbleiben. Die Folgen treten in jedem beliebigen Alter und auf unterschiedlichste Weise zutage: Innerlich als Depression, Angst, Selbstmordgedanken oder als posttraumatische Belastungsstörung, nach außen als Angriffslust, Erregbarkeit, Straffälligkeit, Überaktivität oder Drogenmissbrauch. Ein mit früher Misshandlung eng verbundenes psychiatrisches Erscheinungsbild ist die Borderline-Persönlichkeitsstörung.

Ab dem sechsten Lebensjahr sprießen unzählige neue Verbindungen zwischen den Nervenzellen. Die Synapsenwucherung erreicht ihren Höhepunkt zum Beginn der Pubertät, bei Mädchen mit ungefähr 10 bis 11 Jahren, bei Jungen etwas später. Spätestens um diese Zeit hat unser Gehirn annähernd seine volle Größe erreicht, etwa 95% des Erwachsenengehirns.

Pubertät

Hunderte bis mehr als 1000 genetische Varianten haben einen Einfluss darauf, wann die Pubertät, also die Reifezeit vom Kind zum Erwachsenen, einsetzt. Manche wirken sich direkt auf den Beginn der Pubertät aus, andere indirekt. Unter Letzteren sind genetische Faktoren, die die Gewichtszunahme in der Kindheit fördern. Die Ernährung bestimmt also mit, zu welchem Zeitpunkt die Pubertät ausgelöst wird.

Als das Pubertät auslösende Gen gilt KiSS1, welches das Peptidhormon Kisspeptin kodiert. Dieses aktiviert die Nervenzellen und setzt eine Hormonkaskade in Gang – die Pubertät beginnt. Damit das Gen für Kisspeptin aber erst aktiv werden kann, muss der Körper über genügend Fettreserven verfügen.

Üblicherweise bekommen Mädchen ihre erste Regelblutung zwischen dem 10. und 15. Lebensjahr. Seit einigen Jahrzehnten aber setzt die Pubertät tendenziell immer früher ein. Als einer der Gründe gilt eine bessere, reichhaltigere Ernährung, oftmals verbunden mit einem Übergewicht der Jugendlichen. Im Fettgewebe, das Mädchen von Natur aus leichter aufbauen als Jungen, entsteht der Botenstoff Leptin, der die Pubertät vorantreibt. (Bei Sportlerinnen, die nur über geringe Fettreserven verfügen, findet man oft einen verspäteten Pubertätsbeginn.)

Für einen frühen Pubertätsbeginn spielen auch andere Umweltfaktoren wie beispielsweise Stress oder Giftstoffe eine Rolle. Kunststoffpartikel, vor allem sogenannte Bisphenole, stehen im Verdacht, die sexuelle Reife zu beschleunigen. Sie stecken etwa in Getränken oder in Lebensmitteln aus Konservendosen und wirken wie Östrogene. (Östrogene steuern bei Mädchen und Jungen die Entwicklung der Keimdrüsen in der Pubertät und stoßen Umstrukturierungen im Gehirn an.) Wenn die Pubertät zu früh einsetzt, kann die Psyche oft nicht mithalten. Außerdem erhöht eine besonders zeitige Geschlechtsreife das Risiko für verschiedene Krankheiten, darunter Fettleibigkeit, Diabetes Typ II, Herz-Kreislauf-Komplikationen und manche Krebsarten.

Exakt zu dem Zeitpunkt, zu dem die körperlichen Veränderungen (Wachstumsschub und radikale Änderung der Proportionen) einsetzen – also mit dem Beginn der Pubertät – durchläuft auch das Gehirn noch einmal einen drastischen Wachstums- und Reorganisationsschub, der jenem im Embryo und Babyalter ähnelt. Unter der scheinbar ruhigen Oberfläche gleicht das pubertierende Denkorgan einer permanenten Großbaustelle. Während einige Bereiche wachsen, schrumpfen andere oder werden komplett neu organisiert. In verschiedenen Arealen der Großhirnrinde laufen die Umbauvorgänge unterschiedlich schnell und in jeweils fester zeitlicher Reihenfolge ab. So wird das Gehirn der Jugendlichen von hinten nach vorne umgekrempelt.

Es entwickeln sich zunächst viele neue Verbindungen. Aber schon kurze Zeit später werden Milliarden von Zellen und Kontaktstellen im gesamten Gehirn eliminiert. So wird die neuronale Hardware mehr und mehr zurechtgestutzt, nutzlose Verbindungen gekappt, die bewährten dagegen ausgebaut und verstärkt. Darüber verbessert sich die neuronale Feinabstimmung und damit kognitive Fähigkeiten – etwa von Gedächtnis und Lesefähigkeit, aber auch Sprachkompetenz – dramatisch.

Einen Wachstumsschub erfährt auch das limbische System – ein Verbund von Hirnarealen, die auf Emotionen, Neuheit und Bedrohung reagieren. Während sich das „besonnene“ Stirnhirn für die Reifung Zeit lässt, gehen zu Beginn der Adoleszenz den zentralen Teilen des neuronalen Belohnungssystems etwa 30% der Rezeptoren für Dopamin (dem „Glückshormon“) verloren. Viele Situationen, die Jugendliche vorher noch als glücklich und aufregend empfunden haben (wie ein gemeinsamer Ausflug mit den Eltern oder gewohnte kindliche Beschäftigungen), erscheinen jetzt als total langweilig und öden die Jugendlichen nur noch an. Aufregung dagegen erhöht die Dopaminausschüttung und damit das Glücksgefühl. Die Folge kann ein gesteigerter Drang nach Neuem, nach Sensationen sein, aber auch danach, etwas Verbotenes oder Riskantes zu tun – die Kontrollinstanz im Gehirn, der Stirnlappen, ist ja wegen Umbaus nur eingeschränkt in Betrieb. Ohne eine kräftige Dosis Langeweile auf der einen Seite und Risikofreude auf der anderen würden die Heranwachsenden kaum je der heimischen Nestwärme den Rücken kehren.

Das Ungleichgewicht der Hirnareale erklärt also die jugendliche Impulsivität ebenso wie ihre Risikobereitschaft, aber auch ihre Sensibilität für soziale Belohnungen und das Lernen. Der Umbau des Belohnungssystems ermöglicht es den Jugendlichen, Erfahrungen zu sammeln, die sie erst zu Erwachsenen machen. Dabei sind die Heranwachsenden kreativ, leidenschaftlich und bereit für Veränderungen. Indem sie ihr Geschick und Talent herausfordern, testen sie Grenzen aus. So lernen sie, sich zu bewähren. Jugendliche, die sich in Maßen auf Risiken einlassen, sind später sozial kompetenter als diejenigen, die Herausforderungen ständig aus dem Weg gehen.

Auch die innere Uhr durchläuft eine Phase der Reorganisation. Weil die Zirbeldrüse im Zwischenhirn das „Schlafhormon“ Melatonin mit bis zu zwei Stunden Verspätung ausschüttet, werden Jugendliche in der Pubertät später müde als Kinder und Erwachsene. Da das Melatonin aber auch erst zwei Stunden später abgebaut ist, kommen viele Jugendliche morgens schwerer aus den Betten.

Der Stirnlappen im Großhirn ist der letzte große Bereich, der seine endgültige Struktur und Funktion ausbildet. Bis zum Alter von 16 bis 18 Jahren ist er massiven Veränderungen unterworfen, die sich sogar bis zum Alter von 30 Jahren hinziehen können. Unser Gehirn ist streng genommen erst dann voll ausgereift. Die Neustrukturierung im Bereich des Stirnlappens kann bei Pubertierenden zunächst auch zu einem Mangel an Empathie führen. Sie verfügen nur eingeschränkt über die Fähigkeit, Gefühle und Stimmungen ihres Gegenübers zu erkennen, und haben oft nur ihren eigenen Vorteil im Sinn. Das kann der Grund dafür sein, dass Teenager oft unsicher und gereizt reagieren und den Eindruck haben, von Erwachsenen nicht verstanden zu werden.

Im vordersten Teil des Stirnhirns, dem präfrontalen Kortex (für Denken, Urteilsvermögen und sogenannten exekutiven Funktionen wie z. B. Impulskontrolle oder Entscheidungen, zuständig), dauern die Umbauten besonders lange. Seine Reifung verleiht den Jugendlichen nicht zuletzt auch die Fähigkeit zum abstrakten Denken. Das alles eröffnet ihnen neue Möglichkeiten und Interessen: Sie entdecken oft vielfältige Themen aus Philosophie, Literatur und Musik für sich und beginnen, sich für Politik zu interessieren und zu diversen Themen eine eigene Meinung zu bilden.

Der letzte und entscheidende Bauabschnitt im präfrontalen Kortex betrifft ein kleines Areal ganz vorn in der Stirn, direkt über den Augenhöhlen: den orbifrontalen Kortex (OFC). Er arbeitet im Verbund mit anderen Strukturen, die unser Sozialverhalten steuern. Die aus seinem Umbau resultierenden Verhaltensänderungen markieren das Ende der Adoleszenz. Die Jugendlichen werden verantwortungsbewusst, entwickeln ein Gefühl für moralisches Handeln und vervollkommnen die Fähigkeit, sich in andere Menschen hineinzuversetzen.

(Wird der OFC im Kindesalter verletzt, stagniert die emotionale und soziale Entwicklung. Erwachsene ohne funktionierenden, ausgereiften OFC bleiben unfähig, sich in die Gesellschaft einzugliedern und die Bedürfnisse oder die Reaktionen anderer vorwegzunehmen: Ein pubertärer Geist in einem erwachsenen Körper.)

Die drastischen Änderungen im Verhalten der Jugendlichen werden also vom systematischen Umbau der Gehirnstruktur verursacht. Dabei hängt die Natur der Veränderungen vom Geschlecht ab. Bestimmte Hirnregionen entwickeln sich nämlich bei Jungen und Mädchen unterschiedlich. Während die funktionelle Verknüpfung in einzelnen Hirnbereichen bei weiblichen Teenagern im Laufe der Pubertät abnehmen, verstärken sie sich bei Jungen. In anderen Hirnregionen ist es umgekehrt. Das könnte auch ein Grund für die unterschiedliche Anfälligkeit der Geschlechter für bestimmte Leiden sein, z. B. Depressionen. (Die schwerwiegendsten Gesundheits- und Verhaltensprobleme treten in der Pubertät tendenziell mit 16 Jahren und später auf.)

Geschlechtsunterschiede

Nach der Pubertät sind alle Verknüpfungen etabliert und die Neuronen auf ihre voller Größe von einem Zehntel Millimeter herangereift. Zwar beginnt das Gehirn ab dem Alter von 20 Jahren bereits wieder zu schrumpfen, aber die Gehirnentwicklung ist noch nicht endgültig abgeschlossen.

Von Anfang an sind Unterschiede im männlichen und weiblichen Gehirn gegeben (s. o.). Nach der Pubertät haben Männer ein deutlich größeres und schwereres Gehirn als Frauen, wobei zwischen beiden Gruppen allerdings auch ein beachtlicher Überlappungsbereich existiert. Nach den vorliegenden Daten wirkt sich der Größenunterschied nicht auf die kognitive Leistungsfähigkeit aus. Frauen machen den Nachteil des kleineren Schädels teilweise durch mehr Hirnwindungen wett. Die Leistungsfähigkeit des Kortex ist bekanntlich proportional zu seiner Oberfläche; und eine stärkere Furchung des Gehirns führt zu einer Vergrößerung der Oberfläche, ohne das Volumen zu erhöhen.

Die Forscher stellten aber eine erstaunliche Palette an strukturellen, chemischen und funktionellen Unterschieden in weiblichen und männlichen Gehirnen fest. Sie sind das Ergebnis von Selektionsdrücken im Laufe der Evolution. Während beispielsweise bei Männern das Volumen eines Areals in der rechten Hirnhälfte größer ist – wodurch sie u. a. große, zielgerichtete Bewegungen wie Werfen besser beherrschen -, sind Frauen in linkshemisphärischen Aufgaben wie feinmotorischen Bewegungen überlegen. Da sich schon im Mutterleib bei weiblichen Föten die linke Gehirnhälfte schneller entwickelt, haben Frauen wohl von Anfang an auch einen Vorsprung in Bezug auf Sprache und soziale Intelligenz, meinen Psychologen. Bei Jungen wird die Entwicklung der linken Hirnhälfte hingegen verzögert; schuld daran sei das Sexualhormon Testosteron.

Die Neurowissenschaftler sind heute aber noch weit davon entfernt, all die geschlechtsbezogenen Unterschiede im Gehirn und ihren genauen Einfluss auf kognitive Fähigkeiten und Krankheitsanfälligkeit zu kennen. Nach neueren Untersuchungen setzen die Geschlechter ihr Zentralorgan unterschiedlich ein, um z. B. Denkaufgaben zu bearbeiten – und zwar mit gleichem Erfolg. Während Frauen mehr und robustere Verbindungen zwischen den Hirnhälften aufweisen, sind bei Männern die Nervenfaserbündel innerhalb einer Hemisphäre stärker ausgeprägt. Männer aktivieren so vermehrt jeweils eine Hemisphäre, während sich bei Frauen beide Gehirnhälften gleichmäßiger beim Bewältigen verschiedener Aufgaben beteiligen.

Jedoch lässt sich kein Bereich des Gehirns als typisch männlich oder typisch weiblich klassifizieren. Studien legen nahe, dass die Gehirne der meisten Menschen Mosaike mit weiblichen und männlichen Eigenschaften sind. Gene und Geschlechtshormone prägen zwar das Gehirn tatsächlich, aber sie formen es nicht vollständig und nicht irreversibel. Aufgrund der Plastizität der Nervensysteme spielen Umwelteinflüsse für unsere Kognition und unser Verhalten eine große Rolle. Umstritten bleibt, wie stark der soziale und kulturelle Kontext ins Gewicht fällt. Jedenfalls scheinen heute die Gemeinsamkeiten zwischen den Geschlechtern immer größer zu werden, wahrscheinlich auch auf Grund der gewandelten Geschlechterrollen.

REM

Aussterben der Neandertaler

Nach dem ersten Skelett-Fund im Neandertal bei Düsseldorf (Deutschland) 1856 wird eine Menschengruppe als Neandertaler bezeichnet, von denen ein dermaßen reiches Fossilmaterial existiert, dass sie wohl die besterforschte archaische Menschengruppe sein dürfte. Ihre Evolutionslinie starb vor ca. 39 000 Jahren aus.

Entwicklung der Neandertaler

Der klassische Neandertaler gilt heute als ein Seitenzweig der Menschheit, eine in vielen Merkmalen spezialisierte Form. Seine Vorfahren waren in Afrika wahrscheinlich aus einem Homo heidelbergensis (einer Variante des Homo erectus) hervorgegangen und hatten sich von Afrika aus nach Westasien und Europa ausgebreitet. Dort entwickelten sie sich schließlich zu klassischen Neandertalern weiter und überstanden 180 000 Jahre lang Eis-und Zwischeneiszeiten. (Von der Neandertalerlinie dürften sich die Denisovaner abgespalten haben, die vom Nahen Osten aus sowohl nach Sibirien als auch nach Indonesien und weiter nach Melanesien gelangten.)

Wie der Wandel zum Neandertaler in Europa und Westasien verlief, ist bis heute unklar. Es war jedenfalls ein langer Prozess von wohl mehreren hunderttausend Jahren, bis der klassische Neandertaler erschien. Einige Schädelmerkmale weisen bereits vor 450 000 Jahren in Richtung typischer Neandertaler-Kennzeichen, die sich dann im Lauf der Zeit verstärkten. Nahezu alle spezifischen Merkmale der späteren Neandertaler erschienen erstmals in Zeitabschnitten mit besonders heftigen Klimaschwankungen, insbesondere während der Doppeleiszeit zwischen etwa 350 000 und 200 000 Jahren v. h.

Der typische Neandertaler wird als untersetzt (Körpergröße meist zwischen 155 und 165 Zentimeter) mit vergleichsweise kurzen Gliedmaßen beschrieben. Dem schweren Skelett mit massiven Arm- und Beinknochen entsprach eine starke Muskulatur. Die Neandertaler waren äußerst flink und gewandt und konnten sehr schnell laufen. Ihr sehr großer Schädel war langgestreckt, das Gesicht mit großen, schaufelförmigen Zähnen und Überaugenwülsten wölbte sich nach vorne. Möglicherweise hatten sie große Nasen, die als eine Art Heizung wirkten (eingeatmete Luft wird erwärmt) und einen großen Brustkorb. Diese „typischen“ Neandertalermerkmale fielen allerdings bei Frauen und Kindern deutlich geringer aus. Insgesamt sei die Bandbreite innerhalb der wahrscheinlich hellhäutigen Neandertaler größer gewesen als die zwischen Neandertalern und modernen Menschen.

Weg zum Homo sapiens

In Afrika entwickelte sich derweil der Homo sapiens wohl aus mehreren Urpopulationen des dortigen Homo heidelbergensis, die vor mehr als einer Million Jahren über den gesamten afrikanischen Kontinent verteilt waren und moderne und archaische Merkmale in verschiedenen Mixturen aufwiesen. (Der letzte gemeinsame Vorfahre von Neandertaler und Homo sapiens lebte wahrscheinlich vor rund 800 000 Jahren.) Nach einer genetischen Studie trennte sich die Linie des modernen Menschen von der Linie ihrer archaischen Vorfahren zwischen 350 000 und 260 000 Jahren v. h. Die ersten Vertreter unserer Art wurden in 300 000 Jahren alten Schichten in verschiedenen Regionen Afrikas nachgewiesen.

Die „Modernisierung“ des Homo sapiens schritt zunächst langsam und schrittweise voran. Als vor rund 195 000 Jahren die Verhältnisse in Afrika unwirtlicher wurden, kam es zu Phasen großer Trockenheit, gefolgt von feuchteren Perioden. Diese Klimaschwankungen, der ständige Wechsel von Dürre und Regen, von Wüste und Gras, Hunger und Überfluss, führten zu einem Entwicklungsschub – verbunden mit einer kulturellen Periode, die in Afrika als „Mittlere Steinzeit“ bezeichnet wird und gekennzeichnet ist durch komplexe Technologien und Symbolverwendung.

Anscheinend sammelten die Menschen Muscheln und Schnecken und schmückten sich mit Ketten aus deren schimmernden Schalen und Häusern. Aus Ockerstücken gewannen sie ein rotes Pulver, das sie wahrscheinlich mit einem Bindemittel, vielleicht Tierfett, vermischten. Mit dieser Farbe konnten sie sich selbst wie auch Gegenstände und andere Oberflächen bemalen. Wir wissen aber nicht, wann und wo genau modernes Verhalten zuerst auftrat und was den Hintergrund dafür bildete. Unbekannt ist auch, welche unmittelbare Folgen es hatte.

Das endgültige Gesamtpaket Homo sapiens wurde wohl erst irgendwann in der Zeit vor 100 000 bis 40 000 Jahren geschnürt. Ein starker Selektionsdruck (Klima!) führte in dieser Zeit zu einer ausgedehnten Periode genetischer Anpassungen. Die modernen Formen waren weniger gedrungen und hatten längere Extremitäten als die Neandertaler (als Anpassung an ein wärmeres Verbreitungsgebiet) und waren großschädelig (vor allem: steiler Gesichtsschädel – ohne vorspringende Mundpartie; mit markantem Kinn und hoher Stirn – und großer, runder Hirnschädel). Das Becken war verengt, was zwar die Fortbewegung erleichterte, aber die Geburt erschwerte. Die Folge war ein vorgezogener Geburtstermin, der eine verbesserte elterliche Fürsorge erforderte.

Es gibt Hinweise, dass sich die Homo-sapiens-Populationen südlich der Sahara ausbreiteten – möglicherweise auch dank größerer technischer Raffinesse (ausgefeilte Steinwerkzeuge) und komplexerer sozialer Strukturen. Indizien deuten darauf hin, dass dann in Ostafrika die Migration auf andere Kontinente angestoßen wurde. Auf oder nahe der Arabischen Halbinsel durchliefen diese Menschen wohl eine längere Isolation und Anpassung („Arabischer Stillstand„), ehe sie sich weiter in Richtung Asien und Europa ausbreiteten.

Gründe für das Aussterben der Neandertaler

Das Verbreitungsgebiet des Neandertalers erstreckte sich vom Nahen Osten bis zu den Britischen Inseln, vom Kaukasus bis zum Atlantik (Südspanien). Ihr konstant besiedeltes Kerngebiet lag dabei eindeutig in den mildesten Klimaregionen Europas: Portugal, Spanien, Frankreichs Südhälfte sowie Italien und die Krim. Funde in nördlichen Breiten stammen meist aus Warmphasen (Interglazialen), in denen die Neandertaler nach Norden und Nordosten vordrangen. (Im Zuge einer Klimaerwärmung – Beginn der letzten Zwischeneiszeit – drangen sie vor 125 000 Jahren sogar bis nach Mittelasien vor.) Sobald eine neue Kaltphase das Land in eine baumlose Tundra verwandelte, zogen sie sich wieder in warme Refugien im Süden zurück.

Seit etwa 100 000 Jahren v. h. hatten sowohl Neandertaler als auch anatomisch moderne Menschen (und möglicherweise sogar noch andere Menschenarten) im Vorhof Afrikas, im Nahen Osten, in derselben Großregion gelebt – rund 50 000 Jahre lang. Keine hatte sich in dieser Zeit überzeugend vermehrt, keine von ihnen war den anderen deutlich genug überlegen, um sie zu assimilieren oder zu verdrängen. In diesem Überschneidungsgebiet und in dieser Zeit waren ihre Steinwerkzeuge kaum zu unterscheiden. Der Homo sapiens drang von hier weiter nach Europa vor, wo die Besiedlung einer Region durch Neandertaler und unsere Vorfahren mehrfach wechselte. Nach einer Jahrtausende dauernden Übergangszeit verschwanden die Neandertaler dann überall vor 39 000 Jahren fast gleichzeitig und endgültig von der Bildfläche. Die genauen Gründe dafür sind immer noch umstritten.

Klimawandel

Besonders kälteresistent scheinen unsere stämmigen Vetter nicht gewesen zu sein – weder aufgrund ihrer Anatomie noch wegen ihrer Fellkleidung. Während sie vermutlich nur Kleidung aus groben Fell- und Lederstücken trugen, nutzte Homo sapiens nach einer Studie häufiger Felle von kleineren Tieren (z. B. Wolf, Kaninchen oder Wiesel). Diese sind dichter behaart und wärmen deshalb besser. Besetzt man große Kleidungsstücke (große Häute von Bären, Hirschen und Auerochsen, in die man sich vollständig einwickelte) mit den Fellen der Kleintiere, dringt kaum noch kalte Luft durch.

Auch kannte Homo sapiens bereits ein Werkzeug zum Nähen, dessen Funktionalität so groß war wie seine Form klein: Die Nadel mit dem Öhr. Das deutet darauf hin, dass er schon über genähte Kleidungsstücke und Zelte verfügte. Von den Neandertalern kennt man keine Funde, die auf Näharbeiten hindeuten. Sie waren wohl allenfalls in der Lage, Umhänge zu tragen. Ihre locker sitzende Kleidung schützte vor dem eisigen Wind weniger effektiv als die aufwändige Kleidung der modernen Menschen. Zwar ist durchaus denkbar, dass die Neandertaler Fellstücke irgendwie zusammennähten, aber das genügte nicht, um gegen extreme Kälte gewappnet zu sein.

Es waren aber nicht die absoluten Tiefsttemperaturen, die den Neandertalern zum Verhängnis wurden. Mehrfache abrupte Temperaturstürze vor 60 000 bis 40 000 Jahren – die sogenannten Heinrich-Ereignisse, ausgelöst durch Störungen in den Strömungen des Nordatlantik – könnten der Grund für ihre Dezimierung gewesen sein. Die raschen Wechsel von Warm- und Kaltphasen vollzogen sich bisweilen so schnell, dass sogar einzelne Individuen im Laufe ihres Lebens beobachten konnten, wie Pflanzen und Tiere, mit denen sie aufgewachsen waren, verschwanden und durch eine ihnen unvertraute Flora und Fauna ersetzt wurden.

Am Ende waren die Populationen der Neandertaler demnach so stark reduziert, dass sie sich nicht mehr halten konnten. Es gab immer weniger Individuen, die miteinander gesunde Nachkommen zeugen konnten (s. u.). Als Homo sapiens schließlich einige tausend Jahre später den Westen des Subkontinents erreichte, könnten die Neandertaler – ehemals unumstrittene Herren der Eiszeitwelt – wohl nur noch ein Schatten ihrer selbst gewesen sein. In Portugal und Spanien und auf der Krim lagen jedenfalls ihre letzten Rückzugsgebiete, wo sie vor knapp 40 000 Jahren ausstarben. (Doch auch die erste Welle der anatomisch modernen Zuwanderer fiel damals dem europäischen Horror-Klima zum Opfer.)

Dass der Klimawandel die entscheidende Rolle für das Aussterben der Neandertaler gespielt hat, scheint inzwischen allerdings endgültig widerlegt, denn unsere Vettern starben damals auch z. B. in Süditalien mit nachweislich stabilem Klima aus. Nach Ansicht mancher Forscher weist vieles dagegen auf eine Mitwirkung der Neuankömmlinge hin. Möglicherweise verschärfte sich die Konkurrenz um den zunehmend knappen Lebensraum, so dass jeder noch so geringe Überlebensvorteil unter Umständen über das Bestehen der Art entscheiden konnte. Sollte eine Verdrängung der alteingesessenen Neandertaler tatsächlich stattgefunden haben, dürfte sie schleichend und ohne offene Gewaltanwendung abgelaufen sein.

Technologie

Überall in Afrika, Europa und Asien gab es zunächst eine im wesentlichen einheitliche mittelpaläolithische Steinwerkzeugkultur, die mit dem archaischen Homo sapiens und dem Neandertaler verbunden wird. Anstelle des älteren Universalwerkzeugs Faustkeil wurde eine breite Palette spezieller Werkzeugtypen für die Jagd, für das Zerlegen und Häuten von Wild, um Holz zu schneiden und Häute abzuschaben benutzt. Diese Werkzeuge waren so komplex, dass sie ein tiefgreifendes Verständnis des Materials Stein voraussetzten – und vermutlich auch einen mündlichen Austausch darüber, wie man das Material am besten bearbeitet.

Als sich der Neandertaler mit dem anatomisch modernen Menschen in Europa auseinandersetzen musste, kam es innerhalb kürzester Zeit zu einer bedeutenden Weiterentwicklung in der Werkzeugtechnologie, insbesondere in Nordspanien und im Südwesten Frankreichs. Nach einer These besaß Homo sapiens ein vielfältigeres Werkzeug- und Waffenarsenal (z. B. Speerschleudern oder womöglich sogar schon Pfeil und Bogen), was es ihm erlaubte, seine Nahrungsbeschaffung effizienter zu gestalten. Er war vielleicht ein klein wenig innovativer.

Der Archäologe Christopher S. Henshilwood ist davon überzeugt, dass insbesondere eine komplexe Handhabe des Feuers unseren Vorfahren im kalten Lebensraum zum Vorteil gegenüber den Neandertalern gereicht hat, die solche Technik nicht kannten. Wenn auch die Überlegenheit des Homo sapiens technologisch vielleicht nicht besonders groß war, so konnte doch schon ein kleiner Vorteil langfristig eine Auswirkung haben. Allmählich hätten sich mit der Zeit die kleinen Nachteile der Neandertaler summiert und zu einer höheren Sterblichkeit beigetragen, was langfristig die modernen Menschen in eine bessere demographische Position gebracht haben könnte.

Ernährung

In der Ernährung des Neandertalers ergibt sich kein wirklicher Unterschied zum Homo sapiens. Beide haben Großsäuger gejagt, wenn welche verfügbar waren. Doch je nach Region, Biotop und Jahreszeit griffen beide auch auf deutlich kleineres Getier zurück: beispielsweise Antilopen, Rehe, Füchse oder Vögel, an Küstenstandorten auch Muscheln, Krebse, Haie und Robben. Inzwischen wurde festgestellt, dass sich die Neandertaler zwar großenteils von Fleisch ernährten, aber auch zu einem erheblichen Teil von Pflanzen. Sie konnten es sich nicht leisten, wählerisch zu sein, und ernährten sich daher je nach dem regionalen Angebot und der dort verfügbaren Nahrung. Es gibt keine Zweifel, dass alle Menschenformen, sobald sie das Feuer kontrollierten, auch kohlenhydratreiche Nahrung zubereiteten und verspeisten.

Beide Menschenformen konkurrierten also im selben Lebensraum um dieselben Ressourcen. Vielleicht waren aber unsere Vorfahren etwas besser als Neandertaler in der Lage, sich die bevorzugte Nahrung zu beschaffen, wenn sich Umweltbedingungen veränderten. Sie litten jedenfalls seltener an Mangelernährung. Nach einer Analyse war Homo sapiens dem Neandertaler einfach deswegen überlegen, weil er seine Nahrung effizienter nutzte. Zudem verbrauchte er für die grundlegenden Lebensfunktionen auch weniger Energie.

Der Neandertaler scheint einen hohen Energiebedarf für seinen muskulösen Körper und seine Kraft raubende Lebensweise gehabt zu haben. Nach diversen Untersuchungen benötigte er beispielsweise für die Fortbewegung 32% mehr Energie als anatomisch moderne Menschen. Sein täglicher Energiebedarf dürfte nach einer Modellrechnung um 100 bis 350 Kalorien über dem des modernen Menschen gelegen haben, die im gleichen Klima lebten. Schwinden die Nahrungsressourcen immer weiter, so konnte das zum entscheidenden Nachteil werden.

Kultur

Viele Wissenschaftler halten nicht viel von der These, dass die frühmodernen Menschen den Neandertalern körperlich oder intellektuell überlegen gewesen seien. Sie sind überzeugt, dass die Neandertaler kognitiv genauso weit fortgeschritten waren wie die anatomisch modernen Menschen, ein ästhetisches Empfinden besaßen und Dinge mit symbolischer Bedeutung belegten. Höchstwahrscheinlich haben sie sogar schon gemalt (bzw. bemalt). Schon vor 90 000 bis vor 40 000 Jahren stellten sie aus Tierschalen oder Federn persönlichen Schmuck her, z. B. bemalte Adler-Krallen als Anhänger. Das belegt symbolisches Verhalten Zehntausende von Jahren vor der Begegnung mit Homo sapiens.

Neandertaler wie unsere Ahnen lebten in sozialen Gemeinschaften. Die Sozialstruktur der Neandertaler bestand aus Familiengruppen mit durchschnittlich fünfzehn bis maximal zwanzig Personen. Es gibt klare Beweise für altruistisches Verhalten. Die Neandertaler kümmerten sich fürsorglich um ihre Kinder, aber auch um andere hilfsbedürftige Mitglieder ihrer Gemeinschaft – verletzte Artgenossen, Kranke und Behinderte -, trotz ihrer harten Lebensbedingungen. Seit mindestens 80 000 Jahren zeigen sie auch Fürsorge für ihre Toten. Bei 15% aller Neandertalerausgrabungen wurden Grabbeigaben, Steinwerkzeuge und Nahrungsgefäße gefunden.

Zweifellos ist der Neandertaler aufgrund seiner technisch-kulturellen Leistungen ein hoch entwickelter Mensch gewesen, der ein guter Jäger war, Werkzeuge fertigte und seinen Feuerstein aus teilweise 100 Kilometern Entfernung zu den Wohnplätzen holte. Seine Lebensweise unterschied sich nicht prinzipiell von der des modernen Menschen. Der Paläoanthropologe Stringer vertritt die Theorie, dass der Homo sapiens mit einer weiter gefassten kulturellen Anpassungsfähigkeit etwas besser gegen schlechte Zeiten gewappnet war. Einfallsreichtum und Kreativität bei veränderten Lebensumständen könnte der Schlüssel zu seinem Erfolg gewesen sein.

Andere Vor- und Frühgeschichtler sind davon überzeugt, dass der moderne Homo sapiens seine Kultur vor rund 50 000 bis 40 000 Jahren entscheidend weiterentwickelt hat. Danach sei er dem Neandertaler kulturell (Werkzeugindustrie, Jagdtechnik, Intelligenz) derart überlegen gewesen, dass dieser, als sich das Klima wieder dramatisch veränderte, im Wettbewerb um lokale Ressourcen hoffnungslos abgehängt wurde – und schließlich ausstarb.

Sprache

Der Archäologe John Shea sieht vor allem in der Sprachfähigkeit des Homo sapiens eine Grundlage für dessen Vorherrschaft. Sprechen können und kreativ sein ist bei Verknappung der Lebensgrundlagen Leben erhaltend. Zwar besaßen wohl auch Neandertaler eine einfache Sprache. Sie dürfte für uns fremdartig geklungen haben, da die Neandertaler vermutlich nicht alle unsere bekannten Laute zu bilden vermochten. Auch ihre Art zu sprechen unterschied sich von der des modernen Homo sapiens: Sie sollten in kurzen, einfachen Sätzen gesprochen haben, langsam und schleppend, wodurch sie sich aber zumindest auf einer primitiven Ebene verständigen konnten. Für die Jagd hätte das sicher genügt.

Die Frage ist, ob die Neandertaler es überhaupt für notwendig hielten, zu sprechen. Sie könnten die ältere mimische Kommunikation mehr genutzt haben als die sprachliche. Dazu war die größere Gesichtsfläche von Vorteil. Homo sapiens lebte dagegen in immer größeren Gruppen, in denen eine sprechende Kommunikation nötiger war. Gerade seine größere Sprechfähigkeit könnte ihm geholfen haben, zuverlässige soziale Netzwerke aufzubauen und die eigenen Erfahrungen, Entfernungen und Zeit, Vergangenes und zu Erwartendes, Gutes oder Ungünstiges besser auszudrücken. Sprache dient aber nicht nur als Medium, um Gedanken und Erfahrungen auszutauschen, sondern bildet auch die Basis des Denkens. Denken, so wie wir es kennen, können wir uns ohne Sprache nicht vorstellen.

So mag das weiter gespannte Netz und auch die stärkere Überlappung der Generationen mit entsprechend intensiverer Tradierung den modernen Menschen geholfen haben. Sie reagierten sozial flexibel und mit angepassten Technologien auf die abrupten Änderungen des Klimas und konnten auf diese Weise die Herausforderungen besser bestehen.

Ergebnis

Der anatomisch moderne Mensch hat den Lebensraum und die Ressourcen, die er mit dem Neandertaler teilte, langsam, aber stetig erobert – und so seinen Verwandten mit der Zeit verdrängt. Was ihm letztlich den entscheidenden Vorteil brachte, ist noch nicht endgültig gesichert. Keiner der angeführten Aspekte allein vermag den Erfolg des Homo sapiens wirklich zu erklären. Es war wohl kein einfaches Ereignis, sondern ein komplexer Prozess, durch den der moderne Mensch an die Stelle des Neandertalers trat.

Demographische Krisen könnten zum Aussterben unserer Vettern beigetragen haben. Vielleicht waren die einwandernden Jetztmenschen nur weniger anfällig für Krankheiten in der sich im eiszeitlichen Klima verändernden Umwelt. Möglicherweise schleppten sie sogar neue Krankheitskeime ein, gegen die die Neandertaler keine Abwehrkräfte besaßen. Deren Gruppen wären dann durch Epidemien dezimiert geworden und schließlich ausgestorben.

Vielleicht verschwanden sie als eigenständige Gruppe, weil die Zuzügler sie zahlenmäßig übertrafen. Bei einer geringfügig höheren Geburtenrate des anatomisch modernen Menschen oder einer geringfügig höheren Sterberate des Neandertalers könnte dies innerhalb von wenigen tausend Jahren geschehen sein. Auch eine insgesamt kürzere Lebensspanne könnte für den schrittweisen Niedergang der Neandertaler in Frage kommen. Wie sich zeigte, schoss die Zahl der anatomisch modernen Menschen, die alt wurden, vor etwa 40 000 Jahren steil in die Höhe. Eine längere Lebensdauer schafft das Potenzial für größere soziale Netzwerke und einen größeren Wissensfundus.

Offenbar schafften es die Homo-sapiens-Eltern, ihren Nachwuchs nach der Entwöhnung besser zu schützen und zu ernähren, was langfristig einen Überlebensvorteil gegenüber den Neandertalern sicherte. Eine höhere Kindersterblichkeit (nach Computer-Simulationen ein bis zwei Prozent) könnte diese bereits nach 30 Generationen (tausend Jahren) zu einer Minderheit schrumpfen lassen und dem modernen Menschen einen uneinholbaren Vorsprung gegeben haben.

Die eurasischen Neandertaler waren nie sehr zahlreich, nicht in früherer und auch nicht in späterer Zeit. Nach diversen Schätzungen lebten in ihrem Verbreitungsgebiet zwischen Portugal und dem Altai-Gebirge in Zentralasien vermutlich nie mehr als 70 000 (nach anderen Untersuchungsergebnissen sogar nur 10 000) Neandertaler gleichzeitig. Die Clans waren weit verstreut – sie hatten oft keinen Kontakt zu anderen Familienverbänden. So mussten sich diese Menschen zwangsläufig mit engeren Verwandten fortpflanzen, mit allen negativen Folgen für den Genpool. Indizien weisen tatsächlich auf eine genetische Verarmung der Neandertaler vor 50 000 Jahren hin.

Wenn verstreute kleine Gruppen mehr oder weniger isoliert leben, werden auch Erfindungen seltener weitergegeben. Spezialkenntnisse verschwinden mit dem letzten Mitglied des Clans. Weil die Gruppen von Homo sapiens stärker untereinander vernetzt waren, erhielt sich ihr Wissen eher. Es konnte sich so anreichern und in einer Art Sperrklinkeneffekt (neue Erfindungen bauen auf älteren auf) immer weiter steigern. Möglicherweise überschritten vor rund 50 000 Jahren die anatomisch modernen Menschen früher als die Neandertaler eine Schwelle in Bezug auf Kognitionsfähigkeit, komplexes Sozialverhalten und Fortpflanzungserfolg.

Vielleicht war für unsere Vorfahren auch die einzigartige Weise ihres symbolischen Denkens, das systematisches Planen (Sprache!) in noch nie dagewesener Manier ermöglichte, ein wesentlicher Vorteil. Dass der Homo sapiens am Ende obsiegte und heute allein dasteht, liegt auf jeden Fall aber mindestens ebenso stark an äußeren Zufällen wie an seinen Talenten. Wenn man sich die gesamte Entwicklungsgeschichte der Menschheit anschaut, wird einem bewusst, welch großer Zufall es ist, dass gerade „wir“ uns durchsetzten. Mit Homo erectus und Neandertaler gab es mindestens zwei vielversprechende, „erfolglose“ Anläufe. Unter etwas anderen Bedingungen und anderen zeitlichen Abläufen sähen wir heute vielleicht völlig anders aus – oder es hätte uns nie gegeben.

REM

Das Atom

Im antiken Griechenland standen sich zwei Denkschulen gegenüber. Für Platon beispielsweise war die Welt noch aus den vier Grundelementen Erde, Luft, Feuer und Wasser aufgebaut, die aber nicht unteilbar sind. Auch die Energie, bei ihm als das Element Feuer dargestellt, passte er in dieses Denkmodell ein – ein schon recht weit gedachter Denkschritt. Demgegenüber entwickelten der Naturphilosoph Leukipp und sein Schüler Demokrit einen revolutionären Gegenentwurf: Die gesamte Natur sei aus kleinsten unteilbaren Einheiten – elementaren Teilchen – zusammengesetzt, den Atomen (von griech.: atomos = unteilbar).

Im 19. Jahrhundert lieferte die chemische Forschung und vor allem die Entdeckung der Elektrolyse (beispielsweise Aufspaltung von Wasser in Wasserstoff und Sauerstoff) immer stärkere Argumente für die Atomtheorie. Der Chemiker John Dalton fand heraus, dass bei jeder chemischen Reaktion ein bestimmtes Mischungsverhältnis auftritt. Er folgerte daraus, dass jedes Element aus winzigen Teilchen mit einer bestimmten Masse und Größe bestehen müsse, die sich bei chemischen Umwandlungen nicht verändern.

Noch im ersten Jahrzehnt des letzten Jahrhunderts besaßen Physiker und Chemiker aber keine klare Vorstellung davon, wie Atome aussehen. Der Physiker Joseph John Thomson entdeckte 1897 das Elektron und stellte fest, dass jedes Atom offenbar aus einer geladenen Masse und umgekehrt geladenen Elektronen besteht, die wie Rosinen in einem Kuchen stecken. 1910 schlug Ernest Rutherford ein „planetares“ Modell des Atoms vor mit einer zentralen punktförmig konzentrierten Ladung, umgeben von einer gleichförmigen, sphärischen Ladungsverteilung des gleichen Betrages, aber entgegengesetzten Vorzeichens.

Aufgrund einer Konvention, die auf Benjamin Franklin zurückgeht, wurde die Ladung des Zentralbereichs als „positiv“ bezeichnet. Demnach umkreisen negativ geladene Elektronen auf diskreten Bahnen (also nicht beliebig) einen positiv geladenen Atomkern wie die Planeten unser Zentralgestirn. (Teilchen mit entgegengesetzer Ladung ziehen sich an!) Als man genauer hinschaute, entdeckte man, dass der Kern aus positiv geladenen Teilchen, den Protonen, und elektrisch neutralen Neutronen zusammengesetzt ist – Ausnahme Wasserstoff (s. u.).

Atome

Das gesamte Atom hat einen Durchmesser von etwa einem Hundertmillionstel (10-8) Zentimeter, etwa 10 000- bis 100 000-mal so groß wie der Durchmesser des Kerns. Damit man sich den Unterschied vorstellen kann: Hätte das Atom die Größer eines Golfplatzes (80 ha), wäre der Kern ungefähr so groß wie eines der Löcher (knapp 11 Zentimeter Durchmesser). In diesem relativ zum Kern riesigen, ungefähr eine Billion Mal so großen Raum bewegen sich die Elektronen. Es sind die gleichen Elementarteilchen, mit deren Hilfe elektrischer Strom übertragen wird und die man spürt, wenn man einen „gewischt“ bekommt.

Elektronen haben eine äußerst geringe Masse: 9,1094 x 10-28 Gramm. Die meisten Physiker sind überzeugt: Das Elektron hat keine messbare Ausdehnung – ein Massepunkt ohne innere Struktur, welcher der Elektromagnetischen Wechselwirkung unterliegt. Auch wenn Elektronen punktförmig sind, heißt das nicht, dass ihre Wechselwirkung und Aktion örtlich begrenzt ist. Sie können sich sozusagen ausstrecken, auf etwas wirken, das entfernt ist – eine Qualität, die nicht zu lokalisieren ist: das Feld.

Nach heutigem Wissen kreisen Elektronen also nicht um einen Kern wie Planeten um die Sonne. Die Quantenphysiker beschreiben das Elektron vielmehr als ausgedehntes Wellengebilde, das den Atomkern umspannt. Es ist sozusagen über das Volumen des Atoms „verschmiert“. Wo sich das Teilchen befindet, können die Wissenschaftler lediglich in Form einer Aufenthaltswahrscheinlichkeit angeben, die aus dem Quadrat der Wellenfunktion (Schrödinger-Gleichung) errechnet wird.

Den Gesetzen der Quantenmechanik zufolge können Elektronen nur bestimmte Energieniveaus besetzen, wo sie durch die relativ schwache Elektromagnetische Kraft gehalten werden. Ein solcher Bereich, über den sich ein Elektron als „stehende Welle“ ausbreitet, wird als „Schale“ bezeichnet. Diese entspricht einer bestimmten Energie des Elektrons. Da das Atomteilchen als „Fermion“ dem Pauli-Verbot gehorcht, demzufolge keine zwei Elektronen denselben Quantenzustand haben können, passt in jede Schale nur eine begrenzte Anzahl Elektronen. (s. u.)

Somit ist also der positiv geladene, winzige, aber massereiche Kern von einer Wolke negativ geladener Elektronen umgeben, die säuberlich in übereinander liegenden Schalen angeordnet sind. Die Elektronenhülle, die weniger als ein Promille zur gesamten Atommasse beiträgt, legt die Größe eines Atoms fest.

Die Atomkerne sind nur ein Billionstel (etwa 10-13) Zentimeter groß. Sie enthalten die Nukleonen (Kernteilchen), die extrem eng gepackt sind: Protonen und Neutronen. Sie machen mehr als 99,9% der Masse des gesamten Atoms und damit aller Dinge aus, wie sie uns im täglichen Leben umgeben.

Ein Proton scheint grob einer diffusen Kugel zu gleichen – mit einer Ausdehnung von weniger als einem Femtometer (100 Billiardstel Zentimeter) und einer positiven elektrischen Ladung (+1). Das Neutron ist ähnlich groß wie das Proton und nur geringfügig schwerer (0,14%) und elektrisch neutral. Protonen und Neutronen zählt man zur Teilchenfamilie der Hadronen (von altgriechisch: hadron = dick, stark), die der Starken Wechselwirkung unterliegen – einer zwischen den Bausteinen wirkenden starken Kraft kurzer Reichweite. Sie ist verantwortlich dafür, dass die Protonen trotz der abstoßenden elektrischen Kräfte zwischen ihnen (Teilchen mit gleicher Ladung stoßen sich ab) zusammenhalten.

Wegen der gegenseitigen Abstoßung der Protonen ist es aber für ein Proton leichter, an einem Neutron zu „kleben“ als an einem Proton. So können Protonen und Neutronen Paare, sogenannte Deuteronen, bilden. Neutronen sind demnach mitverantwortlich für den Zusammenhalt des Kerns. Sie nehmen am „atomaren Tanz“ der Protonen mit ihren Elektronen teil, aber lediglich über ihr magnetisches Moment – schließlich sind sie ungeladen.

Das einfachste Atom ist der Wasserstoff, der aus einem Proton im Kern und einem Elektron in der Hülle besteht. Allerdings kann auch er ein Neutron im Kern enthalten. Wir sprechen dann von „schwerem Wasserstoff“ oder Deuterium. Das nächsthöhere Element ist Helium: Es enthält einen Kern aus zwei Protonen und im Normalfall zwei Neutronen, der von zwei Elektronen umschwirrt wird. Helium ist somit etwa (fast) viermal so schwer wie Wasserstoff. Das Element mit drei Protonen im Kern heißt Lithium, dann folgen Beryllium (vier Protonen), Bor (fünf), Kohlenstoff (sechs), Stickstoff (sieben) und Sauerstoff (acht). So geht es weiter bis zum Uran, das 92 Protonen im Kern trägt. Es gilt als das schwerste natürlich vorkommende Element – abgesehen von kleinsten Spuren von Neptunium (93 Protonen) und Plutonium (94 Protonen) in der Erdkruste.

Das Atomgewicht, die Massenzahl eines Atoms, wird durch die Gesamtzahl von Protonen und Neutronen im Kern bestimmt. Die Nukleonen streben dabei ein relativ ausgeglichenes Verhältnis an, denn nur Atomkerne mit ungefähr gleich vielen Neutronen und Protonen sind stabil. Die kernphysikalischen Gesetze lassen weder einen zu großen Protonenüberschuss noch einen zu großen Neutronenüberschuss zu. Allerdings ist bei höheren Elementen eine leichte Tendenz zum Neutronenüberschuss vorhanden, da die Kraft der gegenseitigen Abstoßung der Protonen quadratisch mit ihrer Anzahl im Atomkern steigt. Bei 100 oder mehr Protonen im Kern überwiegt schließlich die elektrische Abstoßung und der Kern ist nicht mehr stabil und zerfällt in Bruchstücke. (Die massereichsten bisher synthetisierten Atomkerne haben sogar 118 Protonen, zerfallen allerdings nach Bruchteilen von Sekunden schon wieder.)

Es gibt auch eine Obergrenze für die Anzahl der überschüssigen Neutronen, ab der Atomkerne auseinander zu fallen beginnen: Die Tropflinie (die überzähligen Nukleonen tropfen aus dem Kern heraus). Wird ein Neutron freigesetzt, zerfällt es nach durchschnittlich 15 Minuten in ein Proton, ein Elektron und ein Neutrino. Daher müssen die Neutronen mit einer etwa gleichgroßen Anzahl von Protonen zusammenkommen, damit ihre Instabilität kompensiert wird.

Isotope

Atome mit gleich vielen Protonen, aber unterschiedlicher Zahl an Neutronen, werden als Isotope (griech.: isos = gleich; topos = Platz, Stelle) des gleichen Elements bezeichnet. So gibt es z. B. vom Helium eine seltene Form mit nur einem Neutron statt zwei (He-3). Der Sauerstoff hat Isotope mit jeweils acht, neun und zehn Neutronen im Kern. Beim Kohlenstoff existiert eine ebenfalls seltene Abweichung, die acht statt sechs Neutronen enthält (C-14). Die Stellung der Isotope im Periodensystem bleibt identisch; diese unterscheiden sich aber im Atomgewicht, sind also unterschiedlich schwer. Da sie gleich viele Elektronen in der Atomhülle besitzen (entsprechend der Zahl der Protonen), verhalten sich die Elemente chemisch identisch.

Manche Isotope mit überschüssigen (oder weniger) Neutronen sind instabiler als andere. Bei einem Überhang von Neutronen gehen die Isotope durch radioaktiven Zerfall (Beta-minus-Zerfall) in eine stabilere Konfiguration über – eines der einfachsten Beispiel der Schwachen Wechselwirkung. Dabei wird ein Neutron in ein Proton verwandelt, wobei ein Elektron und ein Antineutrino aus dem Kern herausgeschleudert werden. Obwohl das Zerfallsgesetz die statistische Lebensdauer einer Menge von radioaktiven Atomen derselben Sorte beschreibt („Halbwertzeit„), scheint der Zerfall selbst keine Ursache zu haben – ist also Zufall.

C-14 ist radioaktiv und zerfällt, indem sich hin und wieder eine Neutron in ein Proton verwandelt. Es hat eine Halbwertzeit von 5730 Jahren.

[Beim Beta-plus-Zerfall wandelt sich ein Proton unter Abgabe eines Positrons und eines Neutrinos in ein Neutron um. Der Vorgang stellt einen wichtigen Zwischenschritt bei der stellaren Kernfusion dar. Damit unsere Sonne in ihrem Inneren Licht und Wärme freisetzen kann, müssen dort jeweils vier Wasserstoffkerne (Protonen) in mehreren Schritten zu einem Heliumkern (He-4) verschmelzen. Aus zwei Wasserstoffkernen entsteht zunächst der Kern eines Deuteriumatoms, einem Isotop des Wasserstoffs, das neben dem Proton auch ein Neutron besitzt. Es muss bei dem Vorgang also ein Proton in ein Neutron umgewandelt werden. Würde der Beta-plus-Zerfall nicht stattfinden, entstünde auch im Inneren der Sonne kein Deuterium – und auch kein Helium, denn das entsteht in den nächsten Schritten aus zwei Deuteriumkernen. Weil die Schwache Kernkraft so schwach ist, läuft der Beta-plus-Zerfall sehr langsam ab. Darum leuchtet unsere Sonne so lange.]

Protonenlastige Atomkerne können ebenfalls durch radioaktiven Zerfall in stabilere Konfigurationen übergehen. Dies kann durch Abspalten eines Alpha-Teilchens (Helium-Kern) geschehen (Alphazerfall). Es entsteht ein anderes Element, das stabil ist oder seinerseits weiter zu einem stabileren Element zerfallen kann. So wandelt sich z. B. das radioaktive Uranatom U-238 durch Alphazerfall in ein Thoriumatom Th-234, welches dann weiter zerfällt.

Als Folge eines Alpha- oder Betazerfalls, die den Atomkern in der Regel in einen angeregten Zustand versetzen, können hochenergetische Photonen (Gammastrahlung) entstehen, mit denen der Kern seine überschüssige Energie abgibt. Alpha-, Beta- und Gammastrahlung sind aber nicht alles – inzwischen kann man neun verschiedene Arten von Radioaktivität unterscheiden. Ein Beispiel ist der Cluster-Zerfall, der dem Alphazerfall ähnelt. Dabei werden größere Kerne („Cluster“) als He-4 vom Mutterkern abgespalten. Beispielsweise kann der Radiumkern Ra-223 einen Kohlenstoffkern C-14 emittieren.

Atomkerne

Die Atomkerne sind lange rätselhaft geblieben. Der Grund ist, dass sie als Quantenobjekte schwierig zu untersuchen sind. Ihre Bestandteile sind komplex; zudem bestimmen drei der vier Grundkräfte der Natur gleichzeitig die Dynamik des Konglomerats. Anfang der 1930er Jahre hat George Gamow die Grundidee des Tröpfchenmodells entwickelt. Demzufolge hat der Atomkern Ähnlichkeit mit einer viskosen Flüssigkeit: Man kann ihn wie einen Wassertropfen verformen, aber er nimmt stets denselben Raum ein.

Heute wissen wir, dass Neutronen und Protonen im Kern gemäß den Quantengesetzen in verschiedenen Energieschalen angeordnet sind – analog zu den Schalen der Elektronen in der Atomhülle. (Die Ähnlichkeit zwischen Elektronen- und Kernschalen ist allerdings begrenzt, weil im Kern zwei Teilchenarten sind und die Starke Kernkraft wirkt.) Sowohl in der ersten Protonenschale als auch in der ersten Neutronenschale gibt es je zwei Plätze für die jeweiligen Nukleonen. Im Heliumkern He-4 sind diese beiden Schalen gerade aufgefüllt – deshalb ist er besonders stabil. Fügt man aber eine weiteres Proton bzw. Neutron hinzu, erhält man einen äußerst instabilen Kern, der innerhalb einer Trilliardstel Sekunde zerfällt.

In den meisten Fällen organisieren sich die Nukleonen als Quantenflüssigkeit. In diesem Aggregatzustand ist die Wechselwirkung zwischen ihnen beträchtlich und Neutronen und Protonen schließen sich immer wieder für sehr kurze Zeit zusammen – man sagt, sie verschmelzen zu einer Art Tanzpaar, das sich deutlich schneller als die übrigen Partikel bewegt. Im zeitlichen Mittel dreht sich je rund ein Viertel der Kernteilchen im Tanz.

Neben Quantenflüssigkeiten und Kernmolekülen können Atomkerne noch andere, exoterischere Zustände einnehmen und sogenannte Halos bilden. Vor allem neutronenreiche Kerne weisen eine Halostruktur auf. Sie entsteht, wenn die Nukleonen nur schwach gebunden sind.

Feinstruktur

In den 1960er Jahren glaubten noch viele Physiker, die Bausteine der Atomkerne, also Protonen und Neutronen, seien so etwas wie kleine Kügelchen, durch und durch mit derselben Materie angefüllt. Aber je tiefer der Blick ins Innere eines Nukleons gelang, desto komplizierter wurden die Verhältnisse. Inzwischen weiß man, dass in den Nukleonen jeweils drei Massekonzentrationen existieren, die man heute Quarks nennt. Ein Proton enthält zwei up-Quarks und ein down-Quark (uud), das Neutron zwei down- und ein up-Quark (ddu). Die beiden Quark-Arten heißen Valenzquarks, da sie den Teilchen ihre äußeren Eigenschaften wie Teilchenart und Ladung verleihen.

Das up-Quark trägt eine nicht ganzzahlige Ladung, gemessen an der Gesamtlage des Nukleons: +2/3. Die Ladung des down-Quarks beträgt ein Drittel der Ladung des Elektrons: -1/3. Die Ladungen der beiden Kernteilchen ergeben sich dann aus der Summe der Quarkladungen (Proton: 1; Neutron: 0). Obwohl das Neutron elektrisch neutral ist, hat es aber z. B. magnetische Eigenschaften (wie das Proton).

Das einfache Quarkmodell beschreibt aber nur in grober Näherung eine hochkomplizierte Wirklichkeit in einem Nukleon. Um das Quark-Trio wabert ein See aus kurzlebigen Quark-Antiquarkpaaren, die spontan entstehen, für einen flüchtigen Moment existieren und gleich wieder verschwinden.* Diese sogenannten virtuellen Quarks bezeichnet man auch als Seequarks. Hinzu kommen im Nukleon umherwirbelnde Gluonen (Klebeteilchen), die die Quarks zusammenhalten. Dabei wechselwirken die Gluonen auf äußerst komplexe Weise auch miteinander.

*Quarks und ihre Antiteilchen unterscheiden sich dadurch, dass manche ihrer Eigenschaften denselben Betrag, aber unterschiedliche Vorzeichen besitzen. Sie können sich gegenseitig auslöschen. – Neben up- und down-Quarks, sogenannte Quarks der ersten Generation, blitzen auch immer wieder Vertreter höherer Elementarteilchengenerationen auf, die sonst nicht im Kern vorkommen.

Protonen und Neutronen enthalten also eine brodelnde Suppe aus realen und virtuellen Teilchen und Antiteilchen sowie Gluonen. Die drei Valenz-Quarks bestimmen zwar einige wichtige Eigenschaften des Kernteilchens, wie seine elektrische Ladung, nicht aber andere Kenngrößen wie z. B. seine Masse. Diese setzt sich aus den über Gluonen verbundenen Quarks (lediglich 5%), aus den virtuellen Seequarks (Quark-Antiquark-Paaren) und aus der Wechselwirkungsenergie (Bindungsenergie) des Gesamtsystems zusammen.

Grundlagen der Chemie

Eine für die gesamte Quantenphysik fundamentale Größe ist der Spin (eine bestimmte innere Quantität), der eine zentrale Rolle im Atom spielt. Er ist eine natürliche Konsequenz aus der richtigen Anwendung von Einsteins Relativitätstheorie auf die Quantenmechanik. Man kann ihn sich vorstellen als eine ständige Rotation eines Teilchens um seine eigene Achse. Da alle Objekte, die sich um ihre Achse drehen oder um einen festen Punkt bewegen, Drehimpuls haben, wird der Spin auch manchmal als „Eigendrehimpuls“ eines Elementarteilchens bezeichnet. In Wirklichkeit haben Spins mit Eigenschaften rotierender Körper in der makroskopischen Welt absolut nichts zu tun. Aber es ist die einzige Möglichkeit, überhaupt eine Vorstellung von dieser Eigenschaft der Quantenteilchen zu bekommen.

Die recht seltsamen Eigenschaften des Spins finden auch praktische Anwendung: u. a. in Kernspintomografen: Da mit dem Spin auch immer ein magnetisches Moment verbunden ist, richten sich Fermionen in Magnetfeldern wie Kompassnadeln aus. So lassen sich z. B. Ortsinformationen gewinnen oder Hirnaktivitäten bildlich darstellen.

Dem Spin der Elektronen, die wie alle Fermionen einen halbzahligen Eigendrehimpuls (1/2 h) besitzen, verdanken wir letztlich nichts weniger als unsere Existenz. Innerhalb einer Elektronenschale gibt es jeweils eine bestimmte Zahl von Bereichen (Orbitalen), die gemäß dem Pauli’schen Ausschlussprinzip nur bis zu zwei Elektronen (mit Spin +1/2 und -1/2) aufnehmen können. Daher ist das Pauli-Prinzip („Keine zwei Fermionen können gleichzeitig und an demselben Ort denselben Quantenzustand haben“) ein Grund für die Stabilität der Atome. Ohne dieses quantenmechanische Gesetz würden alle Atome auf ein Zehntausendstel ihres Volumens zusammenschnurren. Es gäbe keine chemischen Elemente, also keine Materie, wie wir sie kennen.

Weil die Elektronenschalen den Kern weitgehend von der Außenwelt abschirmen, hängt die Art und Weise, wie sich Atome zu Molekülen zusammensetzen – also die Chemie -, fast vollständig von der Zahl und Verteilung der Elektronen in den Außenbereichen der Atome ab. Diese Valenzelektronen bestimmen, wie reaktionsfreudig ein Element ist. Konfigurationen mit komplett gefüllten Schalen, z. B. die Edelgase, sind besonders stabil. Um einer solchen Konfiguration eine Elektron zu entreißen, braucht es besonders viel Energie.

Für das Wasserstoff-Atom wäre eine Hülle mit zwei Elektronen der optimale Zustand. Es besitzt aber nur eines – folglich strebt es zur Vervollkommnung. Daher kommt Wasserstoff unter normalen Bedingungen fast nie in Form einzelner Atome vor, sondern zumeist als Wasserstoff-Molekül H2. Die dann gemeinsam um beide Atomkerne „kreisenden“ Elektronen umschließen die Kerne und bringen sie, gezogen durch das Elektronenband, näher aneinander – aber nicht über einen bestimmten Abstand hinaus, denn dann überwiegt die Abstoßung zwischen ihnen.

Weil die Hüllen bei vielen chemischen Elementen nicht vollkommen sind, schließen sie sich mit anderen zusammen – sie gehen Bindungen ein, um den Mangel auszugleichen. Dabei nutzen die Partner Elektronen gemeinsam, wobei ein Teil durch die Elektromagnetische Kraft in Energie verwandelt wird, die im Allgemeinen in Form von Photonen abgegeben wird. Das so geschaffene System (Molekül) hat also weniger Masse als die Summe der ursprünglichen Teile und ist allgemein auch komplexer.

Das Sauerstoff-Atom besitzt acht Elektronen, die auf zwei Schalen verteilt sind, zwei in der inneren und sechs in der äußeren. Dadurch besitzt es in der äußeren Schale (4 Orbitale) zwei Elektronen zu wenig und sucht nach Ergänzung, z. B. ein anderes Sauerstoff-Atom oder ein passendes Molekül. Viele wichtige Elemente verhalten sich wie Sauerstoff und streben die Anzahl von acht Elektronen in der äußeren Schale an. Kohlenstoff (vier Elektronen fehlen, daher besonders reaktiv), Stickstoff und Fluor etwa, Silizium, Phosphor und Schwefel sowie Natrium und Magnesium.

Durch ihr Verhalten bestimmen also die Elektronen, die über elektromagnetische Wirkungen nicht nur mit den Kernen, sondern auch miteinander verbunden sind, sehr viele chemische Phänomene. Physiker verstehen inzwischen sehr gut, wie sich die Elektronen anordnen und wie die Eigenschaften der materiellen Welt aus diesen Strukturen hervorgehen.

Fazit

Über mehrere Zwischenstufen haben die Physiker die Natur, die sie vorfinden, in immer kleinere Einheiten zerlegt. Heute werden Atome nicht mehr als harte, unzerstörbare, undurchdringliche Körper gesehen, sondern als zusammengesetzte Systeme, die aus vielen Teilchen bestehen. Das erklärt für sich genommen noch nicht die Unterschiede in den makroskopischen Gegenständen. Dass diese Eigenschaften haben und insbesondere verschieden sind, liegt nur daran, dass die Punktteilchen, aus denen sie zusammengesetzt sind, in unterschiedlichen räumlichen Beziehungen zueinander stehen. Letztlich aber scheinen die Dinge in Wirklichkeit gar keine Dinge, sondern Formen zu sein, fassbar nur als Gewoge von Energie.

REM

Kipp-Punkte im Klimasystem

Ein Kipp-Punkt ist definiert als ein kritischer Grenzwert, an dem eine kleine zusätzliche Störung zu einer qualitativen Veränderung in einem System führen kann. Da die Kipp-Elemente sehr nicht-linear reagieren, ist das Erreichen eines Kipp-Punkts in den meisten Fällen nicht vorhersagbar. Die Forscher können höchstens sagen: Das Risiko besteht. Warum solche Kipp-Punkte in verschiedenen Systemen auftreten, ist unbekannt.

Das irdische Klima ist ein solches System. Lange Zeit reagieren die Kipp-Elemente oft nur wenige auf Klimastress, aber irgendwann kommt es dann schon bei einer geringfügigen Zunahme eines Klimafaktors zum Umkippen. Ist die kritische Schwelle einmal überschritten, entsteht eine sich selbst verstärkende Entwicklung, in deren Folge sich das Klima qualitativ verändert. Das gesamte System kippt in einen anderen Gleichgewichtszustand, der wiederum Jahrtausende anhalten kann.

Wo sich der Kipp-Punkt für das irdische Klima befindet bzw. wie weit wir davon entfernt sind, wissen wir nicht. Es gibt keinen scharfen Grenzwert, sondern lediglich einen Unsicherheitsbereich, in dem mit steigender globaler Temperatur das Risiko wächst, den Kipp-Punkt zu überschreiten. Selbst Skeptiker unter den Forschern leugnen nicht die Gefahr, dass der heutige Anstieg der Temperaturen aufgrund des menschengemachten Klimawandels die Klimamaschine des Globus über die Schwelle treibt, hinter der das Ganze System chaotisch zu werden droht. Langfristig wäre eine „Heißzeit“ mit vier bis fünf Grad höheren Temperaturen und einem Meeresspiegelanstieg um 10 bis 60 Meter die Folge, warnen Forscher.

Die Wahrscheinlichkeit, dass dieser Fall eintritt, ist derzeit noch klein; trotzdem sind schon einzelne Dominosteine dabei, zu fallen. Manche Effekte sind bereits unumkehrbar. Das Problem für uns ist, dass wir erst hinterher sicher sagen können, dass ein Kipp-Punkt erreicht ist oder überschritten wurde. Die Daten sind zwar linear und vorhersagbar genug, um den Projektionen Glaubwürdigkeit zu verleihen, doch zugleich in einem Maße nichtlinear und unvorhersagbar, dass wir die katastrophalen Konsequenzen des anthropogenen Klimawandels möglicherweise unterschätzen und nicht rechtzeitig gegensteuern.

Die Wissenschaftler haben inzwischen 16 Kipp-Elemente im Klimabereich entdeckt, bei denen wir dem Kollaps schon sehr nahe sind. Es besteht die Gefahr, dass sie das Klima – auch ohne weitere Emissionen – immer weiter in eine fatale Richtung treiben, zumal sie sich gegenseitig aufschaukeln können. Fünf globale Kipp-Elemente könnten sogar schon heute die kritische Schwelle erreicht haben oder ihr sehr nahe sein: Die Eisschilde Grönlands und der Westantarktis, der Amazonas-Regenwald, Teile des arktischen Permafrosts und die Atlantische Umwälzströmung. Sie sind aller Wahrscheinlichkeit nach damit für die Zukunft der Menschheit entscheidend.

Arktis und Grönland

Schon 2007 hat gemäß einer Studie die Arktis einen kritischen Punkt überschritten und ist in einen grundsätzlich anderen Zustand übergegangen. Damals ging der Anteil des über vier Meter dicken Alteises um mehr als die Hälfte zurück. Da die Veränderung auf einem höheren Wärmegehalt des Ozeans beruht – der wiederum durch weniger Meereis weiter ansteigt* -, liegt es nahe, dass sie dauerhaft ist. Noch wird allerdings der Begriff „Kipp-Punkt“ vermieden, weil man zuerst die gesamten Auswirkungen der Veränderungen erforschen will. Klimaforscher erwarten aber nach den vorliegenden Daten, dass die Arktis bis 2100 im Sommer eisfrei wird.

*Durch den Schwund von Meereis absorbieren große Wasserflächen besonders viel Sonnenlicht. Die so aufgenommene Wärme lässt weniger neues Eis entstehen, so dass mehr Wasser im Sommer eisfrei ist. Man bezeichnet das als Eis-Albedo-Rückkopplung.

Der Verlust des arktischen Meereises erhöht das Risiko dramatisch, dass ein weiterer Kipp-Punkt ausgelöst wird: der Verlust des Grönländischen Eisschilds. Dieser stellt die zweitgrößte zusammenhängende Inlandseismasse nach dem Antarktischen Eisschild dar und erreicht eine Höhe von mehr als 3000 Meter. In den Höhenlagen des Grönländischen Eisschilds war das erste Jahrzehnt des 21. Jahrhunderts das wärmste bislang dokumentierte seit rund 1000 Jahren. Die Temperatur lag im Mittel sogar um 1,5 Grad höher als im Durchschnitt des 20. Jahrhunderts.

Manche Forscher interpretieren die statistischen Daten als Indiz, dass der Grönländische Eisschild dabei ist, in einen Teufelskreis zu geraten und irreversibel zu schmelzen. Hat die Temperatur einen kritischen Wert überschritten, beginnt nämlich die Schmelze an der Oberfläche des Eises den Masseschwund zu bestimmen und der Eispanzer schmilzt umso schneller, je dünner er wird – bis er vollständig abgetaut ist. Gemäß Simulationen wäre das Eis unter Annahme eines pessimistischen Emissionsszenarios bis zum Jahr 3000 völlig verschwunden.

Allerdings sind diese Aussagen noch mit großen Unsicherheiten behaftet, denn das Verhalten der Eiskappen ist relativ rätselhaft. Deshalb wagen die Forscher auch keine Vorhersage, wie nah wir wirklich an diesem Kipp-Punkt sind und wann der Teufelskreis merklich zu greifen beginnt. Der Weltklimarat verortet die Schwelle grob bei einem globalen Temperaturanstieg zwischen ein und vier Grad (derzeit 1,5 Grad). Unbekannt ist auch, ob das Eis tatsächlich komplett abschmelzen würde – oder ob es einen weiteren stabilen Gleichgewichtszustand bei einer geringeren Eisdecke gibt.

Aber selbst wenn die ganze Welt sofort aufhörte, fossile Brennstoffe zu nutzen, würde der Grönländische Eisschild in den kommenden Jahrzehnten rund 100 Billionen Tonnen Eis verlieren. Dieser Schmelzwasserabfluss hat Einfluss auf die Erhöhung des Meeresspiegels. Ein global gemittelter Meeresspiegelanstieg von mindestens 27 bis zu mehr als 50 Zentimetern sind wohl unausweichlich. Setzt sich die globale Erwärmung fort wie bisher, wird der Zuwachs noch weit höher ausfallen.

Der Anstieg des Meeresspiegels ist auch aus einem anderen Grund ein ernstes Problem für kommende Generationen. Denn da der Ozean sehr träge auf Veränderungen reagiert, macht sich der derzeitige Klimawandel erst mit einer Verzögerung von mehreren Jahrhunderten bemerkbar. Damit könnte der Meeresspiegel mit jedem Grad Erwärmung in den nächsten beiden Jahrtausenden um 2,30 Meter steigen. Das heißt: Selbst wenn es gelingt, den Temperaturanstieg auf zwei Grad zu begrenzen, steigt das Wasser stetig weiter.

Westantarktis

Indizien verdichten sich, dass es langfristig auch auf dem Südozean weniger Eis geben wird. Der Westantarktische Eisschild ist bereits instabil geworden. Ein mögliches Anzeichen, dass das antarktische Meereis tatsächlich schon eine Art Kipp-Punkt erreicht haben könnte, ist eine höhere Schwankungsbreite in der Meereisbedeckung. Außerdem schlägt sich die Eisausdehnung der Saison immer stärker im nächsten Jahr nieder („Autokorrelation„). Die Kombination von höherer Schwankungsbreite und zunehmender Autokorrelation ist in vielen Systemen ein allgemeines statistisches Zeichen dafür, dass ein Übergang in einen neuen Zustand bevorsteht.

Vermutlich hat der entscheidende Einfluss auf das Meereis gewechselt. Während noch während des 20. Jahrhunderts die Atmosphäre darüber entschied, wie weit sich das Eis nach Norden ausbreitet, bestimmt seit etwa 2015 warmes Oberflächenwasser im Südozean die Eismenge. Die Folge ist der deutliche Rückgang des antarktischen Meereises. Zukünftige geringe Meereisbedeckungen rund um die Antarktis könnten den Trend womöglich noch verstärken.

Wärmeres Wasser, weniger Meereis und mehr aufgenommene Sonnenergie könnten also nach und nach auch die Südpolarregion bis zur Unkenntlichkeit verändern. Allerdings: Die Weiten des immensen Südozeans und die gewaltigen Eisreserven auf dem Kontinent sorgen dafür, dass wirklich drastische Veränderungen in der Region sich über Jahrzehnte abspielen. Doch schon kleine Veränderungen können weltweite Folgen haben, denn die Antarktis ist zwar abgelegen, aber keineswegs isoliert. Der Südozean spielt vielmehr eine entscheidende Rolle für das weltweite Strömungssystem in den Meeren (siehe unten).

Der Energiehaushalt der Polarregion beeinflusst das Wetter bis in die Tropen. Da die Antarktis jetzt immer mehr Wärme aufnimmt und sich gleichzeitig die Abstrahlung nicht verändert, kommt der Strom von Energie von den Tropen (hohe Sonneneinstrahlung) in höhere Breiten ins Stocken, der z. B. auch den Jetstream und die Tiefdruckgebiete in Europa antreibt.

[Während einer als „Meltwater Puls 1A“ bezeichneten Warmphase am Ende der letzten Eiszeit stieg der Meeresspiegel vor etwa 14 000 Jahren für mehrere Jahrzehnte, wenn nicht für Jahrhunderte, um bis zu sechs Zentimeter pro Jahr. Am Ende dieser Phase war er rund 20 Meter höher als zuvor. Indizien deuten darauf hin, dass ein großer Beitrag des abrupten Meeresspiegelanstiegs von den recht plötzlich kollabierenden Rändern der antarktischen Eisschilde stammte. Zuvor waren dort die Temperaturen über lange Zeiträume deutlich gestiegen, ohne dass die Gletscher in gleichem Maße Eis verloren. Ein vergleichbarer Kollaps der Eisschilde könnte auf der Erde prinzipiell erst in Jahrhunderten auftreten – oder gar bereits beginnen.]

Amazonas-Regenwald und Monsun

Auch der brasilianische Regenwald und der Indische Monsun gelten als Exempel für Subsysteme des Klimas, die von einer plötzlichen desaströsen Entwicklung bedroht sind. So könnte eine Erhöhung der globalen Temperaturen um zwei Grad zum Wechsel von schwachen und sehr starken Monsunen – mit extremen Dürren oder Flutkatastrophen – und schließlich vielleicht sogar zum dauerhaften Ausbleiben des Indischen Monsuns führen. (Ab einer Erhöhung der Temperaturen um drei Grad könnte auch der Westafrikanische Monsun unwiederbringlich verändert werden.)

Schon heute verliert der Amazonas-Regenwald seine Resilienz. Er benötigt immer länger, um beispielsweise nach einer Trockenperiode zum Ursprungszustand zurückzukehren. Dies deutet darauf hin, dass die Rückkopplungen, die den Zustand des Waldes langfristig konstant halten, nur noch eingeschränkt funktionieren. Dadurch wird das Umkippen des Systems in einen irreversiblen Zustand begünstigt. Wenn rund 20% des Regenwaldes verschwunden sein wird, ist die kritische Schwelle erreicht. Das soll nach verschiedenen Untersuchungen bereits der Fall sein.

Wenn der Amazonas-Regenwald gänzlich fehlt, ist damit nicht nur auch sein Artenreichtum und eine wichtige Kohlenstoffsenke verschwunden, sondern es geht auch die Wechselwirkung mit dem Atlantik verloren. Die Wolken, die von dort kommen, regnen über dem Wald ab; das Regenwasser wird im Erdreich oder im Kronendach gespeichert, von wo es abermals verdunstet und so immer tiefer ins Landesinnere vordringt. Die inzwischen eingetretenen längeren Trockenperioden und extremeren Regenfälle haben bereits das Artenspektrum verändert.

Permafrost

Fallen Kipp-Elemente, könnten leicht weitere wie Dominosteine folgen. Zu ihnen gehört der Permafrostboden. Die Forscher warnen, dass tauender Permafrost (auch ein nichtlineares System) in den nächsten 30 Jahren für den Klimawandel eine doppelt so große Rolle spielen könnte wie bisher angenommen. Denn beim Abtauen werden große Mengen an Kohlenstoffdioxid freigesetzt, das den Klimawandel weiter antreibt, was wiederum Waldbrände wahrscheinlicher macht und damit noch mehr Kohlenstoffdioxid freisetzt. Außerdem wird aus auftauenden Permafrostböden massiv Methan freigesetzt, was zusätzlich unabsehbare Konsequenzen für das Klima haben könnte.

Meeresströmungen

Eine neue Studie stützt nun darüber hinaus Befürchtungen, dass das großräumige System der Meeresströmungen unter den Folgen des Klimawandels sogar völlig zusammenbrechen könnte. So wäre es möglich, dass beispielsweise die Meeresströmungen im Pazifik, die die weiträumige Temperaturverteilung an der Meeresoberfläche bestimmen – welche wiederum über das regionale Wettergeschehen entscheidet -, unberechenbar werden. Die Effekte von El Nino und der südlichen Oszillation, ein komplex gekoppeltes Zirkulationssystem von Atmosphäre und Meeresströmungen im äquatorialen Pazifik, könnten sich künftig häufen – mit der Folge von Dürren in Australien und Südostasien und Sturzregen im Westen Amerikas.

Der Verdacht liegt nahe, dass die globale Erwärmung den Atlantik bereits zu verändern beginnt. Seit Mitte des 20. Jahrhunderts hat die Zirkulation des Golfstrom-Systems um rund 15% an Schwung verloren, womöglich einmalig in den letzten 1000 Jahren. Diese nordatlantische Strömung wird von Dichteunterschieden infolge von Differenzen in Salzgehalt und Temperatur verursacht („thermohaline Zirkulation„). Infolge der Klimaerwärmung nimmt, vor allem durch die Eisschmelze, der Süßwassereintrag zu. Das salzärmere Wasser ist leichter als salziges Wasser und sinkt daher nicht so leicht in die Tiefe ab. Damit verringert sich der Antrieb und die Strömung erlahmt. Weiteres mit Süßwasser verdünntes Wasser sammelt sich vermehrt an der Oberfläche, was wiederum den Antrieb der Umwälzung weiter schwächt. Ab einem gewissen kritischen Punkt wird das zum unaufhaltsamen Teufelskreis.

Wo dieser Kipp-Punkt genau liegt, ist nach wie vor unklar. Die beiden jüngsten Berichte des IPCC kommen zu dem Schluss, dass mit einer Wahrscheinlichkeit von mindestens 90% mit einer deutlichen Abschwächung des Strömungssystems in diesem Jahrhundert zu rechnen ist. Der Kipp-Punkt würde demnach aber noch nicht überschritten. Allerdings streuen die allermeisten Modelle stark – was nicht überrascht, da die Stabilität der Atlantikströmung von der subtilen Balance im Süßwasserhaushalt abhängt, die jedoch nur recht ungenau berechenbar ist. Daher sind die von den Klimamodellen berechenbaren Zugewinne durch Flüsse, schmelzendes Eis und Niederschläge sowie die Verluste durch Verdunstung mit großen Ungenauigkeiten behaftet.

Viele Experten haben den Verdacht, dass die Zirkulation in den Modellen stabiler ist als in der Realität – und die Klimamodelle hier systematisch danebenliegen. Diese berücksichtigen nämlich meist nicht, wie sich das schmelzende Grönland-Eis, welches das Atlantikwasser zusätzlich verdünnt, auf die atlantische Umwälzung auswirkt. Alles in allem deutet vieles darauf hin, dass das Golfstrom-System nicht nur instabiler sein könnte als lange gedacht, sondern der Weg zum Niedergang auch schon begonnen hat. Daher schließen manche Experten nicht aus, dass der Golfstrom irgendwann ganz zum Stillstand kommt. Während der letzten Eiszeit passierte das ein halbes Dutzend Mal – immer dann, wenn große Eismassen ins Meer rutschten. In einem solchen Fall würde sich unser heutiges Klimasystem jedenfalls vollends verändern.

Zwar halten Experten selbst nach dem Aussetzen des Golfstroms eine neue Eiszeit im Norden für unwahrscheinlich, trotzdem könnte der Temperatursturz viel stärker ausfallen als bei der Kleinen Eiszeit im Mittelalter. Noch schlimmer als der möglich Kälteeinbruch im Norden wären vermutlich seine Auswirkungen auf andere Erdregionen. In den Monsungebieten Afrikas und Asiens würden, wenn der Nordatlantik kälter ist als die ihn umgebenden Landmassen, die jahreszeitlichen Niederschläge gering ausfallen und es träten vermehrt Dürren auf. Schon beim Erlahmen des Förderbandes könnte die damit verbundene Abkühlung ausreichen, um eine solche Trockenheit hervorzurufen. Kräftiger Wind würde die Situation noch verschärfen. Viele Regionen der Südhalbkugel würden sich deutlich erwärmen. Der Klimawandel insgesamt wäre also nicht gebremst, sondern die Wärme würde nur anders verteilt.

Gefahr für Ökosysteme

Nicht nur, dass schon geringe Veränderungen des Klimas unkontrollierbare selbstverstärkende Prozesse auslösen können. Hinzu kommt auch eine erdgeschichtlich beispiellose Vielfalt an zusätzlichen ökologischen Stressfaktoren, die von uns Menschen ausgehen – darunter Abholzung, Wilderei, Überdüngung, Biotopzerstörung und Einschleppung invasiver Arten.

So trägt beispielsweise der vermehrte Nährstoffeintrag in die Ozeane aufgrund menschlicher Aktivitäten zur stärkeren Schichtung des Meeres bei. Warmes Wasser liegt als Folge wie ein Deckel auf kälterem und verhindert dessen Auftrieb und eine Durchmischung. Unter solchen Bedingungen herrschen an der warmen Oberfläche Dinoflagellaten vor, mit denen Häufigkeit und Ausmaß giftiger Algenblüten an Küsten zunehmen. Dies wiederum wirkt sich auf Zugvögel, Fischbruten und Schalentiere verheerend aus.

Die Wissenschaftler rechnen mit schweren Folgen für die Ökosysteme. Zwar sind Organismen mit hohen Populationsdichten und kurzen Generationszeiten in der Lage, sich schnell an veränderte Bedingungen anzupassen. Langlebige Arten mit weniger Nachkommen pro Generation haben dagegen ein weitaus schlechteres Anpassungsvermögen. Wenn ein Ökosystem aber mehrere besonders stark vernetzte Arten verliert, kollabiert es unweigerlich. Schon heute drohen wichtige Nahrungspyramiden völlig aus dem Gleichgewicht zu geraten. Viele von ihnen basieren auf dem Phytoplankton. Wegen ihres kurzen Lebenszyklus von etwa sechs Tagen reagieren diese Organismen sehr schnell auf Umweltveränderungen. Die Phytoplanktonproduktion hat nach neuesten Berichten in den vergangenen 100 Jahren weltweit deutlich abgenommen. Da die Organismen vielen anderen Arten als Nahrung dienen, befürchten Forscher, dass das gesamte Ökosystem kippen könnte.

Zwischen 1995 und 2017 hat das australische Great Barrier Reef einen guten Teil seiner Korallen verloren. Auslöser waren den Forschern zufolge mehrere Zyklone, Korallenbleichen und zeitweise Vermehrung von Seesternen, die sich von Korallen ernähren. Daneben nehmen die Meere aber auch immer mehr Kohlenstoffdioxid auf, wodurch das Wasser versauert. Die Korallen können in der Folge ihr Kalkskelett schlechter aufbauen. Korallenbleichen, Meeresversauerung und immer neue Rekordtemperaturen sind inzwischen alltäglich geworden.

Die Argumente mancher Leugner des Klimawandels, auch in der Vergangenheit hätten sich die Organismen oft an neue Gegebenheiten anpassen müssen, greift in der gegenwärtigen Situation zu kurz. Die Lebensbedingungen verändern sich in nie dagewesener Geschwindigkeit. In den vergangenen 500 Jahren verschwanden vor allem durch menschliche Einwirkungen Tier- und Pflanzenarten 100- bis 1000-mal schneller oder waren vom Aussterben bedroht, als es in einem funktionierenden Ökosystem der Fall sein dürfte. Nach Schätzungen des Biologen Edward O. Wilson verschwinden zurzeit weltweit bis zu 30 000 Arten pro Jahr auf Nimmerwiedersehen. Das entspricht drei Arten pro Stunde. Von vermutlich acht Millionen existierenden Tier- und Pflanzenarten drohen rund eine Million verlorenzugehen, ein Teil davon bereits in den kommenden Jahrzehnten. Fest steht: Nie zuvor in den letzten paar Dutzend Millionen Jahren war die Aussterberate höher als heute.

Vieles deutet sogar darauf hin, dass sich Flora und Fauna unseres Zeitalters in rasendem Tempo den Merkmalen früherer Aussterbewellen nähern. Allein die anhaltende menschengemachte Erwärmung erinnert an die Erwärmung am Ende des Perm und ebenso der Trias. Die damaligen Aussterbewellen lehren uns auch, dass sich höhere CO2-Werte erst auf sehr lange Sicht wieder einpendeln – wir reden hier von hunderttausenden Jahren. Die Folgen des sechsten Massenaussterbens werden also viel länger anhalten als Zeit nötig war, um es in Gang zu setzen.

Den Kipp-Punkt, der Ökosysteme vollständig zusammenbrechen lässt, können wir nicht vorhersagen. Aber er wird das unvermeidliche Ergebnis sein, wenn wir die Klimaerwärmung nicht in Griff kriegen und den Verlust der biologischen Vielfalt umkehren. Bereits bei einem Überschreiten von einem Grad Erwärmung gegenüber der vorindustriellen Zeit könnte der Kipp-Punkt erreicht sein, meinen einige Forscher.

Gefahren für die Menschheit

Weitere Kipp-Punkte im Erdsystem stellen gravierende Risiken für die Menschheit dar. Einige betreffen lebensnotwendige Systeme wie die Grundwasserversorgung, die in einige Ländern bereits vor dem Kollaps steht. Da aus mehr als der Hälfte der großen Grundwasserspiegel der Erde mehr Wasser entnommen wird als sich auf natürliche Weise wieder auffüllen kann, können manche Wasserquellen versiegen. In Saudi-Arabien wurde der Kipp-Punkt der Grundwasserschöpfung schon erreicht.

Die Trinkwasserversorgung von vielen Menschen hängt von den Schmelzwassern der Gletscher ab. Aufgrund der Klima-Erwärmung schmelzen diese – bis auf wenige Ausnahmen – weltweit doppelt so schnell wie in den vergangenen 20 Jahren, was zum Anstieg des Meeresspiegels um rund 30% beiträgt. Wenn erst einmal der Höhepunkt der Schmelze überschritten ist, weil sich die Gletscher stark verkleinert haben, verringert sich die Menge des Schmelzwassers – mit erheblichen Folgen für die Wasserversorgung.

Unser Handeln gefährdet wichtige Pufferkapazitäten, auf die wir dringend angewiesen sind. „Indem wir maßlos unsere Wasserressourcen ausbeuten, die Natur und die Artenvielfalt zerstören und sowohl die Erde als auch den Weltraum verschmutzen, bewegen wir und gefährlich nahe an den Rand mehrerer Risiko-Kipp-Punkte“, warnen Wissenschaftler. Wenn die Menschheit das Ruder nicht herumreißt, wird das System nicht mehr in der Lage sein, die Risiken abzufedern und gewisse Funktionen aufrechtzuerhalten, was zu nicht umkehrbaren Schäden führen kann.

Die immer schwerwiegenderen Katastrophen treiben auch die Kosten für Versicherungen hoch, bis sie irgendwann nicht mehr bezahlbar sind. Sobald dieser Punkt erreicht ist, haben wir Menschen kein wirtschaftliches Sicherheitsnetz mehr.

Fazit

Die Umweltkatastrophen der vergangenen Jahre – wie Dürreperioden, Überschwemmungen und Wirbelstürme – zeigen deutlich, wie stark das Klimasystem der Erde bereits geschädigt ist. Bei Überschreiten des 1,5-Grad-Klimaschutzziels könnten bis zu zehn weiter Kipp-Punkte erreicht werden. Das daraus resultierende Ergebnis werden wir in all seinen Ausmaßen leider erst danach kennen. Eine Studie diskutierte das Risiko, dass durch noch stärkere Rückkopplungen eine Stabilisierung der globalen Temperaturerhöhung bei mehr als zwei Grad nicht mehr möglich sein könnte. Sicher ist diese Gefahr derzeit noch relativ gering. Aber es wird deutlich, wie dringend ein schneller und effektiver Klimaschutz notwendig ist, denn selbst wenn die Prozesse nicht mehr aufzuhalten sind, lassen sie sich doch bremsen.

Noch haben wir es in der Hand. Die heute umgesetzten Lösungen konzentrieren sich leider derzeit eher auf eine Verzögerung der Kipp-Punkte als wirklich resolut die Ursachen der Entwicklungen zu bekämpfen. Unser Handeln ist zu sehr auf das Jetzt und Heute getrimmt. Die Option künftiger Generationen werden zu wenig berücksichtigt. Weitschauendes Denken und Handeln ist vonnöten, das die Bedürfnisse und das Wohlergehen der Natur besser achtet und sie als globales System von zusammenhängenden Teilen sieht, von denen wir Menschen nur eines sind.

REM

Entstehung und Frühzeit der ERDE

Der englische Gelehrte John Lightfoot hatte nach biblischen Angaben errechnet, dass die Erde am 23. Oktober 4004 v. Chr. genau um 9 Uhr erschaffen wurde. Heute wissen wir, dass die Entstehung unseres Planeten nicht Tausende, sondern Milliarden Jahre zurückliegt. Es begann damit, dass vor mehr als 4,5 Milliarden Jahren – 33 000 Lichtjahre vom Zentrum der Milchstraße entfernt – eine gigantische Wolke aus Gas und feinem Staub kollabierte, ausgelöst durch die Schockwellen einer Supernova, und sich schließlich zu einer Scheibe abflachte.

Magnetfelder bremsten die Rotation der Scheibe und der Hauptteil der Materie sammelte sich aufgrund der Gravitation vor allem im Zentrum an, wo sie weiter kontrahierte. Druck und Temperatur stiegen immer mehr an und es entwickelte sich ein glühender, noch recht loser, gigantischer Gasball, ein Protostern. Als dieser eine kritische Masse überstieg, begann ein nuklearer Fusionsprozess – die Sonne war geboren.

Entstehung des Planetensystems

Der junge Stern im Zentrum des Urnebels vertrieb durch seine intensive Aktivität fast jegliches Gas aus der ihn umgebenden Materiewolke. Übrig blieben feste Partikel, die sich innerhalb von nur 20 000 Jahren teilweise zu kleinen Körnern aus kalzium- und aluminiumreichen Silikaten zusammenballten, die wir heute noch in Meteoriten finden. Die ältesten Körnchen haben ein Alter von 4,5676 Milliarden Jahren (mit einer Unsicherheit von plus/ minus 30 000 Jahren), was man als Zeitpunkt für die Entstehung unseres Sonnensystems festgelegt hat.

Die Körnchen lagerten sich zu kieselgroßen Objekten, sog. Pebbles, zusammen, aus denn sich wiederum innerhalb von 100 000 bis 1 Million Jahren mithilfe von Gravitation, elektrischen Kräften, Wirbeln und Magnetfeldern immer größere kugelförmige Körper bis zu kilometergroßen Objekten (Planetesimalen) bildeten. Neuere Modelle zur Entstehung der Planetesimale gehen von einem kollektiven Gravitationskollaps einer Wolke aus Eis- und Staubpartikeln aus, was inzwischen bestätigt scheint. Die Dichte der Wolke im turbulenten solaren Nebel musste, wenn das zutrifft, so groß gewesen sein, dass die Gezeitenkraft der Sonne die Wolke nicht zerreißen konnte. Der spontane Kollaps endete dann mit der Entstehung eines Urkörpers von bis zu 100 Kilometern Durchmesser. Nach diesem Modell sind die Planetesimale also bereits recht groß auf die Welt gekommen.

Die Planetesimale kollidierten zunächst immer wieder miteinander und lagerten sich zu noch größeren Körpern zusammen. Je größer die Objekte wurden, desto effizienter ging der Wachstumsprozess vonstatten. Allerdings verlief die Entwicklung nicht geradlinig von kleinen zu immer größeren Körpern. Häufig zerfielen Objekte nach weiteren Kollisionen wieder in viele Bruchstücke. Protoplaneten konnten in nur 10 Millionen Jahren auftauchen, durch Zusammenstöße auseinander gerissen werden und aus den Trümmern erneut hervorgehen. Allerdings: Je größer sie wurden, desto mehr nahm ihre Anzahl und folglich auch die Häufigkeit der Kollisionen insgesamt ab.

Die Frage, ob Planeten entstehen, hängt eng mit der verlangsamten Eigendrehung des Protosterns zusammen. Es scheint, dass bei der Entstehung unseres Planetensystems aufgrund von Transportprozessen in der protoplanetaren Scheibe einerseits Masse nach innen wanderte und andererseits Drehimpuls nach außen, so dass die Sonne nahezu alle Masse, die Planeten nahezu jeglichen Drehimpuls an sich rafften. Es ist also gerade der Drehimpuls der frühen Sonne, dem wir die Existenz der Planeten in unserem Sonnensystem verdanken – und damit auch unser Leben.

Die Gravitation eines Protoplaneten war bald stark genug, um jedes Objekt, das sich ihm näherte, entweder anzuziehen oder weit aus seiner bisherigen Bahn herauszuschleudern. Manche der Protoplaneten erreichten auf diese Weise eine Größe zwischen Erdmond und Mars. Der Erdvorläufer brachte es beispielsweise in dieser Zeit auf etwa 10% seiner späteren Masse. Bei dem Prozess der Planetenentstehung blieben auch kleinere Himmelskörper übrig, die noch immer durch die sonnenfernen Gefilde schwirren: Planetoide, Kometen und Kuiper-Objekte, die typischerweise einen Durchmesser von 10 bis 100 Kilometern haben.

Nahe der Sonne hatten sich die Planetesimale wohl vorwiegend aus hitzebeständigem Silikatgestein gebildet. Weiter außerhalb war es kalt genug, dass Wasser und Gase wie Methan (CH4), Stickstoff (N2) Kohlenstoffdioxid (CO2) und Kohlenstoffmonoxid (CO) gefroren. Das Resultat waren zwei Planetentypen: relativ trockene nahe der Sonne – einer Region, arm an flüchtigen Stoffen – und solche mit viel Wassereis und anderen flüchtigen Stoffen weiter entfernt. Die Trennlinie liegt heute zwischen Mars und Jupiter, etwa im Bereich des Asteroidengürtels.

Es ist ziemlich wahrscheinlich, dass unser Sonnensystem in den ersten 500 Millionen Jahren seiner Geschichte mehr Planeten beherbergte als heute, von denen im weiteren Verlauf nur wenige Exemplare überlebten. Die Kerne der Riesenplaneten (Jupiter, Saturn, Uranus, Neptun) im äußeren Sonnensystem wuchsen zunächst langsam aus Eis und Gestein heran. Als sie eine kritische Masse (rund 10 Erdmassen) überschritten, waren sie in der Lage, Gas anzuziehen und begannen rasch anzuschwellen, indem sie große Mengen Wasserstoff und Helium aufsammelten. Die Geburt der Gesteinsplaneten nah der Sonne (Merkur, Venus, Erde, Mars), die mangels Masse kein Gas um sich halten konnten und so im Verhältnis zu den Gasriesen klein blieben, war ein mehrstufiger Prozess und dauerte erheblich länger als bei den Gasplaneten – bis zu 100 Millionen Jahre.

Alle bisherigen Messungen legen nahe, dass ein 10 bis 20 Erdmassen schwerer Jupiterkern bereits innerhalb von 500 000 bis eine Million Jahren entstanden war und seine Bahn um die Sonne zog. Um sich seine heutigen 318 Erdmassen „anzufressen“, brauchte Jupiter wohl nur wenige Millionen Jahre.

Irgendwann in den nächsten 100 Millionen Jahren, so besagt ein Modell, sei es zu einer Instabilität der Umlaufbahnen der vier Gasplaneten gekommen, was gravierende Folgen für die Entstehung der Gesteinsplaneten hatte. Ein weiter Vorstoß Jupiters Richtung inneres Sonnensystem könnte dabei die protoplanetare Scheibe bis zur heutigen Erdbahn von Objekten leergefegt haben. Während sich aus den zahlreichen Planetesimalen, die sich um die Sonne angesammelt hatten, in den nächsten Dutzenden von Millionen Jahren Merkur, Venus und Erde bildeten, war der sonnenferne Mars vom Baumaterial abgeschnitten und hat sich demzufolge nur kümmerlich entwickelt. Vielleicht hat Jupiters Stippvisite ins innere Sonnensystem sogar einige dort früher existierenden Planeten beseitigt und so die Entstehung der Erde erst ermöglicht. Neue Überlegungen gehen von ein bis zwei neptunähnlichen Planeten aus, die in der wilden Frühzeit von Jupiter aus dem Sonnensystem katapultiert wurden.

Entstehung der Erde

Rund 70 Millionen Jahren nach der Sonnenzündung war der Erdvorläufer herangewachsen. Die Fachwelt ist sich allerdings noch nicht einig, ob er durch das Aufsammeln von unzähligen Körpern oder aber aus der Zusammenballung von etwa 10 marsgroßen Körpern zu unserem Planeten wurde. Tatsächlich sprechen Isotopen- und Elementverhältnisse dafür, dass die Erde größtenteils aus Enstatit-Chondriten (Magnesiumsilikat-haltige Steinmeteorite) besteht, die daher als Urbausteine des Planeten gelten.

Die frühe Erde war zunächst noch kleiner als heute – nichts als ein riesiger Klumpen zusammengeballten Gesteins. An der Oberfläche gab es einige Gase, Staub und die Kälte des Weltalls. Selbst das Innere des Planeten war noch kalt. Unter dem fortgesetzten Bombardement von Planetesimalen wuchs die junge Erde noch lange weiter. In ihrem Inneren sorgte die freiwerdende Kollisionsenergie der pausenlos einschlagenden Meteoriten und radioaktive Elemente für eine große Hitze, die nicht entweichen konnte und nach und nach anstieg. Als sich das Gestein auf rund 10 000°C erhitzt hatte, begann es zu schmelzen und die Erde wurde zu einer glühendheißen Feuerkugel.

Die Akkretion unter der Wirkung von Hitze und Schwerkraft führte zur Differenzierung des Planeten, d. h. , seine Bestandteile trennten sich ihrem Gewicht nach in verschiedene Schichten. Die schwereren Elemente wie Eisen, Magnesium und Kalzium sanken in die Tiefe, während die leichteren Stoffe wie Sauerstoff, Silizium und Aluminium an die Oberfläche trieben. Es bildete sich die bekannte Zwiebelstruktur aus – mit einem Kern aus Eisen und einem überwiegend aus Silikaten bestehenden Mantel. Die Formung des Erdkerns definiert das Geburtsdatum der Erde. Nach neuesten Erkenntnissen geschah das bereits 30 bis 40 Millionen Jahre nach der Entstehung des Sonnensystems, also vor 4,527 Milliarden Jahren (plus/ minus 10 Millionen Jahre). Diejenigen Elemente, die leicht oxidieren – wie die Mischung aus Silizium, Natrium und Kalzium -, bildeten vor 4,45 Milliarden Jahren des Erdmantel.

Durch die Abgabe von Wärme-Strahlung während vieler Millionen Jahre kühlte der Planet allmählich ab. Bei Temperaturen unter 1000°C kristallisierten aus der glühenden Schmelze Minerale und feste Gesteine. An der Oberfläche bildete sich eine feste Kruste, die wohl noch nicht als zusammenhängende Decke die gesamte Erde umschloss, sondern aus mehreren Einzelstücken bestand, die auf dem wallenden Magma schwammen.

Die Größe der Erde sorgte dafür, dass Wärme nur langsam verloren ging. Deshalb verfügt unser Planet über einen geschmolzenen äußeren Kern und über aktive Vulkane auf seiner Oberfläche. Für kleinere Himmelskörper ist das Verhältnis von Oberfläche zu Volumen und somit die Energieabstrahlung ins Weltall größer. Der Erdmond beispielsweise – mit knapp 3500 Kilometer Durchmesser nur rund ein Viertel so groß wie die Erde – verliert deshalb seine Wärme viel schneller.

Leichtflüchtige Bestandteile wie Wasser, Kohlenstoffdioxid, Ammoniak und Methan verdampften aus der Erde und bildeten eine erste Gashülle, die rund 100-mal dünner war als die heutige Atmosphäre. Der Überschuss an leichten Gasen, Helium und Wasserstoff, verschwanden in den Weltraum. Damals strahlte die noch junge Sonne schwächer als heute. Folglich konnte sie die Lufthülle vermutlich nicht genügend aufheizen, obwohl es dort seinerzeit große Mengen an dem Treibhausgas Kohlenstoffdioxid gab. Die Außentemperatur könnte daher schon bald unter den Siedepunkt von Wasser gesunken sein – vorausgesetzt, es gab längere Ruhephasen zwischen den Meteoritenbombardements und die Kruste war relativ stabil.

Vermutlich durch Jets – mächtige, sehr energiereiche Sonnenfackeln – wurde der Rest der Gas- und Staubhülle aus dem inneren Sonnensystem einfach weggeblasen. Infolgedessen destabilisierten sich die jungen Planeten gegenseitig und ihre Umlaufbahnen wurden nach und nach immer elliptischer. Einer anderen Hypothese zufolge war ein anderer Stern für diese Vorgänge verantwortlich, der in wenigen 1000 Astronomischen Einheiten (AE) Entfernung an der Sonne vorübergezogen sein soll. Seine Anziehungskraft habe Planeten, Asteroiden und Kometen aus ihren ursprünglich kreisförmigen Bahnen geworfen und in stark elliptische und geneigte Bahnen umgelenkt. Derartige Umlaufbahnen besitzen tatsächlich heute noch Kometen, die mehr als 50 AE von der Sonne entfernt sind.

Nach ein paar Millionen Jahren überschnitten sich die Bahnen der Himmelskörper schließlich, was zu Kollisionen geführt haben könnte. Merkur und Erdmond sind wahrscheinlich aus den Trümmern kollidierender Urplaneten hervorgegangen. Für kleinere Körper aber gab es immer weniger Bereiche mit stabilen, von den wachsenden Planeten nicht gestörten Bahnen. Der Asteroidengürtel zwischen Mars und Jupiter ist heute eine der letzten sicheren Zonen für solche Objekte. Nach Modellrechnungen und Beobachtungen bei anderen Sternen liegt nahe, dass die Ära der Kollisionen in unserem Sonnensystem je nach Schätzung bis zu 100 Millionen Jahre andauerte und mit dem vermuteten dramatischen Zusammenstoß eines marsgroßen Körpers, Theia genannt, mit der Urerde endete. Die Kollision führte zur erneuten Aufschmelzung der Erde und der Entstehung des Mondes.

Zu dieser Zeit hatte unser Heimatplanet durch frühere Kollisionen 90% seiner endgültigen Größe erreicht, seine Ausformung war also wahrscheinlich noch nicht beendet. Der Mantel Theias sowie ein Teil des Erdmantels wurden durch den heftigen Zusammenprall ins All gesprengt. Fast der gesamte Eisenkern Theias blieb in der Urerde stecken und vereinigte sich mit dem Erdkern. Ein Teil des weggesprengten Theia-Materials sammelt sich in einer Wolke um die Erde und verklumpte schließlich zu unserem Erdtrabanten.

Der Gezeiteneinfluss des Mondes bremste die rasante Erdrotation (anfangs 2,5 Stunden pro Umdrehung), während sich der Orbit des Mondes mit der Zeit vergrößerte – entsprechend dem Gesetz der Drehimpulserhaltung. Dieser Effekt dauert bis heute an. Der Mond stabilisiert auch die Lage der irdischen Rotationsachse, die gegenüber der Ekliptik-Ebene (der Ebene, in der die Erdbahn um die Sonne liegt) gekippt ist. Die geringe Schwankungsbreite der Erdneigung ist wiederum verantwortlich für die relative Regelmäßigkeit des Erdklimas.

Entwicklung der Erde

Wie thermodynamische Berechnungen zeigen, könnte die Temperatur auf der Erde innerhalb von nur 10 Millionen Jahren nach dem Einschlag Theias so weit gesunken sein, dass sich der flüssige Globus wieder mit einer festen Gesteinskruste überzog. Diese bildete sich aus sog. komatiitischer Lava, die deutlich reicher an Magnesium und Eisen war als basaltische und lediglich in der Frühzeit der Erde auftrat. Der Planet muss damals noch sehr heiß gewesen sein und wies vermutlich eine mobile Kruste auf, die leicht schmolz. Von Feuerströmen und Asteroideneinschlägen wurde sie stets aufs Neue zerrissen und Krustenteile tauchten immer wieder in die wallende Glut des Erdinneren ein.

Untersuchungsergebnisse deuten darauf hin, dass sich die heftigsten Einschläge auf die Erde auf einen Zeitraum von 4,48 bis 4,45 Milliarden Jahren vor heute beschränkten. (Nach Untersuchung von rund 100 Mondkratern gab es dort erst vor 4,3 Milliarden Jahren ein Maximum an Einschlägen.) Die Anzahl der Impakte scheint danach zunächst graduell zurückgegangen sein. Magmatische Prozesse im Mantel und das Wiederaufschmelzen der Krustenfragmente brachten auf der Erde allmählich ein Gestein hervor, das eine andere Zusammensetzung und Dichte hatte als die Urkruste und eher der des Granit, einem hellen magmatischen Gestein, entsprach. Es war sehr viel härter, zugleich aber leichter und ragte aus der umgebenden basaltischen Kruste heraus.

Nach dem Zusammenstoß mit Theia hatte das Schwerefeld der Erde nach und nach zugenommen. Schließlich besaß der Planet soviel Anziehungskraft, um eine zweite Atmosphäre dauerhaft zu halten. Riesige Mengen Gase entluden sich in gigantischen Vulkanausbrüchen und reicherten sich in der Lufthülle an. Zusätzlich setzten die zahlreichen, mit der Erde kollidierenden Himmelskörper beim Aufschlag Gase frei, darunter Wasserdampf, Ammoniak und Methan. So enthielt die Atmosphäre anfangs vor allem Wasserstoff (71%), Kohlenstoffdioxid (23 bis 24%), Stickstoff (5 bis 6%) und geringe Mengen Schwefelverbindungen.

Wasser war schon Bestandteil der ursprünglichen Nebelwolke, aus der Sonne und Planeten hervorgingen, und in Form von Eis auf Planetoiden offenbar weit verbreitet. Sollte dies zutreffen, dann war also bereits bei der Erdentstehung Wasser vorhanden. In der Frühzeit der Erde lag es vor allem im Mantel in Form von Hydraten gebunden vor. Es ist aber unklar, wie viele Wassermoleküle sich in der jungen Erde einlagerten. Nach Schätzungen von Forschern der Universität Tokio enthielt das Mantelgestein damals 50 Mal so viel Wasser wie die gegenwärtigen Meere.

[Viele Indizien sprechen dafür, dass Kohlige Chondrite (bestimmte kohlenstoffhaltige Steinmeteorite) das Wasser für die heutige Erde lieferten. Neben einer Vielzahl von organischen Verbindungen enthalten sie rund 10 bis 20% Wasser, dessen chemische Zusammensetzung – vor allem das Isotopenverhältnis von Deuterium zu Wasserstoff (D/H) – der Chemie der Ozeane entspricht. Auch in Estatit-Chondriten steckt genug Wasser, dessen D/H-Verhältnis ebenfalls einigermaßen passt. Vielleicht läuft alles auf ein Mischmodell hinaus und sowohl Kohlige als auch Enstatit-Chondriten haben zum Wasserbudget der Erde zumindest beigetragen. (Kometen hingegen kommen nicht als Wasserquelle in Frage. Ihr Eis unterscheidet sich in Bezug auf das D/H-Isotopenverhältnis stark vom Wasser auf der Erde.)]

Viele Jahrmillionen dauerte der Kampf zwischen Feuer und Wasser um die Vorherrschaft auf unserem Planeten. Schließlich aber waren die Temperaturen weit genug gesunken. Die Erdatmosphäre war jetzt dauerhaft kühl genug, damit Wasserdampf kondensierte und als Regen zu Boden fiel. Vermutlich schüttete es in Strömen ununterbrochen mehrere zehntausend Jahre lang. Spätestens vor 4,3 Milliarden Jahren sammelte sich flüssiges Wasser in riesigen vulkanischen Becken und Senken der Erdoberfläche. Mit der Zeit bildeten sich immer größere Seen und Meere.

Nach anderer Ansicht ähnelte zur Zeit des großen Regens die junge Erde äußerlich noch dem heutigen Mond: Ihre Oberfläche aus schwarzem Basaltgestein sei pockennarbig von Einschlägen gewesen, aber es gab kaum größere Senken, in denen sich Regenfluten hätten sammeln können. Das Wasser stieg deshalb überall gleichmäßig – mit der Folge, dass der nun gebildete Ozean bald den gesamten Globus bedeckte. Nur die hohen Vulkanberge ragten als Inseln aus dem Meer heraus.

Vor längstens vier Milliarden Jahren hatte das Wachstum der Planeten im Sonnensystem ein Ende. Auf der Erde existierten jetzt eine Gesteinskruste und Ozeane – vielleicht sogar schon eine kontinentale Kruste, auf welcher der Kreislauf von Verwitterung und Sedimentation ablief. Die Ordnung war aber noch instabil – u. a. aufgrund der Wechselwirkung der Planeten mit kleineren Himmelskörpern.

Der wandernde Jupiter hat möglicherweise den Planetoidengürtel kräftig aufgemischt und dabei Asteroiden ins innere Sonnensystem geschleudert. Die Frage ist noch nicht geklärt, wann genau der Meteoritenhagel auf der Erde einsetzte und ob er kurz und heftig war oder schwächer und länger dauerte. Daten von Mondproben legen jedenfalls nahe, dass um 3,95 Milliarden Jahre v. h. in einem relativ kurzen Intervall von wenigen Dutzend Millionen Jahren eine Flut von Himmelsobjekten auf dem Mond – und entsprechend wohl auch auf der Erde – einschlugen. Auch anschließend wurde unser Planet noch hin und wieder von einem Himmelskörper getroffen, ehe Ruhe einkehrte.

Vor 3,8 Milliarden jedenfalls endete das sog. Höllenzeitalter oder Hadaikum (nach Hades, dem Gott der Unterwelt in der griechischen Mythologie), das mit der Entstehung der Erde begonnen hatte. Es folgte das Archaikum, das bis 2,5 Milliarden Jahre vor heute andauerte. In dieser Zeitepoche war die Erde erstmals durchgängig von einer festen Kruste mit einer Oberflächentemperatur unter dem Siedepunkt von Wasser bedeckt.

Kontinente und Tektonik

Nach neuesten Erkenntnissen könnte eine kontinentale Kruste vor 3,7 Milliarden Jahren entstanden sein. Ihr Gehalt an radioaktiven Elementen muss anfangs höher gelegen haben als heute; sie war also wärmer und vermutlich dünner. Im Vergleich zur damals wenige Kilometer mächtigen basaltischen Kruste, die sich grob mit der heutigen ozeanischen Kruste vergleichen lässt, war sie aber wesentlich kühler und chemisch und mineralogisch sehr viel komplexer.

Die ersten Protokontinente nahmen wahrscheinlich nur allmählich Gestalt an, so wie sich auch in der Gegenwart neue Landmassen nur sehr langsam bilden. Auf welche Weise genau und wie schnell echte Kontinente entstanden und wuchsen, ist noch nicht endgültig geklärt. Ausgedehnte Landflächen besaß die Erde damals jedenfalls wohl noch nicht. Die meisten Geologen sind sich allerdings einig, dass die Erde spätestens vor etwa drei Milliarden Jahren erstmals über einen richtigen Kontinent verfügte: ein ödes, mit Vulkanen übersätes Land, sicherlich kleiner als das heutige Australien. Wo er lag, ist nicht bekannt. Da es dicht unter der Kruste immer noch heftig brodelte, zerbrach der Kontinent wieder, während sich anderswo neue Landmassen bildeten.

Wann die moderne Plattentektonik auf der Erde einsetzte, ist heftig umstritten. Laut verschiedenen Theorien gab es im Archaikum immer wieder vorübergehend tektonische Aktivität, die geologisch betrachtet aber eher kurzlebig war und dauerhaft erst vor mehr als drei Milliarden Jahren Fahrt aufnahm. Gewaltige kosmische Geschosse, die die Erde trafen, könnten der Auslöser dafür gewesen sein, dass aufsteigendes Magma aus der Tiefe zunehmend die ozeanischen Platten und kontinentalen Krustenteile umherschob. Bei Zusammenstößen verschmolzen sie zu größeren Gebilden, während erkaltete ozeanische Kruste an Subduktionszonen in den heißen oberen Mantel gedrückt wurde und abtauchte. (Analysen des ältesten Gesteins auf der Erde legen nahe, dass bereits vor etwa vier Milliarden Jahren Vorgänge stattgefunden haben könnten, die der Subduktion ähnelten.)

Nachdem der Prozess einmal angestoßen war, folgte eine (gut dokumentierte) Serie aus Aufspaltungen und Vereinigungen von Kontinenten, die schließlich zur heutigen Festlandsverteilung führten. Der Erdkern treibt gemeinsam mit dem Erdmantel heute noch die Geotektonik mit Kontinentalverschiebung, Gebirgsbildung und Vulkanismus als äußere Erscheinungsformen an.

Stabilisierung

Unsere Erde hatte also ein neues Gesicht bekommen: Aus einem ursprünglich braunen war ein „blauer Planet“ geworden. Nachdem der ständige Regen die Atmosphäre gereinigt hatte, gelangte mehr Sonnenlicht bis zur Erdoberfläche. Die Ozeane wurden zum Ursprung allen Lebens. Fossilfunde belegen, dass die ersten einfachen Lebensformen möglicherweise schon unmittelbar nach Auftauchen der ersten Meere entstanden. In mehr als 3,5 Milliarden Jahre altem Gestein wurde das Vorhandensein von Sauerstoff produzierenden und Minerale verarbeitende Lebensformen nachgewiesen.

In der weiteren Erdgeschichte schwankten einige physikalische und chemische Größen, nachdem sie ein bestimmtes Niveau erreicht hatten, nur noch in bestimmten Grenzen, blieben also relativ konstant. Das trifft z. B. auf den Sauerstoffgehalt der Atmosphäre, die Temperatur und die Salinität der Ozeane zu.

Einer Hypothese zufolge betrug die Leuchtkraft der Sonne während des Archaikums nur etwa 75 bis 80% ihres heutigen Wertes. Unter vergleichbaren Randbedingungen hätte die irdische Durchschnittstemperatur etwa 26°C niedriger liegen und damit Wasser größtenteils zu Eis gefrieren müssen. Dennoch liefern die geologischen Zeugnisse bis vor 2,5 Milliarden Jahren keinen stichhaltigen Hinweis auf eine großräumige Vereisung der frühen Erde. Das Treibhausgas Kohlenstoffdioxid spielte möglicherweise eine entscheidende Rolle. Durch vulkanische Aktivität gelangte es ständig in die Atmosphäre: Erhöhte sich dort seine Konzentration, stiegen auch die Temperaturen auf der Erde.

Allerdings: Wäre das CO2 nicht wieder aus der Atmosphäre entfernt worden, wären im Archaikum die Weltmeere schließlich verdampft – ein Schicksal, das vor vier Milliarden Jahren die Venus ereilte und den Planeten in ein unwirtliches Treibhaus verwandelte. Auf der Erde war es wohl die Gesteinsverwitterung, die uns schließlich davor bewahrte: Sie bindet CO2 und reduziert damit dessen Konzentration in der Atmosphäre. Wie bedeutend dieser Prozess als Kohlenstoffdioxidsenke war und wann dieser Prozess (Kohlenstoff-Silikat-Zyklus) eingesetzt hat, ist freilich umstritten.

Jedenfalls scheint die Rückkopplung (ein Feedback) zwischen Entzug und Emissionen von Kohlenstoffdioxid dessen Konzentration in der Atmosphäre über einen längeren Zeitraum hinweg – man spricht von 250 000 Jahren -annähernd konstant gehalten zu haben. Das bedeutet aber keineswegs, dass die Erdtemperatur stets gleichförmig war. Im Gegenteil: Durch den Anstieg und Abfall vulkanischer Emissionen oder aber durch Gebirgsbildung, welche die Verwitterung erhöhte, variierte der Kohlenstoffdioxidgehalt in der Lufthülle der Erde fortlaufend. Doch stellte sich immer wieder ein Gleichgewicht her. Das ermöglichte relativ stabile Temperaturen auf unserem Planeten und machte die Entstehung und Entwicklung des Lebens erst möglich.

Die meisten Wissenschaftler stimmen heute der Annahme zu, dass das Leben selbst die oben beschriebene Rückkopplung maßgeblich beeinflusst hat, selbst wenn wir noch lange nicht alle Einzelheiten des Rückkopplungs-Mechanismus kennen. Cyano-Bakterien und später Pflanzen bauten mittels Fotosynthese Kohlenstoffdioxid aus der Atmosphäre ab. Die Wurzeln der Landpflanzen brachen Gesteine auf und förderten die Verwitterung. Durch Zersetzung organischen Materials und Stoffwechsel der Tiere gelangte CO2 schließlich wieder in die Atmosphäre. Dieser organische Kohlenstoffzyklus konnte das CO2-Budget der Atmosphäre beeinflussen und immer wieder ausbalancieren. Selbst die ständig steigende Energieabstrahlung der Sonne hat auf Dauer ein komplexes Gleichgewicht nicht verhindert. Heute werfen die massiven zusätzlichen Kohlenstoffdioxid-Emissionen aus den fossilen Brennstoffen den CO2-Zyklus aus dem Gleichgewicht.

Die wesentlichen biogeochemischen Kreisläufe, von denen auch unsere Existenz abhängt, waren schon vor drei Milliarden Jahren etabliert, lange bevor große Organismen erschienen. Seitdem sind die dynamischen Aktivitäten der Biosphäre vollständig mit denen der Litosphäre, Hydrosphäre und Atmosphäre verflochten; sie wirken aufeinander und regulieren sich gegenseitig. Durch dieses verhältnismäßig komplexe System von fast geschlossenen Stoffkreisläufen wird eine ausgeglichene Energiebilanz aufrechterhalten. Schon längerfristige geringe Abweichungen hätten die Erde zu einer glühenden Hölle oder Eiswüste machen können.

Vor 2,7 Milliarden Jahren bestand die Erdatmosphäre höchstwahrscheinlich noch zu rund 70% aus Kohlenstoffdioxid und enthielt keinen Sauerstoff. Es waren allerdings schon Mikroorganismen (Cyano-Bakterien) aktiv, die mit der Fotosynthese Sauerstoff freisetzten. Dieser reagierte im Meer mit anderen im Wasser gelösten Substanzen, insbesondere mit Eisenionen und Schwefelverbindungen, zu meist nicht mehr löslichen Formen. Im Laufe der Jahre besiedelten die Cyano-Bakterien immer größere Meeresgebiete, womit auch die Sauerstoff-Produktion zunahm. Ein nennenswerter Anteil davon gelangte als freies Gas in die Atmosphäre. Vor 2,2 Milliarden Jahren war der Sauerstoffgehalt in der Lufthülle der Erde schon auf mehr als ein Prozent des heutigen Werts gestiegen. Als Folge begann nun auch die Erdoberfläche zu oxidieren: Eisenminerale z. B. reagierten mit dem Sauerstoff zum roten Eisenerz Hämatit.

Nach der Entwicklung der Pflanzen wurde im Laufe von vielen Jahrmillionen immer mehr Sauerstoff (O2) freigesetzt, so dass sein Gehalt in der Atmosphäre immer mehr anstieg. Erst vor etwa 350 Millionen Jahren pendelte sich schließlich ein Gleichgewicht zwischen der fotosynthetischen O2-Produktion und dem O2-Verbrauch der Tiere ein. Seitdem beträgt der Anteil des Gases in der Atmosphäre relativ konstant knapp 21%.

[Als Glücksfall für die Evolution des Lebens erwies sich zudem, dass der Sauerstoff in der Stratosphäre durch die kurzwellige, energiereiche UV-Strahlung der Sonne gespalten wird. Als Folge entstand dort Ozon (O3), das einen Schutzschirm gegen die gefährlichen Strahlen bildete und die Entwicklung des Lebens an Land möglich machte. Die Ozonschicht schützt uns auch heute noch vor der ultravioletten Sonnen-Strahlung.]

REM