Der Tod – und kein Ende?

Ob vor 40 000 Jahren oder heute, ob in der Arktis oder am Äquator, immer und überall gehen die Menschen den Fragen nach Geburt und Tod nach und versuchen, Antworten zu finden. Der Tod scheint ein Teil des Kreislaufs der Natur zu sein und damit unteilbar verbunden mit dem Leben. Während der Zen-Buddhist dem Unterschied zwischen Leben und Tod keine Bedeutung zumisst, erscheint der Tod für viele heutige Menschen als größtmögliche Kränkung: Kaum hat man die Vorstellung einer unabhängigen, objektiven Welt entwickelt, wird man auch schon mit der Tatsache konfrontiert, dass man aus dieser objektiven Welt ersatzlos gestrichen wird.

Wo die kritischen Funktionen des Organismus ausfallen bzw. die Fähigkeit verloren geht, die einzelnen Rhythmen des Lebens wirksam zu koordinieren, kommt der Tod. Konkret tritt der Todesprozess in vielfältigen Stadien auf: Atemstillstand, Verschwinden des Pulses, Nulllinie des EKG, irreversibler Verlust des Bewusstseins, usw. Über Generationen hinweg galt der Stillstand von Atmung und Herz- und Kreislauftätigkeit als Todeszeichen. Die alten Ägypter und Griechen glaubten, das Herz bringe die Lebenskraft hervor; das Fehlen des Herzschlags galt demzufolge als wichtigstes Todeszeichen. Im Judentum wie auch im Islam beruhte die Definition von Tod dagegen traditionell auf dem Atemstillstand.

Setzt die Atmung aus, endet in den Zellen die Energieproduktion (ATP), so dass die Sauerstoffvorräte in weniger als einer Minute erschöpft sind. Ohne Sauerstoff können Enzyme nicht mehr aktiv werden. Am Ende sind die Zellen in den lebenswichtigen Organen irreversibel geschädigt; ein Organ nach dem anderen wird wie in einer Kettenreaktion lahmgelegt („Örtlicher Tod“ oder „Organtod“) – und schließlich der gesamte Körper. Beim Herzstillstand spricht man vom „Klinischen Tod„. Durch künstliche Maßnahmen (künstliche Beatmung und Herzmassage) können Atmung und Kreislauf über den spontanen Stillstand hinaus aufrechterhalten bzw. reaktiviert werden. Erst etwa 10 bis 15 Minuten nach dem Kreislaufstillstand lässt sich der Hohlmuskel im Allgemeinen nicht mehr zum Schlagen erwecken. Ausnahmen bestätigen allerdings die Regel.

Auch wenn das Herz nicht mehr schlägt und den Körper mit Blut versorgt, lebt es noch weiter. Bleibt die Versorgung mit Nährstoffen und Sauerstoff aus, werden noch vorhandene Energieträger ohne Sauerstoff abgebaut. Dabei kommt es zur Bildung von Milchsäure. Da sie nicht ausgespült wird, übersäuern die Zellen und sterben schließlich nach 30 Minuten ab. Jetzt erst ist das Herz tot.

Die prinzipielle Umkehrbarkeit des kurzfristigen Ausfalls von Atmung und Kreislauf zeigt, dass der „klassische“ Todesbegriff unbrauchbar geworden ist. Der Tod musste also neu definiert werden. Zwar erlischt auch das Bewusstsein nach dem letzten Herzschlag innerhalb weniger Sekunden, doch das Gehirn bleibt noch ein paar Minuten länger intakt: Botenstoffe werden freigesetzt und setzen die Nervenzellen innerhalb von 30 Sekunden in einen Ruhemodus („elektrische Stille„), um Energie zu sparen. In diesem Zustand bleibt das Gehirn etwa zwei bis drei Minuten, dann entlädt sich die Energie in einer elektrochemischen Welle.

Sofern es innerhalb von vier bis maximal zehn Minuten nach Herzstillstand wieder genügend rasch mit Sauerstoff versorgt wird, kann auch das Gehirn reaktiviert werden. Erst jenseits dieser Frist, also nach fünf- bis zehnminütigem Sauerstoffentzug, wird es irreversibel geschädigt und die grauen Zellen versagen ihren Dienst für immer („Hirntod„). Einige Mediziner vermuten, dass das Gehirn unter bestimmten Umständen sogar noch länger – bis zu einer Stunde – ohne Sauerstoff auskommen kann. Wann schlussendlich der Hirntod eintritt, hängt von vielen Faktoren ab, etwa der Temperatur.

Den irreversiblen Verlust der Hirnfunktion als gleichbedeutend mit dem Tod des Menschen gleichzusetzen, erwog erstmals Moses Maimonides (1135 – 1204), der herausragendste Gelehrte des mittelalterlichen Judentums. Inzwischen hat sich das Kriterium des Hirntods fast weltweit durchgesetzt. Auch im Judentum und im Islam ist es inzwischen akzeptiert.

Beim Hirntod existieren drei nach neurologischen Kriterien festgestellte Varianten, die sich auf Hirnstamm, Ganzhirn oder die Großhirnrinde beziehen. Sind die Funktionen von Stammhirn, Kleinhirn und Großhirn unwiderruflich erloschen, spricht man von Ganzhirn- oder Gesamthirntod. Wie der Hirnstammtod ist er definiert als irreversibles Ende des Organismus als Ganzem. Beim Großhirntod handelt es sich um ein fundamental anderes Konzept: den Tod als irreversiblen Verlust des Bewusstseins und der Fähigkeit zu sozialen Interaktionen. Nach dieser Definition würden auch Wachkomapatienten als tot gelten.

Ausschlaggebend für den Hirntod als Zeitpunkt des Todes waren durchaus pragmatische Gesichtspunkte. Hinzu kamen aber auch grundsätzliche Erwägungen: Die menschliche Individualität ist an die Struktur des Gehirns gebunden. Mit dem Verlust der Hirnfunktionen ist diejenige Eigenschaft verloren, auf der das Menschsein beruht. Daher sind für die Frage nach lebendig oder tot die konkreten Hinweise auf eine noch erhaltene bewusste oder wieder erreichbare Wahrnehmung relevant. Eine Existenz ohne Bewusstsein und Hirntätigkeit ist demzufolge kein menschliches Leben mehr. Ein Hirntoter mit schlagendem Herzen ist also kein Sterbender, „sondern eine Leiche mit künstlich aufrechterhaltener partieller Organfunktion“, wie es der Moraltheologe Eberhard Schockenhoff ausdrückt.

Der Tod des zentralen Organs, des Gehirns, wird demgemäß mit dem Gesamttod des Individuums gleichgesetzt. Allerdings folgt aus dem Ende der Hirntätigkeit nicht zwangsläufig der „Biologische Tod“ des Menschen. Es gibt Körperfunktionen, die nicht durch das Gehirn vermittelt werden und zumindest bei einigen Hirntoten noch vorkommen. Dazu zählt die Fähigkeit des Körpers, sich selbst zu regulieren, etwa Urin auszuscheiden, Blutdruck und Körpertemperatur zu managen oder Hormone zu produzieren, ferner die Fähigkeit, Wunden zu heilen und Infektionen zu bekämpfen, etwa durch Fieber, außerdem auf Stress zu reagieren (etwa bei Organentnahmen). Hirntote Kinder können weiterwachsen, Schwangere einen Fötus heranreifen lassen. Nach traditionell biologischem Verständnis gibt es daher Grund zum Zweifel daran, ob ein selbst ohne Gehirnfunktion atmender Patient vollständig tot ist.

Trotz erloschener Hirntätigkeit lassen sich Atmung und Herzschlag heute durch künstliche Maßnahmen länger erhalten. Kommt noch die künstliche Ernährung dazu, kann ein Patient nahezu unbegrenzt lange in diesem körperlichen Zustand bleiben. In San Francisco überstand ein Hirntoter mehrere Infektionen, bekam Schamhaare und verendete erst nach neun Wochen an einer Lungenentzündung. Die längste Überlebensspanne eines Hirntoten liegt bei 14 Jahren!

Im Sinne eines irreversiblen Verlusts körperlicher Integrität wäre also ein künstlich beatmeter Hirntoter keine Leiche. Erst das endgültiges Versagen aller lebenserhaltenden Vorgänge wäre dann das Ende eines Menschen. Als sichere Zeichen dafür gelten Leichenflecken und Leichenstarre. Für extreme Vitalisten endet das Leben gar erst, wenn der Organismus an keiner Stelle mehr Energie aufwendet, um seinem Zerfall entgegenzuwirken. Der Tod tritt nach dieser Auffassung erst in dem Moment ein, in dem die letzte Zelle die Fähigkeit verliert, „die Moleküle des Organismus zu einer funktionierenden Ordnung zusammenzuhalten“. Das kann je nach Außentemperatur manchmal sogar Tage dauern.

Die Grenzlinie zwischen Leben und Tod ist also nicht mit Sicherheit bekannt und lässt sich auch nicht so ohne weiteres festlegen. Daher sind sich alle einig, dass der Tod selbst eigentlich nicht zu definieren ist. Es können lediglich Kriterien zu seiner Feststellung bestimmt werden. Trotz aller Zweifel hat sich der Hirntod aber faktisch nahezu weltweit durchgesetzt und in Medizin und Recht weitgehende Anerkennung gefunden. Der Tod ist somit eine Verabredung auf der bestmöglichen Wissensbasis, eine Konvention, die entscheidend anhand medizinischer Daten, aber auch nach rechtlichen und ethischen Richtlinien festgelegt wurde.

Gedanken an den Tod

Der Mensch ist das einzige Lebewesen, von dem wir sagen können, dass es um die Unabwendbarkeit seines eigenen Todes weiß. Wann diese ungeheuerliche Erkenntnis unsere Vorfahren zum ersten Mal traf, ist unbekannt. Seitdem setzen sich Menschen in aller Welt mit ihrer Sterblichkeit, mit dem Wissen, dass die persönliche Welt aus Gedanken, Gefühlen und Erfahrungen mit dem eigenen Tod verschwindet, auseinander. Das löst zunächst einmal Angst aus. Der Tod erscheint als eine Bedrohung.

Unsere Psyche verweigert sich standhaft der Vorstellung an ein endgültiges Ende. Das existenzielle Dilemma unserer Situation scheint sich offenbar nur auf eine einzige Weise überwinden zu lassen: indem man die eigene Existenz in einen umfassenderen kosmischen Zusammenhang stellt. So erschufen sich die Menschen übernatürliche Welten, um das Unerklärbare zu erklären. Der Glaube an das Weiterleben nach dem Tod in einem wie auch immer gestalteten Jenseits spendet Trost und lindert bzw. überwindet den schmerzlichen Zustand der Zufälligkeit, Erklärungsnot und Zwecklosigkeit. Er hilft also, die Unwägbarkeiten und die Endlichkeit des Lebens zu ertragen und macht zugleich das Sterben leichter.

Schon die frühgeschichtlichen Totenkulte vor mehr als 80 000 Jahren legen die Vermutung nahe, dass die Vision vom Weiterleben nach dem Tod etwas Urmenschliches ist, etwas, das tief in uns ist und das unlösbar zum Menschsein dazugehört. So wandelte sich nach Ansicht der Wissenschaftler die existenzielle Angst vor dem erschreckenden Wissen um die eigene Sterblichkeit auf erstaunliche Weise letztlich in ein kulturstiftendes Instrument um. Der Mensch verließ und verlässt sich auf seine machtvollen und umfassenden Glaubens- und Regelsysteme, um die kosmische und existenzielle Bedrohung zu mildern.

Für Christen, Juden, Moslems und Naturreligionen ist der Tod ein Übergang, eine Brücke zwischen zwei Leben. Die Vorstellung vom Paradies, einem seligen Zustand ohne Krankheit, ohne Leid und Alter, das auf einen Auserwählte nach dem Tod wartet, entstammt vermutlich demselben Urwunsch nach ewigem Leben. In fernöstlichen und in Naturreligionen ist der Tod ein Neubeginn. So wird im Buddhismus und Hinduismus der Geist im Tod vom Körper getrennt und zieht in einen neuen Körper ein. Eine Theorie der Seelenwanderung und Wiedergeburt formulierte auch als erster Denker des Abendlandes der Naturphilosoph Pythagoras von Samos (um 2595 bis 2535 v. h.). Für Buddhisten endet Kreislauf der Wiedergeburten erst durch den Eingang ins Nirwana, eine andere Existenzweise (nicht vergleichbar mit dem Paradies).

Nahtod

Manche Forscher vertreten die These, dass die eigentliche biologische Grundlage für den Unsterblichkeitsglauben und generell für Religiosität Nahtoderfahrungen gewesen sein könnten. Darunter versteht man außergewöhnliche Bewusstseinszustände, die mit intensivem Erleben verbunden sind und an der Schwelle zum Tod auftreten können. Ihre Existenz ist unter Wissenschaftlern heute unbestritten. Zehn bis zwanzig Prozent der Menschen in verschiedenen Kulturen und über alle Alters- und Religionsgrenzen hinweg, die dem Tod nahe waren oder zu sein glaubten, erinnern sich an derartige Erlebnisse, auch wenn sie im Detail von Kultur zu Kultur und Mensch zu Mensch unterschiedlich ausgestaltet und oft an innere Motive, an persönliche Erfahrungen und Befindlichkeiten gebunden sind.

Charakteristisch für Nahtoderfahrungen ist meist ein Gefühl der Stille, des Friedens und des Glücks, eine Loslösung vom Körper und eine außerkörperliche Perspektive, von Bewegungen durch Dunkelheit oder einen Tunnel, an dessen Ende ein helles Licht erscheint, in das man eintaucht, ein Wiedersehen mit nahestehenden Menschen (z. B. verstorbenen Angehörigen) und eventuell einer Begegnung mit einem geheimnisvollen, göttlichen Wesen. Am Ende bricht die Erfahrung jedoch abrupt ab: Die, die sich gerade noch auf dem Weg in eine andere Welt wähnten, werden zurückgerissen und finden sich zu ihrer großen Enttäuschung im eigenen Körper wieder. Das reale Leben kehrt zurück – und damit auch die Angst.

[Aller körperliche Schmerz und auch jede sonstige Körperempfindung schwindet. Ein Gefühl des Friedens tritt auf, der Leichtigkeit, des Wohlbehagens. Man nimmt wahr, was um einen herum getan und gesprochen wird, empfindet alles als sehr real und kann es später oft präzise und mit nachprüfbaren Details beschreiben. Man fliegt durch einen Tunnel auf ein helles, warmes Licht zu. Je näher man dem Licht kommt, umso mehr Glücksgefühle entstehen. Die Grenzen zwischen Selbst und Umwelt verfließen und ein Gefühl des Einsseins mit der Welt stellt sich ein – man fühlt eine überwältigende Freude und völliges Glück. In den oft paradiesischen Naturlandschaften treten verstorbene Angehörige auf.

Einige berichten von der Gegenwart eines alles umflutenden Lichtwesens und einem Gefühl bedingungsloser Liebe und Güte. Manche berichten, ihr Leben habe sich wie ein rückwärts laufender Film vor ihnen abgespult, verbunden mit einer durchdringenden Selbstbewertung. Schließlich werden die meisten – oft gegen ihren Willen (sozusagen „auf höheren Befehl„) – zurückgeschickt. Meistens tritt man dann mit schmerzhaftem Ruck wieder in den Körper ein, was als ausgesprochen unangenehm und schmerzhaft erlebt wird. – Aber nicht nur positive Gefühle warten an der Schwelle zum Tod. Manche „Rückkehrer“ berichten auch von einem Gefühl der Panik oder unendlicher Leere – ja, sogar dem Blick in die Hölle.]

Nach einer Nahtoderfahrung sind sich die Menschen subjektiv ganz sicher, in einer Welt jenseits der unseren unterwegs gewesen zu sein. Für sie gibt es keinen Zweifel mehr an der Existenz Gottes und dem Weiterleben nach dem Tod im Jenseits. Für viele Betroffene verändert sich auch das diesseitige Leben für immer. Sie suchen eine innere Neuorientierung und wenden sich von äußeren, materiellen Werten (z. B. wirtschaftlichem oder gesellschaftlichem Erfolg) ab. Stattdessen stellen sie vermehrt Menschlichkeit und Spiritualität in den Mittelpunkt ihres Lebens. Radikale Berufswechsel, aber auch mehr Engagements für öffentliche Angelegenheiten, sind relativ häufig, allerdings auch Scheidungen. Zugleich wird das eigene Lebensgefühl und die Wertschätzung der verbleibenden Lebenszeit intensiver.

Auch Schamanen erzählen von Reisen in eine andere Welt, von einem Tunnel, von ihrem Tod und ihrer Rückkehr ins Leben. Sie erzählen vom Fliegen und wie sie über andere Menschen schweben. Ein erster Bericht über Nahtod-Erscheinungen stammt aus dem Gilgamesch-Epos, der ältesten schriftlich fixierten Dichtung aus dem 4. Jahrtausend v. h. In alten buddhistischen und christlichen Sammlungen gibt es zahlreiche Berichte über Himmelsvisionen, Höllenvisionen, außerkörperliche Erfahrungen und Lebensbeurteilungen im weitesten Sinne.

Auch die Entrückungen und Visionen religiöser und historischer Persönlichkeiten werden von vielen Wissenschaftlern als „Nahtod-Erlebnisse“ interpretiert: etwa die Himmelfahrt des Jesaja in den apokryphen Bibelschriften oder die des islamischen Propheten Mohammed. Der Zen-Buddhist erlebt im Erleuchtungserlebnis, dem „Satori“, die vollkommene Einheit von Ich und Welt. Der Mystiker sieht im Nichts das universelle Bewusstsein, das allen Kulturen bekannt ist: Hindus nennen es „Atman“, Christen „Heiliger Geist“, verschiedene Yoga-Schulen „Kundalini-Energie“.

Ursachen

Sind diese Erfahrungen tatsächlich Hinweise auf ein Sein nach dem Tod, wie es die Mythen und Religionen der Welt beschreiben? Oder sind es die letzten Bilder aus der Tiefe des Unbewussten, ehe Leib und Seele gemeinsam erlöschen?

Klar ist, Nahtod-Erfahrungen sind keine Nachtod-Erfahrungen, keine Berichte aus dem Reich der erloschenen Hirnfunktionen, sondern Erlebnisse aus dem Grenzbereich zwischen Leben und Tod. Es ist weitgehend unstrittig, dass sie noch bei funktionierendem Gehirn stattfinden. Denn wären alle Hirnfunktionen erloschen, wäre jede Möglichkeit, Erfahrungen – gleich welcher Art – zu sammeln, ein für alle Mal verloren. Für Hirnforscher steht daher außer Frage, dass Nahtoderlebnisse Schöpfungen unseres Gehirns sind. Bei schweren Hirnverletzungen ist eine solches Erlebnis kaum möglich, das gleiche gilt bei Ruhigstellung durch Medikamente.

Nahtod-Erfahrungen beruhen also offensichtlich auf Phasen eingeschränkter Funktionsfähigkeit eines Gehirns, das sich wieder erholt hat. Insofern verwundert es auch nicht, dass zentrale Aspekte von Nahtodberichten wie Tunnelvisionen und Außerkörpererfahrungen auch bei anderen Funktionsstörungen des Gehirns, auftreten, z. B. bei Schizophrenen oder beim Drogenmissbrauch.

Sauerstoffmangel (Hypoxie) wird besonders häufig als Teil-Erklärung für die transzendentalen Erlebnisse genannt. Zumindest kann künstlich erzeugter Sauerstoffmangel, etwa durch Untertauchen bei der Taufe im Urchristentum oder durch besondere Atemtechniken beim Yoga, transzendentale Erlebnisse vermitteln. Ebenso könnten diese Folgen eines Kohlenstoffdioxid-Überschusses sein. Zu viel Kohlenstoffdioxid stört das Säure-Base-Gleichgewicht im Gehirn – und das kann nach Untersuchungen Halluzinationen, Lichterscheinungen und Euphorie auslösen. (Allerdings sind „echte“ Nahtoderfahrungen sehr viel klarer und bleiben deutlich besser im Gedächtnis haften.)

Die Forscher haben festgestellt, dass die Gehirnwellen 30 Sekunden vor und nach einem Herzstillstand sehr auffällig sind. Veränderungen treten dabei vor allem in den sog. Gamma-Oszillationen auf, einem bestimmten Frequenzbereich der neuronalen Schwingungen, aber auch in anderen Frequenzbereichen. Die Gehirnaktivität ist in diesen Momenten äußerst hoch, die Wellen entsprechen denen, die sonst bei hochkognitiven Prozessen – z. B. bei Erinnerungen – auftreten. Auch bei intensiver Meditationspraxis werden Hirnströme im Gammaband verstärkt. Zwei bis drei Minuten nach dem Herzstillstand (bei Raumtemperatur) soll sich die Energie im Gehirn in einer elektrochemischen Welle entladen. Auch dieser Effekt könnte an den beschriebenen Nahtoderfahrungen beteiligt sein.

Erklärungen

Offenbar geht es bei den außergewöhnlichen, „außersinnlichen“ Erfahrungen mehr um Selbstwahrnehmungen des Gehirns und weniger um Eindrücke von der Außenwelt. Unser Gehirn funktioniert ja (nach den einflussreichsten Theorien) wie eine Vorhersagemaschine, die anhand früherer Erfahrungen, Erwartungen oder Überzeugungen ständig und aktiv plausible neuronale Vorhersagen über zu erwartende Reize erzeugt. Diese werden mit aktuellen sensorischen Daten kombiniert und führen zu unserer tatsächlichen Wahrnehmung. Es handelt sich dabei also um eine Interpretation, eine „kontrollierte Halluzination„, wie es manche Wissenschaftler ausdrücken. Gibt es keine sensorischen Informationen mehr, fehlt die Kontrolle über die Vorgänge im Gehirn.

Die verantwortlichen Hirnzentren für die Verortung des Ichs arbeiten routinemäßig multiperspektivisch. Allerdings wird diese normale Fähigkeit durch die laufenden Sinnesempfindungen (vor allem visuelle und taktile Sinnesreize) und unser Selbstmodell (womit das Gehirn den Körper repräsentiert) permanent unterdrückt. Die sehr stabil erlebte subjektive Verortung unseres Ichs innerhalb des Körpers ist also eine Konstruktion des Gehirns. Sie kann aber erwiesenermaßen auch bei gesunden Probanden leicht manipuliert werden, z. B. durch geschickte Sinnestäuschung per virtueller Realität. Auch in Erinnerungen sehen wir uns oft aus einer Perspektive, die wir in Wirklichkeit nie einnehmen.

Nicht nur für „Out-of-Body-Erfahrungen“, sondern auch für Tunnel- und Lichtvisionen gibt es eine physiologische Erklärung. Vermutlich sind diese in der Architektur der Sehrinde begründet: In den Zentren der optischen Felder sitzen die Nervenzellen viel dichter und sind stärker miteinander verschaltet als am Rand. Wenn jetzt die Nervenzellen in der Sehrinde chaotisch reagieren, erscheint ein helles Lichts in der Mitte des Sehfelds, das zu den Rändern hin verblasst. So entsteht der Eindruck eines Tunnels. Und während der Effekt immer stärker wird, glaubt man, sich rasch auf das Licht zuzubewegen.

Auch Piloten von Überschalljets verlieren durch hohe Beschleunigung kurzfristig das Bewusstsein und berichten davon, einen langen Tunnel gesehen zu haben, an dessen Ende ein helles Licht erstrahlte. Dabei ist nahezu jede Bewusstlosigkeit von angenehmen Gefühlen begleitet – bis hin zu Euphorie.

In Extremsituationen schüttet das Gehirn u. a. endogene Halluzinogene (z. B. Opiate) aus, die ein großes Glücksgefühl hervorrufen. (Denken wir in diesem Zusammenhang auch an den „Runner’s High„, einen euphorischen Zustand beim Laufen, der die Anstrengung vergessen lässt.) Ist das Gefühl für Körperempfindungen und damit auch für Raum und Zeit nicht mehr vorhanden, entsteht das Einheitsgefühl mit dem Universum, von dem auch Mystiker aller Kulturen berichtet haben (Unio mystica, Nirwana, Tao, Brahman-Atman usw.). Es tritt ebenfalls bei LSD-Gebrauch auf, allerdings in verzerrter Form.

Lebensfilm-Bruchstücke bzw. plötzliche Erinnerungen können auch durch elektrische Stimulation bestimmter Stellen im Gehirn ausgelöst werden. Für die Stimme, die den Rückzug ins Leben befiehlt, gibt es mittlerweile eine Erklärung: Nach dem Nahtod-Erlebnis ist das Bewusstsein anfangs noch gespalten. Zum Teil befindet sich der Betroffene noch im tiefen Schlafbewusstsein, zum Teil versucht das Gehirn schon, die Situation zu kommentieren. Das tiefe Schlafbewusstsein bemerkt das Kommentieren und nimmt es als fremde Stimme wahr, so dass innerhalb ein- und desselben Gehirns ein Dialog stattfindet (ähnlich wie bei Schizophrenen, zu denen eine fremde Stimme spricht).

Das Phänomen des Nahtoderlebnisses scheint also kein Hinweis auf ein Leben nach dem Tod zu sein. Mitunter treten ähnliche Erscheinungen auch in der Hypnose auf, in durch Rhythmus oder Musik ausgelöster Trance oder unter Einfluss von bestimmten Drogen. Man kann Gefühle von Zeitstillstand, Körpererweiterung, Ich-Entgrenzung oder Erscheinungen sogar künstlich erzeugen. Die spirituelle oder religiöse Deutung der Empfindungen hängt dabei vom biografischen und kulturellen Kontext ab.

Die neurophysiologischen Erklärungen sind durchweg seriös und sehr plausibel und erhellen uns die körperlichen Voraussetzungen für die Erlebnisse an der Schwelle zum Tod. Doch reichen indes die Ergebnisse der Forschung noch nicht aus, um alle Befunde zu erklären. Für manche Menschen ist damit die Frage nach dem Fortbestand des Bewusstseins oder der Seele nach dem Tod hinaus nicht endgültig beantwortet.

Wissen um die Sterblichkeit

Viele flüchten sich angesichts des Todes in Glauben, in Ideologie oder Esoterik – verbunden mit einem Sprung aus der Vernunft. „Offenbar gibt es keine Vorstellung, wie seltsam sie auch sein mag, an die Menschen nicht zu glauben bereit sind, wenn sie ihnen nur Hoffnung auf eine Form der Ewigkeit ihrer Existenz macht“, schreibt der Soziologe Norbert Elias. Rational aber haben wir keine Deutung für ein Weiterleben nach dem Tod. Für Sören Kierkegaard, dem Vorläufer der Existenzialisten, ist es allein deshalb nicht vorstellbar.

Der Tod bedeutet also wohl das absolute Ende. Der Mensch muss intellektuell stark sein, das ohne Auswege anzuerkennen. Seneca schrieb in seinen Briefen: „Der Tod jedoch, der sich erst nähert, aber doch unvermeidlich kommt, verlangt gelassenen, festen Mut, und der ist selten und findet sich nur bei Weisen … Wer den Tod ablehnt, lehnt das Leben ab. Denn Leben ist uns nur mit der Auflage des Todes geschenkt; es ist sozusagen der Weg dorthin.“

In der Antike konnte man die Grenze der Lebensspanne über den Ruhm respektieren: Der epische Held lebt in seinen Taten fort. Heute treten andere Dinge an deren Stelle, allen voran Kunstwerke. Kreativität kann zum Vehikel werden, die Sterblichkeit zu überwinden. Für viele Mensch, vor allem in der westlichen Welt, wird die begrenzte Lebensspanne zunehmend in ökonomische Dimensionen gezwängt – als Ressource, die es optimal zu nutzen gilt. Leben heißt dann: die 80 Jahre, die im Schnitt zur Verfügung stehen, dafür nutzen, das meiste rauszuholen.

Der altgriechische Philosoph Epikur lehrte, der Tod brauche uns nicht zu beunruhigen, denn alles beruhe nur auf Wahrnehmung: „Das schauerlichste Übel also, der Tod, geht uns nichts an; denn solange wir existieren, ist der Tod nicht da, und wenn der Tod da ist, existieren wir nicht mehr. Folglich geht er weder die Lebenden an noch die Toten, denn die einen betrifft er nicht und die anderen sind nicht mehr.“

Doch sollte der Tod keineswegs verdrängt werden. Vielmehr ist es angebracht, sich bewusst mit der eigenen Lebensspanne auseinanderzusetzen und Strategien für den Umgang mit der schwersten Bedrohung des Ichs zu entwickeln. „Philosophieren heißt Sterben lernen!“ formulierte der Aufklärer Michel de Montaigne (1533 – 1592). Damit meinte er die Haltung, die auf das Leben als Ganzes blickt – quasi aus der Perspektive des eigenen Endes. Das Wissen, zugleich vergänglich und einzigartig zu sein, kann würdigen, was das Leben zu bieten hat.

Wer reflektiert, dass das eigene Leben ein Ende hat, ist auf die besondere Bedeutung dieses Ereignisses eingestellt und wird durch dessen Eintritt nicht überrascht. „Ich erhoffe nichts, ich fürchte nichts, ich bin frei!“ steht auf dem Grabstein des kretischen Dichters Kasanzakis in Iraklion geschrieben. Viele alte Menschen leiden kaum unter Todesangst. Der Tod ist eher ein Problem für die Überlebenden als für die Sterbenden. Aber die Angst vor dem Ungewissen oder gar vor Zuständen der Zersetzung gibt es auch bei jenen Menschen, welche ihrer eigenen Endlichkeit gefasst gegenüberstehen.

Nach übergroßer Lebensgier, nach maßlos Fürchten, Hoffen, Sehnen, wissen dem Gott wir Dank dafür – wen immer wir im Himmel wähnen -, dass Leben nie kann ewig währen, dass Tote niemals wiederkehren, dass Flüsse müd‘ nach vielen Wehren endlich doch ins Meer einströmen.

Algernon Swinburn

(aus dem Gedicht „Der Garten der Proserpina“)

REM

Gefahr aus dem Erdinneren

         Plumes und Hotspots

Ausbruch des Laacher Sees

Vor über 13 000 Jahren erschütterte eine Vulkaneruption, die gewaltigste in Mittel- und Westeuropa innerhalb der letzten 100 000 Jahre, die Eifel, Teil des Rheinischen Schiefergebirges im Westen Deutschlands. Der Ausbruch war wesentlich größer als der des Mount St. Helens in den USA im Jahre 1980. Asche, Lava und Gesteine wurden in die Höhe geschleudert. Die Aschesäule stieg in nicht einmal einer Stunde 40 Kilometer hoch in die Stratosphäre.

600°C heiße Glutlawinen und Ascheströme breiteten sich mit hohen Geschwindigkeiten aus. Um den Vulkan lagerte sich Lockermaterial in einer 30 Meter hohen Schicht aus Tuff (hellem Gestein aus Vulkanasche) und Bims (poröses Lavagestein) ab. Schließlich wurde die gesamte Eifel unter einer fünfzig Meter hohen Ascheschicht begraben. In der Atmosphäre driftete die Asche sogar bis nach Schweden und Norditalien.

Das ausgeschleuderte Material versperrte dem Rhein an der Mündung des Brohlbachs den Weg und ließ einen riesigen Stausee von mindestens 140 Kilometer Länge entstehen. Der spätere Bruch des Damms muss eine über zehn Meter hohe, verheerende Flutwelle (Tsunami) ausgelöst haben, die bis in die Nordsee schwappte. Als sich die Magmakammer des Vulkans geleert hatte, brach ihre Decke ein und es bildete sich die Caldera, in der sich heute der Laacher See befindet.

Verantwortlich für den verheerenden Vulkanausbruch war der sogenannte Eifel-Plume, der hier zwischen 45 und 400 Kilometer tief im Erdmantel liegt.

Plumes

Plumes („Rauchfahnen“) sind eine Art irdischer Kamine, in denen geschmolzenes Gestein tief aus dem Erdmantel von der Hitze getrieben nach oben steigt wie Rauch durch einen Schornstein. Im Aufstrombereich bildet es eine pilzförmige Blase.

Verursacht werden Plumes (im Fachjargon „Mantelplumes„) möglicherweise durch Teile ozeanischer Kruste (Erdplatten), die an Subduktionszonen abgetaucht und bis hinab an den unteren Rand des Erdmantels gelangt sind und sich dort angesammelt haben. Im Laufe von vielen hundert Millionen Jahren bilden sich durch die Heizung des äußeren Erdkerns oder durch Phasenübergänge des Gesteins heiße Blasen („Hot Blobs„). Sie besitzen die Konsistenz eines Knetgummis und haben einen Durchmesser von rund 300 bis 1000 Kilometern.

Diese Plumes steigen pulsartig im Erdmantel auf – wie Blasen in einem Topf kochenden Wassers, allerdings deutlich langsamer. Sie bahnen sich mit einem Tempo von nicht mehr als zehn Zentimetern im Jahr den Weg durch das Gestein des Erdmantels, und machen so den Weg frei für weitere vom Erdkern aufgeheizte Massen. Dreißig bis fünfzig Millionen Jahre brauchen die Plume-Köpfe, bis sie die Obergrenze des Erdmantels erreichen. Allerdings verwundert es, dass die Plumes oberhalb einer Tiefe von rund 1000 Kilometern teils nicht mehr gerade verlaufen, sondern abbiegen und seitlich versetzt ihren Aufstieg fortführen, möglicherweise aufgrund einer Zustandsänderung des Materials, verursacht durch abnehmenden Druck und sinkende Temperatur. Unter der Erdkruste verbreiten sich die Plumes pilzartig. Aus ihrem Material können an der Erdoberfläche Vulkane gespeist werden.

Hotspots

Wo die glutflüssigen Gesteinsmassen (weit über 1100°C heiß) an der Oberfläche ankommen, sprechen Geologen von einem Hotspot (heißen Fleck). Hier drückt das glühende Material unerbittlich von unten gegen die Erdkruste und wölbt sie an dieser Stelle nach oben. Inzwischen weiß man, dass viele Hotspots genau über dem Rand von Plattengräbern liegen, andere befinden sich über deren Mitte.

Da die kontinentale Kruste aus Granit recht gut isoliert – viel besser jedenfalls als die dünne ozeanische Kruste aus Basalt -, fließt das Magma seitlich ab oder kann relativ nahe unter der Oberfläche (ca. 50 Kilometer) stecken bleiben. Im letzteren Fall sammelt es sich in kilometergroßen Kammern an und kann unter Umständen langsam abkühlen und erstarren. Nach Millionen von Jahren haben sich auf diese Weise feste Gebirgsarten daraus gebildet, die an die Oberfläche gepresst werden können. Man kennt solche freigelegten Magmakammern mit geringer oder keiner Vegetation u. a. von den Polargebieten. Besonders ausgeprägt sind sie in den Dry Valleys in der Antarktis, wo kein Baum und kein Strauch auf den Ablagerungen wächst.

Die meisten Hotspots unter den Ozeanen waren oder sind vulkanisch aktiv. Das Magma schmelzt hier die basaltische Erdoberfläche an und brennt sich schließlich durch die Kruste. Diese Vulkanausbrüche verlaufen still und ruhig: Die heiße Masse aus dem Erdinneren wird tropfenförmig nach oben gepresst, flüssige Lava tritt aus und erkaltet – neue Erdkruste entsteht. Im Meer wachsen die Vulkanberge zu beträchtlicher Größe und können nach einiger Zeit sogar mehrere tausend Meter über den Meeresspiegel aufragen. So wurden Inseln hervorgebracht, wie etwa die Kanaren und Azoren im Nordatlantik oder Madagaskar und die Hawaii-Inseln. Madagaskar ist vermutlich eine junge Erhebung, die sich offenbar erst innerhalb der letzten zehn Millionen Jahre entwickelt hat.

In der Erdgeschichte sind schon gewaltige Mengen Lava aus den durch Plumes entstandenen Vulkanen ausgetreten. Man geht davon aus, dass auf diese Art mindestens 10% der gesamten Erdoberfläche ein Stempel aufgedrückt wurde, vielleicht sogar 40%! Mehrere Dutzend von relativ eng begrenzten vulkanisch aktiven und tief im Erdmantel verankerte Regionen sind über den Globus verteilt. Insgesamt haben die Wissenschaftler bisher fast 50 Hotspots identifiziert.

Entstehung eines mittelozeanischen Rückens

Manchmal schmelzt ein Plume einen ganzen Kontinent von unten an – oft an einer Schwächezone in der Kontinentalplatte – und dünnt ihn aus. Die heißen Strömungen üben zusammen mit anderen tektonischen Kräften an dieser Stelle eine Zugspannung auf das Gestein aus. Im weiteren Verlauf bildet sich ein Grabenbruch oder Rift Valley. In dessen Senke ergießt sich bei Vulkanausbrüchen die Lava und erstarrt zu Basalt.

Die tektonischen Kräfte ziehen die beiden Seiten des Riffs weiter auseinander und der Graben senkt sich weiter ab. Schließlich gelangt er unter den Meeresspiegel, so dass er überflutet wird und sich im Laufe langer Zeit ein neuer Ozean bildet. Die Vulkane des Grabenbruchs bilden dann den ozeanischen Rücken, an dem fortwährend neue Erdkruste zwischen den beiden auseinanderdriftenden Bruchstücken des alten Kontinents entsteht. Genau so könnte z. B. vor 135 Millionen Jahren der Mittelatlantische Rücken entstanden sein, der heute Afrika und Südamerika voneinander trennt (und ebenso Nordamerika und Europa).

Vielleicht spielen Hotspots also eine wichtige Rolle bei der Entstehung von Platten. Ob allerdings Plumes einen Einfluss auf die Bewegung der riesigen Kontinentalplatten haben, ist unklar. Jedenfalls dürfte er gering sein.

Neue Vorstellung

Das Konzept der Plumes steht heute auf dem Prüfstand. Immer mehr Untersuchungen belegen, dass die klassische, über 50 Jahre alte Hotspot-Theorie so nicht stimmen kann. Inzwischen sind selbst die beiden grundlegenden Eigenschaften, die Plumes haben sollen, in die Schusslinie geraten: nämlich dass sie von ganz tief unten, der Kern-Mantel-Grenze, aufsteigen und dass ihr sichtbarer Teil, der Hotspot, ortsfest ist.

Ungefähr jeder zweite Hotspot, so wurde mittlerweile festgestellt, ist nicht heiß genug, um mittels Auftrieb aus dem tiefen Erdmantel aufzusteigen. Manche Forscher halten es für denkbar, dass die absinkenden Ozeanplatten sich direkt oberhalb der sogenannten D“-Schicht, dem untersten Teil des Erdmantels, ablagern oder auch irgendwo mitten im Erdmantel stecken bleiben. Sie könnten dort heiße Materie verdrängen, die dann als Plume zur Erdoberfläche gelangt – und nur die heißesten Hotspots hätten ihren Ursprung an der Kern-Mantel-Grenze. Denkbar scheint allerdings ebenso, dass klassische Hotspots auf dem Weg nach oben manchmal stecken bleiben und abkühlen, oder die vermeintlich kühlen Plumes klein sind, und ihre Temperatur deswegen unterschätzt wird.

Dass Plumes tief aus dem Erdmantel aufsteigen, scheint also zwar weiterhin denkbar. Doch ihre Quellregion müsste umherwandern oder die aufsteigende Magmasäule durch Fließvorgänge im Mantel (Konvektionsströmungen) verbogen werden. Modellrechnungen legen jedenfalls nahe, dass Hotspots ein paar Millimeter im Jahr weiterwandern können. Von den rund 50 bekannten Hotspots gelten inzwischen allenfalls noch sieben als ortsfest. Bald könnte es kein einziger mehr sein.

Dass mit dem Gesetz der Ortsfestigkeit etwas nicht stimmen kann, war schon länger aufgefallen. Denn es ist unmöglich, das Puzzle der Kontinente im Laufe der Erdgeschichte immer wieder so zusammenzusetzen, dass die Lage der Hotspots fest bleibt.

Platten und Hotspots wandern also gleichermaßen, und wir sehen den kombinierten Effekt beider Vorgänge. Alles, was aus dem alten Konzept abgeleitet wurde – von der Klimageschichte bis zur Wanderung der Pole -, enthielt somit Fehler. Beispielsweise bestimmten Geologen auf der Basis ortsfester Hotspots die ehemaligen Positionen der Pole. Demnach sollte sich die Stelle, an der die Erdachse aus dem Globus ragt, in den letzten 130 Jahren um bis zu 20° gedreht haben. Die neuen Funde widersprechen dem: Statt der Pole sind nur die Hotspots gewandert.

Wandernde Inselvulkane

Wenn nach vielen Jahrtausenden der Lavanachschub für einen Hotspot-Vulkan versiegt, schrumpft er, bis er irgendwann wieder unter dem Meeresspiegel verschwindet. Längst hat sich bis dahin der Hotspot selbst bereits etliche Kilometer entfernt und erneut durch die Erdplatte geschweißt: Ein neuer Vulkan ist entstanden und damit eine neue Insel. So können im Laufe von Jahrmillionen ganze Inselketten entstehen, wie beispielsweise die Galapagos-Inseln.

Auf dem Pazifikboden bilden auch die Inseln von Hawaii das Ende einer Vulkankette (5800 Kilometer lang), der sogenannter Hawaii-Emperor-Kette, die bis vor die russische Halbinsel Kamtschatka hinaufreicht. Nach der alten Vorstellung lag der zugehörige Hotspot die ganze Zeit unveränderlich bei etwa 19°N, während die Pazifische Platte um etwa 10 Zentimeter pro Jahr Richtung Nordwesten darüber hinwegdriftete. Er lag aber vor rund 75 Millionen Jahren auf der Breite von 75°N – weit entfernt von seiner heutigen Position.

Innerhalb der letzten 80 Millionen Jahre wurde an diesem Hotspot ein Vulkan nach dem anderen aus dem Meeresboden gebrannt. Der älteste Vulkan der gesamten Kette, vor rund 80 Millionen Jahren aktiv, ist der Detroit Seamount in der Nähe der Halbinsel Kamtschatka. 35 Kilometer südlich von Hawaii ist der Unterseevulkan Loihi bereits drei Kilometer hoch gewachsen. Noch tausend Meter bis zur Wasseroberfläche – und die nächste Insel der Hawaii-Kette wird geboren.

Vor etwa 47 Millionen Jahren änderte die Vulkankette offenbar plötzlich ihre Bewegungsrichtung und bog in einem 60°-Winkel nach Südosten ab. Ursprünglich erklärten sich die Geologen diesen Knick damit, dass sich die Bewegung der Pazifischen Platte abrupt geändert hat. Auslöser dieses Abbiegens könnte die Izanagi-Platte gewesen sein, die einst zwischen Hawaii und Japan die Pazifische und die Eurasische Platte voneinander trennte. Ihre letzten Reste verschwanden vor rund 47 Millionen Jahren endgültig in der Tiefe. Als dieser Widerstand verschwunden war, könnte eine andere Platte die Pazifische Platte umgelenkt haben. Zusammen mit der Richtungsänderung der Pazifischen Platte erklärt die Hotspot-Wanderung den Knick in der Vulkankette noch besser. Trotzdem ist vieles noch unklar.

Weitere Plumes

Plumes findet man zum Beispiel auch unter dem Ätna, der Eifel, Island und der Insel Reunion. Die Vulkaninsel Reunion östlich von Madagaskar ist der Hotspot, der einst das Dekkan-Trapp-Plateau in Indien entstehen ließ. Damals bewegte sich der Subkontinent über den neu entstandenen Mantelplume, der gewaltige Eruptionen verursachte (s. u.). Heute noch ist die Blase aus heißem und geschmolzenem Gestein in abgeschwächter Form noch aktiv und speist den Vulkanismus auf Reunion.

Der Vulkanismus in der Eifel begann schon vor 50 Millionen Jahren. Die meisten Vulkane brachen vor 45 bis 35 Millionen Jahren aus, bevor es wieder vor einer Million bis 10 000 Jahren erneut brodelte. Der Vulkanismus der Osteifel, dem Gebiet um den Laacher See, begann vor 650 000 Jahren. Es gab drei Ausbruchsphasen mit jeweils wenigen größeren explosiven Ereignissen und zahlreichen harmloseren Eruptionen, bei denen Hunderte kleiner Aschekegel entstanden. Dazwischen beruhigte sich der Untergrund für 100 000 Jahre oder länger.

Der Yellowstone-Supervulkan besitzt zwei Magmakammern und hat bei seiner letzten großen Eruption vor 630 000 Jahren – der dritten innerhalb von 1,5 Millionen Jahren – den gesamten Südwesten der heutigen USA unter einer bis zu 400 Meter hohen Ascheschicht begraben. Durch den Einsturz der Erdkruste über den sich leerenden Magmakammern entstand ein riesiger Krater. Unterhalb der Caldera sammelt sich bis heute glühendes Magma aus dem Erdinneren. Davon zeugen heiße Quellen und spektakuläre Geysire im (darüber gelegenen) Yellowstone-Nationalpark.

Zwischen 1923 und 1985 hob sich die Caldera um etwa 70 Zentimeter, danach senkte sie sich allerdings wieder. Seit 1995 steigt ihr Boden erneut – und zwar in Rekordtempo. Möglicherweise dringt neue Gesteinsschmelze von unten in die ehemalige Magmakammer ein. Allerdings droht in naher Zukunft kein Ausbruch, da erst 35 bis 50% an Magma vorhanden ist, das für eine Eruption notwendig wäre.

Vor 55 Millionen Jahren stieg eine Blase, der sogenannte „Isländische Blob“ auf, die aber größtenteils nicht an die Oberfläche gelangte, sondern sich unterhalb der tektonischen Platten ringförmig unter dem Nordatlantik ausbreitete. Wie eine riesige Welle drückte sie dabei den Meeresboden kurzzeitig nach oben. Die Quelle des heißen Gesteins war wahrscheinlich der Hotspot, der sich heute unter Island befindet. Damals befand sich wahrscheinlich Grönland über dem Hotspot.

Der wandernde Blob unter dem Nordatlantik könnte dafür verantwortlich gewesen sein, dass vor 55 Millionen Jahren die Temperaturen kurzzeitig um 4 bis 5°C weltweit anstiegen und am Nordpol Palmen wuchsen und sich Krokodile tummelten. Denn er hatte den Meeresboden nach und nach angehoben, wobei größere Mengen an Methanhydrat im Meeresboden zerfallen sein könnten. Methan und sein Zerfallsprodukt Kohlenstoffdioxid gelangten so in die Atmosphäre und erwärmten sie – mit drastischen Folgen: Viele der damals bekannten primitiven Säugetierarten verschwanden von der Erde. Unter den Gewinnern des Klimawandels waren die Primaten, also unsere Vorfahren.

Der Hotspot unter Island pulsiert nach wie vor. Genau darüber befindet sich der Mittelatlantische Rücken, der hier über die Wasserfläche hinausragt. Dieser ozeanische Rücken hat das Zentrum des Aufstroms also gleichsam überfahren – nur Island mit dem Vatnajökull-Gebiet als Zentrum des Vulkanismus ist quasi hinter der allgemeinen Bewegung zurückgeblieben – warum ist noch unklar.

Superplumes

Verschiedene kleine Plumes können sich zu besonders riesigen pilzartigen Paketen heißen Gesteins vereinigen, sogenannten Superplumes. Diese können einen ganzen Kontinent nach oben drücken und bis zu zwei Kilometer hohe Beulen verursachen. Sie können den Boden von unten aufschmelzen und merklich ausdünnen und sogar sprengen, wenn auch erst nach vielen Hundert Millionen Jahren. Heftiger Vulkanismus kann dann Unmengen dünnflüssiger Lava auswerfen und damit große Teile des Kontinents bedecken. Vielerorts auf der Erde findet man diese „magmatischen Großprovinzen„, Basaltablagerungen (Flutbasalte) von mehreren Millionen Kubikkilometern. In Sibirien entstanden Flutbasalte vor 250 Millionen Jahren, in Indien vor 65 Millionen Jahren (die Dekkan-Trapps) und im Westen der USA vor 14 bis 17 Millionen Jahren (Columbia-Plateau).

Flutbasalte könnten für die größten Katastrophen in der Erdgeschichte mitverantwortlich sein, als in kürzester Zeit jeweils ein großer Teil der biologischen Arten ausstarb. Denn bei solch verheerenden Vulkanausbrüchen gelangen auch Unmengen an klimawirksamen Gasen wie Kohlenstoffdioxid in die Atmosphäre. Sofern Eruptionen am Meeresgrund stattfanden, änderten sie die chemische Zusammensetzung des Meerwassers sowie die Meeresströmungen.

Nach dem Geophysiker Nazario Pavoni gibt es weltweit heute nur zwei große Aufstromgebiete. Diese heißen Zonen sollen jeweils eine halbe Erdkugel im Griff haben. Das eine ist der Pazifische Superplume im Südwestpazifik, das andere der Afrikanische Superplume.

Der Pazifische Superplume besitzt einen Durchmesser von mehreren Tausend Kilometern. Er soll dafür verantwortlich sein, dass vor etwa 700 Millionen Jahren der Superkontinent Rodinia zerbrach. Etwa gleichzeitig trennten sich Nordamerika, Südamerika und Afrika voneinander – vermutlich durch einen zweiten Superplume.

Vor etwa 300 Millionen Jahren waren alle Kontinente in dem Superkontinent Pangäa wieder vereinigt. Vor knapp 200 Millionen Jahren brach der Koloss für geologische Verhältnisse ziemlich rasch entlang der heutigen mittelozeanischen Rücken auseinander. Wahrscheinlich war auch hier ein gewaltiger Superplume dafür verantwortlich, dessen Strahl den Kontinent zerriss. (Zehn Millionen Jahre vorher war es auf den damals noch zusammenhängenden Kontinenten Nordamerika, Afrika und Südamerika zu gewaltigen Vulkanausbrüchen gekommen.) Die Bruchstücke des zerborstenen Kontinents entfernten sich allmählich voneinander, wobei sich zwischen ihnen entstandene Meeresarme schließlich zu Ozeanen erweiterten.

Der Afrikanische Superplume

Vermutlich war es der Afrikanische Superplume, der Pangäa aufbrechen und vor 150 Millionen Jahren auch Gondwana, den südlichen Teil Pangäas (aus den Kontinentalplatten von Südamerika, Afrika, Indien, Australien und Neuseeland) bersten ließ. Er erstreckt sich heute vom unteren Erdmantel aus etwa 1500 Kilometer nach oben und pilzt direkt unter dem südlichen Afrika und Südatlantik sternförmig auf. Sein Ursprung liegt in den Plattengräbern, die bei der Vereinigung Gondwanas entstanden.

Das südliche Afrika lag im Zentrum Gondwanas. Daher wurde der Mantel darunter weder damals noch in den Jahrmillionen seither von abtauchenden Platten gekühlt. Und so heizte er sich allmählich auf. In gewissem Sinn ist Indonesien der Gegenpol zu Afrika: Hier tauchten wie einst überall rund um Gondwana kalte ozeanische Platten in den Mantel ab und sorgen für Kühlung. Heute wird das asiatische Inselreich hinab gezogen, der schwarze Kontinent dagegen hochgedrückt.

Das riesige heiße Gebilde unter Afrika hat also genügend Auftrieb, um die Erdkruste in Afrika zu heben. Der ganze Kontinent scheint aufzugehen wie ein Hefeteig. Die hitzige Aufwallung kann ihre Kraft besonders wirkungsvoll entfalten, weil sie immer an derselben Stelle nagt. Denn die afrikanische Platte steht seit rund 25 Millionen Jahren still – ein ruhender Pol im weltweiten Geschiebe der tektonischen Platten. Seit fast 400 Millionen Jahren fand keine Plattenkollision mehr statt.

Magma, das keinen Weg weiter nach oben und durch die Erdkruste findet, fließt zur Seite ab und neues heißes Material aus der Tiefe strömt nach. Vom südlichen Afrika aus biegt der große Strom heißen Gesteins daher nordöstlich ab und endet unter Ostafrika. Beulenartige Strukturen, jeweils mehr als 1000 Kilometer weit, findet man sowohl in Uganda, Kenia und Tansania als auch im Afar-Dreieck, in Äthiopien und im Jemen. Der Hitzestau schafft es hier, die 40 Kilometer mächtige Gesteinskruste in Ostafrika mürbe zu machen und ausgeprägten Vulkanismus hervorzurufen.

Das Hochland von Äthiopien stieg vor 30 Millionen Jahren auf, als sich im Erdmantel darunter eine heiße Blase aus Gesteinsschmelze bildete, die zeitweise bis zur Erdoberfläche durchbrach. Eine Flut dünnflüssiger Lava ergoss sich in einem Umkreis von 500 Kilometern und schuf die Hochplateaus von Äthiopien, Somalia und Jemen. Seitdem existiert dieser Plume unterhalb der ostafrikanischen Region und wölbt das Gebiet empor, weshalb es seine relative Höhe ziemlich konstant hält. Mehr noch: Die horizontalen Konvektionsäste im Mantel, die radial vom Plume fortströmen, zerren am geschwächten Kontinent, bis sie ihn schließlich am Ostafrikanischen Graben auseinander reißen werden.

Der Afrikanische Superplume ist größtenteils für eine Anomalie im Indischen Ozean verantwortlich, eine besonders ausgeprägte Delle im Schwerefeld der Erde: der Indian Ocean Geoid Low (IOGL). Sie besteht aus heißem Material mit geringer Dichte, die aus dem Afrikanischen Blob fließt, und sich über mehr als drei Millionen Quadratkilometer etwa 1200 Kilometer südwestlich der Südspitze Indiens erstreckt. Wahrscheinlich nahm das Geoidtief seine heutige Form vor 20 Millionen Jahren an, als der Plume begann, sich im oberen Mantel auszubreiten. Sobald diese Strömung aufhört, wird auch das Tief verschwinden.

Eifel-Plume

Unter Mitteleuropa befindet sich in einem im Durchmesser rund 500 Kilometer großen Gebiet mit dem Zentrum unterhalb des Städtedreiecks Saarbrücken -Frankfurt-Stuttgart in einer Tiefe zwischen 660 und 2000 Kilometer ein Riesenplume, der einige andere europäische Plumes speist, darunter den Eifel-Plume. Dessen Vulkanismus ist bis heute nicht erloschen, was schwache Beben und eine anhaltende Hebung des Untergrund um ein bis zwei Millimeter pro Jahr belegen. Das Magma des Eifel-Plumes weist heute bis 400 Kilometer tief nach unten. Es gibt Indizien dafür, dass die Magmaproduktion hier weitergeht und das kristalline, aber zähplastische Gestein des Erdmantels sehr langsam aus der Tiefe nach oben steigt. Die ortsfeste Aktivität gilt daher als „recht müde„.

Wegen des gebremsten Nachschubs kann sich die Schmelze unter der Oberfläche über lange Zeiträume ansammeln und infolge der Abkühlung entmischen. Ständig blubbert daher Kohlenstoffdioxid aus der Tiefe nach oben – in einem jährlichen Umfang von rund 0,5 bis 1 Million Tonnen. Die Gase können einen Ausbruch explosiv machen. Sobald nämlich die Schmelze einen Weg an die Oberfläche gefunden hat, vermindert sich der Druck, und das zuvor gelöste Gas dehnt sich explosionsartig aus.

Irgendwann kann und wird es jedenfalls wieder zu Ausbrüchen kommen. Ob das allerdings in wenigen Monaten oder erst in 10 000 Jahren passiert, lässt sich derzeit nicht sagen.

REM

Die Naturkonstanten

Wenn man die Vielfalt der Welt systematisiert und durch mathematische Gesetze beschreibt, entdeckt man in allen wesentlichen Gleichungen jene mysteriösen konstanten Zahlenwerte: die Naturkonstanten. Sie sind die Säulen, auf denen das gesamte Gebäude der Physik ruht – oder sie sind, wie der Physiker und Philosoph John D. Barrow es formuliert, „der heilige Gral der Physik“. Wegen ihrer zentralen Bedeutung für die Natur des Universums und die Existenz aller Lebensformen haben die Physiker ein großes Interesse daran, ihre Werte so präzise wie möglich zu kennen. Allerdings hat man bei manchen Konstanten bereits erhebliche Mühe, den heutigen Wert mit der erforderlichen Genauigkeit zu bestimmen.

Im Rahmen der Allgemeinen Relativitätstheorie werden Naturkonstanten als echte Konstanten angenommen, die weder von der Zeit noch von der jeweiligen kosmologischen Entwicklung abhängen, d. h., sie sollten auch in anderen Teilen des Universums und zu anderen Zeiten die gleichen Werte besitzen. Sie müssen als naturgegeben hingenommen werden. Im Gegensatz dazu sind die Einheiten, die wir in unserem Alltagsleben verwenden, willkürlich.

Albert Einstein glaubte, wie auch andere Physiker, dass es eine Grundtheorie ohne Konstanten geben müsse. „Ich kann mir keine einheitliche und vernünftige Theorie vorstellen, die eine Zahl enthält, die die Schöpferlaune auch anders gewählt haben könnte … Eine Theorie, die in ihren Grundgleichungen ausdrücklich eine Konstante enthält, müsste irgendwie ein logisch unzusammenhängendes Stückwerk sein.“ Eine „Theorie für alles„, die keine Konstanten zu Grunde legt, müsste die heute bekannten Konstanten ohne eine einzige Messung rechnerisch erklären. Also alles – die Beschaffenheit der Kräfte, der Aufbau der Welt, das ganze Universum, sogar unsere Existenz – müsste sich aus reiner Mathematik ergeben.

Falls Einstein nicht recht hat, so wird es in der letztgültigen Theorie einen Rest von Unsicherheit geben: Konstanten, die nicht erklärt werden können, sondern die man messen (experimentell bestimmen) muss – und die mit gleichem Recht auch andere Werte haben können. Viele der heute bekannten Konstanten sind eigentlich gar nicht „selbständig„, sondern lassen sich auf logischem Wege aus anderen Konstanten errechnen. Die Anzahl der wirklichen Konstanten ist daher viel kleiner, als die ellenlangen Listen am Schluss physikalischer Lehrbücher vermuten lässt. Unser Standardmodell enthält 26 „selbständige“, also nicht ableitbare, numerische Parameter. Je weiter die Physik fortschreitet, desto mehr „selbständige“ Konstanten werden zu „abhängigen“ – einfach weil die Theorien immer weiter entwickelt werden. Und manchmal weist auch jemand nach, dass eine vermeintliche Konstante gar keine ist.

An drei fundamentalen und universellen Naturkonstanten, die man auch als physikalische Konstanten bezeichnet, hängen alle Größenverhältnisse im Universum ab. Durch Multiplikation und Division geeigneter Potenzen ihrer Werte lässt sich die Grundeinheit jeder physikalischen Größe – wie etwa Länge, Zeit, Energie oder Kraft – bestimmen. Von den Konstanten hängt ab, warum ein Atom so klein ist und eine Sonne so groß, und warum die Größe des Menschen genau dazwischen platziert ist.

  1. c – die Vakuum-Lichtgeschwindigkeit

Die Lichtgeschwindigkeit c (von lat. celeritas = Geschwindigkeit) stellt eine prinzipielle, nicht zu erreichende Obergrenze für die Geschwindigkeit von Körpern dar. Sie ist das fundamentale Bindeglied von Raum, Zeit, Materie und Energie. Von allen Naturkonstanten wurde keine so exakt bestimmt wie sie: 299 792 458 Meter pro Sekunde (m/s).

2. h – das Planck’sche Wirkungsquantum

Das Planck’sche Wirkungsquantum (benannt nach Max Planck) ist gleichsam das Herzstück der Quantentheorie, der universelle Quotient der Energie eines Strahlungsquants und der Frequenz dieser Strahlung. Seine metrische Dimension ist also die einer Wirkung. In der Praxis wird es gewöhnlich in der Form h mit Schrägstrich (hier: h/Strich) dargestellt, was darauf hinweist, dass Quanteneffekte im Spiel sind. Ihr Wert ist sehr klein: 6,62607015 x 10-34 Joulesekunden. Wäre die Planck-Konstante größer oder kleiner, wären die Auswirkungen auf die Natur gewaltig.

3. G – die Newton’sche Gravitationskonstante

G ist die universelle Konstante zur Berechnung der Gravitationskraft. Sie definiert auch die relative Stärke der Schwerkraft gegenüber den anderen Naturkräften (Wechselwirkungen). Messungen in aller Welt liefern teilweise widersprüchliche Ergebnisse. Während man z. B. die Ladung eines Elektrons (s. u.) auf 300 Millionstel genau kennt und die Messungenauigkeit bei der Feinstrukturkonstante (s. u.) bei 45 Milliardstel liegt, liegt sie bei der Gravitationskonstanten bei 128 Millionstel. Der derzeit gültige Wert beträgt 6,67430(50)x1011 m3 s-2 kg-1.

Die Planck-Skala

Planck-Einheiten markieren die Grenze, jenseits der die bekannten Naturgesetze nicht mehr anwendbar sind. Die Planck-Skala ist bei 1019 Gigaelektronenvolt (GeV) und 10-33 Zentimetern die ultimative Grenze, an der die Gravitation ähnlich stark ist wie der Elektromagnetismus und die anderen Kräfte, wo sich Raum und Zeit gleichsam in einem Quantenschaum aufzulösen beginnen, wo alle bekannten Naturgesetze versagen. Was hier geschieht, ist auf direktem Wege experimentell nicht zu erreichen und muss theoretisch erschlossen werden. Nur eine Theorie der Quantengravitation, also eine Vereinigung von Quantenmechanik und Allgemeiner Relativitätstheorie, nach der die Physiker händeringend suchen, wäre in der Lage, die Probleme zu lösen.

Bei rund 1019 GeV – der sog. Planck-Energie – konzentriert sich so viel Energie und damit Masse in einem winzigen Volumen, dass die Gravitation alle anderen Kräfte überwiegt. (Man vermutet, dass dabei ein Schwarzes Loch entsteht und wieder verdampft.) Mit der Planck-Energie hängt die fundamentale Längeneinheit, die Planck-Länge, zusammen. Sie ist mit ungefähr 1,6×10-35 Meter 20 Zehnerpotenzen kleiner als der Protonen-Radius und weit unterhalb dem Auflösungsvermögen der weltbesten Teilchenbeschleuniger. Man erhält sie durch passende Kombination der oben angeführten fundamentalen Naturkonstanten G, c und h/Strich. Dividiert man die Planck-Länge durch c, erhält man die fundamentale Zeiteinheit (Planck-Zeit), die sich in der Größenordnung von rund 5×10-44 Sekunden bewegt.

Weitere wichtige physikalische Konstanten sind die Ladung des Elektrons e (1,602 176 634 x 1019 Coulomb), welche die Stärke der elektromagnetischen Kräfte bestimmt, das Verhältnis von Protonen- zu Elektronenmasse (mp/me = 1836,152701) und die Feinstrukturkonstante Alpha (s. u.*). Insbesondere an den letzten beiden Zahlen, den Werten von Alpha und mp/me, hängt die schiere Existenz der gesamten Materie. Wäre eine dieser Zahlen nur geringfügig anders, könnte die Welt so nicht existieren.

*Die Feinstrukturkonstante Alpha setzt sich ihrerseits aus drei Naturkonstanten zusammen: Ladung des Elektrons (e), Planck’sche Konstante (h/Strich) und Lichtgeschwindigkeit (c). Sie tritt in den verschiedensten Bereichen der Physik auf, z. B. in komplizierten Gleichungen zur Beschreibung der Vorgänge bei der Entstehung der schwereren Atome im Inneren ausbrennender Sterne. Bei ruhenden Teilchen beträgt ihr Wert etwa 1/137, 036. Genaue Rechnungen zeigen: Wäre Alpha nur um 10% größer, würde fast kein Kohlenstoff mehr entstehen. Wäre Alpha um denselben Betrag kleiner, würden zwar riesige Mengen Kohlenstoff entstehen, dafür aber kein Sauerstoff und damit auch kein Wasser. Irdisches Leben wäre in beiden Fällen undenkbar.

Wechselwirkungen (Kräfte)

Auf den Werten der vier Kräfte beruhen die Eigenschaften, die einige Atomkerne haben müssen, damit wir Menschen existieren und dass wir auf Kohlenstoffchemie beruhende Körper besitzen, die Sauerstoff aus der Luft atmen. Sie sind verantwortlich für die Bindungen der Teilchen und zementieren damit die organisierten Strukturen der Materie. Sie verwandeln massereiche Materie in leuchtende Photonen, die Träger der Energie sind, welche für den Austausch und die Konstruktion noch komplexerer Systeme genutzt werden kann.

Die Konstante der „Starken Wechselwirkung“ beschreibt u. a., wie stark sich zwei Protonen im Atomkern gegenseitig anziehen. Sie hält die Kernteilchen damit entgegen der abstoßenden elektrischen Kraft zwischen den Protonen zusammen. Schon eine geringfügig schwächere Version der Starken Kernkraft hätte eine gänzlich andere Natur zur Folge. Es könnten sich keine schwereren Elemente als Wasserstoff bilden, also insbesondere auch kein Sauerstoff. Es gäbe somit auch kein Wasser und damit kein Leben der irdischen Art. Wäre die Starke Kernkraft nur um ein Weniges stärker, würde der Wasserstoff in den Sternen viel rascher zu schwereren Elementen verbrannt – die Sterne hätten eine zu kurze Lebensdauer, damit sich Leben entwickeln könnte.

Wäre die Elektromagnetische Kraft um 4% geringer, gäbe es weder Wasserstoff noch Sterne. Wäre die Schwache Wechselwirkung viel schwächer, gäbe es ebenfalls keinen Wasserstoff; wäre sie viel stärker, könnten Supernovae das interstellare Medium nicht mit schwereren Elementen anreichern. Wäre die Schwerkraft stärker, entstünden fast nur Blaue Riesen und die Sterne hätten ein zu kurze Lebensdauer. Wäre die Gravitation aber noch schwächer, als sie schon ist, hätten sich niemals Gaswolken zusammenballen können. In beiden Fällen würde das Leben, jedenfalls so, wie wir es kennen, nicht existieren.

Die Unterschiede in der Stärke der vier Wechselwirkungen sind ein Schlüssel für die Entwicklung des Universums und unserer Existenz. Neben den exakten Massen von Proton, Neutron und Elektron hängt das Verhalten aller Dinge im sichtbaren Universum vom Gleichgewicht zwischen den vier Kräften ab. Dass diese Konstanten so genau eingestellt sind, ist wirklich unglaublich. Und niemand weiß warum das so ist.

Albert Einstein führte 1917 die Kosmologische Konstante in die Allgemeine Relativitätstheorie ein, abgekürzt mit dem griechischen Buchstaben Lambda. Ihr Wert scheint überall der gleiche zu sein und sich über Raum und Zeit hinweg nicht zu ändern. Lambda kann als eine der grundlegenden (und messbaren) Naturkonstanten angesehen werden. Physikalisch lässt sich Lambda als Eigenschaft der Raumzeit interpretieren, oder – in der Teilchenphysik – als Energiedichte des Vakuums. Der Wert dieser Konstante ist gerade noch klein genug, um nicht die Bildung von Galaxien zu beeinträchtigen. Wäre er dagegen viel größer, wäre die Expansion des Universums so rapide, dass keine Sterne und Galaxien entstehen könnten.

Anthropisches Prinzip

Fundamentale Naturkonstanten haben also genau die Werte, die unserer Existenz zuträglich sind. Sie scheinen aufeinander abgestimmt zu sein und wirken, als seien sie passend gewählt, um Leben im Kosmos zu ermöglichen. Wären die Naturkonstanten anders beschaffen, würde z. B. die Kohlenstoffchemie, auf der alles Leben beruht, in dieser Form nicht existieren. Warum sie ihre bestimmten Werte haben, wissen wir nicht. Jeder Versuch, die exakten Werte zu erklären, ist bislang gescheitert – bis auf das so genannte „Anthropische Prinzip„.

In seiner schwachen Version besagt diese Hypothese lediglich, dass das Universum so beschaffen sein muss, damit unser Planet existieren und Leben, einschließlich des menschlichen Lebens, auf ihm gedeihen kann. An diesem Schluss ist nichts logisch unzulässig und nichts unwissenschaftlich. In einer stärkeren Version würde sich das anthropische Prinzip vermutlich auch auf die Dynamik der Elementarteilchen und den Anfangszustand des Universums erstrecken. Demnach wäre das Weltall also so gestaltet, dass darin zwangsläufig intelligente Beobachter entstehen.

Auch Stephen Hawking argumentierte, dass wir die Welt so beobachten, wie sie ist, weil wir in anderen Welten gar nicht leben können. Daher seien etwa die Gleichförmigkeit und ungekrümmte Geometrie des beobachtbaren Weltraums keineswegs erstaunlich, obwohl sie zunächst äußerst unwahrscheinlich anmuten. Die fundamentalen Naturkonstanten müssen einfach genau die Werte haben, die mit unserer Existenz vereinbar sind. Es geht gar nicht anders, denn wenn die Bedingungen im Weltall nicht genau zur Evolution des Lebens und des Menschen passen würden, gäbe es niemanden, die die Frage nach dem „Warum“ stellen könnte.

Viele Physiker beschleichen mittlerweile Zweifel, ob die Naturkonstanten wirklich fixe Größen sind und tatsächlich immer denselben Wert besitzen. Unser physikalisches Wissen reicht nicht aus, um zu sagen, ob sie in unterschiedlichen Regionen des Universums nicht unterschiedliche Werte annehmen können. Darunter könnte man Gebiete verstehen, die, bedingt durch kurze Phasen der Inflation, verschieden schnell expandiert sind, so dass die sog. „Konstanten“ dort andere Werte angenommen haben. Die fundamentalen Gesetze würden demnach nur beschreiben, wie sich die Werte der Naturkonstanten auf die verschiedenen Teile des Universums verteilen. Dem Leben käme keine Sonderrolle zu; es wäre dann kaum erstaunlich, dass in einigen Teilen des Universums – wohl auch nur in sehr wenigen – Leben möglich ist.

Auch die Möglichkeit, dass sich die Naturgesetze entwickeln, ist nicht ausgeschlossen. So könnten sie einer zeitlichen Entwicklung unterworfen oder über längere Zeiträume hinweg variabel sein. Manche Physiker spekulieren, dass z. B. die Gravitationskonstante vielleicht doch keine Naturkonstante ist, sondern sich aus einer tieferen Theorie ergibt, die wir noch nicht kennen. Sie mutmaßen, dass die Stärke der Gravitation sich während der kosmischen Entwicklung verändert hat. Würde man tatsächlich Abweichungen finden, könnte das ein erster Hinweis darauf sein, dass die Dunkle Energie mehr als eine physikalische Fiktion ist.

Einige Astronomen behaupten, sie hätten bereits Variationen von Naturkonstanten gefunden. Doch den meisten Forschern erscheint die Beweislage zweifelhaft. Es konnte jedenfalls gezeigt werden, dass sich das Massenverhältnis zwischen Proton und Elektron (mp/me) – das Rückschlüsse auf die Starke Kraft zulässt – zumindest in den vergangenen sieben Milliarden Jahre nicht nachweisbar geändert hat. Aber auch bei der Gravitationskonstante fand man bisher keine Veränderung. Eine endgültige Lösung des Problems werden wir allerdings erst finden, wenn wir mehr über die Quantentheorie der Gravitation wissen.

Ganz allgemein passen veränderliche Naturkonstanten zu den sogenannten String-Theorien, die nach Meinung vieler theoretischer Physiker die bislang besten Aspiranten auf eine Theorie der Quantengravitation sind. Sie erlauben Naturkonstanten, die sich mit der Zeit verändern. Die Größe dieser Drift ist allerdings unklar. In seinem Buch „Im Universum der Zeit“ greift auch der Theoretiker Lee Smolin die gängige Vorstellung von der „Konstanz der Konstanten“ an. Er skizziert hier die Grundzüge einer fundamentalen Theorie jenseits der Quantenmechanik, in der Naturgesetze veränderlich sind.

Multiversum

Der unwahrscheinlich kleine Wert der Kosmologischen Konstante und die unwahrscheinliche Feinabstimmung der Naturkräfte, die gerade passende Werte für die Entstehung von Leben haben, könnte auch damit erklärt werden, dass wir in einem Multiversum leben. Nach dieser Theorie wurde durch einen Urknall nicht nur der uns bekannte Kosmos erzeugt, sondern eine sehr große Anzahl weiterer, uns unzugänglicher Universen (Paralleluniversen). Wahrend der klassische Urknall einen irgendwie gearteten Schöpfungsakt braucht, kann ein Kosmos in der Theorie der Multiversen sogar ewig bestehen, so dass immer wieder neue Universen mit unterschiedlichen Naturgesetzen entstehen (Eltern- und Babyuniversen) und sich entwickeln.

Die Werte der Naturkonstanten in unserem Universum wären demnach das Resultat von Zufallsprozessen bei seiner Entstehung, während unzählige andere Universen mit anderen Werten für die Konstanten existieren, in denen Leben nicht möglich ist. Wir erblicken also nur deshalb ein Bündel fein abgestimmter, „lebensfreundlicher“ Konstanten, weil wir nur in einem lebensfreundlichen Universum entstehen konnten. Vielleicht werden alle physikalischen Bedingungen, die überhaupt möglich sind, irgendwo realisiert. In fast allen diesen Universen erlauben die physikalischen Gesetze wahrscheinlich weder die Bildung von Materie in unserem Sinn noch von Galaxien, Sternen, Planeten und Leben. Dass in dieser Fülle von Universen aber auch ein lebensfreundlicher Kosmos entsteht, in dem die physikalischen Konstanten durch Zufall derart fein aufeinander abgestimmt sind, dass Leben einschließlich des Menschen existieren kann, wäre dann gar nicht mehr so erstaunlich.

Eine Analogie für unsere Situation bietet das Beispiel der Quantenfische: Zunächst fixiert auf den eigenen Teich, der sehr genau die Eigenschaften aufweist, die ihre eigene Existenz möglich machen, beginnen sie zunehmend über ihren Teich hinauszudenken. Im Lauf ihrer Nachforschungen erreichen sie eine hinreichend umfassende Perspektive, aus der sie erkennen, dass vor ihnen ein Land voller Teiche liegt: ein Multiversum von Fischteichen. Von dieser Warte aus wundert es sie nicht länger, dass die Bedingungen im eigenen Teich gerade so passend für Leben sind – wären sie es nicht, so hätten sich die Quantenfische in einem anderen Teich wiedergefunden.

Wie fein die Naturkonstanten aufeinander abgestimmt sein müssen, um Leben – vor allem intelligentes Leben – möglich zu machen, ist nicht unumstritten. Der Physiker und Astronom Steven Weinberg z. B. ist von solchen Feinabstimmungen nicht beeindruckt. Dafür gebe es andere Erklärungen. Außerdem seien manche Werte – beispielsweise der Energiezustand des Kohlenstoffs – gar nicht mal so fein abgestimmt. Tatsächlich wurden inzwischen Beispiele für alternative Werte der Konstanten und damit für abgewandelte physikalische Gesetze gefunden, die zu sehr interessanten Welten mit Sternen und damit sogar zu Leben führen könnten. Es sollten demnach also noch andere Universen existieren, die komplexe Strukturen und vielleicht sogar exotische Organismen enthalten.

Die Aussicht, dass es eine Unmenge von Universen geben kann, ist in den physikalischen Theorien jedenfalls unumstritten. So beschreibt z. B. jede Lösung der Feldgleichungen der Allgemeinen Relativitätstheorie bereits ein eigenes kosmologisches Modell. Im Rahmen der Stringtheorie sind unzählige Raumzeitgeometrien denkbar, was Verfechter der Theorie als Indiz für das Multiversum deuten. Es gibt vielleicht 10500 Lösungen der Gleichungen, die jede als eigenes Universum interpretiert werden können, mit eigenen Naturkonstanten und – gesetzen. Die Eigenschaften in diesen Welten hängen vom Quantenvakuum ab, gewissermaßen ihrem physikalischen Urzustand. Leonard Susskind, einer der Begründer der String-Theorie, nennt dieses gigantische Multiversum „Stringlandschaft„. Er sieht kein schlüssiges Argument, das dagegen spricht. Auch eine andere Quantengravitations-Theorie, die Schleifen-Gravitation, legt die Existenz anderer Universen nahe und kann zumindest entsprechende kosmologische Modelle erklären. Aber welche dieser Modelle sind physikalisch Realität?

Gegenargumente

Alles in allem sind manchen Forschern die Argumente für das Multiversum nicht überzeugend. Sie halten das anthropische Prinzip für absolut unwissenschaftlich und kritisieren die extreme Schwammigkeit der Idee: Es handele sich eher um ein vages Konzept als um eine definierte Theorie. Das Multiversum sei verschwenderisch (unökonomisch) und extravagant. Die Theorie biete viel zu großzügig Universen für alle Gelegenheiten feil, als dass sie ernsthaft als Lösung genommen werden könnte. Vor allem stört die Skeptiker die ungeheure Menge an Information, die zur Beschreibung all dieser ungesehenen Welten nötig ist.

Dagegen wird eingewendet, dass das Übermaß an Komplexität nur in der subjektiven Wahrnehmung der Beobachter steckt. Die Menge aller Lösungen sei aber einfacher als eine spezielle. Und wenn schon eine Frage nach dem Wesen der Realität gestellt würde, müssten wir wohl mit einer Antwort rechnen, die seltsam anmutet; schließlich habe die Evolution nur mit einer Intuition für Alltagsphysik zum Überleben in unserer Umwelt geführt.

Das Konzept des Multiversums erscheint aber nicht nur spekulativ, es scheint auch schlicht unüberprüfbar und wird unserer bewährten wissenschaftlichen Methode vielleicht niemals zugänglich sein. Sämtliche Paralleluniversen liegen jenseits unseres Horizonts, d. h. sie sind kausal von uns getrennt. Ihr Licht schafft es während der Lebenszeit unseres Weltalls nicht, zu uns zu gelangen. Daher können wir nicht einmal im Prinzip nachprüfen, ob diese Welten wirklich existieren. Gibt es sie tatsächlich, werden sie mit noch so raffinierter Technik für immer für die Menschen unsichtbar bleiben.

Die Hypothese des Multiversums kann aber viele Probleme des Standard-Urknallmodells lösen. Einige Aspekte unseres Universums können nur durch die „Multiversalität“ begründet werden. Es ist beispielsweise die einzige Theorie, die wirklich ein konsistentes und kohärentes Bild vermittelt, wie man mit dem Problem des höchst unwahrscheinlichen Anfangszustands fertig werden kann.

Kosmologen, die die Stringtheorien vertreten, folgern, dass einige Paralleluniversen eventuell doch mit unserem Universum in Wechselwirkung treten und wir entsprechende Effekte nachweisen könnten. Theoretisch müsste es sogar nach der Allgemeinen Relativitätstheorie Verbindungen zwischen den Universen geben: Durch ein Wurmloch, einen „Tunnel“ der Raumzeit, könnte ein „Baby-Universum“ mit seinem „Eltern-Universum“ verbunden sein. Auch nach sogenannten Fluktuationsmodellen könnten neue Universen Spuren ihrer kosmischen Vergangenheit in sich tragen und sogar quantenmechanisch miteinander verschränkt sein. All das ist allerdings reine Spekulation.

Fazit

Die neuen kosmologischen Ansätze zeugen von hoher mathematischer Kreativität. Die Vorstellung eines Multiversums wirft jedoch schwierige philosophische Fragen auf: Gehört sie überhaupt in den Bereich der empirischen Wissenschaft oder ehr in die höheren Sphären der Metaphysik? Dass mathematische Abstraktionen nicht immer der Realität entsprechen, lehrt uns schon der alte Mathematiker-Witz: Der Mathematik-Professor verlässt den Hörsaal, in dem sich zwei Studenten befinden. Wenig später kommen drei Studenten aus dem Saal heraus. Ein paar Minuten später geht einer hinein. Darauf der Professor: „Gott sei Dank, jetzt ist der Raum wieder leer und ich kann schließen.“ – Parallelwelten, bizarre Universen und Lehrsäle. die sich leeren, indem man sie betritt, scheinen eine große Gemeinsamkeit zu haben: Niemand hat sie je beobachtet!

Vielen theoretischen Physikern ist das Multiversum eigentlich ganz egal: Sie betrachten es nur als theoretischen Rahmen, während seine Entstehung in keiner Weise interessiert. Für die Kosmologen dagegen bildet der kosmische Horizont das Grundproblem jeder Art von Multiversum. Eine nichtphysikalische Antwort auf all die Fragen und Probleme kann man in den „Bekenntnissen“ des Augustinus finden, der auf die Frage: „Was tat Gott, bevor er die Welt erschaffen hat?“ antworten ließ: „Da hat er die Hölle eingerichtet für Leute, die solche Fragen stellen.“

REM

Die neolithische Zeitenwende

Seit seiner Entwicklung vor rund 300 000 Jahren hatte Homo sapiens vom Sammeln, später dann auch vom Jagen gelebt – und war dadurch hervorragend an seine Umwelt angepasst. Am Ende der letzten Eiszeit ergab sich aber die Notwendigkeit, seine Lebensweise prinzipiell umzustellen. Es war insgesamt wohl der elementarste Übergang in der Menschheitsgeschichte, weil sich in vielen Lebensbereichen einfach alles änderte: Der Mensch wurde sesshaft, formte Ton zu Gefäßen und ließ diese trocknen, später brannte er sie auch, baute Kulturpflanzen an und züchtete sie und domestizierte Tiere.

Die Epoche dieses Umbruches bezeichnet man als „neolithische Revolution„, in Anlehnung an den Begriff der „industriellen Revolution“ des 18. und 19. Jahrhunderts. Allerdings erfolgte der wirtschaftliche und gesellschaftliche Wandel keineswegs abrupt, sondern während einer Tausende Jahre dauernden Übergangszeit in vielen regional unterschiedlichen Schritten und zu verschiedenen Zeiten. Daher sprechen die Wissenschaftler trotz der tiefgreifenden Veränderungen und der weitreichenden kulturhistorischen Bedeutung heute nicht mehr gerne von „neolithischer Revolution„, sondern lieber von Neolithisierung.

Die meisten Experten gehen heute von einem Ursachengeflecht aus, das die Neolithisierung hervorbrachte: Klimaumschwung, Überjagung, Überbevölkerung und anderes. Ob eine steinzeitliche Kultur bereits als neolithisch (jungsteinzeitlich) anzusehen ist, hängt letztendlich von den Kriterien der Archäologen ab. Während einige Experten schon das Aufkommen gebrannter Keramik als ausreichendes Indiz ansehen, verlangen andere den Nachweis der Sesshaftigkeit sowie einer produzierenden statt einer aneignenden Wirtschaftsweise einschließlich einer Vorratswirtschaft.

Anfänge

Gut möglich, dass Menschen schon vor mehr als 100 000 Jahren stärkehaltige Samen von Wildgetreide gegessen haben, z. B. als Kalorienquelle, wenn weniger Wildtiere umherstreiften oder schwer zu erlegen waren. Nachweise von Stärkepartikeln auf Mahlwerkzeugen und Mörsern in mindestens 40 000 Jahre alten Schichten im heutigen Israel sprechen auch schon für eine lokal und zeitlich begrenzte intensive Nutzung von Gräsern. Systematisch wurde Wildgetreide jedenfalls schon vor 23 000 Jahren am Ufer des Sees Genezareth (Fundplatz Ohalo II) genutzt, wo es wohl ein reiches Vorkommen gab. In Regionen, wo ein günstiges Klima herrschte, das Gräser reichlich wachsen ließ und eine reiche Tierwelt aufwies, blieben altsteinzeitliche Nomaden wahrscheinlich saisonal am Ort und jagten und ernteten, ohne gesät zu haben.

Ab 15 500 v. h. wandelte sich das Klima. Es wurde rasch wärmer und im Nahen Osten breiteten sich Wälder und Grassteppen aus. In den reichen Biotopen im Norden Mesopotamiens gab es weitläufige Wildgetreidevorkommen und zahlreiche Tierarten – für die Jäger und Sammler ein Überangebot an Jagd- und Sammelbarem, so dass die Menschen sich dort länger aufhielten. Ein Umherziehen war schlicht nicht mehr notwendig, die altsteinzeitlichen Nomaden blieben saisonal vor Ort und ernteten, ohne gesät zu haben. Im 14. Jahrtausend v. h. entstanden an den Ufern des Euphrat und Tigris und deren Zuflüssen erste vorläufige dörfliche Siedlungen, in denen eine frühe Landwirtschaft betrieben wurde.

Vor 12 800 Jahren kappten Schmelzwasser des abtauenden nordamerikanischen Eisschilds den Golfstrom für mehr als tausend Jahre. In Europa und im Nahen Osten herrschten wieder fast eiszeitliche Verhältnisse (Jüngere Dryas). Im Gebiet des „Fruchtbaren Halbmonds“ – einem sichelförmigen Gebiet zwischen dem Südosten der Türker, Nordsyrien und dem Nordwesten des Irak – brachte der nacheiszeitliche Klimawandel zunehmende Trockenheit und Versteppung. Die nichtsesshaften Sammler und Jäger trafen diese Veränderungen nicht so hart, sie mussten lediglich ihre Jagdpraktiken umstellen. Sie folgten jetzt einfach den Herden der Beutetiere, die von Wasserstelle zu Wasserstelle wanderten.

Andere Gruppen blieben vor Ort. Die Not motivierte sie, jene Wildgräser anzubauen, die sie vorher in großer Menge ernten konnten. Vermutlich hegten und pflegten sie die Pflanzen bereits und schützten sie vor gefräßigen Herdentieren. Anfangs dienten die Grasfrüchte nur als Zubrot. Sie benutzten auch noch keine Tongefäße, um Nahrung aufzubewahren und zuzubereiten.

Sesshaftigkeit

Schließlich stabilisierte sich der Golfstrom wieder und es wurde wärmer. Die günstigen Klima-und Umweltbedingungen und es wurde wärmer. Die günstigen Klima-und Umweltbedingungen im nördlichen Bogen des Fruchtbaren Halbmonds (genug Wasser, Übermaß an Pflanzen und Tieren) waren ein Paradies für die Jäger-und-Sammler-Gruppen und machten einen saturierten Lebenswandel möglich. Dabei wurden Samen von Wildgras als Brei konsumiert, aber auch in vergorener Form als gelegentliches Genussmittel, als Bier. Ihren Fleischbedarf deckten die Menschen hier zunächst noch durch die Jagd auf Gazellen, später hauptsächlich durch Schafe, Ziegen und Rotwild. Einige Forscher mögen nicht ausschließen, dass man sich schon in einer Periode direkt vor der Domestikation befand, in der selektiv gejagt wurde – eine Vorstufe der Herdenhaltung.

Die Menschen lebten zwar offensichtlich noch von der Hand in den Mund. Sie konnten noch nicht töpfern – gebranntes Tongeschirr war im Fruchtbaren Halbmond daher zunächst unbekannt (kam hier erst 9000 v. h. auf). Zwar kannte man Ton – ohne ihn allerdings zu brennen: Aus Lehmziegeln wurden Häuser gebaut und Vorratsgruben oder Körbe mit Ton ausgekleidet.

Schon vor 27 000 Jahren wurde – ob durch Zufall oder gezielte Experimente – feuchter Ton zu einer Form geknetet (anfangs vor allem zu Figuren) und ins Feuer gelegt. Die Idee, aus Ton Gefäße zu brennen, kam erst später unter mobilen Wildbeutern auf. Ostasien scheint ein frühes Zentrum der Töpferei gewesen zu sein. Es gibt 20 000 bis 16 000 Jahre alte Funde aus der chinesischen Provinz Hunan, vom Gebiet des Amur-Flusses und aus Japan (Jomon-Kultur). Auf dem heute zur Sahel-Zone gehörenden Dogon-Plateau wurde die Keramik vor 12 500 bis 11 500 Jahren erfunden und breitete sich bis ins Niltal aus.

Im nördlichen Bogen des Fruchtbaren Halbmonds (Fundstellen in Körtik Tepe, Göbekli Tepe, Nevali Cori, Tell Abu Hureya u. a.) errichteten die Steinzeitler schon mächtige Rundanlagen. Am bekanntesten sind die Megalithbauten vom Göbekli Tepe, einem Bergkamm in der Südosttürkei. Die dort vor 11 600 Jahren geschaffene Kultanlage gilt als ältester „Tempel“ der Welt und wurde vor allem wegen ihrer riesigen T-Pfeiler berühmt. Diese Monolithe, die auch an anderen Fundorten in der Gegend auftauchten, sind teils übersät mit Reliefs wilder Tiere. Sicher ist: Mit ihren Armen stellten die T-Pfeiler menschenförmige Gestalten dar, genau genommen Männer, umgeben von einer wilden, männlich dominierten Tierwelt. Möglicherweise handelt es bei ihnen um die frühesten Götterbilder in der Menschheitsgeschichte.

Der handwerkliche wie geistige Aufwand für die Anlage eines solchen zentralen Ortes setzt eine bereits sozial gegliederte Gesellschaft mit ausgeprägter Religiosität voraus, die zu solch aufwändigen Gemeinschaftsaktionen bereit war – vermutlich angeführt von einem religiösem Oberhaupt. Die Jäger-und-Sammler-Ethnien hatten also wohl bereits ausgefeilte und tradierte Kulte und feierten rund um die Tempelanlagen ihre Feste, bei denen es vermutlich neben Getreidegerichten auch viel Fleisch zu essen gab. Aus Gräsersamen gebrautes Bier könnte Teil der Rituale gewesen sein, die mutmaßlich der sozialen Integration und Festigung der Gemeinschaft dienten.

Die Menschen im gesamten Norden Mesopotamiens scheinen durch ähnliche Riten und Symbole verbunden gewesen zu sein. Mit der Zeit nahmen sie ihre Jagdwaffen immer seltener in die Hand, bauten Pflanzen an und begannen, ihre Fleischlieferanten nicht länger unkontrolliert umherlaufen zu lassen. Noch aber gilt diese Kulturphase im Bergland Nordmesopotamiens nicht als Jungsteinzeit, da sie nur Sesshaftigkeit vorzuweisen hat, nicht aber geregelten Ackerbau, Viehzucht und Töpferei.

Übergang

Sesshaftigkeit gilt als Voraussetzung für die Entdeckung, dass Wildgetreidevorkommen nachwachsen, wenn Körner zufällig in den umliegenden Boden gelangen. Von der Beobachtung des Auskeimens bis zum gezielten Sammeln und Aussäen der Samenkörner an einem geeigneten Ort war es dann nur noch ein kleiner Schritt. Einige Forscher glauben, dass nicht der Hunger die Menschen dazu brachte, Getreide anzubauen, sondern das Bedürfnis nach kollektiven Rauschzuständen. Bier war relativ leicht aus Getreidekörnern herzustellen und sei wegen seiner berauschenden Wirkung ideal für entsprechende rituelle und spirituelle Zwecke gewesen.

Die Spelzen mussten zur Bierherstellung nicht umständlich von den Körnern entfernt werden. Hefepilze sind unter den in mittleren geografischen Breiten herrschenden Witterungsverhältnissen nahezu allgegenwärtig. Es genügte also, eine geringe Menge Körner zu zerstampfen und reichlich Wasser und etwas Speichel hinzuzufügen – und die alkoholische Gärung entstand von selbst. Das primitive Bier (mit allenfalls 1 bis 2% Alkoholgehalt) war zwar trübe und leicht verderblich, aber es schmeckte angenehm süß und war noch dazu ziemlich nahrhaft – und bekömmlicher als Wasser.

In der Höhle Rakefet (Raqefet) südlich von Haifa wurde wohl schon vor 13 000 Jahren ein bierähnliches Getränk als Teil eines Begräbniskults konsumiert. Offenbar war auch in China bereits kurz nach dem Ende der Eiszeit die Kunst des Bierbrauens als Teil eines Totenkultes weit verbreitet. Das schloss man aus Körnern aus Reis und anderen stärkehaltigen Pflanzen, die man zusammen mit Spuren von Hefen und Schimmelpilzen in Gefäßen aus der Shangshan-Kultur in Südchina (etwa 11 400 bis 8600 v. h.) entdeckte hatte.

Gerade im Fruchtbaren Halbmond (wegen des Verlaufs seiner Gebirgszüge und seiner einst reichen Landwirtschaft so genannt) trafen in einmaliger Weise Pflanzen und Tiere zusammen, die sich zur Domestikation eigneten. So kommen von den 56 großsamigen Pflanzenarten auf der Welt 32 im Fruchtbaren Halbmond vor, aber nur 6 in Ostasien und 4 im Afrika südlich der Sahara. Außerdem lebten hier die wilden Vorfahren der heutigen Haus- und Nutztiere Ziege, Schaf, Schwein und Rind. Nirgendwo sonst konnten so viele Wildpflanzen und Wildtiere unter so günstigen klimatischen und geografischen Bedingungen und in so großem Raum domestiziert werden wie in dieser Weltregion.

Nicht alle Wildtiere lassen sich züchten. Vermutlich haben es die Menschen auch mit Gazellen versucht, die reichlich gejagt und verspeist wurden. Doch diese haben ein komplexes Territorialverhalten und ein Fortpflanzungsritual, das hinter Gittern nicht so ohne Weiteres funktioniert. Besonders gut als Haustiere eignen sich dagegen Herdentiere, die weniger aggressiv sind und ein schwaches Alarmsystem haben und bei denen der Mensch die Rolle des Leittiers übernehmen konnte.

In dem klimabegünstigten Gebiet des Fruchtbaren Halbmonds bauten also erstmals um 11 500 v. h. Steinzeit-Menschen ihre Nahrungspflanzen an – zunächst nur sporadisch. Die Domestikation ereignete sich dabei eher zufällig: Die Menschen wählten im Laufe der Zeit immer mehr Pflanzen aus, die stabilere Ähren aufwiesen, da sie leichter geerntet werden konnten. Schließlich überwogen diese in den Erntegefäßen, was den Ernteertrag verbesserte.

Ursache dafür, dass die reifen Samen in der Hülle gefangen bleiben (fest am Stängel) und nicht keimen, ist ein Gendefekt, der wahrscheinlich in den 100 000 Jahren vorher schon unzählige Male aufgetreten war, den die Natur aber immer wieder ausgemerzt hatte.

Heute geht man davon aus, dass der Prozess des Pflanzenanbaus unabhängig voneinander in verschiedenen Teilen des im Winter niederschlagsreichen Fruchtbaren Halbmond gleichzeitig ablief. Freilich ist nicht ausgeschlossen, dass am Übergang zur sesshaften Lebensweise ein wechselseitiger Kulturtransfer zwischen verschiedenen Regionen stattgefunden hat.

Landwirtschaft

Die rasche Erschöpfung der Böden erforderte örtlich noch lange Zeit ein Halbnomadentum, aber zumindest zwischen Aussaat und Ernte musste man am Ort bleiben. Bereits 11 600 v. h. lebten etwa in Jericho Bauern in Häusern aus Stein, Holz und Lehm und lagerten dort Getreide als Vorrat und Saatgut. (Möglicherweise dienten die Häuser anfangs nur als Orte zum Schlafen und Arbeiten.) Die Menschen hatten das Jagen und Sammeln also noch nicht gänzlich aufgegeben, allerdings verbrachten sie immer weniger Zeit damit und verlegten sich mehr darauf, Tiere zu halten und Pflanzen zu kultivieren.

Die Gerste ist die älteste nachgewiesene Kulturpflanze; ihre Spur reicht sogar 15 000 Jahre zurück. Um 11 600 v. h. kultivierten Menschen aus der Kreuzung mehrerer Wildgräser die ersten Weizenarten Emmer und Einkorn. Im Laufe der Jahrtausende wurden sie zum Kulturweizen veredelt (früheste Nachweise 9800 v. h.). In Asien vollzogen sich vergleichbare Entwicklungsschritte ab etwa 10 000 v. h. mit den Graspflanzen Reis und Hirse, in Amerika später mit Mais. Um 11 000 v. h. domestizierten Siedler im Nahen Osten acht Pflanzen: Emmer, Einkorn und Gerste; die Hülsenfrüchte Erbse, Linse, Kichererbse und Linsenwicke sowie Flachs, aus dessen Leinsamen sie fettreiches Öl pressten und dessen Fasern sie zu Stoff verarbeiteten.

Wildgetreidefelder und später die Getreidekulturen lockten Wildschafe und Wildziegen an. Das brachte beide in stärkeren Kontakt zum Menschen. Vor etwa 11 000 Jahren lernten teil-sesshafte Stämme, wahrscheinlich im nördlichen Zweistromland, diese Tiere als Fleischlieferanten zu halten und zu zähmen. Von den ersten gefangenen Tieren bis zu den echten Haustieren war es aber noch ein langer Weg.

Die frühesten handfesten Belege für Haustiere fand man im südostanatolischen Nevali Cori im Euphrat-Tal. Gazellen blieben aber zunächst noch Haupt-Fleischlieferanten, doch ab etwa 10 500 Jahren v. h. machen die Knochen der Wiederkäuer an den Fundorten schon 65 bis 75% der tierischen Überreste aus. Erst zwischen 10 000 und 9000 v. h. waren Schafe und Ziegen schließlich als Haupt-Fleischversorger etabliert. Gleichzeitig könnten auch erste Versuche der Haltung und Zucht von Rindern geglückt sein.

Ein geregelter Ackerbau mit Aussaat, Ernte, Vorratshaltung und Züchtung verbreitete sich auf dem Gebiet des Fruchtbaren Halbmonds immer weiter, während die verbliebenen Jäger und Sammler in Rückzugsgebiete abgedrängt wurden. Mehr und mehr machten sie sich unabhängig von den Naturmächten und begannen, die natürliche Umgebung nach ihren Interessen umzuformen. Die schwindende Angst vor den Urgewalten machte ihre Köpfe frei für neue Ideen, die den Ertrag und die Nutzungsdauer ihrer neu entdeckten Feldwirtschaft vergrößerten. In klimatisch begünstigten Zonen konnte die Nahrungsmittelproduktion erheblich intensiviert und die Ernährungsbasis um ein Vielfaches erhöht werden. Spätestens jetzt hatten die Menschen die Stufe der bloßen Bedürfnisbefriedigung hinter sich gelassen.

Auswirkung auf den Menschen

Die „Erfindung“ der Landwirtschaft ging aber auch mit gewaltigen Veränderungen für die Lebensbedingungen der Menschen einher. Als Wildbeuter hatten sie noch wesentlich mehr „Freizeit“ genossen; die individuelle Freiheit war ein hochgeschätztes Gut. Als Bauern mussten die ehemaligen Jäger und Sammler jetzt Wochen und Monate harter Arbeit in die Bearbeitung des Bodens, das Aussäen, Ernten und Lagern der Früchte sowie die Verarbeitung der Nahrung stecken. Zudem musste das Vieh unablässig betreut und versorgt werden.

Die mühevolle Arbeit hinterließ tiefreichende Auswirkungen auf die Menschen: Die ersten Ackerbauern waren kleiner und schwächlicher als ihre eiszeitlichen Jäger-und-Sammler-Ahnen und häufig bei schlechter Gesundheit. Das dürfte zum einen an einer viel zu einseitigen, getreidereichen (proteinärmeren) Ernährung gelegen haben, wodurch sie häufig an Mangelerscheinungen wie Skorbut und Blutarmut litten. Dazu wurden sie infolge der täglichen harten Arbeit von Arthrose und Entzündungen geplagt.

Etwa gleichzeitig mit den Anfängen der Domestikation von landwirtschaftlich genutzten Tieren begann bereits vor 10 500 Jahren die Milchgewinnung im Nahen Osten. Während die Milch für die Erwachsenen zu Käse und Joghurt verarbeitet wurde, um sie verträglich zu machen, konnten Kleinkinder damit gefüttert werden. Doch so fehlten ihnen wichtige Nähr- und Abwehrstoffe, die in der Muttermilch waren. Vermutlich stieg infolgedessen die Kindersterblichkeit.

Ratten, Mäuse und Spatzen schleppten gefährliche Keime ein. Das Vieh wurde oft als Zwischenwirt von Erregern genutzt, welche sich nach und nach auf den Homo sapiens spezialisierten und sich in den größeren Gemeinschaften schnell ausbreiteten. So stammen z. B. die Erreger von Masern, Pocken und Tuberkulose von Rindern, die von Grippe und Keuchhusten von Schweinen. Neben der Nutztierhaltung, der einseitigen Ernährung und der steigenden Bevölkerungsdichte begünstigte auch mangelnde Hygiene den Aufstieg von Erregern. Die sesshaften Bauern lebten gleichsam inmitten ihrer Fäkalien, so dass gefährliche Darmkeime ins Trinkwasser gelangten.

Samen in die Erde geben und voller Vertrauen darauf warten, dass Licht und Regen ihm helfen zu wachsen und rechtzeitig Früchte zu tragen, das bedeutete für Menschen, deren Vorfahren auf die Jagd gegangen waren, ein neues Denken, Handeln und Planen. Es gab genügend Lebensressourcen und Ideenkraft, um auch neugierig hinter das banal Alltägliche zu schauen. So veränderte sich möglicherweise auch die religiöse Welt. Die Riten der Jäger und Sammler und ihre Zentralorte mit den Steinplastiken und Tierdarstellungen wurden komplett bedeutungslos. Neue Heiligtümer, zwischen 10 600 und etwa 10 000 v. h. errichtet, gerieten schon weniger beeindruckend. Möglicherweise schufen sich die Menschen jetzt mit der Ahnenverehrung einen Weg ins nicht diesseitige Leben.

Megasites

Mit immer weniger Fläche konnten jetzt immer mehr Menschen ernährt werden. Es entstanden immer größere Dörfer mit massiven Bauten für Mensch und Vieh und ihre Vorräte. So wuchsen im Laufe des 10. Jahrtausends manche Orte zwischen Amman und dem Roten Meer innerhalb weniger Jahrhunderte auf bis zu 15 Hektar mit mehreren tausend Einwohnern (sogenannte Megasites). In Zentralanatolien entstand vor etwa 9100 Jahren die Großsiedlung Catal Höyük, für manche Forscher die älteste Stadt der Welt.

Ernteüberschüsse und Handwerksprodukte wurden zu Handelswaren: Die Megasites entwickelten sich zu Handelsplätzen. Schließlich griffen die bisherigen sozialen Verhaltensregeln nicht mehr. Das traditionelle offene soziale Netz brach zusammen und wurde vermutlich durch engere verwandtschaftliche Bande ersetzt. Verstärkte Arbeitsteilung und Anhäufung von Besitz generierten Unterschiede, was zu weiterer sozialer Differenzierung und Hierarchisierung in der Gesellschaft beitrug. Macht wurde nun über Besitz zur Schau gestellt. Die Archäologin Barbara Bender postulierte, machthungrige Männer hätten Überschüsse an Getreide gebraucht, um Feste zu geben und dadurch ihren Einfluss zu mehren.

Verursacht durch die Bevölkerungsexplosion und rasch verarmenden Böden – von Düngung verstand man noch nichts – wurden gute Böden knapp, dasselbe galt auch für Holz. Konkurrenzkämpfe um die besten Holzreserven und die besten Ackerböden müssen innerhalb und zwischen den Megasites zu enormen sozialen Spannungen geführt haben. Viele Anthropologen halten die bäuerliche Sesshaftigkeit sogar für die Wiege aller Konflikte um Land und Lebensgrundlage, denn: Anders als Wildbeuter hatten Weizenzüchter und Viehhalter keine Ausweichmöglichkeit mehr, wenn Fremde ihre Ressourcen beanspruchten.

Innerhalb der Megasites versuchten die Menschen aufflammende Konflikte durch neue Regeln des Zusammenlebens zu kontrollieren. Rituale dienten dazu, das Gefühl einer gemeinsamen Identität zu stärken. Auf die Dauer aber half es nichts: Die ersten Bauern scheiterten schließlich an der Übernutzung der Ressourcen und den inneren Konflikten ihrer Gemeinschaften, wobei klimatische Veränderungen die Lage noch verschärft haben dürften. Die meisten Megasites wurden spätestens im Laufe des 9. Jahrtausends v. h. aufgegeben, die wenigen Ausnahmen schrumpften zu kleinen Dörfern zusammen. Wohin die Menschen gingen, bleibt im Dunkeln.

Megasites waren ein frühes Experimentierfeld für präurbanes Leben. Es sollte zwar Jahrtausende dauern, bis das Experiment, so viele Menschen in einem Ort leben zu lassen, wiederholt wurde. Der Grundstein für ein Zusammenleben in großen Gemeinschaften war jedoch in den neolithischen Megasites gelegt, vor allem durch die sozialen Regeln, denen sich die Menschen verschrieben hatten.

Verbreitung

Ausgelaugte Böden und zunehmende gewaltsame Auseinandersetzungen waren wahrscheinlich die Ursachen dafür, dass sich einige Bauern vor mehr als 10 000 Jahren entschlossen, die heimatliche Scholle zu verlassen und sich aufs Mittelmeer zu wagen, um neue Gegenden zu besiedeln. Erst später versuchten sie es auch auf dem Landweg. So war Anatolien wohl das Sprungbrett für frühe Bauern aus dem Fruchtbaren Halbmond, die ihre Wirtschaftsform schließlich bis nach Mittel- und Westeuropa brachten. Auch dort dominierten ihre Nachfahren bald, während die Jäger und Sammler immer mehr in den Hintergrund gedrängt wurden.

Ganz anders als in Europa scheint die Neolithisierung in China abgelaufen zu sein. Während in Europa bereits domestizierte Pflanzen und Tiere von den bäuerlichen Pionieren eingeführt wurden und sich in wenigen hundert Jahren durchsetzten, existierte in China mehrere tausend Jahre lang eine ungewöhnliche Mischform. Zwar gab es schon früh Siedlungen und Gräberfelder, qualitätvolle Keramik, perfekt geschliffene Steingeräte und Mahlsteine. Doch die Domestikation von Tieren und Pflanzen kam offenbar erst später: Reis wurde vor ca. 10 000 Jahre erstmals am Jangtsekiang angebaut, nördlich davon um die gleiche Zeit Hirse. Hunde wurden als Fleischlieferanten gezüchtet, erst ab 8000 v. h. auch Schweine, Rinder und Schafe.

In Afrika verlief die Neolithisierung nicht so stringent wie andernorts. Vor 12 000 Jahren lebten Menschen auf dem Dogon-Plateau wahrscheinlich schon von einer planvoll betriebenen Ernte essbarer Wildpflanzen – nicht anders als zur gleichen Zeit im Umfeld des Göbekli Tepe (s. o.). Diese Vorstufe zur Ackerbaugesellschaft verlangte zumindest für die Zeit der Ernte Sesshaftigkeit – und wohl auch erste Eingriffe in die Natur, wie z. B. das Auflichten des afrikanischen Buschs durch Feuer. Für die Züchtung von Gräsern war es aber in vielen Gebieten zu feucht. Spätestens 9000 v. h. wurde im Zentrum der Ostsahara, damals noch mit reichlichem Pflanzenbewuchs, die Weidewirtschaft (Ziegen, später auch Rinder) entwickelt, wenngleich die Jagd weiterhin eine wesentliche Lebensgrundlage blieb.

REM

Der Prozess des ALTERNS

Altern ist aus evolutionsbiologischer Sicht eine unausweichliche Folge der natürlichen Auslese. Für den Bestand der Art reicht es völlig aus, wenn das Individuum Zeit hat, um Nachwuchs zu zeugen und aufzuziehen. Beim Menschen ist dieser „Einweg-Körper mit Verfallsdatum“ (Rusting 1993) nach 45 Jahren evolutionsbiologisch gesehen eigentlich nicht mehr erforderlich. Es wäre für die Natur auch sehr aufwändig, komplizierte Organismen wie uns dauerhaft „instand zu halten“. So setzt in zunehmendem Alter der körperliche Verfall ein und Anpassungs- und Widerstandsfähigkeit des Individuums gegenüber der Umwelt verringern sich.

Selbst bei Bakterien sind Alterserscheinungen nachzuweisen. Stäbchenförmige Bakterien z. B. teilen sich nur scheinbar in zwei gleich große Hälften. In Wahrheit übernimmt eine der Tochterzellen den Großteil der alten Ausstattung von der Mutter, während ihre Schwester überwiegend neu synthetisiertes Material abbekommt. Bakterien, die über mehrere Generationen jeweils das „alte Ende“ geerbt haben, wachsen nun langsamer als solche, denen neue zugefallen sind. Sie teilen sich seltener und sterben mit höherer Wahrscheinlichkeit.

Zellulärer Alterungsprozess

Unser Körper ist ständig damit beschäftigt, sich selbst zu verjüngen. So erneuert sich z. B. die Haut ständig: Alle 24 Tage wird ihre Oberschicht komplett ausgewechselt. Die Darm-Schleimhaut erneuert sich innerhalb von drei Tagen, das Blut tauscht sich innerhalb eines Jahres vollständig aus und die Leber erzeugt alle zwei Jahre eine neue Version. Dieser Prozess der permanenten Erneuerung funktioniert so gut, dass es kaum einen Teil des Körpers gibt, der älter als 10 Jahre ist. Sogar das Skelett ist alle 10 Jahre runderneuert. Es gibt aber auch Zellen, die eine viel längere Lebensspanne überbrücken müssen, weil sie sich nach der Geburt nicht mehr teilen, wie bestimmte Herzmuskelzellen, Pinealzellen und auch die Nervenzellen.

Nicht die Substanz des Menschen wird also erhalten, sondern nur das Muster – aber auch dieses nicht vollkommen. Denn somatische Zellen (Körperzellen) teilen sich nicht ewig, sie haben vielmehr eine begrenzte Teilungsfähigkeit, die von Zellart zu Zellart verschieden ist. So teilen sich beispielsweise die Hautzellen und Bindegewebszellen (Fibroplasten) eines Embryos insgesamt noch etwa 50mal. Verantwortlich für die Begrenzung der Anzahl der Teilungen sind die Telomere, repetitive (sich wiederholende), genfreie DNA-Sequenzen an den Enden der Chromosomen. Über Artgrenzen hinweg sind sie für deren Stabilität unerlässlich und umhüllen die Enden wie schützende Kappen.

Am Anfang des Lebens, in der befruchteten Eizelle, haben Telomere ihre maximale Länge. Immer wenn sich die Zelle teilt, gehen jedem Telomer einige Einheiten verloren, so dass sie im Verlauf der Zeit immer kürzer werden. So sammeln sich im gesamten Organismus mit der Zeit immer mehr Zellen mit verkürzten Telomeren an, die ihre Funktion bald einstellen, aufhören sich zu teilen und in die Seneszenz gehen. In der Seneszenz existieren die Zellen quasi im Ruhezustand weiter, können aber chronische Entzündungen fördern, die vielen Alterserscheinungen zugrunde liegen. Es spricht auch einiges dafür, dass dadurch nicht nur Krebs, sondern auch Arteriosklerose, Alzheimer, Typ-2-Diabetes und weitere Alterskrankheiten begünstigt werden. Zelluläre Seneszenz ist also nicht etwa eine bloße Begleiterscheinung des Alterns von Geweben und des gesamten Organismus, sondern trägt aktiv dazu bei.

Inzwischen wurde eine Gen-Variante entdeckt, die für besonders kurze Telomere verantwortlich ist. Wer diese spezielle Variante besitzt, hat nach den Erkenntnissen der Forscher eine etwa drei bis vier Jahre verkürzte biologische Lebenserwartung. Zahlreiche äußere Faktoren haben zudem Einfluss darauf, wie schnell die Telomere schwinden: z. B. Tabakkonsum oder Fettleibigkeit, entzündliche Prozesse im Körper oder chronischer und massiver Stress. Wie das genau geschieht, ist allerdings noch nicht geklärt. Auch mit sinkendem sozioökonomischen Status und bei hoher sozialer Belastung scheint die Telomerlänge schneller abzunehmen und sich das biologische Altern zu beschleunigen.

[Es existieren allerdings auch unbegrenzt teilungsfähige Zellen: Stammzellen, Keimzellen und Tumorzellen. Sie verfügen über einen Reparaturmechanismus, der das Enzym Telomerase herstellt und die Zellen jung hält. Dieses spezielle Enzym synthetisiert die verloren gegangene Telomer-DNA nach und verzögert so je nach Typ und Zustand der Zelle den Alterungsprozess. Allerdings ist es auch für das unbegrenzte Wachstum von 90% der Krebszellen verantwortlich. In den meisten Körperzellen ist daher die Telomerase nicht aktiv. Zudem wird ihre Wirksamkeit durch freie Radikale (s. u.), das Stresshormon Cortisol aber auch bestimmte Stoffwechselwege beeinträchtigt. ]

Wenn Schädigungen in der Zelle, z. B. durch fehlerhafte Kopien, einen Grenzwert überschreiten, wird das Apoptose-Programm gestartet, in dessen Verlauf sich die Zelle selbst planmäßig auflöst, ohne dass es zu Entzündungsvorgängen kommt. Es ist durchaus sinnvoll, dass Zellen sich nicht unendlich teilen können, denn im Laufe eines teilungsfreudigen Zell-Lebens häufen sich irreparable Schäden und Fehler an und die Gefahr einer bösartigen Entartung (Krebs) wird immer größer. Durch Apoptose werden also diese überflüssig gewordenen verletzten, infizierten oder auf andere Weise veränderten Zellen entfernt.

Täglich sterben durch Apoptose zehn Milliarden unserer Körperzellen. Ihre Rohstoffe werden wieder vollständig in den Stoffwechsel eingebracht – ein perfektes Recycling. Im Normalfall entsteht die gleiche Anzahl von Zellen im selben Zeitraum durch mitotische Teilungen neu. Über die gesamte Lebensdauer gesehen scheint aber ein Zellverlust durch Apoptose ein bedeutender Faktor des Alterns zu sein, insbesondere von Geweben wie Herz und Gehirn.

Alterungsprozess des Organismus

Altern geht mit diversen Verfallserscheinungen einher, neben vermehrtem Zellverlust mit entzündlichen Prozessen und Stoffwechselkomplikationen. Zu beobachten ist in der Physiologie eine Wende im Alter von etwa 35 bis 40 Jahren, oft eine Zeit, in der z. B. die Sportkarriere eines Athleten endet – ein Hinweis darauf, dass sich in diesem Alter wirklich etwas ändert.

So werden die Stützproteine des Bindegewebes nach und nach abgebaut und die Elastizität geht verloren. Auch die Haut verliert Substanzen wie Collagen und Elastin und wird faltig. Bestimmte Hautzellen verlieren ihre Fähigkeit, den Farbstoff Melanin zu produzieren: Wir bekommen nicht nur dünne, sondern auch graue Haare. Mit zunehmender Lebenszeit verlieren die Bandscheiben an Substanz, die Wirbel rücken enger zusammen, wir schrumpfen. Die Knochendichte nimmt allgemein ab, das Muskelaufbauprogramm erlahmt – der Körper wird schlaffer. Die Gelenke werden in ihrer Bewegungsfreiheit eingeschränkt. Der Stoffwechsel verlangsamt sich, Organe wie Herz, Lunge und Nieren verlieren an Leistungsfähigkeit, Blutgefäße verengen sich aufgrund von arteriosklerotischen Veränderungen, die Sinnesorgane lassen in ihrer Empfindlichkeit nach.

Die meisten Konzentrationen von Wachstums-, Sexual- und Stresshormonen sowie von Melatonin und DHEA (Dehydroepiandrosteron) nehmen mit dem Alter deutlich ab. Nur das wichtigste Stresshormon Cortisol wird im Alter eher vermehrt produziert. (Es ist mit verantwortlich für Osteoporose und schlechtere Gedächtnisleistungen.) Das Immunsystem verliert zunehmend an Leistungsfähigkeit. Es werden weniger Antikörper gegen Viren und Bakterien produziert. Infektionen werden riskanter; Lungenentzündung ist bei alten Menschen eine häufige Todesursache. Und es kommt sogar zu schädigenden Autoimmunreaktionen, d. h. das Immunsystem greift den eigenen Körper an.

Wie unser gesamter Körper so altert auch unser Gehirn. Allerdings lässt sich der Beginn der Hirnalterung nicht exakt bestimmen, denn für die meisten Funktionen unseres Zentralorgans gibt es ein eigenes Alternsprofil. So geht die synaptische Plastizität bereits in der zweiten bis dritten Lebensdekade zurück. Mit den normalen als auch mit krankhaften Alterungsprozessen geht auch eine Hirnatrophie einher, also ein Verlust an Hirnvolumen, zwischen dem 50. und dem 80. Lebensjahr durchschnittlich um 10% (in manchen Bereichen nur um 2%). Gleichzeitig geht mit zunehmendem Alter auch die Anzahl der Stammzellen zurück, die das Gehirn für die Neurogenese, also die Neubildung von Nervenzellen, benötigt. Die Neurogenese-Rate sinkt um 80%.

Der Hirnschwund geht wohl im Wesentlichen auf den Verlust von weißer Hirnsubstanz zurück. Verbindungen zwischen den einzelnen Gehirnregionen werden schwächer. Auch die graue Substanz schrumpft wohl über das gesamte Erwachsenenleben hinweg, bei geistig gesunden Menschen aber selbst in fortgeschrittenem Alter nicht unbedingt. Eine sichtbare Veränderung der mikroskopischen Struktur von Nervenzellen beginnt erst in höherem Alter.

Der natürliche Alterungsprozess macht vor den mentalen Fähigkeiten nicht halt. Der Startpunkt des geistigen Abbaus hängt u. a. auch von der Durchblutung des Gehirns ab, die etwa ab dem 55. Lebensjahr abnimmt. Vorgänge auf Grund arteriosklerotischer Verengung der Hirngefäße oder ein zu niedriger Blutdruck führen zu einer Unterversorgung mit Sauerstoff und Nährstoffen. Es verlangsamen sich verschiedene geistige Funktionen (verstärkt ab dem siebten Lebensjahrzehnt) und lassen weiter nach, beispielsweise die Fähigkeiten, neuartige Probleme zu lösen, Schlussfolgerungen zu ziehen und rasch zu reagieren, aber auch mehrere Dinge gleichzeitig zu tun.

Eine der wesentlichen verborgenen Manifestationen des Alterns ist ein Rückgang vieler Botenstoffe (Neurotransmitter), durch die die Nervenzellen miteinander kommunizieren. Die Genauigkeit in der Übermittlung der Nervensignale vermindert sich, große Netzwerke im Gehirn kommunizieren unkoordiniert und ungenügend miteinander. Leichte kognitive Störungen zeichnen sich durch eine Häufung von Erinnerungslücken aus. Vor allem Erinnerungen, die selten abgerufen werden, sind davon betroffen.

Ein zunehmender Gedächtnisverlust für alles bewusst Gelernte ist also – genauso wie der Verlust an Muskelstärke – im Alter unvermeidlich, wobei das Namensgedächtnis das erste Merkvermögen ist, was nachlässt. Zwar liegen die meisten einmal erlernten Inhalte in Form chemischer Markierungen nach wie vor im alternden Hippocampus, ein für das Gedächtnis wichtiger Hirnteil, aber nun möglicherweise „ganz unten im Stapel“. In der Regel handelt es sich bei Gedächtnislücken also nicht nur um ein Speicher-, sondern eher um ein Zugriffsproblem.

Neue Informationen werden nicht mehr so leicht ins Langzeitgedächtnis aufgenommen. Ältere Menschen brauchen längere und häufigere Lernphasen, um Erinnerung aufzubauen, denn mit zunehmendem Alter reduziert sich die Kapazität des Arbeitsgedächtnisses, das die selektive Aufmerksamkeit im Gehirn steuert. Die Offenheit für neue Erfahrungen (Lust auf Neues) nimmt ab. Mit 80 oder 90 Jahren sind Menschen dann mehr oder weniger veränderungsresistent.

Aber selbst wenn die Hirnstrukturen degenerieren, bedeutet das nicht, dass darunter die kognitiven Fähigkeiten leiden. Der IQ des Menschen scheint bis ins hohe Alter erstaunlich stabil zu bleiben. Altersbedingte strukturelle Veränderungen kann unser Denkorgan wenigstens zum Teil auf Grund seiner funktionellen Plastizität wieder auffangen. Bestimmte Hirnregionen werden zusätzlich aktiviert, um die geringere Leistungsfähigkeit in Bezug auf Gedächtnis, Konzentration und Koordination von Denken und Handeln möglichst gut zu kompensieren. Ältere Menschen greifen stärker auf beide Hirnhälften zurück als Jüngere und können auf diese Weise Leistungseinbußen ausgleichen. Auch verlagert sich die neuronale Aktivität von hinteren in vordere Regionen (PASA-Effekt; von engl. Posterior-Anterior Shift in Aging), was offenbar ebenso hilft, altersbedingte neuronale Einbußen auszugleichen.

Wortschatz und Kurzzeitgedächtnis nehmen erst im sehr hohen Alter ab – und das autobiografische Gedächtnis scheint überhaupt nicht nachzulassen. Es gibt sogar Komponenten unseres inneren Speichers, die sich im fortgeschrittenen Alter noch verbessern können – darunter das Expertenwissen, das von möglichst viel Erfahrung profitiert. Im Durchschnitt aber treten trotz allem jenseits der 70 deutliche Veränderungen auf.

Theorien zur Ursache des Alterns

Die Forscher vertreten verschiedene Theorien, die das zunehmende Nachlassen der körperlichen Funktionen im Alter erklären sollen. Mehr als 300 Theorien sind bisher bekannt, vom puren Zufall über Reduzierung der Telomere bis zum genetischen Programm. Alterungs-Gene, genetische Mutationen, negative Einflüsse der Hormone, des Immunsystems oder freie Radikale werden demnach für das Altern verantwortlich gemacht. Ausgangspunkt aller Theorien ist die Beobachtung, dass sich für jede Tier- und Pflanzenart ein spezifisches Lebensalter angeben lässt, das durch Umwelteinflüsse meist nach unten korrigiert wird.

Grundsätzlich kann man zwei große Theorien unterscheiden. Danach sind Altern und Tod entweder genetisch programmiert, also ein aktiver Vorgang im Körper, oder eine passive Abnutzungserscheinung. Vielleicht sind sie auch von beiden etwas. Jedenfalls sind sie sozusagen eine Nebenwirkung des Lebens, für das die Zellteilung eine der Grundvoraussetzungen ist.

Programmtheorien

In zahlreichen Theorien (Programmtheorien) gibt es die These, Altern sei weniger ein Verfall als vielmehr eine aktive Fortsetzung der genetisch programmierten Entwicklung eines Lebewesens. Danach ist für die meisten Veränderungen in der äußerlichen Erscheinung, an denen wir das Alter eines Menschen ablesen können, nicht Abnutzung verantwortlich. Vielmehr steuere die Erbsubstanz nicht nur der Entwicklung des Körpers, sondern beteilige sich auch aktiv durch die genetisch gesteuerten Produktion eines oder mehrerer „Alternsfaktoren“ an seiner Demontage. Dafür spricht auch, dass gewisse Alternsphänomene sehr konstant auftreten. Es werden immer wieder familiäre Häufungen von besonders langlebigen Personen beobachtet, die langsamer altern und weitgehend von alterstypischen Leiden wie Gefäßerkrankungen, Diabetes, Krebs oder Alzheimer verschont bleiben.

Dass Gene und ihre Varianten an Alterungsvorgängen beteiligt sind, ist unzweifelhaft. Bei Tieren (z. B. Fadenwürmern) wurden zum einen „Alterungs-Gene“ gefunden, die dafür sorgen, dass das Tier innerhalb der normalen Lebensspanne stirbt, zum anderen aber auch sog. „Langlebigkeitsgene„. Bestimmte Gene (sog. Reparaturgene) überwachen dabei die Präzision der Stoffwechselvorgänge und korrigieren manche Schäden. Allerdings arbeiten solche Reparaturprogramme mit dem Alter weniger präzise und machen Fehler.

Auch beim Menschen gibt es viele Gene, die einen negativen Effekt auf die Lebensdauer haben, und ebenso solche, die eher für ein langes Leben sorgen. Bei Letzteren gibt es allerdings bisher nur wenige eindeutige Beispiele für ihre tatsächliche Wirkung. Die Evolution und einige empirische Studien sprechen dafür, dass genetische Varianten, welche die Langlebigkeit erheblich steigern, unter natürlichen Bedingungen eigentlich selten vorkommen, da sie auf Kosten der Nachkommenzahl gehen.

Varianten des Apolipoprotein-E-Gens (APOE) erwiesen sich in mehreren Studien als Faktoren, welche die Mortalität im höheren Alter um etwa 10 bis 20% gegenüber dem Durchschnitt erhöhen oder senken. Die drei menschlichen Hauptvarianten des Gens gibt es bei anderen Primaten nicht.          APOE-e4 ähnelt noch stark dem APOE-Gen der Schimpansen. Gut möglich, dass das Genprodukt bereits die Lebensdauer erweiterte. Es scheint allerdings eine gravierende Kehrseite zu haben: Vermutlich trägt es zu typischen Altersgebrechen wie Arteriosklerose bei – ein klassischer Fall für eine Erbanlage mit mehreren, vielschichtigen Funktionen, wobei in der Jugend typischerweise die vorteilhaften hervortreten und erst später die nachteiligen.                              Vor vielleicht 200 000 Jahren, in einer Zeit, als der Homo sapiens in Afrika gerade entstanden war, dürfte eine zweite wichtige APOE-Variante aufgetreten sein: APOE-e3. Dieses Allel verhilft 40- bis 70-Jährigen zu besserer Gesundheit (Entzündungsreaktionen fallen weniger vehement aus) und verlangsamt die Alterung, vor allem, wenn jemand es doppelt besitzt, also von beiden Eltern geerbt hat. In heutigen Populationen tragen 60 bis 90% der Menschen die Genvariante mindestens einfach.       APOE liegt bei den meisten Menschen in den Varianten e3 oder e4 vor. Wer das seltenere Gen APOE-e2 besitzt, wird bis ins hohe Alter vor Krebs und anderen Leiden (z. B. Arteriosklerose) geschützt, sogar vor der Alzheimer-Krankheit. Es wird vermutet, dass es auf nicht geklärte Weise freie Radikale (s. u.) in Schach hält.

Einige Forscher jedenfalls schätzen, dass bis zu 7000 Gene an der Steuerung des Alternsprozesses beteiligt sind. Ein ganzes Sortiment wurde bereits identifiziert und kann bei verschiedensten Organismen die Lebensdauer positiv oder negativ beeinflussen. Ihr Zusammenspiel wird aber noch nicht verstanden. Eine Theorie besagt, dass die Selektion die Aktivität vieler Gene, die mit Krankheiten assoziiert werden, im fortpflanzungsfähigen Alter unterdrückt. Erst in späteren Jahren, wenn solche Gene nur noch einen geringen Einfluss auf den Reproduktionserfolg eines Individuums haben, kommen deren schädliche Auswirkungen ungehindert zum Tragen. Manche Forscher fassen das Altern so als epigenetische Krankheit auf. Durch Anhängen, Entfernen und Verändern von Methyl- oder Azetylgruppen in einigen Genom-Regionen wird im Laufe eines Lebens die Wirkung von Genen verändert.

Die sogenannten SIR-Gene könnten zu einem übergeordneten regulatorischen Netzwerk für das Altern gehören, eventuell sogar die möglichen Dirigenten sein. Mehrere ihrer bislang identifizierten Zielproteine steuern wichtige Prozesse, darunter Apoptose, Zellabwehr und Stoffwechsel.

Verschleißtheorien

Verantwortlich für das Altern sind aber sicher nicht die Gene allein. Für die Vertreter der Verschleißtheorien ist Altern das unvermeidbare Resultat der Abnutzung von Zellen und ihrer Erbsubstanz aufgrund schädigender Einflüsse. Im Laufe eines Lebens sammeln sich in den Zellen sogenannte freie Radikale an, Nebenprodukte der Stoffwechselvorgänge. Vor allem sind es hochreaktive Sauerstoffradikale (Oxidantien; z. B. O2oder OH) und Stickstoffradikale (z. B. NO), die als besonders aggressiv gelten. Wir nehmen sie auch bei intensiver Sonnenstrahlung (UV-Strahlung), verschmutzter Luft oder mit gegrilltem Fleisch auf.

Schäden durch einen dauerhaft erhöhten Spiegel intrazellulärer Oxidantien löst unmittelbar zelluläre Alterungsprozesse aus. Neurone reagieren besonders empfindlich auf oxidativen Stress. Die freien Radikale dringen auch in den Zellkern ein, wo sie das Erbgut schädigen. So tragen sie ebenfalls z. B. zur beschleunigten Verkürzung der Telomere bei und beeinträchtigen außerdem die Wirksamkeit der Telomerase. Insbesondere das Erbgut der Mitochondrien (sie versorgen den Köper mit Energie) ist leicht angreifbar. Diese arbeiten dann zunehmend fehlerhaft und bringen weniger Leistung – für manche Forscher ein wichtiger Schlüssel für das Altern.

In welchem Ausmaß freie Radikale im Körper auftreten, hängt auch von den Schutz- und Reparaturmechanismen der Zellen ab. Ein fein austariertes antioxidatives Abwehr- und Entgiftungssystem (zu dem auch Vitamine, Hormone und Enzyme gehören) verhindert die toxische Anreicherung der Radikale, indem sie diese einfangen und inaktivieren, ehe sie schaden können. Einige dieser Antioxidantien, wie die Vitamine C und E, nehmen wir über die Nahrung auf, andere kann der Organismus selbst herstellen, etwa das Hormon Melatonin.

Auch die Harnsäure ist ein hochwirksames Antioxidans. Vielleicht sind hohe Harnsäurewerte für die meisten Menschen daher von Nutzen, weil sie die Alterung des Gewebes verlangsamen – einige zahlen allerdings dafür Tribut in Form von Gicht.

Die Radikalenfänger funktionieren fast reibungslos, so lange wir jung sind. Mit zunehmendem Alter arbeiten die Schutzmechanismen nicht mehr so effektiv. Die natürlichen Mechanismen zur Wartung und Reparatur des Körpers erlahmen allmählich und dem Organismus geht schließlich die Kraft aus, die der jugendliche Körper dem Verfall noch entgegengesetzt hat. Alterungsprozesse bis hin zum Tod von Organismen werden heute von vielen Biomedizinern als Folge der Akkumulation von Schäden (chemischem Verschleiß) gesehen.

Freie Radikale scheinen an einer ganzen Reihe von Alterskrankheiten beteiligt zu sein, beispielsweise Arteriosklerose, Krebs, Muskeldystrophie und Rheuma. (Beta-Amyloid – Hauptauslöser von demenziellen Erkrankungen – könnte z. B. über freie Radikale sein gefährliches Potenzial entfalten.) Doch reaktionsfreudige Atome und Moleküle sind nicht per se gesundheitsgefährdend: In geringer Konzentration und unter bestimmten Umständen könnten sie sogar ein Teil der Körperabwehr sein und zelluläre Reparatursysteme erst in Gang setzen. Möglicherweise halten die freien Radikale den Körper auf einem konstanten Stresspegel, den der Organismus laufend kompensieren muss – wodurch er wahrscheinlich besser in der Lage ist, akuten Stress zu bewältigen.

[Nach einer anderen Theorie, der AGE-Theorie (AGE = advanced glycation end-products), sind strukturvernetzende Glukose-Protein-Verbindungen für das Altern verantwortlich. Eiweiße „karamellisieren“ – wie bei der Bonbonherstellung – und werden unbrauchbar. Die verzuckerten Proteine bilden sinnlose Batzen, welche die Gelenke versteifen, die Augenlinsen trüben und die Arterien verstopfen. Zugleich stellt der Körper immer weniger neue Eiweiße her. Im hohen Alter ist schließlich fast die Hälfte aller Proteine geschädigt.]

Ergebnis

Gerontologen haben inzwischen neun zelluläre und molekulare Merkmale identifiziert, die eng mit dem Altern und der Sterblichkeit verbunden sind. Es handelt sich um natürliche und unvermeidliche Folgen des jahrzehntelangen Betriebs einer komplizierten zellulären Maschinerie. Sie reichen von der Verkürzung der Telomere über die Anhäufung defekter Proteine und giftiger Stoffwechselprodukte bis zur Abnutzung von Stammzellen. Für Vertreter der Hormontheorie sind zumindest einige Alterungsprozesse auch eine Folge der nachlassenden Fähigkeit der Zirbeldrüse, das Hormon Melatonin zu bilden, das nicht nur für erholsamen Schlaf sorgt, sondern auch das Wachstum bestimmter Krebszellen hemmt und vermutlich vor freien Radikalen schützt.

Die Steuerung der Altersprozesse beim Menschen scheint also insgesamt sehr kompliziert und komplex. Eine eindeutige Entscheidung für eine bestimmte Alterungshypothese ist schwierig, nicht nur wegen dieser Komplexität. Moderne Theorien verbinden daher Aspekte der diversen konkurrierenden Erklärungsversuche. Biologisch betrachtet handelt es sich beim Alterungsprozess dementsprechend wohl um einen „multifaktoriellen“ Prozess, der zu 30% von den Genen und zu etwa 70% von den Lebens- und Umweltbedingungen beeinflusst wird. Die Blut-Hirn-Schranke wird im Alter durchlässiger für Giftstoffe oder Krankheitserreger, die Entzündungsprozesse auslösen und so Neurone zerstören können. Rund 2% aller 60-Jährigen entwickeln eine Form von Demenz, wobei sich das Risiko von da an alle fünf Jahre verdoppelt. Mit 80 liegt es bereits über 30%.

Steigende Anfälligkeit für oxidativen Stress, die Akkumulation von fehlgefalteten Proteinen, das vermehrte Übergewicht einzelner wirkmächtiger Gene und all die anderen diskutierten Faktoren sind aus der Systemperspektive aber auch Anzeichen für die außerordentliche Variabilität des Alterns. Die Vielfalt der Faktoren und die Komplexität der zu Grunde liegenden Mechanismen führen dazu, dass Altern letztlich doch eine höchst individuelle Angelegenheit bleibt. In jedem Individuum sind die Beiträge der einzelnen Faktoren sehr unterschiedlich und beeinflussen sich gegenseitig.

Beeinflussbarkeit des Alterungsprozesses

Altern, so der kanadische Evolutionsbiologe Michael Rose, sei ein „optionaler Bestandteil des Lebens“, der sich „verlangsamen und hinausschieben“ lässt. Schon seit Jahrtausenden bemühen sich die Menschen darum, herauszufinden, wie sie den Prozess des Alterns aufhalten können. Aber selbst die moderne Wissenschaft tut sich dabei schwer. Grundsätzlich schlägt sie zwei Optionen vor: Schäden eindämmen, beispielsweise durch Verbesserung der Lebensbedingungen und durch Krankheitsprävention, und Reparaturen verbessern, etwa durch medizinische Eingriffe.

Das genetische Erbe zu verändern, ist außerordentlich schwierig, denn man müsste an sehr vielen Stellen im Genom gleichzeitig angreifen. Aber innerhalb dieses Rahmens können wir das eigene Altern selbst gestalten. Verhaltensweisen und Lebenserfahrungen einschließlich der durchgemachten Infektionskrankheiten haben Einfluss darauf, wie schnell Menschen altern. So können übermäßiger Stress, Bewegungsmangel, falsche Ernährung und andere äußere Faktoren (wie Nikotin und Alkohol) und allerlei Krankheiten den Alterungsprozess beschleunigen. Ein gesunder Lebensstil, gesunde Ernährung und sportlicher Lebenswandel dagegen können Altersdefiziten wirksam vorbeugen.

Regelmäßige körperliche Aktivitäten lassen die Stammzellproduktion ansteigen. So können die Prozesse der Immunalterung zurückgedreht und der Prozess der Autophagie gefördert werden, was den Körper länger jung hält. Körperliche Bewegung hat auch Auswirkung auf Hirngesundheit und Demenz im Alter (um 20% geringeres Demenzrisiko). Die synaptische Plastizität (das, was Lernen ausmacht) wird erhöht und die altersbedingte Schrumpfung des Hirnvolumens kann sich sogar umkehren.

Vitamine gelten schon lange als eine effektive Waffe im Kampf gegen das Altern. Eine überwiegend pflanzliche Ernährung mit viel Obst und Gemüse dämmt oxidativen Stress im Organismus ein. Eine 10- bis 30-prozentige Kalorienreduktion fährt in vielen Organismen die Aktivität der wichtigsten Signalwege des Alterns herunter. Bleibt die Nahrungsbeschränkung langfristig aktiviert, wirkt sie auch krankheitsvorbeugend (bei Altersleiden) und sogar lebensverlängernd. Beim Menschen sollen Krebs, Diabetes und neurodegenerative Erkrankungen seltener auftreten. Temporäres Fasten, z. B. einmal wöchentlich für 15 bis 20 Stunden, gilt als eine Art Doping für die Zellen des Körpers.

[Widrige Bedingungen wie Nahrungsmangel bedeuten Stress für den Organismus. In diesem Alarmzustand entstehen weniger neue Proteine und die Zellteilung verlangsamt sich. Durch die geringere Stoffwechselrate bilden sich weniger schädliche Stoffwechselprodukte wie freie Radikale. Dadurch werden vermehrt Ressourcen freigesetzt, die jetzt in die DNA-Reparatur oder andere Schutzmaßnahmen gesteckt werden können. Die Autophagie wird hochgefahren und der ständig nötige Aufräumprozess der Zellen so auf hohem Niveau gehalten. Die Proteinsynthese verlagert sich und produziert jetzt vermehrt vor allem wichtige Bausteine der Mitochondrien, was die Energieversorgung verbessert.]

Mentales Training kann neurodegenerative Erkrankungen (z. B. Demenz vom Alzheimer-Typ) zwar nicht verhindern, aber ihr Auftreten hinauszögern und den Verlauf beeinflussen. Es kann sogar die geistige Leistungskapazität auch im Alter noch erhöhen, da mehr Wachstumsfaktoren für Nervenzellen (Neurotropine) gebildet werden. Insgesamt kann ein hoher Bildungsgrad dem geistigen Abbau entgegenwirken und das Risiko für kognitive Probleme senken.

Alte Menschen sollten daher aktiv nach frischen Eindrücken suchen, nach unbekannten Aromen, nach neuen Ausflugszielen oder Bekanntschaften. Es ist der beste Weg, um das Gehirn jung, plastisch und wachsam zu halten. Denn Neugier und die Erkundung von Neuem können das Lern- und Gedächtnissystem positiv beeinflussen. Es lohnt sich auch noch im hohen Alter, Neues zu lernen, etwa eine Sprache oder ein Instrument, aber auch alte Geschichten zu erzählen und beim Umgang mit anderen Menschen viele sprachassoziierte Gedächtnisfunktionen zu bewahren.

Ein gesunder Lebensstil – regelmäßige Bewegung, gesunde Ernährung, abwechslungsreiche geistige Beschäftigung und eine reges und intaktes Sozialleben – scheint folglich im Alter hilfreich zu sein und bietet eine gute Gewähr für lang anhaltende körperliche und geistige Fitness. Nach Schätzung der UNO lebten 2020 weltweit etwa 573 000 über Hundertjährige, mehr als 20-mal so viel wie 50 Jahre zuvor. Hunderte von Menschen sind sogar 110 Jahre und älter. Zusammen mit medizinischen Fortschritten kann gesunder Lebenswandel möglicherweise die mutmaßliche biologische Grenze von 120 Jahren zu einer normalen Lebenserwartung machen. Doch die Wahrscheinlichkeit, länger als 120 oder 125 Jahre zu leben, dürfte verschwindend gering sein. Jeanne Calment, der älteste bekannte Mensch, der -wissenschaftlich bestätigt – je gelebt hat, starb im Jahre 1997 im Alter von 122 Jahren in Frankreich.

REM

Die Sonne (1)

Sonnenwind und Sonnenstürme

Die Sonne – Quell des Lebens. Ohne ihr Licht und ihre Wärme wäre die Erde öd und leer – und auch wir Menschen würden nicht existieren. Die Bedeutung der Sonne war schon unseren Ahnen bewusst. In zahlreichen Kulturen wurde unser Heimatgestirn als Gott verehrt. So befahl beispielsweise der Pharao Echnaton seinem Volk den Glauben an Aton, die Sonnenscheibe. Sollte die Leistung des Sterns einmal um 1 bis 2% schwanken, würde sich unser Leben drastisch verändern.

Die Sonne ist, was Masse und Helligkeit betrifft, ein Durchschnittsstern, ein sogenannter „Gelber Zwerg“. Ihr Volumen, etwa eine Million mal so groß wie das der Erde, enthält 98% der gesamten Masse des Sonnensystems. Der (mittlere) Durchmesser der Sonne beträgt 1 Million 392 700 Kilometer. Sie entstand vor knapp 4,6 Milliarden Jahren im Zentrum des solaren Urnebels, als dort in einer Gaskugel aus etwa 70% Wasserstoff, 28% Helium und 1 bis 2% schweren Elementen die Kernreaktion zündete: Wasserstoffkerne verschmolzen zu Helium und setzten dabei ungeheure Mengen an Strahlung frei.

Im Alter von 40 Millionen Jahren stabilisierte sich die Strahlung bei rund 70% des heutigen Wertes. Danach folgte ein sehr langsamer Anstieg, der bis heute andauert, denn aus physikalischen Gründen nimmt der Brennstoff (Wasserstoff) zwar ab, aber das Feuer wird heller. Das Massenverhältnis Wasserstoff/Helium beträgt heute im Sonnenzentrum etwa 63 zu 35%. Da etwa 1/10 des gesamten Wasserstoffvorrats die für die Fusion erforderlichen Temperatur und Dichte aufweist, kann unser Stern seine Strahlungsenergie insgesamt ungefähr 10 Milliarden Jahre lang aus dem Verbrennen von Wasserstoff beziehen.

Auf dem Weg zur Erde, die in einer Entfernung von etwa 149,6 Kilometer die Sonne umkreist, verliert die Strahlung den größten Teil ihrer Energie und kühlt ab. Da die meisten ihrer spektralen Anteile durch Absorption von Molekülen in der Atmosphäre herausgefiltert werden, kommt auf der Erdoberfläche vor allem sichtbares Licht sowie infrarotes Licht (Wärme) an.

Bau der Sonne

Die Fusion von Wasserstoff zu Helium findet bei einem hohen Druck (200 Millionen bar) und hoher Temperatur (rund 15 Millionen Grad Celsius) im Kern der Sonne statt. Dabei werden pro Sekunde Millionen von Kilowattstunden Energie frei. Diese Fusionsenergie wird von Photonen (Röntgenstrahlung) nach außen transportiert, zunächst durch die Strahlungszone (etwa 500 000 Kilometer vom Sonnenmittelpunkt bis zu sieben Zehntel ihres Radius). Wegen der Dichte des Plasmas kommen die Lichtteilchen nicht vernünftig vorwärts, da sie immer wieder von Materie (Elektronen und Atomkernen) geschluckt, wieder abgegeben und zurückgeworfen werden. Daher braucht ein Photon einige zehntausend bis hunderttausend Lichtjahre, bis es die Sonne endgültig verlassen kann.

Die Konvektionszone, die äußere, 200 000 Kilometer dicke Schicht der Sonne, reicht vom äußeren Rand der Strahlungszone bis unmittelbar unter die Sonnenoberfläche. Hier geht der Transport der Energie aus der Kernfusion weiter, aber zusätzlich kommt es zu einem Wärmetransport, der Konvektion (von lat. „convectum“ = „mitgetragen“): ein ständiges Auf und Ab heißerer und kühlerer Gase, ganz ähnlich wie in einem Kochtopf.

In der Tachokline, dem turbulenten Grenzbereich von Strahlungszone und Konvektionszone, vermuten die Wissenschaftler den Sitz des mysteriösen Sonnendynamos, der ein Magnetfeld erzeugt. Hier gibt es einen starken Bruch in der Rotation der Sonnenmaterie, woraus der Dynamo-Effekt entstehen könnte, bei dem die Bewegungsenergie aus der Strömung in magnetische Energie überführt wird. (Allerdings sind manche Sonnenforscher skeptisch, da noch nicht bewiesen ist, dass ein Sonnendynamo überhaupt existiert.) Auf jeden Fall erzeugen hier heftige Turbulenzen enorme elektrische Ströme, die mit einer Stärke von etwa 1000 Milliarden Ampere zirkulieren. Wie ein elektrischer Strom in einem Kupferdraht erzeugen diese ständig in Bewegung befindlichen Plasmaströme um sich herum ein gewaltiges Magnetfeld.

Die Photosphäre ist der Teil von der Sonne, den wir von der Erde aus sehen. Sie ist 400 Kilometer dick und enthält ionisiertes Gas, „nur“ 5800 Grad Celsius heiß. Von hier strahlt die Sonne den größten Teil ihrer Energie als Licht ab, das in circa 8,3 Minuten die Erde erreicht. In der Chromosphäre lodern die Feuerfontänen, die immer wieder aus der Photosphäre hochschießen (kleine Eruptionen). Heiße Schichten aus ionisiertem Gas (vor allem Wasserstoff und Helium) bilden einen milchigweißen Strahlenkranz über Photosphäre und Chromosphäre, der sich bis zu 20 Sonnenradien weit in den Raum erstreckt, die Korona. Ihre Helligkeit entspricht nur einem Millionstel der normalen Sonnenhelligkeit. Normalerweise ist sie nur im Röntgen- und Radiowellenbereich sichtbar – oder bei totaler Sonnenfinsternis. Noch unklar ist, warum die Korona mehrere Millionen Grad heiß ist, während an der Sonnenoberfläche nur knapp 6000 Grad Celsius herrschen.

Magnetische Kurzschlüsse (s. u.) schleudern Energie in die Korona und könnten dadurch das in ihrem Umfeld gefangene Plasma auf die beobachtete Temperatur erhitzen. Dazu könnte eine besondere Art dünner Plasmajets (sogenannte Spikule: kleine kurzlebige Strahlenausbrüche am Übergang zur unteren Korona) beitragen. Welche besonderen physikalischen Prozesse die Jets antreiben und wie das Gas in ihnen auf derart hohe Temperaturen aufgeheizt wird, muss aber noch herausgefunden werden.

Das Magnetfeld der Sonne

An der Oberfläche der Sonne treten jeweils an zwei Stellen Magnetfeldlinien aus und bilden ein bogenförmiges Magnetfeld, eine Schlaufe mit magnetischem Nord- und Südpol. Zahllose dieser rund 800 000 Kilometer langen magnetischen Schleifen sind über die Sonnenoberfläche verteilt. Ihre ursprünglich von Süd nach Nord verlaufenden Magnetfeldlinien werden durch die Drehung der Sonne in Rotationsrichtung mitgeschleppt. Da sich die Materie in der Äquatorregion schneller bewegt als in mittleren und höheren Breiten, werden die Feldlinien in komplizierter Weise gedehnt und verzogen. Dabei verdrillen sie sich und speichern über mehrere Tage hinweg immer mehr Energie – wie ein Gummiband, das man verdreht.

Überschreitet die Spannung einen kritischen Wert, können sich die Magnetfeldlinien mit gegensinniger Polung wieder verbinden. Die Astronomen sprechen von magnetischer Rekonnexion („Wiederverbindung“). Die Magnetfelder löschen sich dabei zum Teil gegenseitig aus – und die gespeicherte Energie wird schlagartig frei. Es kommt zu teilweise heftigen Explosionen, die vor allem im Röntgen- und ultravioletten Licht zu sehen sind. Dabei wird ein Schwall hochenergetischer Teilchen in das Sonnensystem geschleudert (s. u.). Zurück bleiben ein Magnetfeld geringerer Stärke sowie schwächere elektrische Ströme.

Wo die Magnetfeldlinien aus der Photosphäre heraustreten bzw. wieder in sie eintauchen, entstehen paarweise (magnetisch verschieden gepolte) Sonnenflecken, deren Größe oft ein Mehrfaches des Erddurchmessers beträgt. Es handelt sich um kältere Zonen in der Sonnenatmosphäre (3700 Grad Celsius), wo das starke Magnetfeld den Hitzetransport aus den darunter liegenden Schichten behindert. Da von hier weniger intensive Strahlung ausgesendet wird, wirken diese Stellen dunkel.

Die Sonnenflecken verändern sich ständig und geben der Sonne ein wechselndes Aussehen. Ursache ist die Sonnenaktivität, die in einem Rhythmus von ungefähr 11 Jahren zu- bzw. abnimmt. Insgesamt handelt es sich also um einen etwa 22-jährigen Zyklus. Nimmt die Sonnenaktivität zu, gibt es stärkere Eruptionen und es werden mehr Teilchen abgegeben; die Sonne zeigt sich insgesamt heißer. Im solaren Maximum, auf dem Höhepunkt des Zyklus, erreicht die Zahl der Flecken ein Höchstmaß, je nach Zählweise 150 bis 200 Flecken. Es treten besonders viele energiereiche Phänomen auf – etwa Protuberanzen und koronale Massenauswürfe (s. u.). Gleichzeitig wird das Dipolfeld der Sonne so schwach, dass es sich schließlich umkehrt. Im solaren Minimum tritt relative Ruhe ein und die Sonnenflecken verschwinden fast ganz oder sogar komplett.

Erst in Teilen ist geklärt, warum sich das Magnetfeld der Sonne regelmäßig umkehrt. Es könnten großräumige Plasmaströme unter der Sonnenoberfläche eine entscheidende Rolle spielen. Die meisten Theorien lokalisieren die Entstehung des Sonnenzyklus am Boden der Konvektionszone. (Neben dem 22-jährigen Zyklus gibt es noch zwei weitere: einen von 80 bis 90 Jahren und einen etwas über 200 Jahren. Der Verlauf der Sonnenaktivität lässt sich so nicht exakt voraussagen.)

Der Sonnenwind

Da die Korona so heiß und unruhig ist, vermag selbst die Sonne mit ihrer enormen Gravitation sie nicht mehr fest an sich zu binden. Daher strömt stetig ein Partikelwind aus geladenen Teilchen (überwiegend Protonen und Elektronen) entlang der offenen Magnetfeldlinien in das Planetensystem ab, wobei das Magnetfeld in den interplanetaren Raum mitgerissen wird. Jede Sekunde verliert die Sonne so Millionen Tonnen geladener Teilchen, die als Sonnenwind durch das Sonnensystem jagen.

Typischerweise weht der Sonnenwind mit 400 bis 800 Kilometer pro Stunde – 10 000mal so schnell wie irdische Orkane. Der langsamere Anteil stammt aus der Äquatorregion, wo der Sonnenwind durch Störungen im solaren Magnetfeld stark gebremst wird. Die energiereicheren Teilchen haben ihren Ursprung dagegen in polaren Regionen. Dort wirken die Magnetfeldlinien auf bisher unbekannte Weise als Beschleuniger. Da unser Stern langsam rotiert (einmal in 27 Tagen), wird das Plasma auf Spiralbahnen gezwungen und aufgefächert. Dabei entsteht ein komplexes Strömungsmuster – und mit ihm verwickelte Magnetfelder. In vier bis fünf Tagen – nach starken Eruptionen auch schneller – erreicht der Sonnenwind die Erde.

Das extrem heiße Plasma des Sonnenwinds mit seinem Magnetfeld fegt eine ausgedehnte Blase rund um die Sonne frei: die sogenannte Heliosphäre. An ihrer Grenze, dem Rand des Sonnensystems, rund 14 Milliarden Kilometer von der Sonne entfernt, werden die Teilchen von den Magnetfeldern des interstellaren Mediums abgebremst. Hier verliert auch das Magnetfeld der Heliosphäre an Einfluss. Allerdings sorgt es auch für einen gewissen Schutz vor der kosmischen Strahlung, da es die meisten niederenergetischen kosmischen Strahlen ablenkt (mindestens 75%), bevor sie das innere Sonnensystem erreichen. Schwächelt der Sonnenwind, können mehr Teilchen aus dem interstellaren Medium eindringen. So erreichte die kosmische Strahlung auf unserer Erde 2009 ein Rekordhoch: Die Zahl energiereicher Teilchen stieg um ein Fünftel gegenüber dem bisherigen Maximalwert an.

Sonneneruptionen

Bei der Rekonnexion können riesige Mengen Energie in Form von Strahlung und Wolken heißer, geladener Teilchen in gigantischen Eruptionen ins All katapultiert werden. Sonnenphysiker unterscheiden Flares, Protuberanzen und koronale Massenauswürfe.

Flares sind plötzlich auftretende, zwanzig Minuten bis zu mehreren Stunden dauernde heftige Ausbrüche energiereicher Teilchen und intensiver Röntgenstrahlung. Sie treten auf relativ kleinen Skalen in der Größenordnung von einigen Tausend Kilometern auf. Dabei geht fast die gesamte Energie zunächst in die Teilchenbeschleunigung. Ein Teil der Partikel schießt auf die Oberfläche herab und erzeugt beim Aufprall die für uns sichtbare Flare-Strahlung, deren Energie der Sprengkraft von einer Milliarde Wasserstoffbomben mit jeweils einer Megatonne TNT entspricht. Gleichzeitig rast ein Teil der Partikel mit hoher Geschwindigkeit von der Sonne fort in große Höhen (bis zu 100 000 Kilometer). Da auch ein Teil der Magnetfelder aufsteigt, besitzen sie immer noch Bogenform, in denen das heiße Gas leuchtet. Solche Protuberanzen sind zuweilen mehrere Monate lang stabil.

Ist ein Flare besonders intensiv, bricht die magnetische Blase, die Millionen von Kilometern durchmessen kann, oben auf. Dann dehnen sich die Feldlinien weit ins Sonnensystem aus, und bis zu 100 Milliarden Tonnen schwere Plasmawolken aus Elektronen und Protonen schießen mit bis zu 3000 Kilometer pro Sekunde weit hinaus ins All – ein koronaler Massenauswurf. Der riesige Teilchenschauer durchpflügt den langsameren Sonnenwind und beschleunigt durch seine Stoßwelle manche der Partikel auf noch höhere Geschwindigkeiten. Die größten der koronalen Eruptionen treten vor allem in der nahen Umgebung von Sonnenflecken auf und gehen typischerweise mit einem oder mehreren intensiven Flares einher.

Auswirkungen auf die Erde

Unser Planet wird von einem Magnetfeld umspannt, das als zuverlässiger Schutzschild vor der schädlichen Strahlung aus dem All gilt. Es hat seinen Ursprung im Erdkern, wo durch die Bewegung der glutflüssigen Eisenlegierung des äußeren Kerns um den festen inneren Kern wie bei einem Dynamo mechanische Energie in elektrische verwandelt wird. Das Streufeld der elektrischen Ströme, hervorgerufen durch die Rotation der Erde, ist (wie in einer stromdurchflossenen Spule) die Ursache für das Magnetfeld, das bis weit in den Raum hinausreicht. Seine Stärke beträgt ungefähr 10-4 Tesla.

In seinem Einflussbereich, der Magnetosphäre, dominiert das irdische Magnetfeld über das des Sonnenwinds. An seiner Grenze, der Magnetopause, prallen dessen Partikel und auch die der gefährlichen kosmischen Strahlung normalerweise weitgehend ab, da sie elektrisch geladen sind und ein eigenes Magnetfeld besitzen. Allerdings verformt sich der Schutzschirm durch den Druck des solaren Teilchenstroms zu einer kometenähnlichen Form. Auf der sonnenzugewandten Seite der Erde, der Tagseite, ist er eingedrückt und reicht nur rund 60 000 Kilometer in den Weltraum hinaus. Nimmt der Druck des Sonnenwindes zu, rückt die Grenze hier noch näher an die Erde heran, manchmal bis auf 26 000 Kilometer. Auf der abgewandten Seite, der Nachtseite, dagegen ist die Magnetosphäre über viele hundert Millionen Kilometer weit auseinander gezogen – ähnlich wie bei einem Kometen.

Der normalerweise einigermaßen zuverlässige Schutzschild der Magnetosphäre hat allerdings Löcher am magnetischen Nord- und Südpol – die nicht identisch sind mit den geographischen Polen -, wo die Feldlinien trichterförmig zusammenlaufen. Die enrgiereichen Teilchen des Sonnenwindes folgen diesen Feldlinien und treffen in 100 bis 200 Kilometer Höhe auf die Moleküle und Atome der oberen Erdatmosphäre, der Ionosphäre, wo sie schlagartig abgebremst werden. Dabei ionisieren sie die Stickstoff- und Sauerstoff-Atome, welche die aufgenommene Energie wieder als Fluoreszenz abgeben. Ergebnis ist das bunte Farbenspiel der Polarlichter.

Polarlichter signalisieren, so wunderschön das Schauspiel auch sein mag, Gefahr. Nur ein geringer Teil der eingeschleusten Energie ist nämlich tatsächlich als Polarlicht sichtbar. Die erdwärts flitzenden Elektronen erzeugen vor allem ein riesiges elektrisches Potential in der oberen Atmosphäre. Ein elektrischer Strom fließt parallel zur Erdoberfläche – etwa in derselben Region wie der Lichtvorhang, aber auch oft etwa ausgedehnter. Man nennt ihn den Aurora-Elektrojet; er entspricht einem Stromstoß von etlichen tausend Ampere. Bemannte Weltraumflüge machen daher einen großen Bogen um die Pole. Hier – und ebenso an einer weiteren Schwachstelle des irdischen Magnetfelds, dem Südatlantik – musste auch die Concorde ihre übliche Flughöhe von 15 Kilometern verlassen.

Durch Vorgänge im Gesteinsmantel der Erde kann das Magnetfeld stärker oder schwächer werden, manchmal schwankt es sogar innerhalb von Stunden. Schließlich können kleine Veränderungen sogar zum Abbau des irdischen Magnetfelds führen, bis es völlig verschwindet und erst einige tausend Jahre später mit umgekehrtem Vorzeichen wieder auftaucht. Die Wissenschaft spricht von einer Umpolung. Teilchen des Sonnenwindes und weitere kosmische Teilchen können in dieser Zeit viel tiefer als gewöhnlich in die Erdatmosphäre eindringen und magnetische Turbulenzen auslösen. Für Satelliten und die technische Infrastruktur gäbe es Probleme. Möglicherweise würde bei einem solchen Ereignis eine Strahlendosis auf uns einprasseln, wie sie heute nur Astronauten für kurze Zeit bei Weltraumspaziergängen zugemutet wird.

Allerdings haben die vielen Umpolungen im Laufe der Erdgeschichte offensichtlich keine sichtbaren Spuren in der belebten Natur hinterlassen. Untersuchungen unterstreichen, dass die irdischen Wechseljahre sogar recht undramatisch verliefen: keine genetischen Schäden, kein Massensterben, wie manche Wissenschaftler früher spekuliert hatten.

Obwohl die Stärke des Erdmagnetfelds vielerorts heute um etwa 10% abgenommen hat, ist derzeit eine Polumkehr – wie zuletzt vor rund 780 000 Jahren – nicht in Sicht. Selbst wenn der Geodynamo plötzlich stillstünde – was freilich nur auf dem Papier möglich ist -, wäre das Magnetfeld erst in 10 000 Jahren verschwunden.

Auch ohne Magnetfeld hält die rund 600 Kilometer dicke irdische Atmosphäre das Trommelfeuer der energiereichen Teilchen aus dem Kosmos vom Erdboden fern. Allerdings entstehen bei deren Kollision mit Molekülen der oberen Luftschichten (besonders Sauerstoff- und Stickstoffkernen) Kaskaden von Sekundärteilchen, die zu jeder Zeit in Unmengen vom Himmel regnen. Wir bemerken davon im Alltag nichts, doch bei empfindlichen Laborexperimenten schlägt sich der Partikelregen als ständiges Hintergrundrauschen nieder. Die Strahlenbelastung ist in ungefähr 25 Kilometern Höhe am stärksten. Hier kann der ionisierte Stickstoff Schäden in der Ozonschicht anrichten, wodurch die Lebewesen auf der Erde dann einer erhöhten Strahlendosis ausgesetzt sind.

10 bis 12 Kilometer über der Erde ist die Strahlenbelastung immer noch recht beachtlich. Auf einem Langstreckenflug von Europa in die USA und zurück bekommt man eine Strahlendosis ab, die der einer Röntgenaufnahme der Lunge entspricht. Auf der Erdoberfläche kommt im Schnitt nur noch ein Hundertstel davon an. Allerdings ist die Sekundärstrahlung, die am Boden auftrifft, nicht überall gleich stark: In mittleren Breiten ist sie dreimal so hoch wie am Äquator, wo die Luftschicht dicker ist; und auf hohen Bergen ist die Strahlendosis ebenfalls bis zu dreimal so groß wie im Flachland.

[Im durch den Sonnenwind in die Länge gezogenen Magnetschweif kommt es mehrfach täglich zu sogenannten Magnetischen Teilstürmen (Substorms), wobei vermehrt Teilchen in die Erdatmosphäre eingeschleust werden, die dann Polarlichter in mittleren Breiten erzeugen. Sie dauern ein bis drei Stunden und sind nichts Ungewöhnliches. Ursache sind offenbar Wechselwirkungen zwischen dem Magnetfeld, das der Sonnenwind mit sich führt, und dem Erdmagnetfeld. Gelegentlich können diese Substürme auch in rascher Folge auftreten. Hält ein Substurm länger an, wird die Hochatmosphäre aufgeheizt.]

Sonnenstürme

Während der absteigenden Phase des Sonnenzyklus und nahe dem Aktivitätsmaximum treten vermehrt geomagnetische Stürme auf. Es gibt eine schwächere Art, die auf Wechselwirkungen zwischen dem schnellen Sonnenwind aus den koronalen Löchern und dem langsameren aus der Äquatorregion der Sonne zurückgeht. Große geomagnetische Stürme, die bevorzugt um die Zeit des Aktivitätsmaximums der Sonne auftreten (das nächste Maximum ist für 2025 vorhergesagt), sind weit seltener.

Bis Anfang der 1990er Jahre galten Flares allgemein als Auslöser, nach neuen Hinweisen spielen vor allem koronale Massenauswürfe eine zentrale Rolle. Indes lösen nicht alle koronalen Massenauswürfe geomagnetische Stürme aus, denn die meisten zielen gar nicht Richtung Erde. Aber auch von denen, die auf uns gerichtet sind, ist nur jeder sechste stark genug, um einen Sturm zu entfachen. Dabei bewegt sich das ausgeworfene Plasma mit höherer Geschwindigkeit als der Sonnenwind, wodurch in diesem (wie auch im Frontbereich der Plasmaschwaden selbst) die Magnetfeldstärke ansteigt. Je nach Geschwindigkeit erreichen die Partikel des Sonnensturms bereits nach 12 bis 72 Stunden die Erde und drücken deren Magnetfeld noch tiefer als gewöhnlich zusammen.

Bei einem geomagnetischen Sturm, wie z. B. im März 1983, fällt während der Hauptphase die Magnetfeldstärke auf der Erdoberfläche unvermittelt um 300 Nanotesla ab. Das normalerweise gleichmäßig dichte Erdmagnetfeld kann sich so verformen, dass es auf der sonnenabgewandten Seite in Polnähe durchlässig wird, so dass die Erscheinung der Polarlichter auch in mittleren Breiten zu sehen ist (wie z. B. beim Halloween-Sturm im Oktober 2003). Mit dem Nachlassen des Sturms steigt die Magnetfeldstärke auf der Erdoberfläche wieder auf ihren ursprünglichen Wert an – normalerweise binnen weniger Tage, aber nach sehr heftigen Stürmen auch erst nach über einem Monat.

Im Spätsommer 1859 ereignete sich der bis dahin stärkste bekannte Sturm, das „Carrington-Ereignis“ (Carrington-Event). Damals konnten die Menschen in Rom, Havanna und auf Hawaii Polarlichter sehen. Magnetkompasse spielten verrückt – und in den Telegrafenleitungen wurden so hohe Spannungen induziert, dass sich Papierstreifen in den Empfängern entzündeten. Manche Menschen, die damit arbeiteten, erlitten einen Stromschlag. Würde sich ein derart kräftiger Sonnensturm heutzutage ereignen und auf die Erde treffen, hätte das verheerende Auswirkungen.

Strahlungsprobleme gehören bei Satelliten zur Tagesordnung. Partikel der kosmischen Strahlung lassen unter normalen Umständen bereits Solarzellen erodieren, so dass sie jährlich etwa 2% weniger Strom erzeugen. Ein Supersturm würde binnen weniger Stunden Schäden anrichten, die dem Verschleiß während mehrerer Jahre entsprechen würden. Im Januar 1997 ging in einem kosmischen Unwetter der Kommunikationssatellit Telstar 401 einer amerikanischen Telefongesellschaft verloren. Während des Halloween-Sturms 1983 schalteten sich etliche Satelliten automatisch ab. Seitdem funktioniert der japanische Satellit Madori 2 nicht mehr. Ein Supersturm bedeutet auch für Raumfahrer eine große Gefahr, denn Protonenschauer könnten Raumanzüge (z. B. bei Weltraumspaziergängen) und sogar die Wände der Internationalen Raumstation (ISS) durchdringen.

Unsere hochintegrierten Schaltkreise, das Fundament der neuen Technologie-Ära, reagieren sehr empfindlich auf Störungen. Unsere Elektrizitätswerke sind schon bei gutem Weltraumwetter fragile Gebilde. Durch Elektrojets ausgelöste Fluktuationen im Erdmagnetfeld induzieren Spannungsstöße und können Stromnetze und Elektronik lahm legen. Daher richten schon schwächere Magnetstürme, die alle paar Jahre wüten, erheblichen Schaden an.

Am 13. November 1960 verursachte ein Sonnensturm weltweite Störungen und ließ Radiosender ausfallen. Während des schweren geomagnetischen Sturms vom 13. März 1989 zerstörte ein Spannungsstoß einige Transformatoren und legte das Stromnetz des Hydro-Quebec-Kraftwerks lahm; große Teile Kanadas versanken neun Stunden lang in Dunkelheit.

Nach großen Sonnenstürmen könnten GPS- und Handy-Empfang nicht mehr funktionieren. Induzierte elektrische Ströme können Unterseekabel unbrauchbar machen, was den weltweiten Internetverkehr über Wochen oder gar Monate lahmlegte. Langfristig kann es zu Übertragungsstörungen bei Fernsehprogrammen und Telefonaten via Satellit kommen. Funkverkehr, Radaranlagen und Navigationssysteme könnten außer Kraft gesetzt werden. Vor allem der Flugverkehr, aber auch Schiffsverkehr, ist auf elektronische Komponenten angewiesen. Selbst bei der Eisenbahn wäre der Verkehrsablauf gefährdet: 1982 in Schweden schalteten sich bei einem Magnetsturm Signale um.

Schon heute richten Magnetstürme Millionenschäden an. Ein Sonnensturm der Carrington-Kategorie könnte die elektronische Stromstärke in den Verstärkern um mehr als den Faktor 100 erhöhen. Weil viele Komponenten des Stromnetzes ausgetauscht werden müssten, könnte der Strom Wochen oder Monate ausfallen. Allein den USA würden nach Schätzungen tägliche Verluste im Höhe von sieben Milliarden Dollar entstehen.

Fast unkalkulierbare Folgen hätte ein noch heftigerer Sturm, ein sogenanntes Miyake-Ereignis. Die japanische Forscherin Fusa Miyake hat Hinweise auf einen Teilchenschauer entdeckt, der sich etwa im Jahre 775 ereignete und rund 10- bis 100mal gewaltiger war als das Carrington-Ereignis. Er könnte das Ergebnis eines „Superflares“ gewesen sein. Ein solches Phänomen tritt wohl häufiger aus, als zunächst gedacht. So ereigneten sich ein Miyake-Ereignis auch vor 9177 und 7260 Jahren. Inzwischen sind neun der gigantischen Sonnenstürme bekannt; der bisher stärkste geschah vor 14 300 Jahren.

Würde ein solches Ereignis unsere Zivilisation treffen, wäre jahrelanges weltweites Chaos infolge monatelanger Stromausfälle und der Zerstörung eines großen Teils der Telekommunikations- und Navigationssysteme die Folge. Möglicherweise verlören wir alle Aufzeichnungen. Allerdings dürfte die Gefahr für uns, in absehbarer Zeit von einem Miyake-Ereignis in ein dunkles Zeitalter gestürzt zu werden, rein mathematisch eher gering sein. Bei einem Carrington-Ereignis geht man immerhin von einer Wahrscheinlichkeit von 1,6 bis zu 12% im Lauf der nächsten zehn Jahre aus.

Im Juni 2012 verfehlte uns ein großer Sonnensturm nur ganz knapp. Die Frage ist also nicht, ob ein solcher Sturm die Erde trifft, sondern lediglich wann – und ob wir darauf vorbereitet sind. Um den kosmischen Launen nicht hilflos ausgeliefert zu sein, ist dringend zur Vorsorge geraten. Durch eine frühzeitige Warnung könnten wir viele Schäden verhindern. Daher bedarf es einer permanenten Überwachung der Sonnenaktivität. Nach einer großen Sonneneruption dauert es gewöhnlich zwei bis vier Tage (bei einem koronalen Massenausbruch eventuell auch nur einen Tag), bis der Teilchenschauer die Erde erreicht. Diese Zeit sollte genügen, um schnellstens kritische Infrastruktur (z. B. gefährdete Leitungen) abzubauen und empfindliche Elektronikteile ab- bzw. auszuschalten. Empfehlenswert wäre es sogar, schon von vornherein empfindliche Bauteile wie Siliziumchips doppelt oder dreifach einzubauen. Kanadische Energieversorgungs-Unternehmen haben bereits viele Millionen Dollar für zusätzliche Sicherungen investiert.

REM

Das ZEIT-Rätsel

Die Zeit ist für uns wohl eines der rätselhaftesten Phänomene, sowohl im eigenen Erleben wie auch in Physik, Philosophie und Psychologie. Der Kirchenvater und Philosoph Aurelius Augustinus (354-430) schreibt im 11. Buch seiner autobiografischen „Bekenntnisse“ über das Wesen der Zeit: „Wenn mich niemand danach fragt, weiß ich es; will ich es einem Fragenden erklären, weiß ich es nicht.“ Der Philosoph Immanuel Kant (1724-1804) hielt Zeit (wie auch Raum) nur für eine angeborene Anschauungs- und Denkform.

Bei den alten Griechen war der Gott Chronos zuständig für die „objektive“, gleichmäßig und unerschütterlich dahinfließende Zeit, die sich mit Uhren messen lässt. Für die erlebte Zeit stand der Gott Kairos, der über die günstigen und falschen Momente, die Langeweile und das Überstürzen von Ereignissen herrscht. Das große Rätsel der Zeit bestand darin, wie diese beiden Zeitgötter sich versöhnen lassen. Auch wir unterscheiden heute die messbare, absolute Zeit von der subjektiven, erlebten Zeit. Ereignisse lassen sich durch die subjektive Komponente anders wahrnehmen als im objektiven Takt der physikalischen Zeit.

  1. Der physikalische Zeitbegriff

Zeit ist auf jeden Fall untrennbar mit Veränderung verbunden. Wo es keine Veränderung gibt, existiert auch keine Zeit, wo keine Zeit, auch keine Veränderung. Von Veränderung kann man aber nur sprechen, wenn es etwas gibt, was ich verändern lässt. Deshalb verlangt Zeit auch Raum.

Asymmetrie der Zeit

Wir sprechen davon, dass Zeit voranschreitet: Sie fließt vorwärts. Gegenwart trennt dabei Vergangenheit und Zukunft. Diese Asymmetrie zwischen vorwärts und rückwärts gerichteter Zeit bezeichnet man als Zeitpfeil, ein Begriff, der 1927 von dem Physiker Arthur Stanley Eddington geprägt wurde. Manchmal erörtert man verschiedene Aspekte dieser Asymmetrie („Superzeitpfeil“) getrennt und klassifiziert sie als je eigene Zeitpfeile, die überall nach vorne zeigen. Dazu gehören z. B. der thermodynamische Zeitpfeil, der der Zunahme der Entropie entspricht, und der kausale Zeitpfeil, bei dem es um das Aufeinanderfolgen von Ursache und Wirkung geht.

Warum diese Asymmetrie der Zeit besteht, gehört zu den größten Rätseln der Physik. Die meisten Wissenschaftler sind inzwischen überzeugt, dass sich die Entwicklungsrichtung der Zeit in unserem Universum unmittelbar auf die Existenz der einfachen Anfangs- und Rahmenbedingungen des Universums zurückführen lässt. Die Frage, was vorher war, ist danach sinnlos, da die Zeit vor dem Urknall noch nicht existierte. Erst danach läuft das Universum wie ein „Uhrwerk“ ab – mit einer eindeutigen Zeitrichtung, die festgelegt ist durch die Ausdehnung (Expansion) und die damit hervorgerufenen Ungleichgewichte. Allerdings geht man heute davon aus, dass auch ein kollabierendes Universum die Zeitrichtung beibehält.

Seit 13,82 Milliarden Jahren entwickelt sich die Materie durch Hinzufügung von Energie lokal hin zu immer neuen und vorübergehenden Ordnungszuständen höherer Entropie und Komplexität. Komplexe offene Systeme besitzen demnach also eigene, nicht umkehrbare Zeitpfeile, die eine Entwicklung zu mehr Ordnung und Information im globalen Strom der Entropiezunahme beschreiben.

Die Zeit endet, wenn die Struktur des Universums zerfällt. So gesehen ist ein Ende der Zeit kein größeres Paradoxon als der Zerfall eines jeden anderen komplexen Systems. Wie der menschliche Tod ist es kein Ereignis, sondern ein Prozess. Stück für Stück verliert die Zeit ihre Eigenschaften und taucht ein in die Dämmerung zwischen Existenz und Nichtexistenz. Als Erstes könnte der Zeitpfeil verschwinden, also die eindeutige Richtung der Zeit, die von der Vergangenheit in die Zukunft weist. Da er eine Eigenschaft der Materie ist, muss das Ende der Zeit mit dem Ende jeder Materie einhergehen, die in einem abstrakten Sinn als Uhr dienen könnte.

Historisch fassten die Physiker die Vorgänge im Universum kompakt zu physikalischen Gesetzen zusammen, in denen Zeit vorkommt. Sie dienten dazu, das Tempo von Bewegungen oder Veränderungen zu beschreiben – die Geschwindigkeit einer Lichtwelle, die Herzfrequenz oder die Rotation eines Planeten. Sie erlaubten uns, physikalische Systeme miteinander in Beziehung zu setzen, ohne dass wir genau herausfinden müssen, wie ein Gletscher mit einem Tennisball zusammenhängt. Doch diese bequeme Tatsache ist noch kein Beweis für die Idee, Zeit gehöre zur Grundausstattung des Universums. Denn diese Vorgänge könnten auch direkt aufeinander bezogen werden, ohne die Zeit zu bemühen.

In den physikalischen Gleichungen gibt es weder den gegenwärtigen Moment noch den Fluss der Zeit. Alle physikalischen Vorgänge – bis auf eine kleine Ausnahme in der Elementarteilchenphysik – werden im Einzelnen nach wie vor durch Gesetze beschrieben, die keine Zeitrichtung haben. Sie lassen also einen Prozess, der in eine Richtung abläuft, auch in umgekehrter Richtung ablaufen. In den Gleichungen ändert sich nur das Vorzeichen. Physiker sprechen in diesem Zusammenhang von Zeitumkehrvarianz.

Newtons dynamisches Grundprinzip beispielsweise sagt: Kraft ist Masse mal Beschleunigung. Letztere ist die zweite Ableitung des Wegs nach der Zeit t. Wenn man t durch -t ersetzt, ändert sich nichts an der Formel, denn minus mal minus ergibt plus. Darum ist die Newtonsche Physik invariant gegen Zeitumkehr. Das gilt aber nicht nur für Newtons Mechanik: Es gilt auch für Maxwells Gleichungen des Elektromagnetismus und ebenso für Einsteins Relativitätstheorie und die quantenmechanische Schrödinger-Gleichung.

Wir neigen dazu, die zeitlichen Gegebenheiten – Zeit und Zeitrichtung – für ebenso objektiv zu halten wie die räumlichen, etwa die Dreidimensionalität. Theoretiker aber wissen schon seit Jahrzehnten, dass der thermodynamische Zeitpfeil nicht so resolut in eine Richtung zeigt, wie wir das im Alltag wahrnehmen. „Wenn die anfänglichen Korrelationen stark genug sind, kann der Zeitpfeil in die umgekehrte Richtung zeigen“ sagt der Physiker Eric Lutz. für ihn ist klar: „Der Zeitpfeil ist nicht absolut, sondern relativ.“

Von der Theorie her ist es also nicht ausgeschlossen, dass es den umgekehrten Zeitpfeil in unserem Universum gibt. Wenn sie ausreichend isoliert sind, könnte es zeitversetzte Inseln im All geben. Ob es aber den umgekehrten Zeitpfeil wirklich gibt, müssen weitere Beobachtungen zeigen. Für die meisten Wissenschaftler scheint es nicht realistisch.

Newton

In den Bewegungsgesetzen Isaac Newtons besitzt die Zeit, obgleich das auf den ersten Blick nicht auffällt, viele spezielle Eigenschaften. Sie muss kontinuierlich sein, damit wir Geschwindigkeit und Beschleunigung definieren können. Sie muss auch eine Vorstellung von Dauer enthalten – physikalisch gesprochen eine Metrik -, damit wir angeben können, wie weit Ereignisse zeitlich auseinander liegen. Wie die Abfolge von Ereignissen ist die Dauer beobachterunabhängig.

Im Grunde unterstellt also Newton, die Welt sei eindeutig und objektiv in zeitliche Momente unterteilt, wobei der Zeitfluss in die Zukunft weist. „Die Zeit verfließt an sich und vermöge der Natur gleichförmig und ohne Beziehung auf irgendeinen Gegenstand.“ (Newton) Darum liefert die Zeit eine komplette Ordnung sämtlicher Geschehnisse im Universum. Unabhängig davon, wann und wo eine Ereignis eintritt, vermag man als klassischer Physiker anzugeben, ob es vor, nach oder gleichzeitig mit einem anderen Ereignis wo auch immer geschieht.

Die zahlreichen Eigenschaften von Newtons Zeit – Ordnung, Kontinuität, Dauer, Gleichzeitigkeit, Fluss und Zeitpfeil – sind logisch trennbar, doch sie alle vereinen sich zur Normaluhr, die Newton als „Zeit“ titulierte. Diese Kombination von Eigenschaften war so erfolgreich, dass sie fast zwei Jahrhunderte unbeschadet überlebte.

Im späten 19. und 20. Jahrhundert kamen die ersten Angriffe auf die Newton’sche Zeit. Den ersten führte der Physiker Ludwig Boltzmann. Er argumentierte: Da Newtons Gesetz in beide Zeitrichtungen gleich gut funktioniert, hat die Zeit keinen eingebauten Pfeil. Der Unterschied zwischen Vergangenheit und Zukunft ist keine Eigenschaft der Zeit selbst, sondern entsteht durch die asymmetrische Organisation der Materie im Universum. Vielleicht also existieren die Zeitpfeile tatsächlich nicht, sondern sind eine Täuschung.

Einstein

Den nächsten Angriff führte Albert Einstein. Die scheinbare Unvereinbarkeit von klassischer Mechanik und Elektromagnetismus veranlasste Einstein, die etablierten Konzepte von Zeit und Raum zu revolutionieren. Er stellte fest, dass Uneinheitlichkeiten verschwinden, wenn man die Annahme einer absoluten Zeit und eines absoluten Raums aufgibt. Dies war die Geburtsstunde der Speziellen Relativitätstheorie. Vor Einstein dachte man sich den Raum als eine Art Schuhkarton: Ein passives Gebilde, durch das die Zeit hindurchströmt. Einstein zeigte, dass die Zeit an dessen Wänden kleben bleiben kann und auf diese Weise an jedem anderen Ort der Welt anders ist. Bei ihm sind Zeit und Raum also gleichsam zu einer untrennbaren Einheit verschmolzen, zur abstrakten Raumzeit, deren Struktur durch die Verteilung der Materie bestimmt wird.

Die Raumzeit lässt sich als ein vierdimensionaler mathematischer Raum interpretieren, der die Zeitentwicklung der dreidimensionalen Welt repräsentiert – oder als mathematisches Modell einer vierdimensionalen Welt, in der die Zeit die vierte Dimension ist. Im Grunde ist die Zeit als vierte Dimension ja nichts weiter als ein Rechentrick der Physiker. Indem man die drei Raumkoordinaten und die Zeit zu einer vierdimensionalen Größe zusammenfasst, lassen sich manche Formeln auf elegante Weise vereinfachen. Es sind die Regeln der Logik und Mathematik, die uns helfen, erfolgreich im abstrakten Universum zu navigieren und zu weiterführenden Schlussfolgerungen zu kommen.

Doch selbst in der Allgemeinen Relativitätstheorie behält die Zeit eine eigene und wichtige Funktion: Sie unterscheidet lokal zwischen „zeitartigen“ und „raumartigen“ Richtungen. Zeitartig zusammenhängende Ereignisse können kausal verbunden sein; ein Objekt oder Signal kann von einem Ereignis zum anderen gelangen und beeinflussen, was geschieht. Raumartig zusammenhängende Ereignisse sind kausal unverbunden; kein Objekt oder Signal kann von einem Ereignis zu einem anderen gelangen. Mathematisch unterscheiden sich die beiden Richtungen nur durch ein Minuszeichen, doch physikalisch macht das einen gewaltigen Unterschied. Die Zeit bestimmt also immer noch die Reihenfolge von Ursache und Wirkung.

Zeit ist die Dimension (der „Zeitraum„), innerhalb derer sich alle Prozesse abspielen und die deshalb an allen Prozessen erlebt werden kann. Aber unter bestimmten Bedingungen könnte die Zeit selbst ihre elementare Ordnungseigenschaft verlieren und dadurch zu einer weiteren räumlichen Dimension werden. Das hätte allerdings zur Folge, dass der Zusammenhang von Ursache und Wirkung zusammenbrechen würde.

-Auswirkungen

Viele merkwürdige Phänomene beruhen auf den Grunderkenntnissen der Relativitätstheorie. So wird die Zeit umso stärker gedehnt, je schneller sich ein Beobachter relativ zu einem anderen bewegt – das heißt, die Zeit vergeht für ihn langsamer. Von außen betrachtet altert damit auch jeder, der vorbeifährt oder -fliegt, langsamer als jemand, der an einem Ort steht. Bei den Geschwindigkeiten, mit denen wir es im Alltag zu tun haben, sind die Unterschiede unerheblich. Erst je mehr sich Geschwindigkeiten der Lichtgeschwindigkeit nähern, werden sie relevant, desto mehr wird Zeit gedehnt (Zeitdilatation), werden aber auch Längen gestaucht (Längenkontraktion) und Massen vergrößert.

Für einen Reisenden in einem Raumschiff ist eine Reise zum Zentrum unseres Milchstraßensystems und zurück mit Lichtgeschwindigkeit (was nach der Allgemeinen Relativitätstheorie grundsätzlich möglich ist) dank der speziell-relativistischen Zeitdilatation theoretisch durchaus in 40 Jahren zu bewältigen – währenddessen sind auf der Erde aber ungefähr 56 000 Jahre vergangen. Dieses Synchronizitätsproblem dürfte den Aufbau einer interstellaren Zivilisation vor große Probleme stellen.

Gemäß der Relativitätstheorie gehen Uhren nicht nur bei schneller Bewegung, sondern auch in einem Gravitationsfeld, z. B. in der Nähe eines Massezentrums im Universum, langsamer. Gravitation verzerrt die Zeit derart, dass eine Sekunde hier nicht mehr unbedingt dasselbe bedeutet wie eine Sekunde dort. Das liegt daran, dass Lichtteilchen (Photonen) in der Nähe eines Massezentrums langsamer werden. Dennoch müssen sie aber auf den gleichen Wert, nämlich die Lichtgeschwindigkeit (ca. 300 000 km/s), kommen. Da Geschwindigkeit gleich Weg durch Zeit ist, muss bei verlangsamter Zeit der Weg entsprechend länger werden, damit das Diktat der Lichtgeschwindigkeit erfüllt ist.

Die Zeit verläuft umso schneller, je weiter wir vom Erdmittelpunkt entfernt sind, also auf den Bergen schneller als im Flachland. Auch die Uhren der GPS-Satelliten (GPS = Global Positioning System) laufen vor. Hier ist der gravitative Effekt immer noch stärker als der entgegengesetzt wirkende speziell-relativistische. Das GPS-System muss diesen Effekt einkalkulieren. Im Gegensatz dazu gehen die Uhren auf der Internationalen Raumstation (ISS) aufgrund verschiedener Effekte (z. B. der Eigenbewegung) gegenüber der Erde nach.

Der uns so vertraute Begriff der Gleichzeitigkeit verliert seine absolute Bedeutung. Was für einen Beobachter gleichzeitig erscheint, etwa zwei unabhängige Ereignisse am Sternenhimmel, ist für einen anderen Beobachter, der sich am selben Ort mit einer ganz anderen Geschwindigkeit bewegt, nicht unbedingt simultan. Dasselbe trifft auf Beobachter zu, die sich mit derselben Geschwindigkeit an unterschiedlich weit entfernten Orten im Universum befinden. Sie nehmen gleichzeitige Ereignisse aufgrund der konstanten Lichtgeschwindigkeit nacheinander wahr.

[Ähnlich wie Einstein in der Physik befasste sich Pablo Picasso in der Malerei mit der Gleichzeitigkeit. Er schuf am Pariser Montmartre ein Werk, das heute als Initialzündung für den Kubismus gilt. In dem Gemälde „Les Demoiselles d’Avignon“ gab er die Zentralperspektive auf, die bis dahin als eine der bedeutendsten Errungenschaften der Renaissance unantastbar schien. Nach monatelangem Ringen um die Form entschloss sich Picasso, die fünf Frauen auf diesem Bild aus mehreren Perspektiven gleichzeitig darzustellen.]

Es hängt also vom Bezugssystem (Inertialsystem) des Beobachters ab, ob räumlich getrennte Ereignisse gleichzeitig sind oder nicht. Ein objektives, beobachterunabhängiges Ereignis gibt es nicht, zumindest nicht, was die Beschreibung von dessen Ort und Zeit im Raum betrifft. Aber die Aussagen über eine bestimmte Kombination von Raum und Zeit stimmen überein, das heißt, der raumzeitliche Abstand zweier Ereignisse ist davon unabhängig. Somit sehen die Beobachter Raum und Zeit, jeweils für sich betrachtet, unterschiedlich – doch sie sehen dieselbe Raumzeit. Nur die vierdimensionale Raumzeit hat eine vom Bewegungszustand des Beobachters unabhängige, absolute Bedeutung – Raum und Zeit für sich sind relativ.

Die Relativitätstheorien sind weit weg von unserer Alltagserfahrung und deshalb für den normalen Menschen schwer zu verstehen. Sie lehren uns, dass wir mit den Begriffen von Raum und Zeit Eigenschaften verbinden müssen, die uns in dem Bereich der Phänomene, die wir durch die Klassische Physik beschreiben können, verborgen bleiben. Im Alltag empfinden wir die Zeit normalerweise nicht als vierte Dimension; wir glauben, sie fließe konstant. Für den Gebrauch im normalen Leben, für unsere Handhabung der Zeit, ist das auch mehr oder weniger richtig.

Blockuniversum

Einsteins Vorstellung, die vierdimensionale Realität, wird als Blockuniversum (Raumzeit-Block) bezeichnet, ein Begriff, der auf den Psychologen und Philosophen William James zurückgeht. In diesem Gebilde ist alles vom Anfang bis zum Ende der Zeit enthalten. „Für uns gläubige Physiker“, schrieb Einstein einige Wochen vor seinem Tod, „hat die Scheidung zwischen Vergangenheit, Gegenwart und Zukunft nur eine Bedeutung einer wenn auch hartnäckigen Illusion.“

Die Zeit ist demnach nur eine Achse unter vielen in höherdimensionalen Räumen, entlang der sich unser Bewusstsein entwickelt. Bei Bewegung mit annähernder Lichtgeschwindigkeit oder in der Nähe sehr großer Massen verbindet sich Zeit untrennbar mit den drei Raumdimensionen. So vergeht bei Lichtgeschwindigkeit oder am Rand eines Schwarzen Lochs quasi überhaupt keine Zeit: Sie steht still! (Dies wurde durch Messungen bestätigt.) Das Block-Universum der Raumzeit ist praktisch zeitlos oder ewig.

Die Konsequenz von Einsteins Relativitätstheorie – oder genauer: ihre philosophischen Deutung – stellt eine radikale Revolution unseres Weltbildes dar. Zu erkennen, dass es die Zeit objektiv überhaupt nicht gibt, ist eine große intellektuelle Herausforderung. Vielleicht sollte die Zeit wirklich als etwas experimentell Mathematisches betrachten werden, ein Weg zum Messen und Vergleichen der durch die Grundkräfte der Physik getriebenen Fortentwicklung von Materie und Feldern. Würde die Welt, und mit ihr unsere Uhren, „langsamer ticken“, wir hätten keine Möglichkeit, dies zu bemerken. Wenn man aber etwas gründlicher über diese zeitlose und vorbestimmte Sicht der Wirklichkeit nachdenkt, beginnt man meist, die daraus resultierenden Folgen in Frage zu stellen.

Möchte man das Konzept der Zeit besser verstehen, sollte man auch die Quantenmechanik nicht außer Acht lassen.

Quantenmechanik

Quantenmechanik und Relativitätstheorie haben verschiedene Auffassungen von Zeit. In der Quantenmechanik ist die Zeit starr – nicht biegsam – und nicht mit den Dimensionen des Raums verflochten wie in der Relativitätstheorie. Gemäß Einsteins Gleichungen konnte man alle physikalischen Ereignisse wie einen Film rückwärts laufen lassen. In der Quantenmechanik ist das jedoch nicht möglich. Vergangene Ereignisse werden durch Messung unumkehrbar von künftigen getrennt, denn überlagerte Zustände eines Teilchens kollabieren durch eine Messung an einem festen Zeitpunkt zu einem eindeutigen Quantenzustand. Auf mikroskopischer Ebene kommt es so zu einer unumkehrbaren Veränderung, welche die Vergangenheit eindeutig von der Zukunft trennt. Was wir gemeinhin als „Zeit“ verstehen, erwächst also originär aus nichts anderem als der Prozessdauer von miteinander in Wechselwirkung stehenden Elementarteilchen.

Diese grundlegend unterschiedliche Rolle der Zeit in der Quantenmechanik und in der Relativitätstheorie hat bereits etliche Physiker verwirrt. In den verschiedensten Ansätzen wird die Frage nach der Zeit heute heftig diskutiert, allerdings bisher erst auf einer sehr formalen Ebene. Viele nehmen die Unstimmigkeiten in den beiden großen Theorien hin und hoffen, eine vereinheitlichte Theorie der größten und kleinsten Skalen, eine sogenannte Quantengravitationstheorie, werde den Widerspruch aus der Welt schaffen.

Nach Meinung des Physikers Nicolas Gisin verwenden Forscher schlicht die falsche Sprache, um die Gegenwart und die Zeit im Allgemeinen zu beschreiben. Indem man die Physik in einer anderen mathematischen Sprache, nämlich in intuitionistischer Form, ausdrückt, wie es Gisin mit der klassischen Mechanik bereits getan hat, könnte man das Rätsel der Zeit lösen. Gleichzeitig wäre dadurch die klassische Mechanik der Quantenmechanik ähnlicher, als wir bisher angenommen haben.

In der sogenannten intuitionistischen Mathematik existieren keine Zahlen mit unendlich vielen Ziffern. Zahlen entfalten sich erst nach und nach. Beschreibt man mit diesem neuartigen Bild, wie sich physikalische Systeme entwickeln, beginnt die Zeit laut Gisin wirklich zu fließen. Der strenge Determinismus, der aus Einsteins Gleichungen folgt, weicht im neuen Formalismus einer quantenähnlichen Unvorhersagbarkeit. Wenn alle Zahlen endlich und damit in ihrer Genauigkeit begrenzt sind, dann ist die Natur selbst zwangsläufig ungenau – und unberechenbar.

[Neben der Idee einer kreativen (und möglicherweise destruktiven) Zeit bietet der Intuitionismus eine neuartige Interpretation unserer bewussten Zeiterfahrung. Das Kontinuum ist im intuitionistischen Bild klebrig, es lässt sich nicht eindeutig in zwei Hälften zerschneiden. Gisin assoziiert das mit dem Gefühl, die Gegenwart entspräche einem substanziellen Moment statt einem hauchdünnen Augenblick, der die Vergangenheit sauber von der Zukunft trennt. Denn in der gewöhnlichen Physik, die auf der Standardmathematik basiert, ist die Zeit ein kontinuierlicher Parameter.]

Quantengravitation

Die Lösung des Problems der unterschiedlichen Interpretation der Zeit in Relativitätstheorie und Quantentheorie liege nicht außerhalb der Reichweite der Physik, erklärt der Physiker Gary Horowitz. „Die Quantengravitation sollte in der Lage sein, uns eine definitive Antwort zu liefern.“ So könnte sogar ein fehlerhaftes Konzept der Zeit (nämlich ihre zentrale Rolle in der Quantenmechanik) selbst der tiefere Grund sein für die derzeitigen Probleme, Relativitätstheorie und Quantenmechanik zu vereinen.

Einige Quantengravitationsforscher glauben (wie schon Aristoteles), dass die Zeit weder Anfang noch Ende hat, sondern sich in alle Ewigkeit erstreckt. „Es ist logisch nicht möglich, dass die Zeit eine Ende hat“, behauptet der Philosoph Richard Swinburne. Wer wie er annimmt, dass die Zeit ewig weitergeht, muss zwar keine neue Physik erfinden, hat dafür aber andere Probleme: So nimmt die Ordnung in unserem Universum im Verlauf der Zeit immer weiter ab. Einige Physiker spekulieren, dass sich der Pfeil der Zeit irgendwann aber umkehren könnte, das Universum also langsam wieder ordentlicher würde. Ihrer Ansicht nach war der Urknall lediglich ein dramatischer Übergang im ewigen Leben des Universums.

Vielleicht ist die Raumzeit aber quantisiert wie die Energie, die nur „portionsweise“ übertragen werden kann. Auf der Planck-Skala*, der allerkleinsten Skala, sind Raum und Zeit tatsächlich nicht mehr kontinuierlich, wie die Klassische Physik von Newton bis Einstein immer lehrte, sondern quantisiert. Auch die Zeit würde also auf dieser Skala unscharf und nicht weiter unterteilbar und sollte sich gleichsam auflösen.

*Die kleinste Zeiteinheit (Planck-Zeit) ist ein theoretisches Konstrukt aus der Division der Planck-Länge durch die Lichtgeschwindigkeit; sie beträgt 5,391 x 10-44 Sekunden. Da die Planck-Zeit außerordentlich klein ist, ist sie für die Alltagswelt sowie selbst für die moderne Kurzzeit-Physik praktisch bedeutungslos. Wenn es aber diese kürzeste Zeitspanne gibt, würde die Zeit „ruckartig“ vergehen, sie wäre gleichsam atomar. Solche Zeitatome, über die schon der Philosoph Friedrich Nietzsche spekuliert hatte, werden bisweilen Chrononen genannt.

Eine gequantelte Raumzeit markiert streng genommen auch ein Ende der Zeit – oder zumindest unsere Vorstellung von ihr. Als John Wheeler und Bryce DeWitt versuchten, die Methoden zur Entwicklung der Quantentheorie des Elektromagnetismus auf die Gravitation anzuwenden, erhielten sie ein höchst seltsames Resultat. In ihrer (Wheeler-DeWitt-)Gleichung kam überhaupt keine Zeitvariable vor. Das Zeitsymbol t war einfach verschwunden. Die Zeit taucht also, im Gegensatz zum Raum, gar nicht mehr auf – sie kann folglich auch keine fundamentale Größe sein. Veränderungen lassen sich auch ohne sie quantifizieren. Wenn man das Resultat wörtlich nimmt, existiert also die Zeit nicht wirklich.

Auch für Wissenschaftler wie Roger Penrose und Stephen Hawking hat die Zeit in einer wahrhaft grundlegenden Theorie der Physik keinen Platz. Sie halten die Zeit nur für eine gemeinsame Währung, welche die Beschreibung der Welt erleichtert, aber nicht eigenständig existiert. Sie ist eine bequeme Fiktion, die in der Natur genauso wenig fundamental existiert wie Geld. So gesehen hat die Zeit für das Messen von Vorgängen denselben Vorteil wie das Geld im Vergleich zum umständlichen Naturalientausch.

Die Zeit loszuwerden hat aber auch unangenehme Nebenwirkungen. Jeder, der für die zeitlose Quantengravitation eintritt, muss unbedingt erklären, warum die Welt veränderlich erscheint. In der Allgemeinen Relativitätstheorie fehlt die Newton’sche Zeit, aber zumindest enthält sie verschiedene Ersatzkomponenten, die sich zusammen wie die Newton’sche Zeit verhalten – sofern die Gravitation schwach ist und die Relativgeschwindigkeiten gering bleiben. Die Wheeler-DeWitt-Gleichung bietet nicht einmal dieses Surrogat.

Aber selbst wenn die Welt zeitlos ist, scheint sie doch Zeit zu enthalten. Diese könnte auf höheren Ebenen entstehen, so wie ein Tisch sich fest anfühlt, obwohl er ein Teilchenschwarm ist, der größtenteils leeren Raum umfasst. Festigkeit ist eine kollektive oder emergente Eigenschaft* der Teilchen. So kann auch die Zeit eine emergente Eigenschaft der grundlegenden Bestandteile der Welt sein.

*Emergenz (von lateinisch emergere = auftauchen, emporkommen) meint, dass das Gesamtverhalten eines Systems Eigenschaften und Verhaltensweisen zeigt, die nicht mit denjenigen der isolierten Systemelemente identisch sind. Ein klassisches Beispiel bietet die statistische Dynamik: Aus der Bewegung vieler Gasatome „emergiert“ das makroskopische Verhalten des Gases. Es wird durch Größen wie Druck und Temperatur beschrieben, die für einzelne Gasatome keinen Sinn haben, sondern erst für das statistische Verhalten großer Teilchenmengen.

Eine emergente Zeit könnte aus elementaren zeitlosen Bestandteilen entstehen, die sich selbst in eine Ordnung bringen. Sie strukturiert die Welt und sagt uns, wann, wie lange und in welcher Reihenfolge Ereignisse stattfinden. Vielleicht wurde die Struktur also dem Universum nicht von außen aufgezwungen, sondern entstand von innen.

Die kanonische Quantengravitation bietet bereits eine weiterentwickelte Idee. Der Vorschlag geht auf einen Artikel von 1931 zurück, in dem der Physiker Nevill F. Mott die Kollision eines Helium-Atoms mit einem größeren Atom beschrieb. Um das Gesamtsystem darzustellen, nutzte Mott eine Gleichung für statische Systeme, in der die Zeit fehlte. Er teilte das System in Subsysteme und verwendete den Heliumkern als „Uhr“ für das Atom. Erstaunlicherweise gehorcht das Atom relativ zum Kern der üblichen zeitabhängigen Gleichung der Quantenmechanik, wobei eine räumliche Funktion die Rolle der Zeit spielt. Obwohl das System insgesamt zeitlos ist, verhalten sich die einzelnen Teile nicht statisch. In der zeitlosen Gleichung für das Gesamtsystem verbirgt sich eine Zeit für das Subsystem. Vielleicht existiert also die Zeit nur, wenn wir die Welt in Subsysteme unterteilen und betrachten, was sie verbindet. Das Universum mag also zeitlos sein, aber wenn man es gedanklich in Stücke bricht, können manche Stücke als Uhren für die anderen dienen. Aus Zeitlosigkeit geht dann Zeit hervor.

Die Physiker Carlo Rovelli und Julian Barbour haben versucht, die Quantenmechanik auf zeitlose Weise umzuformulieren. Nach der Theorie, der Schleifen-Quantengravitation, entsteht die Raumzeit erst aus Spin-Netzwerken, einem Gewebe eindimensionaler Strukturen. Deshalb ist Zeit kein Fundament der Natur, sondern ein nachgeordnetes Produkt – letztlich also tatsächlich illusorisch. Rovelli schrieb 2004: Die Existenz der Zeit ist das Resultat unseres Unwissen, unserer Unkenntnis des Mikrozustands. „‚Raum‘ und ‚Zeit‘ werden nur innerhalb gewisser Näherungen sinnvoll bleiben – so wie der Begriff ‚Wasseroberfläche‘ seine Bedeutung verliert, wenn wir auf die Atome des Wassers im Detail schauen. Sieht man genau genug hin, gibt es so etwas wie eine Wasseroberfläche gar nicht.“ Ganz ähnlich verhält es sich mit Zeit und Raum. „Es sind nur makroskopische Näherungen – Illusionen, die unser Bewusstsein geschaffen hat, um Realität zu verstehen.“

Der Theoretiker Lee Smolin will der Zeit aber wieder zur Anerkennung als echtes physikalisches Phänomen verhelfen: „Nichts, was wir kennen oder erleben, kommt dem Herzen der Natur näher als die Wirklichkeit der Zeit.“ Er will uns zurückholen in die Welt – und zurück in die Zeit. Nicht die Zeit sei eine Illusion, sondern die abstrakte, statische Raumzeit, in der der Raum mit der Zeit verschmolzen ist. Für Smolin wird sich der Raum einmal als eine Art makroskopische (emergente) Eigenschaft erweisen, die aus mikroskopischen Phänomenen resultiere ähnlich wie Temperatur und Druck.

Smolin glaubt an einen Vorrang des Werdens über das Sein und des Prozesses über die Strukturen. Er skizziert also die Grundzüge einer fundamentalen Theorie jenseits der Quantenmechanik, in der die Zeit die Grundgröße ist: Alles ist in Bewegung. Neues entsteht in einer beständigen Evolution. Sogar die Naturgesetze sind veränderlich. Smolin sieht sich mit seiner Vermutung einer alles dominierenden Zeit in der Tradition von Philosophen wie Heraklit, Hegel, Bergson und Whitehead und bezieht damit eine klare Gegenposition zu Newton oder Einstein, die die Welt von ewig geltenden Naturgesetzen beherrscht sahen. Es bleibt die Frage, wie Smolin selbst zugibt, ob tatsächlich ein Metagesetz existiert, das die zeitliche Entwicklung der Naturgesetze vorgibt.

Fazit

Unsere Unfähigkeit, über die Zeit einen Konsens zu erreichen, könnte die Folge davon sein, dass wir noch nicht den notwendigen wissenschaftlichen Fortschritt erzielt haben. Vielleicht sind wir genötigt, eine neue Physik zu erfinden und physikalische Gesetze ganz neuer Art zu präsentieren. Auf der anderen Seite: Kann sich das Rätsel Zeit überhaupt je einem Gehirn erschließen, das ja eben in der Zeit entstanden ist?

REM

Interpretationsleistung des Gehirns

Lange waren die meisten Experten davon ausgegangen, dass das Erfassen der Umwelt mit den Sinnen eine weitgehend passive Angelegenheit sei: Unsere Sinnessysteme nehmen Informationen aus der Umgebung auf und leiten sie zum Gehirn weiter, welches dann daraus eine mehr oder weniger akkurate Repräsentation unserer Außenwelt erstellt. Die Informationen aus der Umwelt werden aber nicht nur passiv aufgenommen – so wie ein Schwamm Wasser aufsaugt. Die Wahrnehmung ist vielmehr ein aktiver Vorgang in unserem Gehirn, der den Input der Sinnesorgane für uns erst nutzbar macht, indem er ein Bild der Welt in unserem Kopf aufbaut. Und das geschieht, noch ehe das Denken beginnt.

Angeborene Schemata

Im Gehirn sind Annahmen über die Umwelt offenbar bereits vor aller Erfahrung neuronal festgelegt. Sie sind uns nicht bewusst und wirken wie eine Brille, die man nicht wahrnimmt. Man bezeichnet diese angeborenen Grundannahmen auch als Schemata oder Schablonen. Allgemein bezeichnen sie einen Bezugsrahmen, mit dessen Hilfe ein Mensch oder ein Tier Daten selektiert und ihnen Sinn zuschreibt.

Die angeborenen Schemata sind der belebten und unbelebten Umwelt entnommen. Mit ihnen bewerten Tiere die Reize, die auf sie einströmen, nach Merkmalen, die evolutionär in Anpassung an die jeweilige Art und Umwelt entstanden sind. So hat jede Tierart bereits auf neurophysiologischer Ebene ihr eigenes Weltbild. Das lässt sich z. B. schon bei niederen Wirbeltieren beobachten, deren Verarbeitung visueller Information merkmalsspezifisch, also auf ganz bestimmte Reizeigenschaften hin, abgestimmt ist, welche für die Art relevant sind. Die Modifizierung der Wahrnehmungen beginnt dabei bereits bei den Sinnesorganen: Augen z. B. werden meist so gesteuert, dass sie Ansichten liefern, die zu den inneren Vorgaben passen.

Ein Tier muss in Sekundenschnelle alles Ungewöhnliche und Gefährliche (z. B. seine Feinde), aber auch das Vorteilhafte (z. B. die richtige Nahrung) erkennen können. Richtiges Erkennen und Einschätzen einer Situation ist oft von entscheidender Bedeutung für das Überleben und Wohlbefinden. Müsste ein Lebewesen beispielsweise erst individuell über eine längeren Zeitraum lernen, wer sein Feind ist, wäre es in dieser Phase massiv gefährdet. Daher erhalten viele der angeborenen Erkenntnisleistungen bereits eine Deutung der wahrgenommenen Situation im Hinblick auf Sicherheit und Überleben. Wenn die Ahnen des Menschen im Gebüsch zwei Punkte nebeneinander im Lichtschein aufblitzen sahen, interpretierten sie diese als die Augen eines Raubtiers und liefen vorsichtshalber weg, selbst wenn es zwei harmlose Lichtpunkte waren.

Wie auch junge Hunde, Katzen, Ratten usw., ja sogar frisch geschlüpfte Küken, haben auch Menschenbabys eine wohl angeborene Scheu vor einer Steilkante: Bei einem optisch vorgetäuschten Abgrund, der mit einer Glasplatte abgedeckt ist, zeigen sie Furcht- und Meidereaktionen. Ohne jede vorhergehende Erfahrung interpretieren sie den optischen Eindruck also als Absturzgefahr.

Schon in unseren natürlichen Wahrnehmungsstrukturen sind auch gestalterische und pro-ästhetische Konzepte eingebaut, die wir nicht sämtlich bewusst kontrollieren können. Sie sind in unserer Erlebens- und Wahrnehmungsstruktur also allgemein enthalten und haben teilweise eine wichtige Bedeutung für ästhetischen Vorlieben und Neigungen. Ihnen liegen Gemeinsamkeiten menschlicher Erfahrungen zugrunde, die auch heute noch unterschwellig, aber unentrinnbar unser Urteil beeinflussen.

Unser Gehirn ist in der Lage, aus zunächst nur unzusammenhängenden Daten eine bedeutungsvolle Wahrnehmung zu formen. Als Erwachsene brauchen wir oft nur wenige Anhaltspunkte, um zu wissen, wer oder was uns gegenüber steht. So entwickelten Lebewesen auch die Fähigkeit, unvollständige Strukturen zu identifizieren, damit sie kontinuierliche Oberflächen und Umrisse in der Natur auch dann noch erkennen, wenn diese teilweise verdeckt sind und dadurch unterbrochen erscheinen. Beispielsweise nehmen wir eine Katze hinter einem Lattenzaun als vollständiges Tier wahr – und nicht etwa als „Katzenscheiben“.

Von Geburt an ist das menschliche Gehirn fähig, Gesichter in der Umgebung aufzuspüren und als solche zu erkennen. Präsentiert man Säuglingen eine Gesichtszeichnung, auf der ein Auge fehlt oder die Nase an falscher Stelle sitzt, fangen sie an zu weinen. Wir sind so stark auf den Reiz „Gesicht“ geprägt und eingestellt, dass wir ein Gesicht überall sehen und erwarten, auch auf deutlich unstrukturierten Flächen: „Punkt, Punkt, Komma, Strich, fertig ist das Angesicht!“ Selbst Häuserfassaden, Kühlerhauben von Automobilen oder Wolkenformationen bekommen für uns Gesichter.

Der Prozess der Wahrnehmung steht im Dienste formaler Erkennbarkeit und Kategorisierung der Umwelt und tendiert zu Einfachheit. Wir erfassen das Typische und Gemeinsame, und dies offenbar vor aller Erfahrung. Wichtiger als die Feinunterscheidung zwischen einer Fichte oder Buche ist die Tatsache, dass wir einen Baum als Baum erkennen und nicht jedes Mal neu identifizieren müssen. Ein kleines Kind lernt schnell, was eine Hund ist und verwechselt ihn nicht mit einer Katze – egal, ob das Tier groß und schwarz oder klein und gefleckt ist. Der Mensch hat die Fähigkeiten zu kategorisieren außerordentlich erweitert und verfügt damit über ein breit angelegtes Differenzierungsvermögen, das ihm die analytische Betrachtung seiner Welt ermöglicht. Ohne diese Fähigkeit hätten wir auch keine Sprache.

Da Informationen über Organismen zunächst nach Ähnlichkeit oder Unähnlichkeit zur eigenen Art strukturiert werden, erkennen wir Tiere besser als Pflanzen und Wirbeltiere besser als Wirbellose. (Die Ähnlichkeitsstrukturierung könnte auch Grundlage der unterschiedlichen Interessensausprägung gegenüber Tieren und Pflanzen sein.)

Erworbene Schemata

Was wir tatsächlich wahrnehmen, hängt aber nicht nur vom augenblicklichen Zustand der Sinnesorgane und angeborenen Deutungsschemata ab, sondern auch von früheren Wahrnehmungserfahrungen sowie vom übrigen Geschehen im Gehirn. Bei seinen Annahmen schöpft unser Zentralorgan aus einem gewaltigen Fundus von Erfahrungen, die im Gedächtnis gespeichert sind. So wird das aktuell Wahrgenommene in jedem Augenblick mit den Gedächtnisinhalten verglichen und zu einem sinnvollen, gestalteten Eindruck zusammengefasst. Das ermöglicht uns angepasstes Handeln wie auch eine Ausrichtung auf die Zukunft. Es lässt uns den Lebensalltag gestalten und ihm Sinn geben.

Wenn wir etwas riechen, was uns an die Küche unserer Mutter zurückdenken lässt, oder wir im Getümmel eine Stimme hören und sofort wissen, wer da spricht, dann hat unser Gehirn nur Sekundenbruchteile nach der Reizung aus dem Wirrwarr von Sinneseindrücken etwas herausgefiltert – und es dabei mit Hilfe des riesigen Speichers in unserem Gehirn erkannt.

Die aktuellen Sinnesreize rufen eine Wahrnehmung also nur auf. Das Gehirn bewertet dann die wahrgenommenen Ereignisse, und zwar nach Regeln, die entweder angeboren, oder – in den meisten Fällen – erlernt sind, also aus der im Gedächtnis gespeicherten Erfahrung stammen. Das Ergebnis erleben wir subjektiv als unmittelbare Wahrnehmung. Aus den Erinnerungen und gleichbleibenden Bewertungen definiert sich unsere Identität. Bei Schizophrenen kann es vorkommen, dass Bewertungen und Erinnerungen abgekoppelt werden von Denken und Wahrnehmen. Die Identität geht verloren.

Im Laufe unseres Lebens erzeugen wir Schemata (Bilder, Formen, Ideen, usw.) in beinahe unbegrenzter Zahl, auch die meisten Kategorien – manche vielleicht ähnlich dem Jungvogel, indem Verbindungen zwischen verschiedenen Schemata verändert werden.

Der junge Vogel wird nicht mit einem angeborenen Schema für die Umrisse eines Raubvogels ausgestattet, sondern mit einer groben Schablone, in die viele verschiedene Vogelumrisse hineinpassen. Mit der Erfahrung entsteht dann eine Reihe von spezifischeren Schablonen für die häufig vorkommenden Vogelarten. Die Auslöser für den Schutzreflex werden so nach und nach gegen die wahren Feinde geprägt. Eine allgemeine Schablone kann also an unterschiedliche zeitliche und örtliche Gegebenheiten angepasst werden.

Es gibt keinen Aspekt der menschlichen Wahrnehmung, der nicht von Annahmen und Erfahrungen beeinflusst wäre. Wahrnehmung stellt demnach eine Deutung der Welt dar, die beste Interpretation der vorliegenden Sinnesdaten. Die Deutungsschemata zeichnen sich dabei im Allgemeinen gegenüber den formalen Erkenntnisleistungen durch eine stärkere Bindung an ein emotionales Bedeutungsmuster aus. Wir nehmen also viele Dinge gar nicht mit der Neutralität zur Kenntnis, die wir bei unserem Denkapparat manchmal voreilig voraussetzen.

Die Wahrnehmung verändert sich aber nicht nur mit dem Gedächtnis und den Erfahrungen, sondern auch mit der Situation, in der wir uns gerade befinden, z. B. je nachdem, was wir vorhaben oder welche Ressourcen uns zur Verfügung stehen. Essensabbildungen wirken appetitlicher, wenn man hungrig ist; ein Hügel erscheint uns steiler, wenn wir gerade einen schweren Rucksack tragen. Wenn es ums Überleben und Wohlbefinden oder Interessen geht, sehen wir die Dinge daher unbewusst verzerrt. Dazu trägt auch der aktuelle emotionale Zustand bei, der sich abhängig von Aufmerksamkeitsschwankungen, Motivation und Stimmung immerzu in feinsten Graden verändert. Wir treten also der Welt stets auch mit Gestimmtheiten gegenüber und prägen ihr Strukturen auf, die sie uns nicht nur verständlich, sondern auch erträglich, angenehm oder eben auch abstoßend erscheinen lassen.

Soziale Wahrnehmung

Auch bei der sozialen Wahrnehmung verlassen wir uns oft auf Schemata und Stereotypen, die wir im Laufe unseres Lebens erlernt haben. Schon der erste Eindruck, den wir von Jemandem haben, beeinflusst unsere weitere Wahrnehmung so stark, dass wir hinterher oft anderslautende Informationen kaum mehr registrieren und in der Regel für alle Zeit von der Richtigkeit unseres Ersteindrucks überzeugt sind („Primacy Effect„).

Für Primaten, von denen die meisten Arten von jeher in Gruppen zusammenleben, ist das Erkennen und die Interpretation von Gesichtern überlebenswichtig und spielt für das Sozialleben eine überragende Rolle. Menschenkinder erkennen schon wenige Stunden nach der Geburt das Gesicht ihrer Mutter und reagieren auf ihre Mimik. Das unmittelbare Verstehen und Einschätzen der Gefühlslage aus dem Gesichtsausdruck des Gegenübers ist eine wichtige angeborene Deutungsleistung der Wahrnehmung.

Die Informationen über Gesichter werden normalerweise innerhalb von 40 Millisekunden im Gehirn verarbeitet. Am schnellsten werden ängstliche Mienen wahrgenommen. Da das Gehirn Bedrohungen möglichst prompt erfasst, könnten ängstliche Gesichter Gefahr signalisieren. Eine glückliche Miene, meinen die Forscher, sei hingegen ein Zeichen von Sicherheit, was keine unmittelbare Aufmerksamkeit erfordere.

Unbewusste Deutungen sind oft entscheidend im sozialen Miteinander. Sie helfen bei komplexen Situationen den Überblick zu bewahren und sich schnell zurechtzufinden. Schwachpunkt der sozialen Wahrnehmung ist aber, dass sie uns oft auch zu falschen Schlüssen und entsprechendem Fehlverhalten verleitet. Denn auf sie zurückzugreifen bedeutet lediglich mit Wahrscheinlichkeiten zu rechnen. Den meisten Menschen ist die Subjektivität ihrer Sinneswahrnehmungen kaum bewusst, beispielsweise wenn wir meinen, unsere Mitmenschen „sicher“ zu beurteilen.

So glauben die meisten Menschen, dass übergeordnete Charaktereigenschaften ihre eigenen Landsleute wie auch Angehörige fremder Nationen kennzeichnen. Australier beispielsweise halten sich selbst für offen und extrovertiert, Deutsche für gewissenhaft und fleißig, Italiener werden allgemein für temperamentvoll und impulsiv gehalten. Bei diesem einmal bestehenden Vorurteil gräbt sich ein impulsiver Italiener tiefer ins Gedächtnis ein als tausend versonnene. Nach einer interkulturellen Studie zeigen aber in allen untersuchten Kulturen die Stereotype nur eine geringe Übereinstimmung mit den wahrgenommenen Wesenszügen realer Personen.

Bei uns Menschen kommt zur sinnesphysiologischen und artspezifischen Prägung noch die kulturspezifische hinzu. Im Laufe der Kindheit erwerben wir diese kulturellen Wahrnehmungsmuster bzw. Schemata, zum Beispiel in Form von Normen und Werten. Sie sind nicht so objektiv wie physikalische Größen, aber sie sind innerhalb der Kultur „objektiv“, wenn sie von einer Mehrheit anerkannt werden. Auch die jeweilige Sprache und Form der Kommunikation prägen die Wahrnehmung. Unsere kulturelle Prägung können wir zwar verändern, abstreifen können wir sie aber nie ganz.

Subjektivität der Wahrnehmung

Unablässig sucht das Gehirn nach Ordnung und Sinn, um die aufgenommenen Signale möglichst nahtlos in die bestehende Gesamtwahrnehmung einzufügen. Dabei strebt es sowohl die Übereinstimmung der aktuellen Sinnesdaten untereinander – also eine Übereinstimmung (Kongruenz) aller über die verschiedenen Sinnesorgane vermittelten Informationen (auch in zeitlicher Hinsicht) – als auch die Übereinstimmung neuer Informationen mit bereits bestehenden Erwartungen und Werten an. Nicht in das Gesamtbild passende Daten werden angepasst und durch eine passende Empfindung ersetzt – oder sogar ganz ignoriert. So vervollständigt unser Gehirn die Eindrücke, generalisiert, fasst zusammen und vereinfacht – im Rückgriff auf Schemata, die es im Laufe des Lebens erworben hat.

Selbst aus minimalen Daten baut unser Zentralorgan ein sinnvolles Bild zusammen. Dadurch können wir allerdings auch häufig zu Fehldeutungen verleitet werden, wie es z. B. bei der Gesichtswahrnehmung aus einigen Punkten und Strichen der Fall ist. Wenn es an Phantasie und an erforderlichen Schemata mangelt, hat man keine Wahl, und man greift auf die erstbeste Interpretation zurück.

Es sind also unsere früheren Erfahrungen, unsere Erwartungen und unsere Zielsetzungen, die unser Bild von der Umwelt prägen. Die menschliche Wahrnehmung ist demnach weit entfernt von Objektivität. Die Strukturen, die wir um uns herum sehen, reflektieren quasi auf sehr fundamentaler Weise die Strukturen unseres Geistes, gefärbt durch subjektive Gedanken, Gefühle und Werte, Wünsche und Schlussfolgerungen.

Was in unserem Gehirn erscheint, ist von seinem sinnlichen Anfang an anders als die harte Wirklichkeit um uns herum. Unser Zentralorgan biegt bei jeder Gelegenheit die Welt zurecht, pfuscht an unseren Erinnerungen herum, misst moralisch mit zweierlei Maß und kultiviert hartnäckige Vorurteile. Es ist anfällig dafür, Zusammenhänge zu sehen, wo es einfach keine gibt, und es nimmt blinden Zufall oft bedeutungsschwer wahr. Dementsprechend ist unser Blick auf die Wirklichkeit oft verzerrt, gelegentlich sogar trügerisch.

Auch unsere Erinnerungen werden fortgesetzt verändert, verwandelt und verzerrt. Schon einigermaßen ähnliche Wiederholungen können eine Erinnerung verwischen. Inzwischen sprechen viele Anzeichen dafür, dass schon das Aufrufen einer Erinnerung an eine Episode eine wiederholte Erfahrung darstellt, welche die gespeicherte Erinnerung verändert. Das wäre nicht weiter schlimm, wenn wir nicht auch Dinge einfügen würden, die in Wirklichkeit nicht da sind. Doch da wir das nun einmal tun, ist unser Gedächtnis formbar – und fehlbar.

So leben wir alle in unterschiedlichen Wahrnehmungswelten. Es gibt nicht eine wahre Sicht der Realität, sondern zahlreiche. Unsere Wirklichkeit ist ein Teil dessen, was unser Wesen und unsere Persönlichkeit ausmacht. So überzeugt der Mensch im Allgemeinen davon ist, dass seine Sicht der Welt die einzig wahre ist, so oft täuscht er sich darin. Und nicht nur der Mensch: Wenn sich der Truthahn duckt, sieht der Pfau darin nicht das beabsichtigte Friedensangebot, sondern ein Zeichen der Schwäche – und hackt weiter auf ihn ein.

Die Neigung, unsere subjektiven Interpretationen für objektive Eigenschaften der Welt zu halten, wird uns selten bewusst. Es ist daher heilsam und fördert die Toleranz, wenn man sich hin und wieder daran erinnert, dass man sich beispielsweise in der Einschätzung einer Lage oder in der Deutung eines Gesichts getäuscht hat.

Theorie vom Hypothesen testenden Gehirn

Eine wachsende Schar von Neurophysiologen, Kognitionsforschern und Philosophen haben sich der Theorie vom Hypothesen testenden Gehirn verschrieben. Die Idee wurde zuerst für die visuelle Wahrnehmung formuliert und später auf weiter kognitive Leistungen angewendet, etwa auf Riechen, Hören, Lernen oder Schlussfolgern. Viele Forscher sind optimistisch, dass mit ihr eine einheitliche Theorie der Hirnfunktionen gefunden ist.

Dieser Theorie zufolge produziert unser Denkorgan ständig Vermutungen bzw. Vorhersagen darüber, was als Nächstes passieren oder was man als Nächstes wahrnehmen könnte, und gleicht sie mit den Sinnesinformationen ab. Dabei greift es auf Erfahrungen zurück, wählt aus vielen möglichen Prognosen die wahrscheinlichste aus und leitet daraus Erwartungen ab. Diese erleichtern dem Organismus die Wahrnehmung, indem sie die Menge der möglichen Interpretationen einschränken.

Stimmen Vorhersage und sensorischer Input überein – ist alles bestens – wenn nicht, bemüht sich das Gehirn, die Diskrepanz zu beheben. Hierfür kann es entweder seine Prognose berichtigen oder dafür sorgen, dass sich die einlaufenden Signale ändern (z. B. durch die Veränderung der eigenen Position). Der Vorteil dieses Verfahrens liegt in der Zeit- und Energieersparnis, denn das Gehirn muss nicht die gesamte einlaufende Information analysieren, sondern nur Abweichungen vom erwarteten Zustand.

Wenn man annimmt, dass sie die eingehenden mit erwarteten Signalen vergleichen, lässt sich die Funktionsweise mancher Neurone viel stimmiger erklären. Forscher bezeichneten diese Neurone deshalb als „Fehlerfinder“ und beschreiben deren Aktivität mit „voraussagendem Kodieren„. (Dieses Verfahren ist auch aus der Telefontechnik und Datenverarbeitung bekannt. Statt das gesamte Signal zu übertragen, reicht es oft aus, nur die Abweichung vom vorhergehenden Signal zu berücksichtigen. Dadurch reduziert man den Übertragungsaufwand und erhöht die Verarbeitungsgeschwindigkeit.)

Die Welt drängt sich uns nicht auf, sondern sie antwortet gewissermaßen auf die Fragen, die unser Gehirn ihr stellt. Die Theorie vom Hypothesen testenden Gehirn erklärt u. a., warum Roboter gruselig wirken, wenn sie zu menschenähnlich sind. Wahrscheinlich erwartet das Gehirn von einem menschlich wirkenden Gegenüber, dass es sich auch wie ein Mensch verhält. Enttäuscht der Roboter diese Annahme, etwa indem er sich zu mechanisch bewegt, löst das ein Fehlersignal im Gehirn aus.

Bekommen unsere Erwartungen ein zu großes Gewicht und werden nicht mehr hinreichend von Sinneseindrücken korrigiert, sehen wir Dinge, die nicht da sind. So stellen sich Halluzinationen oder psychische Störungen ein. Das andere Extrem könnte der autistischen Störung zugrunde liegen: Die Betroffenen, so die These, halten die Welt für verlässlich und messen den eigenen Prognosen wenig Bedeutung bei. Sie betrachten ihre Umgebung daher sehr eingehend, nehmen Details extrem wichtig und orientieren sich weniger an Kontextinformationen. Dies führt zu geringerer Toleranz gegenüber Veränderungen.

Unser Gehirn tut aber noch mehr, als Hypothesen zu testen. Es ist zu komplex, als dass es sich auf einen einzigen Mechanismus reduzieren ließe. So ist etwa die Aufmerksamkeit nicht dasselbe wie Erwartung, auch wenn beide oft zusammenwirken. Aufmerksamkeit hilft dabei, nur solche Reize zu verarbeiten, die für unsere Ziele von Bedeutung sind. Sie blendet Dinge aus, die für uns gerade irrelevant sind. Aufmerksamkeit hat also neuronal den gegenteiligen Effekt wie die Erwartung: Während Letztere die neuronale Aktivität senkt (wenn etwas Vorhergesehenes erscheint oder passiert), lässt die Aufmerksamkeit die neuronale Aktivität ansteigen (wenn etwas Neues, Interessantes, Unvorhergesehenes auftaucht oder geschieht).

Erwartung und Aufmerksamkeit zusammen ergeben einen genialen Filtermechanismus. An das irrelevante Erwartete verschwenden wir keine kognitive Energie; taucht hingegen etwas Unerwartetes und Relevantes auf, befassen sich höhere Regionen des Gehirns damit.

Zuverlässigkeit der Wahrnehmung

Selbst wenn unsere Wahrnehmung zuweilen „intelligent“ erscheint, läuft sie doch im Großen und Ganzen automatisch ab und präsentiert uns gedeutete Daten, als seien sie unbearbeitet. Wir müssen immer skeptisch sein gegenüber unseren Wahrnehmungen und Einschätzungen. Das Bild von der Welt, das uns unser Gehirn präsentiert, ist also höchst selektiv und täuschungsanfällig. Trotzdem erscheint es uns verlässlich. Und in aller Regel wandelt unser Gehirn die Informationen der Sinne tatsächlich – angesichts der Wechselhaftigkeit der Welt – in recht stabiles und sicheres Wissen um, das wir benötigen, um uns in ihr zurechtzufinden.

Das liegt zum Einen daran, dass die Umwelt grundsätzlich vorhersagbar ist. In einer chaotischen Umgebung könnte kein noch so aktives Denkorgan eine Struktur entdecken. Zum anderen wird der aktiv konstruierende Prozess der Wahrnehmung immer wieder anhand von Rückmeldungen aus der Umwelt korrigiert. Daher stimmt die von uns erlebte Welt mit der bewusstseinsunabhängigen Welt zumindest teilweise überein. Dass Annahmen hin und wieder nicht stimmen, ist der Preis, den wir für die hohe Effizienz und Sicherheit der Wahrnehmung zahlen müssen.

Wir erhalten also durch die drei Arten von Kontrollen, die phylogenetische (stammesgeschichtliche / durch die natürliche Auslese), die ontogenetische (individualgeschichtliche / durch Reifung des Erkenntnisapparates) und schließlich die laufende Kontrolle durch die Sinnesorgane und die Verarbeitung von Augenblicksinformationen ein angemessenes, d. h. passendes und in vielem zutreffendes Weltbild. Dieses erstreckt sich zunächst auf den Bereich, der für die natürliche Auslese eine Rolle spielte. Es reicht dafür aus und ist damit hinreichend genau, um in unserer Welt gut zurechtzukommen.

Die universale Symbolik in Dichtung und Kunst leitet sich weitgehend von den angeborenen Wahrnehmungs- und Deutungsschemata her. Gerade die Kunst nutzt die dem Menschen eigenen Wahrnehmungspräferenzen – die enge, oft nicht lösbare Verknüpfung von Wahrnehmungsinhalten, wahrgenommener Bedeutung und emotionaler Antwort – und optimiert sie. So wurden Kunstwerke von formaler Qualität geschaffen, welche die natürliche Vorlage hinsichtlich Intensität der Wirkung und Kombination und Häufung bestimmter Reize übertreffen – gerade auch in der magischen und religiösen Welt. Die Repräsentation von Ahnen und Göttern, welche beim Betrachter Gefühle der Ehrfurcht wachrufen, bediente und bedient sich in allen Kulturen und zu allen Zeiten ähnlicher Ausdrucksmittel.

Die Kunst hat aber auch die Chance, unsere Wahrnehmungs- und Denkzwänge zu lockern, Formen und Inhalte in neuem Licht zu zeigen und damit zu einer erweiterten Wahrnehmung – auch im Sinne von Erkenntnis – beizutragen. So kann sie die genetisch und vor allem die kulturell erworbenen Schemata relativieren und eine Sensibilität für andere mögliche Ein- und Ansichten entwickeln und Neues und Überraschendes im nur scheinbar Wohlbekannten entdecken.

REM

Der Denisova-Mensch – und sein Erbe

In der Denisova-Höhle im sibirischen Altai-Gebirge, 550 Kilometer südöstlich von Novosibirsk, wurde ein 52 000 bis 76 000 Jahre alter Fingerknochen eines etwa siebenjährigen Mädchens gefunden. Das fossile Fingerglied war weniger breit geformt als bei einem Neandertaler und glich eher dem Fingerknochen eines Homo sapiens. Es konnte bald mit einem weiteren Fragment aus der Höhle ergänzt werden. Genomvergleiche ergaben, dass das Mädchen zu einer bis dahin unbekannten Menschenart gehören musste, die man fortan nach dem Fundort als Denisovaner bezeichnet.

Die Höhle liegt rund 27 Meter über einem Fluss und war eine ideale Steinzeitwohnung: Ein zwei Meter hoher und sieben Meter breiter Eingang führt noch heute in einen 33 Meter langen und 11 Meter breiten Höhlenkomplex, der Raum für eine ganze Sippe bot. Inzwischen wurden in der Höhle Reste von weiteren Individuen des Denisova-Menschehn gefunden. Nach den vorliegenden Daten müssen diese Menschen seit mindestens 125 000 Jahren in der sibirischen Höhle gelebt haben – wenn auch mit Unterbrechungen.

Die Forscher haben mittlerweile das vollständige Zellkern-Genom des Denisova-Menschen mithilfe von Sequenzierautomaten und spezieller Software zusammengesetzt. Anhand der genetischen Daten zeigt sich, dass Neandertaler und Denisovaner deutlich näher miteinander verwandt sind als die Denisovaner mit den modernen Menschen. Sie hatten wohl gemeinsame Vorfahren. Wann sich ihre Linien trennten, konnte noch nicht eindeutig bestimmt werden, da die mitochondriale DNA und die Kern-DNA der Denisova-Menschen unterschiedliche Daten für diesen Zeitpunkt liefern. Einer genetischen Berechnung zufolge fand die Trennung irgendwann vor circa 450 000 bis 430 000 Jahren statt, es könnte aber auch schon viel früher gewesen sein – spätestens aber vor 600 000 Jahren. Die Aufspaltung in die beiden Linien geschah möglicherweise im Nahen Osten: Die Vorfahren der Neandertaler gelangten dann nach Europa und Westasien, die der Denisovaner nach Asien.

Interessanterweise haben die Analysen der Proteine eines 800 000 Jahre alten Homo antecessor (aus Nordspanien) Belege dafür geliefert, dass Homo antecessor, Denisovaner, Neandertaler und Homo sapiens enger miteinander verwandt waren. Ihre gemeinsamen Eigenschaften sind also womöglich früh entstanden.

Die Denisova-Menschen bzw. ihre direkten Vorfahren scheinen überaus erfolgreiche Kolonisten gewesen zu sein. Nach der Abtrennung von der Neandertalerlinie dürften sie vom Nahen Osten aus sowohl nach Sibirien als auch nach Indonesien und vielleicht auch weiter nach Melanesien (Ozeanien) gelangt sein. Die Denisova-Höhle im Altai lag demnach nicht im Zentrum, sondern am nördlichen Rand ihres Lebensraums. Das könnte erklären, wieso hier nur spärliche Überreste dieser Menschen gefunden wurden.

Die Denisovaner von Ostasien waren offensichtlich groß und robust gebaut; manche mögen um die 100 Kilogramm gewogen haben. Sie besaßen wohl in der Regel ungewöhnlich große Zähne. Weder die Kronen noch die Wurzeln ähneln denen von Neandertalern oder modernen Menschen. In der Volksrepublik China wurden in den vergangenen Jahrzehnten seltsame 200 000 bis 130 000 Jahre alte Schädel entdeckt. Einige chinesische Paläoanthropologen leiteten sie vom chinesischen Homo erectus ab. Sie zeigen allerdings fortschrittlichere Merkmale und stehen unter dem Verdacht, in Wahrheit Denisovaner zu sein. Auch ein Schädeldach aus dem indischen Bundesstaat Madhya Pradesh, zunächst von seinem indischen Ausgräber als Homo erectus klassifiziert, würde mit seinem Alter von 235 000 Jahren eigentlich besser in die Denisovaner-Zeitspanne passen.

Genanalysen von heutigen Menschen in Neuguinea ergaben, dass die Densiovaner wohl schon vor ungefähr 363 000 oder 283 000 Jahren nach Südostasien gelangten. Bereits relativ bald nach der Abspaltung von der Linie der Neandertaler (wenn man von 450 000 Jahren vor heute ausgeht) mussten sie sich vor rund 350 000 Jahren in mindestens zwei geografisch voneinander getrennte Gruppen aufgespalten haben. Hierzu würden gewisse Unterschiede alten Ursprungs in den besagten DNA-Abschnitten zwischen Melanesiern und den Denisovanern vom Altai-Gebirge passen.

Im tropischen Süd- und Südostasien und in Sibirien scheinen demnach verschiedene Populationen gelebt zu haben, wobei allerdings ihre Zugehörigkeit zur gleichen Menschenform genetisch eindeutig ist. Bei Ostasiaten, etwa Chinesen und Japanern, finden sich Spuren beider Denisova-Gruppen im Erbgut, die jeweils 0,1% davon ausmachen. Südasiaten und Ozeanier besitzen nur Gene von einer einzigen Denisovaner-Gruppe, also keine Spuren der denisovanischen DNA aus der Denisova-Höhle.

Das Erbgut einer in der Mongolei (Salkhit) gefundenen Frau, die hier vor 34 000 Jahren lebte, zeigt nur 1/10 Denisova-Anteil, was an den nur sehr kleinen Denisovaner-Anteil heutiger Ostasiaten erinnert. (Dazu enthält es noch einen Schuss Neandertaler-Erbgut von etwa 1,7%.)

Von den südlichen Denisovanern sind Fossilien extrem spärlich gesät. Außer ein paar vermutlich menschlichen Zähnen kennt man praktisch keine Überreste, die sich ihnen zuordnen lassen. Ihre Gruppe verrät sich allein durch die Einsprengsel in den Genomen heutigen Melanesier und australischer Ureinwohner. Diese weisen durchschnittlich 4% Süd-Denisovaner-DNA auf. Wenn sich beide Denisovaner-Gruppen vor 350 000 Jahren getrennt haben, haben sie sich über einen langen Zeitraum voneinander fortentwickelt. Eine Folge ist möglicherweise, dass sich die Denisovaner des Nordens und des Südens äußerlich so sehr unterschieden wie beide ihrerseits von den Neandertalern. Eine Version des Denisovanergenoms ergab Genvarianten, die mit dunkler Haut, braunen Haaren und braunen Augen einhergehen – was auf heutige Melanesier zutrifft.

Nach Ansicht des britischen Paläoanthropologen Chris Stringer könnte Südostasien die eigentliche Heimat des Denisovamenschen gewesen sein. Zeitweise, wenn die Umweltverhältnisse dies erlaubten, verbreiteten sie sich von dort aus nach Norden, und manchmal sogar bis nach Südsibirien. Sobald die Lebensbedingungen wieder schlechter wurden, zogen sie sich aber wieder zurück oder lokale Populationen starben aus. Generell war Südostasien in der letzten Eiszeit von vor 110 000 bis vor 12 000 Jahren für Menschen ein günstiger Lebensraum. Damals herrschte hier kein dichter Wald vor, sondern eine offene Graslandschaft, und das Klima war kühler und trockener. Weil das Eis der Pole riesige Mengen Wasser band, lag der Meeresspiegel Dutzende Meter tiefer als heute. Die Inseln Sumatra und Borneo gehörten damals zum asiatischen Festland, Neuguinea zu Australien.

Die Denisovaner scheinen sogar die Lombokstraße, eine teife Meerenge mit reißender Strömung, die auch in Kaltzeiten nicht trocken fiel, gequert zu haben. Sie gehört zur „Wallace-Linie„, jener nach dem Mitentdecker der biologischen Evolution Alfred Russel Wallace (1828-1913) benannten tiergeografischen Grenzlinie, jenseits derer die australische Tierwelt mit den Beuteltieren beginnt. Stringer spekuliert, dass die Denisovaner die Wasserstraße bei Naturkatastrophen unabsichtlich überquerten, was im Lauf vieler Jahrtausende wiederholt geschehen sein könnte. Auch nach dem verheerenden Tsunami vom 26. September 2004, der die Küsten rund um den Indischen Ozean heimsuchte, fand man noch eine Woche später Überlebende, die auf Flößen aus Pflanzenmaterial 150 Kilometer weit getrieben waren.

Begegnungen und Vermischungen

In der Denisova-Höhle haben nicht nur Denisovaner gelebt, sondern auch (viel früher schon) Neandertaler – und sogar (später) Homo sapiens -, aber meistens nicht gleichzeitig. Das Altai-Gebirge lag aber wohl im Grenzbereich zwischen den Denisovanern im Osten und den Neandertalern im Westen, wo sich die Linien am ehesten getroffen haben könnten. In jener Zeit streiften oft nur sehr wenige Menschen in recht kleinen Gruppen in den Weiten Europas und Asiens umher, die sich nur selten begegneten. Die Gelegenheiten für intime Beziehungen zu anderen Gruppen und gar zu einer anderen Menschenlinie waren selten. Aber offensichtlich gab es auch schon größere, klimatisch bedingte Wanderungsbewegungen, bei denen die Umherziehenden auf Alteingesessene trafen und nähere Kontakte aufbauten.

Die genetische Information eines in der Denisovahöhle gefundenen Neandertaler-Zehenknochens zeigt jedenfalls mehrere Kreuzungen. Das Fossil stammt von einem vermutlich mindestens 13-jährigen Mädchen, das vor etwa 90 000 Jahren hier lebte und dessen Mutter Neandertalerin und dessen Vater Denisovaner waren. Der Denisovaner-Vater muss selbst (gemäß dem väterlichen Anteil am Erbgut des Mädchens) mindestens einen Neandertaler in seiner Ahnenreihe gehabt zu haben. Die im Allgemeinen deutlichen Unterschiede im Erbgut der beiden Homininenformen sprechen jedoch dafür, dass Begegnungen zwischen ihnen eher selten stattfanden.

Nachdem der frühe Homo sapiens Afrika verlassen hatte, traf er auf seiner weiten Reise in Europa und Asien unweigerlich auf Neandertaler und Denisovaner, die durchaus Konkurrenten gewesen sein können. Aber Kontakte zwischen den verschiedenen Menschenformen ermöglichten wohl auch einen kulturellen Austausch. Vielleicht sorgte gerade die Wechselbeziehung zwischen ihnen für eine gegenseitige kulturelle Bereicherung und löste Innovationen aus. So setzte just in der Zeit, als Homo sapiens in das westeuropäische Siedlungsgebiet des Neandertalers eindrang, eine auffällige Blüte technischer und künstlerischer Kreativität ein.

Gleichzeitig fanden aber auch genetische Vermischungen unserer Vorfahren mit Neandertalern und Denisova-Menschen statt. Je genauer die Fachleute das Erbgut der drei Menschenformen unter die Lupe nehmen, um so gründlicher scheinen sich ihre Linien gekreuzt zu haben. Alle Menschen außerhalb Afrikas tragen heute noch 1,8 bis 2,6% Neandertaler-DNA. Diese Allele (Varianten von Genen) konzentrieren sich dabei vor allem in ganz Eurasien. Aus Denisovaner zurückgehende Allele sind vor allem in Südostasien und Melanesien verbreitet. Nördliche Ostasiaten weisen lediglich 0,2% Denisovaner-Erbgut auf, Melanesier und australische Aborigines dagegen 3% bis 5%. In Afrika und Europa finden sich dagegen keine Sequenzen der Zellkern-DNA von Denisovanern.

Fremde Gensequenzen im Genom der modernen Menschen, von denen sich einige ausgesprochen stark von den ureigenen des Homo sapiens unterscheiden, können trotz ihres geringen Anteils am Erbgut ins Gewicht fallen. Dabei entpuppten sich manche als segensreich, andere als weniger wünschenswert.

Genetiker sprechen von Introgression, wenn z. B. im Genpool einer Menschengruppe Einsprengsel einer älteren Menschenform konserviert sind. Biologen beobachten schon lange im Tier- und Pflanzenbereich, dass bei Kreuzungen einzelne Varianten von Genen vom Genpool der einen Gruppe in den der anderen wandern. Falls diese Allele in der Empfänger-Population zu Überlebens- und Produktivitätsvorteilen führen, werden sie bevorzugt an die Folgegeneration vererbt.

So könnte es sich manches Mal für den vordringenden Homo sapiens in einer völlig neuen Welt als effizienter erwiesen haben, günstige Gene durch Kreuzung mit archaischen Menschen, die sich innerhalb von vielen Jahrtausenden an örtliche Bedingungen angepasst hatten, zu erhalten, als auf Mutationen im eigenen Genpool zu warten.

[Die Neandertalerversion bestimmter Gene schützt heute die Eurasier möglicherweise besser vor Wärmeverlust. Sie bescherte ihnen (vor allem den Asiaten) dichtere Haare und auch eine dickere Haut. Von den Neandertalern haben wir anscheinend auch Gene für die Haut- und Haarfarbe übernommen. (Es gibt Hinweise, dass die Neandertaler hellhäutig und blauäugig waren. Bei begrenzter Übernahme der Gene hätte ein Selektionsvorteil wohl relativ schnell zur Verbreitung der Pigmentarmut geführt.) Nach einer Arbeit von Bruce Lahn (University of Chicago) weist eine Version des Mikrocephalin-Gens einen Haplotyp auf, den moderne Menschen vor 40 000 Jahren von Neandertalern übernommen haben könnten. Dieses Gen bestimmt die Hirngröße mit.

Vor rund 40 000 Jahren gelangte zudem eine Genvariante des Neandertalers ins Erbgut der modernen Menschen, die bis auf den heutigen Tag erhalten ist und immer noch Wirkung zeigt: Offenbar hilft sie, eine Schwangerschaft mit weniger Komplikationen zu durchlaufen. Dadurch sind Familien, in denen das Gen häufig auftritt, im Schnitt kinderreicher. Knapp ein Drittel aller Frauen, die nicht-afrikanischer Herkunft sind, besitzen es; drei von hundert Frauen haben sogar zwei Kopien davon.

Andere Neandertaler-Gene tauchen so selten auf, dass der umgekehrte Prozess am Werk zu sein scheint: Sie wurden allmählich ausgesondert, vermutlich, weil sie ihren Trägern eher Nachteile brachten. Wieder andere blieben trotz einer offensichtlichen Belastung erhalten. So erhöhen heute einige Neandertaler-Genvarianten bei ihren Trägern das Risiko z. B. für Altersdiabetes oder für die Krankheit Morbus Crohn, für Osteoporose, Störungen der Blutgerinnung (was die Möglichkeit eines Herzinfarkts vergrößert) oder auch Nikotinsucht. Die Forscher stießen sogar auf Beziehungen von Neandertaler-Sequenzen zu Depression, Übergewicht und einigen Hautleiden. Dass sie dennoch im Genom mancher heutiger Menschen erhalten blieben, liegt vielleicht daran, dass sie einst von Vorteil waren und erst bei unserem modernen Lebensstil Probleme verursachen. Oder aber das Krankheitsrisiko ist ein hinnehmbarer Preis für den erhaltenen Nutzen, den wir noch nicht kennen. Andere Forscher halten allerdings die Auswirkung der Varianten für nur ganz geringfügig.]

Erbe der Denisovaner

In den Genomen heutiger Melanesier – vor allem auf Papua-Neuguinea und der vorgelagerten Insel Bougainville – und australischer Aborigines finden sich im Schnitt 4.8% der Denisova-DNA. Kleinere Prozentsätze sind im Genom von Menschen auf einigen indonesischen Inseln nachgewiesen, auch bei den Mamanwa – philippinischen „Negritos“ auf Mindanao – sowie bei Einwohnern der Fiji-Inseln.

Die Vorfahren der heutigen Papuas und australischen Aborigines, die vor mehr als 50 000 Jahren aus Afrika kommend allmählich in ihre heutigen Verbreitungsgebiete eingewandert sind, müssen auf ihren Wegen also auf Denisovaner getroffen sein und sich mit ihnen vermischt haben. Der wahrscheinlichste Ort dafür liegt irgendwo in Süd- oder Südostasien. Womöglich könnte Wallacea – jene Inseln, die wie Celebes oder Lombok nicht auf den Kontinentalschelfen Australiens und Asiens liegen und daher trotz niedrigem Meeresspiegel immer Inseln blieben – der entscheidende Ort gewesen sein, an dem moderne Menschen lange Zeit mit Denisovanern koexistierten und sich mit ihnen vermischten.

Eine Vermischung kann nur über einen populationsgenetischen „Flaschenhals“ funktioniert haben, spekulieren die Forscher. Vielleicht könnte ein Dutzend moderner Einwanderer auf ein oder zwei Denisovaner getroffen sein. Die kleine Gruppe blieb nach der Vermischung isoliert, hat eventuell einen Meeresarm überquert und als erste eine Insel besiedelt. Nach vier oder fünf Generationen war in der Gruppe zwar der Denisova-Anteil auf 5% oder 6% gesunken, aber dafür war diese DNA jetzt in allen Clan-Mitgliedern präsent. Weil keine weiteren Zuzügler auf die abgelegenen Inseln kamen, blieb das Mischungsverhältnis bis heute konstant.

Die Inselwelt zwischen Asien und Australien war wohl einst ein Schmelztiegel der Menschenformen. Es gibt Anzeichen für zwei Vermischungsereignisse. Die Aborigines und Papuas tragen nämlich andere Denisova-Sequenzen als die Mamanwa auf den Philippinen, genauer gesagt DNA von zwei unterschiedlichen Denisova-Populationen. Der neuseeländische Bioinformatiker Murray Cox bezeichnet sie als „D1“ und „D2„, um sie von der nordasiatischen Population aus der Denisova-Höhle – „D0“ – abzugrenzen. Aus der Länge der Denisovaner-DNA-Fragmente schließt Cox, die erste Vermischung mit modernen Menschen in Südostasien habe vor 46 000 Jahren stattgefunden – die zweite jedoch erst vor 30 000 bis 15 000 Jahren. Das würde bedeuten: Bis vor vielleicht 15 000 Jahren haben in den abgelegenen Bergwäldern Neuguineas noch Restpopulationen dieser Menschenform gelebt. (Konservative Schätzungen gehen allerdings davon aus, dass die Denisovaner-Menschen vor und 40 000 bis 30 000 Jahren ausstarben.)

Eine vor gut 7200 Jahren auf der indonesischen Insel Sulawesi beerdigte Frau (in der Höhle von Leang Panninge) hatte denisovanische Vorfahren. Ihr Erbgut ähnelt dem der modernen australischen Ureinwohner und der Papua in Neuguinea, gehört aber zu einer separaten Linie, die sich vor 37 000 Jahren von jener trennte. Die Frau gehörte zur tolaischen Kultur. Diese Menschengruppe existierte vor 8000 bis etwa 1500 Jahren noch im Süden von Sulawesi, hat aber keine Nachkommen hinterlassen. Womöglich wurde sie in der Folge einer jüngeren Einwanderungswelle von Menschengruppen aus Asien vor etwa 3500 Jahren verdrängt.

Die Denisova-Menschen der Nordgruppe scheinen an das Leben in großer Höhe und Kälte angepasst gewesen zu sein. Grönländische Inuit verfügen über Genvarianten von ihnen (TBX15 und WARS2), die für Kältetoleranz sorgen. Es sieht auch so aus aus, als ob die Tibeter von den Denisovanern ein Blutgen (eine besondere Spielart des Gens EPAS1) übernommen haben, durch das sie besser mit der sauerstoffarmen Umwelt in den großen Höhen der Tibetischen Hochebene zurechtkommen. (Das vom Gen kodierte Protein erleichtert den Sauerstofftransport im Körper.)

Nach den bisherigen Erkenntnissen lebten wahrscheinlich bereits vor mindestens 160 000 Jahren Denisovaner in den Hochlagen von Tibet. In einer Höhle wurde in 100 000 und 60 000 Jahre alten Schichten eindeutig Denisovaner-Erbgut gefunden. Vielleicht lebten die Denisovaner sogar bis vor 45 000 Jahren dort. Tibet scheint über all die Jahrzehntausende und sogar während der härtesten eiszeitlichen Phasen durchgehend von ihnen bewohnt gewesen zu sein. Es ist nicht ausgeschlossen, dass sie dort auch immer wieder modernen Menschen begegneten, die in die Hochlagen Tibets vordrangen.

Die Population, die in Tibet während der letzten Kaltzeit existierte, könnte aus Hybriden ausgestorbener Arten und früher moderner Linien hervorgegangen sein. Diese hypothetische hybride Menschenform tauften die Forscher SUND, nach den Anfangsbuchstaben für Sibirier, Unknown (Unbekannt), Neandertaler und Denisovaner. (Vielleicht haben deren Nachkömmlinge in unzugänglichen Bergregionen im Himalaya, Kunlun oder Tian Shan noch längere Zeit überlebt und sind in die Yeti-Legenden eingegangen.) Heutige Tibeter haben einen Erbanteil von 94% vom Homo sapiens, das übrige Erbgut ist auf die drei anderen Menschenformen (Neandertaler, Denisovaner und einer noch nicht bekannten früheren Menschenart) aufgeteilt.

[Die genetischen Daten von amerikanischen Ureinwohnern zeigen lediglich ein schwaches Echo vom Denisovaner-Signal der Südgruppe. Erbgut der Nordgruppe fehlt bei den indigenen Amerikanern völlig, obwohl immer noch vermutet wird, dass ihre Wurzeln in Nordostasien liegen.]

Das HLA-Klasse-I-System (oder MHC-Komplex) ist ein bestimmter Genkomplex, der die Baupläne für Eiweißmoleküle (T-Zellen und Killerzellen) enthält, die spezifische Teile von Viren und Bakterien rasch erkennen und eine gezielte Immunreaktion herbeiführen können. Die HLA-Klasse-I-Gene der Neandertaler und Denisovaner hatten sich mehrere Hunderttausend Jahre lang an die örtlichen Krankheitserreger in Europa bzw. Asien angepasst. Als nun unsere afrikanischen Vorfahren nach Eurasien vordrangen, haben ihre Populationen wohl von diesen Genversionen profitiert. Für sie waren vermutlich schon wenige Nachkommen aus Paarungen mit den einheimischen Menschen eine schneller Weg, um neue, vorteilhafte, HLA-Varianten zu erwerben. Weil diese Immungene einen signifikanten Überlebens- und Reproduktionsvorteil boten, vermehrten sie sich durch Selektion rasch in den wandernden Gruppen.

Im HLA-Klasse-I-System von Europäern sind über 50% archaisches Erbe, von Asiaten mehr als 70%. In manchen Menschen in Papua-Neuguinea summieren sich die archaischen Immungene sogar auf 95%. Es könnte noch eine andere Erklärung für die archaischen HLA-Gene geben – falls nämlich vor der großen Wanderung bereits in Afrika viele unterschiedliche, teils sehr alte Allele existiert haben sollten. Danach wird derzeit gesucht.

Viele Genvarianten der Neandertaler und Denisovaner siebte die natürliche Selektion über die Jahrtausende dagegen gründlich aus. Es ist bekannt, dass neue Genvarianten oft das regulatorische Gleichgewicht in der Zelle verschieben. Enhancer sind Erbgutabschnitte, die beeinflussen, wie gut Transkriptionssequenzen an die DNA binden und damit, wie oft die jeweiligen Gene abgelesen werden. Frühmenschen-Gene aus Enhancern mit vielen unterschiedlichen Funktionen wurden stärker ausgesiebt als solche, die für bestimmte Gewebe spezifisch sind. Die Anthropogenetiker haben für den Menschen 87 Gene ausgemacht, die nicht nur beim Neandertaler anders waren, sondern auch beim Denisova-Menschen aus Südsibirien. Mehrere dieser Gene spielen bei der Entwicklung des Gehirns und seinen Funktionen eine Rolle, darunter auch einige für die Sprachfähigkeit.

Den deutlichsten Selektionseffekt sehen Forscher im Hirngewebe ungeborener Kinder. Hier schienen moderne Menschen keinen Einfluss gebrauchen zu können. Vergleichbar stark bereinigt wurden embryonales Muskelgewebe – allerdings sind die archaischen Varianten hier nicht durch starke Selektion ganz ausgesiebt worden. Man sieht dort Wechselwirkungen mit anderen Genen am Werk: Die Varianten sind nicht per se nützlich oder schädlich, sondern ihr Effekt hängt stark davon ab, welche Varianten anderer Gene vorhanden sind.

Ältere Erbguteinsprengsel

Durch Genomanalysen fand man heraus, dass schon die gemeinsamen Vorfahren von Denisovanern und Neandertalern Begegnungen mit einer anderen, wohl sehr alten Menschengruppe gehabt haben mussten, die man als „superarchaische Spezies“ bezeichnet – möglicherweise Nachkommen der Erstankömmlinge in Eurasien. Diese müssen sich demnach vor etwa zwei Millionen Jahren von der gemeinsamen Linie getrennt haben, bevor es vor etwa 700 000 Jahren zu erneuten Kontakten kam.

Auch bei einigen westafrikanischen Bevölkerungen – wie etwa den Yoruba in Nigeria und den Mende in Sierra Leone – sind Forscher auf extrem alte DNA-Varianten gestoßen, die vermutlich auf eine Vermischung mit einer sehr ursprünglichen Homininenform zurückgehen.

„Es wird wohl eine weit größere Vielfalt geografischer Varianten von Frühmenschen gegeben haben, als heute bekannt ist. Sie wurden nur noch nicht entdeckt – oder haben bisher keinen Namen“, meint der Paläoanthropologe Friedemann Schrenk. Wer wann wo lebte und wer wen wann traf, kann so richtig niemand sagen. Die sehr frühen sog. „ghost populations“ sind ausschließlich genetisch fassbar, d. h., ihnen lassen sich (noch?) keine Fossilien zuordnen. Wie oft eine Vermischung aber stattfand und in welchem Ausmaß sie die Evolution des Homo sapiens und anderer Homininen vorantrieb, bleibt derzeit ungeklärt.

Homo sapiens ist das Produkt eines komplizierten Wechselspiels verschiedener Abstammungslinien. Durch Kombination entstand die anpassungsfähige, vielgestaltige Art, die wir heute sind. Während des größten Teils ihrer Existenz wandelten mehrere Menschenspezies über die Erde. In Afrika, wo die Wurzeln unserer Art liegen, streifte auch Homo heidelbergensis mit seinem großen Gehirn herum, außerdem Homo naledi, dessen Gehirn wesentlich kleiner war. In Asien gab es Homo erectus sowie den Denisova-Menschen, später Homo floresiensis, ein zwergenhaftes Wesen mit großen Füßen. In Europa und Westasien herrschten stämmige Neandertaler mit dicken Augenbrauenwülsten. Und wahrscheinlich gab es noch weitere Formen, die wir bisher nicht kennen.

Bis vor 50 000 Jahren hatte sich keine der existierenden Menschenformen überzeugend vermehrt, keine nutzte ihre Fähigkeiten wirklich aus. Neandertaler und Denisovaner standen kurz vor dem Aussterben, der Homo sapiens bekam dagegen einen deutlichen Schub. Vor rund 40 000 Jahren war nach derzeitigem Stand Homo sapiens nahezu allein auf der Erde. Er ist heute das einzige übriggebliebene Mitglied einer einstmals unglaublich vielgestaltigen Familie aufrechtgehender Primaten, die zusammenfassend Homininen genannt werden. Manche Paläoanthropologen vermuten als Erklärung für den Erfolg und die zügige Verbreitung des Homo sapiens das große, komplexe Gehirn. Es hätte dazu geführt, dass sich unsere Vorfahren gerne neuen Herausforderungen stellten, was sie anderen Formen gegenüber überlegen machte.

REM

Verantwortung für die Erde

Die Erde ist wie ein Organismus mit vielen Bestandteilen, die alle ineinander greifen und ein Gleichgewicht anstreben. Für die Balance sorgen die Teile selbst mit Hilfe vieler Rückkopplungsmechanismen. Auch der Mensch ist in dieses System mit eingebunden – ein Rädchen im globalen Getriebe. Allerdings greift er inzwischen auch drastisch in die Selbstregulierung der Erde ein. Schon seit dem ersten Auftreten von Homo sapiens vor rund 300 000 Jahren hat er die Umwelt verändert: Anfangs unmerklich, seit der neolithischen Revolution vor etwa 12 000 Jahren stärker und ab der Mitte des 18. Jahrhunderts radikal. Sein Wirken ist zu einem maßgeblichen Faktor im System Erde geworden, durch den der Planet grundlegend verändert und dabei viel Schaden angerichtet wurde.

Verwandlung der Erde

Homo sapiens hat sich zum Herren über die Natur aufgeschwungen und beeinflusst durch sein Handeln die Kreisläufe der Biosphäre. Die gesamte bisherige Kulturgeschichte des Menschen lässt sich als Indienstnahme und schrittweise Unterwerfung der ihn umgebenden Natur beschreiben. „Macht euch die Erde untertan“ ist wohl eine der folgenschwersten Aufforderungen gewesen, die je formuliert wurden. Sie führte dazu, dass sich die Menschen als etwas Besonderes, Einmaliges, ganz Anderes als Tiere und Pflanzen ansahen. Dieser Anthropozentrismus ist für die Vorstellung verantwortlich, als Eigentümer dieses Planeten seien wir Menschen weise genug, um zu wissen, wie wir damit umgehen müssen.

Jede der technischen Revolutionen – Werkzeugherstellung, Landwirtschaft, Industrialisierung – hat die Zahl der Menschen auf der Erde vervielfacht und ihre direkte Abhängigkeit von der Natur verringert. Seitdem ist der Mensch emsig dabei, die Erde auf jede erdenkliche Weise zu schädigen. In den letzten Jahrhunderten hat die Umweltverschmutzung, der Abbau von Ressourcen und die Auswahl der Arten, die gefördert werden, wichtige Materie- und Energieströme umgelenkt.

Die Explosion menschlicher Aktivitäten in der zweiten Hälfte des 20. Jahrhunderts und die enormen Fortschritte in Wissenschaft, Technik und Medizin wird als „Große Beschleunigung“ gerühmt. Diese unglaubliche Zunahme an Geschwindigkeit und Mobilität bezahlen wir jedoch mit einem ungeheuren Energie-, Rohstoff- und Landschaftsverbrauch sowie mit Schadstoffbelastungen. Heute stehen wir in der Gefahr, diesen Prozess zu weit getrieben zu haben. Der Verbrauch an Wasser, Luft und Boden übersteigt in unserem Lebensraum schon heute deutlich die verfügbaren Kapazitäten.

Der Mensch ist also emsig dabei, die Erde auf jede erdenkliche Weise zu schädigen. Innerhalb von nur fünf bis sechs Generationen hat er die Erdoberfläche großräumig und tiefgreifend verändert. Wir haben riesige Regionen entwaldet, Berge abgetragen, Flüsse begradigt und das Klima verändert. Durch die Abholzung und Brandrodung der Wälder wurden wichtige Kohlenstoffspeicher vernichtet. Durch die Veränderung der Beschaffenheit der Erdoberfläche (z. B. Ackerflächen anstelle von Wäldern) wurde das Reflexionsvermögen (Albedo) erhöht.

Er pumpt Wasser aus dem Boden, so dass sich der Grundwasserspiegel absenkt. Er stört empfindlich den Wasserkreislauf durch Flächenversiegelung und Umleitung von Wasser für Trinkwasser, Bewässerung, aber auch zur Beseitigung von Fäkalien und Müll. Umfassende Flussregulierungen und der Bau von Staudämmen verhindern, dass genügend Sedimente ins Meer gelangen, wodurch sich die Deltas zurückziehen und das Meer ins Hinterland vordringt. Gerade dort leben besonders viele Menschen in Megastädten. Der Mensch ändert den Gehalt der Atmosphäre an Spurengasen und Schwebteichen, was die irdische Strahlungsbilanz sowie die Eigenschaften der Wolken beeinflusst. Wir verwandeln Luftstickstoff in Dünger und erschaffen Stoffe und Organismen, die es vorher in ihrer Umwelt so nicht gab.

Fast überall auf dem Planeten hat der Mensch die Urnatur zur Neonatur umgewandelt – in aller Regel auf Kosten der biologischen Vielfalt, Fruchtbarkeit der Böden und natürlichen Klimapuffern wie Wäldern und Feuchtgebieten. Nur noch 23% der eisfreien Erdoberfläche sind noch weitgehend unberührt, knapp 80% hingegen mehr oder weniger von uns geprägt. Die Erde, sagen Forscher, sei inzwischen zu einem „Humansystem mit eingebetteten, natürlichen Ökosystemen“ geworden. Wir sind tatsächlich längst nicht mehr Teil der Natur, sondern ihr Beherrscher. Das natürliche Gleichgewicht auf der Erde gerät ins Wanken. Die Rückkopplungen, die den Zustand des Amazonas-Regenwaldes langfristig stabil halten, funktionieren schon heute nur noch eingeschränkt. Lebensraum wird fragmentiert oder sogar vernichtet, so dass vielen Tier- und Pflanzenarten die natürlichen Lebensgrundlagen entzogen werden. Die Folge ist das heute beobachtbare massenhafte Artensterben.

Hinzu kommt die Belastung von Boden, Luft und Meeren mit Schadstoffen. Schwermetalle und Chemikalien verunreinigen unsere Böden und Gewässer. Fast 100 Millionen unterschiedliche chemische Produkte entstanden bis heute, die meisten künstlich synthetisiert, darunter langlebige organische Schadstoffe wie Insektizide oder toxische Industriechemikalien wie Dioxine. Viele der am weitesten verbreiteten, hartnäckig überdauernden Umweltgifte können über Nahrungsketten schließlich in Organismen angereichert werden und als Nervengifte und Enzymblocker wirken – oder Fortpflanzung und körpereigene Abwehrkräfte beeinträchtigen.

Die Folgen der Kunststoffschwemme sind überall in der Natur, in den Ozeanen und an den Stränden zu beobachten. An der Küste von Hawaii wurden so viele Gebilde aus geschmolzenen Kunststoffen, Vulkangestein, Korallenfragmenten und Sandkörnern entdeckt, dass man ein neues Gestein taufte: Plastiglomerat. Eine ökologische Zeitbombe ist das Radioaktivitätsrisiko aus Uranabbau, alternden Reaktoren und Wiederaufbereitungsanlagen. Dabei ist die Entsorgung des gefährlichen, radioaktiven Abfalls noch überhaupt nicht richtig geklärt. Plutonium hat eine extrem lange Halbwertzeit von 24 400 Jahren. Selbst in 100 000 Jahren wird sich die 3333ste Generation nach uns noch um die giftige Substanz kümmern müssen, die in der Natur eigentlich gar nicht vorkommt.

Klimawandel

Der Einfluss anthropogener Aktivitäten hat auch zu einem für paläoklimatische Verhältnisse drastischen Klimawandel geführt. Immer mehr Treibhausgase (Kohlenstoffdioxid, Methan, Lachgas bzw. Distickstoffmonoxid) gelangten in die Atmosphäre. Noch nie in den letzten 650 000 Jahren enthielt die irdische Lufthülle so viele wie heute. Die Zunahme der globalen Durchschnittstemperaturen setzte bereits ab 1830 herum durch die zunehmende Nutzung fossiler Brennstoffe zur Energiegewinnung ein. Heute gehen fast ein Drittel der globalen Emissionen auf den Nahrungsmittelsektor zurück: Rodung von Wäldern für Acker- und Weiseflächen, die Produktion und der Einsatz von Düngemitteln, die vermehrte Nutzviehhaltung sowie der Transport von Lebensmitteln.

Der Klimawandel wird sich mindestens über einige Jahrzehnte noch weiter verschärfen. Davon betroffen sind alle Regionen des Planeten und alle Fassetten des Klimasystems, von den Temperaturen über den globalen Wasserhaushalt bis hin zu den Eisschilden der Polargebiete. Der derzeitige Temperaturanstieg entspricht dabei dem seit der letzten Eiszeit – allerdings mit der hundertfachen Geschwindigkeit. Die Atmosphäre hätte sich noch weit stärker erwärmt, als wir beobachten, hätten nicht die Ozeane die Wärme zunächst aufgenommen, wobei das anthropogen erzeugte Kohlenstoffdioxid zur Versauerung des oberflächennahen Meerwassers beiträgt.

Bis 2100 (nach IPCC-Bericht) erwarten die Forscher eine globale Erwärmung von 4,5°C und einen Meeresspiegelanstieg um 1,40 Meter, falls die Menschheit den Klimawandel nicht in den Griff bekommt. Menschliche Siedlungen sind bedroht, eine weiträumige Abschwächung oder Verlagerung der globalen Ozeanzirkulation wird befürchtet. Das träge, großräumige System von Meeresströmungen könnte sogar fast ganz zum Stillstand kommen. Längerfristig könnten auch die polaren Eiskappen zum Schmelzen gebracht werden. Fast alle Klimamodelle sagen voraus, dass bis spätestens zum Ende des 21. Jahrhunderts die Arktis im September komplett eisfrei sein wird – wenn die Treibhausgas-Emissionen weiter so steigen wie bisher. Das Abschmelzen der Eiskappen auf Grönland und in der Antarktis könnte nicht Jahrtausende dauern, wie bisherige Simulationen ergaben, sondern nur Jahrhunderte, befürchten Wissenschaftler. Eine ganz eisfreie Welt gab es im warmen Eozän vor über 50 Millionen Jahren.

Die weltweite Erwärmung ist ein globales Pulverfass – und die Lunte brennt bereits. „Es ist bereits fünf nach zwölf!“ mahnt der Paläoklimatologe Gerald Haug von der ETH Zürich. Selbst Skeptiker unter den Forschern leugnen nicht die Gefahr, dass der weitere Anstieg der Temperatur die Klimamaschine des Globus über eine Schwelle treiben könnte, hinter der das System chaotisch zu werden droht. Es sind nichtlineare geophysikalische Phänomene – d. h. kleine Änderungen, die in Zeitspannen von wenigen Jahren auftreten -, die das herrschende Gleichgewicht in Teilen der Welt und global aus den Fugen geraten lassen und in einen anderen Zustand kippen können.

Wissenschaftler haben bis zu 16 entscheidende „Kipp-Elemente“ ausfindig gemacht, z. B. das Schmelzen der großen Eisschilde oder das Verschwinden des Amazonas-Regenwaldes. Ist einmal eine solche kritische Schwelle überschritten, können die resultierenden Veränderungen Jahrtausende anhalten. Das Erreichen eines Kipp-Punkts ist in den meisten Fällen nicht vorhersagbar. Heute scheinen einige der Kipp-Elemente dem Kollaps schon nahe zu sein, z. B. Teile des arktischen Permafrosts.

Experten schätzen, dass in diesem Jahrhundert durch die Klimaerwärmung zwischen 5 und 15% des Kohlenstoffs in auftauenden Permafrostböden freigesetzt werden, meist in Form von CO2. Dabei dürften aber auch die Methanemissionen steigen, bis Ende des Jahrhunderts schätzungsweise um 20 bis 40%. Die Jahresmitteltemperatur der Erde könnte dadurch um zusätzliche 0,32°C steigen.

Biosphäre

Es gibt keinen Zweifel: Die Biosphäre der Erde ist schon heute durch menschliche Eingriffe radikal erschüttert. Mit an Sicherheit grenzender Wahrscheinlichkeit hat allein der rasche, menschengemachte Klimawandel einschneidendere Folgen für Flora und Fauna als die letzte Eiszeit. Viele Tier- und Pflanzenarten können nicht schnell genug reagieren, um sich an die rasanten Veränderungen anzupassen, zumal mögliche Rückzugsgebiete schon heute nicht mehr ungestört sind. Vor allem kalkbildende Organismen wie Muscheln, Korallen und Kieselalgen haben mit der Versauerung der Meere zu kämpfen, denn die Säuren lösen Kalkschalen und -skelette auf. In manchen Gegenden, von der Karibik bis zum Ostpazifik, sind wohl schon über 70% der empfindlichen Korallenriffe zerstört. Doch der geringe pH-Wert erschwert nicht nur die Kalkbildung, er kann auch die Stoffwechselfunktionen von Fischen und anderen Lebewesen beeinflussen.

Wenn sich die CO2-Emissionen nicht verringern, werden die Ozeane nicht nur saurer, auch die sauerstoffarmen Zonen werden zunehmen. Schon in den letzten 50 Jahren ist der Sauerstoffgehalt in den tropischen Ozeanen um bis zu 15% zurückgegangen. Wenn sich die Atmosphäre unseres Planeten bis zum Ende des Jahrhunderts um mehr als 4% erwärmt, ergeben die Klimamodelle, dass es in einer Tiefe von 100 bis 600 Metern allein durch den Klimaeffekt bei etwa 70% der Meeresfläche zu Sauerstoffverlust kommt. In diesen sogenannten „Todeszonen„, die sich vor allem in den tieferen Schichten der tropischen Meere befinden, kann kein höheres Leben mehr existieren.

Die derzeitige Aussterberate ist im Vergleich zum Durchschnitt der letzten 10 Millionen Jahre je nach Schätzung 10 bis 100mal so hoch. Wird sich die Rate dieses Artenschwunds in Zukunft nicht drastisch vermindern, könnte es zu einem Massensterben und einem Artenverlust vergleichbar jenem an der Kreide-Tertiär-Grenze kommen, als die Dinosaurier verschwanden. Die sogenannte „Krone“ der Schöpfung wäre damit das erste Lebewesen, das die Erde mitsamt ihrer Evolutionsgeschichte und mit all ihren Wundern innerhalb kurzer Zeit auslöschen kann.

Aber auch wir Menschen selbst werden an den Folgen des selbstverschuldeten Klimawechsels schwer zu tragen haben. Schon 1988 hieß es auf der Weltklimakonferenz: Die fortschreitende Veränderung der Erdatmosphäre bedrohe die globale Sicherheit, die Weltwirtschaft und die natürliche Umwelt. Steigt die globale Mitteltemperatur über zwei Grad, werden sich die Tage mehren, an denen kritische Toleranzschwellen für Land- und Forstwirtschaft und menschliche Gesundheit erreicht werden. Nachteilige Einflüsse wird es auf jeden Fall auf die Verfügbarkeit von Süßwasserressourcen geben: Wassermangel und Versteppung großer Gebiete in vielen Teilen der Welt.

Es wird heute schon erwartet, dass der Klimawandel in den kommenden Jahrzehnten mindestens 12 Millionen Menschen in extreme Armut treiben wird. Krankheitserreger werden sich weltweit ausbreiten, Naturkatastrophen sind unvermeidbar: Jedes Jahr eine Jahrhundertflut an einer Küste, mehr Hochwasserkatastrophen auch im Binnenland, und dazu häufigere Stürme, Dürren und Waldbrände mit unabsehbaren Folgen für Bevölkerung und Ökosysteme.

Evolutionäres Erbe

Die Evolution hat uns zur überlegenen Spezies gemacht, aber diese Entwicklung schlug in Überheblichkeit und Zügellosigkeit um. Ein beispielloses Artensterben und ein Verlust von einzigartigen Landschaften infolge Klimawandel, wirtschaftlicher Ausbeutung und zunehmender Umweltzerstörung steht uns bevor. Stephen Hawking warnte immer wieder, dass wir mit dem Klimawandel, den steigenden Temperaturen, dem Schmelzen der polaren Eiskappen, der Abholzung der Wälder und der Dezimierung der Arten unseren Planeten ruinieren.

Expansion, Konsum und Unterwerfung sind anscheinend in unserer DNA festgeschrieben. Der Mensch ist sozial und kognitiv an weit einfachere Lebenswelten adaptiert als jene, in der wir uns heute bewegen. Er lebte in einer überschaubaren Kleingruppe, musste um begrenzte Nahrung kämpfen und war mit hoher Sterblichkeit konfrontiert. Die Natur um ihn herum schien grenzenlos und unerschöpflich. Dies bestimmt auch heute noch sein Denken und sein Handeln. Aber die Welt, die ihn gemacht hat, ist verschwunden; und für die neue Welt, die er gemacht hat, hat er nur eine geringe Kapazität entwickelt, um sie zu verstehen. Wir stehen also vor den Problemen des 21. Jahrhunderts mit Gehirnen, die zum großen Teil noch die Welt von vor 50 000 Jahren widerspiegeln.

Es scheint, als ob der Mensch aus Schaden nur dann klug wird, wenn dieser sofort eintritt. Kurzfristige Erfolge werden demnach für wichtiger gehalten als langfristige Nachteile. Aufgrund dieser erkennbaren Defizite, des oftmals nicht an langfristiger Lebenssicherung orientierten Denkens und des Dranges, alles, was machbar ist, auch in der Tat umzusetzen, gefährden wir unsere Zukunft. Die Vorstellung, welche Konsequenzen heutiges Handeln in der „fernen Zukunft“ haben könnte, übersteigt wohl unsere Antizipationsfähigkeit. Selbst das Wissen, dass unser Handeln zukünftige Schäden bewirken kann, hält uns nur bedingt davon ab. Gerade in dieser ungenügenden Berücksichtigung der Zeitdimension wird heute eine der Hauptursachen der gegenwärtigen Umweltprobleme gesehen.

Immer wieder wird die wertebasierte Diskussion über die Konsequenzen aus Forschungsergebnissen mit einer Diskussion über die objektiven Forschungsergebnisse an sich verwechselt. Eine solche Vermischung erschwert es ungemein, effektiv und in einem breiten gesellschaftlichen Konsens auf die Herausforderungen unserer immer komplexeren Zukunft zu reagieren. Die Frage ist auch, ob wir angesichts unseres evolutionären Erbes kollektiv handlungsfähig sind, denn kollektive Krisen erfordern auch eine weltweite Koordination von Gegenmaßnahmen.

Die Menschen sind von Natur aus skeptisch, wenn kurzfristige persönliche Einschränkungen gefordert werden. Treffen sich Menschen aus verschiedenen Nationen oder Kulturen zu politischen Gesprächen, will man den eigenen Vorteil nicht verspielen und scheut Kosten und Kooperation, wenn andere vermeintlich davon mehr profitieren. Verzicht zugunsten der Allgemeinheit zur Lösung einer globalen Krise ist in der Wirtschaftspolitik nicht vorgesehen. Jeder verfolgt seine eigenen Interessen. Das galt und gilt auch bei der Verteilung der Impfstoffe, der Aufnahme von Flüchtlingen und der Bekämpfung von Fluchtursachen.

Dazu liefert die Spieltheorie Erkenntnisse: In sogenannten Öffentliche-Güter-Spielen profitiert jeder in der Gruppe von der Kooperation; aber unter sonst gleichen Bedingungen erhöhe ich meinen Gewinn, wenn ich von Kooperation zu Selbstsucht übergehe. Das heißt: Obwohl ich möchte, dass die anderen kooperieren, verhalte ich mich „schlau“, wenn ich sie hintergehe. Das Problem ist, dass jeder in der Gruppe genauso denkt, wodurch anfängliche Kooperation unweigerlich in allgemeiner „Abtrünnigkeit“ endet.

Schon jetzt treibt der Raubbau an Natur und Rohstoffen und der fehlende soziale und kulturelle Ausgleich unter den Gesellschaften der Welt die Menschheit in den Ruin. Um die Gefahr, unser Überleben aufs Spiel zu setzen, abzuwenden, sind wir gezwungen, zusammenzuarbeiten. Ob uns das rechtzeitig gelingt, ist die große Frage. Denn es kommt noch eine weitere psychische Besonderheit des Menschen hinzu: unsere Illusionsneigung. Längst sind aus lokalen Umweltproblemen globale Umweltkrisen geworden, wir aber bilden uns nach dem „Prinzip Hoffnung“ ein, dass es schon irgendwie weitergehen wird – mit verbesserter Technik.

Diese Hoffnung aber hält der Verhaltensforscher Kurt Kotrschal (und andere Wissenschaftler) angesichts der gegenwärtigen Probleme für einen „Kopf-in-den-Sand-Optimismus“. Daraus leitet er die Überzeugung ab, dass, wenn der Mensch nicht doch noch die Probleme in den Griff kriegen kann, unsere Art über kurz oder lang aussterben wird. Die heutige Zivilisation wäre zumindest nicht die erste Hochkultur, die einfach verschwindet. Die Maya in Zentralamerika bauten große, prachtvolle Städte, hatten eine Schrift und astronomische Kenntnisse. Wahrscheinlich haben sie sich mit ihren Rodungen und dem intensiv betriebenen Ackerbau aber der eigenen Lebensgrundlage beraubt. Als noch eine Klimakrise eintrat, waren sie offenbar nicht mehr in der Lage, sich schnell genug an die raschen Veränderungen anzupassen.

„Der Mensch glaubt, die Natur zu beherrschen, bevor er gelernt hat, sich selbst zu beherrschen“, meinte Albert Schweitzer. Wir haben uns heute zu weit fortbewegt von den Grundprinzipien der Natur. Die Natur aber ist unsere eigene Lebensgrundlage, von der wir abhängen. Sie ist an ihre eigenen Zeitrhythmen gebunden, und ihre Fähigkeit, auf Veränderungen zu reagieren und zivilisatorische Störungen auszugleichen, ist begrenzt. Wenn wir sie durch die Ausrottung von Arten nachhaltig manipulieren, verändern wir auch die Ökofaktoren, die unser eigenes Leben bestimmen. „Gaia gibt auf sich acht. Und die beste Art und Weise, dies zu erreichen, könnte die sein, uns loszuwerden“, soll Lovelock einmal gesagt haben.

Verpflichtung

Mensch und Erde bilden eine Schicksalsgemeinschaft. Wir sind ein integrativer Bestandteil der Natur, dieses großen Schöpfungswerks, vor dem wir Achtung haben sollten. Für uns Menschen sollte die Verantwortung darin bestehen, durch kollektiven Einfluss auf die Erde eine merkliche Rolle bei ihrer künftigen Entwicklung zu spielen. Das 21. Jahrhundert wird möglicherweise von entscheidender Bedeutung (im Sinne von „Scheideweg„) für unsere Spezies und unseren Planeten sein. Eine gesellschaftliche Transformation ist unausweichlich, ob wir sie nun wollen oder nicht. Die Frage ist nur, ob sie „by design“ (also kontrolliert) kommt, oder „by desaster“ (also in einem katastrophalen Prozess).

Selbst wenn manche Prozesse nicht mehr aufzuhalten sind, lassen sie sich doch bremsen. Je mehr wir vom Gen-Pool der Erdgeschichte zu retten vermögen, um so eher werden wir die technologischen, landwirtschaftlichen, medizinischen und ökologischen Herausforderungen der Zukunft bewältigen. Generell gilt: Die Versorgung einer größeren und dichter siedelnden Menschheit und die Entsorgung der von ihr produzierten Abfall- und Schadstoffe ist nur durch sparsamere und effizientere Nutzung der Ressourcen sicherzustellen. Dazu bedarf es einer „reduktiven Moderne“ – einer Lebensweise, die den heutigen zivilisatorischen Standard bewahrt, dabei aber ohne Wirtschaftswachstum, exzessiven Konsum und Raubbau an der Natur auskommt.

Was wir also brauchen, ist ein Wandel unserer Werte und Einstellungen, eine Ethik, die darauf basiert, dass wir die Zukunft mitbeachten und unsere Lebensgrundlage, nämlich das Ökosystem Erde, schützen. Dazu müssen wir uns bescheidener einpassen in die Geflechte wechselseitiger Beziehungen und Wechselwirkungen, die das Dasein auf unserer Erde zusammenhalten. Nur durch einen grundlegenden Wandel der Lebens- und Konsumbedingungen (insbesondere im Energiebereich) bzw. Änderung bestimmter Lebensstile kann die Erde für die nächsten Generationen bewohnbar bleiben.

Erforderlich ist also, eine Kultur der Achtsamkeit (aus ökologischer Verantwortung) mit einer Kultur der Teilhabe (als demokratische Verantwortung) sowie mit einer Kultur der Verpflichtung gegenüber zukünftigen Generationen (Zukunftsverantwortung) zu verbinden. Ganz wichtig: Der alte Adam, der mit seiner altsteinzeitlichen Gen-Ausstattung ins dritte Jahrtausend stolpert, muss die ihm angeborenen Wahrnehmungsmuster und Lösungsangebote („gesunder Menschenverstand„) immer wieder in Frage stellen und ihnen vor allem dort misstrauen, wo Probleme in ihrer Komplexität oder Reichweite den Nahbereich überschreiten.

Laut dem Popul Vuh, dem heiligen Buch der Quiche-Maya, ging ihr Volk unter, weil die Götter eines Tages nicht mehr mit den Sterblichen zufrieden waren. „Müssen die Menschen sich zu Göttern erheben?“ fragten die wahren Götter und beschlossen, den Maya all ihre Größe zu nehmen und sie nur noch das Nötigste wissen zu lassen. Die letzten Überlebenden der Maya hatten bei der Einwanderung der Spanier die Rodung und den intensiven Ackerbau ihrer Vorfahren aufgegeben und lebten bescheiden – mit der Natur und nicht gegen sie.

Für den Astronauten William Anders von Apollo 8 wurde, als er in der Umlaufbahn des Mondes zurück auf die knapp 400 000 Kilometer entfernte Erdkugel blickte, zum ersten Mal so richtig bewusst, welch unbedeutendes und doch überaus einzigartiges Objekt unser Planet in der Weite des Kosmos ist – und wie behutsam wir damit umgehen müssen.

REM