Der Weg zum Menschen (1)

Die Vormenschen

Wir verdanken unsere Existenz als große denkende Säugetiere vielen zufälligen erdgeschichtlichen Ereignissen, wie auch jeder einzelne Mensch seine persönliche Existenz geschichtlichen Zufällen verdankt. Dabei dürfte das Klima zu den wichtigsten Einflüssen gehört haben. Als am Ende des späten Miozäns das Tethys-Meer vom Atlantik abgeschnitten worden war, führte das zur sog. „Mediterranen Salzkrise“ . Durch den fehlenden Wasseraustausch mit den Weltmeeren und den abgeschnittenen Zufluss vom asiatischen Festland verringerte sich die Wassermenge zwischen Afrika und Europa und große Mengen Salz lagerten sich im trocken fallenden Mittelmeerbecken ab. Diese Salzablagerung dauerte, geologisch gesehen, nur sehr kurze Zeit, vielleicht wenige 100 000 Jahre, bewirkte aber vor acht bis sieben Millionen Jahren eine drastische Klimaveränderung. Die Temperatur auf der Erde sank plötzlich stark ab, um etwa 5°C, und es wurde trockener.

Infolge der großen klimatischen Umschwünge begann in Afrika der tropische Regenwald, der zuvor von West- bis nach Ostafrika gereicht hatte, allmählich zu schrumpfen. In einer breiten östlichen Randzone weitete sich der Urwald nach und nach zu einem Flickenteppich aus einzelnen Baumgruppen aus und es entstand ein mit Flussläufen und Seen durchsetztes Gebiet. Der Druck der neuen Umwelt bewirkte vor etwa sieben bis sechs Millionen Jahren dann nicht nur die Aufspaltung der Stammeslinie in Wollhaar-Mammut und Asiatischem Elefant, sondern leitete auch die Evolution zum Menschen ein. Während dieser Epoche trennten sich bei den Primaten nämlich die Entwicklungsstränge hin zu den heutigen Schimpansen (und Bonobos) bzw. zu den Menschen.

Stammbusch

Die Grundfragen unserer Stammesgeschichte sind heute geklärt und unstrittig, aber wirklich gesicherte detaillierte Erkenntnisse zu unserer Evolution bleiben die Ausnahme. Es liegen zwar Tausende von Fossilien (Schädel, Skelette oder Fragmente davon) vor, die die Entwicklung des Menschen aus menschenaffenartigen Vorfahren überzeugend dokumentieren, aber die Fundlücken sind meistens zu groß, um zweifelsfreie Abstammungslinien zwischen ihnen herstellen zu können. Auf 100, auf 1000 Generationen kommt rein statistisch betrachtet nur ein Fund. Daher vermitteln die fossilen Knochen im Detail bestenfalls eher ein diffuses Abbild dessen, was einst eine äußerst verwickelte Abfolge von Ereignissen gewesen sein muss.

Die mit jedem Fund größer werdende Vielfalt menschenähnlicher Fossilien legt eine schnelle und breite Radiation der Primaten (wie übrigens auch der Pferde) vor etwa sieben bis fünf Millionen Jahren in Ostafrika nahe. Meistens lebten mehrere Homininenarten, die jeweils mehr oder weniger erfolgreich an bestimmte Lebensräume und Klimabedingungen angepasst waren, zugleich. Die früheren Stammbäume mit festen Abstammungszuweisungen sind inzwischen zu einem lockeren, ausladenden Stammbusch mit vielen Verzweigungen und sich auftrennenden, neuen Stammeslinien mutiert. Er umfasste zu jeder Zeit mehrere Arten und geografische Varianten, bei denen es zu ständigen Rekombinationen kam. Die Vielfalt der Übergangsformen war damals wohl so groß, dass es kaum eine genaue Trennlinie zwischen eher affenähnlichen Zweigen unseres Stammbusches und jenen Verästelungen geben kann, die schließlich zum Homo führten.

Die Abgrenzung zwischen den einzelnen Frühmenschenformen, die Bestimmung der Art-Identität und die Bestimmung der genauen Abfolge der Homininen ist sehr schwierig. Gleiche und ähnliche Merkmale deuten nicht zwangsläufig auf eine Abstammungsverwandtschaft hin – nicht einmal dann, wenn die beiden Primaten zu verschiedenen Zeiten lebten. Parallelentwicklungen und Umkehrungen von Merkmalsausprägungen können in die Irre führen. Hinzu kommt, dass wir nicht wissen, wie groß die Variationsbreite im äußeren Erscheinungsbild war, wie die Angehörigen einer Art z. B. in unterschiedlichen Lebensaltern und Geschlechtern aussahen.

Es wäre auch voreilig zu behaupten, dass wir von allen Formen und Arten, die damals existierten, schon Skelette oder Schädel gefunden haben, denn der Bestand der einzelnen Varianten war vermutlich in dieser Zeit sehr dünn und die geologischen und klimatischen Bedingungen zu ungünstig. Weitere Fossilfunde können möglicherweise mehr Übersicht im Detail über unseren Stammbusch verschaffen, aber mit jedem neuen Fossil wird das Bild der Entwicklung zum heutigen Menschen auch immer komplexer.

Während der letzten Jahrzehnte haben sich die wissenschaftlich anerkannten Homininenarten, welche dem Stammbusch des Menschen zugeordnet werden, fast verdoppelt. Unser Wissen ist aber noch viel zu lückenhaft, um eine genaue Einteilung festzulegen. Daher wechseln Artnamen und Artzugehörigkeit bei der Deutung vor- und frühmenschlicher Fossilien häufig, wobei auch das jeweilige Weltbild immer eine Rolle spielt. Letztlich sind die Einordnungen weitgehend hypothetisch und dienen nur der groben Orientierung. Zwei Denkrichtungen haben sich unter den Forschern herausgeschält: die „Splitter“ (von engl. to split = aufteilen) und die „Lumper“ (von engl. to lump together = zusammenwerfen), deren Ergebnisse weit auseinanderklaffen. Während die Splitter über 20 hominine Arten annehmen, gehen extreme Lumper von weitaus weniger Spezies aus; einige schließen sogar Artspaltungen in der eiszeitlichen Homo-Linie aus.

Selektion

Der Rückgang des Regenwaldes zu baumbestandenen Feuchtsavannen erforderte für unsere damaligen Ahnen eine Anpassung an das Leben am Boden, denn die Abstände zwischen den fruchttragenden Bäumen und damit die Wege zu den Hauptnahrungsquellen der damaligen Primaten verlängerten sich. In vielen inselartigen Habitaten und an Waldrändern entstanden zahlreiche zumindest zeitweise aufrecht gehende Vormenschen-Varianten. Der Aufrechtgang könnte eine „Präadaptation“ aus dem Wald gewesen sein, denn wahrscheinlich konnten sich unsere noch schimpansenartigen baumbewohnenden Vorläufer schon aufrichten (z. B., um nach Früchten zu greifen) und auf den Ästen kurzfristig laufen.

Als sich baumlose Lücken im Regenwald auftaten, folgten die bisherigen Baumbewohner bei der Nahrungssuche zwangsläufig ihrem anatomisch vorgegebenen Bewegungsmuster. Der Selektionsdruck auf eine effektive Fortbewegungsart dürfte generell immer besonders groß gewesen sein. Die Selektionskräfte scheinen zuerst die Hinterbeine und das Becken umgebildet zu haben. Auf die Arme und die Schulterpartie sei es zunächst wohl nicht so vordringlich angekommen. Solche Körperteile konnten darum erst später umgebaut werden.

Wenn sich ihre Umweltbedingungen veränderten, fanden intensive Entwicklungsschübe statt. Ein bestimmter Körperbau, eine Ernährungsweise oder eine Art der Fortbewegung, die zu einer Zeit gut passten, waren zu einer anderen womöglich weniger ideal. Wenn die wahrscheinlich sehr kleinen Populationen nach vielen Generationen einer räumlichen Isolation irgendwann wieder aufeinandertrafen, hatten sie Merkmale wie aufrechter Gang, Gehirngröße, Gebiss oder Hände unterschiedlich entwickelt – aber womöglich passten sie biologisch noch gut genug zusammen, um fruchtbare Nachkommen miteinander zu zeugen.

Vormenschen

-Als derzeit vermutlich ältester bekannter Vertreter unter den Vormenschen gilt der Sahelanthropus tschadensis, auch Toumai („Hoffnung auf Leben“) genannt, der vor 7,2 bis 6,8 Millionen Jahren in der Djourab-Wüste im Norden des Tschad lebte. Er besaß schon einen flachen Gesichtsschädel und recht kleine Eckzähne, aber noch ein Gehirn, das typisch für Menschenaffen ist. Daher halten ihn manche Forscher nur für einen gemeinsamen Vorfahren von Menschen und Schimpansen.

-Auch bei Orrorin tugenensis aus Kenia können die Daten nicht eindeutig belegen, ob es sich bei ihm wirklich um einen frühen Vormenschen handelte oder eher um einen Vorfahren der heutigen afrikanischen Menschenaffen oder gar einen Vertreter ausgestorbener Menschenaffenlinien. Seine Fossilien sind etwa sechs Millionen Jahre alt. Er lebte noch vorwiegend auf Bäumen, wo er schon ganz gut zweibeinig stehen und gehen konnte.

Ardipithecus ramidus, von dem man Fossilien aus der Zeit zwischen 5,8 und 4,4 Millionen Jahren fand, zeigt neben archaischen Menschaffenzügen ebenfalls schon Homininenmerkmale, wie z. B. ein menschenähnliches Becken und kleine Eckzähne. Er könnte ein ausgestorbener Seitenast unserer Ahnenreihe sein, aber auch ein früher Vertreter der Australopithecinen (s. u.).

Die Australopithecinen

In der Zeit zwischen sieben und fünf Millionen Jahren vor heute spalteten sich die Australopithecinen in Ostafrika von der äffischen Linie ab. Ihre Vorfahren waren den immer kleiner werdenden Waldregionen gefolgt und hatten immer längere Strecken über den Boden zurücklegen müssen. Die Zahl und Dichte ihrer Funde nahm ab etwa vier Millionen Jahren vor heute entscheidend zu. Zufallsereignisse bis 2,4 Millionen Jahren vor heute (Vulkanismus, afrikanische Dürren, Veränderung der Gezeiten und Vernichtung der Schalentiervorkommen) bewirkten häufige Auslesezyklen und prägten die Entwicklung.

Es kam wohl damals zu einer explosionsartigen Radiation, wofür der ostafrikanische Grabenbruch und der mosaikartige Lebensraum günstige Voraussetzungen schufen. Verschiedene Formen existierten über längere Phasen in zum Teil deutlich unterschiedlichen Habitaten nebeneinander – in Gebieten mit ziemlich dichtem Baumbestand, am Waldrand, in feuchteren seen- und flussreichen Regionen mit entsprechend üppiger Vegetation, in Savannenlandschaften mit Baumbeständen. Manchmal verteilten sie sich wieder über größere Gebiete und vermischten sich mit anderen Populationen.

Bei den frühen Australopithecinen waren die Unterschiede zu den Menschenaffen nur graduell, vor allem in den Merkmalen, die sich auf den Aufrechtgang beziehen. Vor vier bis drei Millionen Jahren war die Umbildung der Hinterextremitäten aber schon sehr weit fortgeschritten. Weil sich damit größere Distanzen bei geringerem Kalorienumsatz überwinden ließen, waren diese Arten in der Lage, ihren Aktionsradius zu erweitern und in diverse Gebiete vorzudringen, die zuvor schwer erreichbar waren. Immer auf der Hut vor Raubtieren und auf der Suche nach neuen Futterquellen mussten auch ihre Sinne geschärft werden. Unsere Fernsicht sollte ein biologisches Erbe aus dieser Zeit sein.

Die Australopithecinen breiteten sich bis nach Südafrika aus. Vermutlich kennen wir nur einen Teil der Arten, die vor allem in Süd- und Ostafrika verbreitet waren, von denen Fossilien aber auch im Tschad, 2500 Kilometer nordwestlich des Ostafrikanischen Grabenbruchs, gefunden wurden. Derzeit unterscheidet man grob zwei Linien: die „grazilen“ Vertreter (u. a. Australopithecus anamensis, afarensis, africanus, garhi) und die „robusten“ (Australopithecus aethiopicus, robustus, boisei).

Die Anpassungen an die Nahrungssuche in Bäumen (Früchte und Blätter) wurden zunächst beibehalten. Vor allem spätere Arten besaßen aber schon breitflächige Backenzähne, was darauf hinweist, dass ein großer Teil ihrer Nahrung auch aus härteren Teilen (Samen, Nüssen, Wurzeln und Baumrinde, vielleicht auch stärkereiche und eiweißreiche Wurzelknollen) bestand, die zermahlt werden mussten. (Auf eine solche Anpassung könnte auch das Verschwinden der Affenlücken -Diastemata – im Gebiss hindeuten, in denen die langen Eckzähne im Ober- und Unterkiefer der Menschenaffen Platz finden.) Der Rückgriff auf die genannten energiereichen Nahrungsmittel war in kühlen und trockenen, wenig fruchtbaren Klimaperioden lebensnotwendig. Außer pflanzlicher hat wohl auch schon tierische Nahrung bei manchen Australopithecinen auf dem Speiseplan gestanden: Würmer. Maden, Käfer, Eidechsen, Vogeleier – vielleicht auch manchmal eine junge Gazelle, die ihre Mutter verloren hatte.

Die Hirngröße der Australopithecinen betrug durchschnittlich 420 bis 600 cm3 und liegt absolut im Variationsbereich der rezenten Menschenaffen, gilt aber bezogen auf das geschätzte Körpergewicht als relativ größer. Sie entsprach jedenfalls dem doppelten Hirnvolumen der damals lebenden Affenarten und blieb bis vor ca. 2,5 Millionen Jahren relativ konstant, trotz der energiereichen Nahrung und überall lauernden Gefahren durch Raubkatzen und Hyänen. Ihre recht stabilen Gruppen aus 10 bis 20 Männchen und Weibchen (mit kleineren Substrukturen) gewährleisteten aber einen recht guten Schutz. Die Sexualdimorphie, also die Körperbauunterschiede zwischen den Geschlechtern, war zum Teil noch stark ausgeprägt. Das Verschwinden der großen Eckzähne könnte eine soziale Umorganisation bedeutet haben, denn große Eckzähne waren vor allem für Drohgebärden gegenüber anderen Männchen da.

Früher Werkzeuggebrauch

Für das allmähliche Zurückweichen der langen Eckzähne könnte aber auch, so glauben manche Forscher, der zunehmende Gebrauch von Werkzeugen mit verantwortlich sein. Nach der Herausbildung eines dauerhaften aufrechten Ganges waren die Hände fortwährend frei geworden und jetzt vielfältig zu gebrauchen, z. B. zum viel besseren Greifen und zum Transportieren von Gegenständen. Es spricht einiges für die Annahme, dass die Australopithecinen schon Knochen, Gehörne oder Äste als Hilfsgeräte verwendeten (z. B. zum Ausgraben von Knollen), was allerdings wegen der geringen Haltbarkeit der Materialien schwer nachzuweisen ist.

Gelegentlich benutzten sie wohl auch schon einen scharfen Stein, um Maden aus der Baumrinde zu kratzen, oder einen größeren Stein, um damit Schalen von Nüssen aufzuschlagen. Das alles aber geschah eher rein zufällig und nicht systematisch. Allerdings fand man in 3,3 Millionen alten Sedimenten aus Lomekwi am Westufer des Turkana-Sees (Kenia) große, unhandliche Steine mit Bearbeitungsspuren, einige davon 15 Kilogramm schwer. Das Rohmaterial für diese Artefakte musste zur Fundstelle gebracht worden sein, von welcher Vormenschen-Art genau, ist noch unklar.

Auch wozu die Steine dienten, kann man noch nicht sagen. Zu ihrer Herstellung hatten die Vormenschen entweder den Kernstein mit beiden Händen gegen einen größeren Ambossstein am Boden geschlagen, oder sie hatten den Kernstein auf einen Amboss gelegt und mit einem Hammerstein draufgeschlagen. Die nächstältesten gefundenen Werkzeuge sind viele hunderttausend Jahre jünger. In Bezug auf die Herstellungstechnik besteht aber keine erkennbare Verbindung zwischen ihnen und den Artefakten aus Lomekwi, zumindest gibt es keine Zeugnisse dafür. Die sogenannte „Lomekwi-Kultur“ scheint also isoliert dazustehen, so als wäre die Neuerung, sich Steine zurechtzuschlagen, kurz aufgeflackert und wieder verloschen, ohne dass die Technologie weitergegeben wurde.

Wahrscheinlich haben wir die Geschicklichkeit der Vormenschen unterschätzt. Lange glaubten die Paläoanthropologen, dass allein der Mensch (Homo) in der Lage war, Gestein oder anderes sehr hartes Material für seine Zwecke zu bearbeiten. Mittlerweile scheint sich aber der Verdacht zu bestätigen, dass bei den Homininen, vielleicht sogar auch bei anderen Primaten, etliche Populationen mit der Herstellung von Steinwerkzeugen oder auch nur mit dem Bearbeiten von Steinen herumprobierten – ohne Austausch zu anderen. Die Erfahrungen wurden nicht an spätere Generationen weitergegeben, so dass die Erfindungen wieder untergingen, da sie zunächst auch wohl keine große Rolle für eine Umweltanpassung spielten.

[Der Gebrauch und die Herstellung von Werkzeugen gehören nach neuesten Erkenntnissen auch zu den potenziellen Fähigkeiten einiger Menschenaffen. Der Werkzeuggebrauch bezieht sich vorwiegend auf Holzwerkzeuge, aber in einigen Kulturen werden auch Steinhämmer benutzt. So pflegen Gruppen von Schimpansen in Bossou / Guinea große Nüsse mit Steinen aufzuschlagen. Im Urwald der Elfenbeinküste benutzen die Schimpansen für die härteren Panda-Nüsse geeignete Hammersteine und einen Steinamboss. Der Archäologe Nicholas Toth von der Indiana-University lehrte in Gefangenschaft lebenden Bonobos („Kanzi“), von Steinen scharfe Abschläge (Klingen) zu machen und damit Seile zu durchtrennen. Er glaubt, dass Bonobos auch lernen würden, Artefakte wie die von Lomekwi herzustellen, wenn man ihnen die passenden Steine dafür geben würde.

Kleine Kapuzineraffen zerschlagen mit Hammersteinen Felsblöcke, um den dabei erzeugten Quarzstaub auflecken oder durch die Nase einsaugen zu können. Die Gesteinssplitter ähneln unverkennbar den abgeschlagenen Steinen, die man von manchen Fundstätten der Menschenvorfahren kennt. Es ist der erstmalige Nachweis, dass nichtmenschliche Primaten absichtlich Steine zerbrochen und scharfkantige Splitter hinterlassen haben.]

Fazit

Die Australopithecinen scheinen die basale Gattung bei der Menschwerdung gewesen zu sein. In einem anderen Szenario bilden die Australopithecinen lediglich einen Ast des menschlichen Stammbaums, der ausgestorben ist, während ein weiterer Ast auf Orrorin (s. o.) zurückgeführt wird. Die meisten Paläontologen sehen aber in dem grazilen Australopithecus afarensis („Lucy“) einen der direkten Vorfahren der Gattung Homo, oder zumindest einen ihr nahestehenden Verwandten. Er starb vor knapp drei Millionen Jahren aus, als in den nördlichen Breiten die Eiszeiten einsetzten und es in Afrika zunehmend kälter und trockener wurde. Wieder einmal sollte sich das Klima zur treibenden Kraft bei der Menschwerdung erweisen.

REM

Der Eiszeitzyklus (2) – Letzte Eiszeit und Holozän –

Die letzte Eiszeit

Die letzte Eiszeit begann vor ungefähr 115 000 Jahren und endete vor circa 11 700 Jahren. Der Übergang zu ihr vollzog sich nach erdgeschichtlichen Maßstäben sehr rasch; in drei Wellen rückten die Gletscher vor und zogen sich wieder zurück. Das Klimasystem der Erde befand sich in dieser Zeit offenbar in einem labilen Zustand. Abrupte Wechsel mit mehrfachem Umspringen der Temperaturen binnen drei Jahren um bis zu 7 Grad Celsius wurden gemessen.

Dann kam es zu einer Abkühlung des Klimas auf der ganzen Erde, verbunden mit weiträumigen Vergletscherungen und dem Absinken des Meeresspiegels. Vor 74 000 Jahren führte der letzte Ausbruch des Supervulkans Toba auf Sumatra zu einer dramatischen Klimaänderung mit einer weiteren Abkühlung. Nach dieser Kälteperiode begann sich das Klima vor etwa 60 000 Jahren wieder leicht zu erwärmen. Schließlich folgte eine noch stärkere Abkühlung vor 24 000 Jahren, als das Maximum der letzten Eiszeit begann.

In der Zeit vor 100 000 bis 20 000 Jahren traten in der nördlichen Hemisphäre etwa zwei Dutzend Interstadiale auf, in denen die allgemein vorherrschende Kälte von einem plötzlichen Temperaturanstieg von 6 bis 10 Grad innerhalb von 10 Jahren unterbrochen wurde. Nach der Erwärmung gab es eine leichte Abkühlung über einige Jahrhunderte, bevor die Temperatur abrupt wieder auf das eiszeitliche Niveau absackte und eine Phase extremer Kälte folgte. Auffallend ist die Regelmäßigkeit der Klimaänderungen. Die Sprünge erfolgten in Zyklen, die nach ihren Entdeckern Dansgaard-Oeschger-Zyklen (DO-Zyklen) genannt werden. Sie traten meist im Abstand von 1500 Jahren auf, manchmal lagen aber auch 3000 oder 4500 Jahre zwischen zwei solcher Ereignisse. In der Kreidezeit (vor 130 bis 65 Millionen Jahren) hatte es auch schon kurzfristige Klimaschwankungen gegeben, die den Dansgaard-Oeschger-Zyklen entsprechen.

Interessanterweise hatten die DO-Ereignisse in nördlichen Breiten der Erde Gegenstücke in der Antarktis, aber mit entgegengesetztem Verlauf: Während der Kältephasen in Grönland stieg am Südpol die Temperatur langsam an, erreichte ein Maximum und fiel während der warmen Episoden im Norden allmählich wieder ab. Der Umschwung am Südpol erfolgte stets durchschnittlich 208 Jahre nach dem im Norden. Das bestätigt die alte Vermutung, wonach der Norden jeweils den Anfang machte und die Trendwende im Süden nach sich zog. Der riesige Südozean mit seiner enormen Wärmekapazität reagierte eben nur verzögert auf das Temperatursignal aus dem Norden.

Über die genauen Ursachen des abrupten Klimawechsels gibt es verschiedene Theorien, aber noch keinen Konsens. Wahrscheinlich waren es letztlich sprunghafte Änderungen der Meeresströme im Atlantik, die die Klimaänderung im Norden bewirkten, ausgelöst durch Veränderungen in der Süßwasserzufuhr, in der Meereisbedeckung oder in der Ausdehnung von Eisschelfen, die allesamt die Bildung von Tiefenwasser im Norden oder Süden beeinflussen können. Kältephasen in der Arktis entsprechen Perioden mit abgeschwächter Meereszirkulation, in denen sich im Gegenzug die Antarktis erwärmte. Eine verstärkte Meereszirkulation transportiert wieder mehr Wärme vom Südmeer in den Norden.

Diese Hypothese stützt sich auf die Existenz der großräumigen Wasserzirkulation im Atlantik. Diese führt als eine Art Umwälzpumpe warmes Oberflächenwasser von der Südhalbkugel nach Norden. Weil es dabei allmählich abkühlt und sein Salzgehalt auf Grund von Verdunstung steigt, nimmt seine Dichte stetig zu, bis es am Rand der Arktis schließlich absinkt. Am Meeresgrund strömt es dann als nordatlantisches Tiefenwasser nach Süden zurück. Verstärkt sich diese Zirkulation, steigen die Temperaturen im Norden, während sie im Süden fallen. Das Gegenteil passiert, wenn sie sich abschwächt. Ein umfassendes Verständnis der Klimakopplung zwischen den Hemisphären steht aber weiterhin aus.

Eiszeitliches Maximum

Vor 24 000 Jahren folgte wieder eine Periode sehr starker Abkühlung, die ihren Höhepunkt vor 21 000 Jahren, dem glazialen Maximum, hatte. Die Temperaturen sanken im Winter auf minus 20°C ab, Eiskappen mit über 3,5 Kilometern Dicke bedeckten Kanada und Nordeuropa. Der Columbia River mündet heute dort in den Pazifik, wo einst das südliche Ende des kontinentalen Eispanzers lag. Die Eisdecken überspannten auch die Nordmeere einschließlich der Inseln Grönland und Island. In Nordeuropa reichten die Gletscherzungen bis nach Irland, in den Hamburger Raum und über Berlin hinaus, nicht ganz so weit, wie in den beiden vorangegangenen Eiszeiten.

Weltweit waren etwa 30% aller Landflächen von Gletschern bedeckt; heute sind es nur noch 10%, hauptsächlich in der Antarktis und auf Grönland. Weil das Eis riesige Mengen Wasser band, sank der Meeresspiegel mehr als 100 Meter unter den heutigen Wert. Entlang der Küsten dehnte sich Festland aus – so z. B. zwischen dem europäischen Kontinent und den Britischen Inseln. Zum asiatischen Kontinent gehörten damals die heutigen südostasiatischen Inseln Sumatra und Borneo, Neuguinea gehörte zu Australien. Die Beringstraße bildete eine Landbrücke von Asien (Sibirien) nach Alaska. Auch der Grundwasserspiegel auf dem Festland musste erheblich gefallen sein – Ostafrikas riesiger Victoria-See war zeitweilig völlig ausgetrocknet. An den Küsten des Roten Meeres entstanden Neulandflächen, in denen überall Süßwasserquellen entsprangen.

Die Atmosphäre war so trocken, dass es kaum regnete oder schneite. Überall auf den Kontinenten breiteten sich Wüsten aus. Daneben gab es baumlose Tundra und trockene Steppenlandschaften. Die Atmosphäre enthielt weniger Treibhausgase (30 bis 40% weniger Kohlenstoffdioxid und 50% weniger Methan) als in der heutigen Warmzeit. Allerdings lag die mittlere Lufttemperatur auf der Erde nur etwa 6 Grad Celsius unter dem heutigen Wert. Denn nicht überall sanken die Temperaturen gleich stark: Die Abkühlung erfasste vor allem den Nordatlantik-Raum und Japan; in den Tropen und auf der Südhalbkugel war sie geringer. Demzufolge hat eine Abkühlung des Planeten von wenigen Grad bereits dramatische Folgen, die von Region zu Region stark variieren können.

Die Wende

Klimaarchive in Südamerika und der Antarktis deuten darauf hin, dass das große Tauen am Ende der letzten Eiszeit auf der Südhalbkugel früher einsetzte als im Norden. Den Anstoß zur Erwärmung gab wohl eine geringe Änderung der Menge und Verteilung der Sonneneinstrahlung auf der Erdoberfläche, die mit Schwankungen der Erdbahn zusammenhing. Vermutlich über die ozeanische Zirkulation wurde die Erwärmung an den Norden weitergegeben und befreite schließlich auch Europa und Nordamerika aus dem Griff des Eises.

Nach den sogenannten Milankovic-Zyklen, die Klimaschwankungen mit Änderungen der Erdbahnparameter in Verbindung bringen, sind die Übergänge zwischen Kalt- und Warmzeiten eher gemächlich. Am Ende des letzten Glazials schrumpften die mächtigen Eisschilde allerdings zeitweise ungewöhnlich rasch – in einer Schmelzphase vor ungefähr 17 700 Jahren in vielen Regionen der Südhemisphäre nahezu zeitgleich. Parallel dazu stieg der Gehalt der Treibhausgase Kohlenstoffdioxid und Methan in der Atmosphäre rasch an. Vulkanausbrüche, zunächst auf der Südhalbkugel, könnten die Geschwindigkeit des Eisrückgangs schubweise beschleunigt haben. Einer der in Frage kommenden Vulkane könnte der Mount Takahe, ein Schildvulkan in der Antarktis, gewesen sein, von dessen Aktivität vor knapp 18 000 Jahren man Hinweise gefunden hat.

Vulkaneruptionen wirken sich in der Regel nicht linear auf das Klima aus; sie können das Klima sowohl aufheizen als auch abkühlen. Eine Erklärung für eine Aufheizung könnte gewesen sein, dass die Vulkanausbrüche ein Ozonloch über der Antarktis erzeugten, welches das Klima großräumig veränderte und so die Gletscherschmelze auf der Südhalbkugel beschleunigte. In Regionen wie Patagonien und Neuseeland nahmen vermutlich zur gleichen Zeit die Schneefälle ab, so dass die Gletscher dort im Eiltempo schrumpften.

Vor etwa 16 000 Jahren begann die Erwärmung der Nordhalbkugel. Die Gletscher in Nordamerika und Europa wichen auf breiter Front zurück. Nach Studien könnten auch auf der Nordhalbkugel Vulkanausbrüche (überwiegend auf Island) das Tauwetter schubweise verstärkt haben. Die vulkanische Aktivität der Insel war am Ende der letzten Kaltzeit rund 50mal so groß wie heute. Möglicherweise lösten bereits schmelzende Eismassen selbst diesen intensiven Vulkanismus aus: Der abnehmende Druck der Gletscherdecke konnte es dem Magma erleichtert haben, zur Erdoberfläche aufzusteigen.

Als sich durch das schmelzende Eis die Dichteverhältnisse der Wassermassen im Südmeer veränderten, entstand eine Strömung, die entlang der südamerikanischen Küste nordwärts in die Karibik führte, wobei sich das Wetter erwärmte. Gleichzeitig verstärkte sich der warme und sehr salzhaltige Agulhas-Strom, der aus dem Indischen Ozean um das Kap der Guten Hoffnung in Richtung Brasilien floss. (Dieser Weg war zuvor durch Eismassen blockiert.) Beide Strömungen erreichten den hohen Norden, wo 1000 Jahre später das jetzt salzigere Wasser des Nordatlantik die in den Tropen gespeicherte Wärme abgab und in die Tiefe sank, wo es nach Süden abfloss. Im Gegenzug wurde an der Oberfläche warmes Wasser aus dem Süden angesaugt – der Golfstrom war „in Gang gesetzt“ (etwa 14 700 Jahre vor heute).

Die Niederschläge fielen jetzt reichlicher, die Temperaturen stiegen. Die offene Tundra verschwand zunehmend, Bäume wanderten ein und der Meeresspiegel stieg.

Rasche Wechsel von Kalt- und Warmzeiten prägten das Klima am Ende der letzten Eiszeit. In Grönland wurden Temperaturschwankungen um 10 bis 15°C festgestellt – und das innerhalb von 20 Jahren. Die traditionelle Theorie von Veränderungen der irdischen Umlaufbahn um die Sonne konnte nicht die Erklärung dafür sein. Diese waren viel zu langsam. Ausgeprägte Schmelzintervalle stimmen dagegen oftmals zeitlich mit Vulkanausbrüchen überein.

Schließlich stand die atlantische Klimapumpe plötzlich still. Die derzeit favorisierte Theorie besagt, dass Gletscherbarrieren immense Mengen von Schmelzwasser u. a. dort, wo in Nordamerika heute die Großen Seen liegen, angestaut hatten. Als sich das Eis weiter zurückzog, bahnten sich die gewaltigen Mengen Süßwasser ihren Weg in den Atlantik und schoben sich wie ein Deckmantel über das wärmere Salzwasser des Ozeans, das dadurch nicht mehr absinken konnte. Das brachte das Golfstromsystem wieder zum Erliegen.

Es kam auf der Nordhalbkugel zu einem Temperatursturz um fast 10°C. Für mehr als 1000 Jahre – von etwa 12 730 bis 11 700 v. h. – herrschten in Europa und im Nahen Osten wieder fast eiszeitliche Verhältnisse. In Nordafrika gab es eine Trockenperiode. Gletscher und Permafrostböden breiteten sich wieder aus, zeitweise eroberten Steppen Gebiete zurück, Wälder überdauerten nur an geschützten Standorten, bis schließlich vor 11 690 Jahren die bis heute andauernde Warmzeit, das Holozän, begann.

Das Holozän

Der Begriff „Holozän“ stammt aus dem Griechischen und bedeutet „das völlig Neue“. Noch einmal gab es einen großen Kälterückfall auf der Nordhalbkugel (vor 10 970 bis 10 200 Jahren). Die im grönländischen Eis versiegelten Daten zeigen einen Klimasturz um fast 10°C innerhalb eines Jahrzehnts, eine erneute Klimakatastrophe. Das plötzliche Absinken der Temperaturen hatte Auswirkungen auf Regionen des gesamten Erdballs.

Vor gut 10 000 Jahren fand dann wieder eine großklimatische Umstellung statt. Das trocken-kalte Klima wich einem warm-feuchten. Die Erwärmung lief in kurzen, schnellen, dramatischen Schritten ab. Temperatursprünge erfolgten zunächst in einem Hin und Her, als wäre das Klima noch unschlüssig, in welche Richtung es sich bewegen soll. Die Klimaschwankungen waren überwiegend die Folge der Veränderung der Sonnenaktivität und des zum Teil sehr unterschiedlichen Vulkanismus. Deren Effekt war aber zu gering, um den folgenden globalen Temperaturanstieg bis vor 6500 Jahren insgesamt zu erklären. Er war wohl eine Reaktion auf die zurückweichenden Eisschilde. Treibhausgase, vor allem Kohlenstoffdioxid, dürften nach Meinung vieler Forscher als entscheidende Verstärker gewirkt haben.

Nach Tausenden Jahren extremer Trockenheit ergrünten auch die Ebenen der östlichen Sahara. Diese war bereits vor rund sieben Millionen Jahren entstanden, als durch die Schrumpfung des Mittelmeervorläufers Tethys weniger Meeresluft das Land erreichte. Dadurch regnete es im Norden Afrikas weniger – und die Wüste wuchs. Anscheinend aber gab es seitdem mehrere Phasen mit einem deutlich feuchteren Klima, in denen selbst in der Sahara Bäume wuchsen.

So hatten auch vor 10 000 Jahren die Niederschläge durch die Verstärkung des afrikanischen Monsuns zugenommen. Es bildeten sich Flüsse und Seen, deren Wasserstände vor etwa 10 000 bis 8000 Jahren ihr Optimum erreichten. Der Grundwasserspiegel stieg – gute Voraussetzungen für Leben. 10 000 bis 6000 Jahre alte Felszeichnungen von schwimmenden Menschen und Großtieren im Süden Ägyptens und im Sudan bezeugen, dass damals eine feuchte Savannenlandschaft den Norden Afrikas prägte. Vor rund 7000 Jahren gingen die Niederschläge zunächst allmählich zurück. Wegen des nichtlinearen Zusammenspiels von Regen und Vegetation kehrte die Trockenheit und damit die Wüstenbildung in Nordafrika langsam zurück.

Durch diesen großen Klimawechsel im ansonsten ruhigen Holozän wandelte sich die Sahara vor ungefähr 5000 Jahren zunächst allmählich, erst vor etwa 4000 Jahren abrupt innerhalb weniger Jahrhunderte, von einer besiedelten Savanne mit zahlreichen Seen in jene Stein-, Salz- und Sandwüste, die sie heute noch ist. Ein Teil der Menschen, die vorher hier gelebt hatten, zog nach Süden in den heutigen Sudan, ein anderer Teil ins Niltal, wo sie vielleicht sogar zur Urzelle der pharaonischen Kultur wurden.

Der anhaltende Temperaturanstieg in den letzten 6500 Jahren geht wohl auf wachsende Treibhausgaskonzentrationen infolge der „Erfindung“ der Landwirtschaft zurück. Vor allem seit der Einführung bedeutender landwirtschaftlicher Neuerungen – allen voran Rodung und Reisbewässerung – zeigte die Konzentrationskurve bei Kohlenstoffdioxid und Methan in der Atmosphäre beständig nach oben. Dadurch wurde ein natürlicher Abkühlungstrend, verursacht durch die orbitalen Zyklen der Erde (speziell in hohen nördlichen Breiten), weitgehend kompensiert und der Planet um durchschnittlich fast 0,8 Grad Celsius aufgeheizt – das ist mehr als die 0,6 Grad Celsius, die im 20. Jahrhundert auf Grund der raschen Industrialisierung hinzukamen. Als logische Folge der Erwärmung trug auch die Entgasung aus den Meeren zum Anstieg der Kohlenstoffdioxid-Konzentration in der Luft bei. Meeresgeologen nehmen an, dass sich zudem Freisetzungen von Methanhydraten vor der norwegischen Küste ereigneten. Die großen Eisdecken zogen sich in den folgenden 2000 Jahren auf ihre jetzige Ausdehnung zurück.

Während der letzten 1200 Jahre gab es keineswegs ein stabiles Klima, sondern wiederholt kurzfristige Klimaschwankungen. Um das Jahr 800 herrschten etwa dieselben Klimabedingungen wie im späten 18. Jahrhundert. Es begann die mittelalterliche Warmphase (bis etwa 1200 n.Chr.), in der eine aktivere Sonne die Temperaturen ansteigen ließ. Im 10. Jahrhundert wurde z. B. im Süden Englands Wein angebaut. Grönland wurde zur gleichen Zeit wegen seines milden Klimas von den Wikingern besiedelt, weil ihnen Island zu unwirtlich war. In den Alpen waren die Gletscher fast vollständig verschwunden, in Skandinavien gab es gar keine mehr. Die Epoche milden Klimas war allerdings sehr kurz, so dass wenig später die Gletscher wieder vordrangen.

In der Kleinen Eiszeit, die im 15. Jahrhundert vor allem im zentralen und östlichen Pazifik stattfand, im 17. Jahrhundert in Europa und Teilen Nordamerikas, sanken die Temperaturen stark ab. Extrem kalte Winter ließen damals die Flüsse zufrieren. Das Meer zwischen Dänemark und Schweden war zugefroren; Alpengletscher heute kaum noch vorstellbaren Ausmaßes traten auf. Die Kälte, vor allem nasskalte Sommer, brachte für die Menschen große Ernteausfälle und Hungersnöte. Mit der deutlichen Klimaveränderung in Europa deckt sich eine große Dürre in Nordamerika am Ende des 16. Jahrhunderts. In einigen Regionen dauerte sie 10 oder sogar bis zu 20 Jahre.

Das Phänomen der Kleinen Eiszeit beruhte möglicherweise zu einem großen Teil auf einer verminderten Sonnenaktivität; damals verschwanden fast alle Sonnenflecken. Verstärkt wurde der Trend durch starke vulkanische Aktivität, wodurch die Atmosphäre zusätzlich eingetrübt und die Einstrahlung behindert wurde. Dies setzte einen abkühlenden Faktor obendrauf. Einige Wissenschaftler vermuten, dass die ozeanische Zirkulation im Nordatlantik eine wichtige Rolle spielte.

Während in der vorindustriellen Zeit, also bis ca. 1800, vor allem schwankende Sonnenaktivitäten und vulkanische Eruptionen ganz wesentlich über Klimaänderungen entschieden, hat sich das seit der Industrialisierung jedoch geändert. Heute resultieren die Durchschnittstemperaturen zunehmend aus der menschengemachten Freisetzung von Treibhausgasen.

Klima heute

Die aktuelle globale, menschengemachte Erwärmung ist einzigartig. So warm wie heute war das globale Klima letztmals vor 128 000 Jahren zu Beginn der letzten Warmzeit. Ein Großteil der Erwärmung fand nach 1950 statt. Die Zeitspanne von 2015 bis 2019 war der wärmste jemals gemessene Fünfjahreszeitraum und die Zeitspanne zwischen 2010 und 2019 das wärmste jemals erfasste Jahrzehnt, teilte die Weltwetterorganisation der UN mit.

Unser Planet wäre, so ergeben Simulationen, fast zwei Grad Celsius kühler, als er tatsächlich ist. Die Temperaturen in den nördlichen Teilen Nordamerikas und Europas lägen ohne die überraschenden Knicks in den Konzentrationskurven der Treibhausgase Kohlenstoffdioxid und Methan heute sogar um drei bis vier Grad Celsius niedriger. Vielleicht hätten sich in Teilen Nordostkanadas schon vor einigen tausend Jahren kleine Eisschilde gebildet. Stattdessen blieb das Klima seit Beginn der jetzigen Warmzeit, dem Holozän, weltweit warm und stabil, jedenfalls im Vergleich zu den vorhergehenden 10 000 Jahren.

Wir befänden uns also schon gut und gern auf halbem Weg zur nächsten Eiszeit, hätten nicht jahrtausendelange landwirtschaftliche Aktivitäten und die spätere Industrialisierung über die Treibhausgase gegengesteuert.

REM

Das Rätsel der Materie

Schon im alten Griechenland stellten sich die Philosophen die Frage, was denn dieser Stoff, aus dem die Welt besteht, sei. So glaubte Thales von Milet, dass alle materiellen Stoffe Aspekte des Urstoffes Wasser seien, für Anaximander war es die Luft, für Heraklit das Feuer. Andere wiederum vermuteten die Erde als Urstoff. Aus diesen Annahmen entwickelte sich die Vier-Elemente-Theorie, die einen kontinuierlichen, alles umfassenden Urstoff, bestehend aus den vier Elementen Feuer, Wasser, Erde und Luft, postuliert. Diesen entsprechen die vier Zustände der Materie: fest, flüssig, gasförmig und Plasma.

Die Anhänger einer konkurrierenden Denkschule im antiken Griechenland, die Atomisten, vertraten hingegen die Position, dass die gesamte Natur aus elementaren, kleinsten und unteilbaren Teilchen bestehe. Demokrit, ein Schüler des Naturphilosophen Leukipp, nannte sie Atome (nach griechisch: atomos = unteilbar) und wurde zum Begründer der Atomtheorie. Wie andere griechische Materialisten sah er in der Materie das Unveränderliche und Grundlegende gegeben: „Nur scheinbar ist ein Süß oder Bitter, nur scheinbar hat es Farbe; in Wirklichkeit gibt es nur Atome und den leeren Raum.“ Im 19. Jahrhundert lieferte die chemische Forschung immer stärkere Argumente für die Atomtheorie Demokrits.

Das Atom

Die traditionelle Sichtweise konstatiert, dass Materie aus kleinen Grundbausteinen, Atomen und Molekülen, besteht. Jedes Atom sollte jeweils eine bestimmte Masse und Größe haben und sich bei chemischen Umwandlungen nicht verändern (Konstanz). Ein typisches Atom besitzt einen Durchmesser von einem Hundertmillionstel Zentimeter (10-8 cm).

Ende des 19. Jahrhunderts entdeckte man, dass das Atom nicht fundamental ist, sondern offenbar aus einer positiv geladenen Masse im Kern und einer negativ geladenen Hülle besteht. Ernest Rutherford schlug 1910 ein „planetares“ Modell des Atoms vor: Ein Atomkern, der aus positiv geladenen Protonen und (außer beim Wasserstoff) ungeladenen, also elektrisch neutralen Neutronen besteht, und einer Hülle mit negativ geladenen Elektronen. Da die Anzahl der Protonen und Elektronen in einem Atom normalerweise immer jeweils gleich ist, ist ein Atom insgesamt elektrisch neutral. Beide, Protonen und Elektronen, bestimmen die Form des Atoms, seine weiteren chemischen Eigenschaften, seine Dynamik.

Die starke Kernkraft verhindert, dass die Kernteilchen (Nukleonen) – also Protonen und Neutronen – entgegen der abstoßenden elektrischen Kraft der positiv geladenen Protonen auseinander fliegen und ermöglicht so stabile Atomkerne. Deren Durchmesser ist mehr als 20 000- bis 150 000-mal kleiner als der der Elektronenhülle. Anschaulich dargestellt: Hätte das Atom die Größe eines Golfplatzes (80 Hektar), wäre der Kern ungefähr so groß wie eines seiner Löcher (knapp 11 Zentimeter). Aber in diesem winzigen Atomkern sind mehr als 99% der Masse des gesamten Atoms konzentriert.

Nach der Entdeckung des Elektrons (1897), des Protons (1917) und des Neutrons (1932) schien der Aufbau der Materie verstanden. Für die Alltagswelt gilt dies auch annäherungsweise.

Bau der Nukleonen

In den 1960er Jahren glaubten noch viele Physiker, die Bausteine des Atomkerns (Nukleonen) seien so etwas wie kleine Kügelchen, durch und durch mit derselben Materie angefüllt. Murray Gell-Mann und George Zweig postulierten als Erste, dass sie aus noch fundamentaleren Partikeln aufgebaut sind und über ein äußerst komplexes Innenleben verfügen. Die Quantenchromodynamik (QCD) erklärt heute den Aufbau der Atombestandteile sowie die Kräfte (Wechselwirkungen) zwischen ihnen.

In einem Proton oder Neutron befinden sich demnach jeweils drei Massekonzentrationen, die als Quarks bezeichnet werden. Das Proton enthält zwei u- und ein d-Quark (uud), das Neutron zwei d- und ein u-Quark (ddu), die normalerweise ständig im Inneren der Kernteilchen eingeschlossen sind. Diese Quarks heißen Valenzquarks, da sie den Teilchen ihre äußeren Eigenschaften wie Teilchenart und Ladung verleihen. Andere, schwerere Quarks sind am Aufbau unserer Welt, der „normalen“ Materie, praktisch nicht beteiligt und haben nur subtile Rückwirkungen auf das physikalische Verhalten der u- und d-Quarks.

Quarks verhalten sich wie punktförmige Objekte – in dieser Beziehung ähneln sie den Elektronen (s. u.) – und sind auf jeden Fall kleiner als ein Tausendstel, manchen Messungen zufolge sogar kleiner als 0,2 Tausendstel der Protonengröße. Sie sind also sehr, sehr winzig – vielleicht haben sie sogar eine Ausdehnung von null, dem experimentell nichts widerspricht. Ihr Abstand voneinander in einem Kernteilchen beträgt etwa ein Femtometer (10-13 Zentimeter). Entfernen sich die Quarks voneinander, so beginnen sie sich anzuziehen. Es ist so, als seien sie durch ein unsichtbares Gummiband verbunden, das ein zu starkes Auseinanderdriften verhindert, und das erschlafft, wenn Quarks eng beisammen sind. Der einzige Weg Quarks zu trennen, erfordert Energien, wie sie nur kurz nach dem Urknall herrschten und heute fast nur noch im Inneren von Neutronensternen zu finden sind.

Die Elektronen sind unendlich kleine Massepunkte, mindestens tausendmal so klein wie ein Atomkern – und der ist bekanntlich schon zehntausendmal so klein wie ein Atom. Sie liefern den kleinen Rest für die Masse des Atomkerns (weniger als 1%). Die Elektronen gehorchen, wie auch die Quarks, dem sogenannten Pauli-Prinzip, das besagt, dass sich diese Teilchen nicht weiter verdichten lassen. Sie „kreisen“ in festen Schalen (und nicht beliebig) um den Atomkern. In jeder Schale, die jeweils durch eine bestimmte Energie gekennzeichnet ist, findet nur eine bestimmte Anzahl Elektronen Platz. (Die relativ schwache elektromagnetische Kraft hält sie auf ihrem Energieniveau.)

Die Größe eines Atoms wird also durch seine Elektronenhülle festgelegt. Erst durch den Abstand der Schalen vom Atomkern werden die Atome so „riesenhaft“, verglichen mit der Größe des Kerns. Der leere Raum, in dem die Elektronen herumwirbeln, ist ungefähr eine Billion Mal so groß wie dessen Rauminhalt. Diese durch das Pauli’sche Ausschließungsgesetz erzwungene universelle Größe der Atome bringt ein wesentliches Element der Stabilität in die Natur ein. Ohne dieses gäbe es keine chemischen Elemente, keine Materie, wie wir sie kennen.

Im theoretischen Bild sind Elektronen und Quarks keine kleinen Kugeln mehr, sondern mathematische Punkte, die mit Kraftfeldern ausgestattet sind. Sie beanspruchen nach keiner Richtung hin Raum, entfalten aber ihren Einfluss innerhalb der mit ihnen verknüpften Kraftfelder. (Dass es Teilchen ohne Rauminhalt gibt, wird sich nie beweisen lassen, denn es wird niemals möglich sein, ein Teilchen von der Größe Null zu messen.)

Zumindest bis zu einer Grenze von etwa 10-16 Zentimeter sind Quarks wie die Elektronen strukturlos. Vielleicht aber bestehen diese im Standardmodell als punktförmig und unteilbar geltenden Teilchen aus noch kleineren Komponenten. Forscher haben schon zahlreiche Vorschläge für hypothetische Teilchen gemacht, aus denen sie zusammengesetzt sein könnten. Sie tragen unterschiedliche Namen, werden aber alle unter dem Begriff Preonen zusammengefasst. Falls diese Vermutung zutrifft, wäre das heutige Standardmodell der Elementarteilchentheorie in Frage gestellt. (Aber auch die Preonenmodelle haben ihre Probleme.)

Das Standardmodell der Teilchenphysik, die umfassende Theorie über die fundamentalen Eigenschaften der Materie, erklärt nicht nur die Fermionen Elektron, Proton und Neutron, also die Atombausteine, sondern auch die zwischen ihnen wirkenden Naturkräfte (Wechselwirkungen). Für diese ist ein fundamental anderer Teilchentyp, die so genannten Bosonen, zuständig. Diese vermitteln die Kräfte zwischen den Materiepartikeln bzw. Bausteinen der Materie, indem sie, bildlich gesprochen, zwischen den Fermionen hin- und herflitzen. Ohne sie wäre die Welt nur eine ungeordnete Ansammlung von Materiekrümeln. Erst die Kräfte geben der Welt ihre Gestalt und bestimmen, wie sich die Materieteilchen miteinander verbinden und wie sie sich durch den Raum bewegen. Photonen beispielsweise sind die Überträger der elektromagnetischen Kraft, die Gluonen („Klebeteilchen“ – von engl.: glue = Leim) die der starken Wechselwirkung, die ja die Quarks in den Nukleonen gewissermaßen zusammenklebt.

Die Grundlage der uns wohlvertrauten („gewöhnlichen“) Materie, aus der auch wir selbst zusammengesetzt sind, bilden also die leichten Up- und Down-Quarks sowie die leichten Elektronen. Dazu kommen in unserer Alltagswelt noch Gluon, Photon und das Higgs-Boson (s. u.) vor.

Quarksee

Protonen und Neutronen sind aber keineswegs die einfachen Systeme aus drei Quarks, sondern weitaus komplexer. Um das Trio wabert ein See aus kurzlebigen Quark-Antiquark-Paaren, die ständig gewissermaßen aus dem Nichts entstehen und Gluonen austauschen und nach winzigen Bruchteilen von Sekunden gleich wieder verschwinden. Diese Quantenfluktuationen kann man sich wie ein ununterbrochenes submikroskopisches Feuerwerk vorstellen. Das Vakuum „bebt“. Erst wenn die Physiker einen „Filter“ aufsetzen, der das kurzlebige Werden und Vergehen ausblendet, erkennen sie im Proton das einfache Bild von drei stabilen Quarks.

Ein Vakuum ist für Physiker kein völlig leerer Raum und lässt sich auch nicht erzeugen. Selbst wenn man alle Materie entfernt, verfügt er immer noch über eine gewisse Energiedichte. Physiker verstehen unter einem „Vakuumzustand“ daher den Zustand niedrigster Energie eines Systems. Die Energie des Vakuums wird repräsentiert durch virtuelle Teilchen („virtuell“ im Sinne von „möglicherweise vorhanden“), die spontan ständig als Teilchen-Antiteilchen-Paare entstehen und wieder verschwinden (Fluktuationen). Ihnen steht nicht genügend Energie zur Verfügung, um als reale Teilchen in Erscheinung zu treten. Das Vakuum, so sagt man, verleiht Energie – viel für kurze, wenig für lange Zeit. Da die virtuellen Teilchen nur für den Bruchteil einer Sekunde existieren, widerspricht dies nicht dem Energiesatz bzw. dem Impulserhaltungssatz der klassischen Physik, der die Entstehung von Materie und Energie aus dem Nichts verbietet. In der Quantenmechanik muss nämlich die Energieerhaltung nicht für begrenzte Zeitintervalle, sondern nur über längere Zeiträume gelten.

Protonen und Neutronen sind also eigentlich eine klumpige, brodelnde Suppe aus realen und virtuellen Quarks (Seequarks) und ihren Antiteilchen sowie Gluonen, die die starke Kernkraft zwischen ihnen vermitteln. Rechnerisch beschreibt man die Nukleonen darum im Rahmen des Konstituenten-Quark-Modells, in dem alle diese Teilchen samt ihren Einflüssen zusammengefasst werden. Die Masse der drei Valenzquarks ist für die Masse der Neutronen und Protonen und für die gesamte Atommasse fast vernachlässigbar. Diese ergibt sich vor allem aus der enorm starken Bindungsenergie, aus der somit stammt fast die gesamte Masse der uns vertrauten Materie um uns herum stammt.

Masse und Energie sind laut Albert Einsteins Relativitätstheorie zwei Seiten einer Medaille (E = mc2). Masseteilchen sind dementsprechend etwas wie „gefesselte“ oder „eingekapselte“ Energie. Daher werden Teilchenmassen der leichteren Vergleichbarkeit halber auch oft in der Einheit Elektronenvolt (eV) angegeben.

Masse

Wir müssen zwei Massebegriffe unterscheiden: Zum einen ist da die mikroskopische Masse, die wir aus dem Alltag kennen. Wenn ein Gegenstand 10 Kilogramm auf die Waage bringt, dann ergibt sich seine Masse aus den Atommassen. Sie entstehen, wie beschrieben, aus der Bindungsenergie im Inneren der Protonen und Neutronen – entsprechend der Äquivalenz von Masse und Energie.

Zum anderen ist da die Masse der Elementarteilchen, also die Masse von fundamentalen Partikeln wie Elektronen, Quarks oder den Kraftteilchen. Das Standardmodell weist allen Elementarteilchen grundsätzlich die Masse 0 zu – eine der rätselhaftesten Eigenschaften der Teilchen, die Konsequenz aus dem symmetrischen Prinzip (Ordnung), auf dem die gesamte Theorie der Teilchenphysik beruht. Danach darf es zwischen den Teilchen keine Asymmetrie geben. Teilchen mit Ruhemasse 0 werden als masselos bezeichnet. Gemäß Einsteins Spezieller Relativitätstheorie bewegen sich masselose Teilchen mit Lichtgeschwindigkeit. Wenn aber alle Teilchen sich mit Lichtgeschwindigkeit bewegen, haben sie keine Möglichkeit, eine Bindung einzugehen. Die ganze zusammengesetzte Materie bekommt erst eine Chance, wenn sich Teilchen viel langsamer als mit Lichtgeschwindigkeit bewegen.

Um die Standardtheorie zu ergänzen und die Massen der Fermionen in die Theorie als Parameter einzufügen, haben die Physiker ein Quantenfeld (das Higgs-Feld, benannt nach dem theoretischen Physiker Peter Higgs) eingeführt, das den ganzen Raum gleichmäßig erfüllt und in das folglich alle Teilchen eingebettet sind. Durch die Interaktion mit diesem Feld wird den eigentlich masselosen und lichtschnellen Teilchen ihre träge Masse verliehen. Bei diesem Prozess wird gleichsam Energie aus dem Vakuum herausgesaugt und an das Elementarteilchen abgegeben. Je stärker das Teilchen mit dem Feld wechselwirkt, umso langsamer kommt es voran, d. h. umso größer ist seine Masse. Da ein Photon oder Gluon keine Wechselwirkung mit dem Higgs-Feld haben, können sie weiter mit Lichtgeschwindigkeit zwischen Elektronen bzw. Quarks vermitteln.

Da die Physiker in der Standardtheorie jedem Feld ein Teilchen zuordnen (dem elektromagnetischen z. B. das Photon), musste auch dem Higgs-Feld zwangsläufig ein Teilchen, das Higgs-Boson, zugewiesen werden. Es wurde inzwischen nachgewiesen und tritt als eine extrem kurzlebige Anregung des Feldes in Erscheinung. Es ist aber kein Bestandteil von Materie oder von Wechselwirkungen wie die übrigen Teilchen des Standardmodells, zählt also weder zu der einen noch zu der anderen Kategorie – ein Spezialfall, der noch viele Fragen offen lässt.

Nach heutiger Vorstellung lag das Higgs-Feld kurz nach dem Urknall in einem Zustand hoher Symmetrie (in geordnetem Zustand) vor. Alle Elementarteilchen waren bei den damals sehr hohen Energien dementsprechend masselos. Erst nach einer Abkühlung auf 1015 Grad Celsius, als sich die elektroschwache Kraft aufspaltete, ging das Higgs-Feld spontan aus dem Vakuum hervor. Man sagt: Es wurde für Teilchen spürbar. Anschaulich gesprochen trifft ein Teilchen, das sich durch den Raum bewegt, ständig auf Higgs-Bosonen. Solche Vorgänge verlangsamen das Teilchen, und diese Trägheit nennen wir Masse.

Ohne das Higgs-Feld wären also alle Elementarteilchen masselos, gäbe es keine Atome und somit auch nicht die „gewöhnliche“ Materie. Sich dieses Quantenfeld gleichermaßen korrekt und anschaulich vorzustellen, ist nicht möglich. So verwendet man unterschiedliche Metaphern für das Feld wie z. B. „zäher Kuchenteig“ oder „Honig“, um seine Wirkung zu verdeutlichen.

Der Higgs-Mechanismus ist mathematisch sehr ausgefeilt und gut verstanden. Wegen der fundamentalen Bedeutung dieses Feldes für unser Verständnis der Welt – sowohl der Naturgesetze (Struktur der Materie) als auch die Geburt des Universums (Anfangsbedingungen) – war die Entdeckung des Higgs-Teilchens die wichtigste Pioniertat der physikalischen Grundlagenforschung. Sein Fund ist der jüngste Beleg dafür, dass theoretische und mathematische Überlegungen große Erklärungskraft besitzen und sogar neue Teilchen und neue physikalische Mechanismen voraussagen können – ein großer Triumph der theoretischen Physik.

Teilchen-Welle-Dualismus

Nach der Quantenmechanik gibt es subatomare Teilchen im klassischen und anschaulichen Sinn als etwas Substanzielles, als beharrliche Träger von dynamischen und raumzeitlichen Wesenseigenschaften, nicht. Sie besitzen also keine Individualität; ihre Eigenschaften sind nur im dynamischen Zusammenhang zu begreifen – ausgedrückt in Bewegung, Wechselwirkung und Umwandlung – und lassen sich nur noch mit Zahlen und Gleichungen beschreiben. Das stimmt nicht mehr mit dem gesunden Menschenverstand überein.

1802 hatte Thomas Young mit der Beugung von Licht an einem Doppelspalt dessen Wellennatur bewiesen: Läuft ein Lichtstrahl durch zwei Spalte, kommt es auf einem Beobachtungsschirm dahinter zu einem Interferenzmuster aus helleren und dunkleren Streifen. Ein solches Streifenmuster kennen die Physiker sonst nur von Wellenerscheinungen: Wenn z. B. eine Wasserwelle auf ein Hindernis mit zwei Löchern prallt, überlagern sich dahinter die beiden Teilwellen. Ein solches Muster entsteht auch, so weiß man inzwischen, wenn man anstatt Photonen Elektronen oder andere Teilchen durch einen Doppelspalt schickt. Das beweist, dass auch Materie Welleneigenschaften hat, eine Einsicht, die erstmals 1924 Louis-Victor de Broglie verkündete. Zusätzlich zu Eigenschaften wie Masse und Ladung besitzt also jedes Teilchen eine Wellenlänge und kann gestreut werden. Diese Grundaussage der Quantenmechanik ist inzwischen in unzähligen Experimenten eindrucksvoll belegt worden.

Erwin Schrödinger gelang es, den Quantenzustand eines Teilchens durch einen mathematischen Kunstgriff darzustellen, der wellenartiges Verhalten zeigt. Damit war es möglich, beispielsweise ein Elektron oder Atom ähnlich einer Welle zu beschreiben, die über ein ganzes Gebiet verteilt ist. Schrödingers 1926 formulierte Wellengleichung ist die grundlegende Formel der Quantentheorie, mit der seitdem quantenphysikalische Erscheinungen und im Prinzip sogar das ganze Universum beschrieben werden kann.

Beim Doppelspaltversuch ist also das, was durch beide Spalten geht, eigentlich kein physikalisches Teilchen, aber auch keine klassische Welle, sondern eine sogenannte Wellenfunktion – eine abstrakte mathematische Beschreibung für den Zustand eines Teilchens, in diesem Fall seine Position. Sie liefert in diesem Fall die Wahrscheinlichkeiten für die Orte auf dem Schirm, an denen das Photon vorgefunden werden könnte. Die Physiker sprechen von Wahrscheinlichkeitswellen.

Die Wellenfunktion für ein Elektron ist räumlich ausgedehnt, so dass es nicht einen bestimmten Platz einnimmt, sondern sich an vielen möglichen Orten befinden kann. Seine Position ist quasi über einen bestimmten Bereich „verschmiert“. Wenn schon das Elektron keine räumliche Ausdehnung hat (es ist punktförmig) – die Wahrscheinlichkeitswolke, die zu ihm gehört, besitzt ganz gewiss eine. Auf bestimmten Bahnen (übereinander liegenden Schalen) laufen die Elektronen demnach als „stehende Welle“ um den Atomkern. Bei einer Messung „kollabiert“ die Wellenfunktion auf irgendeine Weise und erhält eine greifbare Größe. Einstein konnte und wollte diese Aussagen der Quantenmechanik nicht akzeptieren.

Aus der Schrödinger-Gleichung kann man durch einen mathematischen Trick teilchenähnliche Zustände herausholen. Sie entsprechen gewissermaßen den Stellen, wo die Wahrscheinlichkeitswellen konstruktiv interagieren. Die kontinuierliche Gleichung hat also in diesem Fall diskrete Lösungen, die quantisierte Materie beschreiben.

Teilchen und Wellen – das ist und bleibt das Grundproblem der Quantenphysik. Beide Positionen beruhen auf unterschiedlichen Auffassungen der Wirklichkeit, die beide für eine Beschreibung der Natur je nach der zugrunde liegenden Fragestellung notwendig sind. Es sind zwei sich ergänzende Beschreibungen derselben Wirklichkeit, von der jede nur teilweise richtig ist und eine beschränkte Anwendungsmöglichkeit hat. Auf der atomaren und subatomaren Skala wird der Unterschied zwischen Teilchen und Wellen verwischt, d. h. alles, was im Bereich des mikroskopisch Kleinen existiert, ist Welle und Teilchen zugleich. Man kann auch sagen, beispielsweise ein Elektron ist weder ein Teilchen noch eine Welle, aber es kann in einigen Situationen teilchenähnliche, in anderen wellenähnliche Aspekte haben.

Tatsächlich versteckt sich das Teilchen sozusagen in der Welle. Deren Intensität gibt an, mit welcher Wahrscheinlichkeit es sich an einem bestimmten Ort aufhält. Auf gewisse Weise existiert das Teilchen aber nicht wirklich. Objektiv bzw. physikalisch fundamental scheint nur die Welle zu sein. Korrekter: Das Verhalten von Teilchen wie Elektronen lässt sich immer mit einer Wellengleichung beschreiben – und manchmal auch als Teilchen interpretieren. Der Teilchenbegriff ist somit vermutlich rein subjektiv – subjektiv für den Teil der Welt, den wir klassisch sehen. Er ist das Relikt eines Weltbilds, das von den altgriechischen Atomisten abstammt und mit den Theorien Isaac Newtons seinen Siegeszug vollendete.

Jedes Objekt muss demnach als eine Materiewelle aufgefasst werden – auch makroskopische Körper von Bakterien bis Autos und Menschen. Für alle praktischen Zwecke ist das Wellenäquivalent eines solchen Objekts aber so klein, dass es vernachlässigt werden kann. Beim Elektron beträgt die Wellenlänge etwa ein Millionstel Zentimeter, beim Bakterium hat sie nur noch die Größe eines Atomdurchmessers und bei einem Fußball praktisch unmessbare 10-32 Zentimeter. Materiepartikel verbergen also ihre Wellennatur, solange die ihnen zugeordnete Wellenlänge klein ist. Aufgrund dessen überwiegt im Makrokosmos der Teilchenaspekt.

Was die Wellenfunktion aber eigentlich ist, stellt eine zentrale Frage der Quantenmechanik dar und bleibt bis zum heutigen Tag ein gewaltiges und heiß umstrittenes Problem. Das Phänomen ist anschaulich schwer zu fassen und sperrt sich bis heute hartnäckig dem menschlichen Alltagsverstand.

Quantenfeld

Newton mutmaßte, dass Schwerkraft über riesige Entfernung nicht direkt wirkt, sondern durch „die Vermittlung von etwas anderem, das nicht materiell ist“. Fast zwei Jahrhunderte später folgte Michael Faraday einem ähnlichen Gedankengang, als er Elektrizität und Magnetismus mittel sogenannter Kraftlinien oder Felder beschrieb. Für ihn stand nicht mehr Materie im Mittelpunkt der Physik; die eigentliche Realität bildeten die Kraftlinien. Materie sei nur die umgangssprachliche Bezeichnung für die Dichte von an sich ununterscheidbaren Feldlinien.

Ende der 1920er Jahre wurde die Quantentheorie von Bohr, Heisinger und Schrödinger, um deren Deutung Experten immer noch streiten, bald überholt von der Quantenfeldtheorie. Sie vereinigt quantenmechanische Prinzipien mit der Theorie klassischer Felder und liefert die begriffliche Grundlage für das Standardmodell der Teilchenphysik, die mathematisch exakt die fundamentalen Teilchen und die zwischen ihnen wirkenden Kräfte (Wechselwirkungen) und damit auch die Materie – also all das, was die Welt im Innersten zusammenhält – beschreibt. Demnach besteht die gesamte materielle Welt aus Quantenfeldern, die die Raumzeit durchdringen. Sie verhalten sich nicht wie klassische Felder und besitzen keinerlei materielle Basis, verfügen aber – wie Materie – über Energie und Impuls und können in Wechselwirkung mit Materie treten. So lassen sich Gluonen beispielsweise auch als Felder interpretieren, die die Quarks in den Nukleonen zusammenhalten.

Die Quantenfeldtheorie bildet heute das Rahmenmodell für alle ernstzunehmenden Theorien der Elementarteilchen, zu der sowohl das Standardmodell als auch alternative Theorien (wie die Superstringtheorie) gehören. Sie hat eine sehr hohe Genauigkeit (10-11) und gilt neben der Allgemeinen Relativitätstheorie (Genauigkeit von 10-14) als die exakteste physikalische Theorie überhaupt. (Allerdings ignoriert sie Gravitationseffekte.)

Jedes Quantenfeld besitzt ein ihm zugehöriges Teilchen (z. B. das elektromagnetische Feld das Photon), das einer Anregung (einem „Schwingungszustand“) des Energiefeldes entspricht. Bosonen kann man so als gequantelte Energiepakete (Quanten) von Kraftfeldern betrachten. Somit scheint die Unterscheidung zwischen Teilchen und Feldern künstlich zu sein. Auch unter diesem Aspekt wird der Begriff eines Teils oder erst recht eines Teilchens bedeutungslos. Es hat also wenig Sinn, lokalisierte Teilchen als die Grundelemente der Wirklichkeit anzunehmen. Darum ist die Bezeichnung Teilchenphysik eigentlich irreführend. Man kann zur Not von Quantenteilchen sprechen, obwohl diese praktisch nichts mit klassischen Partikeln gemein haben. Konsequenterweise sollte man den Begriff ganz fallenlassen. Felder und Energie sind also das grundlegende Substrat der Materie und damit der physikalischen Wirklichkeit geworden.

Bei einem Quantenfeld handelt es sich aber um abstrakte mathematische Ausdrücke, die keine bestimmte Messwerte darstellen. Sie fluktuieren als Folge der Unschärfe der Natur um bestimmte Mittelwerte. Daher repräsentieren sie zwar physikalische Werte, doch diese lassen sich nicht bestimmten Punkten der Raumzeit zuordnen, sondern nur „verschmierten“ Gebieten. Die vermeintlich fundamentalen Quantenfelder legen nicht einmal Wahrscheinlichkeiten fest; das tun sie erst, wenn sie mit dem sogenannten Zustandsvektor kombiniert werden, der das gesamte System beschreibt und sich nicht auf einen bestimmten Ort bezieht. Es ist anschaulich kaum vorstellbar.

Die Quantenfeldtheorie spricht also in Rätseln, wenn es um die Frage geht, was eigentlich hinter unseren Beobachtungen steckt. Sie beschreibt zwar das Verhalten von Quarks, Elektronen, Photonen und diversen Quantenfeldern, aber sie sagt nichts darüber aus, was ein Photon oder Quantenfeld wirklich ist. Deren Eigenschaften weichen erheblich von dem ab, was man sich im täglichen Leben unter Teilchen und Feldern gewöhnlich so vorzustellen pflegt.

Fazit

Materie besitzt auf jeden Fall weniger „Substanz“, als es unseren Sinnen erscheint. Auf die Dimensionen eines Wohnblocks vergrößert ist praktisch die ganze Masse eines Atoms in einem stecknadelkopfgroßen Kern (ein Billionstel des Atoms) im Zentrum konzentriert. Im Umkreis von hundert Metern schwirren Elektronen, deren Ausdehnung selbst in dieser Vergrößerung unsichtbar bleibt. Der Raum zwischen Kern und Elektronenhülle aber ist leer! Und weder in den Atomkernen noch in den Bausteinen hat man bisher etwas wirklich „Greifbares“ entdeckt. Wenn man sich die Frage stellt, welcher Prozentsatz des Raumes, den das Universum umfasst, denn von Materie besetzt ist, kommt man zu dem Schluss, dass die „echte“ Substanz des Universums praktisch keinen messbaren Raum einnimmt. Das materielle Substrat kann also nicht der Stoff sein, aus dem sich die sichtbaren Körper aufbauen.

Obwohl das materielle Substrat nicht das ist, was dauert, gibt es im Universum nicht nur ein Meer formloser Energie. Dass die Dinge um uns herum fest oder flüssig oder gasförmig erscheinen, dass man sie unter Druck setzen, erhitzen, verdünnen, umformen, anfassen kann, hat nicht etwa damit zu tun, dass der Raum, den diese Dinge einnehmen, tatsächlich „ausgefüllt“ ist. Es ist vielmehr so, dass die Nadelspitzen von Stoff, die das alles bewirken, miteinander nichts zu tun haben wollen. Es sind die Gesetze, die den Teilchen ihre Form verleihen. Das Pauli-Prinzip bewirkt, dass sich einzelne Atome nicht durchdringen können und Materie damit überhaupt einen nennenswerten Raum belegt und stabil ist. Es sorgt im Makrokosmos dafür, dass sich beispielsweise zwei „Materiestücke“, etwa ein Glas und ein Holztisch, nicht gegenseitig durchdringen und ein Stoß mit dem Kopf gegen die Wand für uns schmerzhaft ist.

Im 18. Jahrhundert stellte George Berkeley, ein irischer Bischof, eine kühne Behauptung auf: „Materie gibt es nicht wirklich!“ Er meinte, was wir als festen Stoff wahrnehmen, Holz etwa oder Eisen, ist nicht weiter als ein Eindruck, den Gott in unseren Köpfen erzeugt – eine Aussage, die damals sehr gewagt war. Und Max Planck sagte Anfang der 1920er Jahre: „Es gibt keine Materie, sondern ein Gewebe von Energien, dem durch intelligenten Geist Form gegeben wird.“ Der Begriff Materie könnte sich tatsächlich als idealistisch herausstellen – und damit mindestens als überflüssig, wenn nicht gar irreführend in fundamentalen Diskussionen. „Der Materialismus hat sich selbst überwunden.“ (Raimund Popper)

Es gibt keinen zwingenden Beweis dafür, dass die Physik – oder gar der Alltagsverstand – die Welt so oder ungefähr so beschreibt, wie sie ist. Beschreibt etwa die Wellenfunktion eine physikalische Realität oder ist sie schlicht ein mathematisches Hilfsmittel ohne Bezug zur Realität? Viele Physiker nehmen eine sogenannte instrumentelle Haltung ein und verneinen, dass physikalische Theorien die Welt widerspiegeln sollen. Für sie stellen Theorien bloß Instrumente dar, mit denen sich experimentelle Vorhersagen machen lassen. Die physikalische Realität sei, wie sie sei, und verhalte sich wie sie will – und wir lernten mühsam, unsere mathematischen Werkzeuge an ihr ungebärdiges Verhalten anzupassen. Die eigentliche Veranschaulichung der Materie hänge vom jeweiligen Wissensstand, von unserem Wissen und Unwissen, ab. Mit jeder Vervollkommnung des mathematischen und technischen Werkzeugs kämen aber auch immer neue Aspekte der Wirklichkeit hinzu.

Allmählich setzt sich in der Wissenschaft die Meinung durch, die Welt könne aus etwas ganz anderem als Teilchen, Wellen und Felder bestehen. Manche Wissenschaftstheoretiker betrachten die Natur als eine letztlich nur mathematisch fassbare Struktur, ohne irgendeinen Bezug auf Einzeldinge. Alles ließe sich vollständig auf Strukturen (Strukturenrealismus) oder Bündel von Eigenschaften reduzieren. Demzufolge werden wir niemals das wirkliche Wesen der Dinge erkennen, können aber wissen, wie sie miteinander in Beziehung stehen.

REM

Hund und Mensch

Ein einzigartiges Gespann seit vielen Jahrtausenden

Vom Wolf zum Hund

Menschen und Wölfe lebten vor etwa 40 000 Jahren in Eurasien nebeneinander und jagten oft die gleiche Beute. Besonders in Zeiten, in denen die Nahrung knapp war, kamen sich beide Arten vermutlich näher. Womöglich verfütterten Jäger und Sammler Fleischreste an die Wölfe, die sie selbst nicht mehr verzehrten. Nach Berechnungen finnischer Wissenschaftler um Maria Lahtinen waren die Menschen in den eisigen Zeiten mit Proteinen gut versorgt. Andererseits sind sie nicht vollkommen an eine karnivore Ernährung angepasst und können Proteine auch nicht gut verdauen. Daher konnten die Wildbeuter übrig gebliebenes Fleisch ohne Nachteil für sich selbst Wölfen in ihrer Nähe vorwerfen. Diese These ist auch geografisch plausibel, denn die frühesten Hinweise auf eine Annäherung von Mensch und Wolf stammen vornehmlich aus Regionen, in denen es damals extrem kalt war. Vielleicht war es also ein Wolf, der diese auf zwei Beinen laufenden Wesen attraktiv fand, weil sie oft Reste übrig ließen, die ihm die anstrengende Jagd ersparte.

Die amerikanischen Biologen Raymond und Lorna Coppinger stellten die These auf, nicht der Mensch habe den Hund domestiziert, sondern der Hund sich selbst. Dessen Vorfahren seien von ihrem Rudel verstoßene Wölfe gewesen, die sich um menschliche Siedlungen scharten und von den Abfällen ernährten – wie es verwilderte Hunde heute noch tun. „Das Verhalten der Menschen hatte dabei einen wesentlichen Einfluss darauf, welche Tiere in den Genuss ihrer Nähe kamen“, erklären die Forscher. Wer überleben wollte, musste freundlich sein , die Gepflogenheiten der Zweibeiner beachten und immer die Augen offen halten. So sei der Wolf zum Hund geworden.

Die Wölfe gewöhnten sich jedenfalls an die Zweibeiner und wurden zutraulich. Sie lebten nahe bei den Menschen und vermehrten sich untereinander weiter. Dies führte letztlich zu der Abhängigkeit vom Menschen – der Hund war entstanden. Es ist denkbar, dass zuerst von der Mutter verlassene, niedliche Wolfswelpen in die menschliche Gesellschaft aufgenommen und aufgezogen wurden. Eine Zähmung musste vor der dritten Woche geschehen, wozu Milch benötigt wurde. Die einzige Milchquelle war zu der Zeit der wahrscheinlichsten Domestikation der Wölfe – die Frau.

Die Gemeinschaft nutzte beiden Partnern. Zunächst teilten sich Mensch und Hund lediglich Schlafplatz und Nahrung miteinander. Zunehmend wurden die Tiere als Wächter gegen Raubtiere und Eindringlinge und als Begleiter und Helfer bei der Jagd genutzt. Sie mögen auch schon mal in Notzeiten als Lieferanten für Fleisch oder Bekleidungsmaterial gedient haben. Später wurden sie wohl auch als Lastenträger eingesetzt, beispielsweise, um Schlitten zu ziehen. Auf sog. Stangenschleifen (Travois) kann ein Hund Lasten bis zu 27 Kilogramm befördern.

Wann sich die Linien von Wolf und Hund genau spalteten, lässt sich schwer berechnen, denn immer wieder paarten sich Wölfinnen mit paarungswilligen Hunderüden. (Umgekehrt paarten sich Wolfsmänner selten mit Hündinnen, denn männliche Wölfe müssen mehrere Wochen mit einer läufigen Hündin verbringen, damit sie Testosteron ausschütten und sich überhaupt Spermien bilden. Hunde hingegen sind immer paarungsbereit.) So gab es im Lauf der Wolf-Hund-Geschichte einen konstanten Genaustausch, so dass keine der Linien ganz rein ist.

Seit Langem wird vermutet, dass Wölfe an mehreren Orten und zu unterschiedlichen Zeiten gezähmt wurden. Der amerikanische Zoologe Robert K. Wayne setzt den Beginn des besonderen Verhältnisses von Wolf und Mensch vor gut 40 000 Jahren an. Sicher ist, dass irgendwann zwischen 36 000 und 15 000 Jahren beide zum ersten Mal zusammen lebten. Die ältesten bekannten Hundeknochen stammen aus Belgien, wo in den Höhlen von Goyet mehrere Schädel gefunden. Einer davon, 36 000 Jahre alt, stach heraus, denn seine Anatomie glich weniger einem Wolf als 17 000 bis 13 000 Jahre alten Hunden aus Westrussland. Es konnte allerdings noch nicht geklärt werden, ob das Tier noch Wolf oder schon Hund war. Laut fossilen Funden haben sibirische Jäger auf jeden Fall bereits vor 33 000 Jahren Wölfe domestiziert. Der erste bekannte eindeutige Hund starb zu dieser Zeit in der Razboinichya-Höhle im Altai-Gebirge. Doch mit den heutigen Hunden ist auch er nicht verwandt. Er gehörte zu einem heute ausgestorbenen Seitenzweig, der laut Genanalysen ebenfalls aus einer ausgestorbenen Wolfsart hervorging.

Erbgutanalysen deuten darauf hin, dass die Trennung der chinesischen Hunde von Wölfen wohl vor 32 000 Jahren, wahrscheinlich „irgendwo in Asien“, stattfand. Molekulargenetische Vergleiche von Menschenknochen und Hundeknochen, die in Sibirien, Beringia und Nordamerika ans Licht kamen, ergaben, dass Hunde vermutlich vor 26 000 bis 19 700 Jahren in Sibirien domestiziert wurden. Damals, im letzten eiszeitlichen Maximum auf der Nordhalbkugel war es in Sibirien besonders kalt und unwirtlich. Unter diesen harschen Bedingungen waren Eiszweitwölfe und Menschen vermutlich noch enger zusammengerückt.

Weitere genetische Untersuchungen legen nahe, dass in Europa Hunde vor 32 000 bis 18 000 Jahren vom Wolf getrennte Wege gingen. Während des Maximums der letzten Eiszeit bevölkerten noch zwei Arten von Wölfen die Wälder Europas. Im kalten Norden lebten große, robuste Wölfe, die sich von Tieren ernährten, die an die Kälte angepasst waren. Im Süden dagegen streiften kleinere, schlankere Wölfe umher. Als dann mit der Erderwärmung viele an die Kälte angepasste Spezies ausstarben, verschwanden mit diesen Arten auch ihre Jäger wie der nordische Wolf. Seine südlichen Verwandten sind die Vorfahren der heutigen Wölfe. Der Hund dagegen ist genetisch eng mit dem ausgestorbenen nordischen Wolf verwandt.

Als vor spätestens 15 000 Jahren die ersten Menschen von Sibirien aus den amerikanischen Kontinent erreichten, brachten sie ihre Hunde mit. Darauf deutet das Erbgut der Hundefossilien in Nordamerika hin, das eine enge Verwandtschaft dieser Tiere mit den Hunden in der Arktis offenbart, deren Vorfahren vor 15 000 Jahren in Sibirien lebten. Die Hunde könnten bei der Wanderung nach Amerika als Lastenträger gedient haben. Mit nur 13 Kilogramm beladen sind Hunde in der Lage, bei kühlen Temperaturen bis zu 27 Kilometer zurückzulegen.

Von den ersten europäischen Hunden tragen heutige europäische Rassen nur noch wenige Spuren in sich. Die ältesten bekannten Überreste eines Hundes, der als direkter Vorfahre der heutigen Haustiere identifiziert wurde, stammen aus einem steinzeitlichen Grab am Fundplatz in Bonn-Oberkassel (Deutschland), wo vor rund 15 000 Jahren zwei Hunde neben zwei Menschen bestattet worden waren. Eines der Tiere war ein 27 bis 28 Wochen alter schwer kranker Welpe, der an Hundestaupe litt. Auf sich allein gestellt wäre er wohl schon nach dem ersten Schub gestorben. Jemand muss ihn liebevoll bis zu seinem Tod gepflegt haben.

Zwischen 14 000 und 6400 Jahren vor heute sollen Hunde mit Menschen aus Asien nach Europa gelangt sein und haben die Populationen aus dem Westen verdrängt. Vermutlich war es nur eine kleine Gruppe von Hunden, denn die genetische Vielfalt ihrer Rassen verringerte sich in dieser Zeit hier, während sie am östlichen Ende des eurasischen Kontinents (ihrer ursprünglichen Heimat) nach DNA-Analysen auch heute noch wesentlich größer ist.

Folgen der Domestikation

Infolge der Domestikation hat sich das Erbgut der Hunde über Jahrtausende erheblich verändert. Dabei setzten sich jene Gene durch, welche die Anpassung an menschliche Gemeinschaften begünstigen. Die Mentalität veränderte sich: Sie wurden ruhiger und abhängiger vom Menschen. Durch die Domestizierung trat auch eine Gestaltänderung ein, ein Phänomen, das sogar bei Füchsen auf Pelzfarmen beobachtet wurde. So treten bei nahezu allen Tierrassen durch Domestikation kürzere und breitere Schnauzen, kleinere Hirnschalen, Ringelschwänze, hängende Ohren und weiße Flecken im Fell auf.

Nach der Sesshaftwerdung des Homo sapiens setzten genetische Veränderungen Hunde in die Lage, stärkehaltiges Futter zu fressen und zu verdauen, so dass sie sich auch von den pflanzlichen Nahrungsresten und Abfällen der Bauern ernähren konnten. Hunde sind heute Allesfresser. Allerdings hatte das enge Zusammenleben für den Menschen auch den Nachteil, dass Krankheitsüberträger wie z. B. Flöhe von Hunden (oder anderen Haustieren) leicht auf ihre Besitzer überspringen konnten. Mit diesen Insekten breiteten sich Infektionen wie Fleckfieber, Gelbfieber, die Schlafkrankheit und wahrscheinlich auch die Pest rasch aus.

Der ungarische Verhaltensforscher und Hundeexperte Adam Miklosi ist davon überzeugt, dass der Hormonhaushalt, der sich infolge der Domestizierung veränderte, verantwortlich ist für die heutigen charakteristischen Eigenschaften der Hunde. Vermutlich spielen auch – wie beim Menschen – die Hormone Oxytocin und Vasopressin (für das Bindungsverhalten) und Serotonin (beruhigender Botenstoff) eine Rolle. Hunde betrachten den Menschen als sozialen Weggefährten. Ihre Vorfahren hatten vermutlich schnell gelernt, dass sie mit menschlichen Bezugspersonen kooperieren und ihnen vertrauen müssen, um erfolgreich zu sein. Diese Strategie bewährte sich, denn der Mensch löste fortan die meisten ihrer Probleme, sei es, wenn sie Hunger hatten, vor verschlossenen Türen standen oder Schutz benötigten.

Sozialkompetenz

Hunde lernen schnell, durch Beobachtung Dinge nachzuahmen und Probleme zu lösen. Andere imitieren zu können, verlangt die Fähigkeit, die Perspektive des anderen einzunehmen, eine geistige Leistung, die man lange nur von wenigen Tierarten, z. B. Menschenaffen und Raben, kannte. Sie gilt als erster Schritt zu erkennen, was andere wissen oder fühlen, und das eigene Verhalten danach auszurichten. Diese hochentwickelte Fähigkeiten ermöglicht es Hunden offenbar auch, sich die notwendigen Regeln anzueignen, um sich in eine Gruppe von Menschen problemlos einzufügen, wobei sie ihre Bedürfnisse, Erwartungen und Verhaltensweisen mit denen der Gemeinschaft in Einklang bringen und sich den charakteristischen Gewohnheiten ihrer Besitzer anpassen. Psychologen sprechen von einer sehr hoch entwickelten Sozialkompetenz. Im Laufe der Jahrtausende hat der Hund auf diese Weise ein Sozialverhalten entwickelt, das sich jenem von Herrchen und Frauchen immer mehr angeglichen hat.

Während andere höher entwickelte Tiere miteinander konkurrieren und sich in Machtkämpfe verzetteln, behalten Hunde – wie auch Menschen – das Wohl ihrer Gruppe im Auge – einer Gruppe, die nicht aus der eigenen Familie bestehen muss, ja nicht einmal aus der eigenen Spezies. Es verwundert daher auch nicht, dass Hunde unter den Haustieren die besten Zieheltern sind, die bisweilen sogar artfremde Tiere wie z. B. Katzen, Igel oder Kaninchen unter ihre Obhut nehmen. Die meisten anderen sozial lebenden Tiere kennen Gruppensolidarität nur, wenn es um Blutsverwandte geht. Im Gegensatz zum Wolf behält der Hund seinen Spieltrieb auch im Alter bei, bleibt neugierig, lernfähig und ohne Angst vor anderen Arten.

Für den Forscher Vilmos Csanyi aus Budapest ist der Hund „eben kein gewöhnliches Tier mehr, sondern ein künstliches Wesen„. Forscher vermuteten bislang, dass die Beziehung des Hundes zum Menschen als die eines Rudelmitglieds zum Leittier betrachtet werden müsse. Der Mensch habe sich an die Spitze der sozialen Rangordnung gesetzt und die Führung übernommen, der die Tiere folgen. Nach Csanyi betrachten die Hunde ihre Herrchen und Frauchen aber keineswegs als „ihr Rudel“. Auch die amerikanische Kognitionspsychologin Alexandra Horowitz schreibt in ihrem Buch „Was denkt der Hund?“, dass die Vierbeiner ihrem Halter gehorchten, läge keineswegs daran, dass sie ihn als Alphatier betrachteten, sondern vielmehr daran, dass er sie mit Futter versorge.

Mensch und Hund bildeten nach Csanyi vielmehr ein lockeres, freundschaftliches Bündnis. Der Vierbeiner könne sogar Befehlsstrukturen variieren und den Grad seines Gehorsams einer Aufgabe anpassen. Bei Blindenhunden trifft der Mensch etwa die Hälfte der Entscheidungen im Straßenverkehr, die andere der Hund. Nur Menschen und Hunde kennen diesen sanften Rollentausch. Die Abwechselung von Dominanz ist die Grundlage ihrer Kooperation.

Hunde sind äußerst aufmerksam und besitzen ein Gespür für die Kommunikationsformen und Emotionen der Menschen. Auf die Stimmungen seines Halters, auf die emotionalen Nuancen seiner Sprache und Rufe, reagiert ein Vierbeiner wie ein sensibler Seismograph. Die Tiere können unsere Gefühle aber nicht nur am Klang unserer Stimme, sondern auch an unserer Mimik und vor allem unserem Geruch erkennen und sich entsprechend verhalten. „Hunde riechen unsere Emotionen. Sie haben die außergewöhnliche Fähigkeit, den Hormoncocktail, den wir ausschütten, wahrzunehmen und zu deuten“, erklärt Horowitz. Sogar 11% aller Hunde von Epileptikern ahnen einen Anfall ihres Besitzers voraus; eine Begabung, die sich nicht andressieren lässt.

Dass Hunde oft mit ihrem Herrchen oder Frauchen mitgähnen, scheint ein weiterer Beweis für ihre große Empathiefähigkeit zu sein, die sich in den Jahrtausenden des Zusammenlebens entwickelt hat. Sie scheinen auch selbst zu sozialen Emotionen wie Mitleid, Verlegenheit, Scham, Neid, Dankbarkeit, Bewunderung, Entrüstung oder Verachtung fähig zu sein. Mancher Hund, der etwas Verbotenes getan hat, lässt deutliche Anzeichen von Verlegenheit erkennen. Andererseits nehmen Hunde es übel, wenn man sie ungerecht behandelt. Sie scheinen auch zu schmerzlichen Gefühlen befähigt zu sein, denn manche verweigern nach dem Tod ihrer Besitzer oft tagelang die Nahrung. Ob es sich dabei wirklich um Trauer handelt, ist allerdings kaum beweisbar.

Unklar bleibt daher weiterhin, ob Hunde wirklich das empfinden, was wir unter den betreffenden Gefühlen verstehen. Wie experimentelle Untersuchungen zeigten, scheint es bei komplexeren Emotionen große Unterschiede zwischen Mensch und Tier zu geben, z. B. beim Schuldgefühl. Manche Forscher vermuten hinter der Reaktion des Hundes eine Art Selbstschutz: Ein Hundebesitzer, der ein Vergehen seines Vierbeiners entdeckt, schimpft ihn eher nicht weiter aus, wenn dieser sich vermeintlich schuldbewusst verhält.

Möglicherweise reagieren Hunde also lediglich auf unsere Gefühle. Das menschliche Weinen ähnelt den Schmerz- und Angstlauten von Hunden (und auch von anderen Säugetieren). Schluchzende Laute lösen bei ihnen daher Unruhe aus – und kein Mitleid. Das bestätigten Studien der neuseeländischen Psychologen Min Hooi Yong und Ted Ruffman. Danach verursachen Babyschreie bei Hunden Stress, nachweisbar an steigenden Cortisolwerten im Blut. Wenn sich also ein Hund tröstend an sein unglückliches Frauchen oder Herrchen schmiegt, dann hat er wahrscheinlich kein Mitleid, sondern fühlt sich lediglich selbst gestresst.

In der gemeinsamen Evolution hat sich der Hund jedenfalls perfekt an seine ökologische Nische angepasst. Wie ähnlich sich Mensch und Hund im Laufe ihres schon viele Jahrtausende andauernden Zusammenlebens geworden sind, zeigen auch die überraschenden Erkenntnisse, dass manche Hunde wie Millionen Menschen an Krebs, Epilepsie, Allergien und Herzkrankheiten leiden und viele menschliche Verhaltensauffälligkeiten wie Zwangsneurosen, Panikstörungen und offenbar auch ADHS zeigen. Mindestens die Hälfte aller bei Hunden bekannten Erbkrankheiten gleichen denen von Menschen.

Kommunikation

Hunde können die sozialen und kommunikativen Signale des Menschen besser lesen und interpretieren als jedes andere Tier, vielleicht sogar besser als einige Menschen selbst. In der Wahrnehmungsgabe für menschliche Gestik ähneln Hunde kleinen Kindern. Schon neun Wochen alte Welpen sind in der Lage, aus der Körpersprache der Versuchsleiter Hinweise auf verstecktes Futter zu lesen. Sie folgen ihren Blicken und Gesten (z. B. ausgestreckter Finger!) sogar dann, wenn der Helfer nur als Filmprojektion oder auf dem Videomonitor sichtbar ist. Zwar achten auch Wölfe sehr gut aufeinander und auch auf den Menschen, aber weder sie noch Schimpansen haben im Deuten menschlicher Gesten und der Blickrichtung die Meisterschaft von Hunden erreicht. Vor allem den Blickkontakt zwischen Hund und Mensch halten die Forscher für den Schlüssel zu ihrer besonderen Beziehung. Anders als Kleinkinder, die ähnlich sensibel auf die Blickbewegungen ihres Gegenübers ansprechen, brauchen Hunde allerdings etwas länger, um ein gesuchtes Objekt wirklich zu fixieren. Die Frage, ob den Gemeinsamkeiten auch vergleichbare kognitive Prozesse zugrunde liegen, konnten die Wissenschaftler allerdings noch nicht endgültig beantworten.

Der Wolf kommuniziert noch mit rund 60 verschiedenen Gesichtsausdrücken, um seine Rudelgefährten über seinen Gefühlszustand zu informieren – notwendig für ein erfolgreiches Zusammenleben. Hunde haben aber selbst nur noch einen Bruchteil des Caniden-Repertoires an Gesichtsausdrücken zur Verfügung. Die Versuche, Rudel aus Pudeln und Retrievern zu bilden, scheiterten hauptsächlich an deren mimischer Sprachlosigkeit.

Hunde verstehen nicht nur, wie der Mensch mit ihnen spricht, sondern auch, was man zu ihnen sagt. Sie erfassen die Bedeutung einzelner Worte wie „Fass!“ oder „Sitz!“, auch wenn sie mit monotoner Stimme vorgetragen werden. Offenbar werden Tonfall und Inhalt im Gehirn der Tiere auf ähnlichen Ebenen wie beim Menschen verarbeitet. So wird der Inhalt von Wörtern, die für sie eine bestimmte Bedeutung haben (wie „Platz!“ oder „Brav“), in Arealen der linken Hirnhemisphäre verarbeitet. Ein lobender und ein neutraler Tonfall aktivieren in unterschiedlichem Maße Areale der rechten Hirnhälfte, und zwar egal bei welchem Wortinhalt. Hunde kombinieren beides, um sich auf das Gehörte einen Reim zu machen. Das Belohnungszentrum der Tiere spricht nur dann an, wenn ein lobender Tonfall und die richtigen Worte („Guuuter Junge!“) zusammenkommen. Dabei aktivieren verbales Lob und Zuwendung das Belohnungszentrum der Tiere sogar stärker als Leckerlis.

Nicht nur, dass das Gehirn der Tiere Wortinhalt und Intonation in verschiedenen Hemisphären wie der Mensch verarbeitet, es stimmt auch die Hierarchie der Sprachverarbeitung mit der im menschlichen Gehirn überein: Zunächst erkennen vor allem subkortikale Bereiche den Tonfall der Worte, für die Entschlüsselung des Inhalts sind dagegen eher nachgeschaltete Kortexareale zuständig. Das Sprachverstehen muss sich demnach also bereits früh im Lauf der Evolution der Säugetiere entwickelt haben und beruht vermutlich auf einem grundlegenden Arbeitsprinzip des Gehirns: Emotional aufgeladene Reize werden eher auf den unteren Verarbeitungsebenen erfasst, während komplexere Inhalte aufwändigere Arbeitsschritte im Gehirn erfordern.

Ein spontan formulierter Satz wie „Steh mal auf, wir gehen eine Runde um die Häuser“ lässt den Hund sofort die Ohren spitzen und aufgeregt auf und ab springen. Dabei reagieren Hunde natürlich nicht nur auf unsere Wörter. Menschen sind Gewohnheitstiere und verhalten sich meist gleich, wenn wir uns beispielsweise anziehen, um auszugehen. Hunde sind unglaublich gut darin, sich solche Ereignisketten zu merken, so dass es uns manchmal vorkommt, als wüssten sie bereits, was wir tun wollen, bevor es uns selbst klar ist. Ihre erstaunliche Abstraktionsgabe erstreckt sich nicht nur auf Wörter und Handlungsabläufe, sie können sogar mit Fotos etwas anfangen. Zeigte die Wissenschaftlerin Juliane Kaminski der Collie-Hündin „Betsy“ das Foto einer Frisbee-Scheibe, kam diese schnurstracks aus dem Nebenraum mit einem Frisbee zurück. Der Hündin ist damit etwas gelungen, womit selbst kleine Kinder Probleme haben können. Sie hat ohne Weiteres verstanden, dass ein Foto mehr sein kann als ein zweidimensionales Stückchen Papier: Es kann ein dreidimensionales Objekt repräsentieren und der Kommunikation dienen.

Vilmos Csanyi und sein Team ermittelten bei einer Umfrage unter Hundehaltern, dass ihre Tiere durchschnittlich 30 bis 40 Wörter der menschlichen Sprache verstehen. Selbst ein „normaler“ Hund kann sogar bis zu 165 Wörter lernen, behauptet der Psychologe Stanley Coren (University of British Columbia). Die Border-Collie-Hündin „Betsy“ beherrscht sogar 340 Wörter. Wissenschaftler in Leipzig stellten fest, dass der neunjährige Border-Collie „Rico“ die Namen von 250 Spielzeugteilen versteht und stets neue dazulernt. Er erkannte auch ein neues Stofftier in seiner Sammlung, obwohl er dessen Namen noch nicht vorher gehört hatte. Offenbar begriff er, dass der unbekannte Ausdruck für das fremde Plüschtier gemeint sein musste: Neues Wort – neues Ding! Dieser logische Schluss setzt eine beachtliche Denkleistung voraus. „Rico“ konnte sich auch nach Wochen noch an das neue Wort erinnern.

Die sechsjährige „Chaser“, eine weitere Border-Collie-Hündin, kennt sogar die Namen von 1022 verschiedenen Stofftieren, ein Wortschatz, der in etwa dem eines dreijährigen Kindes entspricht. Außerdem brachten die Wissenschaftler der cleveren Hündin bei, die bekannten Objekte in verschiedene Kategorien (nach übereinstimmenden Formen oder Funktionen, z. B. Bälle oder Frisbees) einzuordnen und sie auf Zuruf mit der Schnauze oder der Pfote zu berühren. Die Hündin konnte außerdem Bezeichnungen von Orten, Personen und Aktivitäten sinnvoll mit dem Namen der Gegenstände verbinden.

Das Gekläff der Hunde, glaubt Vilmos Csanyi, sei nichts anderes als der Versuch, menschliche Worte zu imitieren. „Ihr soziales Verständnis ist so komplex“, meint er, „dass es ihnen leicht fallen müsste, eine einfache Sprache zu erwerben.“ Die Vokalisation des Hundes sei so variabel, dass sie die Grundlage für ein sprachähnliches System werden können.

Der ungarische Hundeforscher Peter Pongracz glaubt sogar, dass Hunde nicht nur Aspekte der menschlichen Sprache verstehen, sondern schon eine eigene Sprache entwickelt haben, um sich mit dem Menschen zu verständigen. Schließlich bellen nur Haushunde regelmäßig, Wölfe und ausgewachsene Wölfe dagegen äußerst selten. Das Bellen, Kläffen und Knurren scheint spezifische Informationen zu enthalten, die von Menschen ohne Probleme entschlüsselt werden können. „Selbst sechsjährige Kinder und Menschen, die noch nie einen Hund hatten, können diese Muster verstehen“, so Pongracz. „Sie wissen sofort, ob mit dem Bellen Angst, Glück oder Aggression ausgedrückt werden soll.“ Mittlerweile hat die kalifornische Wissenschaftlerin Sophia Yin Spektrogramme von über 4600 hündischen Lautäußerungen analysiert, die sie mit 80-prozentiger Trefferquote bestimmten Situationen zuordnen konnte: Das hohe vereinzelte Bellen etwa, wenn Herrchen außer Sicht ist; oder das harsche, tiefe Bellen, wenn es an der Türe klingelt.

Das Gespann

Wölfe gelten als intelligenter, vorsichtiger und entschlossener als Hunde. In Standardintelligenztests – in Experimenten beispielsweise, in denen Logik gefragt ist – schneiden vor allem Haushunde schlechter ab als Wölfe oder Hunde, die im Garten oder Hof gehalten werden. Das heißt nicht, dass sie sich in bestimmten Situationen clever verhalten können. So sind sie in der Lage, nicht nur zielstrebig die kommunikativen Aspekte unseres Verhaltens herauszufiltern, sondern auch sie zu ihrem Vorteil zu nutzen. Mit der Gewieftheit eines Kindes täuschen sie bestimmte Verhaltensweisen vor, um eine gewünschte Reaktion bei ihrem Besitzer auszulösen. Sie können anhand eines Hinweises auf dem Anrufbeantworter ein Futterversteck finden – und wissen zugleich doch, dass Herrchen per Telefon zwar zu hören ist, sie aber nicht sehen kann. Auf einen Befehl wie „Sitz!“ oder „Platz!“ reagieren sie nämlich nicht. Bei Experimenten schnappten sie nach einem verbotenen Stück Fleisch, wenn der Versuchsleiter wegschaute oder nur die Augen schloss. Für Schimpansen zählte in einer solchen Situation einzig die Anwesenheit des Experimentators und ob sie sein Gesicht sehen konnten, nicht aber sein Blick.

Ohne Mitwirkung der Hunde ist für den britischen Genetiker Brian Sykes die menschliche Kulturgeschichte nicht vorstellbar. Mensch und Hund sind heute echte Partner, Freunde und Helfer des Menschen. Die Vierbeiner sind Spielpartner für die Kinder und verbessern ihre soziale Kompetenz. Für Senioren sind sie eine Bereicherung für den Lebensabend, sie leisten Gesellschaft und sorgen für mehr Aktivität. Mit ihrem ausgezeichneten Geruchssinn und Gehör sind sie Helfer in allen Lebenslagen, vor allem ideal für Polizei und Rettungsdienste. So haben sich Mensch und Hund in einer einzigartiges Gemeinschaft zweier verschiedener Arten zu beiderseitigem Nutzen zusammengefunden.

REM

Leben auf dem Mars?

Zahlreiche Raumfahrtmissionen haben derzeit unseren Nachbarplanten Mars zum Ziel, um ihn besser kennenzulernen. Langfristig soll hier sogar eine Weltraumkolonie errichtet werden, die man als Basis für weitere Weltraum-Expeditionen braucht, die aber auch im Hinblick auf drohende Katastrophen, vor allem Einschlägen von Himmelskörpern oder eines ökologischen Desasters auf der Erde, als Überlebensversicherung dienen könnte. Wenn die Ressourcen des Mars genutzt würden, glauben die Wissenschaftler, könnte man hier überleben.

Der Nachbarplanet

Der Mars ist der am weitesten – nämlich 228 Millionen Kilometer – von der Sonne entfernte Gesteinsplanet. Er besitzt mit Phobos und Daimos zwei der winzigsten Monde unseres Sonnensystems mit einem Durchmesser von jeweils weniger als 25 Kilometern. Unser Nachbarplanet selbst ist halb so groß wie die Erde, sein Durchmesser beträgt 6787 Kilometer und er besitzt nur 1/10 ihrer Masse Seine Gravitation beträgt 1/3 der Erdanziehung; sein Magnetfeld ist 800mal schwächer als das der Erde.

Das Marsjahr hat 687 Tage, der Marstag ist nur eine halbe Stunde länger als der Erdentag. Die Rotationsachse des „Roten Planeten“ ist ähnlich wie die der Erde um 25,2° gegen die Bahnebene geneigt. Langfristig variiert der Neigungswinkel beim Mars allerdings stark und chaotisch zwischen 0° und 60°, da die Rotation nicht von einem größeren Mond stabilisiert wird wie bei unserem Heimatplaneten. Ursache für die sprunghaften Veränderungen sind vor allem die Gravitationswirkungen der Riesenplaneten Jupiter und Saturn. Zudem schwankt die Form der Umlaufbahn des Mars ganz erheblich zwischen Kreis und Ellipse. Alle 15 Jahre kommt der Mars bis auf 55 Millionen Kilometer an die Erde heran, das letzte Mal 2018.

Der Mars ist ähnlich aufgebaut wie die drei anderen Gesteinsplaneten des Sonnensystems (Merkur, Venus, Erde). Seine Hitze im Inneren stammt von der Gravitationsenergie und aus radioaktivem Zerfall. Der Planet besitzt heute eine kalte und trockene Atmosphäre, die zu 96% aus Kohlenstoffdioxid besteht. Hinzu kommen Argon und Stickstoff (je knapp 2%), sowie in Spuren Wasserdampf (0,02%) und andere Gase, wie z. B. Sauerstoff (0,14%). Da die Atmosphäre extrem dünn ist (1,2% der Dichte der Erdatmosphäre), bietet sie keinen wirksamen Schutz gegen Strahlung. Allerdings absorbiert der hohe Anteil an Feinstaub 40% der Sonneneinstrahlung, was großen Einfluss auf die Luftzirkulation und den Energietransport in der Atmosphäre hat. Der Luftdruck an der Oberfläche beträgt nur ein Hundertstel (0,6% = 6 Millibar) von dem auf der Erde und schwankt im Laufe der Jahreszeiten um 25%.

Die Oberflächentemperatur beträgt durchschnittlich ungefähr -33°C, schwankt aber wegen der sehr dünnen Atmosphäre zwischen -133°C und maximal +27°C. Flüssiges Wasser würde bei dem vorherrschenden niedrigen Atmosphärendruck verdunsten. Selbst das Eis hält sich, zumindest in einiger Entfernung von den Polen, nur ab einer gewissen Tiefe.

Äußerlich ist der Mars zweigeteilt: Den kraterübersäten Hochländern der Südhalbkugel, die knapp zwei Drittel seiner Oberfläche umfassen, steht im Norden eine bemerkenswert flache, fast kraterlose Senke gegenüber, das sog. Borealisbecken, dessen Ursprung bisher völlig ungeklärt ist. Mit Ausnahme der Polregionen (Eis!) bedeckt eine dichte Schicht feinkörnigen, roten Staubs, der Eisenoxide enthält, die Oberfläche des Mars. Riesige Stürme, Wirbel und Lawinen verteilen ihn über den gesamten Planeten. Manche der Wetter-und Klimazyklen auf dem Mars ähneln denen auf unserem Heimatplaneten, während andere auf Grund der Bahnparameter kein bekanntes Vorbild haben.

Mögliches Leben auf dem Mars

Eines der wichtigsten Ziele der Mars-Missionen ist u. a. auch die Suche nach extraterrestrischem Leben. Sicher glaubt heute keiner mehr, grüne Männchen auf dem Planeten zu finden. Aber primitives, einzelliges Leben könnte nach Meinung einiger Wissenschaftler hier entstanden sein und eventuell sogar bis heute überlebt haben. Die Bedingungen auf der Erde waren vor etwa vier Milliarden Jahren wohl keineswegs so bemerkenswert, dass die Ausbildung von Leben ein besonders unwahrscheinliches Ereignis wäre. Der Mars ist jedenfalls der einzige Planet in unserem Sonnensystem (außer der Erde), der die nötigen Ressourcen für Leben hat: Die Sonne als Energiequelle, Wasser, CO2 und Stickstoff in der Atmosphäre.

Wenn dann die Umweltbedingungen zudem noch so beschaffen waren, dass komplexe chemische Reaktionen stattfinden konnten, könnte Leben auch auf auf unserem Nachbarplaneten entstanden sein. Obwohl sich dieser heute recht unwirtlich, äußerst kalt und extrem trocken zeigt, gibt es zahlreiche Hinweise, dass Mars und Erde eine ähnliche Entstehungsgeschichte durchlaufen haben. In ihrer Frühzeit hatten vermutlich beide ein ähnliches Klima, eine dichte Atmosphäre und Flüsse und Seen, die das Landschaftsbild prägten.

Möglicherweise lag der Mars damals also in der sog. habitablen Zone oder Ökosphäre. Darunter versteht man allgemein die schmale Zone um das jeweilige Zentralgestirn herum, wo dessen Strahlung gerade so stark ist, dass die Temperatur auf der Oberfläche eines Planeten die Existenz von flüssigem Wasser erlauben würde. Allerdings wird der Begriff „habitabel“ (von lat. habitare = bewohnen) inzwischen etwas weiter gefasst. Wasser muss nicht so reichlich vorhanden sein wie auf der Erde. Schon Tümpel, Reservoirs unter der Planetenoberfläche, dünne Feuchtigkeitsschichten auf Gesteinskörnern oder geschmolzenes Eis von einem Meteoriteneinschlag reichen aus, damit entscheidende Vorstufen der Biochemie ablaufen können.

Frühzeit des Mars

Noch sind die Vorgänge über die Frühgeschichte des Mars heute allerdings in vielerlei Hinsicht unklar. Doch schon vor 4,5 Milliarden Jahren dürfte es auf dem Mars festes Gestein gegeben haben. Seine Oberfläche bestand die ersten 500 Millionen Jahre wohl aus Kontinentalplatten, die ständig in Bewegung waren. Der Planet war also geologisch aktiv – so wie die Erde heute. Die Plattentektonik erlahmte aber schon sehr früh.

Bis vor etwa 4,2 Milliarden Jahren brachten Asteroiden und Kometen Wasser und organische Moleküle auf den Mars. Durch die Einschläge wurde ein heftiger Vulkanismus ausgelöst, der vor etwa 4,3 bis 3,5 Milliarden Jahren, während der sog. Noachischen Epoche, das Gesicht des Planeten prägte. Die Zusammensetzung der Atmosphäre und das Klima waren den damaligen irdischen Verhältnissen durchaus ähnlich. Die Atmosphäre bestand wahrscheinlich aus Kohlenstoffdioxid, das insbesondere durch Vulkanismus freigesetzt wird und das auch heute noch wichtigster Bestandteil der Marsatmosphäre ist (s. o.). Der Vulkanismus könnte der Motor für die damals deutlich dichtere Atmosphäre gewesen sein, durch die es möglich war, dass der Mars auch in der Epoche der schwachen Sonne eine für flüssiges Wasser nötige Oberflächentemperatur aufrecht erhalten konnte.

Dafür, dass in der Frühzeit des Planeten Wasser floss, gibt es auch viele geologische Hinweise. So könnten feine dunkle Rinnen an den Hängen der Krater von flüssigem Wasser stammen. In den äquatorialen Hochländern von den nördlichen bis zu den südlichen mittleren Breiten des Mars findet man breite und meist weniger als hundert Kilometer lange, gewundene Flusstäler, wie sie für verzweigte Flusssysteme auf der Erde typisch sind. Die meisten sind über drei Milliarden Jahre alt. Die weitverzweigten Kanäle ergossen sich wahrscheinlich in einen riesigen Ozean, der die Hälfte der Nordhalbkugel des Roten Planeten bedeckte und der an manchen Stellen 1600 Meter tief war, das heutige Borealis-Becken.

Noch sind die genauen Ursachen all dieser Erosionsspuren allerdings nicht definitiv geklärt. Höchstwahrscheinlich sind wohl unterschiedliche geologische Prozesse an der Entstehung der Flusstäler beteiligt gewesen. Vielleicht entstanden wiederholt Wasserfluten nach Klimawechseln, bedingt durch Änderungen der Bahnparameter des Roten Planeten. So könnten einer Theorie nach die Fließspuren an den Hängen der Mars-Krater und in ihrer Umgebung auf heftige Regenfälle zurückgehen. Aber auch Schmelzwasser bei Vulkanausbrüchen und anderen geologischen Aktivitäten sind denkbar. Modellrechnungen zufolge könnten auch Meteoriteneinschläge die Quelle von brachialen Fluten gewesen sein. Dafür spricht, dass die großen Krater und die Fluss-Systeme etwa gleich alt sind – über 3,8 Milliarden Jahre. Um aber große fließende Gewässer auf seiner Oberfläche beherbergen zu können, mussten Treibhausgase den Planeten in gewissem Maße aufheizen. Kohlenstoffdioxid hat dazu wohl nicht allein ausgereicht. Wasserdampf könnte beispielsweise daran mitgewirkt haben, die Temperaturen über dem Gefrierpunkt zu halten, falls geochemische Prozesse ständig Wasserstoff nachlieferten.

Nach anderen Erkenntnissen war unser Nachbarplanet in seiner Frühzeit wahrscheinlich größtenteils von Schnee bedeckt. Vermutlich, so ergaben die Simulationen der Forscher, lag die durchschnittliche Temperatur des Planeten bei -50°C. Danach war der frühe Mars eher ein Eisplanet, auf dem Vulkane, Meteoriteneinschläge und schwankende Jahreszeiten immer wieder eine Teil der Gletscher einschmelzen ließen. In diesem Fall wären es dann Abflüsse unter dem Eis gewesen, die der Marsoberfläche ihre heutige Form gegeben haben.

Es kam aber immer wieder auch zu feuchteren und milderen Episoden, in denen es Flüsse und eisbedeckte Seen gab. Diese milden Klimaphasen wurden durch Ausbrüche des starken Klimagases Methan aus dem Mars-Boden ausgelöst – zurückzuführen wahrscheinlich auf starke Schwankungen der Rotationsachse des Planeten. Demnach könnte es in ausgewählten Gebieten tatsächlich Flüsse und Seen gegeben haben, während viele andere Gebiete wohl von dickem Eis bedeckt waren. Die lebensfreundlichen Phasen sollen jeweils bis zu einer Million Jahre gedauert haben.

Vermutlich war der heute rötliche Planet also zumindest eine Zeitlang blau und besaß in den ersten 800 Millionen Jahren größere Mengen an flüssigem Wasser – das, wie erwähnt, vielleicht aber auch nur phasenweise. Die folgenden grob geschätzten 600 Millionen Jahre (das Hesperian) markieren den Übergang vom frühen teilweise nassen Mars zum eisigen Planeten heute. Er verlor Stück für Stück seine Atmosphäre und Lebensfreundlichkeit. Vermutlich konnte der Planet seine Atmosphäre aufgrund seiner geringen Schwerkraft (ein Drittel der Erdanziehung) nur so lange halten, wie die Vulkane ständig Gas nachlieferten. Als die Eruptionen nachließen, entwichen die atmosphärischen Gase in den Weltraum und gefroren an den Polen. Nicht einmal eine Milliarde Jahre nach seiner Entstehung hatte der Mars den Großteil seiner Atmosphäre verloren. In stark gebremsten Tempo dauerte der Verlust der Mars-Atmosphäre vermutlich bis in die jüngere geologische Vergangenheit an.

Die amazonische Periode

In den letzten rund drei Milliarden Jahren, der amazonischen Periode, war es zwar auf dem Planeten kalt und sehr trocken, aber noch vor zwei Milliarden Jahren könnte es durchaus lebensfreundliche Phasen gegeben haben. Dass es damals und auch später noch Warmphasen gab, führen Wissenschaftler auf vulkanische Aktivitäten zurück. Dadurch freigesetzte Gase könnten sich in der Atmosphäre angereichert und Wärme gespeichert haben, so dass das Eis im Boden schmolz und sich in Senken sammelte. Eine letzte Warmperiode soll es auf dem Mars vor vielleicht 300 Millionen Jahren gegeben haben. Bilder der Marssonde Global Surveyor weisen auf Ausbrüche von flüssigem Wasser noch in jüngster Zeit hin.

[Vielleicht gibt es auch noch Vulkanismus auf dem Mars, zumindest muss der Planet noch bis vor kurzem vulkanisch aktiv gewesen sein. Neuere Beobachtungen dokumentierten frische Ablagerungen und Krater, kaskadierende Erdrutsche und vielleicht kleine Wasserausbrüche.]

Teils könnte Wasser versickert und in Permafrostböden gebunden sein, teils könnte es sich noch heute als Eis über weite Bereiche der nördlichen Ebenen erstrecken, allerdings von Staub und Sand bedeckt. Auch unter den südlichen Hochländern ab einem halben Meter Tiefe wird ein Gemenge aus Staub und und vielleicht riesigen Mengen von Wassereis vermutet. Teile der nördlichen und südlichen Polkappe enthalten heute ebenfalls große Mengen davon; hinzu kommt gefrorenes Kohlendioxid. Unter dem Eispanzer des Marssüdpols könnte es in eineinhalb Kilometern Tiefe ein 20 Kilometer breites Reservoir flüssigen Wassers geben. Ob es ein richtiger See ist, eine Art Schlamm oder wassergesättigtes Sediment, können die Wissenschaftler allerdings noch nicht sagen.

Ein Drittel des Wasser- und Kohlendioxid-Eises an den Polen verdampft jährlich und schlägt sich teilweise später wieder auf dem Boden nieder. Die Polkappen wachsen und schrumpfen so mit den Jahreszeiten. Rechnungen zeigen aber auch, dass der Mars in den letzten zwei Milliarden Jahren so viel Wasserdampf ans All verloren hat, dass man damit den ganzen Mars 160 Meter tief unter Wasser setzen könnte.

Nach neueren Erkenntnissen bahnt sich derzeit ein Klimawandel auf dem roten Planeten an, vermutlich ausgelöst durch einen Anstieg der Sonnenintensität. Setzt sich dieser Vorgang fort, nähme die Kohlendioxidkonzentration in der Atmosphäre schon in zehn Jahren um 1% zu, was einen Treibhauseffekt und damit eine weitere Erwärmung zur Folge hätte. Langfristig könnte sich so der Luftdruck auf dem Mars verdoppeln.

Indizien für Leben

Wenn Leben unter terrestrisches Bedingungen wirklich leicht entsteht, geschah das unter entsprechenden Bedingungen vielleicht auch auf dem Mars. Die meisten Wissenschaftler vermuten, dass vor etwa 3,1 bis 3,8 Milliarden Jahren lange genug eine feuchte und chemisch stabile Umgebung existiert haben könnte, um grundsätzlich Leben, zumindest in einfacher Form, zu ermöglichen. Wenn es für seine Existenz auch (noch) keinen Beleg gibt, so steht doch fest, dass die wichtigsten Zutaten dafür vorhanden waren.

Einige Wissenschaftler halten den Zerfall radioaktiver Elemente und die Wärme, die beim Zusammenballen des Planeten selbst entstand, für mögliche Wärmequellen von hydrothermalen Systemen. Tatsächlich entdeckte der Rover „Spirit“ in den Columbia Hills des Mars im Jahre 2008 Ablagerungen, die vermutlich von heißen Quellen stammen. Forscher haben diese auf ein Alter von 3,65 Milliarden Jahren datiert. Wenn die Entstehung des Lebens auf der Erde nach einer plausiblen Theorie möglicherweise auf Geothermalquellen zurückgeht, wäre auch der Mars ein vielversprechender Bewerber für Leben. Es scheint also durchaus nicht ausgeschlossen zu sein, dass einst Leben auf dem Mars wie auf der Erde entstanden ist.

Unser Nachbarplanet hat in seiner Frühzeit wohl auch ein beachtliches Magnetfeld besessen, das vor kosmischen und solaren Teilchen schützte – eine Voraussetzung, dass sich eine belebte Welt entwickeln konnte. Beschaffenheit und chemische Zusammensetzung von Meteoritengestein ist ebenfalls verträglich mit der Annahme, dass vor drei bis vier Milliarden Jahren Mikroorganismen auf dem Mars existierten. Es gibt sogar Hinweise auf Methangas, das vielleicht sogar biologischen Ursprungs war. Dass es auf dem Mars sogar organische Makromoleküle gibt, gehört zu den wichtigsten Entdeckungen in den letzten Jahren. So wurden diverse Kohlenwasserstoffe nachgewiesen, die auf der Erde in Kohle und Erdöl vorkommen. Sie werden z. B. in Stoffwechselprozessen von Mikroben durch Sulfat-Reduktion gebildet. Im Prinzip kann jedoch jede Struktur, die von Lebewesen gebildet wird, auch durch einen rein physikalischen oder geochemischen Prozess entstanden sein.

Sollte aber Leben auf dem Mars existiert haben, könnte es auch wieder ausgestorben sein – und in diesem Falle müsste man nach Fossilien suchen. Doch solche Relikte werden schwer zu finden sein. Allerdings schließen die Wissenschaftler bei den zeitweiligen Plus-Temperaturen in Äquatornähe nicht ganz aus, dass es selbst heute noch Mikroorganismen auf dem Mars gibt. Doch die Chancen dafür sind sehr gering, da es kein strömendes Wasser gibt, die UV-Strahlung nicht oder kaum durch eine Atmosphäre abgemildert wird und die Temperatur an der Oberfläche extrem niedrig ist.

Vielleicht haben sich die Mikroben aber, als es an der Oberfläche zu kalt und zu trocken wurde, in Refugien des Planeten zurückgezogen – vielleicht in Salzseen oder tiefere Regionen, die durch die Wärme des Marsinneren vom Dauerfrost verschont blieben. Die Möglichkeit, dass unter der Oberfläche unseres Nachbarplaneten einst Mikroorganismen hausten – oder gar heute noch existieren -, wird gestützt durch die Entdeckung von Mikroben im Tiefengestein der Erde, die völlig ohne Sauerstoff auskommen und sich buchstäblich nur von Wasser und Stein ernähren. Umstritten ist aber, ob heute tatsächlich noch genügend Wasser im Marsboden existiert, damit hier Mikroben leben können. Allerdings könnten einfache Organismen Mechanismen entwickelt haben, um Trockenphasen zu überdauern, wie z. B. irdische Bakteriensporen, die als Dauerform selbst ein Vakuum über lange Zeiträume überleben können.

Der Astrobiologe Rhawn Gabriel Joseph glaubt sogar, dass der Mars vermutlich noch immer von Leben besiedelt ist – und nicht nur von Bakterien, sondern auch von Algen, Flechten und Pilzen. Als Indiz, dass Organismen auch schon Sauerstoff durch Fotosynthese produzieren, sieht er die nachgewiesene saisonale Zunahme des sehr geringen Sauerstoff-Gehalts in der Mars-Atmosphäre (im Frühjahr und Sommer um 30% höher) an. Seine Behauptungen halten andere Wissenschaftler zwar für nicht unmöglich, aber sehr schwer vorstellbar.

Die meisten Planetenforscher sind inzwischen davon überzeugt, dass der Planet selbst in seiner Jugend nur sporadisch bewohnbar war. Die Forscherin Frances Westall vermutet, dass Leben zwar auf dem Nachbarplaneten aufgeflackert sein könnte – etwa in Seen, die sich nach Meteoriteneinschlägen oder größeren Vulkanausbrüchen bildeten. Aber „es gab kaum Spielraum für die Evolution“, meint sie. Die Biophysikerin geht davon aus, dass es die Marsianer – falls es sie denn gab – nicht einmal bis zum Bakterienstadium geschafft haben.

Weitere mögliche Lebensinseln im Sonnensystem

Der Mars ist aber auf jeden Fall viel weniger lebensfreundlich im Vergleich mit den fernen Monden Europa (Jupitermond), Titan und Enceladus (Saturn-Monde). Auch sie werden als mögliche „Lebensinseln“ im Universum diskutiert.

Der Jupitermond Europa ist ungefähr so groß wie der Erdenmond. Er ist neben der Erde der einzige Himmelskörper in unserem Sonnensystem, der eine aktive Plattentektonik hat. Astronomen entdeckten eine Subduktionszone, an der rund 20 000 Quadratkilometer Oberflächeneis in der Tiefe verschwunden sind – ein Indiz dafür, dass sich eine tektonische Platte über eine andere geschoben hat. Der Himmelskörper besitzt eine extrem dünne Gashülle aus molekularem Sauerstoff. Die Temperatur an der Oberfläche beträgt am Äquator -160°C und an den Polen -220°C. Unter einem dichten, nur wenige Kilometer dicken Eispanzer schlummert vermutlich ein ausgedehnter Ozean, der wahrscheinlich von Gezeitenkräften (Schwerefeld des Jupiter!) und radioaktivem Zerfall im Mantel erwärmt wird.

Der Saturnmond Titan ist das einzige planetarische Objekt in unserem Sonnensystem, das eine Atmosphäre aus Stickstoff (N2) und Methan (CH4) besitzt, die sogar eineinhalb Mal dichter ist als die der Erde. Teilchen aus dem Sonnenwind lösen chemische Reaktionen aus, bei denen die Moleküle der Atmosphärengase gespalten werden und sich zu einem reichen Arsenal komplexer organischer Moleküle und langer Molekülketten zusammenschließen können – ein Vorgang, der sich auch auf der frühen Erde abgespielt haben könnte. Die massenhaft produzierten Moleküle regnen langsam auf seine Oberfläche hinab und bilden dort eine dicke Schicht aus organischem Schlamm. Unter der eisigen Oberfläche dürfte es einen Ozean aus Wasser und Ammoniak geben. Hier könnte Leben existieren, das sich biochemisch nicht sehr von dem auf der Erde unterscheidet. Chemiker haben sich aber auch alternative biochemische Modelle überlegt, die mit flüssigen Kohlenwasserstoffen funktionieren könnten.

Der kleine eisbedeckte Saturnmond Enceladus gilt als einer der vielversprechendsten Orte in unserem Sonnensystem, um nach Leben zu suchen. Am Südpol des Minimondes liegt tief unter dem Eis ein salziger Ozean, der 30 bis 40 Kilometer tief und mindestens 10 Kilometer mächtig ist. Am Grund des Meeres soll es Temperaturen von +90°C bis vielleicht über 200°C und alkalische pH-Werte (zwischen 9 und 10,5) geben. Hier finden wahrscheinlich hydrothermale Prozesse statt. Unklar ist, woher die Wärme letztlich stammt. In dem See gibt es Hinweise auf sehr große organische Moleküle mit teils mehr als 1000 Atommassen. Die Raumsonde Cassini wies in den Fontänen von Wasserdampf und Eispartikeln, die von Geysiren Hunderte Kilometer hoch ins All geschossen werden, organische Substanzen (z. B. Methan) nach. Auf keinem anderen Himmelskörper passen nach aktuellem Wissensstand alle Umstände besser zusammen als hier, um die Frage nach einer weiteren Entstehung von Leben zu beantworten.

Modellrechnungen lassen aber durchaus denkbar erscheinen, dass die gegenwärtige Aktivität des Saturnmondes nur eine vorübergehende Erscheinung ist. Womöglich wechselt der Mond zwischen aktiven und passiven Perioden, die jeweils viele Millionen Jahre anhalten, hin und her. Gegen Enceladus als Ort des Lebens spricht auch seine geringe Größe mit einem Durchmesser von 504 Kilometern. Vermutlich ist sein Inneres im Laufe seiner Geschichte immer mal wieder komplett gefroren – was möglichen Bewohnern den Garaus gemacht hätte.

REM

Das „ICH“ – eine große Illusion

Wenn es überhaupt einen Aspekt unseres Lebens gibt, den wir für grundlegend halten können, dann ist es die Vorstellung von unserer persönliche Identität, dem Bewusstsein um unsere eigene, einzigartige Person. Wir wissen dadurch, dass wir existieren.

Das „Ich“ wird von uns als ständiger Begleitzustand empfunden. Bei allem, was ich tue und erlebe, habe ich das Gefühl, dass ich es bin, der etwas tut und erlebt, dass ich wach und „bei Bewusstsein“ bin, dass mein Körper damit zu tun hat. Ich sehe ein Bild, ich höre ein Geräusch, ich fühle und ich denke. Durch das Selbstgefühl schafft das Gehirn einen Standpunkt, ein Ich, das von einem Aussichtspunkt auf seine Umwelt blickt. Jeder sieht seinen privaten Kinofilm mit sich selbst in der Hauptrolle. Ich bin es, der auf Grund bestimmter Überzeugungen handelt und in dieser Zeit kontinuierlich existiert. Unser Ich kann aber auch auf sich selbst blicken, die eigene Leistung beurteilen, und sogar wissen, wann es etwas nicht weiß.

In der antiken griechischen Philosophie kam wohl erstmals der Gedanken auf, dass unser Verhalten durch eine dahinter stehende Psyche bestimmt wird. Seit diesen Anfängen des abendländischen Denkens gilt das Ich als zentrales Problem der Philosophie des Geistes – und noch heute stellt die Tatsache, dass wir die Welt aus der Perspektive der ersten Person betrachten, das zentrale Rätsel dar.

In zahlreichen psychologischen Theorien und philosophischen Systemen wird das Ich als ein natürliches Organ des individuellen Geistes betrachtet, das als Träger seiner Subjektivität, Personalität und auch Individualität fungiert. Ähnlich wie Organe des Körpers sei es in der naturgegebenen Ausstattung des Geistes angelegt und entfalte sich im Lauf der individuellen Entwicklung. Solche naturalistischen Ansichten vom Ich beherrschen auch unsere Alltagspsychologie. Wir glauben, völlig autonom zu sein und haben das Gefühl, aus uns selbst heraus zu handeln.

Teilhard de Chardin sah das Ich-Bewusstsein als ein exklusives Kriterium für den Menschen an: Nicht mehr nur wissen, sondern wissen, dass man weiß. Ein Tier weiß, aber nur der Mensch weiß, dass er weiß, einschließlich der Sokratischen Variante ‚Ich weiß, dass ich nicht weiß‘ oder ’nicht wirklich weiß‘. Heute ist bekannt, dass vermutlich nicht nur der Mensch, sondern wohl auch höhere Primaten und möglicherweise andere Tiere zumindest in Ansätzen eine Art Ich-Bewusstsein besitzen. Wie viel Ich-Bewusstsein dabei jeweils im Spiel ist, wissen wir nicht genau, aber ein Ich scheinen Tiere wie Affen, Delfine, Elefanten und Krähenvögel zu haben. Mit Ich ist hier gemeint, über eine Selbstrepräsentation, eine bildhafte Vorstellung von sich selbst zu verfügen.

Die althergebrachten, religiös mitgeprägten Konzepte der personalen Identität, Individualität und Ich-Substanz stehen heute auf dem Prüfstand. Der zentrale Kern, aus dem schließlich das Ich hervorging, das unsere Wahrnehmung, Denken, Fühlen und Wollen koordiniert, muss sich irgendwie im Laufe der Evolution entwickelt haben, vermutlich um dem Individuum eine effektive Selbststeuerung zu ermöglichen. Das Gehirn braucht laufend aktuelle Informationen über Körperzustände, um die verschiedenen Lebensprozesse zu regulieren. Unbewusste Gefühle reichen nicht aus, um in einer sich ständig wandelnden Umwelt zu überleben. Bewusstsein muss hinzukommen. Das sieht man schon daran, dass der Mensch hilflos wie ein Säugling wird, wenn die Instanz des Selbst-Bewusstseins ausfällt. Mit einer gefestigten Sicht seiner selbst aber kann er sich besser in der Welt orientieren und kommt besser mit ihren Gefährdungen zurecht.

Das Ich hat sich jedenfalls bewährt, und sei es als nützliche Fiktion. Wir suchen heute nach Erklärungen, die die Eigenschaften unseres subjektiven Erlebens aus Eigenschaften von zugrunde liegenden Prozessen und Funktionen herleiten. Die Entwicklung der modernen Hirnforschung und ihre Erkenntnisse haben in dieser Hinsicht bereits weitreichende Konsequenzen für unser Selbstverständnis gebracht.

Die Konstruktion des ICHs

Schon Buddha lehrte, dass das Ich eine Täuschung sei, ein trügerisches Konstrukt. In Wirklichkeit sei es zusammengesetzt aus verschiedenen Daseinsfaktoren, die sich mit dem Tod auflösen. Wer die Erleuchtung erreichen will, muss zuletzt auch die Ich-Vorstellung in Frage stellen und überwinden. Der schottische Philosoph David Hume (1711-1776) bezweifelte die Existenz eines zeitlosen Ichs. Er war der Meinung, dass sich das Ich verflüchtigt, sobald wir aufhören zu denken. Und der Experimentalphysiker und Literat Christoph Lichtenberg schrieb im 18. Jahrhundert: „‚Es denkt‘, sollte man sagen, so wie man sagt, ‚es blitzt‘. Zu sagen ‚cogito‘ ist schon zu viel, sobald man es mit ‚Ich denke‘ übersetzt. Das Ich anzunehmen, zu postulieren, ist praktisches Bedürfnis.“

So gehen auch die Konstruktivisten davon aus, dass das Ich in Wirklichkeit gar nicht existiert, es wird konstruiert. Nach dieser heute weit verbreiteten Sichtweise ist das Ich quasi ein Nebenprodukt unserer höheren geistigen Leistungen, ein neuronales Netzwerk, das Empfindungen und Erfahrungen nur zu einem Selbstbild zusammensetzt. Der Philosoph Thomas Metzinger bezeichnet das Ich-Bewusstsein als ein Betrugsmanöver des materiellen Gehirns, welches immer wieder hinkriegt, dass wir das Gefühl haben, aus uns selbst zu handeln und dabei völlig autonom zu sein. Für den amerikanischen Philosophen Ned Block ist das Ich der Mythos eines einheitlichen Wesens, das alles kontrolliert: „Das Ich ist eine Illusion – und zwar die beste, die Mutter Natur je erfunden hat“.

Unsere bewussten Erfahrungen entspringen nach Metzinger dabei nicht dem direkten Kontakt mit der äußeren Welt, sondern werden in einem vom Gehirn konstruierten Selbstmodell integriert. Nur so werden sie als eigene Erfahrungen erlebbar – wobei uns der zu Grunde liegende Mechanismus verborgen bleibt. Das, was wir als Ich bezeichnen, ist also das Selbstmodell, das ein informationsverarbeitendes System konstruiert, eine aktive Datenstruktur, die aber nur zeitweise da ist, nicht aber beispielsweise im Tiefschlaf oder in der Ohnmacht. Sie geht aus Lernprozessen hervor, ist also erfahrungsabhängig. Die Strukturen des Ich wären dann nicht a priori gegeben, sondern a posteriori erzeugt.

Metzinger sieht dafür, dass unser Ich eine flexible Konstruktion des Gehirns ist, starke Argumente und Belege in Studien in experimentellen Untersuchungen. Wir machen normalerweise keinen Unterschied zwischen dem Ich und unserem Körper. („Ich bin da, wo mein Körper ist.“) Füttert man das Gehirn aber beispielsweise mit ungewohnten Sinnesdaten, etwa veränderten visuellen Informationen, lassen sich die Mechanismen, die das Selbstmodell erzeugen, ohne Weiteres – und ohne höhere Macht – aus dem Tritt bringen. Die Vorstellung von der Identität von Ich und Körper auszuhebeln, bedarf es also nicht viel.

Schütteln sich zwei Personen die Hand, und die eine sieht sich per Kamera dabei selbst zu – quasi durch die Augen der anderen -, fühlt sie sich wie im Körper des Gegenübers. Wird die Kamera auf eine hölzerne Gliederpuppe montiert, so dass die Versuchsperson am Bauch der Puppe herabblicken kann wie am eigenen, dann „spürt“ sie es, wenn jemand den Holzkameraden berührt. Sie fühlt sich nach kaum einer Minute unwillkürlich in den Puppenkörper hineinversetzt: Sie weiß zwar „das bin ich nicht“ – doch fühlt es sich ganz anders an! Setzen die Wissenschaftler nun noch eine künstliche Spinne auf den Arm der Gliederpuppe, bekommt der Versuchsteilnehmer den unangenehmen Eindruck, dass das Tier auf seinem eigenen Arm herumkrabbelt. Wenn also die Erwartungen mit den Sinnesdaten, die man etwa von den Augen erhält, zusammenpassen, so stellt sich das Gefühl der Urheberschaft ein.

Auch bei akut psychotischen Patienten kann die Selbst-Fremd-Unterscheidung gestört sein, mit dem kuriosen Nebeneffekt, dass sie selbst herbeigeführte Berührungen der eigenen Haut unverändert stark empfinden und sich somit prinzipiell auch selbst kitzeln könnten. Manche Patienten sind überzeugt, ihren eigenen Körper nicht steuern zu können, ihre Bewegungen seien also fremdgesteuert. Eine ähnliche Störung des Ich-Erlebens könnte gewissen Symptomen der Schizophrenie zu Grund liegen. Schizophrenie-Patienten sind oft geprägt von Wahnideen, Halluzinationen und einem gestörten Ich-Gefühl – bis hin zum Verlust der eigenen Identität. (s. u.) Sie sind in akuten psychotischen Phasen nicht mehr in der Lage zu unterscheiden, ob eine Bewegung oder ein Gedanke von der Außenwelt oder von ihnen selbst erzeugt wird. Sie fühlen sich bedroht oder hören Stimmen, die ihnen etwas befehlen.

Die Einheit von Körper und Geist – und damit Ich-Bewusstsein – ist also nicht selbstverständlich. Außerkörperliche Erfahrungen sind besonders drastische Belege dafür, dass unser Ich keine im Körper verankerte Instanz ist, sondern Inhalt eines vom Gehirn konstruierten, inneren Bildes, das von außen manipulierbar ist. Es ist die zentrale Verarbeitungseinheit, die Muster wiedererkennt, Vergangenes und Zukünftiges verbindet, Prioritäten setzt und vieles mehr. Wir brauchen es als eine Art Projektionsfläche, um uns als autonom handelnde und fühlende Wesen zu begreifen. Somit dient es vor allem dem Zweck, uns laufend flexibel auf unsere Umwelt und andere Menschen einzustellen – und handlungsfähig zu bleiben. Im Extremfall außergewöhnlicher Bewusstseinszustände kann die Ich-Wahrnehmung (wie auch die Zeit-Wahrnehmung) ganz verschwinden, etwa bei langjähriger Meditationserfahrung oder unter dem Eindruck bestimmter Drogen, so genannten Halluzinogenen, aber auch bei selten auftretenden mystischen Erlebnissen, in der Hypnose und in Trance, sowie bei so genannten Nahtoderfahrungen.

Die eigentlich spannende philosophische Frage findet Metzinger in diesem Zusammenhang, wieso wir unser phänomenologisches Ich, auch unsere Körperlichkeit, in diesem naiven Realismus erleben. Denn trotz allem sind wir uns ganz sicher, dass unser Ich-Bewusstsein etwas Konstantes ist – und dass wir uns selbst in unserer Umwelt unter Kontrolle haben. Und schließlich denken wir, genau zu wissen, wer wir sind, wo wir uns gerade befinden, was wir tun und wofür wir uns entscheiden. Warum wir im Laufe der Evolution ein so gutes inneres Bild von uns selbst erzeugt haben, das so gut ist, dass wir das Modell mit sich selbst verwechseln, ist das große Rätsel.

Das ICH als soziale Konstruktion

Die Lernerfahrungen, die das Individuum mit seiner physischen und sozialen Umgebung macht, sind entscheidend für den Aufbau des Ichs. Sicher gibt es auch einen genetisch gegebenen Anteil, über dessen Umfang immer noch gestritten wird. Aber für viele heutige Kognitionswissenschaftler ist das Ich zu wesentlichen Teilen ein soziales Konstrukt. Am Anfang stehen jedenfalls Andere, durch die ich erfahre, dass ich Individualität und subjektive Empfindungen besitze. Ohne den Anderen kein Ich.

Die heutigen Theorien der „Sozialen Spiegelung“ zeigen, wie das eigene Selbst aus der Spiegelung durch andere hervorgeht. Schon Mitte des 18. Jahrhunderts hatte der schottische Philosoph Adam Smith (1723-1790) eine solche Theorie entwickelt. Dabei werden drei Komponenten zusammengeführt: Die Wahrnehmung fremder Handlungen, die Spiegelung eigener durch fremde Handlungen und den Aufbau wirksamer Selbst-Repräsentationen.

Individuelle Entwicklung

Die Entwicklung des Ichs beginnt in der frühen Kindheit. Babys entwickeln das Gefühl, von der übrigen Welt abgekapselt zu sein: ‚Ich‘ bin hier und ‚das‘, was immer man gerade anschaut, ist ‚dort‘. Es kommt zu einer Spaltung zwischen Ich und dem Rest der Welt. Fremdes wird vom eigenen Körper unterschieden, der als Urheber der Körperbewegungen und des eigenen Handelns erlebt wird. Die Welt aus einer egozentrischen Perspektive zu betrachten und sich selbst als handlungsfähiges Objekt neben anderen zu sehen wird beispielsweise deutlich, wenn sich das Kleinkind ab dem 18. Lebensmonat als „verkörpertes Ich“ selbst im Spiegel erkennen kann. Die körpergebundene Perspektive erzeugt fortan über alle Veränderungen hinweg ein Gefühl der Zugehörigkeit zu einem beständigen Ich und prägt so unser Selbstbild und Ich-Gefühl.

Im Alter von zwei Jahren beginnt das Kleinkind Begriffe wie „mir“ und „mein“ zu verwenden, was auf die wichtige Rolle der Sprache bei der Ich-Entwicklung hinweist. Es benutzt zum ersten Mal das Wort ‚ich‘ – vorher sprechen Kinder von sich meist in der dritten Person: „Max Hunger!“ Eigene Gefühlsregungen („Ich bin traurig“) benennen Kinder mit etwa drei Jahren. Mit dem Ich-Verständnis beginnt auch ein autobiografisches Gedächtnis; die Phase der „frühkindlichen Amnesie“ endet. Wir müssen annehmen, dass das komplexe Ich, das etwa im dritten, vierten Lebensjahr entsteht, mit der komplexen grammatikalisch-syntaktischen Sprache zusammenfällt.

Nur durch Interaktion mit einem Gegenüber kann ein Ich erschaffen und geformt werden. Das Fremd-Verständnis wird für das Selbst-Verständnis genutzt. Das Kind erlebt andere als mentale Akteure, die ihm als Modell dienen dafür, dass es sich selbst auch als mentalen Akteur mit Absichten und Bewusstsein versteht. Es braucht auch andere Menschen, um das Ich-Gefühl weiter zu entwickeln und sich eine Vorstellung von der Welt zu machen.

Über Gespräche mit Eltern und Geschwistern, Verwandten und der Spielgruppe lernt das Kind sich selbst sozusagen aus der Außenperspektive kennen, erfährt, dass es als eigenständiges Wesen betrachtet wird, und begreift sich schließlich selbst als Person, als Ich. Aus den Zuschreibungen, die von den anderen Personen übernommen werden („Du bist ein kluges Mädchen!“), zum anderen aus dem eigenen Empfinden in bestimmten Situationen (etwa Angst beim Alleinsein), entwickelt sich das Selbstbild, das allerdings anfangs noch nicht stabil ist.

„Zwischen der Geburt und dem Alter von fünf Jahren werden bis zu 40% der Persönlichkeit ausgebildet“, betont der deutsche Hirnforscher Gerhard Roth. Jede neue Erfahrung formt den Menschen weiter, sowohl biografisch als auch biologisch. Wie sich der Körper durch seinen Stoffwechsel laufend verändert, tritt auch das Ich nie auf der Stelle. Bewusstes Nachdenken, vor allem aber unbewusste Verarbeitungsprozesse spielen dabei eine wichtige Rolle. Die Grenze zwischen beiden ist fließend.

Die Kinder lernen die eigenen Überzeugungen, Wünsche, Hoffnungen usw. von denen anderer klar abzugrenzen. Indem sie aus der Ich-Sicht in die Er/Sie-Perspektive wechseln, können sie sich in andere Menschen hineinversetzen. Mit zunehmendem Alter wird das Selbstbild gedanklich immer differenzierter bewertet, so dass sich etwa bis zur Schulreife feste Selbsteinschätzungen und persönliche Ziele, Motivationen und Werte ausbilden.

Ab dem Grundschulalter entsteht ein Selbstwertgefühl. Der Heranwachsende beginnt, die eigenen Gedanken zum Gegenstand seines Denkens zu machen und bildet Urteile über sich selbst (Metakognitionen). In der Pubertät beginnen sich die Jugendlichen über Dinge zu identifizieren, die gar nicht direkt zu ihnen gehören, wie Kleidung, Computerspiele oder Musik, über die sie aber der eigenen Identität Ausdruck verleihen. Vertraute Personen haben die wichtige Funktion, das Selbstgefühl zu spiegeln und die Selbsteinschätzung gegebenenfalls zu korrigieren. Aus dem Miteinander, aus der Widerspiegelung des eigenen Tuns und des eigenen Willens und über immer differenziertere soziale Rollen erwerben Jugendlich und junge Erwachsene schließlich eine ausgereifte persönliche Identität. Danach verändert sich das bewusste Selbstbild eines Menschen, die Einstellungen und Urteile, die er über das eigene Ich bildet, kaum noch grundlegend.

Die Rolle der Kultur

Weil die am Dialog mit dem werdenden Gehirn beteiligten Personen ihrerseits wieder stark von den Menschen geprägt sind, die ihnen selbst einmal zu Bewusstsein verholfen haben, aber auch von ihrer jeweiligen Kultur, erhält das Ich-Bewusstsein zusätzlich eine historische Dimension. Die Art, uns zu erfahren, ist keinesfalls etwas von der Gesellschaft Unabhängiges, sie weist auch kulturspezifische Merkmale auf. Unsere Ich-Erfahrung ist deshalb mit hoher Wahrscheinlichkeit verschieden von der unserer Großeltern und von der Ich-Erfahrung, wie sie Menschen aus anderen Ländern und Kulturen haben.

So hat sich vermutlich das menschliche Ich unter dem Selektionsdruck entwickelt, den das komplexe Gemeinschaftsleben auf unsere Ahnen ausübte. Jahrmillionen lang lebten die Hominiden in kleinen Gruppen, gingen gemeinsam auf Nahrungssuche und teilten Beute und Sammelgut miteinander. Das verlangte Kooperation und gegenseitiges Vertrauen. Und diese Verhaltensweisen erforderten ein differenziertes Ich-Bewusstsein. Die Erfahrung, ein freies, autonomes Ich zu sein, ist also nicht nur das Ergebnis der biologischen, sondern auch der kulturellen Evolution.

Identität und Selbstbild

Mithilfe des autobiografischen Gedächtnis wird „aus dem Strom (von Ich-Empfindungen) das Ich-Gefühl, das wir wahrnehmen“ (Gerhard Roth, Neurophysiologe). Aus diesem und gleichbleibenden Bewertungen definiert sich unsere Identität. Dazu gehören wesentlich unsere Fähigkeiten, Wünsche, Ziele, Überzeugungen, Hoffnungen, Befürchtungen usw. Kein anderes Ich kann je in unsere Haut schlüpfen oder genau das erfahren, was wir erleben. Anhand unseres Selbstbildes erklären wir uns auch das Verhalten anderer Menschen und ordnen ihnen Wünsche und Überzeugungen zu (Theory of Mind). Man braucht beides, sich selbst zu verstehen und ein Einfühlungsvermögen in andere zu haben, um sich als „richtiger“ Mensch zu fühlen.

Aber wir haben nicht ohne Weiteres Zugang zu den Gedanken und Gefühlen von anderen. Jeder besitzt ein Ich-Bewusstsein, das sich nach seinen ureigenen Erfahrungen entwickelt hat, und eine eigene Wirklichkeit, die sich von der aller anderen Menschen unterscheidet. Trotzdem setzen wir nicht nur voraus, dass die meisten Menschen ähnlich denken, fühlen und erleben wie wir – offenbar liegt es uns geradezu im Blut, aus flüchtigen Eindrücken auf den momentanen Gefühlszustand oder die Gedanken unserer Mitmenschen zu schließen. Doch es ist eine tiefe Einsicht, die uns die Konstruktivisten vermitteln: Ich darf nie davon ausgehen, dass der andere so wahrnimmt wie ich, auch, dass er so denkt oder fühlt, wie ich glaube, dass er denkt oder fühlt. Das wäre eine fatale Verkennung der Tatsache, dass jeder in seiner eigenen Welt lebt, dass Verstehen der Sonderfall ist und Nichtverstehen die Regel. Allerdings: Je näher sich Menschen stehen, umso größer ist die Chance, dass sie die Welt ähnlich interpretieren.

Erstaunlich ist die Stabilität unseres Ichs, die wir empfinden. Identität meint ja das Gefühl, nicht nur eine Person zu sein, sondern darüber hinaus dieselbe Person, die ich gestern war und morgen sein werde. Das ist keine Selbstverständlichkeit, denn Menschen verändern sich: Sie unterliegen einem ständigen Wandel. Der heutige Erwachsene sieht anders aus, hat andere Fähigkeiten als das Kleinkind, das er einmal war. Auch unser Ich ist kein statisches Gebilde, sondern ein dynamisches Produkt von Prozessen. Auf Grund unserer Erlebnisse und Erfahrungen, die unser Ich ständig aktualisieren, spielt uns das Gehirn ein kontinuierliches Ich als feste unwandelbare Größe also nur vor. Wir bilden uns also lediglich ein, lebenslang ein- und dieselbe Person mit unveränderlichem Wesenskern zu sein und zu bleiben.

Das Ich ist anfällig für subtile Beeinflussungen und passt sich flexibel an den jeweiligen Kontext an – ohne dass wir etwas davon bemerken. Vergleiche mit anderen sind eine zentrale Stellschraube für das ständige Nachjustieren des Selbstbildes. Neben gelernten Erwartungen und dem sozialen Umfeld modulieren auch Gedanken und Gefühle jederzeit das Ich. Sie prägen unsere Entscheidungen, den beruflichen Werdegang und letztlich die Persönlichkeit. Tendenziell schützt ein starkes Selbstbild, aber weder Altruisten oder Egomanen sind vor der Macht der unterschwelligen Reize gefeit.

Illusionen bestimmen weite Teile unserer Identität. Bei der Wahrnehmung und oft auch beim Erinnern und Begründen unserer eigenen Handlungen täuschen wir uns oft, weil wir versuchen, ein kohärentes und stimmiges Selbstbild aufrechtzuerhalten. So lehrt die Alltagspsychologie, dass wir uns zum Schutz eines positiven Selbstbilds systematisch Selbsttäuschungen hingeben – sei es, weil unsere Selbsteinschätzung vom tatsächlichen Handeln abweicht, sei es, weil wir sozial Erwünschtes schlecht von unseren eigentlichen Überzeugungen trennen können. Selbsttäuschung trägt also zur Stabilisierung des Selbstbildes und damit zu unserem Wohlbefinden bei.

Da es sich einfach ziemlich oft auszahlt, uns in gewissem Maß zu überschätzen, könnte dieses Prinzip stammesgeschichtlich so tief in uns verwurzelt sein, dass Täuschung einen zentralen Baustein des Ich darstellt. Problematisch werden Selbsttäuschungen nur in übertriebener Form – oder wenn sie krankhafte Zustände annehmen. (Unsere Neigung zur Selbstüberschätzung ist ein in zahlreichen Studien bestätigtes Phänomen. Sie kann uns aber in Situationen motivieren, in denen eine realistische Einschätzung eher dazu führen würde, die Flinte ins Korn zu werfen.)

Die neurologische Grundlage des Ichs

Aber auch wenn die Ich-Vorstellung vom Gehirn konstruiert ist, so bleibt doch das, was sie repräsentiert, real. Auch sozial konstruierte Tatsachen sind real, sofern sie unser Denken und Handeln prägen. Die Neurologie lehrt uns, dass das Ich aus vielen Komponenten besteht, was sich auch in einer Vielzahl von neurologischen Erkrankungen widerspiegelt. Das Ich eines Depressivem etwa ist schon auf der emotionalen, affektiven Ebene brüchig: Die Patienten erleben ihr Ich als äußerst negativ gefärbt und im Extremfall gar nicht mehr als Ich. Epilepsie-Patienten erleben das ekstatische Gefühl der Vereinigung mit der Welt, indem sie sich selbst vergessen. Diese Erlebnisse dauern einige Sekunden bis Minuten und münden schließlich in Bewusstlosigkeit.

Wie unser subjektiver Eindruck entsteht, Urheber der eigenen Handlungen zu sein, und wie das Gehirn ein geschlossenes, stabil wirkendes Selbst erzeugt, ist bis heute ein Rätsel. Ein solch komplexes Phänomen ist jedenfalls nicht in einem einzelnen Bereich oder einer Region des Gehirns zu finden, sondern in einem Netzwerk, dass mehrere Hirnregionen umfasst. Hirnschädigungen, -störungen oder Ausfälle bestimmter Hirnregionen geben uns Hinweise auf die Grundlagen, die das Ich ausmachen.

Einem Modell zufolge sind kortikale und subkortikale Strukturen (Kortex = Gehirnrinde) entlang der Furche zwischen den Hirnhälften (der „kortikalen Mittellinie“) für mehrere auf das Ich bezogene Verarbeitungsprozesse entscheidend. Besonders wichtig für die Eigenwahrnehmung ist ein Abschnitt der Hirnrinde am vorderen Übergang vom Frontal- zum Schläfenlappen – die vordere Insula (Inselrinde). Sie verrechnet die Signale, die Auskunft über den Zustand des Körpers geben, schrittweise mit Informationen aus anderen Sinnen über die gesamte momentane Situation. Über die neuronale Aktivität in der Inselrinde sowie über nachgeschaltete Hirnareale entsteht ein Ich, das sich seiner selbst und seiner Präsenz in Zeit und Raum bewusst ist.

Dafür scheint auch der Präfrontalkortex im Stirnhirn unerlässlich zu sein. Demenz geht oft mit Störungen des Selbstbewusstseins und mit strukturellen und funktionellen Beeinträchtigungen des präfrontalen Kortex einher. Dazu passt, dass diese Region im Laufe der Primatenevolution stärker gewachsen ist als jede andere. Sie steht u. a. mit neuronalen Sprachzentren wie der Broca-Region sowie dem Hippocampus als Vermittlerinstanz für den Gedächtnisabruf in Verbindung. Dadurch sind wir in der Lage, das eigene Verhalten zu reflektieren und es gezielt zu beeinflussen.

Der Verlust der Ich-Funktion ist ein ausgesprochen ernstes Symptom. Es gibt Menschen, die völlig unfähig sind, ein Ich zu entwickeln. Die Patienten sehen sich nicht mehr als Urheber ihrer Handlungen. In den späteren Stadien der Alzheimer-Krankheit z. B. reagieren sie allmählich nur noch reflexhaft. Die Bilder in ihrem Gehirn hängen nicht mehr zusammen und haben nichts mehr mit ihnen als Person zu tun. Traditionell wird Schizophrenie z. B mit Störungen des neurochemischen Gleichgewichts in Teilen des Gehirns (vor allem beim Neurotransmitter Dopamin) erklärt. Vermutlich kommen aber anatomische Abweichungen der Nervenverbindungen hinzu, die zu einer veränderten Kortexarchitektur führen. Dadurch ist die Signalübertragung in dem weit verteilten Netzwerk der Hirnareale gestört.

Die Symptome von Multiplen sind von denen der Schizophrenen kaum zu unterscheiden. Die Ursachen für die „Dissoziative Identitätsstörung“ (früher „multiple Identitätsstörung“ genannt), bei der Betroffene zwei oder mehr verschiedene Identitätszustände entwickelt, liegen meist in einer frühen Hirnschädigung oder schweren und länger andauernden traumatischen Erlebnissen, z. B. Missbrauch. Die Abspaltung eines Teils des Ichs ist oft der einzige Weg, mit dieser schrecklichen Erfahrung fertig zu werden. Daneben kommen auch Umweltfaktoren wie städtische Umgebung, Migrationshintergrund, Zugehörigkeit zu einer sozialen Minderheit, Armut bis hin zu Bürgerkriegserfahrung, aber auch Cannabis-Konsum als Ursache für eine solche Störung in Frage, bei der nicht einzelne Hirnareale betroffen sind, sondern vielmehr die Verbindung zwischen ihnen.

Die Grenze zwischen Normalität und multipler Persönlichkeitsstörung ist aber durchlässig. Dass im Ansatz sogar jeder in gewissem Maße multipel ist, zeigt allein die Tatsache, dass der Mensch manchmal sein eigenes Tun im Nachhinein nicht begreift und zwischen Verstand und Gefühl einen Unterschied macht.

REM

Die kosmische (Mikrowellen-)Hintergrundstrahlung

Ein Fundament, auf dem wir unser Wissen vom Urknall gründen, ist das schwache Glühen der kosmischen Mikrowellen-Hintergrundstrahlung. Ihre Entdeckung ist ein gutes Beispiel für die Arbeitsweise der Astro-Wissenschaftler: Aufgrund von Beobachtungen (Fluchtgeschwindigkeit der Galaxien) wurde ein Modell entworfen (Urknall). Aus dem Modell ergab sich eine weitere Forderung: Eine Hintergrundstrahlung. Diese wurde schließlich tatsächlich nachgewiesen, als zwei Forscher rein zufällig auf sie stießen.

Entdeckung

Robert H. Dicke arbeitete in den vierziger Jahren am MIT (Massachusetts Institute of Technology) in Cambridge an der Entwicklung des Radars. Dabei erfand er das Mikrowellen-Radiometer, ein Gerät, mit dem man schwache Strahlungspegel messen kann. In den sechziger Jahren benutzten die US-amerikanischen Astrophysiker Arno W. Penzias und Robert W. Wilson ein solches Radiometer an einer großen Hornantenne, die dem Empfang von Signalen der frühen Kommunikationssatelliten Echo-1 und Telstar gedient hatte. Sie waren auf der Suche eines seltsamen Rauschens, einer vermeintlichen Störung der Radioantenne. Das Radiometer registrierte jedoch mehr Strahlung als erwartet. Was zunächst als lästiger Störeffekt empfunden wurde, konnten Penzias und Wilson schließlich als ein kosmisches Strahlungsfeld im Mikrowellenbereich deuten. Damit hatten sie 1964/65 die kosmische Hintergrundstrahlung entdeckt.

(Wenn man ein Fernsehgerät auf eine Frequenz einstellt, die zwischen denen der Fernsehsender liegt, sieht man auf dem Fernsehschirm „Schneegestöber“, und es ertönt ein Zischen, das manchmal als „statisches Rauschen“ bezeichnet wird. Etwa ein Prozent des empfangenen Signals, das dieses Rauschen hervorruft, ist tatsächlich die kosmische Mikrowellen-Hintergrundstrahlung.)

Erst durch die Entdeckung der kosmischen Hintergrundstrahlung wurde der Konflikt zwischen der Steady-State-Theorie, die von einem zeitlich und räumlich gleichförmigen Universum ausgeht, und der Urknall-Theorie zugunsten Letzterer endgültig gelöst. Nur unter der Voraussetzung, dass sich das Universum aus einem dichten und heißen Zustand heraus entwickelte, konnte diese Hintergrundstrahlung entstanden sein.

Entstehung

Die Hintergrundstrahlung besteht aus Photonen (Lichtteilchen), die 379 000 Jahre nach dem Urknall erstmals das Universum durchfluteten. Damals waren die Abstände im Universum bis auf ein Tausendstel ihrer heutigen Größe angewachsen und die Temperatur unter 3000°K (2730°C) gefallen.

Bis dahin war die Strahlung noch von der Materie gefangen: Photonen, Elektronen und Protonen waren stark aneinander gekoppelt; sie wechselwirkten ständig miteinander, so dass die Photonen immer wieder zerstreut wurden. Gleichzeitig stand der Strahlungsdruck der Photonen aber auch der Tendenz der Materieteilchen zur Zusammenballung entgegen. Als er nachließ, konnten freie Elektronen von den Ionen eingefangen werden und neutrale Atome bilden. Die Photonen breiteten sich jetzt ungehindert aus, das Universum wurde „durchsichtig“ (lichtdurchlässig).

Die Strahlung breitete sich aber nicht in den Raum aus, sondern erfüllte für alle Zeit – auch heute noch – den vorhandenen Raum. Während also der Raum weiter expandierte, ist die Strahlung mit ihm expandiert. Bei ihrer Entstehung war sie noch infrarot; ihre Wellenlänge betrug etwa 1000 Nanometer (entspricht etwa der des sichtbaren Lichts). Mit der Expansion des Universums wurde die Wellenlänge immer mehr gedehnt – insgesamt um das 1100-fache bis auf ihre heutige Länge, die im Millimeterbereich (Mikrowellenbereich) liegt. Man sagt auch: Die Strahlung wurde rotverschoben. Daher ist das Weltall heute kalt – 2,725°C (plus/minus 0,002°) über dem absoluten Nullpunkt* – und der Nachthimmel erscheint uns heute dunkel. (Durch die weitere Expansion des Universums wird die Temperatur der Hintergrundstrahlung in den nächsten ca. 15 Milliarden Jahre um weitere 1,5° sinken.)

*[Der absolute Nullpunkt ist die Temperatur, bei der alle thermische Bewegung der Atome und Moleküle aufhört. Er liegt bei -273,16°C, was als null Grad auf der absoluten Temperatur-Skala, der Kelvin-Skala, definiert wird.]

Noch heute aber hat die Hintergrundstrahlung mehr Energie als das Licht sämtlicher Sterne im Weltall. Etwa 90% ihrer ursprünglichen Photonen wurden bisher nicht absorbiert. Ihre Zahl ist mehr als tausendmal so hoch wie die seitdem erzeugten Ströme von neuen Photonen. Warum zu Beginn die Zahl der Photonen so hoch war oder welche unbekannten Erscheinungen damals tausendmal besser waren als alles, was folgte, wissen wir noch nicht. Heute befinden sich ungefähr 400 Photonen in jedem Kubikzentimeter Weltraum.

Die kosmische Hintergrundstrahlung ist äußerst homogen, d. h., sie füllt den Raum in alle Richtungen extrem gleichmäßig aus. Abweichungen überschreiten nirgendwo mehr als 0,001% – ein starkes Argument für das Kopernikanische Prinzip, nach dem wir uns nicht an einem besonderen Punkt im Universum befinden. Allerdings ist diese Hintergrundstrahlung nicht völlig gleichförmig. Es finden sich in ihre schwache Temperaturschwankungen: Fluktuationen oder „Ripples“.

Inhomogenitäten

Am Ende der Plasmaphase hatten Photonen und Neutrinos noch einen signifikanten Schwerkrafteinfluss. Er ist von jedem einzelnen Teilchen zwar extrem gering, war in der Summe aber damals noch wirksam. (Das Universum soll zu jener Zeit zu 15% aus Photonen und zu 10% aus Neutrinos bestanden haben.) Vor allem der Druck der Photonen, die im Plasma nach kurzer Wegstrecke absorbiert und anschließend emittiert wurden, hat dazu geführt, dass sich Dichteschwingungen als Abfolge geringfügiger Verdichtungen und Verdünnungen im Plasma ausbreiteten – ganz analog zu Schallwellen in einer Flüssigkeit. Die Verdichtungen erhitzten das Gas, die Verdünnungen kühlten es ab. Folglich ergab jede Störung im frühen Universum ein Muster an Temperaturfluktuationen.

Dieses durch die Schwingungen verursachte Muster von heißen und kalten Flecken wurde zum Zeitpunkt der „Entkopplung“ von Strahlung und Materie gleichsam im Strahlungshintergrund „eingefroren“. Da die von dichteren und heißeren Regionen abgestrahlten Photonen energiereicher waren als die aus verdünnten Regionen, finden sich die Photonen heute als kosmische Hintergrundstrahlung mit leicht unterschiedlichen Temperaturen in den Detektoren der Astronomen wieder.

Aber es gibt noch Differenzen, die sich nur in den mathematischen Analysen zeigen und nicht ohne Weiteres anschaulich gemacht werden können. So schwankt die Temperatur der Strahlung je nach Blickrichtung um einige zehn bis hunderttausendstel Grad. Eine Asymmetrie der Durchschnittstemperaturen an den entgegengesetzten Hemisphären des Himmels ist verblüffend und widerspricht der Annahme, dass das Universum im großen Maßstab überall gleich aussieht. Es scheint, als gäbe es eine Vorzugsrichtung. Seltsam ist, dass diese noch in der ekliptischen Ebene liegt, also ungefähr mit der Bahnebene der Erde um die Sonne korreliert. Am Überraschendsten ist wohl die Tatsache, dass die Fluktuationen bei den Temperaturen auf großen Winkelskalen nicht den im Standardmodell vorhergesagten Werten entsprechen. Die Signale sind nicht so stark, wie man dies erwartet.

Die Astrophysiker sprechen von leichter Anisotropie der Hintergrundstrahlung. Allerdings ist die statistische Signifikanz der Anisotropien nicht groß genug, um grundlegende Änderungen am kosmologischen Modell zu rechtfertigen.

Die winzigen Unregelmäßigkeiten in der kosmischen Hintergrundstrahlung könnten Spuren von Gravitationswellen sein, die das Universum kurz nach dem Urknall erschütterten. Während der Inflationszeit entstanden nämlich auch Quanten des Gravitationsfeldes: Gravitonen. Sie haben vermutlich in Form von großen Gravitationswellen ebenfalls Spuren in der Raumzeit hinterlassen und dadurch zur Anisotropie der Hintergrundstrahlung beigetragen. Als die Hintergrundstrahlung sich von der Materie löste, der Plasmazustand also in einen Gaszustand überging, begann gleichzeitig die Schwerkraft auf sie zu wirken.

[Minimale Temperaturschwankungen könnten auch durch Dunkle Materie entstanden sein. Nach theoretischen Überlegungen und Computersimulationen sollte diese trotz Ausdehnung des Universums bereits kurz vor der Entkopplungszeit erste Verdichtungen (schwach ausgeprägte Massenkonzentrationen) gebildet und zur Zeit der Entkopplung schon in Form von Unregelmäßigkeiten vorgelegen haben. Sie hätte so ihre eigene Schwerkraft erzeugt und normale Materieteilchen angezogen, wodurch diese Stellen wärmer wurden.]

Bedeutung

Die kosmische Hintergrundstrahlung markiert den Rand des beobachtbaren Universums wie ein undurchdringlicher Vorhang. Weiter kann man nicht blicken, weil das Weltall zuvor undurchsichtig war. Dieser optische Horizont hat heute eine Entfernung von 46 Milliarden Lichtjahren (1 Lichtjahr = 9,461 Billionen Kilometer). Die Strahlung stellt also die früheste Information dar, die wir vom jungen Universum haben. Sie kann uns Hinweise darauf geben, wie das Universum, seine physikalischen Bedingungen und Eigenschaften, 379 000 Jahre nach dem Urknall beschaffen waren. In ihr verbergen sich sogar schwache Spuren von der Zeit davor. Max Tegmark, schwedisch-amerikanischer Kosmologe: „Die kosmische Hintergrundstrahlung ist für die Kosmologie , was die Erbsubstanz DNA für die Biologie ist.“ Die Astronomen müssten nur noch lernen, dieses himmlische Dokument zu lesen.

Es ist beeindruckend, wie viel Kosmologen aus der Hintergrundstrahlung schon herauslesen können. Anhand ihrer Unregelmäßigkeiten können Forscher rekonstruieren, welche der Schwingungen damals dominant waren. Daraus lassen sich mehrere Schlüsselparameter ableiten, darunter die Krümmung des Universums sowie die Dichten der sichtbaren und Dunklen Materie. Auch andere fundamentalen Kenngrößen des Alls wie Alter und Ausdehnungsrate (Hubble-Konstante) können anhand des Verteilungsmusters der Temperaturschwankungen errechnet werden. Sie lassen aber auch Rückschlüsse auf eine viel frühere Epoche – wenige Sekundenbruchteile nach dem Urknall – sowie auf die spätere Entstehung der ersten Sterne zu.

Weitere Strahlungsfelder im Universum

Die kosmische Hintergrundstrahlung im Mikrowellenbereich ist nicht die einzige Hintergrundstrahlung. Es gibt z. B. noch die extragalaktische Hintergrundstrahlung. Sie erfüllt das gesamte Universum mit einem feinen „Gas“, das aus den Lichtquanten (Photonen) besteht, die im extragalaktischen Raum umherschwirren und von allen Sternen und Galaxien im Laufe der gesamten kosmischen Geschichte ausgesandt wurden. Es erhält noch heute Zuwachs durch das Erstrahlen neuer Sterne.

Das extragalaktische Hintergrundlicht, das vom nahen Ultraviolett über den sichtbaren Bereich bis zum Infrarot reicht, wurde erst 2012/2013 eindeutig quantifiziert, da es schwer zu entdecken ist. Es wirkt so schwach, weil der extragalaktische Raum gegenüber der Anzahl aller einst oder heute leuchtenden Galaxien überwältigend groß ist. Obendrein breiten sich die Photonen infolge der Expansion des Weltalls über ein ständig wachsendes Volumen aus und werden mit der Zeit quasi verdünnt. (Neuerdings können Astronomen dieses Hintergrundlicht indirekt anhand der Gammastrahlung messen, die von fernen Blazaren – besonders hellen Galaxienkernen – ausgeht und unterwegs durch Zusammenstöße mit extragalaktischen Photonen geschwächt wird.)

Außer dem kosmischen und extragalaktischen Hintergrundlicht erfüllen noch weitere Strahlungsfelder den ganzen Himmel, etwa der Infrarothintergrund, der Röntgenhintergrund und der Hintergrund aus energiereichen Gammastrahlen. Der kosmische Röntgenstrahlungshintergrund wurde bereits 1962 gemessen. Er stammt überwiegend (zu über 90%) von der Strahlung supermassereicher Schwarzer Löcher im Zentrum von aktiven Galaxien, die bei der Einverleibung von Materie entsteht. Der kosmische Infrarothintergrund hat seinen Ursprung überwiegend in Galaxien und warmem Gas, die durch die ersten Sterne (und zu mindestens 20% durch Schwarze Löcher) aufgeheizt wurden. Die Gammastrahlen, die heißesten und energiereichsten Strahlen, entstehen bei gigantischen Supernova-Explosionen oder dem Zusammenstoß zweier Neutronensterne.

REM

Entstehung des Lebens (2)

Von der Chemie zur Biologie

Die Urerde bot eine Fülle von Molekülarten an – viel mehr, als das entstehende Leben überhaupt gebrauchen konnte. Und sie bot ideale Bedingungen für deren weitere Entwicklung: Eine ständige Energiezufuhr – sei es durch die Sonne oder die Hitze des Erdinneren -, und Wasser, das von der irdischen Atmosphäre bei auch für chemische Vorgänge geeigneten Temperaturen zwischen 0°C und 60°C gehalten wurde.

Zur Entstehung lebender Substanzen mussten dreierlei Bausteine zusammenkommen:

  • ein Informationsspeichermolekül, das sich selbst identisch vermehren (replizieren) kann und das die richtige Information zum Aufbau der anderen Bestandteile enthält
  • ein Stoffwechselapparat, bestehend aus einem Satz von Enzymen, der in der Lage ist, die lebende Zelle mit Energie zu versorgen und Stoffe von außerhalb so umzubauen, dass weitere lebende Zellen daraus werden
  • eine Hülle, die die übrigen Bestandteile beieinander hält und ein inneres chemisches Milieu von einem äußeren trennt

Heutiges Leben gibt seine Information nur in eine Richtung weiter: Von der Nukleinsäure DNA (Desoxyribonukleinsäure) über die RNA (Ribonukleinsäure) zum Protein (Eiweiß). Nukleinsäuren sind aus Nukleotiden aufgebaut, die aus der Verbindung einer organischen Base mit einem Zucker (Ribose oder Desoxyribose) und Phosphat bestehen. In der DNA sind in heutigen Lebewesen die Bauanleitungen für Proteine gespeichert. Die RNA dient als Informationsmakler zwischen DNA und Protein. Eine große Gruppe von Proteinen, die Enzyme, sind für den Stoffwechsel unabdingbar – und damit für Entwicklung, Überleben und Fortpflanzung von Lebewesen. Ausschließlich mit ihrer Hilfe werden sowohl DNA als auch RNA hergestellt. Daher sind Nukleinsäuren und Proteine heute nicht unabhängig voneinander denkbar. Die große Frage ist, welche dieser Substanzen zuerst da war, ob sie gleichzeitig entstanden oder ob ihnen ein gänzlich anderer Molekültyp vorausging, der ihre spätere Entstehung erst induzierte.

Die meisten Evolutionsbiologen setzen den Beginn des Lebens mit dem Einschluss eines genetischen Apparates in eine Membran gleich, denn funktionsfähige Nukleinsäuren, aber auch funktionsfähige Enzyme oder beide, mussten geschützte Räume finden, da sie aufgrund ihrer Komplexität in freien Gewässern rasch wieder zerfallen wären. Komplexere Moleküle könnten z. B. in halbdurchlässigen Hohlkugeln (Micellen) eingeschlossen worden sein, die sich durch Anlagerung bestimmter Moleküle (z. B. Fettsäuremoleküle) spontan in Gewässern bilden können. An einer Wasser/Öl-Grenzschicht können sich hydrophobe Teile zusammenschließen und kleinere abgeschlossene Reaktionskammern von etwa 10 Nanometern Größe bilden. Auch unter den hydrothermalen Bedingungen tektonischer Bruchzonen entstehen spontan Vesikel, die ein breites Spektrum verschiedener Moleküle beherbergen können. Ebenso entsteht durch ein Sand-Wasser-System in Küstenbereichen Räumlichkeit, an die sich eine Membran anlegen und schließlich abkapseln kann. Es könnten sich auch alternativ Tropfen mit größeren Molekülen im Innern von Tonmineralen ablösen. Ein solcher Tropfen würde als abgeschlossener Lebensraum wirken, der unbeeinflusst von der Außenwelt wäre. Letztlich führten dann verschiedene Reaktionen zur Ausbildung eines genetischen Apparates und zur Membranbildung.

RNA-zuerst-Hypothese

Seit den fünfziger Jahren des letzten Jahrhunderts war das „zentrale Dogma“ der Biologen: Am Anfang steht die bekannte Doppelhelix aus Desoxyribonukleinsäure-Bausteinen. Aber der komplizierte Mechanismus, mit dem die in ihr enthaltene Information abgelesen und weitergegeben wird, macht es unwahrscheinlich, dass die DNA am Anfang der Entwicklung des Lebens stand. Denn der dicht verdrillte Molekülfaden muss sich stets zunächst entfalten und strecken und dann noch wie ein Reißverschluss teilen, ehe die Information offen liegt.

Die meisten Fachleute sind sich heute einig, dass schon die allerersten Zellvorläufer zwei entscheidende Komponenten besessen haben müssen: Einerseits eine Grenze zwischen innen und außen, andererseits einen Informationsträger, vermutlich RNA – denn im Gegensatz zur DNA besteht die RNA aus einem einfachen Nukleinsäure-Faden. Für die RNA sprechen verschiedene Gründe:

  • Vor allem sind es die verschiedenen Formen des RNA-Moleküls, die auch heute noch wichtige Funktionen in der Zelle ausüben.
  • RNA kann sich durch Selbstorganisation weiterentwickeln, d. h. sie kann sich vervielfältigen, Informationen speichern und mutieren. Sie unterliegt der Selektion, ist katalytisch aktiv (d. h., sie unterstützt bestimmte chemische Reaktionen oder macht sie überhaupt erst möglich) und relativ stabil, also evolutionstauglich.
  • Zudem ist gut vorstellbar, wie die Rolle des Erbgutbewahrers später von der RNA auf die stabileren DNA-Moleküle überging.

Entstehung der RNA

Die Ausgangsstoffe der Nukleotide, der Bausteine von Nukleinsäuren, waren im Urozean reichlich vorhanden: Phosphate aus hydrothermalen Quellen (oder von Eisenmeteoriten), der Zucker Ribose und einige jener stickstoffhaltigen Basen (vor allem Adenin), die sich aus einfachen Vorläufern gebildet hatten. Sie fügen sich jedoch nicht von selbst richtig zusammen. Theoretisch gibt es mehrere Möglichkeiten, wo und wie diese Bausteine abiotisch, d. h. auf nichtenzymatischem Reaktionsweg, entstanden sein könnten. So könnten die Oberflächen bestimmter Minerale etwa die Nukleotid-Komponenten absorbiert und sie so gezwungen haben, sich zum Zusammenbau in spezifischer Weise auszurichten.

Als letzter Schritt zur Synthese eines RNA-Moleküls fehlte dann noch die Polymerisation, die kettenförmige Aneinanderreihung der Nukleotide, wobei der Zucker die chemische Brücke zur Phosphatgruppe des nächsten Nukleotids bildete. Auch hier könnten beispielsweise mineralische Oberflächen die reaktiven Moleküle nahe zusammengebracht und eine Brückenbildung erleichtert haben. Es konnte experimentell gezeigt werden, dass Tonminerale diesen Prozess so begünstigen können, dass Ketten mit bis zu 50 Nukleotiden entstehen. In Computersimulationen wurde berechnet, wie sich auch in einem hydrothermalen Reaktor zunächst durch Zufall, später durch rein chemisch-physikalische Auswahlprozesse immer längere RNA-Ketten bilden können. In den wassergefüllten Spaltensystemen der Erdkruste sind sie bei sauren pH-Werten zwischen 3 und 4, wie sie in den dortigen Fluiden üblich sind, besonders stabil.

Experimente stützen die Idee, dass die ersten Protozellen nicht viel mehr als RNA – oder etwas Ähnliches – enthielten, die fast alle Funktionen der Zelle allein übernahm. Man nennt diesen hypothetischen Zustand „RNA-Welt“, oder besser „RNA-zuerst“. Bevor das Leben auf DNA als Bauplan für Eiweiße bzw. Enzyme zurückgriff, gab es also wahrscheinlich eine Phase, in der RNA sowohl Bauplan als auch Werkzeug zum Zusammenbau von Stoffen war. So könnte durch natürliche Auslese auch z. B. eine zufällige kurzkettige Nukleotidsequenz entstanden sein, die günstige Eigenschaften im Hinblick auf ihre Selbstreproduktion besaß und gegenüber anderen eine gewisse Dominanz entwickelte.

Gemäß der Theorie nahmen später manche Proteine bestimmte Konformationen ein und bildeten enzymatisch aktive Regionen aus. Sie erwiesen sich als die präziseren Katalysatoren, die vielfältige Aufgaben übernehmen konnten. Das wiederum hatte zur Folge, dass die Proteine allmählich – im Laufe von Jahrmillionen – die RNAs als katalytische Werkzeuge der Zelle verdrängten. Einige von ihnen halfen wiederum, die Information der RNA zu vervielfältigen.

Eine ganze Reihe von Erkenntnissen stützt die RNA-zuerst-Hypothese. Nur die RNA kann sowohl die genetische Information als auch die katalytischen Funktionen eines Organismus verkörpern. Aus diesem Grund und aus anderen Erwägungen heraus ist heute die noch immer gültige Lehrbuchmeinung, dass der Vorläufer unserer heutigen DNA/RNA/Protein-Welt nur eine RNA-Welt gewesen sein konnte.

[Gut vereinbar mit dem RNA-Modell ist auch eine der Theorien zur Entstehung von Viren, denn manche Viren bestehen nur aus RNA. Sie könnten am Anfang des Lebens gestanden haben, noch bevor es Zellen gab. Die RNA hätte es bestimmten Gengruppen ermöglicht, sich zu reproduzieren und zu vervielfältigen. Eine effektive Vermehrung und eine erfolgreiche Evolution wäre den Viren aber erst möglich gewesen, als Zellen ihnen als Wirtssysteme bei der Vermehrung dienten. So seien Zellen und Viren in einen Prozess der Koevolution geraten.]

Bislang ließ sich das RNA-Szenario allerdings noch nicht experimentell nachvollziehen; und man hat in der Natur auch noch keine RNA-Moleküle identifizieren können, welche die Vervielfältigung anderer RNA steuern kann. Allerdings würden solche und ähnliche Befunde nur belegen, dass eine derartige Zeit existierte. Über die Entstehung des Lebens sagen sie nichts. Schließlich könnte es vor der RNA-Ära Stadien gegeben haben, in denen ganz andere Moleküle dominierten.

PNA-Modell

Gegen die Entstehung des Lebens aus RNA spricht, dass schon deren Bausteine komplizierte Moleküle sind, die sich nur schwer von selbst bilden können. Weder in den Produkten von Gasentladungsexperimenten noch in Meteoriten fanden sich jemals Nukleotide. In der unbelebten Natur bilden sich bevorzugt kleine Moleküle mit wenigen Kohlenstoffatomen, während jedes RNA-Nukleotid neun oder zehn Kohlenstoffatome (sowie neben Wasserstoff- mehrere Sauerstoff- und Stickstoff-Atome) enthält, die zusammen mit der Phosphatgruppe zu einer bestimmten dreidimensionalen Struktur verbunden sind. Eine Tendenz zur spontanen Entstehung von Nukleotiden, wie moderne Lebensformen sie benötigen, ist nicht erkennbar.

Vielleicht ging daher der RNA eine einfachere Substanz voraus. PNA, eine Peptid-Nukleinsäure, scheint ein attraktiver Kandidat für eine Prä-RNA-Welt zu sein. Sie hat als Rückgrat einen einfach aufgebauten und noch dazu extrem stabilen Aminosäurestrang und als Seitenketten Nukleotidbasen. PNA kann Information speichern und übertragen, durch Selbstorganisation komplexere Einheiten bilden, eine Energiequelle benutzen sowie sich vermehren und weiterentwickeln. Solche Moleküle könnten an der Schaffung des genetischen Systems mitgewirkt haben, bevor Proteine, RNA und DNA auf den Plan traten. Aber es ist gewagt, von solchen Einzelbeobachtungen auf die Existenz einer Prä-RNA-Welt auf Basis von PNA oder ähnlichen Molekülen zu schließen, denn diese wurden bisher nicht mit katalytischen Eigenschaften beschrieben.

[Ursprung der DNA

Ob die RNA nun spontan aufgetreten ist oder ein früheres Erbmaterial ablöste, ihre Entstehung dürfte einen entscheidenden Einschnitt in der Entwicklung zum Leben markieren, in dessen Gefolge sich Proteine und DNA sowie schließlich die ersten Zellen herausbildeten – und irgendwann der letzte gemeinsame Vorfahre des Lebens, LUCA (Last Universal Common Ancestor) genannt. Wie die DNA entstand, dafür fehlt allerdings noch ein schlüssiges Rezept. Durch Zufall könnte irgendwann ein RNA-Molekül entstanden sein, in dem eine Base (Uracil) durch eine ähnlich aufgebaute (Thymin) ersetzt wurde. Dem Zucker (Ribose) ging außerdem ein Sauerstoffatom verloren – er wurde zu Desoxyribose.

Die wohl wichtigste Erfindung war der Umbau der Einzelkette in einen wendeltreppenförmigen Doppelstrang. Dadurch konnten die Sequenzen eines Strangs länger werden, ohne gleichzeitig unsicherer zu werden; auch schlichen sich jetzt weniger Fehler ein. Da die RNA fragil ist und Temperaturen oberhalb von 50°C nicht lange aushält, übernahm die DNA dank ihrer überlegenen Stabilität die Rolle des primären Erbmoleküls. Allerdings verfügte sie nicht mehr über katalytische Eigenschaften. Während nur noch einige RNA-Stränge noch als Informationsspeicher dienten, halfen andere fortan , den DNA-Code zu übersetzen und diese Informationen in Proteine zu übertragen.

Erst mit der Zeit dürften Selektionskräfte den heutigen genetischen Code (der durch die Abfolge der Basen bestimmt wird) herausgearbeitet haben. Vielleicht benutzten frühe Organismen nur um die zehn Aminosäuren statt der heutigen zwanzig zum Proteinaufbau, und verschlüsselten sie nicht mit jeweils drei, sondern zwei genetischen Buchstaben (Basen). Aber die Variationsmöglichkeiten müssen schon im ersten Stadium der Entwicklung verblüffend gewesen sein.]

Proteine-zuerst oder Doppel-Ursprung

Von der allgemeinen Lehrbuchmeinung, dass Ribonukleinsäuren am Beginn des Lebens standen, rücken manche Wissenschaftler aber allmählich ab. Für Francis Crick und andere Forscher ist durchaus vorstellbar, dass Proteine am Anfang standen und die Nukleinsäuren erst später kamen. In Simulationsexperimenten konnte nachgewiesen werden, dass auf der unbelebten Erde offenbar die prinzipielle Möglichkeit für die Entstehung einer großen Vielfalt an Eiweißkörpern bestand, die sogar enzymatische Fähigkeiten aufweisen und Zellstrukturen aufbauen konnten – auch ohne steuernde Nukleinsäuren und ohne Katalyse durch andere Enzyme. Untersuchungen zeigten, dass sie sich auch ohne fremde Hilfe vermehren können.

Nach der „Doppel-Ursprungs-Hypothese“ (Robert Shapiro, Freeman Dyson) ging der genetische Apparat nicht direkt aus den anfänglichen Proteinen hervor, sondern war ein Nachzügler. Proteine und Reduplikatoren seien zunächst unabhängig voneinander aufgetreten, um sich dann später in einem für beide Seiten vorteilhaften symbiotischen Arrangement zu verbinden. Auch andere Wissenschaftler wie Manfred Eigen sind der Meinung, dass keine Komponente anfangs allein einen Mechanismus in Gang bringen konnte, wie er typisch ist für das uns bekannte Leben, in dem Nukleinsäuren und Proteine, Information und Funktion, durch Rückkopplungsprozesse miteinander verknüpft sind.

Nach Eigen war die Ursuppe aus zufällig aufgebauten kleinen Proteinen, einer genügenden Menge an Lipiden (Fettsäuren) und einer Vielzahl von aktiven, energiereichen Nukleotid-Einheiten zusammengesetzt. Mindestens ein replizierendes RNA-Molekül bildete sich durch Zufall, möglicherweise begünstigt durch das Vorhandensein von Proteinen (Enzymen). Letztere trugen wohl zur Verringerung der Fehlerrate beim Kopieren, aber auch zur Beschleunigung des Kopiervorgangs selbst bei. Schließlich begannen die Nukleinsäuren, den Aufbau der Proteine aus Aminosäuren zu steuern. Als ein Nukleinsäure-Molekül noch „lernte“, den Zusammenbau eines Enzyms zu steuern, das dann seinerseits das Kopieren der Nukleinsäure selbst herbeiführte, war ein wahrhafter Fortschritt erreicht. Mit der Zeit wurden die Nukleinsäuren genauer repliziert und die Proteine exakter synthetisiert. Es bleibt aber noch immer ein Rätsel, durch welche chemischen Schritte die wechselseitige Abhängigkeit zwischen Nukleinsäuren und Proteinen genau entstanden ist.

In einem hypothetischen Szenario beschreiben der Geologe Ulrich Schreiber und der Physikochemiker Christian Mayer (Buch: „Geheimnis der ersten Zelle“), wie es in der brodelnden Welt tektonischer Bruchzonen eine gemeinsame Entwicklung von Proteinen und RNA gegeben haben kann. Dabei umgehen sie einige Probleme, die sich mit anderen Modellen kaum oder gar nicht lösen lassen, und bieten mögliche Auswege. Das System startet mit sehr niedriger Komplexität (nämlich zwei Aminosäuren, zwei einfachen Proteinen, kurzen RNAs und einem RNA-Strang) und wird dann sukzessive immer komplexer.

Stoffwechsel-zuerst

Das spontane Auftreten eines großen selbstreplizierenden Moleküls als Initialzündung des Lebens scheint extrem unwahrscheinlich, selbst wenn eine Ursuppe Nukleotide oder einfachere analoge Bausteine bereitgestellt hätte. Es ist ebenfalls extrem unwahrscheinlich, dass die beiden strukturell komplexen Molekülarten, Proteine und Nukleinsäuren, gleichzeitig am selben Ort entstanden. Die präbiotische Evolution könnte daher von Anfang an auf der Ebene von Systemen abgelaufen sein, ausgehend von einer Fülle kleiner Moleküle aus zwei bis wenigen Dutzend Atomen, die sich z. B. im Innern mikroskopisch kleiner Bläschen vernetzten und gemeinsam Energie verarbeiteten.

Die Wissenschaftler stellen sich Kreisprozesse vor, in denen beispielsweise Molekül A die Bildung von B unterstützte, B sich günstig auf die Bildung von C auswirkte usw., bis ein Molekül entstand, das wiederum Molekül A begünstigte. In einem solchen, von störenden Umwelteinflüssen weitgehend abgeschirmten, rückgekoppelten Reaktionswerk hätten sich auch kleinere Moleküle zu größeren verbinden können, die zudem ihre Synthese wechselseitig katalysierten. Die Chemie lehrt, dass sich nur selten mehrere Moleküle zu größeren verbinden (schematisch formuliert: A+B+C+D erzeugt ABCD). Dagegen kommt es häufig zu Reaktionssequenzen aus mehreren Schritten. Aus A+B wird AB, das mit C zu ABC reagiert, was mit D dann ABCD ergibt. Dabei sind für jeden Einzelschritt in der Regel unterschiedliche Bedingungen erforderlich, beispielsweise hinsichtlich Temperatur, pH-Wert, Katalysatoren und Stoffkonzentrationen. (Eine solche Diversität haben z. B. Vulkaninseln zu bieten, wo sich Reaktionsprodukte z. B. in Felsnischen, Tümpeln oder kleinen Buchten ansammeln können.)

Modifikationen könnten einen ursprünglich einfachen Zyklus ausweiten. Es könnten sich aus den Molekülen A, B und C zunächst AB gebildet haben, unterstützt von C. AB katalysierte dann vielleicht die Bildung von AC aus A und C sowie von ACC aus AC und C. A half zwei Molekülen B bei der Reaktion zu BB, das die Reaktion von A und AC zu ACC katalysierte, was wiederum die Reaktion von B und C zu BC ermöglicht hätte usw. Ein solches Netzwerk wäre als Ganzes autokatalytisch, d. h. es würde sich durch die eigenen Reaktionsprodukte auch erhalten. So konnten aus chaotischen Zuständen geordnetere hervorgehen – eine Art Phasenübergang, wie die Physiker sagen.

Solche zufallsgesteuerten chemischen Vorgänge könnten schließlich vielleicht zur Synthese von Substanzen, z. B. Peptiden (Vorstufe von Proteinen), geführt haben, die Schlüsselreaktionen des Zyklus beschleunigten und so für eine effizientere Nutzung der Energie sorgten. Über Reaktionen, an denen Substanzen außerhalb des Zyklus beteiligt waren, nahm das System weiteres Material auf. Ein solcher Reaktionskreislauf konnte sich an bestimmte Umweltbedingungen anpassen – etwa unterschiedlich warmen Bereichen. So konnte z. B. eine Veränderung eines Umweltfaktors einen Schritt in der Reaktionskette von B zurück zu A blockieren. Dann häufte sich das betreffende Zwischenprodukt an, bis sich ein alternativer Reaktionspfad eröffnete. Vielleicht kam es zu Umleitungen – z. B. über die Zwischenprodukte F, G und H. Dabei könnte zufällig ein Katalysator (I) entstanden sein, der auf die Umsetzung von C zu D zurückwirkte und sie erleichterte – usw.

Mit der Zeit wurden die räumlich teilweise abgekapselten chemischen Prozesse, bei denen rückgekoppelte und dabei selbstverstärkende Vorgänge eine entscheidende Rolle spielten, immer komplexer. Aus einer einfachen Reaktionskammer wurde nun eine Protozelle (Vorläufer einer Zelle), in der jetzt geordnete biochemische Prozesse abliefen. Wahrscheinlich bildeten sich auf der frühen Erde viele derartige Reaktionsnetzwerke, die unterschiedliche Antriebsreaktionen und Energiequellen nutzten. Es kam zu weiteren Anpassungs- und Selektionsprozessen. Jeder neue Reaktionsschritt in einem Netzwerk konnte einen Vorteil bringen, und jedes neue Molekül konnte die Konkurrenzfähigkeit gegenüber anderen Reaktionsnetzwerken erhöhen.

Die aus diesem Ansatz abgeleiteten Hypothesen zur Entstehung des Lebens, die schon seit Jahrzehnten existieren, unterscheiden sich zwar in gewissen Details, haben jedoch mindestens fünf Grundvoraussetzungen gemeinsam: Dazu gehören eine Membranhülle oder andere Grenzschicht (1), eine (externe) Energiequelle, die den Organisationsprozess in Gang hält (2) und eine weitere chemische Umwandlung antreibt (3), und vor allem ein Netzwerk von Folgereaktionen mit zunehmender Komplexität (4), die Anpassung und Evolution ermöglicht – der Kernpunkt dieser Hypothesen. Hinzu käme noch eine Vermehrung durch Teilung der wachsenden Kapseln (5), wenn sich das Reaktionsnetzwerk mehr Material einverleibt als es verliert. Die Erbinformation wäre hierbei in der Identität und Konzentration der Substanzen des Netzwerks selbst enthalten.

Bei diesen Ansätzen fehlen also noch alle Mechanismen für eine Reproduktion im herkömmlichen Sinn: Moleküle oder Strukturen, welche die im System vorhandene Information speichern und nach Vervielfältigung an die Nachkommen weitergeben konnten. Einige Wissenschaftler berufen sich in diesem Zusammenhang auf Selbstorganisationsprozesse. (Für denkbar wird auch gehalten, dass ein buchstäblich vom Himmel gefallenes Molekül eine einfache Schlüsselreaktion für das frühe Leben angestoßen und beschleunigt hat.) Dennoch erscheint dieses Szenarium wesentlich wahrscheinlicher als das spontane Auftreten von hochkomplexen vielstufigen Reaktionsketten, die zur Bildung eines Replikators führen.

Die Modelle des „Stoffwechsel-zuerst“ werden durch verschiedene erfolgreich verlaufende Versuche gestützt. Ob dabei allerdings zwangsläufig Leben entsteht, bleibt fraglich. Bisher gelang es den Forschern weder, einen kompletten Reaktionszyklus in Gang zu bringen (bisher nur Teile davon), noch zu zeigen, dass er sich selbst erhalten und in einem Evolutionsprozess weiterentwickeln kann. Bis zu einem erfolgreichen derartigen Versuch bleiben alle Szenarien zum niedermolekularen Ursprung des Lebens hypothetisch.

[Russell-Martin- Hypothese:

Eine interessante Theorie ist die sog. Russel-Martin-Hypothese, die davon ausgeht, dass der Stoffwechsel noch vor einer Zellmembran entstand. Das schließen die Forscher aus den Gemeinsamkeiten aller einfachen Mikroben ohne Zellkern. Diese Theorie, die der Geologe Michael Russell bereits seit Anfang der 1990er Jahre vertritt, bietet eine Erklärung dafür, dass sich einst die genau richtige Kombination aller Bestandteile für eine Zelle von allein zusammengeschlossen hat. Sie kann als einzige den gesamten Schöpfungsprozess erklären – von der Energiequelle der ersten Biosynthese über die verwendeten Stoffwechselpfade bis hin zu den Eigenheiten des letzten gemeinsamen Vorfahren aller Lebewesen. Eine wachsende Gruppe von Forschern hat inzwischen Belege für diese Theorie zusammengetragen.

Nach dieser Theorie war der letzte gemeinsame Vorfahre (LUCA) noch in den Kammern (Eisensulfidbläschen) einer heißen Quelle gefangen. Deren Wände seien ideal gewesen, um zufällige Reaktionsprodukte zu konzentrieren. Das Wasser war hier mit Rohmaterialien zum Aufbau komplexer organischer Moleküle angereichert: anorganischen Stoffen wie Ammoniak, Wasserstoff, Methan, Schwefelwasserstoff, Phosphorverbindungen und anderen reaktionsfreudigen Substanzen. Die physikalischen und chemischen Gegensätze lieferten jede Menge Zündstoff, um die Chemie des Lebens anzufachen.

Sobald der Bioreaktor im Innern der Eisensulfidbläschen erst einmal in Gang gekommen war, produzierte er eine kaum überschaubare Vielfalt von Substanzen. Aktivierungsenergie für diese Reaktionen könnten die allgegenwärtigen Metallverbindungen aus Eisen, Nickel und Schwefel in den Wänden der Kammern geliefert haben. Russell und Martin kommen zu dem Schluss: Wenn man den Hauptaugenmerk auf Energie und Thermodynamik, also auf den Antrieb und die Geschwindigkeit bestimmter chemischer Reaktionen, legt, war die Entstehung organischer Substanzen und einfacher biochemischer Kreisläufe unter den Bedingungen, wie sie im Urozean an solchen heißen Quellen herrschten, geradezu programmiert.

Die einfachen organischen Grundstoffe verbanden sich zu Zuckern und Aminosäuren. Im nächsten Schritt müssen dann größere Moleküleinheiten und Molekülketten entstanden sein (Polymerisation). Allmählich hätte ein Proteinfilm die Membranfunktion übernommen. Vielleicht stellten einige der Protozellen auch aus Kohlen- und Wasserstoff Fette und fettähnliche Stoffe her, aus denen sie eine Art Haut aufbauten. So waren die Blasen mit selbstreplizierenden Molekülen nicht mehr an ihre Brutstätten an den hydrothermalen Quellen gebunden und konnten schließlich als kleine Kugeln im Wasser umher schweben. Es musste schließlich ein Protobiont entstehen, der die zueinander passenden Enzyme und Nukleinsäuren in seinem Innern hatte.]

FAZIT

Leben war kein Zufall, sondern auf jeden Fall zwangsläufige Folge chemischer und physikalischer Gesetzmäßigkeiten. Eine Abfolge chemischer Umwandlungen verlieh einer Gruppe organischer Moleküle sukzessive immer komplexere Strukturen. Es bedurfte also nicht des unwahrscheinlichen und rein zufälligen Zusammentreffens von chemischen und geologischen Ereignissen, sondern nur einfacher chemischer Reaktionen mit bequem verfügbaren Materialien – Reaktionen, wie sie übrigens heute noch ablaufen. Allerdings mussten wahrscheinlich unzählige Reaktionen ablaufen, um die erste primitive Version einer Zelle zu erschaffen.

Der kritische Schritt der Lebensentstehung, nämlich der tatsächliche Ursprung selbst reproduzierender Systeme, ist aber bis heute immer noch reine Theorie. Zur Erklärung des Übergangs von Chemie zu Biologie konkurrieren zwei grundverschiedene Ansätze: Entweder setzte der Beginn des Lebens jäh ein, als die chemische Komplexität eine gewisse Schwelle überstiegen hatte – eine Transformation, vergleichbar einem Phasenübergang. Oder es gab einen gleichmäßigen und gemächlichen Entstehungsprozess – so kontinuierlich, dass kein spezieller Moment als Startpunkt des Lebens herausragte.

Einer neue Studie (von Wissenschaftlern um Jessica Wimmer / Heinrich-Heine-Universität Düsseldorf) nach hat sich der Stoffwechsel spontan entfaltet, als die richtigen Bedingungen (Temperatur 80-100°C; pH-Wert zwischen 7 und 10) und Ausgangsstoffe (Wasserstoff, Kohlendioxid, Ammoniak, Schwefelwasserstoff und Phosphate) vorlagen. Dies konnte an hydrothermalen Quellen oder auch in wassergefüllten Spalten der Erdkruste geschehen sein. Angetrieben wurde der Stoffwechsel letztlich durch den Wasserstoff, der unbedingt nötig ist, um den Kohlenstoff aus dem CO2 in den Stoffwechsel einzuschleusen.

Heute wird ausnahmslos von allen aktuell diskutierten Modellen postuliert, dass die Übergänge fließend waren. Sie werden durch die neuesten molekularbiologischen Erkenntnisse kaum schmaler, sondern eher breiter. Im Grunde klafft eine Riesenlücke zwischen den experimentellen Befunden zur abiogenen Bildung organischer Moleküle und dem einfachsten Modell eines ersten Lebewesens. Das liegt zum einen daran, dass die ersten Zellen gleich nach ihrem Auftauchen so gut wie alle Spuren der früheren Stadien dieser chemischen Evolution rasch vertilgt haben. Gefräßig, wie sie waren, nutzten sie jenes „Protoleben“ als reiche Nahrungsressource und rotteten es dabei aus. Sollten trotzdem Mikrofossilien aus dieser Zeit übrig geblieben sein, wären sie größtenteils durch die permanenten Bewegungen der tektonischen Platten, die während der letzten vier Milliarden Jahre die Erdkruste immer wieder durchgewalkt haben, zerstört worden. Das macht es so schwierig, noch eventuelle beweiskräftige Lebensspuren auf der Erde zu entdecken. Und so bleiben die Anfänge der Lebensentstehung auch weiterhin im Dunkel.

Nachweise ersten Lebens

Untersuchungsergebnisse deuten darauf hin, dass sich die heftigsten Asteroideneinschläge auf unserem Planeten auf einen Zeitraum von 4,48 bis 4,45 Milliarden Jahren vor heute beschränkten und dann langsam nachließen. Sollte sich dies bestätigen, wäre die Erde bereits in weiten Teilen ihrer frühen Entwicklung ein lebensfreundlicher Ort mit gemäßigten Temperaturen und flüssigem Wasser gewesen, und das Leben auf der Erde hätte sich schon rund eine halbe Milliarde Jahre früher als bisher angenommen entwickeln können. Zirkonkristalle aus dem bislang ältesten untersuchten Gestein weisen darauf hin, dass die Erdkruste bereits vor 4,4 Milliarden Jahren hinreichend abgekühlt war und eine feste Schale bildete – und weniger als 100 Millionen Jahre später der erste Ozean entstand. Einige der Kristalle deuten tatsächlich auf Leben in dieser Frühphase der Erde hin. „Es gibt keinen Grund, dass Leben nicht bereits vor 4,3 Milliarden Jahren entstanden sein könnte“, meint der amerikanische Geochemiker Jack Valley. Die Ergebnisse sind aber heftig umstritten.

2017 haben Wissenschaftler im Norden Labradors 3,77 bis 4,28 Milliarden Jahre alte Gesteine ausgegraben, in denen sich womöglich Reste der ersten Organismen befinden. Allerdings sind die Mikrofossilien und die damit verbundenen chemischen Indizien auch hier noch umstritten. In 3,9 Milliarden Jahre alten Gesteinproben aus der Isua-Formation (Westgrönland) und 3,85 Milliarden Jahre alten Sedimentgesteinen auf der südwestgrönländischen Akilia-Insel weisen Kohlenstoff-Isotope ein Verhältnis auf, das sich ebenfalls nur durch Vorhandensein lebendiger Organismen erklären lässt. Doch noch gibt es Zweifel, ob damit wirklich schon der Beweis für Leben erbracht wurde.

Erst 3,5 Milliarden Jahre altes Gestein aus der Gegend Pilbara, einer Region Nordwestaustraliens, enthält sichere Nachweise für Leben. Es ist gespickt mit versteinerten Zeugen frühen Lebens, das eng mit heißen Quellen verbunden war. Das deutet auf eine komplexe Gemeinschaft primitiver Einzeller hin, die sich schon über eine längere Vorlaufzeit entwickelt haben musste.

REM

Entstehung des Lebens (1)

Die Bausteine des Lebens

Die Basis des Lebens ist Chemie. Dabei spielt das Element Kohlenstoff (C) eine Schlüsselrolle. Ohne Kohlenstoff, das nach Wasserstoff, Helium und Sauerstoff häufigste Element im Universum, gibt es kein Leben auf der Erde. Erst seine Eigenart, lange Kettenmoleküle bilden zu können, machte die Verwandlung von Chemie in Biologie möglich. Wenn zum Kohlenstoff neben dem allgegenwärtigen Wasserstoff noch Stickstoff und Sauerstoff, die wie Kohlenstoff zu den häufigsten Produkten der Kernverschmelzung in Sternen zählen, zur Verfügung stehen, beruht jede komplexe Chemie im Universum in erster Linie auf diesen vier Elementen.

Wie aus chemischer Materie das Leben entstand und was erst den Anstoß zur Entwicklung des Lebens gab, wissen wir noch nicht genau. Sicher ist aber, dass vor dem Auftreten der ersten Zellen eine chemische Evolution stattgefunden haben muss, obwohl auch dafür noch ein direkter Beweis fehlt. Aber allein schon die Tatsache, dass die Bausteine des Lebens relativ leicht entstehen können, ist ein starker Hinweis darauf. Es war sehr wahrscheinlich ein gradueller und langwieriger, extrem komplexer chemischer Prozess, der zur Entstehung des Lebens führte. Eine ganze Reihe von Hypothesen und Modellen, die zum Teil erheblich voneinander abweichen, versuchen diesen Prozess zu erklären.

Entstehung organischer Moleküle im All

Die ersten massereichen Sterne im Universum, die nur aus Wasserstoff und Helium bestanden, fegten am Ende ihres kurzen kosmischen Lebens in gewaltigen Explosionen viele schwerere Elemente in das umgebende Gas, vor allem auch die für Leben wichtigen Kohlenstoff(C)-, Stickstoff(N)- und Sauerstoff(O)-Atome. Im Laufe der Zeit reicherten immer neue Sterne bei ihrem Tod das Universum mit immer mehr der schweren Atome an, so dass sie heute einen Anteil von 2% aller Atome ausmachen. Sie neigen dazu, Verbindungen einzugehen und feinen Staub zu bilden.

Bereits nach wenigen hundert Millionen Jahren gab es im interstellaren Gas ähnliche Anreicherungen von Kohlenmonoxid (CO) und Staub, wie wir sie heute noch, 13 Milliarden Jahre später, im interstellaren Gas der Milchstraße und benachbarter Galaxien vorfinden. Viele einfache Moleküle und sehr kleine Staubteilchen (Kohlenstoffkörner) lagerten sich in die Mäntel von interstellaren Eiskristallen (hauptsächlich aus gefrorenem Wasser und Kohlenmonoxid) ein.

Wir wissen, dass interstellare Wolken als chemische Fabriken arbeiten, obwohl sie zu den kältesten Orten im Universum – typische Temperaturwerte im Inneren der Wolken liegen bei -220°C bis zu 5 bis 15° über dem absoluten Nullpunkt von -273,15°C – gehören und um viele Größenordnungen weniger dicht sind als z. B. die Erdatmosphäre. Bei diesen Bedingungen ist eine ungewöhnliche Art von gefrorenem Wasser allgegenwärtig, das ganz andere Eigenschaften hat als das uns bekannte Wassereis. Es verwandelt sich nämlich etwa zwischen -137°C und -148°C und hohem Druck in eine viskose Flüssigkeit. Noch bei einer Temperatur knapp über dem absoluten Nullpunkt kann es fließen, wenn es mit ultraviolettem Licht bestrahlt wird, das überall im Universum vorkommt.

Die intensive Weltraumstrahlung bricht einfache Moleküle zunächst in hochfrequente Fragmente, so genannte Radikale auseinander, die zwischen den unregelmäßig zusammengezwängten Wassermolekülen im interstellaren Eis umherwandern können. Minimale Änderungen in der Struktur des Eises ergeben dann den Anstoß für den Zusammenschluss der Radikale zu organischen Verbindungen (wobei möglicherweise auch Quantentunneleffekte beteiligt sind).

Normalerweise würden neu entstandene Moleküle, z. B. Silikate (Siliziumverbindungen) oder Oxide (Sauerstoffverbindungen), gleich nach ihrer Bildung von der zerstörerischen Strahlung des Weltraums wieder gespalten. Im frostigen Mantel von gefrorenen Gasen eingeschlossen, bleiben sie aber vor der Zerstörung bewahrt und können durch wiederholtes Aufbrechen und Neuknüpfen von Bindungen immer komplexere Strukturen schaffen. Das Eis speichert diese Substanzen auch dann noch, wenn es erwärmt wird. Während der typischen Lebenszeit eines Eisteilchens von fünf Milliarden Jahren wird der Zyklus mit Aufbau und Abbau von Molekülen ungefähr 50mal durchlaufen – bis das Teilchen entweder bei der Bildung eines neuen Sterns vernichtet oder aber Bestandteil eines Himmelskörpers, z. B. eines Kometen, wird.

Eis- und Staubteilchen spielten also vermutlich bei den molekularen Entstehungsprozessen eine wichtige Rolle. Überall im Weltraum, wo es Eiskörnchen gibt, finden sich komplexere Verbindungen, von denen die meisten Kohlenstoff enthalten. Das erste interstellare Molekül, das 1937 im Universum nachgewiesen wurde, war CH, ein an ein Wasserstoff-Atom gebundenes Kohlenstoffatom. Dieses sog. Methin-Radikal kommt auf der Erde als Bestandteil von Kohlenwasserstoffen nur fest eingebaut vor. Schon in den vierziger Jahren wurden in einigen interstellaren Wolken unserer Milchstraße auch Zyan (CN) und das Hydroxyl-Radikal OH entdeckt. Da sie in der Regel nicht eigenständig existieren, müssen sie Reste auseinander gebrochener Molekülverbindungen sein, z. B. von Cyanwasserstoff (Blausäure, HCN) oder Wasser (H2O), die durch energiereiche Strahlung gespalten wurden.

Mittlerweile hat man im interstellaren Medium und in der Umgebung von Sternen unserer Milchstraße viele Milliarden Tonnen organischen Materials aufgespürt. Über 180 unterschiedliche interstellare Moleküle wurden bereits identifiziert, darunter viele Verbindungen, die sich im Labor als mögliche Reaktionspartner bei der Synthese präbiotischer Moleküle erwiesen haben, darunter Ammoniak (NH3), Methan (CH4), Formaldehyd (H2CO), Ethin (Acetylen; H2C2) und Essigsäure (C2H4O2).

Überall im Weltraum spüren Astronomen auch alle möglichen relativ komplexen Moleküle auf, wie z. B. Vinylalkohol (C2H4O), ein Vorläufer von Lebensbausteinen, aber auch die einfachste Aminosäure Glycin (NH4C2O2), die aus Formaldehyd, Ammoniak und Zyanwasserstoff entstehen kann. Es gibt Hinweise auf gesättigte Nitrile, die mit Wasser zu Fettsäuren reagieren. Auch Gycoaldehyd (CO-CH2-CHO), ein einfacher Zucker, der zur Entstehung der Nukleinsäure RNA (Ribonukleinsäure) nötig ist, und auch Phosphor, ein weiteres Schlüsselelement in Lebewesen, ließen sich nachweisen.

Meteoriten und Kometen

In protoplanetaren Scheiben, Orten potenzieller Planetenentstehung, kommen organische Stoffe, darunter die Vorläufer komplexer organischer Chemie, in großer Menge vor. Also ist es nicht verwunderlich, dass wir diese auch in den Atmosphären und Oberflächen von Planeten und Monden unseres Sonnensystems sowie auf unzähligen kleinen Himmelskörpern finden. Kometen, Asteroiden und Sternenstaub bestehen im Durchschnitt zu 10%, einige sogar bis zur Hälfte, aus organischen Kohlenstoffverbindungen, die insgesamt einen vollständigen Satz von Vorläufern aller wichtigen Biomoleküle bilden. Noch komplizierter aufgebaute organische Stoffe ließen sich in bestimmten Steinmeteoriten, den Kohligen Chondriten (wahrscheinlich Bruchstücke von Objekten des Asteroidengürtels), nachweisen, darunter auch Aminosäuren, aber auch Phosphate und Nukleobasen, alles Bestandteile von für das Leben wichtigen Makromolekülen.

Tausende dieser Lebensbausteine fallen heute durch Meteoriten und interplanetaren Staub auf die Erde. In der Frühgeschichte unseres Sonnensystems gab es wahrscheinlich mehr von diesem Niederschlag, der außer Wassereis und gefrorenen Gasen ausreichende Mengen der wichtigen Ausgangsstoffe zur Lebensentstehung lieferte, so dass nur noch ein energiereicher Anstoß für den Beginn der entscheidenden lebensspendenden Reaktionen genügte. Bei der großen Zahl der zur Erde gefallenen Teilchen geschah dies wohl zwangsläufig.

Die Frage steht aber im Raum, inwieweit komplexere organische Verbindungen die Hitze und den Druck beim Eintritt in die Atmosphäre und beim Einschlag auf der Erdoberfläche überhaupt überstehen konnten. Kometen beispielsweise zerplatzen und verglühen großenteils, wenn sie mit Überschallgeschwindigkeit in die Atmosphäre eintreten. Dafür, dass sich die organischen Substanzen dabei und in der Hitze des Aufpralls auf der Erde nicht zersetzen, könnte die Flockigkeit der Kometenkörper die Schlüsselrolle gespielt haben, zusammen mit einer Erdatmosphäre, die damals etwa um das Zwanzigfache dichter war als unsere heutige Lufthülle aus Stickstoff und Sauerstoff. Traf nun ein flockiger Kometenkern diese dichte Gashülle, konnte er während seines kurzen Fluges einen gewissen Anteil seiner äußeren Schichten abreiben, bevor der Großteil des Kometenkerns abgebremst den Erdboden traf. Möglicherweise erreichten damals auch kleinere Kometen die Erdoberfläche fast unbeschädigt.

Dass es in der Frühphase der Erde bereits ein breites Spektrum an organischen Molekülen auf dem Planeten gab, lässt sich noch heute belegen. Es ist freilich noch nicht bewiesen, dass die präbiotische und biologische Evolution auf der Erde tatsächlich durch organisches Material aus dem Sonnennebel in Gang gesetzt wurde.

Entstehung organischer Moleküle auf der Erde

Experimente zeigen, dass sich die chemischen Grundsubstanzen des Lebens auf der Erde unter verschiedenen Bedingungen bilden konnten. Dazu musste nur hinreichend konzentriert Energie zugeführt werden, sei es durch elektrische Entladungen, ultraviolette und kosmische Strahlung oder Wärme aus dem Erdinnern (Vulkanismus, heiße Quellen, radioaktive Strahlung). Mit ihrer Hilfe dürfte eine Abfolge chemischer Umwandlungen die einfachsten Bestandteile von Luft, Wasser und Erde zu Ansammlungen einfacher kohlenstoffhaltiger Moleküle umgeformt haben.

Die Ursuppen-Theorien (basierend auf dem berühmten Miller-Urey-Experiment) erklären, dass sich organische Moleküle durch elektrische Entladungen in der Atmosphäre bildeten und auf der Erde zu einer „Ursuppe“ anreicherten. Allerdings scheint dies nach neuesten Erkenntnissen nur schwer realisierbar gewesen zu sein, da die dazu notwendigen Gase in der Uratmosphäre nicht in ausreichendem Maße vorhanden waren.

Die frühe Erdatmosphäre bestand, wie wir heute wissen, hauptsächlich aus Kohlendioxid, Wasser und Stickstoff. Gase wie Methan, Wasserstoff und Ammoniak tauchten nicht oder nur in geringen Mengen auf. Wiederholt man Millers Versuche mit den Konzentrationen, die Geologen jetzt für wahrscheinlich halten, so ist die Ausbeute an organischen Stoffen nur sehr gering. Die Erdatmosphäre war also nie in dem Maße reduzierend, wie Urey und Miller angenommen hatten. Von Anfang an müssen auch Sauerstoffanteile (erzeugt durch Fotodissoziation von Wasser) in ihr vorgekommen sein.

Meteoritenkrater sollen dagegen im wahrsten Sinne des Wortes heiße Kandidaten für jene Orte gewesen sein, an denen die ersten komplexeren chemischen Abläufe möglich waren. Der Boden solcher Impaktstrukturen bestand aus heißem, zertrümmertem Gestein, in denen sich Hydrothermalsysteme bildeten, die Energie zum Zusammenbau der präbiotischen Moleküle lieferten.

Vulkaninseln auf der frühen Erde waren extremen Einflüssen wie Säuredämpfen und wechselnden Trocken- und Nassphasen, erzeugt durch Ebbe und Flut oder Lavaströme, ausgesetzt. Auch das waren geeignete chemische und energetische Randbedingungen für die Bildung komplexer Moleküle und Reaktionsnetzwerken. Die Vulkangase enthielten Kohlenmonoxid und -dioxid, Schwefeldioxid und sogar molekularen Wasserstoff, der für universelle Vorgänge zur Energiegewinnung eine herausragende Rolle spielt.* Es gab Temperaturgradienten sowie elektrische Entladungen, was sehr vorteilhaft für eine präbiotische chemische Evolution war.

*[Der Wasserstoff ist gleichsam der Kraftstoff, der die anderen Vorläufermoleküle in Verbindungen mit höherem Energiegehalt und Ordnungsgrad verwandelt. Wasserstoffelektronen reduzieren beispielsweise den Kohlenstoff im CO2-Molekül und treiben so die Synthese komplexer organischer Moleküle an. Dabei entstehen einfache Verbindungen, u. a. Methan, Essigsäure und Ameisensäure (CH2O2). Die bei diesen Reaktionen frei werdende Energie ermöglichte den Zusammenbau weiterer Verbindungen.]

Auch Geothermalfelder mit ihren heißen Quellen und Geysiren gelten neuerdings als mögliche Brutstätten des Lebens. Vielleicht haben sich dort in den Hydrothermalbecken Moleküle aus dem All und organische Verbindungen aus der Vulkanlandschaft angehäuft. Die heißen Schlote lieferten zudem selbst ein organisches Gebräu mit weiteren Grundstoffen für die Biosynthese. Die Quellen unterschieden sich alle leicht hinsichtlich pH-Wert, Temperatur, gelöster Ionen und anderer Parameter, waren chemisch also äußerst komplex. Die mehrmals täglichen Nass-Trocken-Wechsel, die unterschiedliche Zusammensetzung der Quellen, reaktive Grenzflächen, der Austausch von Molekülen, wenn Geysire Wasser ausspeien und wieder ansaugen, sowie ein unterirdisches Netzwerk fluidhaltiger Spalten und Risse schufen problemlos die Voraussetzungen für eine chemische Entwicklung.

Entstehung von organischen Molekülen in der Erdkruste

Die chaotischen, dauernd wechselnden Bedingungen unter einer dunstigen, smogvernebelten Atmosphäre in der Frühzeit der Erde, dazu heftige Gewitter und Meteoriteneinschläge, das damals viel intensivere UV-Licht und kosmische Strahlung, bedeuteten für empfindliche kohlenstoffhaltige Moleküle ohne ausreichenden Schutz ein hohes Risiko. Möglicherweise haben diese sich in den vielen kleinen Behältern in bestimmten Gesteine angesammelt. Der vulkanische graue Bimsstein etwa enthält unzählige Hohlräume, die durch Expansion von Gasen im noch zähflüssigen Gestein entstanden sind.

Doch andere Forscher sehen wegen den Schwierigkeiten an der Erdoberfläche die ersten evolutiven Schritte zur Lebensentstehung eher im Innern der Erdkruste, nämlich in feuchtwarmen Poren des Gesteins, wo die Bedingungen wahrscheinlich günstiger waren.

Schon vor Jahrmilliarden durchzogen viele Bruchzonen, die aufgrund von tektonischen Prozessen entstanden waren, die komplette Erdkruste bis zum Erdmantel. In ihnen zirkulierten Fluide (Flüssigkeiten und Gase) mit einer Menge gelöster Stoffe. In der Tiefe, bei hohen Drücken und Temperaturen, bestanden die Fluide höchstwahrscheinlich, ebenso wie heute, aus einer Mischung von überkritischem Wasser und überkritischer Gase. Im überkritischen Zustand lassen sich die flüssige und die gasförmige Phase eines Stoffes nicht mehr voneinander unterscheiden, weil sich ihre Dichten einander angleichen und die Verdampfungswärme gegen Null geht. Es handelt sich dann also um eine Flüssigkeit mit den Eigenschaften eines Gases bzw. um ein Gas, das sich wie eine Flüssigkeit verhält. Überkritisches Wasser ist noch bei weit über 100°C flüssig und kann somit sehr viele gelöste Gase und Minerale enthalten, überkritische Gase sind in der Lage, wie Flüssigkeiten wasserunlösliche Verbindungen aufzunehmen und zu transportieren.

Bis auf mehrere Kilometer haben wir in den Störzonen der Erde eine Abfolge von unterschiedlichen Druck- und Temperaturverhältnissen, und auch der pH-Wert ändert sich je nach Tiefe. Steigen die Fluide mit Molekülen, die sich unter hohen Drücken und Temperaturen gebildet haben, entlang der verzweigten Spalten der Bruchzonen nach oben, können sie sich unter Vorsprüngen und in zahllosen Kammern mit einer Größe zwischen wenigen Mikrometern bis in den Meterbereich ansammeln. Hier sind chemische Reaktionen möglich, die im Wasser allein und an der Erdoberfläche nicht stattfinden konnten. Wiederkehrende Druckschwankungen, etwa infolge oberirdischer Ausbrüche von Geysiren, könnten dafür gesorgt haben, dass CO2-Tröpfchen immer wieder unterkritisch wurden und in die Gasphase übergingen. Das entstandene CO2-Gas kann die aufgesammelten organischen Bestandteile nicht mehr gelöst halten. Die Substanzen fielen also aus und konzentrierten sich in der verbliebenen wässrigen Lösung und an den Grenzflächen von Wasser zu Gas. Hier konnten sich Moleküle auch zu komplexen Verbindungen zusammentun.

Experimente belegen, dass unter den geschilderten Bedingungen spontan sogar Lipidvesikel, Vorläufer der späteren Zellmembranen, entstehen, in denen sich organische Moleküle anreichern konnten. Aminosäuren verknüpfen sich in einer solchen Umgebung „von selbst“ zu Peptiden (kurzen Eiweißsträngen). Zudem wurde beobachtet, dass unter diesen hydrothermalen Bedingungen Bausteine von Nukleotiden – Nukleinbasen sowie die Zucker Ribose und Desoxyribose – entstehen können. Eine vollständige Nukleotidbildung konnte allerdings noch nicht nachgewiesen werden.

Die Ausdehnung der Bruchzonen, ihre langfristige Stabilität und die ständig ablaufenden Reaktionen in hydrothermaler Umgebung haben also wohl dafür gesorgt, dass in diesen Erdspalten sämtliche molekularen Ausgangsstoffe für eine präbiotische Evolution dauerhaft und im Überfluss zur Verfügung standen.

Entstehung organischer Moleküle an Schwarzen oder Weißen Rauchern

Auch der Meeresgrund war ein geschützter Ort, an dem der Prozess des Lebens entstehen konnte. Das Wasser wirkt hier als Schutz und als Filter zugleich gegen die energiereichen Strahlen der Sonne, die nicht mehr als 10 bis 20 Meter Tiefe erreichen. Auch hier waren in frühen Erdzeitaltern hydrothermale Quellen weit verbreitet. Noch heute schießt an den Schwarzen Rauchern (Black Smoker) mit Gasen angereichertes, heißes Wasser (350 bis 400°C) aus dem Erdinnern empor. Es enthält eine reiche Fracht an alkalischen Fluiden, die Wasserstoff, Sulfide und Ammoniak und alle möglichen metallischen Spurenelemente (z. B. Eisen, Nickel, Mangan, Kobalt und Zink) mitführen, eine hoch reaktive chemische Lösung. Beim Austritt ins kalte Meerwasser (im Durchschnitt 2 bis 4°C), das in der Frühzeit der offenbar noch saurer war als heute und reich an Kohlendioxid, trifft dann eine alkalische Lauge auf eine Säure, warmes auf kaltes Wasser, Wasserstoff auf Kohlendioxid. Durch diese physikalischen und chemischen Gegensätze ist reichlich Energie vorhanden, um Moleküle zu trennen und andere zusammenzubauen. So reagieren die Stoffe miteinander und verbinden sich neu z. B. zu Metall-Schwefelverbindungen (Metallsulfiden), die die typische rauchige Färbung der Smoker verursachen. Die entstandenen Partikel lagern sich um die Quellen herum ab und türmen sich zu meterhohen Schloten auf – Bergen aus Karbonaten, Kieselerde, Tonen und Eisensulfiden.

Vor allem das pH-Gefälle zwischen saurem Meerwasser und alkalischem Thermalwasser ließ sich energetisch nutzen. So könnten auch chemische Lebensbausteine entstanden sein, die allerdings normalerweise im Wasser rasch verdünnt und auseinander getrieben würden. Doch gibt es an den Schlotwänden Millionen winziger Poren, deren Eisensulfidhüllen als anorganische (mineralische) Membranen fungiert und so die beiden gegensätzlichen Milieus getrennt haben könnten.

Allerdings dürften auch die hohen Temperaturen von bis zu 400°C komplexere Moleküle sofort wieder zerstört haben. Daher bevorzugen die Forscher heute eher die Weißen Raucher als möglichen Ursprungsort für Lebensbausteine. Ihre weißen Kalksteintürme ragen an manchen Stellen des Meeresbodens wie Stalagmiten in einer Tropfsteinhöhle empor. Anders als die Black Smoker wird die Quelle hier nicht durch vulkanische Hitze angetrieben, sondern durch chemische Reaktionen im Mereresgrund. Daher haben ihre ebenfalls mineralreichen, stark alkalischen Lösungen, die aus ihr herausquellen (überwiegend Bariumsulfat/BaSO4 und Siliziumdioxid/SiO2) eine konstant niedrigere Temperatur um ca. 90°C (evt. bis maximal 350°C).

Die Theorie geht davon aus, dass sich in der Frühzeit der Erde, als die gewaltigen Meteoriteneinschläge aus dem All allmählich nachließen, sich in den Metallsulfidbläschen der Schlotwände stetig neue Moleküle ansammelten, in einer viel höheren Konzentration, als an irgendwelchen metergroßen Tümpeln an Land möglich war. Die Eisensulfidhüllen haben wohl als Katalysatoren (Reaktionsbeschleuniger) gewirkt, sich dabei aber selbst nicht verändert.* Gleichzeitig verhinderten sie, dass die entstandenen organischen Moleküle wieder ins Meer verschwanden. So sorgten sie für eine hohe Konzentration dieser Substanzen, die miteinander kollidierten und sich teilweise verbanden, zunächst zu kurzen Kohlenstoffketten und dann zu immer komplexeren Molekülen. Sobald der Bioreaktor im Innern der Eisensulfidbläschen erste einmal in Gang gekommen war, produzierte er eine kaum überschaubare Vielfalt von Substanzen, u. a. Zucker, Nukleinbasen und Aminosäuren.

*Einige Mikroben verwenden heute noch Eisen-Schwefel-Verbindungen als aktives Zentrum von Enzymen, mit denen sie Wasser spalten. Die ersten einfachen biochemischen Reaktionen verliefen also analog zu natürlichen geochemischen Prozessen – sie haben sozusagen „mineralische Wurzeln“.

Wenn man den Hauptaugenmerk auf Energie und Thermodynamik legt, also auf den Antrieb und die Geschwindigkeit bestimmter chemischer Reaktionen, kommt man zu dem Schluss: Unter den Bedingungen, wie sie im Urozean an diesen heißen Quellen herrschten, war die Entstehung organischer Substanzen und einfacher biochemischer Abläufe geradezu programmiert. Für diese Hypothese spricht auch, dass sie eine Erklärung dafür bietet, dass sich einst die genau richtige Kombination aller Bestandteile für eine Zelle von allein zusammengeschlossen hat.

Polymerisation

Wir haben also eine grobe Vorstellung der möglichen Abläufe, wie die Lebensbausteine wie z. B. Aminosäuren, Nukleinbasen, Zucker und lösliche Phosphate entstehen konnten. Aber erst als sich diese einfachen Ausgangsstoffe (Monomere) durch vielfach wiederholende, gleichschrittige Reaktionsfolgen zu so genannten Polymerketten und Molekülanordnungen verbanden, schufen sie die Voraussetzung für Leben. So mussten sich Aminosäuren zu Peptiden und weiter zu Proteinen (Eiweißen) verbinden, und Nukleobasen mit Zucker und Phosphat kombinieren, um Nukleinsäuren zu bilden.

In den Eisensulfidbläschen der Raucher war die Bildung von größeren Moleküleinheiten und längerer Molekülketten gut möglich. Hier vermochten sich wohl leicht mehrere Aminosäuren zu Peptiden zu verbinden, die sich wiederum zu langkettigen Proteinen zusammenschließen konnten. Allerdings haben Forscher diese Schritte im Experiment noch nicht nachvollzogen.

Im überkritischen Gas in den Bruchzonen der Erde konnten durch zyklische Druckänderungen auch immer wieder Peptide entstehen. Für die Bildung von Nukleinsäuren lagen in den Erdspalten die pH-Werte sogar im Optimum. Zugleich variierten die Temperaturen in einem Bereich, der das wiederholte Kopieren von Nukleinsäuresträngen ermöglichte. Zusätzlich standen Stoffe zur Verfügung, die diese Moleküle nachweislich stabilisierten, etwa Bor und Magnesium.

Zu einer raschen Polymerisation einfacher Moleküle konnten auch Nass-Trocken-Zyklen an Kleingewässern oder Gezeitenbecken beitragen. Allerdings musste das Kombinieren kleinerer Moleküle zu komplexen, ausgedehnten Strukturen an der Erdoberfläche unter den rauen Bedingungen der Früherde besonders schwierig gewesen sein. Selbst eine ideale Kombination chemischer Lebensbausteine würden in einem Ozean rasch verdünnt und auseinandergetrieben (Hydrolyse). Eine rein zufällige Reaktion organischer Moleküle in wässrigen Lösungen neigt außerdem dazu, unbrauchbare, teerartige Massen hervorzubringen.

Wissenschaftler haben aber beobachtet, dass sich im Süßwasser aus organischen Bestandteilen spontan winzige (Lipid-) Membranbläschen bilden. In diesen relativ stabilen Strukturen konnten, begünstigt durch engen Kontakt sowie Wärme und Energie aus heißen Quellen, einfache Moleküle zu langen Ketten polymerisieren. Diese komplexen organischen Verbindungen wären hier vor Zerfall sicher und in ihrer weiteren Entwicklung geschützt. Die Konzentration komplexerer Moleküle war schließlich so hoch, dass auch eine noch so große Menge Wasser den Polymerisationsprozess nicht mehr umzukehren vermochte.

Minerale

Die Oberflächen von Mineralen könnten eine interessante Alternative für den Zusammenbau wichtiger organischer Moleküle bieten. Hier ist die Wahrscheinlichkeit für die Bildung von komplexen Biomolekülen um ein Vielfaches höher als in einer homogenen Flüssigkeit. Minerale könnten als Behälter, Gerüste, Schablonen, Katalysatoren und Reaktionspartner fungiert haben. So entwickeln einige Minerale wie Zeolith (ein Vulkanmineral) und Feldspat (ein Silikatmineral) durch Verwittern mikroskopisch kleine Vertiefungen. In solchen Zwischenräumen, Poren und Kanälchen sehen Forscher ideale Umgebungen, in denen sich organische Moleküle sammeln und stabilisieren konnten – und wo sie zudem vor fotochemischer Zerstörung sicher waren.

Die flachen Oberflächen von Tonen sind oft elektrisch geladen. Dadurch können sie organische Moleküle anziehen und festhalten. Tone vermochten so das Gerüst zu bilden, auf dem sich Moleküle zusammenfügen und wachsen konnten. Auch an die glänzende Oberfläche von Pyrit (Eisenschwefelerz, FeS2)* heften sich Moleküle – selbst dann noch, wenn sie kochend heiß wird.

*Pyrit entsteht, wenn Eisensulfid (FeS) und Schwefelwasserstoff (H2S), die neben einer Fülle anderer Stoffe und gelöster Metalle im austretenden Wasser an hydrothermalen Quellen enthalten sind, miteinander reagieren, wobei Wasserstoff und Energie frei werden.

Hatten sich organische Moleküle erst einmal an ein mineralisches Gerüst geheftet, wurden sie im Laufe der Zeit immer stärker konzentriert, beispielsweise durch wiederholte Verdunstungszyklen. Damit wurde auch die Wahrscheinlichkeit von Polymerisations-reaktionen erheblich größer, als sie es in einer wässrigen Lösung gewesen wäre. Umgekehrt sank die Wahrscheinlichkeit einer Hydrolyse bereits gebildeter Polymere, da sie von gleichartigen Molekülen umgeben waren und das Wasser so aus der direkten Umgebung ferngehalten wurde.

Die mineralischen Teilchen wirken also nicht nur als passive Fallen. Die aus ihnen gebildeten großen, spezifischen Oberflächen scheinen auch für katalytische Zwecke prädestiniert zu sein. Aufgrund ihrer Vielfältigkeit, Komplexität und der Fähigkeit, sich durch Wachstum zu „vermehren“, waren Mineralkristalle demnach ideale Schrittmacher für eine organische Entwicklung. Da die kristalline Gitterstruktur der Minerale sowie ihre Ladungsverteilung ähnlich der Erbinformation (in lebenden Zellen) gespeichert sind und im Laufe des Kristallwachstums weitergegeben werden, könnten sie auch die Bildung erster Informationsträger begünstigt haben.

Die Konzentrations- und Steuerungswirkungen von Mineralen haben somit den Lauf der chemischen Evolution tief beeinflusst. Ohne sie wären entscheidende Reaktionen wohl nicht möglich gewesen. Irgendeine Form mineralischer Katalysatoren war an den grundlegenden chemischen Reaktionen, aus denen das Leben hervorging, aktiv beteiligt – das ist sicher. Aus dem organischen Film auf der Mineraloberfläche hat sich so Leben in einem autokatalytischen (sich selbst fördernden) Prozess entwickeln können. Bis heute hat man solche Abläufe allerdings noch nicht beobachtet. Es bleiben noch einige offene Fragen.

Fazit

Die frühen Stufen der chemischen Evolution sind insgesamt gut verstanden. Wo immer Leben auch genau begonnen hat, musste es zunächst fünf Stufen durchlaufen:

1. Die Synthese organischer Moleküle

2. Selektion, Anreicherung und Konzentration dieser Moleküle in einem wässrigen Milieu

3. Abgrenzung vom umgebenden Medium

4. Katalytisch verstärkte und gerichtete Reaktionen zwischen den Molekülen

5. Bildung von Molekülketten (Polymerisation)

Es steht heute fest, dass die „Moleküle des Lebens“ im Überfluss produziert wurden – überall im Weltraum und schließlich auch auf unserem Planeten – am Meeresgrund, in Bruchzonen der Erdkruste und auf Geothermalfeldern bzw. Vulkaninseln an der Erdoberfläche. Unter dieser Voraussetzung erfolgte der Weg zum Leben letztlich zwangsläufig in einer Abfolge unspektakulärer Vorgänge, von denen jeder ein wenig Ordnung und zusätzliche Komplexität in die Welt der präbiotischen Moleküle brachte. Es klafft aber noch eine gewaltige Lücke zwischen den größten Molekülen und den entscheidenden Lebensvorgängen wie Vererbung, Stoffwechsel und Selbstreplikation.

REM

Umbruch in Europa – die Schnurkeramiker

Das Aufkommen von Ackerbau und Viehzucht in der Geschichte der Menschheit führte zu neuen technischen Entwicklungen und Bevölkerungsverdichtung. Vor ca. 5000 Jahren Jahren entstanden so in manchen Gegenden der Erde, vor allem an den großen Flüssen in Mesopotamien, Ägypten, Indien und China, komplexe Formen menschlichen Zusammenlebens. Diese so genannten Frühen Hochkulturen waren gleichsam Inseln in einem Meer dörflich-bäuerlich geprägter, also neolithischer Lebensweise, die damals auch in Europa vorherrschend war.

Jamnaja-Kultur

In der ersten Hälfte des 5. Jahrtausends v. h. trat in Europa ein zweites großes Migrationsereignis – nach der Einwanderung der ersten Ackerbauern – ein, eine massive Ausbreitung von Menschengruppen von Ost nach West, schließlich bis zu den Britischen Inseln. Die Graslandschaften nördlich des Schwarzen und Kaspischen Meeres waren im Zuge eines großräumigen Klimawechsels von Osten her immer mehr ausgetrocknet. Hier lebte zwischen 5100 v. h. und 4500 v. h. das Hirtenvolk der Jamnaja-Kultur, mobile Viehzüchter, die auf ihren Pferden zumindest in der warmen Jahreszeit Rinder, Schafe und Ziegen über die Steppe trieben.

Die Pferde hatten sie vermutlich von den Botai übernommen, die sie nach Osten verdrängten. Die Domestikation der Pferde hatte unabhängig voneinander an mehreren Orten stattgefunden: Im Nahen Osten, im heutigen Ungarn, in der eurasischen Steppe. Vielleicht domestizierten die nomadischen Gruppen der Botai-Kultur vor 5500 Jahren die ersten Pferde – mehrfach und an verschiedenen Orten. Diese Nomaden lebten als Wildbeuter ausschließlich von der Jagd auf Wildpferde, ehe sie sie bändigten – vermutlich, um ihre Nahrungsquelle für Fleisch und Milch besser kontrollieren zu können. Erst später wurden Pferde als Arbeitstiere zum Transport von Lasten und zur Feldarbeit abgerichtet. Offenbar waren die Tiere schon angeschirrt und trugen Trensen, worauf Abnutzungsspuren an den Zähnen hindeuten. (Die Botai-Pferde sind die Vorfahren der Przewalski-Pferde, die die ersten Reittiere gewesen sein sollen.)

Die Jamnaja waren fast ständig auf Wanderschaft, von einer Sommerwiese zur nächsten. Die Winter verbrachten sie wohl an Fluss- und Seeufern: Es fanden sich Reste ihrer Siedlungen entlang der russischen und ukrainischen Ströme. Von diesen Halbnomaden kennt man heute vor allem viele tausend Grabhügel oder Hügelgräber, so genannte Kurgane. Während die Gräber bis 5500 v. h. zunächst noch sehr unterschiedlich waren, wurden sie nun total gleichartig. Daraus schließen die Archäologen auf einen gemeinsamen Kulturraum, und damit auch auf eine gemeinsame Vorstellungswelt.

Die Grablegen waren äußerst schlicht. In den älteren Hügelgräbern der Jamnaja-Menschen lag oft nur ein einzelner Bestatteter in einer eingetieften Grube (russisch Jama), mal in Rücken-, mal in Seitenlage, mit angezogenen Beinen, bestäubt mit gemahlenem roten Ocker. Als häufigste Grabbeigabe finden sich Tierknochen, seltener Keramikgefäße, knöcherne Perlen oder durchbohrte Tierzähne, Nadeln, Feuersteinabschläge und ganz selten auch kleine Dolche aus Kupfer oder Arsenkupfer. Ansonsten aber gab es keine Waffen oder Ähnliches als Grabbeilagen.

In etwa jedem hundertsten Grab in späterer Zeit wurden hölzerne Scheibenräder und Wagenteile, teils auch ganze hölzerne Wagen (200 Kilogramm schwer) gefunden – wohl ausgesprochene Statussymbole.

In der heutigen Ukraine waren in der dortigen baumlosen Landschaft die Bedingungen gegeben, welche die Nutzung des Wagens überhaupt erst sinnvoll erscheinen lassen. In den Ebenen dienten die Karren den Nomaden zunächst womöglich auch als mobile Wohnstätten. Wer einen von Ochsen gezogenen Wagen besaß, konnte Vorräte, Werkzeuge und anderen Hausrat auf eine Reise mitnehmen, was ihm auf die Dauer wirtschaftliches Wachstum bescherte und ihm damit auch gesteigertes Ansehen in der Gemeinschaft gebracht haben dürfte. Der Bau eines Wagens – vor allem der Räder – erforderte spezielles Know-how. Außerdem war Holz in der Steppe Mangelware.

Runde Scheiben mittels Achsen unter eine Ladefläche zu montieren und all das von Tieren ziehen zu lassen, lässt sich erst seit der Zeit um 5500 v. h. zeitgleich an mehreren weit voneinander entfernt liegenden Regionen Europas und Vorderasiens (Mesopotamien) nachweisen. Wahrscheinlich ist trotzdem ein äußerst rascher Wissenstransfer von einem einzigen Ursprungsort aus. Vermutlich ging die Neuerung auf bereits vorhandene Techniken zurück, die dann miteinander kombiniert und durch weitere Innovationen vollendet wurden. (Die ersten Wagen waren allerdings zunächst noch nicht zum Transport über längere Strecken geeignet.)

Die Jamnaja-Gefährte waren vierrädrige Planwagen, auf deren hölzernem Unterbau, zumindest häufig, ein vorne offenes, mützenartiges Zelt stand, wie Tonmodelle zeigen. Sie wurden von kräftigen Ochsen gezogen, noch nicht von Pferden. Ab 5000 v. h. wanderte ein Teil der Jamnaja-Halbnomaden aus den eurasischen Steppen nach Westen, zunächst entlang der Völkerstraße Donautal in Richtung Balkan. Ihre Hügelgräber tauchten im unteren Donautal auf. Man findet sie häufig in Bulgarien, aber auch in der Theiß-Ebene des heutigen Ungarn. Von dort breiteten sich die Gruppen weiter aus.

Die Schnurkeramiker

Es folgte einer der größten Umbrüche in der frühen europäischen Geschichte, dessen Spur sich bis in die Gegenwart zieht. Was damals genau passierte, ist immer noch ein Rätsel. Die Migranten vermischten sich wohl mit den jungsteinzeitlichen Bauern, die in Osteuropa ansässig waren. Aus den Einwanderern war in Europa um etwa 4800 v. h. die Kultur der Schnurkeramiker entstanden, benannt nach der typischen Verzierung ihrer Tongefäße (Keramikbehälter), nämlich charakteristischen Schnurmustern. Diese wurden dadurch erzeugt, dass mit einer Schnur Rillenmuster in den noch weichen Ton gedrückt wurden. Gleichzeitig mit dem Aufkommen dieser Muster verschwand die neolithische Keramik. Die Schurkeramiker waren zu rund 75% genetisch identisch mit den Jamnaja-Nomaden. Es handelte sich bei ihnen also um enge Verwandte, vielleicht waren die Schnurkeramiker eine nordöstliche Untergruppe der Jamnaja-Kultur.

Die Schnurkeramiker zogen mit Wagen, Pferden und großen Viehherden weiter nach Westen, bis nach Mittel- und Westeuropa. Um 4700 v. h. sickerten sie in Mitteldeutschland ein, um 4500 v. h. ließen sie sich auch an den Schweizer Seen in Pfahlbausiedlungen nieder. Von Zentralrussland im Osten bis Frankreich im Westen, von der Schweiz im Süden bis Skandinavien im Norden lebten jetzt Menschen, die ihre Keramik mit Schnurmotiven verzierten.

Nach den genetischen Daten hatten die einwandernden Gruppen etwa 80% der lokalen Bauern-Bevölkerung verdrängt – in Mitteleuropa um 70%, später auf den Britischen Inseln sogar über 90%. Vor allem traf ihre Ankunft die Männer und ihr Erbgut. Während die genetische Komponente der Neuankömmlinge (Schurkeramiker-DNA oder ANE / „Ancient North Eurasians“) in der Mitochondrien-DNA, welche die genetische Geschichte der weiblichen Linie einer Bevölkerung wiedergibt, weniger deutlich zu sehen ist, ist sie im männlichen Y-Chromosom sehr stark vorhanden. Ein großer Teil heutiger Mitteleuropäer trägt ein Y-Chromosom, das zum großen Teil von diesen Einwanderern stammt. Man geht daher davon aus, dass auf jede einwandernde Frau damals fünf bis vierzehn Männer kamen.

Expansionen von Nomadenvölkern werden häufig vor allem von Männern getragen. Sie holen sich die Frauen aus den Regionen, die sie durchwandern. Die in Europa eingedrungenen Halbnomaden waren sicherlich fähige Krieger; sie besaßen schon Streitäxte – und haben wohl auch einheimische Männer getötet. Ein Grab beim heutigen Koszyce (Polen), wo die Opfer eines Massakers – Mitglieder der Kugelamphoren-Kultur – bestattet waren, zeigt, dass es bei der Einwanderung nicht immer friedlich zuging. Aber es gibt nirgends in Europa Spuren, die auf größere kriegerische Konflikte oder systematische Tötungen hinweisen. Neueste genetische Studien zeigen sogar, dass zumindest regional Einheimische und Einwanderer fast 1000 Jahre nebeneinander lebten. Daher gilt es heute als sicher, dass die Neuankömmlinge trotz ihrer militärischen Überlegenheit nicht die männlichen Bewohner der eroberten Gebiete umgebracht haben. Für möglich halten manche z. B. eine dominante Fruchtbarkeit der Neuankömmlinge.

Die erste Pandemie der Geschichte

Der Schlüssel für den Bevölkerungsaustausch könnte aber auch das erste Auftreten des Pesterregers in Europa gewesen sein, der sich damals auf dem ganzen Kontinent ausgebreitet hat. (Und wenn tatsächlich die Pest die Bevölkerung dezimiert hat, dann waren Männer aus irgendeinem Grund möglicherweise stärker durch das Bakterium gefährdet. Solche unterschiedlichen Anfälligkeiten gab und gibt es immer wieder, siehe auch die höhere Gefährdung von Männern durch Covid-19.)

Das Bakterium tauchte nach molekulargenetischen Berechnungen erstmals vor rund 5500 Jahren vermutlich in Zentralasien auf. Das ursprüngliche natürliche Reservoir des Erregers waren höchstwahrscheinlich Nagetiere in den pontisch-kaspischen Steppen, wo die Menschen der Jamnaja-Kultur zu Hause waren. Im Verdacht als Zwischenwirt stehen die Pferde, auf denen die Steppenbewohner tagtäglich unterwegs waren.

Die todbringenden Pestbakterien spalteten sich einst vom harmlosen Bakterium Yersinia pseudotuberculosis ab und wurden vor rund 30 000 Jahren in Nagern heimisch – bis sie vermutlich irgendwo in den eurasischen Steppenlandschaften von den Tieren auf den Menschen übersprangen. Aber erst mit dem vermehrten Kontakt zwischen Menschengruppen und dem engeren Zusammenleben mit domestizierten Tieren, die ein Erreger-Potenzial gebildet haben könnten, verbreiteten sie sich.

(Der frühe Pesterreger war ein Lungenpesterreger und besaß noch nicht die Gene für die Beulenpest, war aber noch gefährlicher als diese. Während manche Infizierte mit leichten Erkältungssymptomen davonkamen und anschließend lebenslang immun gegen den Erreger waren, konnte das Bakterium über Fieber, Hustenanfälle, blutigen Auswurf und Lungenversagen anderen den Tod bringen. Erst im Laufe der Jahrtausende hat das Bakterium seine genetische Ausstattung verändert und verursachte ab 3800 v. h. die Beulenpest, die erstmals in der russischen Region Samara nachgewiesen wurde.)

Es könnte also sein, dass ein heftiger Pestausbruch in ihrer Heimat viele Jamnaja dazu brachte, aus ihrer Heimat, den Steppen nördlich des Schwarzen und Kaspischen Meeres, Richtung Westen (aber auch Richtung Osten) zu ziehen. Sie nahmen dabei nicht nur ihr Vieh mit, sondern auch den Pesterreger. Bei einigen Toten der Migranten wurde eine frühe Form des Pestbakteriums nachgewiesen. Da die Halbnomaden wohl seit jeher mit dem Pesterreger lebten, hatten sie aber möglicherweise eine höhere Immunität, als sie in kleinen mobilen Gruppen mit ihren Pferden und Wagen in Europa ankamen. Die einheimischen Bauern hatten den todbringenden Bakterien dagegen nichts entgegenzusetzen.

Es ist nachgewiesen, dass zu jener Zeit an der westlichen Schwarzmeerküste die Zivilisation zusammenbrach und große Siedlungen plötzlich verschwanden. Jedenfalls breitete sich die Krankheit fortan über ganz Europa aus – die erste Pandemie der Menschheitsgeschichte! (Die Forscher wiesen inzwischen das Pest-Bakterium für die Bronzezeit – 4200 bis 2800 v. h. – vom Baikalsee bis zur Iberischen Halbinsel nach.)

Möglicherweise waren Pestepidemien den Einwanderern aus der Schwarzmeersteppe aber lediglich vorausgeeilt. Wir wissen, dass es bereits vor 5500 Jahren einen intensiven Ost-West-Austausch zwischen den Nomaden und Bauern gab. Sie handelten offenbar schon seit Jahrhunderten mit Gütern und Ideen. Über diese etablierten Netzwerke könnten dann womöglich wenige Infizierte den Erreger verbreitet haben.

In der Zeit von 5500 bis 4800 v. h. zerfielen jedenfalls in Europa viele Gemeinschaften aus noch unbekannten Gründen. Die Bevölkerung schrumpfte rapide und zuvor kultivierte Landschaften wurden offenbar schlagartig menschenleer. Archäologen haben in genau diesem Zeitraum auch nur eine geringe Zahl von Skeletten gefunden und kaum Bestattungen dokumentieren können. Vielleicht haben die Menschen ihre Toten verbrannt, um so der Gefahr aus dem Weg zu gehen, die von den Leichen ausging; oder sie ließen die Körper einfach liegen, ohne sie zu bestatten. Nichts deutet dabei auf kriegerische Ereignisse oder gewaltsame Konflikte unter den neolithischen Bauern als Ursache hin.

(Das Pandemieszenario ist aber keineswegs das einzige mögliche Szenario, denn auch der Klimawandel könnte für schlechte Ernten und Hungersnöte bei den neolithischen Bauern geführt haben. Archäologische Nachweise für die Szenarien gibt es bisher nicht.)

Der dänische Archäologe Kristian Kristiansen sieht den Grund für die Auswanderung der Steppenbewohner in ihrer Kultur. Demnach erbte in der Gesellschaft der Jamnaja-Verbände jeweils der älteste Sohn den Besitz. Das habe alle anderen Männer dazu gezwungen, alternative Wege einzuschlagen. Über die alten Netzwerke hatten sie womöglich erfahren, dass es im Westen saftige Weiden ohne Siedler gebe. So habe sich ihnen die große Chance geboten, im entvölkerten Europa eine neue Existenz zu gründen und sich dort Frauen unter der einheimischen Bevölkerung zu suchen.

Die Kultur der Schnurkeramiker

In den Gebieten, in die sich die Schnurkeramiker ausbreiteten, veränderte sich das Leben auf jeden Fall drastisch. Ob der große Wandel allein durch die Zuwanderung oder auch durch den Austausch zwischen den verschiedenen Kulturen ausgelöst wurde, ist schwer zu klären. Mit den Einwanderern kamen jedenfalls Wagen, Rad sowie die Kupfer-Metallurgie nach Europa, dazu eine Kriegermentalität und sehr wahrscheinlich auch das domestizierte Pferd.

Lebensstil und Essgewohnheiten wandelten sich: Zuvor hatten die neolithischen Bauern in Dörfern gelebt und auf gemeinschaftlich bewirtschafteten Feldern vorwiegend Einkorn und Emmer angebaut. Nun wohnten die Menschen auf Gehöften und in Weilern. Kristiansen spricht von einer „sehr individualistischen Kultur, die um Kernfamilien organisiert“ sei. (Die verringerte Siedlungsgröße könnte eine Reaktion auf die Pesterfahrungen gewesen sein, denn gerade das enge Zusammenleben in Dörfern hätte den Ausbruch einer Epidemie begünstigt.) Die Bauern züchteten vermehrt Rinder und aßen mehr Fleisch, Milch und Käse. (Mit den Einwanderern hatte sich auch die Fähigkeit, den Milchzucker Laktose abzubauen, verbreitet.)

Einzelbestattungen unter Hügeln waren jetzt üblich. Der Verstorbene wurde nach strengem Ritus in Seitenhocklage mit dem Gesicht nach Süden begraben, doch betteten sie Frauen auf die linke und Männer auf die rechte Körperflanke. Männliche Verstorbene bekamen eine steinerne, geschliffene Streitaxt mit ins Grab. (Daher die synonyme Bezeichnung als ‚Streitaxt-Kultur‘.) Das Ideal für die Schnurkeramiker war der einzeln kämpfende Krieger.

Die Schnurkeramiker brachten aber auch Frühformen der indoeuropäischen Sprachen mit, aus denen sich im Laufe der folgenden Jahrtausende die slawischen, baltischen und germanischen Sprachen bildeten. Die alteuropäischen Sprachen aber – heute noch inselhaft vertreten z. B. im Baskischen (dem Euskara) und in den Kartwelischen Sprachen des Kaukasus – wichen auf breiter Front den neuen Idiomen. Fortan wurde in den meisten Dörfern Europas indoeuropäisch gesprochen.

Das Europäer-Genom

75% der Mitteleuropäer trugen nun Erbgut aus der Steppe in sich. 70% der jungsteinzeitlichen Gene verschwanden in dieser Zeit und wurden durch „Steppengene“ ersetzt. Innerhalb weniger Jahrhunderte dominierten Gen-Komponenten der Schurkeramiker vor allem das männliche Y-Gen. Von Nordindien bis ins Rheinland findet man diese Komponenten seit 4500 v. h. fast überall.

Den ältesten und genetisch am engsten verwandten Vorläufer der Schnurkeramiker-Komponente auf dem Y-Chromosom fand man bei einem Jungen, der vor 24 000 Jahren nördlich des Baikal-Sees in Zentralsibirien bestattet wurde. Ein weiterer Skelettfund am Jenissei, 17 000 Jahre alt, enthält ebenfalls diesen ANE-Anteil. (Die ANE-Sibirier zwischen Baikalsee und Jenissei haben aber nicht nur zum Erbgut der Europäer beigetragen, sondern auch zu dem der nordamerikanischen Indianer. Diese genetische Komponente ist sogar zuerst im Genom der Eingeborenen Nordamerikas aufgespürt worden. Die Schnurkeramiker-Welle spülte die Sibirier-Gene dann vor 5000 Jahren flächendeckend nach Europa.)

Die Gene der Schnurkeramiker machen heute rund 10% des Gesamtgenoms im europaweiten Durchschnitt aus. Über das Y-Chromosom aber sind die europäischen Völker viel enger verwandt , als es die Anteile von 10 oder 20% des Gesamt-Genoms vermuten lassen. Manche dieser Y-DNA-Komponenten finden sich sogar zu meist über 50% im männlichen Teil der europäischen Völker.

Doch die regionalen Unterschiede hinsichtlich der Schnurkeramiker-Gene sind beträchtlich. Bei Russen, Balten und Polen ist insgesamt der Anteil an Steppen-DNA im Genom am höchsten (20%). In Richtung Südwesten und Süden sinkt er graduell. Bei den Bewohnern Sardiniens, den Sarden, macht er nur noch wenige Prozent aus. Auch auf der Iberischen Halbinsel war der genetische Einfluss der Schnurkeramiker deutlich geringer als im übrigen Europa. Die Forschungs-Ergebnisse legen hier ein merkliches, aber bescheidenes Eindringen der Migranten nahe.

Küstenferne Sarden weisen den höchsten Anteil an DNA auf, der unmittelbar von den nahöstlichen Bauern stammt: rund 85%. Sie sind praktisch fast reine Nachkommen dieser jungsteinzeitlichen Menschen, die hier vor 7000 Jahren lebten. Auch die Basken sind womöglich Nachfolger der ersten Ackerbauern in Europa, die vor 8000 Jahren einwanderten und eben nicht indoeuropäisch sprachen. Auch sie tragen in sich noch deren genetische Spuren und besitzen kaum DNA der Schnurkeramiker, die offenbar das heutige Baskenland nicht so dicht besiedelten wie andere Regionen. Außerdem gab es über Hunderte von Jahren möglicherweise auch Gruppen in Alpentälern, die kaum Verbindung zu anderen Regionen und damit auch zu Schnurkeramikern hatten.

Die Europäer setzen sich also genetisch aus mindestens drei Gruppen zusammen: Den alteingesessenen Sammlern und Jägern, von denen die ersten vor spätestens 45 000 Jahren nach Europa kamen; den nahöstlichen Bauern, die vor 8000 bis 7500 Jahren aus Anatolien und Nordsyrien kamen und Ackerbau und Viehzucht nach Europa brachten; und den Schnurkeramikern, die auch eine markante Note im Erbgut der heutigen Europäer hinterließen.

Nach 4200 v. h. ist die Kultur der Schnurkeramiker archäologisch nicht mehr nachweisbar. In Mitteleuropa z. B. dominierten nun die Glockenbecher- und die Aunjetitzer-Kultur. Ob eingewanderte Bevölkerungsgruppen für die kulturellen Veränderungen verantwortlich waren oder die neuen Ideen im kulturellen Austausch weitergegeben wurden, ist derzeit noch nicht abschließend geklärt.

REM