Leben auf dem Mars?

Zahlreiche Raumfahrtmissionen haben derzeit unseren Nachbarplanten Mars zum Ziel, um ihn besser kennenzulernen. Langfristig soll hier sogar eine Weltraumkolonie errichtet werden, die man als Basis für weitere Weltraum-Expeditionen braucht, die aber auch im Hinblick auf drohende Katastrophen, vor allem Einschlägen von Himmelskörpern oder eines ökologischen Desasters auf der Erde, als Überlebensversicherung dienen könnte. Wenn die Ressourcen des Mars genutzt würden, glauben die Wissenschaftler, könnte man hier überleben.

Der Nachbarplanet

Der Mars ist der am weitesten – nämlich 228 Millionen Kilometer – von der Sonne entfernte Gesteinsplanet. Er besitzt mit Phobos und Daimos zwei der winzigsten Monde unseres Sonnensystems mit einem Durchmesser von jeweils weniger als 25 Kilometern. Unser Nachbarplanet selbst ist halb so groß wie die Erde, sein Durchmesser beträgt 6787 Kilometer und er besitzt nur 1/10 ihrer Masse Seine Gravitation beträgt 1/3 der Erdanziehung; sein Magnetfeld ist 800mal schwächer als das der Erde.

Das Marsjahr hat 687 Tage, der Marstag ist nur eine halbe Stunde länger als der Erdentag. Die Rotationsachse des „Roten Planeten“ ist ähnlich wie die der Erde um 25,2° gegen die Bahnebene geneigt. Langfristig variiert der Neigungswinkel beim Mars allerdings stark und chaotisch zwischen 0° und 60°, da die Rotation nicht von einem größeren Mond stabilisiert wird wie bei unserem Heimatplaneten. Ursache für die sprunghaften Veränderungen sind vor allem die Gravitationswirkungen der Riesenplaneten Jupiter und Saturn. Zudem schwankt die Form der Umlaufbahn des Mars ganz erheblich zwischen Kreis und Ellipse. Alle 15 Jahre kommt der Mars bis auf 55 Millionen Kilometer an die Erde heran, das letzte Mal 2018.

Der Mars ist ähnlich aufgebaut wie die drei anderen Gesteinsplaneten des Sonnensystems (Merkur, Venus, Erde). Seine Hitze im Inneren stammt von der Gravitationsenergie und aus radioaktivem Zerfall. Der Planet besitzt heute eine kalte und trockene Atmosphäre, die zu 96% aus Kohlenstoffdioxid besteht. Hinzu kommen Argon und Stickstoff (je knapp 2%), sowie in Spuren Wasserdampf (0,02%) und andere Gase, wie z. B. Sauerstoff (0,14%). Da die Atmosphäre extrem dünn ist (1,2% der Dichte der Erdatmosphäre), bietet sie keinen wirksamen Schutz gegen Strahlung. Allerdings absorbiert der hohe Anteil an Feinstaub 40% der Sonneneinstrahlung, was großen Einfluss auf die Luftzirkulation und den Energietransport in der Atmosphäre hat. Der Luftdruck an der Oberfläche beträgt nur ein Hundertstel (0,6% = 6 Millibar) von dem auf der Erde und schwankt im Laufe der Jahreszeiten um 25%.

Die Oberflächentemperatur beträgt durchschnittlich ungefähr -33°C, schwankt aber wegen der sehr dünnen Atmosphäre zwischen -133°C und maximal +27°C. Flüssiges Wasser würde bei dem vorherrschenden niedrigen Atmosphärendruck verdunsten. Selbst das Eis hält sich, zumindest in einiger Entfernung von den Polen, nur ab einer gewissen Tiefe.

Äußerlich ist der Mars zweigeteilt: Den kraterübersäten Hochländern der Südhalbkugel, die knapp zwei Drittel seiner Oberfläche umfassen, steht im Norden eine bemerkenswert flache, fast kraterlose Senke gegenüber, das sog. Borealisbecken, dessen Ursprung bisher völlig ungeklärt ist. Mit Ausnahme der Polregionen (Eis!) bedeckt eine dichte Schicht feinkörnigen, roten Staubs, der Eisenoxide enthält, die Oberfläche des Mars. Riesige Stürme, Wirbel und Lawinen verteilen ihn über den gesamten Planeten. Manche der Wetter-und Klimazyklen auf dem Mars ähneln denen auf unserem Heimatplaneten, während andere auf Grund der Bahnparameter kein bekanntes Vorbild haben.

Mögliches Leben auf dem Mars

Eines der wichtigsten Ziele der Mars-Missionen ist u. a. auch die Suche nach extraterrestrischem Leben. Sicher glaubt heute keiner mehr, grüne Männchen auf dem Planeten zu finden. Aber primitives, einzelliges Leben könnte nach Meinung einiger Wissenschaftler hier entstanden sein und eventuell sogar bis heute überlebt haben. Die Bedingungen auf der Erde waren vor etwa vier Milliarden Jahren wohl keineswegs so bemerkenswert, dass die Ausbildung von Leben ein besonders unwahrscheinliches Ereignis wäre. Der Mars ist jedenfalls der einzige Planet in unserem Sonnensystem (außer der Erde), der die nötigen Ressourcen für Leben hat: Die Sonne als Energiequelle, Wasser, CO2 und Stickstoff in der Atmosphäre.

Wenn dann die Umweltbedingungen zudem noch so beschaffen waren, dass komplexe chemische Reaktionen stattfinden konnten, könnte Leben auch auf auf unserem Nachbarplaneten entstanden sein. Obwohl sich dieser heute recht unwirtlich, äußerst kalt und extrem trocken zeigt, gibt es zahlreiche Hinweise, dass Mars und Erde eine ähnliche Entstehungsgeschichte durchlaufen haben. In ihrer Frühzeit hatten vermutlich beide ein ähnliches Klima, eine dichte Atmosphäre und Flüsse und Seen, die das Landschaftsbild prägten.

Möglicherweise lag der Mars damals also in der sog. habitablen Zone oder Ökosphäre. Darunter versteht man allgemein die schmale Zone um das jeweilige Zentralgestirn herum, wo dessen Strahlung gerade so stark ist, dass die Temperatur auf der Oberfläche eines Planeten die Existenz von flüssigem Wasser erlauben würde. Allerdings wird der Begriff „habitabel“ (von lat. habitare = bewohnen) inzwischen etwas weiter gefasst. Wasser muss nicht so reichlich vorhanden sein wie auf der Erde. Schon Tümpel, Reservoirs unter der Planetenoberfläche, dünne Feuchtigkeitsschichten auf Gesteinskörnern oder geschmolzenes Eis von einem Meteoriteneinschlag reichen aus, damit entscheidende Vorstufen der Biochemie ablaufen können.

Frühzeit des Mars

Noch sind die Vorgänge über die Frühgeschichte des Mars heute allerdings in vielerlei Hinsicht unklar. Doch schon vor 4,5 Milliarden Jahren dürfte es auf dem Mars festes Gestein gegeben haben. Seine Oberfläche bestand die ersten 500 Millionen Jahre wohl aus Kontinentalplatten, die ständig in Bewegung waren. Der Planet war also geologisch aktiv – so wie die Erde heute. Die Plattentektonik erlahmte aber schon sehr früh.

Bis vor etwa 4,2 Milliarden Jahren brachten Asteroiden und Kometen Wasser und organische Moleküle auf den Mars. Durch die Einschläge wurde ein heftiger Vulkanismus ausgelöst, der vor etwa 4,3 bis 3,5 Milliarden Jahren, während der sog. Noachischen Epoche, das Gesicht des Planeten prägte. Die Zusammensetzung der Atmosphäre und das Klima waren den damaligen irdischen Verhältnissen durchaus ähnlich. Die Atmosphäre bestand wahrscheinlich aus Kohlenstoffdioxid, das insbesondere durch Vulkanismus freigesetzt wird und das auch heute noch wichtigster Bestandteil der Marsatmosphäre ist (s. o.). Der Vulkanismus könnte der Motor für die damals deutlich dichtere Atmosphäre gewesen sein, durch die es möglich war, dass der Mars auch in der Epoche der schwachen Sonne eine für flüssiges Wasser nötige Oberflächentemperatur aufrecht erhalten konnte.

Dafür, dass in der Frühzeit des Planeten Wasser floss, gibt es auch viele geologische Hinweise. So könnten feine dunkle Rinnen an den Hängen der Krater von flüssigem Wasser stammen. In den äquatorialen Hochländern von den nördlichen bis zu den südlichen mittleren Breiten des Mars findet man breite und meist weniger als hundert Kilometer lange, gewundene Flusstäler, wie sie für verzweigte Flusssysteme auf der Erde typisch sind. Die meisten sind über drei Milliarden Jahre alt. Die weitverzweigten Kanäle ergossen sich wahrscheinlich in einen riesigen Ozean, der die Hälfte der Nordhalbkugel des Roten Planeten bedeckte und der an manchen Stellen 1600 Meter tief war, das heutige Borealis-Becken.

Noch sind die genauen Ursachen all dieser Erosionsspuren allerdings nicht definitiv geklärt. Höchstwahrscheinlich sind wohl unterschiedliche geologische Prozesse an der Entstehung der Flusstäler beteiligt gewesen. Vielleicht entstanden wiederholt Wasserfluten nach Klimawechseln, bedingt durch Änderungen der Bahnparameter des Roten Planeten. So könnten einer Theorie nach die Fließspuren an den Hängen der Mars-Krater und in ihrer Umgebung auf heftige Regenfälle zurückgehen. Aber auch Schmelzwasser bei Vulkanausbrüchen und anderen geologischen Aktivitäten sind denkbar. Modellrechnungen zufolge könnten auch Meteoriteneinschläge die Quelle von brachialen Fluten gewesen sein. Dafür spricht, dass die großen Krater und die Fluss-Systeme etwa gleich alt sind – über 3,8 Milliarden Jahre. Um aber große fließende Gewässer auf seiner Oberfläche beherbergen zu können, mussten Treibhausgase den Planeten in gewissem Maße aufheizen. Kohlenstoffdioxid hat dazu wohl nicht allein ausgereicht. Wasserdampf könnte beispielsweise daran mitgewirkt haben, die Temperaturen über dem Gefrierpunkt zu halten, falls geochemische Prozesse ständig Wasserstoff nachlieferten.

Nach anderen Erkenntnissen war unser Nachbarplanet in seiner Frühzeit wahrscheinlich größtenteils von Schnee bedeckt. Vermutlich, so ergaben die Simulationen der Forscher, lag die durchschnittliche Temperatur des Planeten bei -50°C. Danach war der frühe Mars eher ein Eisplanet, auf dem Vulkane, Meteoriteneinschläge und schwankende Jahreszeiten immer wieder eine Teil der Gletscher einschmelzen ließen. In diesem Fall wären es dann Abflüsse unter dem Eis gewesen, die der Marsoberfläche ihre heutige Form gegeben haben.

Es kam aber immer wieder auch zu feuchteren und milderen Episoden, in denen es Flüsse und eisbedeckte Seen gab. Diese milden Klimaphasen wurden durch Ausbrüche des starken Klimagases Methan aus dem Mars-Boden ausgelöst – zurückzuführen wahrscheinlich auf starke Schwankungen der Rotationsachse des Planeten. Demnach könnte es in ausgewählten Gebieten tatsächlich Flüsse und Seen gegeben haben, während viele andere Gebiete wohl von dickem Eis bedeckt waren. Die lebensfreundlichen Phasen sollen jeweils bis zu einer Million Jahre gedauert haben.

Vermutlich war der heute rötliche Planet also zumindest eine Zeitlang blau und besaß in den ersten 800 Millionen Jahren größere Mengen an flüssigem Wasser – das, wie erwähnt, vielleicht aber auch nur phasenweise. Die folgenden grob geschätzten 600 Millionen Jahre (das Hesperian) markieren den Übergang vom frühen teilweise nassen Mars zum eisigen Planeten heute. Er verlor Stück für Stück seine Atmosphäre und Lebensfreundlichkeit. Vermutlich konnte der Planet seine Atmosphäre aufgrund seiner geringen Schwerkraft (ein Drittel der Erdanziehung) nur so lange halten, wie die Vulkane ständig Gas nachlieferten. Als die Eruptionen nachließen, entwichen die atmosphärischen Gase in den Weltraum und gefroren an den Polen. Nicht einmal eine Milliarde Jahre nach seiner Entstehung hatte der Mars den Großteil seiner Atmosphäre verloren. In stark gebremsten Tempo dauerte der Verlust der Mars-Atmosphäre vermutlich bis in die jüngere geologische Vergangenheit an.

Die amazonische Periode

In den letzten rund drei Milliarden Jahren, der amazonischen Periode, war es zwar auf dem Planeten kalt und sehr trocken, aber noch vor zwei Milliarden Jahren könnte es durchaus lebensfreundliche Phasen gegeben haben. Dass es damals und auch später noch Warmphasen gab, führen Wissenschaftler auf vulkanische Aktivitäten zurück. Dadurch freigesetzte Gase könnten sich in der Atmosphäre angereichert und Wärme gespeichert haben, so dass das Eis im Boden schmolz und sich in Senken sammelte. Eine letzte Warmperiode soll es auf dem Mars vor vielleicht 300 Millionen Jahren gegeben haben. Bilder der Marssonde Global Surveyor weisen auf Ausbrüche von flüssigem Wasser noch in jüngster Zeit hin.

[Vielleicht gibt es auch noch Vulkanismus auf dem Mars, zumindest muss der Planet noch bis vor kurzem vulkanisch aktiv gewesen sein. Neuere Beobachtungen dokumentierten frische Ablagerungen und Krater, kaskadierende Erdrutsche und vielleicht kleine Wasserausbrüche.]

Teils könnte Wasser versickert und in Permafrostböden gebunden sein, teils könnte es sich noch heute als Eis über weite Bereiche der nördlichen Ebenen erstrecken, allerdings von Staub und Sand bedeckt. Auch unter den südlichen Hochländern ab einem halben Meter Tiefe wird ein Gemenge aus Staub und und vielleicht riesigen Mengen von Wassereis vermutet. Teile der nördlichen und südlichen Polkappe enthalten heute ebenfalls große Mengen davon; hinzu kommt gefrorenes Kohlendioxid. Unter dem Eispanzer des Marssüdpols könnte es in eineinhalb Kilometern Tiefe ein 20 Kilometer breites Reservoir flüssigen Wassers geben. Ob es ein richtiger See ist, eine Art Schlamm oder wassergesättigtes Sediment, können die Wissenschaftler allerdings noch nicht sagen.

Ein Drittel des Wasser- und Kohlendioxid-Eises an den Polen verdampft jährlich und schlägt sich teilweise später wieder auf dem Boden nieder. Die Polkappen wachsen und schrumpfen so mit den Jahreszeiten. Rechnungen zeigen aber auch, dass der Mars in den letzten zwei Milliarden Jahren so viel Wasserdampf ans All verloren hat, dass man damit den ganzen Mars 160 Meter tief unter Wasser setzen könnte.

Nach neueren Erkenntnissen bahnt sich derzeit ein Klimawandel auf dem roten Planeten an, vermutlich ausgelöst durch einen Anstieg der Sonnenintensität. Setzt sich dieser Vorgang fort, nähme die Kohlendioxidkonzentration in der Atmosphäre schon in zehn Jahren um 1% zu, was einen Treibhauseffekt und damit eine weitere Erwärmung zur Folge hätte. Langfristig könnte sich so der Luftdruck auf dem Mars verdoppeln.

Indizien für Leben

Wenn Leben unter terrestrisches Bedingungen wirklich leicht entsteht, geschah das unter entsprechenden Bedingungen vielleicht auch auf dem Mars. Die meisten Wissenschaftler vermuten, dass vor etwa 3,1 bis 3,8 Milliarden Jahren lange genug eine feuchte und chemisch stabile Umgebung existiert haben könnte, um grundsätzlich Leben, zumindest in einfacher Form, zu ermöglichen. Wenn es für seine Existenz auch (noch) keinen Beleg gibt, so steht doch fest, dass die wichtigsten Zutaten dafür vorhanden waren.

Einige Wissenschaftler halten den Zerfall radioaktiver Elemente und die Wärme, die beim Zusammenballen des Planeten selbst entstand, für mögliche Wärmequellen von hydrothermalen Systemen. Tatsächlich entdeckte der Rover „Spirit“ in den Columbia Hills des Mars im Jahre 2008 Ablagerungen, die vermutlich von heißen Quellen stammen. Forscher haben diese auf ein Alter von 3,65 Milliarden Jahren datiert. Wenn die Entstehung des Lebens auf der Erde nach einer plausiblen Theorie möglicherweise auf Geothermalquellen zurückgeht, wäre auch der Mars ein vielversprechender Bewerber für Leben. Es scheint also durchaus nicht ausgeschlossen zu sein, dass einst Leben auf dem Mars wie auf der Erde entstanden ist.

Unser Nachbarplanet hat in seiner Frühzeit wohl auch ein beachtliches Magnetfeld besessen, das vor kosmischen und solaren Teilchen schützte – eine Voraussetzung, dass sich eine belebte Welt entwickeln konnte. Beschaffenheit und chemische Zusammensetzung von Meteoritengestein ist ebenfalls verträglich mit der Annahme, dass vor drei bis vier Milliarden Jahren Mikroorganismen auf dem Mars existierten. Es gibt sogar Hinweise auf Methangas, das vielleicht sogar biologischen Ursprungs war. Dass es auf dem Mars sogar organische Makromoleküle gibt, gehört zu den wichtigsten Entdeckungen in den letzten Jahren. So wurden diverse Kohlenwasserstoffe nachgewiesen, die auf der Erde in Kohle und Erdöl vorkommen. Sie werden z. B. in Stoffwechselprozessen von Mikroben durch Sulfat-Reduktion gebildet. Im Prinzip kann jedoch jede Struktur, die von Lebewesen gebildet wird, auch durch einen rein physikalischen oder geochemischen Prozess entstanden sein.

Sollte aber Leben auf dem Mars existiert haben, könnte es auch wieder ausgestorben sein – und in diesem Falle müsste man nach Fossilien suchen. Doch solche Relikte werden schwer zu finden sein. Allerdings schließen die Wissenschaftler bei den zeitweiligen Plus-Temperaturen in Äquatornähe nicht ganz aus, dass es selbst heute noch Mikroorganismen auf dem Mars gibt. Doch die Chancen dafür sind sehr gering, da es kein strömendes Wasser gibt, die UV-Strahlung nicht oder kaum durch eine Atmosphäre abgemildert wird und die Temperatur an der Oberfläche extrem niedrig ist.

Vielleicht haben sich die Mikroben aber, als es an der Oberfläche zu kalt und zu trocken wurde, in Refugien des Planeten zurückgezogen – vielleicht in Salzseen oder tiefere Regionen, die durch die Wärme des Marsinneren vom Dauerfrost verschont blieben. Die Möglichkeit, dass unter der Oberfläche unseres Nachbarplaneten einst Mikroorganismen hausten – oder gar heute noch existieren -, wird gestützt durch die Entdeckung von Mikroben im Tiefengestein der Erde, die völlig ohne Sauerstoff auskommen und sich buchstäblich nur von Wasser und Stein ernähren. Umstritten ist aber, ob heute tatsächlich noch genügend Wasser im Marsboden existiert, damit hier Mikroben leben können. Allerdings könnten einfache Organismen Mechanismen entwickelt haben, um Trockenphasen zu überdauern, wie z. B. irdische Bakteriensporen, die als Dauerform selbst ein Vakuum über lange Zeiträume überleben können.

Der Astrobiologe Rhawn Gabriel Joseph glaubt sogar, dass der Mars vermutlich noch immer von Leben besiedelt ist – und nicht nur von Bakterien, sondern auch von Algen, Flechten und Pilzen. Als Indiz, dass Organismen auch schon Sauerstoff durch Fotosynthese produzieren, sieht er die nachgewiesene saisonale Zunahme des sehr geringen Sauerstoff-Gehalts in der Mars-Atmosphäre (im Frühjahr und Sommer um 30% höher) an. Seine Behauptungen halten andere Wissenschaftler zwar für nicht unmöglich, aber sehr schwer vorstellbar.

Die meisten Planetenforscher sind inzwischen davon überzeugt, dass der Planet selbst in seiner Jugend nur sporadisch bewohnbar war. Die Forscherin Frances Westall vermutet, dass Leben zwar auf dem Nachbarplaneten aufgeflackert sein könnte – etwa in Seen, die sich nach Meteoriteneinschlägen oder größeren Vulkanausbrüchen bildeten. Aber „es gab kaum Spielraum für die Evolution“, meint sie. Die Biophysikerin geht davon aus, dass es die Marsianer – falls es sie denn gab – nicht einmal bis zum Bakterienstadium geschafft haben.

Weitere mögliche Lebensinseln im Sonnensystem

Der Mars ist aber auf jeden Fall viel weniger lebensfreundlich im Vergleich mit den fernen Monden Europa (Jupitermond), Titan und Enceladus (Saturn-Monde). Auch sie werden als mögliche „Lebensinseln“ im Universum diskutiert.

Der Jupitermond Europa ist ungefähr so groß wie der Erdenmond. Er ist neben der Erde der einzige Himmelskörper in unserem Sonnensystem, der eine aktive Plattentektonik hat. Astronomen entdeckten eine Subduktionszone, an der rund 20 000 Quadratkilometer Oberflächeneis in der Tiefe verschwunden sind – ein Indiz dafür, dass sich eine tektonische Platte über eine andere geschoben hat. Der Himmelskörper besitzt eine extrem dünne Gashülle aus molekularem Sauerstoff. Die Temperatur an der Oberfläche beträgt am Äquator -160°C und an den Polen -220°C. Unter einem dichten, nur wenige Kilometer dicken Eispanzer schlummert vermutlich ein ausgedehnter Ozean, der wahrscheinlich von Gezeitenkräften (Schwerefeld des Jupiter!) und radioaktivem Zerfall im Mantel erwärmt wird.

Der Saturnmond Titan ist das einzige planetarische Objekt in unserem Sonnensystem, das eine Atmosphäre aus Stickstoff (N2) und Methan (CH4) besitzt, die sogar eineinhalb Mal dichter ist als die der Erde. Teilchen aus dem Sonnenwind lösen chemische Reaktionen aus, bei denen die Moleküle der Atmosphärengase gespalten werden und sich zu einem reichen Arsenal komplexer organischer Moleküle und langer Molekülketten zusammenschließen können – ein Vorgang, der sich auch auf der frühen Erde abgespielt haben könnte. Die massenhaft produzierten Moleküle regnen langsam auf seine Oberfläche hinab und bilden dort eine dicke Schicht aus organischem Schlamm. Unter der eisigen Oberfläche dürfte es einen Ozean aus Wasser und Ammoniak geben. Hier könnte Leben existieren, das sich biochemisch nicht sehr von dem auf der Erde unterscheidet. Chemiker haben sich aber auch alternative biochemische Modelle überlegt, die mit flüssigen Kohlenwasserstoffen funktionieren könnten.

Der kleine eisbedeckte Saturnmond Enceladus gilt als einer der vielversprechendsten Orte in unserem Sonnensystem, um nach Leben zu suchen. Am Südpol des Minimondes liegt tief unter dem Eis ein salziger Ozean, der 30 bis 40 Kilometer tief und mindestens 10 Kilometer mächtig ist. Am Grund des Meeres soll es Temperaturen von +90°C bis vielleicht über 200°C und alkalische pH-Werte (zwischen 9 und 10,5) geben. Hier finden wahrscheinlich hydrothermale Prozesse statt. Unklar ist, woher die Wärme letztlich stammt. In dem See gibt es Hinweise auf sehr große organische Moleküle mit teils mehr als 1000 Atommassen. Die Raumsonde Cassini wies in den Fontänen von Wasserdampf und Eispartikeln, die von Geysiren Hunderte Kilometer hoch ins All geschossen werden, organische Substanzen (z. B. Methan) nach. Auf keinem anderen Himmelskörper passen nach aktuellem Wissensstand alle Umstände besser zusammen als hier, um die Frage nach einer weiteren Entstehung von Leben zu beantworten.

Modellrechnungen lassen aber durchaus denkbar erscheinen, dass die gegenwärtige Aktivität des Saturnmondes nur eine vorübergehende Erscheinung ist. Womöglich wechselt der Mond zwischen aktiven und passiven Perioden, die jeweils viele Millionen Jahre anhalten, hin und her. Gegen Enceladus als Ort des Lebens spricht auch seine geringe Größe mit einem Durchmesser von 504 Kilometern. Vermutlich ist sein Inneres im Laufe seiner Geschichte immer mal wieder komplett gefroren – was möglichen Bewohnern den Garaus gemacht hätte.

REM

Das „ICH“ – eine große Illusion

Wenn es überhaupt einen Aspekt unseres Lebens gibt, den wir für grundlegend halten können, dann ist es die Vorstellung von unserer persönliche Identität, dem Bewusstsein um unsere eigene, einzigartige Person. Wir wissen dadurch, dass wir existieren.

Das „Ich“ wird von uns als ständiger Begleitzustand empfunden. Bei allem, was ich tue und erlebe, habe ich das Gefühl, dass ich es bin, der etwas tut und erlebt, dass ich wach und „bei Bewusstsein“ bin, dass mein Körper damit zu tun hat. Ich sehe ein Bild, ich höre ein Geräusch, ich fühle und ich denke. Durch das Selbstgefühl schafft das Gehirn einen Standpunkt, ein Ich, das von einem Aussichtspunkt auf seine Umwelt blickt. Jeder sieht seinen privaten Kinofilm mit sich selbst in der Hauptrolle. Ich bin es, der auf Grund bestimmter Überzeugungen handelt und in dieser Zeit kontinuierlich existiert. Unser Ich kann aber auch auf sich selbst blicken, die eigene Leistung beurteilen, und sogar wissen, wann es etwas nicht weiß.

In der antiken griechischen Philosophie kam wohl erstmals der Gedanken auf, dass unser Verhalten durch eine dahinter stehende Psyche bestimmt wird. Seit diesen Anfängen des abendländischen Denkens gilt das Ich als zentrales Problem der Philosophie des Geistes – und noch heute stellt die Tatsache, dass wir die Welt aus der Perspektive der ersten Person betrachten, das zentrale Rätsel dar.

In zahlreichen psychologischen Theorien und philosophischen Systemen wird das Ich als ein natürliches Organ des individuellen Geistes betrachtet, das als Träger seiner Subjektivität, Personalität und auch Individualität fungiert. Ähnlich wie Organe des Körpers sei es in der naturgegebenen Ausstattung des Geistes angelegt und entfalte sich im Lauf der individuellen Entwicklung. Solche naturalistischen Ansichten vom Ich beherrschen auch unsere Alltagspsychologie. Wir glauben, völlig autonom zu sein und haben das Gefühl, aus uns selbst heraus zu handeln.

Teilhard de Chardin sah das Ich-Bewusstsein als ein exklusives Kriterium für den Menschen an: Nicht mehr nur wissen, sondern wissen, dass man weiß. Ein Tier weiß, aber nur der Mensch weiß, dass er weiß, einschließlich der Sokratischen Variante ‚Ich weiß, dass ich nicht weiß‘ oder ’nicht wirklich weiß‘. Heute ist bekannt, dass vermutlich nicht nur der Mensch, sondern wohl auch höhere Primaten und möglicherweise andere Tiere zumindest in Ansätzen eine Art Ich-Bewusstsein besitzen. Wie viel Ich-Bewusstsein dabei jeweils im Spiel ist, wissen wir nicht genau, aber ein Ich scheinen Tiere wie Affen, Delfine, Elefanten und Krähenvögel zu haben. Mit Ich ist hier gemeint, über eine Selbstrepräsentation, eine bildhafte Vorstellung von sich selbst zu verfügen.

Die althergebrachten, religiös mitgeprägten Konzepte der personalen Identität, Individualität und Ich-Substanz stehen heute auf dem Prüfstand. Der zentrale Kern, aus dem schließlich das Ich hervorging, das unsere Wahrnehmung, Denken, Fühlen und Wollen koordiniert, muss sich irgendwie im Laufe der Evolution entwickelt haben, vermutlich um dem Individuum eine effektive Selbststeuerung zu ermöglichen. Das Gehirn braucht laufend aktuelle Informationen über Körperzustände, um die verschiedenen Lebensprozesse zu regulieren. Unbewusste Gefühle reichen nicht aus, um in einer sich ständig wandelnden Umwelt zu überleben. Bewusstsein muss hinzukommen. Das sieht man schon daran, dass der Mensch hilflos wie ein Säugling wird, wenn die Instanz des Selbst-Bewusstseins ausfällt. Mit einer gefestigten Sicht seiner selbst aber kann er sich besser in der Welt orientieren und kommt besser mit ihren Gefährdungen zurecht.

Das Ich hat sich jedenfalls bewährt, und sei es als nützliche Fiktion. Wir suchen heute nach Erklärungen, die die Eigenschaften unseres subjektiven Erlebens aus Eigenschaften von zugrunde liegenden Prozessen und Funktionen herleiten. Die Entwicklung der modernen Hirnforschung und ihre Erkenntnisse haben in dieser Hinsicht bereits weitreichende Konsequenzen für unser Selbstverständnis gebracht.

Die Konstruktion des ICHs

Schon Buddha lehrte, dass das Ich eine Täuschung sei, ein trügerisches Konstrukt. In Wirklichkeit sei es zusammengesetzt aus verschiedenen Daseinsfaktoren, die sich mit dem Tod auflösen. Wer die Erleuchtung erreichen will, muss zuletzt auch die Ich-Vorstellung in Frage stellen und überwinden. Der schottische Philosoph David Hume (1711-1776) bezweifelte die Existenz eines zeitlosen Ichs. Er war der Meinung, dass sich das Ich verflüchtigt, sobald wir aufhören zu denken. Und der Experimentalphysiker und Literat Christoph Lichtenberg schrieb im 18. Jahrhundert: „‚Es denkt‘, sollte man sagen, so wie man sagt, ‚es blitzt‘. Zu sagen ‚cogito‘ ist schon zu viel, sobald man es mit ‚Ich denke‘ übersetzt. Das Ich anzunehmen, zu postulieren, ist praktisches Bedürfnis.“

So gehen auch die Konstruktivisten davon aus, dass das Ich in Wirklichkeit gar nicht existiert, es wird konstruiert. Nach dieser heute weit verbreiteten Sichtweise ist das Ich quasi ein Nebenprodukt unserer höheren geistigen Leistungen, ein neuronales Netzwerk, das Empfindungen und Erfahrungen nur zu einem Selbstbild zusammensetzt. Der Philosoph Thomas Metzinger bezeichnet das Ich-Bewusstsein als ein Betrugsmanöver des materiellen Gehirns, welches immer wieder hinkriegt, dass wir das Gefühl haben, aus uns selbst zu handeln und dabei völlig autonom zu sein. Für den amerikanischen Philosophen Ned Block ist das Ich der Mythos eines einheitlichen Wesens, das alles kontrolliert: „Das Ich ist eine Illusion – und zwar die beste, die Mutter Natur je erfunden hat“.

Unsere bewussten Erfahrungen entspringen nach Metzinger dabei nicht dem direkten Kontakt mit der äußeren Welt, sondern werden in einem vom Gehirn konstruierten Selbstmodell integriert. Nur so werden sie als eigene Erfahrungen erlebbar – wobei uns der zu Grunde liegende Mechanismus verborgen bleibt. Das, was wir als Ich bezeichnen, ist also das Selbstmodell, das ein informationsverarbeitendes System konstruiert, eine aktive Datenstruktur, die aber nur zeitweise da ist, nicht aber beispielsweise im Tiefschlaf oder in der Ohnmacht. Sie geht aus Lernprozessen hervor, ist also erfahrungsabhängig. Die Strukturen des Ich wären dann nicht a priori gegeben, sondern a posteriori erzeugt.

Metzinger sieht dafür, dass unser Ich eine flexible Konstruktion des Gehirns ist, starke Argumente und Belege in Studien in experimentellen Untersuchungen. Wir machen normalerweise keinen Unterschied zwischen dem Ich und unserem Körper. („Ich bin da, wo mein Körper ist.“) Füttert man das Gehirn aber beispielsweise mit ungewohnten Sinnesdaten, etwa veränderten visuellen Informationen, lassen sich die Mechanismen, die das Selbstmodell erzeugen, ohne Weiteres – und ohne höhere Macht – aus dem Tritt bringen. Die Vorstellung von der Identität von Ich und Körper auszuhebeln, bedarf es also nicht viel.

Schütteln sich zwei Personen die Hand, und die eine sieht sich per Kamera dabei selbst zu – quasi durch die Augen der anderen -, fühlt sie sich wie im Körper des Gegenübers. Wird die Kamera auf eine hölzerne Gliederpuppe montiert, so dass die Versuchsperson am Bauch der Puppe herabblicken kann wie am eigenen, dann „spürt“ sie es, wenn jemand den Holzkameraden berührt. Sie fühlt sich nach kaum einer Minute unwillkürlich in den Puppenkörper hineinversetzt: Sie weiß zwar „das bin ich nicht“ – doch fühlt es sich ganz anders an! Setzen die Wissenschaftler nun noch eine künstliche Spinne auf den Arm der Gliederpuppe, bekommt der Versuchsteilnehmer den unangenehmen Eindruck, dass das Tier auf seinem eigenen Arm herumkrabbelt. Wenn also die Erwartungen mit den Sinnesdaten, die man etwa von den Augen erhält, zusammenpassen, so stellt sich das Gefühl der Urheberschaft ein.

Auch bei akut psychotischen Patienten kann die Selbst-Fremd-Unterscheidung gestört sein, mit dem kuriosen Nebeneffekt, dass sie selbst herbeigeführte Berührungen der eigenen Haut unverändert stark empfinden und sich somit prinzipiell auch selbst kitzeln könnten. Manche Patienten sind überzeugt, ihren eigenen Körper nicht steuern zu können, ihre Bewegungen seien also fremdgesteuert. Eine ähnliche Störung des Ich-Erlebens könnte gewissen Symptomen der Schizophrenie zu Grund liegen. Schizophrenie-Patienten sind oft geprägt von Wahnideen, Halluzinationen und einem gestörten Ich-Gefühl – bis hin zum Verlust der eigenen Identität. (s. u.) Sie sind in akuten psychotischen Phasen nicht mehr in der Lage zu unterscheiden, ob eine Bewegung oder ein Gedanke von der Außenwelt oder von ihnen selbst erzeugt wird. Sie fühlen sich bedroht oder hören Stimmen, die ihnen etwas befehlen.

Die Einheit von Körper und Geist – und damit Ich-Bewusstsein – ist also nicht selbstverständlich. Außerkörperliche Erfahrungen sind besonders drastische Belege dafür, dass unser Ich keine im Körper verankerte Instanz ist, sondern Inhalt eines vom Gehirn konstruierten, inneren Bildes, das von außen manipulierbar ist. Es ist die zentrale Verarbeitungseinheit, die Muster wiedererkennt, Vergangenes und Zukünftiges verbindet, Prioritäten setzt und vieles mehr. Wir brauchen es als eine Art Projektionsfläche, um uns als autonom handelnde und fühlende Wesen zu begreifen. Somit dient es vor allem dem Zweck, uns laufend flexibel auf unsere Umwelt und andere Menschen einzustellen – und handlungsfähig zu bleiben. Im Extremfall außergewöhnlicher Bewusstseinszustände kann die Ich-Wahrnehmung (wie auch die Zeit-Wahrnehmung) ganz verschwinden, etwa bei langjähriger Meditationserfahrung oder unter dem Eindruck bestimmter Drogen, so genannten Halluzinogenen, aber auch bei selten auftretenden mystischen Erlebnissen, in der Hypnose und in Trance, sowie bei so genannten Nahtoderfahrungen.

Die eigentlich spannende philosophische Frage findet Metzinger in diesem Zusammenhang, wieso wir unser phänomenologisches Ich, auch unsere Körperlichkeit, in diesem naiven Realismus erleben. Denn trotz allem sind wir uns ganz sicher, dass unser Ich-Bewusstsein etwas Konstantes ist – und dass wir uns selbst in unserer Umwelt unter Kontrolle haben. Und schließlich denken wir, genau zu wissen, wer wir sind, wo wir uns gerade befinden, was wir tun und wofür wir uns entscheiden. Warum wir im Laufe der Evolution ein so gutes inneres Bild von uns selbst erzeugt haben, das so gut ist, dass wir das Modell mit sich selbst verwechseln, ist das große Rätsel.

Das ICH als soziale Konstruktion

Die Lernerfahrungen, die das Individuum mit seiner physischen und sozialen Umgebung macht, sind entscheidend für den Aufbau des Ichs. Sicher gibt es auch einen genetisch gegebenen Anteil, über dessen Umfang immer noch gestritten wird. Aber für viele heutige Kognitionswissenschaftler ist das Ich zu wesentlichen Teilen ein soziales Konstrukt. Am Anfang stehen jedenfalls Andere, durch die ich erfahre, dass ich Individualität und subjektive Empfindungen besitze. Ohne den Anderen kein Ich.

Die heutigen Theorien der „Sozialen Spiegelung“ zeigen, wie das eigene Selbst aus der Spiegelung durch andere hervorgeht. Schon Mitte des 18. Jahrhunderts hatte der schottische Philosoph Adam Smith (1723-1790) eine solche Theorie entwickelt. Dabei werden drei Komponenten zusammengeführt: Die Wahrnehmung fremder Handlungen, die Spiegelung eigener durch fremde Handlungen und den Aufbau wirksamer Selbst-Repräsentationen.

Individuelle Entwicklung

Die Entwicklung des Ichs beginnt in der frühen Kindheit. Babys entwickeln das Gefühl, von der übrigen Welt abgekapselt zu sein: ‚Ich‘ bin hier und ‚das‘, was immer man gerade anschaut, ist ‚dort‘. Es kommt zu einer Spaltung zwischen Ich und dem Rest der Welt. Fremdes wird vom eigenen Körper unterschieden, der als Urheber der Körperbewegungen und des eigenen Handelns erlebt wird. Die Welt aus einer egozentrischen Perspektive zu betrachten und sich selbst als handlungsfähiges Objekt neben anderen zu sehen wird beispielsweise deutlich, wenn sich das Kleinkind ab dem 18. Lebensmonat als „verkörpertes Ich“ selbst im Spiegel erkennen kann. Die körpergebundene Perspektive erzeugt fortan über alle Veränderungen hinweg ein Gefühl der Zugehörigkeit zu einem beständigen Ich und prägt so unser Selbstbild und Ich-Gefühl.

Im Alter von zwei Jahren beginnt das Kleinkind Begriffe wie „mir“ und „mein“ zu verwenden, was auf die wichtige Rolle der Sprache bei der Ich-Entwicklung hinweist. Es benutzt zum ersten Mal das Wort ‚ich‘ – vorher sprechen Kinder von sich meist in der dritten Person: „Max Hunger!“ Eigene Gefühlsregungen („Ich bin traurig“) benennen Kinder mit etwa drei Jahren. Mit dem Ich-Verständnis beginnt auch ein autobiografisches Gedächtnis; die Phase der „frühkindlichen Amnesie“ endet. Wir müssen annehmen, dass das komplexe Ich, das etwa im dritten, vierten Lebensjahr entsteht, mit der komplexen grammatikalisch-syntaktischen Sprache zusammenfällt.

Nur durch Interaktion mit einem Gegenüber kann ein Ich erschaffen und geformt werden. Das Fremd-Verständnis wird für das Selbst-Verständnis genutzt. Das Kind erlebt andere als mentale Akteure, die ihm als Modell dienen dafür, dass es sich selbst auch als mentalen Akteur mit Absichten und Bewusstsein versteht. Es braucht auch andere Menschen, um das Ich-Gefühl weiter zu entwickeln und sich eine Vorstellung von der Welt zu machen.

Über Gespräche mit Eltern und Geschwistern, Verwandten und der Spielgruppe lernt das Kind sich selbst sozusagen aus der Außenperspektive kennen, erfährt, dass es als eigenständiges Wesen betrachtet wird, und begreift sich schließlich selbst als Person, als Ich. Aus den Zuschreibungen, die von den anderen Personen übernommen werden („Du bist ein kluges Mädchen!“), zum anderen aus dem eigenen Empfinden in bestimmten Situationen (etwa Angst beim Alleinsein), entwickelt sich das Selbstbild, das allerdings anfangs noch nicht stabil ist.

„Zwischen der Geburt und dem Alter von fünf Jahren werden bis zu 40% der Persönlichkeit ausgebildet“, betont der deutsche Hirnforscher Gerhard Roth. Jede neue Erfahrung formt den Menschen weiter, sowohl biografisch als auch biologisch. Wie sich der Körper durch seinen Stoffwechsel laufend verändert, tritt auch das Ich nie auf der Stelle. Bewusstes Nachdenken, vor allem aber unbewusste Verarbeitungsprozesse spielen dabei eine wichtige Rolle. Die Grenze zwischen beiden ist fließend.

Die Kinder lernen die eigenen Überzeugungen, Wünsche, Hoffnungen usw. von denen anderer klar abzugrenzen. Indem sie aus der Ich-Sicht in die Er/Sie-Perspektive wechseln, können sie sich in andere Menschen hineinversetzen. Mit zunehmendem Alter wird das Selbstbild gedanklich immer differenzierter bewertet, so dass sich etwa bis zur Schulreife feste Selbsteinschätzungen und persönliche Ziele, Motivationen und Werte ausbilden.

Ab dem Grundschulalter entsteht ein Selbstwertgefühl. Der Heranwachsende beginnt, die eigenen Gedanken zum Gegenstand seines Denkens zu machen und bildet Urteile über sich selbst (Metakognitionen). In der Pubertät beginnen sich die Jugendlichen über Dinge zu identifizieren, die gar nicht direkt zu ihnen gehören, wie Kleidung, Computerspiele oder Musik, über die sie aber der eigenen Identität Ausdruck verleihen. Vertraute Personen haben die wichtige Funktion, das Selbstgefühl zu spiegeln und die Selbsteinschätzung gegebenenfalls zu korrigieren. Aus dem Miteinander, aus der Widerspiegelung des eigenen Tuns und des eigenen Willens und über immer differenziertere soziale Rollen erwerben Jugendlich und junge Erwachsene schließlich eine ausgereifte persönliche Identität. Danach verändert sich das bewusste Selbstbild eines Menschen, die Einstellungen und Urteile, die er über das eigene Ich bildet, kaum noch grundlegend.

Die Rolle der Kultur

Weil die am Dialog mit dem werdenden Gehirn beteiligten Personen ihrerseits wieder stark von den Menschen geprägt sind, die ihnen selbst einmal zu Bewusstsein verholfen haben, aber auch von ihrer jeweiligen Kultur, erhält das Ich-Bewusstsein zusätzlich eine historische Dimension. Die Art, uns zu erfahren, ist keinesfalls etwas von der Gesellschaft Unabhängiges, sie weist auch kulturspezifische Merkmale auf. Unsere Ich-Erfahrung ist deshalb mit hoher Wahrscheinlichkeit verschieden von der unserer Großeltern und von der Ich-Erfahrung, wie sie Menschen aus anderen Ländern und Kulturen haben.

So hat sich vermutlich das menschliche Ich unter dem Selektionsdruck entwickelt, den das komplexe Gemeinschaftsleben auf unsere Ahnen ausübte. Jahrmillionen lang lebten die Hominiden in kleinen Gruppen, gingen gemeinsam auf Nahrungssuche und teilten Beute und Sammelgut miteinander. Das verlangte Kooperation und gegenseitiges Vertrauen. Und diese Verhaltensweisen erforderten ein differenziertes Ich-Bewusstsein. Die Erfahrung, ein freies, autonomes Ich zu sein, ist also nicht nur das Ergebnis der biologischen, sondern auch der kulturellen Evolution.

Identität und Selbstbild

Mithilfe des autobiografischen Gedächtnis wird „aus dem Strom (von Ich-Empfindungen) das Ich-Gefühl, das wir wahrnehmen“ (Gerhard Roth, Neurophysiologe). Aus diesem und gleichbleibenden Bewertungen definiert sich unsere Identität. Dazu gehören wesentlich unsere Fähigkeiten, Wünsche, Ziele, Überzeugungen, Hoffnungen, Befürchtungen usw. Kein anderes Ich kann je in unsere Haut schlüpfen oder genau das erfahren, was wir erleben. Anhand unseres Selbstbildes erklären wir uns auch das Verhalten anderer Menschen und ordnen ihnen Wünsche und Überzeugungen zu (Theory of Mind). Man braucht beides, sich selbst zu verstehen und ein Einfühlungsvermögen in andere zu haben, um sich als „richtiger“ Mensch zu fühlen.

Aber wir haben nicht ohne Weiteres Zugang zu den Gedanken und Gefühlen von anderen. Jeder besitzt ein Ich-Bewusstsein, das sich nach seinen ureigenen Erfahrungen entwickelt hat, und eine eigene Wirklichkeit, die sich von der aller anderen Menschen unterscheidet. Trotzdem setzen wir nicht nur voraus, dass die meisten Menschen ähnlich denken, fühlen und erleben wie wir – offenbar liegt es uns geradezu im Blut, aus flüchtigen Eindrücken auf den momentanen Gefühlszustand oder die Gedanken unserer Mitmenschen zu schließen. Doch es ist eine tiefe Einsicht, die uns die Konstruktivisten vermitteln: Ich darf nie davon ausgehen, dass der andere so wahrnimmt wie ich, auch, dass er so denkt oder fühlt, wie ich glaube, dass er denkt oder fühlt. Das wäre eine fatale Verkennung der Tatsache, dass jeder in seiner eigenen Welt lebt, dass Verstehen der Sonderfall ist und Nichtverstehen die Regel. Allerdings: Je näher sich Menschen stehen, umso größer ist die Chance, dass sie die Welt ähnlich interpretieren.

Erstaunlich ist die Stabilität unseres Ichs, die wir empfinden. Identität meint ja das Gefühl, nicht nur eine Person zu sein, sondern darüber hinaus dieselbe Person, die ich gestern war und morgen sein werde. Das ist keine Selbstverständlichkeit, denn Menschen verändern sich: Sie unterliegen einem ständigen Wandel. Der heutige Erwachsene sieht anders aus, hat andere Fähigkeiten als das Kleinkind, das er einmal war. Auch unser Ich ist kein statisches Gebilde, sondern ein dynamisches Produkt von Prozessen. Auf Grund unserer Erlebnisse und Erfahrungen, die unser Ich ständig aktualisieren, spielt uns das Gehirn ein kontinuierliches Ich als feste unwandelbare Größe also nur vor. Wir bilden uns also lediglich ein, lebenslang ein- und dieselbe Person mit unveränderlichem Wesenskern zu sein und zu bleiben.

Das Ich ist anfällig für subtile Beeinflussungen und passt sich flexibel an den jeweiligen Kontext an – ohne dass wir etwas davon bemerken. Vergleiche mit anderen sind eine zentrale Stellschraube für das ständige Nachjustieren des Selbstbildes. Neben gelernten Erwartungen und dem sozialen Umfeld modulieren auch Gedanken und Gefühle jederzeit das Ich. Sie prägen unsere Entscheidungen, den beruflichen Werdegang und letztlich die Persönlichkeit. Tendenziell schützt ein starkes Selbstbild, aber weder Altruisten oder Egomanen sind vor der Macht der unterschwelligen Reize gefeit.

Illusionen bestimmen weite Teile unserer Identität. Bei der Wahrnehmung und oft auch beim Erinnern und Begründen unserer eigenen Handlungen täuschen wir uns oft, weil wir versuchen, ein kohärentes und stimmiges Selbstbild aufrechtzuerhalten. So lehrt die Alltagspsychologie, dass wir uns zum Schutz eines positiven Selbstbilds systematisch Selbsttäuschungen hingeben – sei es, weil unsere Selbsteinschätzung vom tatsächlichen Handeln abweicht, sei es, weil wir sozial Erwünschtes schlecht von unseren eigentlichen Überzeugungen trennen können. Selbsttäuschung trägt also zur Stabilisierung des Selbstbildes und damit zu unserem Wohlbefinden bei.

Da es sich einfach ziemlich oft auszahlt, uns in gewissem Maß zu überschätzen, könnte dieses Prinzip stammesgeschichtlich so tief in uns verwurzelt sein, dass Täuschung einen zentralen Baustein des Ich darstellt. Problematisch werden Selbsttäuschungen nur in übertriebener Form – oder wenn sie krankhafte Zustände annehmen. (Unsere Neigung zur Selbstüberschätzung ist ein in zahlreichen Studien bestätigtes Phänomen. Sie kann uns aber in Situationen motivieren, in denen eine realistische Einschätzung eher dazu führen würde, die Flinte ins Korn zu werfen.)

Die neurologische Grundlage des Ichs

Aber auch wenn die Ich-Vorstellung vom Gehirn konstruiert ist, so bleibt doch das, was sie repräsentiert, real. Auch sozial konstruierte Tatsachen sind real, sofern sie unser Denken und Handeln prägen. Die Neurologie lehrt uns, dass das Ich aus vielen Komponenten besteht, was sich auch in einer Vielzahl von neurologischen Erkrankungen widerspiegelt. Das Ich eines Depressivem etwa ist schon auf der emotionalen, affektiven Ebene brüchig: Die Patienten erleben ihr Ich als äußerst negativ gefärbt und im Extremfall gar nicht mehr als Ich. Epilepsie-Patienten erleben das ekstatische Gefühl der Vereinigung mit der Welt, indem sie sich selbst vergessen. Diese Erlebnisse dauern einige Sekunden bis Minuten und münden schließlich in Bewusstlosigkeit.

Wie unser subjektiver Eindruck entsteht, Urheber der eigenen Handlungen zu sein, und wie das Gehirn ein geschlossenes, stabil wirkendes Selbst erzeugt, ist bis heute ein Rätsel. Ein solch komplexes Phänomen ist jedenfalls nicht in einem einzelnen Bereich oder einer Region des Gehirns zu finden, sondern in einem Netzwerk, dass mehrere Hirnregionen umfasst. Hirnschädigungen, -störungen oder Ausfälle bestimmter Hirnregionen geben uns Hinweise auf die Grundlagen, die das Ich ausmachen.

Einem Modell zufolge sind kortikale und subkortikale Strukturen (Kortex = Gehirnrinde) entlang der Furche zwischen den Hirnhälften (der „kortikalen Mittellinie“) für mehrere auf das Ich bezogene Verarbeitungsprozesse entscheidend. Besonders wichtig für die Eigenwahrnehmung ist ein Abschnitt der Hirnrinde am vorderen Übergang vom Frontal- zum Schläfenlappen – die vordere Insula (Inselrinde). Sie verrechnet die Signale, die Auskunft über den Zustand des Körpers geben, schrittweise mit Informationen aus anderen Sinnen über die gesamte momentane Situation. Über die neuronale Aktivität in der Inselrinde sowie über nachgeschaltete Hirnareale entsteht ein Ich, das sich seiner selbst und seiner Präsenz in Zeit und Raum bewusst ist.

Dafür scheint auch der Präfrontalkortex im Stirnhirn unerlässlich zu sein. Demenz geht oft mit Störungen des Selbstbewusstseins und mit strukturellen und funktionellen Beeinträchtigungen des präfrontalen Kortex einher. Dazu passt, dass diese Region im Laufe der Primatenevolution stärker gewachsen ist als jede andere. Sie steht u. a. mit neuronalen Sprachzentren wie der Broca-Region sowie dem Hippocampus als Vermittlerinstanz für den Gedächtnisabruf in Verbindung. Dadurch sind wir in der Lage, das eigene Verhalten zu reflektieren und es gezielt zu beeinflussen.

Der Verlust der Ich-Funktion ist ein ausgesprochen ernstes Symptom. Es gibt Menschen, die völlig unfähig sind, ein Ich zu entwickeln. Die Patienten sehen sich nicht mehr als Urheber ihrer Handlungen. In den späteren Stadien der Alzheimer-Krankheit z. B. reagieren sie allmählich nur noch reflexhaft. Die Bilder in ihrem Gehirn hängen nicht mehr zusammen und haben nichts mehr mit ihnen als Person zu tun. Traditionell wird Schizophrenie z. B mit Störungen des neurochemischen Gleichgewichts in Teilen des Gehirns (vor allem beim Neurotransmitter Dopamin) erklärt. Vermutlich kommen aber anatomische Abweichungen der Nervenverbindungen hinzu, die zu einer veränderten Kortexarchitektur führen. Dadurch ist die Signalübertragung in dem weit verteilten Netzwerk der Hirnareale gestört.

Die Symptome von Multiplen sind von denen der Schizophrenen kaum zu unterscheiden. Die Ursachen für die „Dissoziative Identitätsstörung“ (früher „multiple Identitätsstörung“ genannt), bei der Betroffene zwei oder mehr verschiedene Identitätszustände entwickelt, liegen meist in einer frühen Hirnschädigung oder schweren und länger andauernden traumatischen Erlebnissen, z. B. Missbrauch. Die Abspaltung eines Teils des Ichs ist oft der einzige Weg, mit dieser schrecklichen Erfahrung fertig zu werden. Daneben kommen auch Umweltfaktoren wie städtische Umgebung, Migrationshintergrund, Zugehörigkeit zu einer sozialen Minderheit, Armut bis hin zu Bürgerkriegserfahrung, aber auch Cannabis-Konsum als Ursache für eine solche Störung in Frage, bei der nicht einzelne Hirnareale betroffen sind, sondern vielmehr die Verbindung zwischen ihnen.

Die Grenze zwischen Normalität und multipler Persönlichkeitsstörung ist aber durchlässig. Dass im Ansatz sogar jeder in gewissem Maße multipel ist, zeigt allein die Tatsache, dass der Mensch manchmal sein eigenes Tun im Nachhinein nicht begreift und zwischen Verstand und Gefühl einen Unterschied macht.

REM

Die kosmische (Mikrowellen-)Hintergrundstrahlung

Ein Fundament, auf dem wir unser Wissen vom Urknall gründen, ist das schwache Glühen der kosmischen Mikrowellen-Hintergrundstrahlung. Ihre Entdeckung ist ein gutes Beispiel für die Arbeitsweise der Astro-Wissenschaftler: Aufgrund von Beobachtungen (Fluchtgeschwindigkeit der Galaxien) wurde ein Modell entworfen (Urknall). Aus dem Modell ergab sich eine weitere Forderung: Eine Hintergrundstrahlung. Diese wurde schließlich tatsächlich nachgewiesen, als zwei Forscher rein zufällig auf sie stießen.

Entdeckung

Robert H. Dicke arbeitete in den vierziger Jahren am MIT (Massachusetts Institute of Technology) in Cambridge an der Entwicklung des Radars. Dabei erfand er das Mikrowellen-Radiometer, ein Gerät, mit dem man schwache Strahlungspegel messen kann. In den sechziger Jahren benutzten die US-amerikanischen Astrophysiker Arno W. Penzias und Robert W. Wilson ein solches Radiometer an einer großen Hornantenne, die dem Empfang von Signalen der frühen Kommunikationssatelliten Echo-1 und Telstar gedient hatte. Sie waren auf der Suche eines seltsamen Rauschens, einer vermeintlichen Störung der Radioantenne. Das Radiometer registrierte jedoch mehr Strahlung als erwartet. Was zunächst als lästiger Störeffekt empfunden wurde, konnten Penzias und Wilson schließlich als ein kosmisches Strahlungsfeld im Mikrowellenbereich deuten. Damit hatten sie 1964/65 die kosmische Hintergrundstrahlung entdeckt.

(Wenn man ein Fernsehgerät auf eine Frequenz einstellt, die zwischen denen der Fernsehsender liegt, sieht man auf dem Fernsehschirm „Schneegestöber“, und es ertönt ein Zischen, das manchmal als „statisches Rauschen“ bezeichnet wird. Etwa ein Prozent des empfangenen Signals, das dieses Rauschen hervorruft, ist tatsächlich die kosmische Mikrowellen-Hintergrundstrahlung.)

Erst durch die Entdeckung der kosmischen Hintergrundstrahlung wurde der Konflikt zwischen der Steady-State-Theorie, die von einem zeitlich und räumlich gleichförmigen Universum ausgeht, und der Urknall-Theorie zugunsten Letzterer endgültig gelöst. Nur unter der Voraussetzung, dass sich das Universum aus einem dichten und heißen Zustand heraus entwickelte, konnte diese Hintergrundstrahlung entstanden sein.

Entstehung

Die Hintergrundstrahlung besteht aus Photonen (Lichtteilchen), die 379 000 Jahre nach dem Urknall erstmals das Universum durchfluteten. Damals waren die Abstände im Universum bis auf ein Tausendstel ihrer heutigen Größe angewachsen und die Temperatur unter 3000°K (2730°C) gefallen.

Bis dahin war die Strahlung noch von der Materie gefangen: Photonen, Elektronen und Protonen waren stark aneinander gekoppelt; sie wechselwirkten ständig miteinander, so dass die Photonen immer wieder zerstreut wurden. Gleichzeitig stand der Strahlungsdruck der Photonen aber auch der Tendenz der Materieteilchen zur Zusammenballung entgegen. Als er nachließ, konnten freie Elektronen von den Ionen eingefangen werden und neutrale Atome bilden. Die Photonen breiteten sich jetzt ungehindert aus, das Universum wurde „durchsichtig“ (lichtdurchlässig).

Die Strahlung breitete sich aber nicht in den Raum aus, sondern erfüllte für alle Zeit – auch heute noch – den vorhandenen Raum. Während also der Raum weiter expandierte, ist die Strahlung mit ihm expandiert. Bei ihrer Entstehung war sie noch infrarot; ihre Wellenlänge betrug etwa 1000 Nanometer (entspricht etwa der des sichtbaren Lichts). Mit der Expansion des Universums wurde die Wellenlänge immer mehr gedehnt – insgesamt um das 1100-fache bis auf ihre heutige Länge, die im Millimeterbereich (Mikrowellenbereich) liegt. Man sagt auch: Die Strahlung wurde rotverschoben. Daher ist das Weltall heute kalt – 2,725°C (plus/minus 0,002°) über dem absoluten Nullpunkt* – und der Nachthimmel erscheint uns heute dunkel. (Durch die weitere Expansion des Universums wird die Temperatur der Hintergrundstrahlung in den nächsten ca. 15 Milliarden Jahre um weitere 1,5° sinken.)

*[Der absolute Nullpunkt ist die Temperatur, bei der alle thermische Bewegung der Atome und Moleküle aufhört. Er liegt bei -273,16°C, was als null Grad auf der absoluten Temperatur-Skala, der Kelvin-Skala, definiert wird.]

Noch heute aber hat die Hintergrundstrahlung mehr Energie als das Licht sämtlicher Sterne im Weltall. Etwa 90% ihrer ursprünglichen Photonen wurden bisher nicht absorbiert. Ihre Zahl ist mehr als tausendmal so hoch wie die seitdem erzeugten Ströme von neuen Photonen. Warum zu Beginn die Zahl der Photonen so hoch war oder welche unbekannten Erscheinungen damals tausendmal besser waren als alles, was folgte, wissen wir noch nicht. Heute befinden sich ungefähr 400 Photonen in jedem Kubikzentimeter Weltraum.

Die kosmische Hintergrundstrahlung ist äußerst homogen, d. h., sie füllt den Raum in alle Richtungen extrem gleichmäßig aus. Abweichungen überschreiten nirgendwo mehr als 0,001% – ein starkes Argument für das Kopernikanische Prinzip, nach dem wir uns nicht an einem besonderen Punkt im Universum befinden. Allerdings ist diese Hintergrundstrahlung nicht völlig gleichförmig. Es finden sich in ihre schwache Temperaturschwankungen: Fluktuationen oder „Ripples“.

Inhomogenitäten

Am Ende der Plasmaphase hatten Photonen und Neutrinos noch einen signifikanten Schwerkrafteinfluss. Er ist von jedem einzelnen Teilchen zwar extrem gering, war in der Summe aber damals noch wirksam. (Das Universum soll zu jener Zeit zu 15% aus Photonen und zu 10% aus Neutrinos bestanden haben.) Vor allem der Druck der Photonen, die im Plasma nach kurzer Wegstrecke absorbiert und anschließend emittiert wurden, hat dazu geführt, dass sich Dichteschwingungen als Abfolge geringfügiger Verdichtungen und Verdünnungen im Plasma ausbreiteten – ganz analog zu Schallwellen in einer Flüssigkeit. Die Verdichtungen erhitzten das Gas, die Verdünnungen kühlten es ab. Folglich ergab jede Störung im frühen Universum ein Muster an Temperaturfluktuationen.

Dieses durch die Schwingungen verursachte Muster von heißen und kalten Flecken wurde zum Zeitpunkt der „Entkopplung“ von Strahlung und Materie gleichsam im Strahlungshintergrund „eingefroren“. Da die von dichteren und heißeren Regionen abgestrahlten Photonen energiereicher waren als die aus verdünnten Regionen, finden sich die Photonen heute als kosmische Hintergrundstrahlung mit leicht unterschiedlichen Temperaturen in den Detektoren der Astronomen wieder.

Aber es gibt noch Differenzen, die sich nur in den mathematischen Analysen zeigen und nicht ohne Weiteres anschaulich gemacht werden können. So schwankt die Temperatur der Strahlung je nach Blickrichtung um einige zehn bis hunderttausendstel Grad. Eine Asymmetrie der Durchschnittstemperaturen an den entgegengesetzten Hemisphären des Himmels ist verblüffend und widerspricht der Annahme, dass das Universum im großen Maßstab überall gleich aussieht. Es scheint, als gäbe es eine Vorzugsrichtung. Seltsam ist, dass diese noch in der ekliptischen Ebene liegt, also ungefähr mit der Bahnebene der Erde um die Sonne korreliert. Am Überraschendsten ist wohl die Tatsache, dass die Fluktuationen bei den Temperaturen auf großen Winkelskalen nicht den im Standardmodell vorhergesagten Werten entsprechen. Die Signale sind nicht so stark, wie man dies erwartet.

Die Astrophysiker sprechen von leichter Anisotropie der Hintergrundstrahlung. Allerdings ist die statistische Signifikanz der Anisotropien nicht groß genug, um grundlegende Änderungen am kosmologischen Modell zu rechtfertigen.

Die winzigen Unregelmäßigkeiten in der kosmischen Hintergrundstrahlung könnten Spuren von Gravitationswellen sein, die das Universum kurz nach dem Urknall erschütterten. Während der Inflationszeit entstanden nämlich auch Quanten des Gravitationsfeldes: Gravitonen. Sie haben vermutlich in Form von großen Gravitationswellen ebenfalls Spuren in der Raumzeit hinterlassen und dadurch zur Anisotropie der Hintergrundstrahlung beigetragen. Als die Hintergrundstrahlung sich von der Materie löste, der Plasmazustand also in einen Gaszustand überging, begann gleichzeitig die Schwerkraft auf sie zu wirken.

[Minimale Temperaturschwankungen könnten auch durch Dunkle Materie entstanden sein. Nach theoretischen Überlegungen und Computersimulationen sollte diese trotz Ausdehnung des Universums bereits kurz vor der Entkopplungszeit erste Verdichtungen (schwach ausgeprägte Massenkonzentrationen) gebildet und zur Zeit der Entkopplung schon in Form von Unregelmäßigkeiten vorgelegen haben. Sie hätte so ihre eigene Schwerkraft erzeugt und normale Materieteilchen angezogen, wodurch diese Stellen wärmer wurden.]

Bedeutung

Die kosmische Hintergrundstrahlung markiert den Rand des beobachtbaren Universums wie ein undurchdringlicher Vorhang. Weiter kann man nicht blicken, weil das Weltall zuvor undurchsichtig war. Dieser optische Horizont hat heute eine Entfernung von 46 Milliarden Lichtjahren (1 Lichtjahr = 9,461 Billionen Kilometer). Die Strahlung stellt also die früheste Information dar, die wir vom jungen Universum haben. Sie kann uns Hinweise darauf geben, wie das Universum, seine physikalischen Bedingungen und Eigenschaften, 379 000 Jahre nach dem Urknall beschaffen waren. In ihr verbergen sich sogar schwache Spuren von der Zeit davor. Max Tegmark, schwedisch-amerikanischer Kosmologe: „Die kosmische Hintergrundstrahlung ist für die Kosmologie , was die Erbsubstanz DNA für die Biologie ist.“ Die Astronomen müssten nur noch lernen, dieses himmlische Dokument zu lesen.

Es ist beeindruckend, wie viel Kosmologen aus der Hintergrundstrahlung schon herauslesen können. Anhand ihrer Unregelmäßigkeiten können Forscher rekonstruieren, welche der Schwingungen damals dominant waren. Daraus lassen sich mehrere Schlüsselparameter ableiten, darunter die Krümmung des Universums sowie die Dichten der sichtbaren und Dunklen Materie. Auch andere fundamentalen Kenngrößen des Alls wie Alter und Ausdehnungsrate (Hubble-Konstante) können anhand des Verteilungsmusters der Temperaturschwankungen errechnet werden. Sie lassen aber auch Rückschlüsse auf eine viel frühere Epoche – wenige Sekundenbruchteile nach dem Urknall – sowie auf die spätere Entstehung der ersten Sterne zu.

Weitere Strahlungsfelder im Universum

Die kosmische Hintergrundstrahlung im Mikrowellenbereich ist nicht die einzige Hintergrundstrahlung. Es gibt z. B. noch die extragalaktische Hintergrundstrahlung. Sie erfüllt das gesamte Universum mit einem feinen „Gas“, das aus den Lichtquanten (Photonen) besteht, die im extragalaktischen Raum umherschwirren und von allen Sternen und Galaxien im Laufe der gesamten kosmischen Geschichte ausgesandt wurden. Es erhält noch heute Zuwachs durch das Erstrahlen neuer Sterne.

Das extragalaktische Hintergrundlicht, das vom nahen Ultraviolett über den sichtbaren Bereich bis zum Infrarot reicht, wurde erst 2012/2013 eindeutig quantifiziert, da es schwer zu entdecken ist. Es wirkt so schwach, weil der extragalaktische Raum gegenüber der Anzahl aller einst oder heute leuchtenden Galaxien überwältigend groß ist. Obendrein breiten sich die Photonen infolge der Expansion des Weltalls über ein ständig wachsendes Volumen aus und werden mit der Zeit quasi verdünnt. (Neuerdings können Astronomen dieses Hintergrundlicht indirekt anhand der Gammastrahlung messen, die von fernen Blazaren – besonders hellen Galaxienkernen – ausgeht und unterwegs durch Zusammenstöße mit extragalaktischen Photonen geschwächt wird.)

Außer dem kosmischen und extragalaktischen Hintergrundlicht erfüllen noch weitere Strahlungsfelder den ganzen Himmel, etwa der Infrarothintergrund, der Röntgenhintergrund und der Hintergrund aus energiereichen Gammastrahlen. Der kosmische Röntgenstrahlungshintergrund wurde bereits 1962 gemessen. Er stammt überwiegend (zu über 90%) von der Strahlung supermassereicher Schwarzer Löcher im Zentrum von aktiven Galaxien, die bei der Einverleibung von Materie entsteht. Der kosmische Infrarothintergrund hat seinen Ursprung überwiegend in Galaxien und warmem Gas, die durch die ersten Sterne (und zu mindestens 20% durch Schwarze Löcher) aufgeheizt wurden. Die Gammastrahlen, die heißesten und energiereichsten Strahlen, entstehen bei gigantischen Supernova-Explosionen oder dem Zusammenstoß zweier Neutronensterne.

REM

Entstehung des Lebens (2)

Von der Chemie zur Biologie

Die Urerde bot eine Fülle von Molekülarten an – viel mehr, als das entstehende Leben überhaupt gebrauchen konnte. Und sie bot ideale Bedingungen für deren weitere Entwicklung: Eine ständige Energiezufuhr – sei es durch die Sonne oder die Hitze des Erdinneren -, und Wasser, das von der irdischen Atmosphäre bei auch für chemische Vorgänge geeigneten Temperaturen zwischen 0°C und 60°C gehalten wurde.

Zur Entstehung lebender Substanzen mussten dreierlei Bausteine zusammenkommen:

  • ein Informationsspeichermolekül, das sich selbst identisch vermehren (replizieren) kann und das die richtige Information zum Aufbau der anderen Bestandteile enthält
  • ein Stoffwechselapparat, bestehend aus einem Satz von Enzymen, der in der Lage ist, die lebende Zelle mit Energie zu versorgen und Stoffe von außerhalb so umzubauen, dass weitere lebende Zellen daraus werden
  • eine Hülle, die die übrigen Bestandteile beieinander hält und ein inneres chemisches Milieu von einem äußeren trennt

Heutiges Leben gibt seine Information nur in eine Richtung weiter: Von der Nukleinsäure DNA (Desoxyribonukleinsäure) über die RNA (Ribonukleinsäure) zum Protein (Eiweiß). Nukleinsäuren sind aus Nukleotiden aufgebaut, die aus der Verbindung einer organischen Base mit einem Zucker (Ribose oder Desoxyribose) und Phosphat bestehen. In der DNA sind in heutigen Lebewesen die Bauanleitungen für Proteine gespeichert. Die RNA dient als Informationsmakler zwischen DNA und Protein. Eine große Gruppe von Proteinen, die Enzyme, sind für den Stoffwechsel unabdingbar – und damit für Entwicklung, Überleben und Fortpflanzung von Lebewesen. Ausschließlich mit ihrer Hilfe werden sowohl DNA als auch RNA hergestellt. Daher sind Nukleinsäuren und Proteine heute nicht unabhängig voneinander denkbar. Die große Frage ist, welche dieser Substanzen zuerst da war, ob sie gleichzeitig entstanden oder ob ihnen ein gänzlich anderer Molekültyp vorausging, der ihre spätere Entstehung erst induzierte.

Die meisten Evolutionsbiologen setzen den Beginn des Lebens mit dem Einschluss eines genetischen Apparates in eine Membran gleich, denn funktionsfähige Nukleinsäuren, aber auch funktionsfähige Enzyme oder beide, mussten geschützte Räume finden, da sie aufgrund ihrer Komplexität in freien Gewässern rasch wieder zerfallen wären. Komplexere Moleküle könnten z. B. in halbdurchlässigen Hohlkugeln (Micellen) eingeschlossen worden sein, die sich durch Anlagerung bestimmter Moleküle (z. B. Fettsäuremoleküle) spontan in Gewässern bilden können. An einer Wasser/Öl-Grenzschicht können sich hydrophobe Teile zusammenschließen und kleinere abgeschlossene Reaktionskammern von etwa 10 Nanometern Größe bilden. Auch unter den hydrothermalen Bedingungen tektonischer Bruchzonen entstehen spontan Vesikel, die ein breites Spektrum verschiedener Moleküle beherbergen können. Ebenso entsteht durch ein Sand-Wasser-System in Küstenbereichen Räumlichkeit, an die sich eine Membran anlegen und schließlich abkapseln kann. Es könnten sich auch alternativ Tropfen mit größeren Molekülen im Innern von Tonmineralen ablösen. Ein solcher Tropfen würde als abgeschlossener Lebensraum wirken, der unbeeinflusst von der Außenwelt wäre. Letztlich führten dann verschiedene Reaktionen zur Ausbildung eines genetischen Apparates und zur Membranbildung.

RNA-zuerst-Hypothese

Seit den fünfziger Jahren des letzten Jahrhunderts war das „zentrale Dogma“ der Biologen: Am Anfang steht die bekannte Doppelhelix aus Desoxyribonukleinsäure-Bausteinen. Aber der komplizierte Mechanismus, mit dem die in ihr enthaltene Information abgelesen und weitergegeben wird, macht es unwahrscheinlich, dass die DNA am Anfang der Entwicklung des Lebens stand. Denn der dicht verdrillte Molekülfaden muss sich stets zunächst entfalten und strecken und dann noch wie ein Reißverschluss teilen, ehe die Information offen liegt.

Die meisten Fachleute sind sich heute einig, dass schon die allerersten Zellvorläufer zwei entscheidende Komponenten besessen haben müssen: Einerseits eine Grenze zwischen innen und außen, andererseits einen Informationsträger, vermutlich RNA – denn im Gegensatz zur DNA besteht die RNA aus einem einfachen Nukleinsäure-Faden. Für die RNA sprechen verschiedene Gründe:

  • Vor allem sind es die verschiedenen Formen des RNA-Moleküls, die auch heute noch wichtige Funktionen in der Zelle ausüben.
  • RNA kann sich durch Selbstorganisation weiterentwickeln, d. h. sie kann sich vervielfältigen, Informationen speichern und mutieren. Sie unterliegt der Selektion, ist katalytisch aktiv (d. h., sie unterstützt bestimmte chemische Reaktionen oder macht sie überhaupt erst möglich) und relativ stabil, also evolutionstauglich.
  • Zudem ist gut vorstellbar, wie die Rolle des Erbgutbewahrers später von der RNA auf die stabileren DNA-Moleküle überging.

Entstehung der RNA

Die Ausgangsstoffe der Nukleotide, der Bausteine von Nukleinsäuren, waren im Urozean reichlich vorhanden: Phosphate aus hydrothermalen Quellen (oder von Eisenmeteoriten), der Zucker Ribose und einige jener stickstoffhaltigen Basen (vor allem Adenin), die sich aus einfachen Vorläufern gebildet hatten. Sie fügen sich jedoch nicht von selbst richtig zusammen. Theoretisch gibt es mehrere Möglichkeiten, wo und wie diese Bausteine abiotisch, d. h. auf nichtenzymatischem Reaktionsweg, entstanden sein könnten. So könnten die Oberflächen bestimmter Minerale etwa die Nukleotid-Komponenten absorbiert und sie so gezwungen haben, sich zum Zusammenbau in spezifischer Weise auszurichten.

Als letzter Schritt zur Synthese eines RNA-Moleküls fehlte dann noch die Polymerisation, die kettenförmige Aneinanderreihung der Nukleotide, wobei der Zucker die chemische Brücke zur Phosphatgruppe des nächsten Nukleotids bildete. Auch hier könnten beispielsweise mineralische Oberflächen die reaktiven Moleküle nahe zusammengebracht und eine Brückenbildung erleichtert haben. Es konnte experimentell gezeigt werden, dass Tonminerale diesen Prozess so begünstigen können, dass Ketten mit bis zu 50 Nukleotiden entstehen. In Computersimulationen wurde berechnet, wie sich auch in einem hydrothermalen Reaktor zunächst durch Zufall, später durch rein chemisch-physikalische Auswahlprozesse immer längere RNA-Ketten bilden können. In den wassergefüllten Spaltensystemen der Erdkruste sind sie bei sauren pH-Werten zwischen 3 und 4, wie sie in den dortigen Fluiden üblich sind, besonders stabil.

Experimente stützen die Idee, dass die ersten Protozellen nicht viel mehr als RNA – oder etwas Ähnliches – enthielten, die fast alle Funktionen der Zelle allein übernahm. Man nennt diesen hypothetischen Zustand „RNA-Welt“, oder besser „RNA-zuerst“. Bevor das Leben auf DNA als Bauplan für Eiweiße bzw. Enzyme zurückgriff, gab es also wahrscheinlich eine Phase, in der RNA sowohl Bauplan als auch Werkzeug zum Zusammenbau von Stoffen war. So könnte durch natürliche Auslese auch z. B. eine zufällige kurzkettige Nukleotidsequenz entstanden sein, die günstige Eigenschaften im Hinblick auf ihre Selbstreproduktion besaß und gegenüber anderen eine gewisse Dominanz entwickelte.

Gemäß der Theorie nahmen später manche Proteine bestimmte Konformationen ein und bildeten enzymatisch aktive Regionen aus. Sie erwiesen sich als die präziseren Katalysatoren, die vielfältige Aufgaben übernehmen konnten. Das wiederum hatte zur Folge, dass die Proteine allmählich – im Laufe von Jahrmillionen – die RNAs als katalytische Werkzeuge der Zelle verdrängten. Einige von ihnen halfen wiederum, die Information der RNA zu vervielfältigen.

Eine ganze Reihe von Erkenntnissen stützt die RNA-zuerst-Hypothese. Nur die RNA kann sowohl die genetische Information als auch die katalytischen Funktionen eines Organismus verkörpern. Aus diesem Grund und aus anderen Erwägungen heraus ist heute die noch immer gültige Lehrbuchmeinung, dass der Vorläufer unserer heutigen DNA/RNA/Protein-Welt nur eine RNA-Welt gewesen sein konnte.

[Gut vereinbar mit dem RNA-Modell ist auch eine der Theorien zur Entstehung von Viren, denn manche Viren bestehen nur aus RNA. Sie könnten am Anfang des Lebens gestanden haben, noch bevor es Zellen gab. Die RNA hätte es bestimmten Gengruppen ermöglicht, sich zu reproduzieren und zu vervielfältigen. Eine effektive Vermehrung und eine erfolgreiche Evolution wäre den Viren aber erst möglich gewesen, als Zellen ihnen als Wirtssysteme bei der Vermehrung dienten. So seien Zellen und Viren in einen Prozess der Koevolution geraten.]

Bislang ließ sich das RNA-Szenario allerdings noch nicht experimentell nachvollziehen; und man hat in der Natur auch noch keine RNA-Moleküle identifizieren können, welche die Vervielfältigung anderer RNA steuern kann. Allerdings würden solche und ähnliche Befunde nur belegen, dass eine derartige Zeit existierte. Über die Entstehung des Lebens sagen sie nichts. Schließlich könnte es vor der RNA-Ära Stadien gegeben haben, in denen ganz andere Moleküle dominierten.

PNA-Modell

Gegen die Entstehung des Lebens aus RNA spricht, dass schon deren Bausteine komplizierte Moleküle sind, die sich nur schwer von selbst bilden können. Weder in den Produkten von Gasentladungsexperimenten noch in Meteoriten fanden sich jemals Nukleotide. In der unbelebten Natur bilden sich bevorzugt kleine Moleküle mit wenigen Kohlenstoffatomen, während jedes RNA-Nukleotid neun oder zehn Kohlenstoffatome (sowie neben Wasserstoff- mehrere Sauerstoff- und Stickstoff-Atome) enthält, die zusammen mit der Phosphatgruppe zu einer bestimmten dreidimensionalen Struktur verbunden sind. Eine Tendenz zur spontanen Entstehung von Nukleotiden, wie moderne Lebensformen sie benötigen, ist nicht erkennbar.

Vielleicht ging daher der RNA eine einfachere Substanz voraus. PNA, eine Peptid-Nukleinsäure, scheint ein attraktiver Kandidat für eine Prä-RNA-Welt zu sein. Sie hat als Rückgrat einen einfach aufgebauten und noch dazu extrem stabilen Aminosäurestrang und als Seitenketten Nukleotidbasen. PNA kann Information speichern und übertragen, durch Selbstorganisation komplexere Einheiten bilden, eine Energiequelle benutzen sowie sich vermehren und weiterentwickeln. Solche Moleküle könnten an der Schaffung des genetischen Systems mitgewirkt haben, bevor Proteine, RNA und DNA auf den Plan traten. Aber es ist gewagt, von solchen Einzelbeobachtungen auf die Existenz einer Prä-RNA-Welt auf Basis von PNA oder ähnlichen Molekülen zu schließen, denn diese wurden bisher nicht mit katalytischen Eigenschaften beschrieben.

[Ursprung der DNA

Ob die RNA nun spontan aufgetreten ist oder ein früheres Erbmaterial ablöste, ihre Entstehung dürfte einen entscheidenden Einschnitt in der Entwicklung zum Leben markieren, in dessen Gefolge sich Proteine und DNA sowie schließlich die ersten Zellen herausbildeten – und irgendwann der letzte gemeinsame Vorfahre des Lebens, LUCA (Last Universal Common Ancestor) genannt. Wie die DNA entstand, dafür fehlt allerdings noch ein schlüssiges Rezept. Durch Zufall könnte irgendwann ein RNA-Molekül entstanden sein, in dem eine Base (Uracil) durch eine ähnlich aufgebaute (Thymin) ersetzt wurde. Dem Zucker (Ribose) ging außerdem ein Sauerstoffatom verloren – er wurde zu Desoxyribose.

Die wohl wichtigste Erfindung war der Umbau der Einzelkette in einen wendeltreppenförmigen Doppelstrang. Dadurch konnten die Sequenzen eines Strangs länger werden, ohne gleichzeitig unsicherer zu werden; auch schlichen sich jetzt weniger Fehler ein. Da die RNA fragil ist und Temperaturen oberhalb von 50°C nicht lange aushält, übernahm die DNA dank ihrer überlegenen Stabilität die Rolle des primären Erbmoleküls. Allerdings verfügte sie nicht mehr über katalytische Eigenschaften. Während nur noch einige RNA-Stränge noch als Informationsspeicher dienten, halfen andere fortan , den DNA-Code zu übersetzen und diese Informationen in Proteine zu übertragen.

Erst mit der Zeit dürften Selektionskräfte den heutigen genetischen Code (der durch die Abfolge der Basen bestimmt wird) herausgearbeitet haben. Vielleicht benutzten frühe Organismen nur um die zehn Aminosäuren statt der heutigen zwanzig zum Proteinaufbau, und verschlüsselten sie nicht mit jeweils drei, sondern zwei genetischen Buchstaben (Basen). Aber die Variationsmöglichkeiten müssen schon im ersten Stadium der Entwicklung verblüffend gewesen sein.]

Proteine-zuerst oder Doppel-Ursprung

Von der allgemeinen Lehrbuchmeinung, dass Ribonukleinsäuren am Beginn des Lebens standen, rücken manche Wissenschaftler aber allmählich ab. Für Francis Crick und andere Forscher ist durchaus vorstellbar, dass Proteine am Anfang standen und die Nukleinsäuren erst später kamen. In Simulationsexperimenten konnte nachgewiesen werden, dass auf der unbelebten Erde offenbar die prinzipielle Möglichkeit für die Entstehung einer großen Vielfalt an Eiweißkörpern bestand, die sogar enzymatische Fähigkeiten aufweisen und Zellstrukturen aufbauen konnten – auch ohne steuernde Nukleinsäuren und ohne Katalyse durch andere Enzyme. Untersuchungen zeigten, dass sie sich auch ohne fremde Hilfe vermehren können.

Nach der „Doppel-Ursprungs-Hypothese“ (Robert Shapiro, Freeman Dyson) ging der genetische Apparat nicht direkt aus den anfänglichen Proteinen hervor, sondern war ein Nachzügler. Proteine und Reduplikatoren seien zunächst unabhängig voneinander aufgetreten, um sich dann später in einem für beide Seiten vorteilhaften symbiotischen Arrangement zu verbinden. Auch andere Wissenschaftler wie Manfred Eigen sind der Meinung, dass keine Komponente anfangs allein einen Mechanismus in Gang bringen konnte, wie er typisch ist für das uns bekannte Leben, in dem Nukleinsäuren und Proteine, Information und Funktion, durch Rückkopplungsprozesse miteinander verknüpft sind.

Nach Eigen war die Ursuppe aus zufällig aufgebauten kleinen Proteinen, einer genügenden Menge an Lipiden (Fettsäuren) und einer Vielzahl von aktiven, energiereichen Nukleotid-Einheiten zusammengesetzt. Mindestens ein replizierendes RNA-Molekül bildete sich durch Zufall, möglicherweise begünstigt durch das Vorhandensein von Proteinen (Enzymen). Letztere trugen wohl zur Verringerung der Fehlerrate beim Kopieren, aber auch zur Beschleunigung des Kopiervorgangs selbst bei. Schließlich begannen die Nukleinsäuren, den Aufbau der Proteine aus Aminosäuren zu steuern. Als ein Nukleinsäure-Molekül noch „lernte“, den Zusammenbau eines Enzyms zu steuern, das dann seinerseits das Kopieren der Nukleinsäure selbst herbeiführte, war ein wahrhafter Fortschritt erreicht. Mit der Zeit wurden die Nukleinsäuren genauer repliziert und die Proteine exakter synthetisiert. Es bleibt aber noch immer ein Rätsel, durch welche chemischen Schritte die wechselseitige Abhängigkeit zwischen Nukleinsäuren und Proteinen genau entstanden ist.

In einem hypothetischen Szenario beschreiben der Geologe Ulrich Schreiber und der Physikochemiker Christian Mayer (Buch: „Geheimnis der ersten Zelle“), wie es in der brodelnden Welt tektonischer Bruchzonen eine gemeinsame Entwicklung von Proteinen und RNA gegeben haben kann. Dabei umgehen sie einige Probleme, die sich mit anderen Modellen kaum oder gar nicht lösen lassen, und bieten mögliche Auswege. Das System startet mit sehr niedriger Komplexität (nämlich zwei Aminosäuren, zwei einfachen Proteinen, kurzen RNAs und einem RNA-Strang) und wird dann sukzessive immer komplexer.

Stoffwechsel-zuerst

Das spontane Auftreten eines großen selbstreplizierenden Moleküls als Initialzündung des Lebens scheint extrem unwahrscheinlich, selbst wenn eine Ursuppe Nukleotide oder einfachere analoge Bausteine bereitgestellt hätte. Es ist ebenfalls extrem unwahrscheinlich, dass die beiden strukturell komplexen Molekülarten, Proteine und Nukleinsäuren, gleichzeitig am selben Ort entstanden. Die präbiotische Evolution könnte daher von Anfang an auf der Ebene von Systemen abgelaufen sein, ausgehend von einer Fülle kleiner Moleküle aus zwei bis wenigen Dutzend Atomen, die sich z. B. im Innern mikroskopisch kleiner Bläschen vernetzten und gemeinsam Energie verarbeiteten.

Die Wissenschaftler stellen sich Kreisprozesse vor, in denen beispielsweise Molekül A die Bildung von B unterstützte, B sich günstig auf die Bildung von C auswirkte usw., bis ein Molekül entstand, das wiederum Molekül A begünstigte. In einem solchen, von störenden Umwelteinflüssen weitgehend abgeschirmten, rückgekoppelten Reaktionswerk hätten sich auch kleinere Moleküle zu größeren verbinden können, die zudem ihre Synthese wechselseitig katalysierten. Die Chemie lehrt, dass sich nur selten mehrere Moleküle zu größeren verbinden (schematisch formuliert: A+B+C+D erzeugt ABCD). Dagegen kommt es häufig zu Reaktionssequenzen aus mehreren Schritten. Aus A+B wird AB, das mit C zu ABC reagiert, was mit D dann ABCD ergibt. Dabei sind für jeden Einzelschritt in der Regel unterschiedliche Bedingungen erforderlich, beispielsweise hinsichtlich Temperatur, pH-Wert, Katalysatoren und Stoffkonzentrationen. (Eine solche Diversität haben z. B. Vulkaninseln zu bieten, wo sich Reaktionsprodukte z. B. in Felsnischen, Tümpeln oder kleinen Buchten ansammeln können.)

Modifikationen könnten einen ursprünglich einfachen Zyklus ausweiten. Es könnten sich aus den Molekülen A, B und C zunächst AB gebildet haben, unterstützt von C. AB katalysierte dann vielleicht die Bildung von AC aus A und C sowie von ACC aus AC und C. A half zwei Molekülen B bei der Reaktion zu BB, das die Reaktion von A und AC zu ACC katalysierte, was wiederum die Reaktion von B und C zu BC ermöglicht hätte usw. Ein solches Netzwerk wäre als Ganzes autokatalytisch, d. h. es würde sich durch die eigenen Reaktionsprodukte auch erhalten. So konnten aus chaotischen Zuständen geordnetere hervorgehen – eine Art Phasenübergang, wie die Physiker sagen.

Solche zufallsgesteuerten chemischen Vorgänge könnten schließlich vielleicht zur Synthese von Substanzen, z. B. Peptiden (Vorstufe von Proteinen), geführt haben, die Schlüsselreaktionen des Zyklus beschleunigten und so für eine effizientere Nutzung der Energie sorgten. Über Reaktionen, an denen Substanzen außerhalb des Zyklus beteiligt waren, nahm das System weiteres Material auf. Ein solcher Reaktionskreislauf konnte sich an bestimmte Umweltbedingungen anpassen – etwa unterschiedlich warmen Bereichen. So konnte z. B. eine Veränderung eines Umweltfaktors einen Schritt in der Reaktionskette von B zurück zu A blockieren. Dann häufte sich das betreffende Zwischenprodukt an, bis sich ein alternativer Reaktionspfad eröffnete. Vielleicht kam es zu Umleitungen – z. B. über die Zwischenprodukte F, G und H. Dabei könnte zufällig ein Katalysator (I) entstanden sein, der auf die Umsetzung von C zu D zurückwirkte und sie erleichterte – usw.

Mit der Zeit wurden die räumlich teilweise abgekapselten chemischen Prozesse, bei denen rückgekoppelte und dabei selbstverstärkende Vorgänge eine entscheidende Rolle spielten, immer komplexer. Aus einer einfachen Reaktionskammer wurde nun eine Protozelle (Vorläufer einer Zelle), in der jetzt geordnete biochemische Prozesse abliefen. Wahrscheinlich bildeten sich auf der frühen Erde viele derartige Reaktionsnetzwerke, die unterschiedliche Antriebsreaktionen und Energiequellen nutzten. Es kam zu weiteren Anpassungs- und Selektionsprozessen. Jeder neue Reaktionsschritt in einem Netzwerk konnte einen Vorteil bringen, und jedes neue Molekül konnte die Konkurrenzfähigkeit gegenüber anderen Reaktionsnetzwerken erhöhen.

Die aus diesem Ansatz abgeleiteten Hypothesen zur Entstehung des Lebens, die schon seit Jahrzehnten existieren, unterscheiden sich zwar in gewissen Details, haben jedoch mindestens fünf Grundvoraussetzungen gemeinsam: Dazu gehören eine Membranhülle oder andere Grenzschicht (1), eine (externe) Energiequelle, die den Organisationsprozess in Gang hält (2) und eine weitere chemische Umwandlung antreibt (3), und vor allem ein Netzwerk von Folgereaktionen mit zunehmender Komplexität (4), die Anpassung und Evolution ermöglicht – der Kernpunkt dieser Hypothesen. Hinzu käme noch eine Vermehrung durch Teilung der wachsenden Kapseln (5), wenn sich das Reaktionsnetzwerk mehr Material einverleibt als es verliert. Die Erbinformation wäre hierbei in der Identität und Konzentration der Substanzen des Netzwerks selbst enthalten.

Bei diesen Ansätzen fehlen also noch alle Mechanismen für eine Reproduktion im herkömmlichen Sinn: Moleküle oder Strukturen, welche die im System vorhandene Information speichern und nach Vervielfältigung an die Nachkommen weitergeben konnten. Einige Wissenschaftler berufen sich in diesem Zusammenhang auf Selbstorganisationsprozesse. (Für denkbar wird auch gehalten, dass ein buchstäblich vom Himmel gefallenes Molekül eine einfache Schlüsselreaktion für das frühe Leben angestoßen und beschleunigt hat.) Dennoch erscheint dieses Szenarium wesentlich wahrscheinlicher als das spontane Auftreten von hochkomplexen vielstufigen Reaktionsketten, die zur Bildung eines Replikators führen.

Die Modelle des „Stoffwechsel-zuerst“ werden durch verschiedene erfolgreich verlaufende Versuche gestützt. Ob dabei allerdings zwangsläufig Leben entsteht, bleibt fraglich. Bisher gelang es den Forschern weder, einen kompletten Reaktionszyklus in Gang zu bringen (bisher nur Teile davon), noch zu zeigen, dass er sich selbst erhalten und in einem Evolutionsprozess weiterentwickeln kann. Bis zu einem erfolgreichen derartigen Versuch bleiben alle Szenarien zum niedermolekularen Ursprung des Lebens hypothetisch.

[Russell-Martin- Hypothese:

Eine interessante Theorie ist die sog. Russel-Martin-Hypothese, die davon ausgeht, dass der Stoffwechsel noch vor einer Zellmembran entstand. Das schließen die Forscher aus den Gemeinsamkeiten aller einfachen Mikroben ohne Zellkern. Diese Theorie, die der Geologe Michael Russell bereits seit Anfang der 1990er Jahre vertritt, bietet eine Erklärung dafür, dass sich einst die genau richtige Kombination aller Bestandteile für eine Zelle von allein zusammengeschlossen hat. Sie kann als einzige den gesamten Schöpfungsprozess erklären – von der Energiequelle der ersten Biosynthese über die verwendeten Stoffwechselpfade bis hin zu den Eigenheiten des letzten gemeinsamen Vorfahren aller Lebewesen. Eine wachsende Gruppe von Forschern hat inzwischen Belege für diese Theorie zusammengetragen.

Nach dieser Theorie war der letzte gemeinsame Vorfahre (LUCA) noch in den Kammern (Eisensulfidbläschen) einer heißen Quelle gefangen. Deren Wände seien ideal gewesen, um zufällige Reaktionsprodukte zu konzentrieren. Das Wasser war hier mit Rohmaterialien zum Aufbau komplexer organischer Moleküle angereichert: anorganischen Stoffen wie Ammoniak, Wasserstoff, Methan, Schwefelwasserstoff, Phosphorverbindungen und anderen reaktionsfreudigen Substanzen. Die physikalischen und chemischen Gegensätze lieferten jede Menge Zündstoff, um die Chemie des Lebens anzufachen.

Sobald der Bioreaktor im Innern der Eisensulfidbläschen erst einmal in Gang gekommen war, produzierte er eine kaum überschaubare Vielfalt von Substanzen. Aktivierungsenergie für diese Reaktionen könnten die allgegenwärtigen Metallverbindungen aus Eisen, Nickel und Schwefel in den Wänden der Kammern geliefert haben. Russell und Martin kommen zu dem Schluss: Wenn man den Hauptaugenmerk auf Energie und Thermodynamik, also auf den Antrieb und die Geschwindigkeit bestimmter chemischer Reaktionen, legt, war die Entstehung organischer Substanzen und einfacher biochemischer Kreisläufe unter den Bedingungen, wie sie im Urozean an solchen heißen Quellen herrschten, geradezu programmiert.

Die einfachen organischen Grundstoffe verbanden sich zu Zuckern und Aminosäuren. Im nächsten Schritt müssen dann größere Moleküleinheiten und Molekülketten entstanden sein (Polymerisation). Allmählich hätte ein Proteinfilm die Membranfunktion übernommen. Vielleicht stellten einige der Protozellen auch aus Kohlen- und Wasserstoff Fette und fettähnliche Stoffe her, aus denen sie eine Art Haut aufbauten. So waren die Blasen mit selbstreplizierenden Molekülen nicht mehr an ihre Brutstätten an den hydrothermalen Quellen gebunden und konnten schließlich als kleine Kugeln im Wasser umher schweben. Es musste schließlich ein Protobiont entstehen, der die zueinander passenden Enzyme und Nukleinsäuren in seinem Innern hatte.]

FAZIT

Leben war kein Zufall, sondern auf jeden Fall zwangsläufige Folge chemischer und physikalischer Gesetzmäßigkeiten. Eine Abfolge chemischer Umwandlungen verlieh einer Gruppe organischer Moleküle sukzessive immer komplexere Strukturen. Es bedurfte also nicht des unwahrscheinlichen und rein zufälligen Zusammentreffens von chemischen und geologischen Ereignissen, sondern nur einfacher chemischer Reaktionen mit bequem verfügbaren Materialien – Reaktionen, wie sie übrigens heute noch ablaufen. Allerdings mussten wahrscheinlich unzählige Reaktionen ablaufen, um die erste primitive Version einer Zelle zu erschaffen.

Der kritische Schritt der Lebensentstehung, nämlich der tatsächliche Ursprung selbst reproduzierender Systeme, ist aber bis heute immer noch reine Theorie. Zur Erklärung des Übergangs von Chemie zu Biologie konkurrieren zwei grundverschiedene Ansätze: Entweder setzte der Beginn des Lebens jäh ein, als die chemische Komplexität eine gewisse Schwelle überstiegen hatte – eine Transformation, vergleichbar einem Phasenübergang. Oder es gab einen gleichmäßigen und gemächlichen Entstehungsprozess – so kontinuierlich, dass kein spezieller Moment als Startpunkt des Lebens herausragte.

Einer neue Studie (von Wissenschaftlern um Jessica Wimmer / Heinrich-Heine-Universität Düsseldorf) nach hat sich der Stoffwechsel spontan entfaltet, als die richtigen Bedingungen (Temperatur 80-100°C; pH-Wert zwischen 7 und 10) und Ausgangsstoffe (Wasserstoff, Kohlendioxid, Ammoniak, Schwefelwasserstoff und Phosphate) vorlagen. Dies konnte an hydrothermalen Quellen oder auch in wassergefüllten Spalten der Erdkruste geschehen sein. Angetrieben wurde der Stoffwechsel letztlich durch den Wasserstoff, der unbedingt nötig ist, um den Kohlenstoff aus dem CO2 in den Stoffwechsel einzuschleusen.

Heute wird ausnahmslos von allen aktuell diskutierten Modellen postuliert, dass die Übergänge fließend waren. Sie werden durch die neuesten molekularbiologischen Erkenntnisse kaum schmaler, sondern eher breiter. Im Grunde klafft eine Riesenlücke zwischen den experimentellen Befunden zur abiogenen Bildung organischer Moleküle und dem einfachsten Modell eines ersten Lebewesens. Das liegt zum einen daran, dass die ersten Zellen gleich nach ihrem Auftauchen so gut wie alle Spuren der früheren Stadien dieser chemischen Evolution rasch vertilgt haben. Gefräßig, wie sie waren, nutzten sie jenes „Protoleben“ als reiche Nahrungsressource und rotteten es dabei aus. Sollten trotzdem Mikrofossilien aus dieser Zeit übrig geblieben sein, wären sie größtenteils durch die permanenten Bewegungen der tektonischen Platten, die während der letzten vier Milliarden Jahre die Erdkruste immer wieder durchgewalkt haben, zerstört worden. Das macht es so schwierig, noch eventuelle beweiskräftige Lebensspuren auf der Erde zu entdecken. Und so bleiben die Anfänge der Lebensentstehung auch weiterhin im Dunkel.

Nachweise ersten Lebens

Untersuchungsergebnisse deuten darauf hin, dass sich die heftigsten Asteroideneinschläge auf unserem Planeten auf einen Zeitraum von 4,48 bis 4,45 Milliarden Jahren vor heute beschränkten und dann langsam nachließen. Sollte sich dies bestätigen, wäre die Erde bereits in weiten Teilen ihrer frühen Entwicklung ein lebensfreundlicher Ort mit gemäßigten Temperaturen und flüssigem Wasser gewesen, und das Leben auf der Erde hätte sich schon rund eine halbe Milliarde Jahre früher als bisher angenommen entwickeln können. Zirkonkristalle aus dem bislang ältesten untersuchten Gestein weisen darauf hin, dass die Erdkruste bereits vor 4,4 Milliarden Jahren hinreichend abgekühlt war und eine feste Schale bildete – und weniger als 100 Millionen Jahre später der erste Ozean entstand. Einige der Kristalle deuten tatsächlich auf Leben in dieser Frühphase der Erde hin. „Es gibt keinen Grund, dass Leben nicht bereits vor 4,3 Milliarden Jahren entstanden sein könnte“, meint der amerikanische Geochemiker Jack Valley. Die Ergebnisse sind aber heftig umstritten.

2017 haben Wissenschaftler im Norden Labradors 3,77 bis 4,28 Milliarden Jahre alte Gesteine ausgegraben, in denen sich womöglich Reste der ersten Organismen befinden. Allerdings sind die Mikrofossilien und die damit verbundenen chemischen Indizien auch hier noch umstritten. In 3,9 Milliarden Jahre alten Gesteinproben aus der Isua-Formation (Westgrönland) und 3,85 Milliarden Jahre alten Sedimentgesteinen auf der südwestgrönländischen Akilia-Insel weisen Kohlenstoff-Isotope ein Verhältnis auf, das sich ebenfalls nur durch Vorhandensein lebendiger Organismen erklären lässt. Doch noch gibt es Zweifel, ob damit wirklich schon der Beweis für Leben erbracht wurde.

Erst 3,5 Milliarden Jahre altes Gestein aus der Gegend Pilbara, einer Region Nordwestaustraliens, enthält sichere Nachweise für Leben. Es ist gespickt mit versteinerten Zeugen frühen Lebens, das eng mit heißen Quellen verbunden war. Das deutet auf eine komplexe Gemeinschaft primitiver Einzeller hin, die sich schon über eine längere Vorlaufzeit entwickelt haben musste.

REM

Entstehung des Lebens (1)

Die Bausteine des Lebens

Die Basis des Lebens ist Chemie. Dabei spielt das Element Kohlenstoff (C) eine Schlüsselrolle. Ohne Kohlenstoff, das nach Wasserstoff, Helium und Sauerstoff häufigste Element im Universum, gibt es kein Leben auf der Erde. Erst seine Eigenart, lange Kettenmoleküle bilden zu können, machte die Verwandlung von Chemie in Biologie möglich. Wenn zum Kohlenstoff neben dem allgegenwärtigen Wasserstoff noch Stickstoff und Sauerstoff, die wie Kohlenstoff zu den häufigsten Produkten der Kernverschmelzung in Sternen zählen, zur Verfügung stehen, beruht jede komplexe Chemie im Universum in erster Linie auf diesen vier Elementen.

Wie aus chemischer Materie das Leben entstand und was erst den Anstoß zur Entwicklung des Lebens gab, wissen wir noch nicht genau. Sicher ist aber, dass vor dem Auftreten der ersten Zellen eine chemische Evolution stattgefunden haben muss, obwohl auch dafür noch ein direkter Beweis fehlt. Aber allein schon die Tatsache, dass die Bausteine des Lebens relativ leicht entstehen können, ist ein starker Hinweis darauf. Es war sehr wahrscheinlich ein gradueller und langwieriger, extrem komplexer chemischer Prozess, der zur Entstehung des Lebens führte. Eine ganze Reihe von Hypothesen und Modellen, die zum Teil erheblich voneinander abweichen, versuchen diesen Prozess zu erklären.

Entstehung organischer Moleküle im All

Die ersten massereichen Sterne im Universum, die nur aus Wasserstoff und Helium bestanden, fegten am Ende ihres kurzen kosmischen Lebens in gewaltigen Explosionen viele schwerere Elemente in das umgebende Gas, vor allem auch die für Leben wichtigen Kohlenstoff(C)-, Stickstoff(N)- und Sauerstoff(O)-Atome. Im Laufe der Zeit reicherten immer neue Sterne bei ihrem Tod das Universum mit immer mehr der schweren Atome an, so dass sie heute einen Anteil von 2% aller Atome ausmachen. Sie neigen dazu, Verbindungen einzugehen und feinen Staub zu bilden.

Bereits nach wenigen hundert Millionen Jahren gab es im interstellaren Gas ähnliche Anreicherungen von Kohlenmonoxid (CO) und Staub, wie wir sie heute noch, 13 Milliarden Jahre später, im interstellaren Gas der Milchstraße und benachbarter Galaxien vorfinden. Viele einfache Moleküle und sehr kleine Staubteilchen (Kohlenstoffkörner) lagerten sich in die Mäntel von interstellaren Eiskristallen (hauptsächlich aus gefrorenem Wasser und Kohlenmonoxid) ein.

Wir wissen, dass interstellare Wolken als chemische Fabriken arbeiten, obwohl sie zu den kältesten Orten im Universum – typische Temperaturwerte im Inneren der Wolken liegen bei -220°C bis zu 5 bis 15° über dem absoluten Nullpunkt von -273,15°C – gehören und um viele Größenordnungen weniger dicht sind als z. B. die Erdatmosphäre. Bei diesen Bedingungen ist eine ungewöhnliche Art von gefrorenem Wasser allgegenwärtig, das ganz andere Eigenschaften hat als das uns bekannte Wassereis. Es verwandelt sich nämlich etwa zwischen -137°C und -148°C und hohem Druck in eine viskose Flüssigkeit. Noch bei einer Temperatur knapp über dem absoluten Nullpunkt kann es fließen, wenn es mit ultraviolettem Licht bestrahlt wird, das überall im Universum vorkommt.

Die intensive Weltraumstrahlung bricht einfache Moleküle zunächst in hochfrequente Fragmente, so genannte Radikale auseinander, die zwischen den unregelmäßig zusammengezwängten Wassermolekülen im interstellaren Eis umherwandern können. Minimale Änderungen in der Struktur des Eises ergeben dann den Anstoß für den Zusammenschluss der Radikale zu organischen Verbindungen (wobei möglicherweise auch Quantentunneleffekte beteiligt sind).

Normalerweise würden neu entstandene Moleküle, z. B. Silikate (Siliziumverbindungen) oder Oxide (Sauerstoffverbindungen), gleich nach ihrer Bildung von der zerstörerischen Strahlung des Weltraums wieder gespalten. Im frostigen Mantel von gefrorenen Gasen eingeschlossen, bleiben sie aber vor der Zerstörung bewahrt und können durch wiederholtes Aufbrechen und Neuknüpfen von Bindungen immer komplexere Strukturen schaffen. Das Eis speichert diese Substanzen auch dann noch, wenn es erwärmt wird. Während der typischen Lebenszeit eines Eisteilchens von fünf Milliarden Jahren wird der Zyklus mit Aufbau und Abbau von Molekülen ungefähr 50mal durchlaufen – bis das Teilchen entweder bei der Bildung eines neuen Sterns vernichtet oder aber Bestandteil eines Himmelskörpers, z. B. eines Kometen, wird.

Eis- und Staubteilchen spielten also vermutlich bei den molekularen Entstehungsprozessen eine wichtige Rolle. Überall im Weltraum, wo es Eiskörnchen gibt, finden sich komplexere Verbindungen, von denen die meisten Kohlenstoff enthalten. Das erste interstellare Molekül, das 1937 im Universum nachgewiesen wurde, war CH, ein an ein Wasserstoff-Atom gebundenes Kohlenstoffatom. Dieses sog. Methin-Radikal kommt auf der Erde als Bestandteil von Kohlenwasserstoffen nur fest eingebaut vor. Schon in den vierziger Jahren wurden in einigen interstellaren Wolken unserer Milchstraße auch Zyan (CN) und das Hydroxyl-Radikal OH entdeckt. Da sie in der Regel nicht eigenständig existieren, müssen sie Reste auseinander gebrochener Molekülverbindungen sein, z. B. von Cyanwasserstoff (Blausäure, HCN) oder Wasser (H2O), die durch energiereiche Strahlung gespalten wurden.

Mittlerweile hat man im interstellaren Medium und in der Umgebung von Sternen unserer Milchstraße viele Milliarden Tonnen organischen Materials aufgespürt. Über 180 unterschiedliche interstellare Moleküle wurden bereits identifiziert, darunter viele Verbindungen, die sich im Labor als mögliche Reaktionspartner bei der Synthese präbiotischer Moleküle erwiesen haben, darunter Ammoniak (NH3), Methan (CH4), Formaldehyd (H2CO), Ethin (Acetylen; H2C2) und Essigsäure (C2H4O2).

Überall im Weltraum spüren Astronomen auch alle möglichen relativ komplexen Moleküle auf, wie z. B. Vinylalkohol (C2H4O), ein Vorläufer von Lebensbausteinen, aber auch die einfachste Aminosäure Glycin (NH4C2O2), die aus Formaldehyd, Ammoniak und Zyanwasserstoff entstehen kann. Es gibt Hinweise auf gesättigte Nitrile, die mit Wasser zu Fettsäuren reagieren. Auch Gycoaldehyd (CO-CH2-CHO), ein einfacher Zucker, der zur Entstehung der Nukleinsäure RNA (Ribonukleinsäure) nötig ist, und auch Phosphor, ein weiteres Schlüsselelement in Lebewesen, ließen sich nachweisen.

Meteoriten und Kometen

In protoplanetaren Scheiben, Orten potenzieller Planetenentstehung, kommen organische Stoffe, darunter die Vorläufer komplexer organischer Chemie, in großer Menge vor. Also ist es nicht verwunderlich, dass wir diese auch in den Atmosphären und Oberflächen von Planeten und Monden unseres Sonnensystems sowie auf unzähligen kleinen Himmelskörpern finden. Kometen, Asteroiden und Sternenstaub bestehen im Durchschnitt zu 10%, einige sogar bis zur Hälfte, aus organischen Kohlenstoffverbindungen, die insgesamt einen vollständigen Satz von Vorläufern aller wichtigen Biomoleküle bilden. Noch komplizierter aufgebaute organische Stoffe ließen sich in bestimmten Steinmeteoriten, den Kohligen Chondriten (wahrscheinlich Bruchstücke von Objekten des Asteroidengürtels), nachweisen, darunter auch Aminosäuren, aber auch Phosphate und Nukleobasen, alles Bestandteile von für das Leben wichtigen Makromolekülen.

Tausende dieser Lebensbausteine fallen heute durch Meteoriten und interplanetaren Staub auf die Erde. In der Frühgeschichte unseres Sonnensystems gab es wahrscheinlich mehr von diesem Niederschlag, der außer Wassereis und gefrorenen Gasen ausreichende Mengen der wichtigen Ausgangsstoffe zur Lebensentstehung lieferte, so dass nur noch ein energiereicher Anstoß für den Beginn der entscheidenden lebensspendenden Reaktionen genügte. Bei der großen Zahl der zur Erde gefallenen Teilchen geschah dies wohl zwangsläufig.

Die Frage steht aber im Raum, inwieweit komplexere organische Verbindungen die Hitze und den Druck beim Eintritt in die Atmosphäre und beim Einschlag auf der Erdoberfläche überhaupt überstehen konnten. Kometen beispielsweise zerplatzen und verglühen großenteils, wenn sie mit Überschallgeschwindigkeit in die Atmosphäre eintreten. Dafür, dass sich die organischen Substanzen dabei und in der Hitze des Aufpralls auf der Erde nicht zersetzen, könnte die Flockigkeit der Kometenkörper die Schlüsselrolle gespielt haben, zusammen mit einer Erdatmosphäre, die damals etwa um das Zwanzigfache dichter war als unsere heutige Lufthülle aus Stickstoff und Sauerstoff. Traf nun ein flockiger Kometenkern diese dichte Gashülle, konnte er während seines kurzen Fluges einen gewissen Anteil seiner äußeren Schichten abreiben, bevor der Großteil des Kometenkerns abgebremst den Erdboden traf. Möglicherweise erreichten damals auch kleinere Kometen die Erdoberfläche fast unbeschädigt.

Dass es in der Frühphase der Erde bereits ein breites Spektrum an organischen Molekülen auf dem Planeten gab, lässt sich noch heute belegen. Es ist freilich noch nicht bewiesen, dass die präbiotische und biologische Evolution auf der Erde tatsächlich durch organisches Material aus dem Sonnennebel in Gang gesetzt wurde.

Entstehung organischer Moleküle auf der Erde

Experimente zeigen, dass sich die chemischen Grundsubstanzen des Lebens auf der Erde unter verschiedenen Bedingungen bilden konnten. Dazu musste nur hinreichend konzentriert Energie zugeführt werden, sei es durch elektrische Entladungen, ultraviolette und kosmische Strahlung oder Wärme aus dem Erdinnern (Vulkanismus, heiße Quellen, radioaktive Strahlung). Mit ihrer Hilfe dürfte eine Abfolge chemischer Umwandlungen die einfachsten Bestandteile von Luft, Wasser und Erde zu Ansammlungen einfacher kohlenstoffhaltiger Moleküle umgeformt haben.

Die Ursuppen-Theorien (basierend auf dem berühmten Miller-Urey-Experiment) erklären, dass sich organische Moleküle durch elektrische Entladungen in der Atmosphäre bildeten und auf der Erde zu einer „Ursuppe“ anreicherten. Allerdings scheint dies nach neuesten Erkenntnissen nur schwer realisierbar gewesen zu sein, da die dazu notwendigen Gase in der Uratmosphäre nicht in ausreichendem Maße vorhanden waren.

Die frühe Erdatmosphäre bestand, wie wir heute wissen, hauptsächlich aus Kohlendioxid, Wasser und Stickstoff. Gase wie Methan, Wasserstoff und Ammoniak tauchten nicht oder nur in geringen Mengen auf. Wiederholt man Millers Versuche mit den Konzentrationen, die Geologen jetzt für wahrscheinlich halten, so ist die Ausbeute an organischen Stoffen nur sehr gering. Die Erdatmosphäre war also nie in dem Maße reduzierend, wie Urey und Miller angenommen hatten. Von Anfang an müssen auch Sauerstoffanteile (erzeugt durch Fotodissoziation von Wasser) in ihr vorgekommen sein.

Meteoritenkrater sollen dagegen im wahrsten Sinne des Wortes heiße Kandidaten für jene Orte gewesen sein, an denen die ersten komplexeren chemischen Abläufe möglich waren. Der Boden solcher Impaktstrukturen bestand aus heißem, zertrümmertem Gestein, in denen sich Hydrothermalsysteme bildeten, die Energie zum Zusammenbau der präbiotischen Moleküle lieferten.

Vulkaninseln auf der frühen Erde waren extremen Einflüssen wie Säuredämpfen und wechselnden Trocken- und Nassphasen, erzeugt durch Ebbe und Flut oder Lavaströme, ausgesetzt. Auch das waren geeignete chemische und energetische Randbedingungen für die Bildung komplexer Moleküle und Reaktionsnetzwerken. Die Vulkangase enthielten Kohlenmonoxid und -dioxid, Schwefeldioxid und sogar molekularen Wasserstoff, der für universelle Vorgänge zur Energiegewinnung eine herausragende Rolle spielt.* Es gab Temperaturgradienten sowie elektrische Entladungen, was sehr vorteilhaft für eine präbiotische chemische Evolution war.

*[Der Wasserstoff ist gleichsam der Kraftstoff, der die anderen Vorläufermoleküle in Verbindungen mit höherem Energiegehalt und Ordnungsgrad verwandelt. Wasserstoffelektronen reduzieren beispielsweise den Kohlenstoff im CO2-Molekül und treiben so die Synthese komplexer organischer Moleküle an. Dabei entstehen einfache Verbindungen, u. a. Methan, Essigsäure und Ameisensäure (CH2O2). Die bei diesen Reaktionen frei werdende Energie ermöglichte den Zusammenbau weiterer Verbindungen.]

Auch Geothermalfelder mit ihren heißen Quellen und Geysiren gelten neuerdings als mögliche Brutstätten des Lebens. Vielleicht haben sich dort in den Hydrothermalbecken Moleküle aus dem All und organische Verbindungen aus der Vulkanlandschaft angehäuft. Die heißen Schlote lieferten zudem selbst ein organisches Gebräu mit weiteren Grundstoffen für die Biosynthese. Die Quellen unterschieden sich alle leicht hinsichtlich pH-Wert, Temperatur, gelöster Ionen und anderer Parameter, waren chemisch also äußerst komplex. Die mehrmals täglichen Nass-Trocken-Wechsel, die unterschiedliche Zusammensetzung der Quellen, reaktive Grenzflächen, der Austausch von Molekülen, wenn Geysire Wasser ausspeien und wieder ansaugen, sowie ein unterirdisches Netzwerk fluidhaltiger Spalten und Risse schufen problemlos die Voraussetzungen für eine chemische Entwicklung.

Entstehung von organischen Molekülen in der Erdkruste

Die chaotischen, dauernd wechselnden Bedingungen unter einer dunstigen, smogvernebelten Atmosphäre in der Frühzeit der Erde, dazu heftige Gewitter und Meteoriteneinschläge, das damals viel intensivere UV-Licht und kosmische Strahlung, bedeuteten für empfindliche kohlenstoffhaltige Moleküle ohne ausreichenden Schutz ein hohes Risiko. Möglicherweise haben diese sich in den vielen kleinen Behältern in bestimmten Gesteine angesammelt. Der vulkanische graue Bimsstein etwa enthält unzählige Hohlräume, die durch Expansion von Gasen im noch zähflüssigen Gestein entstanden sind.

Doch andere Forscher sehen wegen den Schwierigkeiten an der Erdoberfläche die ersten evolutiven Schritte zur Lebensentstehung eher im Innern der Erdkruste, nämlich in feuchtwarmen Poren des Gesteins, wo die Bedingungen wahrscheinlich günstiger waren.

Schon vor Jahrmilliarden durchzogen viele Bruchzonen, die aufgrund von tektonischen Prozessen entstanden waren, die komplette Erdkruste bis zum Erdmantel. In ihnen zirkulierten Fluide (Flüssigkeiten und Gase) mit einer Menge gelöster Stoffe. In der Tiefe, bei hohen Drücken und Temperaturen, bestanden die Fluide höchstwahrscheinlich, ebenso wie heute, aus einer Mischung von überkritischem Wasser und überkritischer Gase. Im überkritischen Zustand lassen sich die flüssige und die gasförmige Phase eines Stoffes nicht mehr voneinander unterscheiden, weil sich ihre Dichten einander angleichen und die Verdampfungswärme gegen Null geht. Es handelt sich dann also um eine Flüssigkeit mit den Eigenschaften eines Gases bzw. um ein Gas, das sich wie eine Flüssigkeit verhält. Überkritisches Wasser ist noch bei weit über 100°C flüssig und kann somit sehr viele gelöste Gase und Minerale enthalten, überkritische Gase sind in der Lage, wie Flüssigkeiten wasserunlösliche Verbindungen aufzunehmen und zu transportieren.

Bis auf mehrere Kilometer haben wir in den Störzonen der Erde eine Abfolge von unterschiedlichen Druck- und Temperaturverhältnissen, und auch der pH-Wert ändert sich je nach Tiefe. Steigen die Fluide mit Molekülen, die sich unter hohen Drücken und Temperaturen gebildet haben, entlang der verzweigten Spalten der Bruchzonen nach oben, können sie sich unter Vorsprüngen und in zahllosen Kammern mit einer Größe zwischen wenigen Mikrometern bis in den Meterbereich ansammeln. Hier sind chemische Reaktionen möglich, die im Wasser allein und an der Erdoberfläche nicht stattfinden konnten. Wiederkehrende Druckschwankungen, etwa infolge oberirdischer Ausbrüche von Geysiren, könnten dafür gesorgt haben, dass CO2-Tröpfchen immer wieder unterkritisch wurden und in die Gasphase übergingen. Das entstandene CO2-Gas kann die aufgesammelten organischen Bestandteile nicht mehr gelöst halten. Die Substanzen fielen also aus und konzentrierten sich in der verbliebenen wässrigen Lösung und an den Grenzflächen von Wasser zu Gas. Hier konnten sich Moleküle auch zu komplexen Verbindungen zusammentun.

Experimente belegen, dass unter den geschilderten Bedingungen spontan sogar Lipidvesikel, Vorläufer der späteren Zellmembranen, entstehen, in denen sich organische Moleküle anreichern konnten. Aminosäuren verknüpfen sich in einer solchen Umgebung „von selbst“ zu Peptiden (kurzen Eiweißsträngen). Zudem wurde beobachtet, dass unter diesen hydrothermalen Bedingungen Bausteine von Nukleotiden – Nukleinbasen sowie die Zucker Ribose und Desoxyribose – entstehen können. Eine vollständige Nukleotidbildung konnte allerdings noch nicht nachgewiesen werden.

Die Ausdehnung der Bruchzonen, ihre langfristige Stabilität und die ständig ablaufenden Reaktionen in hydrothermaler Umgebung haben also wohl dafür gesorgt, dass in diesen Erdspalten sämtliche molekularen Ausgangsstoffe für eine präbiotische Evolution dauerhaft und im Überfluss zur Verfügung standen.

Entstehung organischer Moleküle an Schwarzen oder Weißen Rauchern

Auch der Meeresgrund war ein geschützter Ort, an dem der Prozess des Lebens entstehen konnte. Das Wasser wirkt hier als Schutz und als Filter zugleich gegen die energiereichen Strahlen der Sonne, die nicht mehr als 10 bis 20 Meter Tiefe erreichen. Auch hier waren in frühen Erdzeitaltern hydrothermale Quellen weit verbreitet. Noch heute schießt an den Schwarzen Rauchern (Black Smoker) mit Gasen angereichertes, heißes Wasser (350 bis 400°C) aus dem Erdinnern empor. Es enthält eine reiche Fracht an alkalischen Fluiden, die Wasserstoff, Sulfide und Ammoniak und alle möglichen metallischen Spurenelemente (z. B. Eisen, Nickel, Mangan, Kobalt und Zink) mitführen, eine hoch reaktive chemische Lösung. Beim Austritt ins kalte Meerwasser (im Durchschnitt 2 bis 4°C), das in der Frühzeit der offenbar noch saurer war als heute und reich an Kohlendioxid, trifft dann eine alkalische Lauge auf eine Säure, warmes auf kaltes Wasser, Wasserstoff auf Kohlendioxid. Durch diese physikalischen und chemischen Gegensätze ist reichlich Energie vorhanden, um Moleküle zu trennen und andere zusammenzubauen. So reagieren die Stoffe miteinander und verbinden sich neu z. B. zu Metall-Schwefelverbindungen (Metallsulfiden), die die typische rauchige Färbung der Smoker verursachen. Die entstandenen Partikel lagern sich um die Quellen herum ab und türmen sich zu meterhohen Schloten auf – Bergen aus Karbonaten, Kieselerde, Tonen und Eisensulfiden.

Vor allem das pH-Gefälle zwischen saurem Meerwasser und alkalischem Thermalwasser ließ sich energetisch nutzen. So könnten auch chemische Lebensbausteine entstanden sein, die allerdings normalerweise im Wasser rasch verdünnt und auseinander getrieben würden. Doch gibt es an den Schlotwänden Millionen winziger Poren, deren Eisensulfidhüllen als anorganische (mineralische) Membranen fungiert und so die beiden gegensätzlichen Milieus getrennt haben könnten.

Allerdings dürften auch die hohen Temperaturen von bis zu 400°C komplexere Moleküle sofort wieder zerstört haben. Daher bevorzugen die Forscher heute eher die Weißen Raucher als möglichen Ursprungsort für Lebensbausteine. Ihre weißen Kalksteintürme ragen an manchen Stellen des Meeresbodens wie Stalagmiten in einer Tropfsteinhöhle empor. Anders als die Black Smoker wird die Quelle hier nicht durch vulkanische Hitze angetrieben, sondern durch chemische Reaktionen im Mereresgrund. Daher haben ihre ebenfalls mineralreichen, stark alkalischen Lösungen, die aus ihr herausquellen (überwiegend Bariumsulfat/BaSO4 und Siliziumdioxid/SiO2) eine konstant niedrigere Temperatur um ca. 90°C (evt. bis maximal 350°C).

Die Theorie geht davon aus, dass sich in der Frühzeit der Erde, als die gewaltigen Meteoriteneinschläge aus dem All allmählich nachließen, sich in den Metallsulfidbläschen der Schlotwände stetig neue Moleküle ansammelten, in einer viel höheren Konzentration, als an irgendwelchen metergroßen Tümpeln an Land möglich war. Die Eisensulfidhüllen haben wohl als Katalysatoren (Reaktionsbeschleuniger) gewirkt, sich dabei aber selbst nicht verändert.* Gleichzeitig verhinderten sie, dass die entstandenen organischen Moleküle wieder ins Meer verschwanden. So sorgten sie für eine hohe Konzentration dieser Substanzen, die miteinander kollidierten und sich teilweise verbanden, zunächst zu kurzen Kohlenstoffketten und dann zu immer komplexeren Molekülen. Sobald der Bioreaktor im Innern der Eisensulfidbläschen erste einmal in Gang gekommen war, produzierte er eine kaum überschaubare Vielfalt von Substanzen, u. a. Zucker, Nukleinbasen und Aminosäuren.

*Einige Mikroben verwenden heute noch Eisen-Schwefel-Verbindungen als aktives Zentrum von Enzymen, mit denen sie Wasser spalten. Die ersten einfachen biochemischen Reaktionen verliefen also analog zu natürlichen geochemischen Prozessen – sie haben sozusagen „mineralische Wurzeln“.

Wenn man den Hauptaugenmerk auf Energie und Thermodynamik legt, also auf den Antrieb und die Geschwindigkeit bestimmter chemischer Reaktionen, kommt man zu dem Schluss: Unter den Bedingungen, wie sie im Urozean an diesen heißen Quellen herrschten, war die Entstehung organischer Substanzen und einfacher biochemischer Abläufe geradezu programmiert. Für diese Hypothese spricht auch, dass sie eine Erklärung dafür bietet, dass sich einst die genau richtige Kombination aller Bestandteile für eine Zelle von allein zusammengeschlossen hat.

Polymerisation

Wir haben also eine grobe Vorstellung der möglichen Abläufe, wie die Lebensbausteine wie z. B. Aminosäuren, Nukleinbasen, Zucker und lösliche Phosphate entstehen konnten. Aber erst als sich diese einfachen Ausgangsstoffe (Monomere) durch vielfach wiederholende, gleichschrittige Reaktionsfolgen zu so genannten Polymerketten und Molekülanordnungen verbanden, schufen sie die Voraussetzung für Leben. So mussten sich Aminosäuren zu Peptiden und weiter zu Proteinen (Eiweißen) verbinden, und Nukleobasen mit Zucker und Phosphat kombinieren, um Nukleinsäuren zu bilden.

In den Eisensulfidbläschen der Raucher war die Bildung von größeren Moleküleinheiten und längerer Molekülketten gut möglich. Hier vermochten sich wohl leicht mehrere Aminosäuren zu Peptiden zu verbinden, die sich wiederum zu langkettigen Proteinen zusammenschließen konnten. Allerdings haben Forscher diese Schritte im Experiment noch nicht nachvollzogen.

Im überkritischen Gas in den Bruchzonen der Erde konnten durch zyklische Druckänderungen auch immer wieder Peptide entstehen. Für die Bildung von Nukleinsäuren lagen in den Erdspalten die pH-Werte sogar im Optimum. Zugleich variierten die Temperaturen in einem Bereich, der das wiederholte Kopieren von Nukleinsäuresträngen ermöglichte. Zusätzlich standen Stoffe zur Verfügung, die diese Moleküle nachweislich stabilisierten, etwa Bor und Magnesium.

Zu einer raschen Polymerisation einfacher Moleküle konnten auch Nass-Trocken-Zyklen an Kleingewässern oder Gezeitenbecken beitragen. Allerdings musste das Kombinieren kleinerer Moleküle zu komplexen, ausgedehnten Strukturen an der Erdoberfläche unter den rauen Bedingungen der Früherde besonders schwierig gewesen sein. Selbst eine ideale Kombination chemischer Lebensbausteine würden in einem Ozean rasch verdünnt und auseinandergetrieben (Hydrolyse). Eine rein zufällige Reaktion organischer Moleküle in wässrigen Lösungen neigt außerdem dazu, unbrauchbare, teerartige Massen hervorzubringen.

Wissenschaftler haben aber beobachtet, dass sich im Süßwasser aus organischen Bestandteilen spontan winzige (Lipid-) Membranbläschen bilden. In diesen relativ stabilen Strukturen konnten, begünstigt durch engen Kontakt sowie Wärme und Energie aus heißen Quellen, einfache Moleküle zu langen Ketten polymerisieren. Diese komplexen organischen Verbindungen wären hier vor Zerfall sicher und in ihrer weiteren Entwicklung geschützt. Die Konzentration komplexerer Moleküle war schließlich so hoch, dass auch eine noch so große Menge Wasser den Polymerisationsprozess nicht mehr umzukehren vermochte.

Minerale

Die Oberflächen von Mineralen könnten eine interessante Alternative für den Zusammenbau wichtiger organischer Moleküle bieten. Hier ist die Wahrscheinlichkeit für die Bildung von komplexen Biomolekülen um ein Vielfaches höher als in einer homogenen Flüssigkeit. Minerale könnten als Behälter, Gerüste, Schablonen, Katalysatoren und Reaktionspartner fungiert haben. So entwickeln einige Minerale wie Zeolith (ein Vulkanmineral) und Feldspat (ein Silikatmineral) durch Verwittern mikroskopisch kleine Vertiefungen. In solchen Zwischenräumen, Poren und Kanälchen sehen Forscher ideale Umgebungen, in denen sich organische Moleküle sammeln und stabilisieren konnten – und wo sie zudem vor fotochemischer Zerstörung sicher waren.

Die flachen Oberflächen von Tonen sind oft elektrisch geladen. Dadurch können sie organische Moleküle anziehen und festhalten. Tone vermochten so das Gerüst zu bilden, auf dem sich Moleküle zusammenfügen und wachsen konnten. Auch an die glänzende Oberfläche von Pyrit (Eisenschwefelerz, FeS2)* heften sich Moleküle – selbst dann noch, wenn sie kochend heiß wird.

*Pyrit entsteht, wenn Eisensulfid (FeS) und Schwefelwasserstoff (H2S), die neben einer Fülle anderer Stoffe und gelöster Metalle im austretenden Wasser an hydrothermalen Quellen enthalten sind, miteinander reagieren, wobei Wasserstoff und Energie frei werden.

Hatten sich organische Moleküle erst einmal an ein mineralisches Gerüst geheftet, wurden sie im Laufe der Zeit immer stärker konzentriert, beispielsweise durch wiederholte Verdunstungszyklen. Damit wurde auch die Wahrscheinlichkeit von Polymerisations-reaktionen erheblich größer, als sie es in einer wässrigen Lösung gewesen wäre. Umgekehrt sank die Wahrscheinlichkeit einer Hydrolyse bereits gebildeter Polymere, da sie von gleichartigen Molekülen umgeben waren und das Wasser so aus der direkten Umgebung ferngehalten wurde.

Die mineralischen Teilchen wirken also nicht nur als passive Fallen. Die aus ihnen gebildeten großen, spezifischen Oberflächen scheinen auch für katalytische Zwecke prädestiniert zu sein. Aufgrund ihrer Vielfältigkeit, Komplexität und der Fähigkeit, sich durch Wachstum zu „vermehren“, waren Mineralkristalle demnach ideale Schrittmacher für eine organische Entwicklung. Da die kristalline Gitterstruktur der Minerale sowie ihre Ladungsverteilung ähnlich der Erbinformation (in lebenden Zellen) gespeichert sind und im Laufe des Kristallwachstums weitergegeben werden, könnten sie auch die Bildung erster Informationsträger begünstigt haben.

Die Konzentrations- und Steuerungswirkungen von Mineralen haben somit den Lauf der chemischen Evolution tief beeinflusst. Ohne sie wären entscheidende Reaktionen wohl nicht möglich gewesen. Irgendeine Form mineralischer Katalysatoren war an den grundlegenden chemischen Reaktionen, aus denen das Leben hervorging, aktiv beteiligt – das ist sicher. Aus dem organischen Film auf der Mineraloberfläche hat sich so Leben in einem autokatalytischen (sich selbst fördernden) Prozess entwickeln können. Bis heute hat man solche Abläufe allerdings noch nicht beobachtet. Es bleiben noch einige offene Fragen.

Fazit

Die frühen Stufen der chemischen Evolution sind insgesamt gut verstanden. Wo immer Leben auch genau begonnen hat, musste es zunächst fünf Stufen durchlaufen:

1. Die Synthese organischer Moleküle

2. Selektion, Anreicherung und Konzentration dieser Moleküle in einem wässrigen Milieu

3. Abgrenzung vom umgebenden Medium

4. Katalytisch verstärkte und gerichtete Reaktionen zwischen den Molekülen

5. Bildung von Molekülketten (Polymerisation)

Es steht heute fest, dass die „Moleküle des Lebens“ im Überfluss produziert wurden – überall im Weltraum und schließlich auch auf unserem Planeten – am Meeresgrund, in Bruchzonen der Erdkruste und auf Geothermalfeldern bzw. Vulkaninseln an der Erdoberfläche. Unter dieser Voraussetzung erfolgte der Weg zum Leben letztlich zwangsläufig in einer Abfolge unspektakulärer Vorgänge, von denen jeder ein wenig Ordnung und zusätzliche Komplexität in die Welt der präbiotischen Moleküle brachte. Es klafft aber noch eine gewaltige Lücke zwischen den größten Molekülen und den entscheidenden Lebensvorgängen wie Vererbung, Stoffwechsel und Selbstreplikation.

REM

Umbruch in Europa – die Schnurkeramiker

Das Aufkommen von Ackerbau und Viehzucht in der Geschichte der Menschheit führte zu neuen technischen Entwicklungen und Bevölkerungsverdichtung. Vor ca. 5000 Jahren Jahren entstanden so in manchen Gegenden der Erde, vor allem an den großen Flüssen in Mesopotamien, Ägypten, Indien und China, komplexe Formen menschlichen Zusammenlebens. Diese so genannten Frühen Hochkulturen waren gleichsam Inseln in einem Meer dörflich-bäuerlich geprägter, also neolithischer Lebensweise, die damals auch in Europa vorherrschend war.

Jamnaja-Kultur

In der ersten Hälfte des 5. Jahrtausends v. h. trat in Europa ein zweites großes Migrationsereignis – nach der Einwanderung der ersten Ackerbauern – ein, eine massive Ausbreitung von Menschengruppen von Ost nach West, schließlich bis zu den Britischen Inseln. Die Graslandschaften nördlich des Schwarzen und Kaspischen Meeres waren im Zuge eines großräumigen Klimawechsels von Osten her immer mehr ausgetrocknet. Hier lebte zwischen 5100 v. h. und 4500 v. h. das Hirtenvolk der Jamnaja-Kultur, mobile Viehzüchter, die auf ihren Pferden zumindest in der warmen Jahreszeit Rinder, Schafe und Ziegen über die Steppe trieben.

Die Pferde hatten sie vermutlich von den Botai übernommen, die sie nach Osten verdrängten. Die Domestikation der Pferde hatte unabhängig voneinander an mehreren Orten stattgefunden: Im Nahen Osten, im heutigen Ungarn, in der eurasischen Steppe. Vielleicht domestizierten die nomadischen Gruppen der Botai-Kultur vor 5500 Jahren die ersten Pferde – mehrfach und an verschiedenen Orten. Diese Nomaden lebten als Wildbeuter ausschließlich von der Jagd auf Wildpferde, ehe sie sie bändigten – vermutlich, um ihre Nahrungsquelle für Fleisch und Milch besser kontrollieren zu können. Erst später wurden Pferde als Arbeitstiere zum Transport von Lasten und zur Feldarbeit abgerichtet. Offenbar waren die Tiere schon angeschirrt und trugen Trensen, worauf Abnutzungsspuren an den Zähnen hindeuten. (Die Botai-Pferde sind die Vorfahren der Przewalski-Pferde, die die ersten Reittiere gewesen sein sollen.)

Die Jamnaja waren fast ständig auf Wanderschaft, von einer Sommerwiese zur nächsten. Die Winter verbrachten sie wohl an Fluss- und Seeufern: Es fanden sich Reste ihrer Siedlungen entlang der russischen und ukrainischen Ströme. Von diesen Halbnomaden kennt man heute vor allem viele tausend Grabhügel oder Hügelgräber, so genannte Kurgane. Während die Gräber bis 5500 v. h. zunächst noch sehr unterschiedlich waren, wurden sie nun total gleichartig. Daraus schließen die Archäologen auf einen gemeinsamen Kulturraum, und damit auch auf eine gemeinsame Vorstellungswelt.

Die Grablegen waren äußerst schlicht. In den älteren Hügelgräbern der Jamnaja-Menschen lag oft nur ein einzelner Bestatteter in einer eingetieften Grube (russisch Jama), mal in Rücken-, mal in Seitenlage, mit angezogenen Beinen, bestäubt mit gemahlenem roten Ocker. Als häufigste Grabbeigabe finden sich Tierknochen, seltener Keramikgefäße, knöcherne Perlen oder durchbohrte Tierzähne, Nadeln, Feuersteinabschläge und ganz selten auch kleine Dolche aus Kupfer oder Arsenkupfer. Ansonsten aber gab es keine Waffen oder Ähnliches als Grabbeilagen.

In etwa jedem hundertsten Grab in späterer Zeit wurden hölzerne Scheibenräder und Wagenteile, teils auch ganze hölzerne Wagen (200 Kilogramm schwer) gefunden – wohl ausgesprochene Statussymbole.

In der heutigen Ukraine waren in der dortigen baumlosen Landschaft die Bedingungen gegeben, welche die Nutzung des Wagens überhaupt erst sinnvoll erscheinen lassen. In den Ebenen dienten die Karren den Nomaden zunächst womöglich auch als mobile Wohnstätten. Wer einen von Ochsen gezogenen Wagen besaß, konnte Vorräte, Werkzeuge und anderen Hausrat auf eine Reise mitnehmen, was ihm auf die Dauer wirtschaftliches Wachstum bescherte und ihm damit auch gesteigertes Ansehen in der Gemeinschaft gebracht haben dürfte. Der Bau eines Wagens – vor allem der Räder – erforderte spezielles Know-how. Außerdem war Holz in der Steppe Mangelware.

Runde Scheiben mittels Achsen unter eine Ladefläche zu montieren und all das von Tieren ziehen zu lassen, lässt sich erst seit der Zeit um 5500 v. h. zeitgleich an mehreren weit voneinander entfernt liegenden Regionen Europas und Vorderasiens (Mesopotamien) nachweisen. Wahrscheinlich ist trotzdem ein äußerst rascher Wissenstransfer von einem einzigen Ursprungsort aus. Vermutlich ging die Neuerung auf bereits vorhandene Techniken zurück, die dann miteinander kombiniert und durch weitere Innovationen vollendet wurden. (Die ersten Wagen waren allerdings zunächst noch nicht zum Transport über längere Strecken geeignet.)

Die Jamnaja-Gefährte waren vierrädrige Planwagen, auf deren hölzernem Unterbau, zumindest häufig, ein vorne offenes, mützenartiges Zelt stand, wie Tonmodelle zeigen. Sie wurden von kräftigen Ochsen gezogen, noch nicht von Pferden. Ab 5000 v. h. wanderte ein Teil der Jamnaja-Halbnomaden aus den eurasischen Steppen nach Westen, zunächst entlang der Völkerstraße Donautal in Richtung Balkan. Ihre Hügelgräber tauchten im unteren Donautal auf. Man findet sie häufig in Bulgarien, aber auch in der Theiß-Ebene des heutigen Ungarn. Von dort breiteten sich die Gruppen weiter aus.

Die Schnurkeramiker

Es folgte einer der größten Umbrüche in der frühen europäischen Geschichte, dessen Spur sich bis in die Gegenwart zieht. Was damals genau passierte, ist immer noch ein Rätsel. Die Migranten vermischten sich wohl mit den jungsteinzeitlichen Bauern, die in Osteuropa ansässig waren. Aus den Einwanderern war in Europa um etwa 4800 v. h. die Kultur der Schnurkeramiker entstanden, benannt nach der typischen Verzierung ihrer Tongefäße (Keramikbehälter), nämlich charakteristischen Schnurmustern. Diese wurden dadurch erzeugt, dass mit einer Schnur Rillenmuster in den noch weichen Ton gedrückt wurden. Gleichzeitig mit dem Aufkommen dieser Muster verschwand die neolithische Keramik. Die Schurkeramiker waren zu rund 75% genetisch identisch mit den Jamnaja-Nomaden. Es handelte sich bei ihnen also um enge Verwandte, vielleicht waren die Schnurkeramiker eine nordöstliche Untergruppe der Jamnaja-Kultur.

Die Schnurkeramiker zogen mit Wagen, Pferden und großen Viehherden weiter nach Westen, bis nach Mittel- und Westeuropa. Um 4700 v. h. sickerten sie in Mitteldeutschland ein, um 4500 v. h. ließen sie sich auch an den Schweizer Seen in Pfahlbausiedlungen nieder. Von Zentralrussland im Osten bis Frankreich im Westen, von der Schweiz im Süden bis Skandinavien im Norden lebten jetzt Menschen, die ihre Keramik mit Schnurmotiven verzierten.

Nach den genetischen Daten hatten die einwandernden Gruppen etwa 80% der lokalen Bauern-Bevölkerung verdrängt – in Mitteleuropa um 70%, später auf den Britischen Inseln sogar über 90%. Vor allem traf ihre Ankunft die Männer und ihr Erbgut. Während die genetische Komponente der Neuankömmlinge (Schurkeramiker-DNA oder ANE / „Ancient North Eurasians“) in der Mitochondrien-DNA, welche die genetische Geschichte der weiblichen Linie einer Bevölkerung wiedergibt, weniger deutlich zu sehen ist, ist sie im männlichen Y-Chromosom sehr stark vorhanden. Ein großer Teil heutiger Mitteleuropäer trägt ein Y-Chromosom, das zum großen Teil von diesen Einwanderern stammt. Man geht daher davon aus, dass auf jede einwandernde Frau damals fünf bis vierzehn Männer kamen.

Expansionen von Nomadenvölkern werden häufig vor allem von Männern getragen. Sie holen sich die Frauen aus den Regionen, die sie durchwandern. Die in Europa eingedrungenen Halbnomaden waren sicherlich fähige Krieger; sie besaßen schon Streitäxte – und haben wohl auch einheimische Männer getötet. Ein Grab beim heutigen Koszyce (Polen), wo die Opfer eines Massakers – Mitglieder der Kugelamphoren-Kultur – bestattet waren, zeigt, dass es bei der Einwanderung nicht immer friedlich zuging. Aber es gibt nirgends in Europa Spuren, die auf größere kriegerische Konflikte oder systematische Tötungen hinweisen. Neueste genetische Studien zeigen sogar, dass zumindest regional Einheimische und Einwanderer fast 1000 Jahre nebeneinander lebten. Daher gilt es heute als sicher, dass die Neuankömmlinge trotz ihrer militärischen Überlegenheit nicht die männlichen Bewohner der eroberten Gebiete umgebracht haben. Für möglich halten manche z. B. eine dominante Fruchtbarkeit der Neuankömmlinge.

Die erste Pandemie der Geschichte

Der Schlüssel für den Bevölkerungsaustausch könnte aber auch das erste Auftreten des Pesterregers in Europa gewesen sein, der sich damals auf dem ganzen Kontinent ausgebreitet hat. (Und wenn tatsächlich die Pest die Bevölkerung dezimiert hat, dann waren Männer aus irgendeinem Grund möglicherweise stärker durch das Bakterium gefährdet. Solche unterschiedlichen Anfälligkeiten gab und gibt es immer wieder, siehe auch die höhere Gefährdung von Männern durch Covid-19.)

Das Bakterium tauchte nach molekulargenetischen Berechnungen erstmals vor rund 5500 Jahren vermutlich in Zentralasien auf. Das ursprüngliche natürliche Reservoir des Erregers waren höchstwahrscheinlich Nagetiere in den pontisch-kaspischen Steppen, wo die Menschen der Jamnaja-Kultur zu Hause waren. Im Verdacht als Zwischenwirt stehen die Pferde, auf denen die Steppenbewohner tagtäglich unterwegs waren.

Die todbringenden Pestbakterien spalteten sich einst vom harmlosen Bakterium Yersinia pseudotuberculosis ab und wurden vor rund 30 000 Jahren in Nagern heimisch – bis sie vermutlich irgendwo in den eurasischen Steppenlandschaften von den Tieren auf den Menschen übersprangen. Aber erst mit dem vermehrten Kontakt zwischen Menschengruppen und dem engeren Zusammenleben mit domestizierten Tieren, die ein Erreger-Potenzial gebildet haben könnten, verbreiteten sie sich.

(Der frühe Pesterreger war ein Lungenpesterreger und besaß noch nicht die Gene für die Beulenpest, war aber noch gefährlicher als diese. Während manche Infizierte mit leichten Erkältungssymptomen davonkamen und anschließend lebenslang immun gegen den Erreger waren, konnte das Bakterium über Fieber, Hustenanfälle, blutigen Auswurf und Lungenversagen anderen den Tod bringen. Erst im Laufe der Jahrtausende hat das Bakterium seine genetische Ausstattung verändert und verursachte ab 3800 v. h. die Beulenpest, die erstmals in der russischen Region Samara nachgewiesen wurde.)

Es könnte also sein, dass ein heftiger Pestausbruch in ihrer Heimat viele Jamnaja dazu brachte, aus ihrer Heimat, den Steppen nördlich des Schwarzen und Kaspischen Meeres, Richtung Westen (aber auch Richtung Osten) zu ziehen. Sie nahmen dabei nicht nur ihr Vieh mit, sondern auch den Pesterreger. Bei einigen Toten der Migranten wurde eine frühe Form des Pestbakteriums nachgewiesen. Da die Halbnomaden wohl seit jeher mit dem Pesterreger lebten, hatten sie aber möglicherweise eine höhere Immunität, als sie in kleinen mobilen Gruppen mit ihren Pferden und Wagen in Europa ankamen. Die einheimischen Bauern hatten den todbringenden Bakterien dagegen nichts entgegenzusetzen.

Es ist nachgewiesen, dass zu jener Zeit an der westlichen Schwarzmeerküste die Zivilisation zusammenbrach und große Siedlungen plötzlich verschwanden. Jedenfalls breitete sich die Krankheit fortan über ganz Europa aus – die erste Pandemie der Menschheitsgeschichte! (Die Forscher wiesen inzwischen das Pest-Bakterium für die Bronzezeit – 4200 bis 2800 v. h. – vom Baikalsee bis zur Iberischen Halbinsel nach.)

Möglicherweise waren Pestepidemien den Einwanderern aus der Schwarzmeersteppe aber lediglich vorausgeeilt. Wir wissen, dass es bereits vor 5500 Jahren einen intensiven Ost-West-Austausch zwischen den Nomaden und Bauern gab. Sie handelten offenbar schon seit Jahrhunderten mit Gütern und Ideen. Über diese etablierten Netzwerke könnten dann womöglich wenige Infizierte den Erreger verbreitet haben.

In der Zeit von 5500 bis 4800 v. h. zerfielen jedenfalls in Europa viele Gemeinschaften aus noch unbekannten Gründen. Die Bevölkerung schrumpfte rapide und zuvor kultivierte Landschaften wurden offenbar schlagartig menschenleer. Archäologen haben in genau diesem Zeitraum auch nur eine geringe Zahl von Skeletten gefunden und kaum Bestattungen dokumentieren können. Vielleicht haben die Menschen ihre Toten verbrannt, um so der Gefahr aus dem Weg zu gehen, die von den Leichen ausging; oder sie ließen die Körper einfach liegen, ohne sie zu bestatten. Nichts deutet dabei auf kriegerische Ereignisse oder gewaltsame Konflikte unter den neolithischen Bauern als Ursache hin.

(Das Pandemieszenario ist aber keineswegs das einzige mögliche Szenario, denn auch der Klimawandel könnte für schlechte Ernten und Hungersnöte bei den neolithischen Bauern geführt haben. Archäologische Nachweise für die Szenarien gibt es bisher nicht.)

Der dänische Archäologe Kristian Kristiansen sieht den Grund für die Auswanderung der Steppenbewohner in ihrer Kultur. Demnach erbte in der Gesellschaft der Jamnaja-Verbände jeweils der älteste Sohn den Besitz. Das habe alle anderen Männer dazu gezwungen, alternative Wege einzuschlagen. Über die alten Netzwerke hatten sie womöglich erfahren, dass es im Westen saftige Weiden ohne Siedler gebe. So habe sich ihnen die große Chance geboten, im entvölkerten Europa eine neue Existenz zu gründen und sich dort Frauen unter der einheimischen Bevölkerung zu suchen.

Die Kultur der Schnurkeramiker

In den Gebieten, in die sich die Schnurkeramiker ausbreiteten, veränderte sich das Leben auf jeden Fall drastisch. Ob der große Wandel allein durch die Zuwanderung oder auch durch den Austausch zwischen den verschiedenen Kulturen ausgelöst wurde, ist schwer zu klären. Mit den Einwanderern kamen jedenfalls Wagen, Rad sowie die Kupfer-Metallurgie nach Europa, dazu eine Kriegermentalität und sehr wahrscheinlich auch das domestizierte Pferd.

Lebensstil und Essgewohnheiten wandelten sich: Zuvor hatten die neolithischen Bauern in Dörfern gelebt und auf gemeinschaftlich bewirtschafteten Feldern vorwiegend Einkorn und Emmer angebaut. Nun wohnten die Menschen auf Gehöften und in Weilern. Kristiansen spricht von einer „sehr individualistischen Kultur, die um Kernfamilien organisiert“ sei. (Die verringerte Siedlungsgröße könnte eine Reaktion auf die Pesterfahrungen gewesen sein, denn gerade das enge Zusammenleben in Dörfern hätte den Ausbruch einer Epidemie begünstigt.) Die Bauern züchteten vermehrt Rinder und aßen mehr Fleisch, Milch und Käse. (Mit den Einwanderern hatte sich auch die Fähigkeit, den Milchzucker Laktose abzubauen, verbreitet.)

Einzelbestattungen unter Hügeln waren jetzt üblich. Der Verstorbene wurde nach strengem Ritus in Seitenhocklage mit dem Gesicht nach Süden begraben, doch betteten sie Frauen auf die linke und Männer auf die rechte Körperflanke. Männliche Verstorbene bekamen eine steinerne, geschliffene Streitaxt mit ins Grab. (Daher die synonyme Bezeichnung als ‚Streitaxt-Kultur‘.) Das Ideal für die Schnurkeramiker war der einzeln kämpfende Krieger.

Die Schnurkeramiker brachten aber auch Frühformen der indoeuropäischen Sprachen mit, aus denen sich im Laufe der folgenden Jahrtausende die slawischen, baltischen und germanischen Sprachen bildeten. Die alteuropäischen Sprachen aber – heute noch inselhaft vertreten z. B. im Baskischen (dem Euskara) und in den Kartwelischen Sprachen des Kaukasus – wichen auf breiter Front den neuen Idiomen. Fortan wurde in den meisten Dörfern Europas indoeuropäisch gesprochen.

Das Europäer-Genom

75% der Mitteleuropäer trugen nun Erbgut aus der Steppe in sich. 70% der jungsteinzeitlichen Gene verschwanden in dieser Zeit und wurden durch „Steppengene“ ersetzt. Innerhalb weniger Jahrhunderte dominierten Gen-Komponenten der Schurkeramiker vor allem das männliche Y-Gen. Von Nordindien bis ins Rheinland findet man diese Komponenten seit 4500 v. h. fast überall.

Den ältesten und genetisch am engsten verwandten Vorläufer der Schnurkeramiker-Komponente auf dem Y-Chromosom fand man bei einem Jungen, der vor 24 000 Jahren nördlich des Baikal-Sees in Zentralsibirien bestattet wurde. Ein weiterer Skelettfund am Jenissei, 17 000 Jahre alt, enthält ebenfalls diesen ANE-Anteil. (Die ANE-Sibirier zwischen Baikalsee und Jenissei haben aber nicht nur zum Erbgut der Europäer beigetragen, sondern auch zu dem der nordamerikanischen Indianer. Diese genetische Komponente ist sogar zuerst im Genom der Eingeborenen Nordamerikas aufgespürt worden. Die Schnurkeramiker-Welle spülte die Sibirier-Gene dann vor 5000 Jahren flächendeckend nach Europa.)

Die Gene der Schnurkeramiker machen heute rund 10% des Gesamtgenoms im europaweiten Durchschnitt aus. Über das Y-Chromosom aber sind die europäischen Völker viel enger verwandt , als es die Anteile von 10 oder 20% des Gesamt-Genoms vermuten lassen. Manche dieser Y-DNA-Komponenten finden sich sogar zu meist über 50% im männlichen Teil der europäischen Völker.

Doch die regionalen Unterschiede hinsichtlich der Schnurkeramiker-Gene sind beträchtlich. Bei Russen, Balten und Polen ist insgesamt der Anteil an Steppen-DNA im Genom am höchsten (20%). In Richtung Südwesten und Süden sinkt er graduell. Bei den Bewohnern Sardiniens, den Sarden, macht er nur noch wenige Prozent aus. Auch auf der Iberischen Halbinsel war der genetische Einfluss der Schnurkeramiker deutlich geringer als im übrigen Europa. Die Forschungs-Ergebnisse legen hier ein merkliches, aber bescheidenes Eindringen der Migranten nahe.

Küstenferne Sarden weisen den höchsten Anteil an DNA auf, der unmittelbar von den nahöstlichen Bauern stammt: rund 85%. Sie sind praktisch fast reine Nachkommen dieser jungsteinzeitlichen Menschen, die hier vor 7000 Jahren lebten. Auch die Basken sind womöglich Nachfolger der ersten Ackerbauern in Europa, die vor 8000 Jahren einwanderten und eben nicht indoeuropäisch sprachen. Auch sie tragen in sich noch deren genetische Spuren und besitzen kaum DNA der Schnurkeramiker, die offenbar das heutige Baskenland nicht so dicht besiedelten wie andere Regionen. Außerdem gab es über Hunderte von Jahren möglicherweise auch Gruppen in Alpentälern, die kaum Verbindung zu anderen Regionen und damit auch zu Schnurkeramikern hatten.

Die Europäer setzen sich also genetisch aus mindestens drei Gruppen zusammen: Den alteingesessenen Sammlern und Jägern, von denen die ersten vor spätestens 45 000 Jahren nach Europa kamen; den nahöstlichen Bauern, die vor 8000 bis 7500 Jahren aus Anatolien und Nordsyrien kamen und Ackerbau und Viehzucht nach Europa brachten; und den Schnurkeramikern, die auch eine markante Note im Erbgut der heutigen Europäer hinterließen.

Nach 4200 v. h. ist die Kultur der Schnurkeramiker archäologisch nicht mehr nachweisbar. In Mitteleuropa z. B. dominierten nun die Glockenbecher- und die Aunjetitzer-Kultur. Ob eingewanderte Bevölkerungsgruppen für die kulturellen Veränderungen verantwortlich waren oder die neuen Ideen im kulturellen Austausch weitergegeben wurden, ist derzeit noch nicht abschließend geklärt.

REM

Eingriff ins Genom?

Die genbasierte Impfstoff-Technologie

Zweifellos gehört die Gentechnik zu den bedeutendsten technischen Entwicklungen des vergangenen Jahrtausends. Heute gibt es Tausende von Firmen, die ihr Geld mit Gentechnik verdienen. Sie wird wohl für die ökonomische und die medizinische Zukunft der Menschheit sehr wichtig sein. Derzeit geht es vor allem um die Möglichkeit, sich vor Krankheiten schützen zu können.

So haben Biologen schon Gentherapien vor allem gegen Krebs entwickelt. Beispielsweise haben sie Erbanlagen in Tumorzellen geschleust, die den Bauplan zur Synthese von Enzymen liefern, mit denen an Ort und Stelle ungiftige in giftige Substanzen umgewandelt und damit gezielt der Krebs bekämpft werden kann. Die veränderten Gene werden dabei z. B. mit Hilfe von inaktivierten Viren in die Körperzellen bzw. das von der Krankheit betroffene Organ oder Gewebe injiziert. Auch bei Herz-Kreislauf-Erkrankungen wurden Gen-Therapien schon eingesetzt. Zudem haben die Mediziner u. a. auch Autoimmunerkrankungen, die Parkinson-Krankheit und die schwersten Formen der angeborenen Netzhaut-Degeneration seit geraumer Zeit im Visier.

Gen-Technik auf höchstem Niveau wird auch zur Eindämmung der Corona-Pandemie eingesetzt. Es geht dabei um die Bekämpfung des SARS-Cov-2-Virus mit Hilfe eines Impfstoffs. Der Corona-Erreger ähnelt seiner Form nach einer Krone, daher der Name (corona = Krone). Es ist eine Proteinkugel innerhalb einer Fettmembran – Durchmesser 100 Nanometern (1 nm = 1 Millionstel Millimeter) -, die einen gewundenen RNA(Ribonukleinsäure)-Strang mit dem genetischen Code schützt. Die Proteine bilden an ihrer Oberfläche Stacheln (so genannte Spikes) aus, die sich an eine menschlichen Zelle anheften können, die 100-mal größer ist. Dadurch kann das Virus in die Zelle eindringen.

Der genbasierte Impfstoff gegen das Corona-Virus SARS-Cov-2 der Unternehmen Pfizer-Biontech und Moderna beruht auf einer noch neuen Impfstoff-Technologie. Allerdings liegen damit schon seit Jahren Erfahrungen vor, und zwar in Form von klinischen Studien aus der immunologischen und infektiologischen Grundlagenforschung und aus der Krebsforschung. Bislang gab es aber noch keinen einzigen zugelassenen Impfstoff, der auf diese Weise wirkt, so dass eine gewisse Skepsis angebracht erscheint. Manche befürchten eine unkontrollierte Auswirkung auf das menschliche Genom.

Während Impfstoffe bisher abgeschwächte oder abgetötete Viren enthielten, die das Immunsystem mit vielen Oberflächenstrukturen reizen, besitzt der neue Impfstoff lediglich einen Teil des genetischen Materials des Virus, das eine Art Anleitung für den Bau von viruseigenen Proteinen darstellt. Das mRNA(messenger-Ribonukleinsäure)-Molekül trägt die Information für ein Stück des Spike-Proteins, welches das Virus braucht, um sich an die Oberfläche von Zellen zu binden und sie zu befallen. Das Molekül wird in die Zellen des Muskelgewebes geimpft und überträgt damit die Information für dieses Protein in den menschlichen Körper.

Die heutigen Lebewesen enthalten zwei Formen von Nukleinsäuren: RNA (Ribonukleinsäure) und DNA (Desoxyribonukleinsäure). Während die DNA das permanente Speichermedium für genetische Informationen ist, übernimmt die RNA vielfältige Spezial-Aufgaben innerhalb der Zelle, z. B. als Hilfsmodell bei der Proteinbiosynthese (tRNA), als Strukturmodell, das Reaktionen katalysieren kann (rRNA), oder als Informationsträger (mRNA). Um mRNA zu bilden, werden ihre Bausteine (Nukleotide) im Zellkern am geöffneten DNA-Doppelstrang zu einer langen Kette verknüpft und anschließend wieder von der DNA gelöst. Die meisten Ketten dienen als Matrizen (Bauanweisung) für die Produktion eines Proteins. Die Übersetzung der mRNA in ein Eiweiß (Translation) findet in den Ribosomen im Zellplasma (Zytoplasma) statt.

Die mRNA der Impfstoffe und die darin enthaltenen Informationen zum Spikeprotein werden von der Zelle ausgelesen und nachgebaut. Es entstehen Proteinfragmente von SARS-Cov-2, kleine Eiweißstückchen, die aus Sicht des Körpers dem Virus bzw. dessen Spike-Proteinen ähneln. Sie werden dem Immunsystem als Antigene präsentiert, wodurch eine Immunantwort des Körpers ausgelöst wird. Das körpereigene Immunsystem reagiert beispielsweise mit der Bildung von Antikörpern, die eine zukünftige Infektion verhindern, indem sie sich an die Antigene binden.

Sorgen, dass speziell die mRNA-Impfstoffe besondere Sicherheitsrisiken mit sich bringen und etwa das menschliche Erbgut verändern, halten Experten für unbegründet. Dass die RNA in den Zellkern gelangt und sich ins Genom integrieren könnte, dafür gibt es keine Hinweise. Denn diese mRNA befindet sich außerhalb des Zellkerns, während die DNA nur innerhalb des Zellkerns ist. Außerdem ist die Struktur der beiden Moleküle chemisch so unterschiedlich, dass die DNA die mRNA nicht einfach einbauen könnte.

Die RNA ist eine einfache Kette. Sie setzt beim Zucker auf Ribose, ein ringförmiges Molekül mit vier angekoppelten Hydroxylgruppen (OH-Gruppen). Die DNA besteht aus einem Doppelstrang und besitzt den gleichen Ring, aber nur drei OH-Gruppen (Desoxyribose). Diese Variante ist deutlich stabiler, was der DNA ihre Aufgabe, genetische Informationen zu speichern, sehr erleichtert. RNA enthält außerdem statt der Base Thymin die Base Uracil. Die beiden Basen unterscheiden sich durch genau ein Kohlenstoff- und zwei Wasserstoff-Atome.

Eine Besonderheit der RNA ist auch, dass sie chemisch sehr labil – generell instabil – ist und in der Zelle schnell wieder abgebaut wird. Sie wird meist nur kurzfristig benötigt – und je schneller sie anschließend zerlegt werden kann, desto besser. Es handelt sich im Fall von Covid-19 also um eine kurzfristige Immunantwort. Eine nachhaltige Interaktion mit der menschlichen Zelle ist allein aus diesem Grund unwahrscheinlich.

Allerdings ist die Impf-RNA in eine Schutzhülle verpackt, mit der sie in die menschliche Zelle gelangen kann. In diesem Fall handelt es sich um lipidhaltige Nanopartikel, winzige kleine Tröpfchen aus fettartigen Substanzen.

[Da die RNA negativ geladen ist, verwendet man Lipide, die an ihrer Außenseite eine positive Ladung tragen. Daran kleben RNA-Moleküle wie kleine Härchen. Da die Gesamtladung der Nanopartikel immer noch positiv ist, binden diese an die negativ geladenen Zellmembranen. Diese stülpen sich daraufhin ein und nehmen den Nanopartikel auf (absorptive Endocytose).]

Was diese Zusatzstoffe, die aus Wettbewerbsgründen geheim sind, bewirken, muss beobachtet werden, wobei man zumindest kurzfristig von guter Verträglichkeit ausgeht. Die Pharmazeuten sehen in den Trägerlipiden auch eher keine Gefahren, da sie wohl bereits als pharmazeutische Hilfsstoffe etabliert sind. Wahrscheinlich werden sogar vor allem natürliche Lipide verwendet, wie sie Mediziner z. B. bei Menschen einsetzen, die über die Blutbahn ernährt werden müssen. Diese Partikel sind ganz ähnlich dem HDL- oder IDL-Cholesterin, womit der Körper gut zurecht kommt.

Die RNA kann von gesunden menschlichen Zellen aber auch nicht so einfach in DNA umgeschrieben werden. Eine Ausnahme bilden bestimmte Viren, die das Enzym „Reverse Transkriptase“ besitzen, wie z. B. das Hepatitis-B-Virus oder ein Retrovirus wie etwa HIV. Bei gleichzeitiger Infektion mit diesen Viren wird das Enzym gebildet, mit dessen Hilfe dann die DNA-Kopie des Virus-Erbguts in das Wirtsgenom eingebaut wird.

[So wie HIV heute beim Menschen, haben sich vor Millionen von Jahren andere, damals aktive Retroviren neu in das Genom von Säugetieren integriert und wurden erst nach weiteren Millionen Jahren von ihren Wirten unschädlich gemacht. Als humane endogene Retroviren liegen ihre Überbleibsel meistens stillgelegt im menschlichen Genom herum. Auch sie können die Reverse Transkriptase synthetisieren. Allerdings schreiben sie nicht wahllos RNA in DNA um. Dies funktioniert nur mit spezifischen RNA-Molekülen.]

Bei gleichzeitige Infektion mit einem dieser Viren könnte es also theoretisch tatsächlich zu einer Umwandlung der Impfstoff-RNA in DNA kommen. Doch selbst dann bleibt ein Einbau in die DNA unwahrscheinlich. Hierfür wären weitere Reaktionen innerhalb der Zelle notwendig, die natürlicherweise nicht vorkommen. Darüber hinaus bleibt eine Veränderung des Erbguts von einzelnen Körperzellen fast immer folgenlos, da körpereigene Mechanismen solche Veränderungen fortlaufend korrigieren.

Die RNA-Impfstoffe sind aus Bausteinen mit geringfügigen Änderungen gegenüber der ursprünglichen Form zusammengesetzt, um eine überschießende Immunantwort zu verhindern. (So verwendet man etwa statt des Standard-RNA-Bausteins Uridin sogenanntes Pseudo-Uridin.) Sie passen sich so chemisch dem an, wie Säugetiere ihre eigene mRNA modifizieren. Der Impfstoff wird nach wenigen Tagen vollständig im Körper abgebaut Gelangen nach der Impfung SARS-Cov-2-Viren in den Körper, wird sofort eine Immun-Antwort in Gang gesetzt.

„Die RNA ist jedenfalls eine der besten Wirkverstärker einer Immunantwort, die wir kennen“, sagt Christian Münz, Professor für Virale Immunbiologie an der Universität Zürich. Es gibt allerdings ein Restrisiko von seltenen, möglicherweise auch schweren Nebenwirkungen, dessen Höhe erst in den kommenden Monaten oder Jahren geprüft werden kann. Zu erwarten wäre aber, dass die genbasierten Impfstoffe weniger Nebenwirkungen haben als andere Impfstoffe. Allerdings muss man auch wissen, dass ein Impfstoff, der keine Nebenwirkungen verursacht, das Immunsystem auch nicht aktiviert. Ein Impfstoff muss also wirksam sein, aber so harmlos wie möglich. Die richtige Balance zu finden, ist das Problem.

REM

Der Abstieg des Menschen

1. Die Geschichte des menschlichen Selbstbildes

„Ich bin, ich weiß nicht wer.

Ich komme, ich weiß nicht, woher.

Ich gehe, ich weiß nicht wohin.

Mich wundert, dass ich so fröhlich bin.“

Angelus Silesius

Jahrtausende war die Geschichte des Menschen von Mythos und Religion verklärt. Es war die Beziehung zu den Göttern, die ihn heraushob aus den Niederungen der übrigen Welt. Der Mensch galt als gottähnlich und den Tieren nicht verwandt. Als Ebenbild Gottes war ihm der Platz auf der Erde zugewiesen, die nach der jüdisch-christlich-moslemischen Schöpfungslehre den Mittelpunkt des Kosmos darstellte. Diese Vorstellung von der Zentralstellung der Erde im Universum ging auf das naturwissenschaftliche Weltbild des griechischen Philosophen Aristoteles (384-322 v. Chr.) zurück: Die Erde im Mittelpunkt des Weltalls, umgeben von den Schalen der Gestirne.

Dieses geozentrische Weltbild wurde schließlich von Ptolemäus (100 bis 178 n. Chr.) in seinem berühmten Werk „He mathematike syntaxis“ („Die mathematische Sammlung“) begründet. In dem rein geometrischen Modell stand die Erde im Mittelpunkt, umgeben von einem gigantischen Konstrukt aus 55 himmlischen Äthersphären. Ptolemäus benötigte diese ineinander geschachtelten Hohlkugeln, um die verschlungenen Bahnen der Planeten allein auf Kreise zurückzuführen – denn nur Kreise und Kugeln schienen Gottes „vollkommener Schöpfung“ würdig.

Die Ideen von Ptolemäus wurden im Mittelalter zum unangreifbaren Dogma. Es bot einer Welt, die von Religion beherrscht wurde, Sicherheit, Bequemlichkeit und Rückhalt. Der Mensch galt als Mittelpunkt der Schöpfung und das Universum nur als ein blasser Abklatsch seiner Existenz; die Erde erschien als Kumulationspunkt, als Zentrum, in dem sich das relevante Geschehen der Welt abspielt. Bis ins 15. Jahrhundert hinein herrschte das geozentrische Weltbild des Ptolemäus unangefochten in den Gedanken der Menschen vor.

Es fiel schwer und kostete viele unschuldige Opfer, bis die Menschheit einsah, dass die Sonne und nicht die Erde Mittelpunkt des damals bekannten Kosmos – und damit, in der früheren Lesart, der Welt – ist. Vehement und hartnäckig hatten sich die Offenbarungsreligionen dagegen gewährt, weil die neuen Erkenntnisse dem in ihren Büchern beschriebenen Weltbild widersprach. Noch heute versuchen religiöse Fundamentalisten aller Couleur solche religiöse Aufzeichnungen wörtlich zu nehmen und ein schon lange überholtes Weltbild aufrechtzuerhalten bzw. wiederzubeleben, uneingedenk der Tatsache, dass diese Schriften von Menschen niedergeschrieben wurden, die nur im Rahmen des damals verbreiteten naturwissenschaftlichen Wissens ihre Schriften verfassen konnten.

Doch an den neuen Erkenntnissen führte schließlich kein Weg mehr vorbei. 1543 führte Nikolaus Kopernikus (1473-1543), Astronom und Domherr zu Frauenburg, einen ersten Streich gegen die mittlerweile über ein Dutzend Jahrhunderte währende behagliche Genügsamkeit. Er veröffentlichte in diesem Jahr „De revolutionibus orbium coelestium“ („Über die Umläufe der Himmelskörper“), worin er die Idee, dass alle Planeten einschließlich der Erde um eine ortsfeste Sonne kreisen, vortrug und begründete. Durch die sog. „Kopernikanische Revolution“ wurde das geozentrische vom heliozentrischen Weltbild abgelöst.

Allerdings war diese Idee nicht ganz neu. Im 15. Jahrhundert hatte Nikolaus von Kues (1401-1464) in seinem Buch „De docta ignorantia“ – „Von der wissenden Unwissenheit“ – schon kritisiert, dass der Mensch, wo er sich auch befand, sich immer im Mittelpunkt stehen sähe. In der Mitte des Alls aber stehe die Sonne, umkreist von den Planeten Merkur, Venus, Erde, Mars, Jupiter und Saturn. Nur der Mond umkreise die Erde. Und selbst im alten Griechenland hatten schon einige Philosophen ein heliozentrisches Universum in Betracht gezogen.

Es begann die „kosmische Vertreibung“ der Erde aus dem Zentrum des Weltalls. Im Jahre 1609 bewies Johannes Kepler (1571-1630), dass alle Himmelsvorgänge erklärbaren, ursächlichen Gesetzen gehorchen – eine wissenschaftliche Revolution und der Beginn der Himmelsphysik. Galileo Galilei (1564-1641) konnte sogar mit neuartigen optischen Geräten, Teleskopen, sichtbar nachweisen, dass sich die Erde tatsächlich um die Sonne dreht. Der Platz der Erde war nun endgültig nicht mehr der Mittelpunkt des Universums. Die Erde war „nur noch“ ein ganz normaler Planet, der, wie alle anderen damals bekannten Planeten, die Sonne – die neue „Mitte der Welt“ – umkreist.

Vor einem Jahrhundert verlor schließlich für die Menschheit auch die Sonne ihre bevorzugte Stellung im Weltall, als die Astronomen allmählich erkannten, dass unser Heimatstern nur einer von Myriaden von Sternen ist und keineswegs in der Mitte , sondern in einem abgelegenen Teil des damals überblickbaren Kosmos, liegt – wie der amerikanische Astronom Harlow Shapley 1918 schließlich bewies. Sein Landsmann Edwin Hubble zeigte dann 1923, dass auch unsere Heimatgalaxie, die Milchstraße, nicht das einzige Sternensystem im Weltraum ist, sondern nur eine Galaxie unter vielen – nach heutigem Wissen eine Welteninsel von über 100 Milliarden, in einem unvorstellbar großen Universum.

Erstaunlicherweise hatte schon der griechische Philosoph Epikur (341-271/270 v. Chr.) vor mehr als 2300 Jahren an einen Raum ohne Grenzen und an unendlich viele Welten, auch jenseits des beobachtbaren Universums, geglaubt – eine Vorstellung, für die der italienische Gelehrte Giordano Bruno (*1543) noch im Jahr 1600 sein Leben auf dem Scheiterhaufen der Inquisition lassen musste.

So zieht also unsere Erde nach unserem heutigen Wissen als ganz gewöhnlicher Planet in einem ganz gewöhnlichen System eines unbedeutenden G2-Sterns in einem durchschnittlichen Abschnitt einer ganz gewöhnlichen Spiralgalaxie ihre Bahn um die Sonne.

Damit rückte auch der Mensch immer weiter aus dem Zentrum der Welt heraus und verlor mehr und mehr seine einzigartige Stellung im Kosmos. Als Reaktion auf den Verlust der kosmischen Mitte wurde in der Folgezeit die Bedeutung des Menschen in und für die Natur verstärkt herausgestellt. Anknüpfend an eine lange philosophische Tradition betrachtete man ihn weit über allen anderen Lebewesen stehend – als etwas Besonderes, als „animal rationale“ oder Vernunftwesen. Selbst Rene Descartes (1596-1650) und Wilhelm Leibniz (1646-1716), die man dem „neuzeitlichen Rationalismus“ zuordnet, waren in ihrem Welt- und Menschenbild den Grundzügen nach noch im christlichen Mittelalter geerdet – obwohl auch damals schon (siehe auch unten) andere philosophische Auffassungen im Umlauf waren.

Für Descartes war der Mensch „aus Körper und Geist zusammengesetzt“, wobei es der denkende und sich seiner selbst bewusste, unteilbare immaterielle Geist sei, der den Menschen eigentlich ausmacht. Dieser vom Körper unabhängige, unsterbliche Geist verdanke seine Existenz direkt dem Wirken Gottes, weshalb Gott und Mensch enger verbunden seien als Welt und Mensch. Der Mensch gehöre also nicht so sehr zur Schöpfung als vielmehr zu seinem Schöpfer. Er ist nach Descartes als „denkendes Ding“ Krone und Mittelpunkt der Schöpfung – von der materiellen Welt, der Natur, nahezu abgetrennt durch eine unüberbrückbare Kluft; ein Ebenbild des Schöpfers.

Auch nach Leibniz verdankt der Geist – er nennt die geistige Substanz „Monade“ (von griechisch „monas“ = Einheit, Eins) – seine Existenz unmittelbar dem Wirken Gottes. Dazu benötigt er aber einen Körper. Gott habe von Anbeginn Körper und Seele so geschaffen, dass sie, während sie nur ihren eigenen Gesetzen folgen, doch mit dem jeweils anderen zusammenstimmten, als ob ein gegenseitiger Einfluss stattfinde. „Allein Gott ist vom Körper gänzlich befreit.“

[Die Philosophen La Mettrie (1709-1751) und d’Holbach (1723-1789), Vertreter des neuzeitlichen Materialismus, wurden die späteren Gegenspieler von Descartes und Leibniz und vertraten schon ein anderes Menschenbild. Sie ordneten den Menschen radikal in die Natur ein. Der Mensch war für sie ein vergänglicher Teil der Welt und denselben Gesetzen unterworfen wie alle übrigen Dinge. Beide vertraten schon die Auffassung, dass sich alles Geistige auf Körperliches zurückführen lasse. Die immaterielle Seele sei „ein Hirngespinst, … eine Gedankenbildung“ (d’Holbach). „Seele und Körper (sind) ein und dasselbe (…), betrachtet unter verschiedenen Gesichtspunkten“. (d’Holbach) In diesem Zusammenhang äußerten La Mettrie und d’Holbach bereits damals die Vermutung, dass der Mensch das Produkt eines natürlichen Entwicklungsprozesses sein könnte, „ein Ergebnis der besonderen Gesetze …, die den Erdball leiten“. (d’Holbach)]

Aus der im Mittelalter entwickelten Vorstellung von der Stufenleiter des Seienden entwickelte sich im 18. Jahrhundert die Idee weiter, nach der der Mensch nicht nur als eine Stufe über allen anderen Lebewesen stehend, ausgestattet mit einer unsterblichen Seele, sondern auch als Ziel der Schöpfung anzusehen sei. Die Harmonie der Bewegung der Himmelskörper setze sich fort in der auf den Menschen ausgerichteten Harmonie der Natur, die in der Existenz und im Handeln des Menschen ihr Ziel findet.

So beschrieb z. B. Georg Wilhelm Hegel (1770-1831) die Welt als einen auf ein Ziel ausgerichteten Entwicklungsprozess, von der bloßen Materie über die organische und anorganische Natur hinauf zum menschlichen Geist. Er interpretierte ihn als die allmähliche Selbstverwirklichung und Selbstbewusstwerdung des absoluten Weltgeistes. (Ähnliche Gedanken äußerte der französische Jesuit und Theologe Teilhard de Chardin.) Der Mensch sei aber nicht selbst der Weltgeist; er sei nur das Bewusstsein des absoluten Weltgeistes, insofern er um diesen Geist und um diese Welt wisse.

Immanuel Kant (1724-1804) leugnete zwar nicht, dass der Mensch auch ein Naturwesen sei, aber es sei vor allem das „moralische Gesetz“, das ihn aus dem Naturzusammenhang herausnehme und dem der Mensch seine besondere Stellung verdanke. Das moralische Ich führe (wie bei Descartes die geistige Substanz und bei Leibniz die Geistmonade) „ein von der ganzen Thierwelt und selbst von der ganzen Sinnenwelt unabhängiges Leben“ und sei unsterblich. (Allerdings hielt er die Unsterblichkeit nicht für eine im strengen Sinn beweisbare Behauptung.)

Es waren Denker und Wissenschaftler des 19. Jahrhunderts wie Schopenhauer, Darwin, Marx und Freud, die den Menschen nicht mehr „von oben“ (Gott, Vernunft, Geist), sondern „von unten“ (Natur, Leib, Trieb, Gesellschaft) her auslegten. Sie suchten den Menschen aus seiner Natur heraus zu erklären und nahmen ihm den Glauben an die beherrschende Kraft der Vernunft. Durch sie wurde deutlich, wie wenig der Mensch die Bedingungen seiner eigenen Existenz in der Hand hält. Für ihre Sichtweise war der Rückgriff auf naturgeschichtliche, gesellschaftliche und tiefenpsychologische Faktoren charakteristisch.

Arthur Schopenhauer (1788-1860) bestimmte den Menschen radikal vom Leib her. Der Intellekt war in seiner Sicht eine Funktion des Gehirns, das wiederum ein Produkt des Organismus. Der (vernunftlose) Wille sei „das Primäre und Substantiale (…), der Intellekt dagegen ein Sekundäres, Hinzugekommenes, ja ein bloßes Werkzeug zum Dienst des ersteren“.

Charles Darwin (1809-1882) ordnete den Menschen radikal in den Naturprozess ein. Der Mensch sei nicht die Krone der Schöpfung, sondern nur die zufällige Spitze der verschiedenen Arten.

Karl Marx (1818-1883) erklärte den Menschen aus gesellschaftlichen Faktoren: „Es ist nicht das Bewusstsein der Menschen, das ihr Sein, sondern umgekehrt ihr gesellschaftliches Sein, das ihr Bewusstsein bestimmt.“

Sigmund Freud (1856-1939) hob die Bedeutung des Unbewussten und der Triebe für das Selbstverständnis des Menschen hervor. Er betonte dessen Ohnmacht und Unvernünftigkeit, zumindest in den allermeisten Situationen und Lebenslagen: Der Mensch sei zumeist nicht Herr im eigenen Haus.

Die in der Darwinschen Evolutionstheorie behauptete verwandtschaftliche Nähe zum Tier löste die größte Empörung aus und generierte erbitterten Widerstand. Dem traten die Biologen und Paläontologen damals mit dem Postulat der Sonderstellung des Menschen entgegen. „Gleichzeitig ist niemand so stark überzeugt wie ich, dass der Abstand zwischen den zivilisierten Menschen und den Tieren ein ungeheurer ist. Niemand ist dessen so sicher, dass, mag der Mensch von Tieren stammen oder nicht, er zuverlässig nicht eins derselben ist.“ (Aldous Huxley 1883) Mit der Anschauung von der Sonderstellung ist die Beherrschung der Natur mit Hilfe von Wissenschaft und Technik verknüpft. Bis in die Gegenwart hinein wurde sogar von Biologen die Sonderstellung des Menschen kaum in Zweifel gezogen.

Durch die Neuro- und Kognitionswissenschaften wurde im 20. Jahrhundert das Zusammenspiel von Körper und Geist neu hinterfragt. Und je genauer die Funktionen unseres Gehirns verstanden wurden, desto mehr schienen seine Aktivitäten und das, was man meist „Seele“ nannte, miteinander verwoben zu sein. Es zeigte sich, dass die Vorstellung von der Doppelnatur des Menschen als körperliches und geistiges Wesen überholt ist. Alle unsere geistigen Fähigkeiten sind untrennbar an ein funktionsfähiges Gehirn geknüpft. Der Mensch scheint also mittels Neurologie und Physiologie und letzten Endes im Rahmen von Physik und Geschichte erklärbar zu sein.

2. Gefühlter Wertverlust

Wo immer wir Menschen bisher glaubten, wir wären etwas Besonderes, haben wir uns geirrt. Wir mussten die Vorstellung aufgeben, das Zentrum des Universums zu sein. Nach Darwin mussten wir uns von der Idee lösen, etwas anderes als biologische Wesen zu sein. Und wir mussten erkennen, dass der Lauf der Natur keine vorgesehene Richtung und keinen Plan hat.

Der englische Philosoph Bertrand Russell schrieb 1903 in einer Abhandlung: „…Dass der Mensch das Produkt blinder, zielloser Ursachen ist, dass sein Ursprung, seine Entwicklungen, seine Hoffnungen und Ängste, sein Lieben und sein Glauben nichts anderes als das Ergebnis zufälliger Zusammenstöße von Atomen sind; dass keine Leidenschaft, kein Heldenmut, keine Kraft des Denkens oder Fühlens das individuelle Leben über das Grab hinaus bewahren kann; dass all das jahrhundertelange Mühen, all die Hingabe, all die Inspiration, all die strahlende Helle des menschlichen Genies im Gefolge des umfassenden Todes des Sonnensystems zur Auslöschung verdammt sind und dass der ganze Tempel der menschlichen Errungenschaften unausweichlich unter dem Schutt eines zerstörten Universums begraben werden soll – all dies ist, wenn nicht schon über jeden Zweifel erhaben, so doch derart wahrscheinlich, dass keine Philosophie, die das abstreitet, Aussicht hat zu bestehen.“

Es fiel und fällt uns nicht leicht, die neuen Erkenntnisse zu verarbeiten. Schließlich haben wir uns über Jahrhunderte hinweg an unsere herausragende und privilegierte Rolle im Kosmos gewöhnt. Und diese Vorstellung lässt sich nicht so ohne Weiteres beseitigen. „Alle Religionen, fast alle Philosophien und zum Teil sogar die Wissenschaft zeugen von der unermüdlichen Anstrengung der Menschheit, ihre eigene Zufälligkeit zu verleugnen“, schrieb der französische Biologe Jacques Monod (1910-1976). Daher empfinden viele Menschen zunehmend ein tiefes Gefühl der Enttäuschung, wovon nicht nur unser Selbstverständnis, sondern auch unser Selbstwertgefühl nicht unberührt blieb.

Freud schrieb von einer Kränkung, ja sogar Demütigung durch die Wissenschaft: „Zwei große Kränkungen ihrer naiven Eigenliebe hat die Menschheit im Laufe der Zeiten von der Wissenschaft erdulden müssen. Die erste, als sie erfuhr, dass unsere Erde nicht der Mittelpunkt des Weltalls ist, sondern ein winziges Teilchen eines in seiner Größe kaum vorstellbaren Weltsystems. (…) Die zweite dann, als die biologische Forschung das angebliche Schöpfungsvorrecht des Menschen zunichte machte, ihn auf die Abstammung aus dem Tierreich und die Unvertilgbarkeit seiner animalischen Natur verwies. Die dritte und empfindlichste Kränkung aber soll die menschliche Größensucht durch die heutige psychologische Forschung erfahren, welche dem Ich nachweisen will, dass es nicht einmal Herr ist im eigenen Hause, sondern auf kärgliche Nachrichten angewiesen bleibt von dem, was unbewusst in seinem Seelenleben vorgeht.“

Der Katalog der Kränkungen des Menschen ließe sich heute erweitern: Der amerikanische Genforscher Richard Dawkins und manch andere Genetiker und Soziobiologen sehen im Organismus des Menschen nur eine „Überlebensmaschine der Gene“ (Dawkins), die Eiweißstoffe produzieren. Jaques Monod hält (ähnlich wie Vertreter der Kognitiven Psychologie) den Menschen in diesem Sinne für nichts anderes als eine Zusammenballung von Proteinen und Enzymen, eine biochemische Maschine, die von der Evolution entwickelt wurde und durch einen genetischen Mechanismus gesteuert wird. Einige ernstzunehmende Wissenschaftler betrachten den Menschen als komplizierten, selbstreproduzierenden, kommunizierenden Automaten, der ein Universum bevölkert, das so mechanische ist wie eine Spieluhr (Radikaler Reduktionismus).

Einige Computerwissenschaftler meinen gar, der Mensch sei allein durch „Information“ zu definieren. Der Körper sei lediglich als Informationsträger zu betrachten. Unsere Intelligenz sei nichts anderes als ein Rechenprogramm, und selbst unsere Gefühlswelt soll nicht anders sein wie bei einem Roboter der neuen Generation. Könnte man die vollständige Information eines Menschen auf einen Computer übertragen, wäre folglich der Computer mit dem informationsspendenden Menschen identisch. Er sei dann computertechnisch gesehen nur eine große Zahl, die digital beliebig oft zu kopieren und damit unsterblich zu machen wäre.

Nach Kopernikus, Darwin und Freud erleben wir jetzt also den letzten großen Angriff auf unser traditionelles Bild vom Menschen: Die Entthronung des Menschen als freies, denkendes Wesen, der „Wegfall“ der vermeintlichen Willensfreiheit und die Möglichkeit, das eigene Ich zu reproduzieren. Das ist nichts anderes als die Erkenntnis, dass wir als Personen ersetzbar und als Menschen bedeutungslos geworden wären.

Der Physiker und Philosoph Carl Friedrich von Weizsäcker (1912-2007) vertrat die Überzeugung, dass sich der Mensch nur dann versteht, wenn er sich in der Natur und ihrer Geschichte verankert sieht. Wir müssen akzeptieren, dass wir Teil der gesamten Biosphäre sind – auch wenn wir als einzige Lebewesen Beton mischen, Bomben herstellen, Bücher schreiben und auch lesen können. Mensch und Natur, Mensch und Biosphäre, aber auch Mensch und Erde und Mensch und Universum müssen untrennbar zusammengedacht werden wie ihre gemeinsame Geschichte. Ein japanischer Zen-Meister drückte es so aus:

„Der Mond bin ich, ich bin der Mond.

Was ist der Mond, was bin ich?

Man kann es nicht unterscheiden.

Mein Geist und der Mond sind vollkommen verschmolzen.“

Mit der Vorstellung von einer Sonderstellung läuft der Mensch heute Gefahr, sowohl seine geschichtliche wie auch aktuelle Abhängigkeit von der Biosphäre zu ignorieren und sich als „Entlassener aus der Natur“ von biotischen Beschränkungen weitestgehend frei zu wähnen. Die „natürliche“ Umwelt würde vorwiegend als Objekt der Weltbewältigung verstanden und im Sinne von tatsächlichen oder vermeintlichen Bedürfnissen ausgebeutet, umgestaltet und zerstört. Die Folge sind globale ökologische Krisen, wie wir sie heute erleben. „Wenn wir die Flexibilität verlieren und uns nicht mehr anzupassen vermögen, werden auch wir aussterben. Andere Arten werden unseren Platz einnehmen, unsere Nische ausfüllen, und den Evolutionsprozess fortsetzen – es sei denn, wir würden dabei die Lebensbedingungen so sehr verändern, dass keiner der bestehenden Organismen überleben kann.“ (Die amerikanische Archäologin Betty Meggers)

REM

Zwei Geschlechter – aber viele Varianten

Entwicklung der Bisexualität

Ein Meilenstein in der Evolution des Lebens war die Entwicklung der Bisexualität und der sexuellen Fortpflanzung. Sie erwies sich als optimale Lösung für eine erfolgreiche Vermehrung. Allerdings ist die evolutionsgeschichtlich viel ältere asexuelle Vermehrung durch Teilung, die erbgleiche Individuen (Klone) erzeugt, bis heute in der Natur weit verbreitet. Sie ist weit weniger kompliziert und aufwändig als die sexuelle Fortpflanzung, außerdem wächst eine Population durch sie viel schneller. Unter einer knallharten Kosten-Nutzen-Rechnung sollte sich im evolutionären Wettrennen also eigentlich die Fortpflanzung durch Teilung durchsetzen. Das bestätigen Computersimulationen, nach denen beim Wettstreit einer sexuellen mit einer asexuellen Art die sexuelle nach nur zehn Generationen ausstirbt.

Aber die sexuelle Fortpflanzung hat einen universellen Selektionsvorteil, wenn sich die Umwelt verändert: Durch die Durchmischung und Neukombination väterlicher und mütterlicher Anlagen erhöht sich die genetische Vielfalt. Nach Studien sind dadurch Lebewesen, die sich miteinander kreuzen, biologisch anderthalbmal so fit wie solche, die sich durch Teilung vermehren, denn ihre Population kann insgesamt schneller auf neue Probleme reagieren und sich anpassen. In einer ewig gleichen Umwelt dagegen brauchen Lebewesen normalerweise keine Sexualität. Hier genügt eine optimale Anpassung an die Umwelt durch Mutationen.

Bei sich überwiegend parthenogenetisch fortpflanzenden Arten, bei denen die Nachkommen aus unbefruchteten Eiern entstehen, wird sogar von Zeit zu Zeit eine sexuelle Rekombination eingefügt. So vermehren sich Läuse im Sommer, wenn ein hohes Nahrungsangebot zur Verfügung steht, ungeschlechtlich und produzieren nur Weibchen. Im Herbst werden die Umweltverhältnisse schlechter, die Nahrungsangebote kleiner. Nun treten auch Männchen auf. Durch die jetzt mögliche sexuelle Fortpflanzung werden die Gene durchmischt: Neukombinationen erhöhen die Anpassungsfähigkeit an die härteren Bedingungen.

Nach der Hypothese der amerikanischen Biologen van Walen und Bell wird durch die ständige Neukombination des Erbguts bei der sexuellen Fortpflanzung auch das genetische Repertoire im Abwehrkampf gegen Mikroben permanent verändert. Dies sei ein entscheidender Vorteil in der Evolution, denn Parasiten und Krankheitserreger sind sehr unterschiedlich und mutieren zudem rasend schnell.

Als ein wichtiges Indiz wird eine neuseeländische Zwergdeckelschnecke (Potamopyrgus antipodarum) angeführt. Sie besitzt beide Methoden der Fortpflanzung, eingeschlechtlich und zweigeschlechtlich. Solange der Parasitenbefall durch einen bestimmten Wurm gering ist, wählt die Schnecke vorwiegend die erste Variante. Da dabei nur ein Elternteil benötigt wird, um Nachkommen zu haben, vermehrt sich die Schnecke rund doppelt so schnell wie bei der geschlechtlichen Variante. Steigt der Parasitenbefall an, schaltet das Tier zunehmend auf sexuelle Fortpflanzung. Unter diesen Bedingungen scheint es günstiger, weniger Nachkommen zu erzeugen, dafür aber solche mit großer genetischer Vielfalt.

Der genetische Unterschied

Im Laufe der Evolution entstanden bei Säugern – und unabhängig davon auch bei anderen Tierarten, z. B. Vögeln und einigen Insekten – aus einem gewöhnlichen (homologen) Chromosomenpaar zwei Geschlechtschromosomen. Aus ihnen entwickelten sich das heutige „weibliche“ Geschlechtschromosom X und das „männliche“ Geschlechtschromosom Y. Während weibliche Säuger das X doppelt besitzen (XX), haben männliche Individuen jeweils ein X und ein Y (XY). Das Y-Chromosom ist also verantwortlich für die Ausprägung des männlichen Geschlechts.

Die Entwicklung des Y-Chromosoms begann vermutlich vor vielleicht 350 Millionen Jahren bei reptilienartigen Vorfahren der Säugetiere, als auf einem Partner der beiden gleichartigen Chromosomen ein neues Gen entstand, das die weitere Entwicklung zum männlichen Phänotyp (Erscheinungsbild) lenkte: das SRY („sex-determining region Y“ / „geschlechtsbestimmende Region Y“). In der Folgezeit kam es mehrfach zu dramatischen Umstrukturierungen dieses Chromosoms. Während das X unbeschädigt überdauerte, schrumpfte das Y immer weiter zusammen. Es bewahrte sich nur eine Handvoll überlebenswichtiger Gene, zog aber auch für die männliche Fruchtbarkeit wichtige an sich.

Auf der Ebene der Geschlechtschromosomen treten neben der Kombination XX und XY auch einige Varianten auf, etwa solche mit einer fehlenden, einer zusätzlichen oder einer unvollständigen Kopie eines Geschlechtschromosoms. Beispiele sind die Monosomie X0 (Turner-Syndrom), das XXX- und XYY-Syndrom, sowie das XXY-Syndrom (Klinefelter-Syndrom). Menschen mit diesen Syndromen sind auch anatomisch keinem Geschlecht eindeutig zuzuordnen und werden deshalb Intersexuelle (auch Hermaphrodite oder Zwitter) bezeichnet. Sie sind häufig unfruchtbar und haben oft weitere individuell unterschiedlich ausgeprägte Beeinträchtigungen.

Aber auch schon kleinere genetische Veränderungen auf den Geschlechtschromosomen können durchaus nachhaltig Wirkung entfalten. Gelangt z. B. das Gen SRY durch einen Genaustausch während der Reifeteilung (Meiose) vom Y-Gen auf das X-Gen, so wird bei Frauen mit normalem Geschlechtschromosomensatz (XX) das für die Keimdrüsen angelegte Gewebe dennoch in Hoden ausdifferenziert, so dass sie vom äußeren Habitus her als Mann erscheinen. Diese Form der sexuellen Differenzierung wird als „XX-Mann“ oder „De-la-Chapelle-Syndrom“ bezeichnet. Dagegen bilden Menschen mit männlichem XY-Chromosomensatz, bei denen das SRY-Gen fehlt oder defekt ist (Swyer-Syndrom), eine – oft verkürzte – Vagina oder einen Uterus aus. Dieses Syndrom wird meist erst in der Pubertät bemerkt, wenn die Geschlechtsentwicklung stockt. Bis dahin erscheinen die Betroffenen eindeutig als Mädchen.

Unterschiede in der Entwicklung

In utero sind wir am Anfang alle weiblich, d. h. jeder Embryo besteht zunächst aus rein mütterlichem Gewebe mit den Anlagen für die weiblichen Geschlechtsorgane. Er entwickelt standardmäßig die weiblichen Geschlechtsmerkmale, wenn nicht das Gen SRY auf dem Y-Chromosom den Schalter in Richtung „männlich“ umlegt. Das nun gebildete Hodengewebe sorgt für die verstärkte Erzeugung des Sexualhormons Testosteron und die Umwandlung der weiblichen Genitalien in männliche, woran auch noch andere Hormone beteiligt sind. Ohne SRY (und die Hoden-Hormone) bildet der Organismus hingegen vermehrt die Hormone Östradiol (ein Östrogen) und Progesteron. Sie führen zur Ausbildung von Uterus und Eierstöcken und den anderen weiblichen Geschlechtsmerkmalen. Mädchen sind sozusagen der Standardfall der Natur.

In der zweiten Schwangerschaftshälfte – nachdem die Entwicklung der Geschlechtsorgane abgeschlossen ist – formt sich durch die Geschlechtshormone im Fötus auch ein mehr oder weniger männliches oder weibliches Gehirn. Es ist der jeweilige „Hormoncocktail„, der lenkend auf Organisation und Verdrahtung des sich entwickelnden Organs einwirkt und Struktur und Neuronendichte verschiedener Bereiche beeinflusst. Nach Ergebnissen aus Tierversuchen wirkt sich Testosteron u. a. auf die Hirngröße aus, indem es die Produktion eines Wachstumsfaktors (des BDNF – „Brain Derived Neurotrophic Factor“) anregt. So reift das männliche Gehirn zwar im Schnitt langsamer, wird aber am Ende größer als das weibliche. Testosteron scheint beim Fötus im Mutterleib auch die Ausbildung der rechten Gehirnhälfte verstärkt zu fördern – und die trägt besonders viel zum musikalischen und räumlichen Verständnis eine Menschen bei. Daher könnten Musikalität und räumliches Denken ursächlich miteinander zusammenhängen – könnten aber auch unabhängig voneinander Leistungen erbringen, die jeweils vom Testosteron beeinflusst werden.

Bei weiblichen Föten entwickelt sich dagegen die linke Gehirnhälfte schneller, weshalb Frauen gemäß dem britischen Psychologen Simon Baron-Cohen von Anfang an einen Vorsprung in Bezug auf Sprache und soziale Intelligenz haben. Beim Jungen hingegen werde die Entwicklung der linken Gehirnhälfte verzögert. Ursache sei das Testosteron. Je niedriger der Testosteronspiegel während und nach der Schwangerschaft sei, um so einfühlsamer und sprachbegabter werde das Kind; je höher der Wert, umso geringere Sozialkompetenzen und umso spezialisiertere Interessen werde es später entwickeln. Das Gehirn eines Autisten ist demnach die Extremform des männlichen Denkorgans: Hoch systematisch, aber zur Empathie unfähig.

Unterschiede in der Gehirnanatomie

Die Korrelation zwischen der Größe einer Hirnregion bei Erwachsenen und der Wirkung von Sexualhormonen in der Gebärmutter deutet darauf hin, dass zumindest einige der geschlechtsspezifischen Unterschiede in den kognitiven Funktionen nicht durch kulturelle Einflüsse oder hormonelle Änderungen während der Pubertät entstehen – sie sind von Geburt an vorhanden. So haben Männer durchschnittlich ein um rund 12% größeres und schwereres Gehirn als Frauen; nach Studien sind Männerhirne im Mittel 1241 cm3 groß, Frauen rund 1100 cm3. Dabei existiert aber ein erheblicher Überlappungsbereich zwischen beiden Gruppen. Betrachtet man das relative Gehirnvolumen (also bei Berücksichtigung der individuellen Köperabmessungen) reduzieren sich die geschlechtsspezifischen Größenunterschiede um zwei Drittel.

Nach den vorliegenden Daten wirkt sich der Größenunterschied nicht auf die kognitive Leistungsfähigkeit aus. Frauen machen den Nachteil des kleineren Gehirns durch mehr Hirnwindungen wett, denn die Leistungsfähigkeit des Kortex (der Großhirnrinde) ist bekanntlich proportional zu seiner Oberfläche. Und eine stärkere Furchung des Gehirns führt zu einer Vergrößerung seiner Oberfläche, ohne das Volumen zu erhöhen.

Zwischen den Gehirn eines Mannes und einer Frau gibt es aber auch eine erstaunliche Palette an strukturellen, chemischen und funktionellen Unterschieden. Sie sind möglicherweise das Resultat von Selektionsdrücken während der Evolution und beeinflussen (mehr oder weniger) offenbar viele Bereiche der Kognition und des Verhaltens, z. B. Gedächtnis, Emotionen, Sehen, Hören, das Verarbeiten von Gesichtern und die Reaktion des Gehirns auf Stresshormone. Diese Unterschiede werden heute allerdings kontrovers diskutiert.

Erwiesen ist, dass Männer mehr graues Hirngewebe, also eine etwas dickere Hirnrinde, haben, Frauen mehr weiße Substanz. Die graue Substanz ist bei Frauen aber deutlich dichter gepackt. Manche geschlechtsspezifische Unterschiede hängen vermutlich eng mit der Lateralisierung des menschlichen Gehirns, also der Spezialisierung der Gehirnhälften, zusammen, deren Ausmaß deutlich mit dem Geschlecht variiert. Während Männer rechtshemisphärische Funktionen wie große zielgerichtete Bewegungen (wie z. B. beim Werfen) besser beherrschen – sie besitzen ein größeres Volumen des verantwortlichen Areals -, sind Frauen in von der linken Hemisphäre gesteuerten Aufgaben, wie z. B. feinmotorischen Bewegungen, überlegen. Umstritten ist, ob es eine signifikante Differenz der Geschlechter in der Verbindung zwischen den beiden Gehirnhälften gibt. Bei Frauen scheinen sich beide Gehirnhälften bei der Bewältigung verschiedener Aufgaben gleichmäßiger zu beteiligen, während Männer vermehrt jeweils eine Hirnhälfte aktivieren. Die Sprachproduktion, auf die die linke Hirnhälfte spezialisiert ist, scheint jedenfalls bei Frauen weniger lateralisiert, was zu höherer Wortflüssigkeit beiträgt.

Frauen sind unter dem Strich mitfühlender und reagieren sensibler auf emotionale Reize als Männer. Sie verarbeiten die Betonungsinformation – die emotionale Information, die mit einem Wort mitschwingt – Millisekunden früher, Männer dagegen zuerst den Inhalt des Wortes. Forscher vermuten, dass die hemisphärenbezogenen funktionellen Geschlechtsunterschiede auch dazu führen, dass Frauen mit höherer Wahrscheinlichkeit Details von emotionalen Ereignissen behalten, Männer dagegen eher den Hauptinhalt. Bei Frauen ist das Verhältnis zwischen einer Region, die an der Kontrolle von Gefühlen beteiligt ist (Orbitofrontalregion), und den Mandelkernen, die eher für die Erzeugung von Gefühlen zuständig sind, bedeutend größer als bei Männern, was bedeuten könnte, dass Frauen im Schnitt emotionale Reaktionen besser in den Griff bekommen. Bei Schizophrenen ist dieses Verhältnis bei Frauen kleiner, bei Männern merkwürdigerweise größer, was vermuten lässt, dass Schizophrenie bei Männern und Frauen eine jeweils etwas andere Krankheit ist und auf das Geschlecht bezogen behandelt werden müsste.

Das Sehzentrum von Frauen und Männern ist unterschiedlich aufgebaut, so dass Frauen eher zusammenpassende Objekte erkennen können und über eine höhere Wahrnehmungsgeschwindigkeit verfügen. Bei räumlichen Aufgaben schneiden sie aber schlechter ab, wobei das Ergebnis der Frauen allerdings abhängig ist vom Hormonstatus des Menstruationszyklus (s. u.). Männer verfügen allgemein über ein besseres räumliches Vorstellungsvermögen und lösen leichter Aufgaben, bei denen ein Gegenstand in der Vorstellung gedreht werden muss oder die Orientierung über einen Weg verlangt wird. Offenbar gehen Männer eher „holistisch“ an visuell-räumliche Aufgaben heran. Sie schätzen eher Entfernung und Richtung ab und lassen sich von Details nicht so leicht aus dem Konzept bringen, während Frauen eher analytisch vorgehen und sich an Landmarken orientieren. (Ähnliche Unterschiede zeigen sich schon bei wenigen Monate alten Babys.) Beide Geschlechter verwenden also andere Strategien aufgrund unterschiedlicher Vernetzungen im Gehirn, um sich in ihrer Umgebung zu orientieren.

Insgesamt können Männer und Frauen, so stellten neuere Studien fest, Denkaufgaben gleich gut bewältigen, nutzen dafür aber teilweise andere Gehirnareale. Über die Ursache dafür kann man derzeit nur spekulieren.

Wirkung der Geschlechtshormone

Hormone sind maßgeblich an der Entstehung von Unterschieden im Denken und Fühlen und dem Verhalten von Männern und Frauen beteiligt. So kann der gerade vorherrschende Hormonhaushalt die neuronale Verarbeitung verändern. Beispielsweise bewältigen Frauen zu Beginn des Menstruationszyklus – also während der Periode, wenn weniger Östradiol und mehr Testosteron in ihren Gehirnen vorhanden ist – Testaufgaben besser als in der Mitte des Zyklus. Der Rückgang der visuell-räumlichen Vorstellungskraft in der Zyklusmitte hängt statistisch also vor allem eng mit hohen Östradiolwerten zusammen. Da sich bei Männern der Testosteronlevel im Herbst deutlich verändert und höher ist als im Frühling, schneiden sie in dieser Jahreszeit bei räumlichen Vorstellungs-Tests etwas besser ab als während des restlichen Jahres. Frauen finden während ihrer fruchtbaren Phase kurz vor dem Eisprung typisch männliche Gesichtsmerkmale (z. B. ein breites Kinn) besonders attraktiv. Auf Männer wiederum wirken Frauen mit einem hohen Östrogenspiegel allgemein attraktiver, weiblicher und gesünder.

Die Forscher vermuten, dass das SRY-Gen die Stressreaktion durch vermehrte Ausschüttung von Katecholaminen (z. B. Adrenalin) und die damit verbundene Erhöhung des Blutdrucks im männlichen Organismus vorbereitet, was zu einer Stimulierung der aggressiven Grundstimmung führt. Dagegen sollen Östrogene und die Ausschüttung von körpereigenen Opiaten, die eigentlich der Schmerzlinderung dienen, bei Frauen aggressive Reaktionen bremsen. Östrogen steigert offenbar die Sensibilität für das Stresshormon Cortisol, was möglicherweise dazu beiträgt, dass Frauen häufiger an Depressionen erkranken als Männer. Es macht sie ängstlicher und hindert sie daran, dominant aufzutreten. Testosteron dagegen fördert wettbewerbsorientiertes Verhalten. Daher geht es in Männergruppen oft aggressiver und kompetitiver zu und es kommt eher zur Bildung einer Hackordnung als in rein weiblichen Ensembles.

Auch bei psychischen Störungen unterscheiden sich offenbar Frauen und Männer. So stellen Männer mit einer posttraumatischen Belastungsstörung (PTBS) im Mittel 52% mehr Serotonin (ein Hormon, das die Stimmung hebt) her als Frauen, was ebenfalls miterklären könnte, warum diese eher zu Depressionen neigen. Östrogen scheint die Ausschüttung des Hormons Dopamin, das in bestimmten Schaltkreisen des Gehirns positive Gefühle vermittelt, in jenen Hirnregionen zu steigern, die für die Regulation von drogengerichtetem Verhalten bedeutsam sind. Daher erliegen Frauen leichter den Wirkungen von Drogen wie Kokain und Amphetaminen und werden gewöhnlich schneller als Männer abhängig.

Die Neurowissenschaftler sind aber noch weit davon entfernt, all die geschlechtsbezogenen anatomischen und hormonellen Unterschiede im Gehirn und ihren genauen Einfluss auf kognitive Fähigkeiten und Krankheitsanfälligkeiten zu kennen. Ihre Auswirkungen, aber auch ihre Ursachen, sind auf alle Fälle sehr komplex.

Relativität der Unterschiede

Die Tatsache, dass jemand als Mädchen oder Junge erzogen wird und oft unterschiedlichen Lernwelten ausgesetzt ist, hat biologische Auswirkungen auf das Gehirn. Bis heute gibt es allerdings keine stichhaltigen Beweise dafür, dass soziale Faktoren unsere Geschlechtsidentität im späteren Leben tiefgreifend verändern. Nach Verhaltensstudien gehen Spielzeugvorlieben von Kindern zumindest teilweise auf angeborene biologische Unterschiede zurück. Laut Melissa Hines von der University of Cambridge (England) hantieren Jungen besonders gern mit solchen Gegenständen, die rollen können oder sich anderweitig durch den Raum bewegen – wie Fahrzeuge oder Bälle. Typisches Mädchenspielzeug sei dagegen eher ortsgebunden. Vergleichbare geschlechtskonforme Vorlieben unter Menschenaffen deuten auf mögliche evolutionäre Wurzeln hin.

Aber das verhaltensbiologische Erbe wird in nahezu allen Gesellschaften heute von kulturellen Einflüssen überlagert. Manche Forscher behaupten, psychologische und soziale Faktoren beeinflussten geschlechtsspezifische Verhaltensweisen stärker als angeborene biologische Unterschiede und färbten auf die Geschlechtsidentität ab. Inwieweit menschliche Verhaltensweisen tatsächlich biologische Wurzeln haben und inwieweit sie kulturell-moralischen Normen folgen, ist oft aber schwer zu entscheiden.

Die Plastizität unseres Nervensystems machen es problematisch, von dem Männerhirn oder dem Frauenhirn zu sprechen. Studien legen zwar nahe, dass sich bestimmte Hirnregionen zwischen Männern und Frauen unterscheiden, allerdings nur im Mittel. Nach einer Studie enthielt ein Drittel der untersuchten Gehirne sowohl typisch männliche als auch typisch weibliche Anteile. Dagegen waren nur sehr wenige Gehirne ausschließlich männlich oder weiblich. Der Rest lag irgendwo dazwischen. Die Gehirne der meisten Menschen scheinen demnach Mosaike mit weiblichen und männlichen Eigenschaften zu sein. Oft fallen die Geschlechtsunterschiede im Gehirn so marginal aus, dass geschlechtsspezifische Stereotype kaum zu rechtfertigen sind.

Das biologische Geschlecht ist also selten ganz eindeutig. Die häufig gestellten Fragen nach „typisch männlich“ und „typisch weiblich“ enthalten daher schon im Ansatz typologische Vereinfachungen, indem die tatsächlich überlappende geschlechtstypische Häufigkeitsverteilung der Merkmalsausprägungen ausgeklammert wird. Daher ist es sachlich nicht gerechtfertigt, aus den Durchschnitten von Individuen „natürliche“ oder „biologisch bedingte“ Rollenvorschriften oder Gegensätze zwischen den Geschlechtern abzuleiten. Wenn den Geschlechtern traditionell verschiedene Rollen zugeordnet werden, wie etwa „die Frau ist besser geeignet für … (z. B. Erziehung der Kinder)“, „der Mann ist besser geeignet für … (z. B. Berufe mit schwerer Arbeit)“, wird also leicht übersehen, dass es die Frau und den Mann überhaupt nicht gibt.

Genau genommen gibt es daher in den Verhaltensmerkmalen keine klaren Unterschiede zwischen weiblich und männlich. Vielmehr scheinen bei den meisten Merkmalen Zwischenformen fast jeden Grades möglich. Die amerikanische Psychologin Janet Hyde formulierte die „Hypothese der Geschlechterähnlichkeit„, wonach die Übereinstimmungen der psychologischen Profile von Männern und Frauen größer sind als die Unterschiede.

Transidentität

Zwischen „männlich“ und „weiblich“ liegen also viele Übergangsstadien – und alles ist immer eine Frage der Definition. Geschlechtszugehörigkeit wird nicht allein von körperlichen Geschlechtsmerkmalen, sondern wesentlich von der subjektiven Geschlechtsidentität bestimmt. Transidente (transgeschlechtliche) Menschen empfinden das ihnen bei der Geburt zugeschriebene Geschlecht als falsch. Sie können sich mit ihrem Körper nicht identifizieren, sondern fühlen sich dem anderen Geschlecht zugehörig. Es gibt Trans* Männer (Frau-zu-Mann) und Trans*Frauen (Mann-zu-Frau). (Das Sternchen soll Raum für mögliche Identitäten lassen.)

Transident sind auch Menschen, die sich geschlechtlich nicht eindeutig verorten lassen oder nicht verorten lassen wollen. Diese sog. Transgender fühlen sich durch ihr biologisches Geschlecht unzureichend beschrieben. Manche von ihnen leben zwischen den Geschlechtern, andere beschreiben sich als „weder-noch“ oder lehnen das Zweigeschlechtersystem ganz ab. (Zu ihnen gehören auch die Intersexuellen; s. o.) Die meisten Wissenschaftler gehen davon aus, dass Transidentität angeboren ist, also biologische Ursachen hat – etwa in der vorgeburtlichen Hirnentwicklung. Da sich das Gehirn des Embryos erst in der zweiten Hälfte der Schwangerschaft formt, wenn die körperliche Ausprägung schon abgeschlossen ist, können körperliches und Gehirngeschlecht voneinander abgekoppelt sein und sich verschieden entwickeln, glaubt der Neurowissenschaftler Dick Swaab von der Universität Amsterdam. Dazu passt, dass manche Transidente schon als kleine Kinder wissen, dass sie „anders“ sind.

Auf einigen Südseeinseln ist Transsexualität voll akzeptiert. Die Betroffenen sind gesellschaftlich angesehen und arbeiten traditionell als Hebammen. Der Wunsch nach einer geschlechtsangleichenden Operation belächeln sie als „westlichen Import“. Man sieht: Toleranz entsteht aus der Akzeptanz biologischer Tatsachen.

Transsexuelle besitzen statt der für ihr Geburtsgeschlecht typischen Neuronenzahl eine, die typisch ist für das Geschlecht, dem sie sich zugehörig fühlen. Während ein Abschnitt (BSTc) des Hypothalamus (der u. a. das Sexualverhalten steuert), bei Männern etwa doppelt so groß ist wie bei Frauen, ist er bei Transsexuellen genauso ausgeprägt wie beim „gefühlten“ Geschlecht. Ein weiteres Areal des Hypothalamus (INAH-3) fällt bei Transfrauen (gefühlte Frauen mit männlichem Körper) kleiner aus als bei Männern – das Volumen entspricht jenem heterosexueller Frauen. (Ähnliches gilt für die Homosexualität: So ist z. B. bei Homosexuellen die spezielle Zellgruppe INAH-3 im Hypothalamus kleiner als bei heterogenen Männern – ungefähr so groß wie bei Frauen.) Das Gehirn Transsexueller ist wahrscheinlich auch anders verschaltet.

Vermutlich führt ein Zusammenspiel verschiedener Faktoren zur Transidentität. Denn auch frühkindliche Prägung könnte eine Rolle bei der Entstehung der Identitätsstörung spielen, z. B. der Einfluss eines sehr dominanten Elternteils. Eine übermächtige Mutter könne etwa ihren Sohn in eine weibliche Rolle drängen. Auch diskutieren Forscher seit langem , ob es nicht auch eine sog. sekundäre Transgeschlechtlichkeit gibt, die erst im Erwachsenenalter auftritt, da manche Menschen erst im Laufe ihres Lebens plötzlich ihr Geschlecht ändern wollen.

Es gibt Beispiele im Tierreich dafür, dass männliches und weibliches Verhalten in Sekundenschnelle – und ohne Mitwirkung von Sexualhormonen – an- oder ausgeknipst werden kann. Forscher fanden im Gehirn von Mäuseweibchen Neuronenschaltkreise, die das männliche Paarungsverhalten steuern. Umgekehrt wurden Netzwerke für mütterliches Verhalten auch bei männlichen Mäusen nachgewiesen. Wenn man nur den richtigen Schalter in ihrem Gehirn umlegt, können diese Netzwerke aktiviert werden. Der Schalter dafür liegt im Vomeronasalorgan, das beim Weibchen im Normalfall den männlichen, beim Männchen den weiblichen Weg blockiert. Das ist mit hoher Wahrscheinlichkeit bei allen Wirbeltieren so, vom Fisch bis zum Homo sapiens. Ziemlich sicher aber ist auch, dass bei uns der Schalter nicht durch Manipulation am Riechorgan umgelegt werden kann. Beim Menschen könnte ein visueller Schalter beteiligt sein, oder auch ein sozialer.

Der natürliche Prozess, bestimmte Einzeleigenschaften von Geschlechtern nach Bedarf in einem Lebewesen zu mischen, wird offenbar von der Anforderungen im Evolutionsprozess angestoßen. Er kann mit recht komplexen Veränderungen der Genstruktur einhergehen, die in der Folge dann die genetische Regulation verändern. (Junge Blaupunkt-Korallengrundeln, eine Fischart in Australien, besetzen einen Brutplatz und warten auf einen Partner. Dessen Geschlecht ist ihnen egal, denn sie nehmen einfach das gegenteilige an. – Beim Maulwurf sehen Tiere mit zwei X-Chromosomen zwar säugertypisch wie Weibchen aus und bekommen Nachwuchs. Sie können aber ebenso das Geschlecht wechseln oder Zwitter sein. Wie diese Vielfalt im Körper reguliert wird, ist verwirrend komplex.) Dieser Mechanismus wurde bisher womöglich unterschätzt. Es ist denkbar, dass er häufiger als gedacht hinter bislang ungelösten Rätseln phänotypischer Varianten und Anpassungen im Tierreich steckt.

Fazit

Ein feines Zusammenspiel von Genen, Hormonen und Enzymen sowie Umweltfaktoren leiten also insgesamt die geistige und psychische Entwicklung der Geschlechter. Sicher ist heute, dass vor allem frühe Einflüsse vor der Geburt, vor allem der individuelle „Hormoncocktail“ in der Gebärmutter, die Geschlechtsentwicklung mitbestimmen. Sie entscheiden oft, in welchem Grad sich männliche und weibliche Merkmale ausbilden und prägen auch die Geschlechtsidentität im späteren Leben. Schon graduelle Verschiebungen in der Hormonzusammensetzung können diese Prozesse beeinflussen. Neue Techniken der Zellbiologie und DNA-Sequenzierung verdeutlichen: Fast jeder Mensch hat sein eigenes Geschlecht. (Es findet sich sogar manchmal in Körperzellen ein Geschlecht, das nicht zum Rest des Körpers zu passen scheint.)

REM

Der Weg zu den Homininen

Es gibt keine gerade Linie vom Ursprung des Lebens bis hin zum Menschen, kein stetes Fortschreiten vom Einfachen zum Komplexen, keinen zielgerichteten Prozess. Die Evolution des Menschen ist eher eine Kette von miteinander verschränkten Ereignissen und wechselhaftem Geschehen, wobei vor allem tektonische und klimatische Einflüsse eine große Rolle spielten. Das Prinzip „Zufall“ hätte an jedem einschneidenden Ereignis dem Evolutionsgeschehen eine andere Richtung geben können.

Im Kambrium (vor 541 bis 485 Millionen Jahren) lebte das Chordatier Pikaia, ein ursprüngliches Mitglied unseres eigenen Stammes. An der Wende zum Devon wurde fast die gesamte Tierwelt dieser Zeitepoche vernichtet. Hätte Pikaia nicht überlebt (was schon relativ unwahrscheinlich war), wären wir bereits damals aus der künftigen Geschichte getilgt worden – und nicht nur wir, sondern alle Wirbeltiere: Vom Hai über Frösche, Echsen, Vögel bis zu den Primaten. Wenn wir also die ewige Frage stellen möchten, warum der Mensch existiert, muss die Antwort wissenschaftlich gesehen lauten: Weil Pikaia die erdgeschichtliche Katastrophe am Ende des Kambriums überlebte.

Und wäre es nicht vor 66 Millionen Jahren durch einen Meteoriteneinschlag zu einer erdumfassenden Katastrophe gekommen und hätte die Dinosaurier ausgelöscht, wären die Säuger möglicherweise nie aus einem Randdasein hinausgekommen, und wenn, dann unter anderen Bedingungen. Dann hätten die Saurier wohl ähnlich intelligente Arten wie den Menschen hervorgebracht.

Der kanadische Paläontologe Dale Russel hat ein „Hirnsauriermodell“ entwickelt – ein leicht makabres Wesen von menschlicher Gestalt, schlangenhaft „kalten“ Augen mit großem, nacktem Schädel, in dem ein voluminöses Gehirn bequem Platz gefunden hätte. Es ist die konsequente Weiterentwicklung des Stenorhyncho-Sauriers, eines behenden Zweibeiners, der es bei 1,75 Meter Größe auf eine große Gehirnmasse bringen konnte. (Ob er irgendwann aber Intelligenz hervorgebracht hätte wie der Mensch, ist allerdings unmöglich zu sagen. Denn Intelligenz ist nur eine Anpassung oder Überlebensmethode für eine Tiergruppe, die nicht notwendigerweise besser oder anderen Anpassungen überlegen ist.)

Wir verdanken unsere Existenz als große denkende Säugetiere also einer Abfolge von (Un)Glücksfällen, an der erdgeschichtliche Ereignisse ungerichtet und planlos mitwirkten. In gleicher Weise verdankt jeder einzelne Mensch seine persönliche Existenz geschichtlichen Zufällen.

Von den Anfängen bis zum Miozän

Wir gehören biologisch bekanntermaßen ins Reich der Tiere, in den Stamm der Wirbeltiere, der Klasse der Säuger und – zusammen mit Halbaffen, Affen und Menschenaffen – in die Ordnung der Primaten. Diese artenreiche Gruppe tauchte vor über 80 Millionen Jahren auf, nachdem die Säuger schon ihre ersten 100 Millionen Jahre, zwei Drittel ihrer gesamten bisherigen Geschichte, als kleine Geschöpfe in den Winkeln und Ritzen der Dinosaurier-Welt zugebracht hatten. Die Primaten erklommen als erste Säuger die Baumwipfel, was eine ganze Reihe anatomischer Veränderungen -vor allem der Fortbewegungsorgane (spitze Krallen, leicht abspreizbarer erster Finger) und Sinnesorgane (Augen) – sowie der geistigen Fähigkeiten erforderte. Ihr ursprüngliches Aussehen und ihre Lebensweise dürften ähnlich denen einiger heutiger Spitzhörnchen gewesen sein. Wie sehr die Umwelt Lebewesen formte und immer wieder neue, passende Fähigkeiten hervorbrachte, wird an ihrer weiteren Entwicklung deutlich.

Ohne das Massensterben vor 66 Millionen Jahren wäre die Erde wohl eine Saurierwelt geblieben, und die Säuger hätten sich wahrscheinlich nicht weiter ausbreiten können. So aber vermehrten sie sich nach der Katastrophe rasch und spalteten sich in zahlreiche unterschiedliche Arten auf, darunter einige, die größer und kräftiger wurden. Schon vor 60 Millionen Jahren zweigten bei den Primaten die Trockennasenaffen von den ursprünglicheren Feuchtnasenaffen, zu denen heute die auf Madagaskar lebenden Lemuren und die Loris gehören, ab. Immer wieder sorgten in der Folgezeit großräumige klimatische Umschwünge für einen Selektionsdruck und die Bildung neuer Arten.

Vor 55 Millionen Jahren kam es zu einer besonders heißen Phase der Erdgeschichte, in der die Temperaturen um 4 bis 5°C stiegen. Ursache für die kurzzeitige Erwärmung war wohl der Zerfall größerer Mengen Methanhydrat im Meeresboden, ausgelöst durch eine aus dem Erdinneren aufgestiegenen Blase heißer Materie unter dem Nordatlantik. Methan und sein Zerfallsprodukt Kohlenstoffdioxid gelangten in die Atmosphäre und ließen die Temperatur steigen. Die Arktis wurde damals völlig eisfrei, subtropischer Wald bedeckte den größten Teil der Landmassen. Überall zeichnete sich nun ein für jene Zeit außerordentlich dynamisches Evolutionsgeschehen ab. Viele der bis dahin dominierenden Säugetierarten verschwanden von der Erde.

In dem dreidimensionalen, vielfältigen Lebensraum im Geäst der Wälder kam es zu einer weiteren Aufspaltung der Primatenarten. Bei den Echten Affen rückten die Augen weiter nach vorn und enger zusammen, so dass binokulares, räumliche Sehen (Fernorientierung) möglich wurde. Damit verbunden war der Rückgang der Geruchsfunktion. Die akustische Kommunikation spielte jetzt eine größere Rolle. Die neue Koordination der Sinnesleistungen machte eine Umstrukturierung des Gehirns notwendig und gab den Anstoß zu einer galoppierenden Vergrößerung des Denkapparats.

Nachdem sich Südamerika und Afrika voneinander getrennt hatten, entstanden vor rund 40 Millionen Jahren in Afrika und Asien die sog. Altwelt- oder Schmalnasenaffen, in Südamerika die Neuwelt- oder Breitnasenaffen. Die Altweltaffen entwickelten flache Nägel an Fingern und Zehen und tastempfindliche Kuppen an den Fingerspitzen. Die Finger selbst waren einzeln bewegbar, und der Daumen konnte aktiv den übrigen Fingern gegenüber gestellt werden. Dadurch waren feinmotorische Greifbewegungen – für soziale Fell- und Hautpflege, für Nahrungssuche und zum Ertasten und Erkunden von Gegenständen – möglich.

Am Ende des Eozäns vor knapp 34 Millionen Jahren kam es zu einem weiteren ungewöhnlichen Klimawandel, möglicherweise ausgelöst durch einen Meteoriteneinschlag. Gleichzeitig mit dem Absinken der Temperaturen trieben die Nordkontinente auseinander. Im Zuge dieser Entwicklung veränderten sich die Lebensräume, wobei die Waldflächen schrumpften. Es ereignete sich ein mittelschweres Artensterben, das Nischen für neue Arten freimachte. Die Altweltaffen spalteten sich in Tieraffen – auch Hundsaffen oder Schwanzaffen genannt (z. B. Makaken, Paviane, Languren und Rhesusaffen) – und Menschenaffen (Hominoidae) auf. Ihre gemeinsame Basisgruppe waren vermutlich die Propliopithecidae, von deren bekanntestem Vertreter Aegyptopithecus 30 bis 45 Millionen Jahren alte Funde existieren. Der Entdeckung eines etwa 15 bis 20 Kilogramm schweren Primaten im westlichen Saudi-Arabien lässt darauf schließen, dass sich die endgültige Spaltung der Altweltaffen frühestens vor 29 Millionen Jahren vollzog – später, als sich eigentlich aus Genomanalysen ergibt.

Die Menschenaffen lebten zunächst noch primär auf Bäumen, liefen im typischen Vierfüßergang am Boden und in den Zweigen und konnten gut klettern und springen. Ihre Ernährung war breiter gefächert als heute, vorwiegend Obst, aber auch Blätter, Früchte oder Nüsse. Mit der Zeit wurden einige dieser Arten größer und schwerer. Um sich ungestört auf den Bäumen bewegen zu können, mussten sie ihr Gewicht verteilen. Die Schulterblätter spreizten sich nach außen und verbreiterten so den Körper. Die Wirbelsäule war sehr biegsam und im unteren Teil recht lang. Da sie zum Springen zu schwer waren, brauchten sie keinen Schwanz oder besonders lange Beine. Hüften, Schulter-, Hand-, und Fußgelenke waren bereits beweglicher als bei Tieraffen. Verlängerte Arme und die beweglichen Handgelenke befähigten sie, aus nahezu jedem Winkel an etwas heranzureichen, zu drehen und zu greifen. Das Ellenbogengelenk ließ sich vollständig öffnen, so dass sie an Ästen hängen konnten. Aber noch immer waren sie besser dafür gerüstet, an und auf Ästen entlang zu klettern.

Ein charakteristischer Evolutionstrend von Primaten war die zunehmende soziale Lebensweise. Soziales Leben lässt sich mit starren, angeborenen Verhaltensweisen nicht meistern, es verlangt vielmehr ein ausgeprägtes Lernvermögen. Voraussetzung dafür war die Verlängerung der Säuglingsphase und der nachfolgenden Zeit bis zum Jugendalter. In der verlängerten Jugendzeit konnten soziale Verhaltensweisen, soziale Rollen und Nahrungstraditionen der jeweiligen Primatensozietät spielend-erprobend übernommen werden. Primatentypisch innerhalb des Sozialverhaltens ist vor allem das Erkennen von Vertrautheitsgraden. Es ermöglichte das Entstehen komplexer Sozialsysteme.

Ob das Sozialgefüge oder eher eine energiereiche Ernährung für die Vergrößerung des Gehirns der Auslöser war, ist seit langem umstritten. Amerikanische Anthropologen kamen zu dem Ergebnis, dass Primaten, die sich von Früchten ernähren, im Durchschnitt ein 25% größeres Gehirn haben als Blätterfresser. Hingegen fanden die Forscher keinen Einfluss des Soziallebens auf das Hirnvolumen. Allerdings haben sich wohl komplexe Ernährungsstrategien, soziale Strukturen und kognitive Fähigkeiten in der Primatenevolution abhängig voneinander entwickelt.

Frühes und mittleres Miozän (vor 23 bis 11,6 Millionen Jahre)

Bis ins frühe Miozän war Afrika beidseits des Äquators von einem riesigen tropischen Regenwaldgürtel bedeckt. Vor etwa 21 Millionen Jahren entstand die erste einer Reihe von Landbrücken von dem damaligen Inselkontinent zur Arabischen Halbinsel. Über diese gelangten zahllose Arten afrikanischer Landtiere nach Eurasien, darunter Giraffen, Elefanten, Nagetiere, aber auch Primaten. Wahrscheinlich sind die ersten Menschenaffen vor rund 16,5 Millionen Jahren nach Eurasien gelangt, spätestens aber vor etwa 15 Millionen Jahren. Sie fanden in den immergrünen Regen- und laubabwerfenden Feuchtwäldern, die sich bis ins südliche Ostasien erstreckten, eine stabile Umwelt mit reichlich Früchten bei Temperaturen wie im tropischen Afrika. Einer der ersten, dessen Nachfahren Eurasien eroberten, war Proconsul, der bekannteste Vertreter der frühen Menschenaffen in Afrika, der vor 21 bis 14 Millionen Jahren lebte. Er hatte noch ein relativ kleines Gehirn und war in den Gelenken nicht ganz so beweglich wie die modernen Arten.

Die Evolution der europäischen Menschenaffen war ein wildes Herumprobieren: Hangeln, klettern, auf zwei oder vier Beinen gehen usw. In nur 1,5 Millionen Jahren, erdgeschichtlich ein Augenblick, entwickelten sich mindestens acht neue Formen in mindestens fünf Gattungen. Als es kälter und trockener wurde, lösten allmählich Savannen und aufgelockerte Waldgebiete die dichten Wälder ab. Früchte wurden im Winter rar. Den Fossilien zufolge hielten sich die meisten kraftvoll gebauten Menschenaffen jetzt vorwiegend am Boden auf. Wahrscheinlich erweiterten sie damit ihren Aktionsradius und konnten so unter den vorherrschenden Verhältnissen ihre Nahrungsbedürfnisse besser befriedigen. Die Tiere erschlossen sich eine Vielzahl von neuen Umwelten und Nahrungsquellen, die einem Proconsul nicht zugänglich waren. Aus Abnutzungsspuren an ihren Zähnen und dem dickeren Zahnschmelz kann man schließen, dass sie oft Knollen und Wurzeln, also eine bis dahin verschmähte Nahrung, zu sich nahmen.

Es gab eine Reihe von Skelettveränderungen. So entwickelten sich anatomische Spezialisierungen für die schwingend-kletternde Fortbewegung, die sog. Brachiation: Weniger Wirbel und eine starre Wirbelsäule, die half, den Körper aufrecht zu halten. Dazu kam ein deutlich höheres Körpergewicht, äußerst bewegliche Gliedmaßen und sehr große und kräftige Hände. Mehrere Formen experimentierten mit dem aufrechten Gang (z. B. Danuvius, Pierolapithecus).

Eurasien dürfte vor 15 bis 8 Millionen Jahren eine besondere Bedeutung für die Evolution der Menschenaffen gehabt haben. Proconsul könnte der letzte gemeinsame Vorfahr der modernen Kleinen und Großen Menschenaffen gewesen sein, die sich nach bisherigen Erkenntnissen vor 16 bis 11 Millionen Jahren trennten. Heute umfasst die Gruppe der Kleinen Menschenaffen Gibbons und Siamangs, während man Orang-Utans, Gorillas, Schimpansen und Bonobos sowie den Menschen zu den Großen Menschenaffen zählt.

Vor knapp 13 Millionen Jahren lebten in Eurasien Große Menschenaffen-Arten wie Dryopithecus (in Europa) und Sivapithecus (in Asien). Sie ernährten sich von Früchten. Ihre verkürzte Schnauze deutet darauf hin, dass für sie Sehen wichtiger war als Riechen. Der Bau der Gliedmaßen und die langen, hakenartigen Hände ähnelten schon in vielem denen moderner Menschenaffen. Zusammen mit dem kurzen, steifen Rumpf und einer geraden Wirbelsäule waren sie sehr gut zum Hangeln geeignet.

Dryopithecus besaß wahrscheinlich ein ebenso großes Gehirn wie ein gleich großer Schimpanse. Seine systematische Stellung innerhalb der Hominiden ist allerdings noch umstritten. Manche Forscher halten ihn für einen Verwandten der asiatischen Menschenaffen, andere bezeichnen ihn als den Urahn aller heutigen afrikanischen Großen Menschenaffen und damit auch des Menschen. Er lebte nachweislich noch vor 12 bis 9 Millionen Jahren. In Sivapithecus sah man lange aufgrund der überraschenden Ähnlichkeit des Schädels einen Vorfahren der modernen Orang-Utans. Der DNA nach stammen diese jedoch wohl von Pongo ab, einem Menschenaffe, der sich vor mindestens 12 Millionen Jahren von der Entwicklungslinie anderer Menschenaffen abgespalten hat.

Fossilien der Großen Menschenaffen hat man bisher nur in Eurasien gefunden. Zwar könnte es sein, dass im Miozän in Afrika und Eurasien ähnliche Arten lebten – doch das ist unwahrscheinlich. Vielmehr sahen die Menschenaffen in jener Zeit in Afrika wohl noch immer so ursprünglich aus wie im frühen Miozän. Die Großen Menschenaffen Eurasiens blieben zunächst durch die Schrumpfung ihrer Lebensräume infolge der globalen Abkühlung von Afrika abgeschnitten.

Als im Äquatorbereich Afrikas das große Regenwaldgebiet zerfiel, starb das Gros der kleinen afrikanischen Menschenaffen, die sich hauptsächlich von Früchten ernährten, bald aus. Die übrig gebliebenen Arten, die vorwiegend Blätter aßen, verschwanden später wohl aufgrund der überlegenen Konkurrenz durch die Stummelaffen, die sich just in jener Zeit entwickelt hatten. Diese konnten wegen eines anders gebauten Verdauungstrakts Blätter weit besser verdauen. Eines der letzten Tiere aus der einst großen Gruppe der relativ kleinen Menschenaffen in Afrika war der kleinste bisher bekannte Menschenaffe, Simiolus minutus (3,5 Kilogramm schwer), der im Westen Kenias lebte.

Spätes Miozän (11,6 bis 5,3 Millionen Jahren)

Im späten Miozän erfolgte ein massiver Klimaumschwung, als sich die Alpen, der Himalaja und die Gebirge Ostafrikas weiter aufschoben und sich die Meeresströmungen verlagerten. Das Klima kühlte sich weltweit ab und es wurde trockener. Einige der europäischen Linien der Menschenaffen, beispielsweise Dryopithecus oder Kenyapithecus kizili, gelangten ins tropische Afrika, von dem sie lange Zeit abgeschnitten waren. Hier waren die Umweltbedingungen ähnlich denen, an die sie sich in Europa angepasst hatten. Von diesen Arten stammen wahrscheinlich die modernen afrikanischen Großen Menschenaffen und der Mensch ab. Viele Fragen sind jedoch noch offen, denn es besteht zwischen den europäischen Vorläufern und den afrikanischen Formen geografisch wie zeitlich eine beachtliche Fossilienlücke. Man geht aber davon aus, dass sich vor etwa 10 bis 8 Millionen Jahren die Linien trennten, von denen eine zum Gorilla und die andere zum Schimpansen und Menschen führte.

Vor etwa 8 Millionen Jahren wurde das Mittelmeer vom Atlantik abgeschnitten. Durch den fehlenden Wasseraustausch mit den Weltmeeren und den abgeschnittenen Zufluss vom asiatischen Festlandsbereich verringerte sich die Wassermenge und große Mengen Salz lagerten sich im trocken fallenden Mittelmeerbecken ab („Mediterrane Salzkrise“). Diese Salzablagerung dauerte, geologisch gesehen, nur sehr kurze Zeit, vielleicht wenige 100 000 Jahre, bewirkte aber eine drastische Klimaveränderung. Die Temperatur auf der Erde sank plötzlich stark ab, um 5°C, und die polaren Eiskappen begannen sich zu bilden. In Asien entstanden die noch heute vorhandenen Monsunzyklen.

Offenbar hielten die eurasischen Großen Menschenaffen den Klimaumschwung nicht aus. Die meisten ihrer Linien starben aus. In Europa waren sie endgültig vor rund 7 Millionen Jahren verschwunden. Einige tauchten noch im Osten Eurasiens auf (wie z. B. Sivapithecus in Südostasien und Pongo). Aus ihnen gingen die Orang-Utans hervor.

In dieser Zeit begannen auch die tropischen Regenwälder Afrikas, die bis dahin von West- nach Ostafrika reichten, zu schrumpfen. In einer breiten Randzone dünnte sich der Urwald nach und nach zu einem Flickenteppich aus einzelnen Baumgruppen aus. Nun mussten die bisherigen Waldbewohner bei der Nahrungssuche zwangsläufig öfter auf den Boden, wobei die im Vorteil waren, die aufrecht gehen konnten. Jetzt trennten sich auch die Linien, die zu Schimpansen und Menschen führten.

[Bei serologischen Tests, Proteinanalysen und DNA-Untersuchungen ergibt sich jeweils eindeutig, dass afrikanische Menschenaffen und Menschen einander ähnlicher sind als beide im Vergleich mit den Orang-Utans. Daher stellen viele Systematiker schon seit einiger Zeit die afrikanischen Menschenaffen in die Familie der Hominiden (Menschenartige). Der Orang-Utan stellt danach eine eigene Familie, die der Pongide, zu der die afrikanischen Menschenaffen und der Mensch zusammen die Schwestergruppe bilden. Innerhalb der Hominiden unterscheidet man Hominine (Menschenähnliche), Panine (Schimpansenähnliche) und Gorilline (Gorillaähnliche), zu denen man auch entsprechende fossile Formen zählt. (Nach einer anderen Version ordnet man Mensch, Schimpanse und Gorilla in die Unterfamilie Hominine und die des Orang in eine parallele Unterfamilie Pongine, die gemeinsam die Familie der Hominiden bilden.)

Die genetische Verwandtschaft der afrikanischen Menschenaffen und der Menschen ist so eng, dass die Beziehungen innerhalb dieser Gruppe von vielen molekularbiologischen Untersuchungen zunächst nicht eindeutig zu klären waren. Ungefähr 97% der Gene haben sie gemeinsam. Dabei beträgt die genetische Distanz zwischen Mensch und Schimpanse 1,6%, zwischen Mensch und Gorilla sowie zwischen Schimpanse und Gorilla aber 2,3%. Schimpanse und Mensch bilden demnach eine evolutionäre Schwestergruppe zum Gorilla.]

Der letzte gemeinsame Vorfahre von ihnen lebte nach heutiger Kenntnis vor höchstens 8 bis mindestens 5 Millionen Jahren. Genauer lässt sich das noch nicht abschätzen. Die Wissenschaftler vermuten, dass es ein schimpansenähnlicher Waldbewohner war, der auf dem Boden lief, aber auch im Geäst kletterte, und sich hauptsächlich von Früchten ernährte, aber auch kleinere Tiere tötete und verzehrte. Er benutzte hin und wieder Werkzeuge und lebte in komplexen, dynamischen Horden – wie Schimpansen und Menschen heute.

Manche denken, dass er im Knöchelgang lief wie heutige Schimpansen und Gorillas. Dabei stützen sich die Tiere auf die mittleren Fingerglieder. Entsprechend ist die Form der Handwurzelknochen an diese Fortbewegungsweise angepasst. Beim Menschen findet sich aber kein Hinweis auf eine Abstammung von Knöchelgängern. Daher könnte der Knöchelgang der Schimpansen erst jüngeren Datums sein und scheint, wie auch die langen Finger und der kurze Daumen, eine moderne Anpassung an das Leben in Bäumen darzustellen. Die baumbewohnende Lebensweise wäre demnach ein Sonderweg unter den afrikanischen Hominiden, der erst nach der Trennung von der Menschenlinie eingeschlagen wurde und die Veränderung der Hand nach sich zog. In der Hand des modernen Menschen seien dagegen viele archaische Merkmale konserviert; sie würde also eher der von den ursprünglichen Vorfahren ähneln. Ardipithecus ramidus, ein 4,4 Millionen Jahre alter ausgestorbener Seitenzweig in der Menschheitsentwicklung aus Äthiopien, scheint dem gemeinsamen Urahnen von Schimpansen und Menschen anatomisch am nächsten zu stehen.

Die ersten Homininen

Es scheint zum jetzigen Zeitpunkt wahrscheinlich, dass die östliche Mittelmeerregion (Nordafrika oder Südeuropa), genauso wie das tropische Afrika (ein breiter Gürtel, der das ostafrikanische Rifttal ebenso einschließt wie die Tschadsenke) für den Ursprung der Homininen in Betracht gezogen werden müssen. Über den genauen Verlauf ihrer Entstehung und Entwicklung haben wir keine genaue Kenntnis, da Fossilien von frühen Homininen und auch den übrigen Menschenaffen aus der Zeit von vor 8 bis 5 Millionen Jahre nur sehr spärlich sind. Einig ist sich die Wissenschaft, dass der Großteil der Evolution der Homininen auf jeden Fall in Afrika stattgefunden hat.

Die ältesten homininen Vorfahren haben wahrscheinlich das Klettern und den Aufrechtgang bevorzugt. Beim Stemmgreifklettern werden die gleichen Muskeln aktiviert wie beim Gehen. Beide Fortbewegungsarten existierten auch bei den späteren Australopithecinen noch nebeneinander. Bei solchen Mehrfachfunktionen kann durch Selektion eine der Funktionen mit der Zeit bevorzugt werden, die andere kann weniger Bedeutung erhalten oder ganz wegfallen. Das ermöglicht einen langsamen Wandel im Körperbau, ohne dass alle Teile gleichzeitig erfasst werden. So veränderten sich auf dem Weg zum ausdauernden Aufrechtgang tatsächlich auch zuerst Becken und Beine und erst später Schultergürtel und Brustkorb.

Ein sehr früher und der derzeit mutmaßlich älteste Vertreter unter den homininen Ahnen des Menschen könnte der Sahelanthropus gewesen sein, der vor 7,2 bis 6,8 Millionen Jahren im heutigen Tschad lebte. Zumindest stand dieser Primat hautnah an dem Zeitpunkt, als die Menschen- und Schimpansenlinie sich trennten. Er scheint manche Merkmale aufzuweisen, die unser letzter gemeinsamer Vorfahre noch nicht besessen haben dürfte. So hatte er schon einen flachen Gesichtsschädel, der auch einem nur 1,7 Millionen Jahre alten Australopithecus gehören könnte, recht kleine Eckzähne und dicken Schmelz auf den Backenzähnen. Aber er hatte auch noch gewaltige Augenwülste und einen winzigen Hinterkopf, was mehr an einen Schimpansen erinnert.

Die Wissenschaftler nehmen eine frühe Radiation der Homininen in zahlreiche verschiedene Arten an. Das Klima dürfte dabei weiterhin zu den wichtigsten Einflussfaktoren gehört haben. Neben häufigen kurzfristigen Klimawechseln, in denen sich die Lebensräume wandelten, gab es auf dem Weg zum Menschen noch mindestens drei große Klimaveränderungen. Diese Ereignisse erhöhten den Selektionsdruck und dürften sich auf die Homininen vielfältig ausgewirkt haben. Ein bestimmter Körperbau, eine Ernährungsweise oder Art der Fortbewegung, die zu einer Zeit und in einem bestimmten Lebensraum gut passten, waren zu einer anderen Zeit weniger ideal. Die Entwicklung schritt also nicht gleichmäßig in derselben Richtung voran, sondern eher mal hierhin, mal dorthin. Bestimmte Merkmale entwickelten sich auch mehrfach in isolierten Habitaten unabhängig voneinander.

So ist offenbar eine große Diversität unter den Homininen entstanden, wobei jede Art oder Gruppe jeweils ein Mosaik aus ursprünglichen und abgeleiteten Merkmalen besaß. Vielerorts vermischten sich die aufrecht gehende Vormenschen-Varianten von Zeit zu Zeit wieder miteinander und zeugten vielgestaltige Nachkommen, von denen eine große Zahl ausstarb, andere aber überlebten und schließlich den Menschen hervorbrachten.

REM