Theogenese

Vorbemerkung

Der folgende Text entstand im Jahr 1995 im Rahmen eines geplanten, später aber eingestellten Buchprojekts. Nachdem ich in den seither vergangenen 20 Jahren auf nichts gestoßen bin, was das vorgestellte Szenario widerlegen konnte und die Entwicklung sogar einen beträchtlichen Schritt in die vorhergesagte Richtung machte, habe ich mich entschlossen, diesen Text mit kleinen Korrekturen und Anmerkungen zu versehen und ins Web zu stellen. Auch wenn ich heute anders argumentieren würde und in meinem Artikel "Die Zukunft der Raumfahrt" jeden Bezug auf Religion vermieden habe und mich auf gesicherte wissenschaftliche Erkenntnisse und in den nächsten 100 Jahren realisierbare Technologien beschränkt habe, halte ich das Folgende aber immer noch für einen interessanten Ansatz, der letztlich zum selben Ergebnis führt.


Inhalt

1. Einführung 

2. Die Zukunft der Menschheit
Was würde aus der Menschheit werden, wenn die Entwicklung nicht gestört wird, weder durch Eingriffe von außen, wie einem Gott oder außerirdischen Wesen, noch durch vernichtende Katastrophen natürlichen oder menschlichen Ursprungs?
Unsterblichkeit in virtuellen Welten
Das globale Überbewußtsein
Der Weg zu den Sternen

3. Die Ersten
Was wäre, wenn wir nicht die ersten intelligenten Wesen im Universum wären, wenn andere Wesen schon vor langer Zeit eine ähnliche Entwicklung wie die Menschheit gehabt hätten und die kritischen Phasen ihrer Geschichte überlebt hätten?
Die erste Zivilisation
Expansion und Vereinigung
Gott
Begegnung mit anderem Leben
Rettung der Seelen

4. Leben nach dem Tod
Menschen, die dem Tod sehr nahe waren, berichten vom erstaunlichen Erfahrungen. Was kann man daraus lernen und wie passen diese Erfahrungen in das hier entworfene Bild?
Nahtoderfahrungen
Der Geistkörper
Das Lichtwesen
Der Lebensfilm
Die Folgen
Versuch einer Interpretation
Lebensfilm - Reintegration des Geistes?

5. Religion
Wie fügen sich die Religionen, insbesondere die christlichen, in das Bild der Theogenese? Inwieweit können die Aussagen und Wahrheiten des Christentums das Modell widerspruchsfrei ergänzen und erweitern?
Ursprung der Religionen
Alternativen zur Theogenese
Das Theodizee-Problem
UFOs, Engel und Dämonen
Jesus Christus
Die Offenbarung

6. Die Entstehung des Lebens
Wie konnte das Leben aus unbelebter Materie entstehen und sich zur heutigen Vielfalt entwickeln?
Spontane Synthese organischer Stoffe
Ursuppe und Koazervate
Selbstreplikation durch RNA
Die Vorstufe zur Zelle
Mutation und Selektion
Arbeitsteilung durch DNA
Der universelle genetische Code
Die Bakterien
Eukaryoten
Vielzeller
Leben im Universum

7. Der Anfang des Universums
Was wissen wir über den Anfang des Universums?
Spekulationen
Chronologischer Ablauf des Urknalls
Epilog



1. Einführung

Heute werden große Anstrengungen unternommen, um die Entstehung des Universums zu erklären und eine Theorie zu finden, die alle Erscheinungen des Universums unter einen Hut bringen kann und die letztlich erklären kann, warum das Universum gerade so ist wie es ist. So interessant diese Fragen auch sein mögen, für die meisten Menschen erscheinen andere Fragen weit dringlicher. Das sind Fragen, die jeden Menschen unmittelbar betreffen, die unausweichlich auf jeden Menschen zukommen. Jeder Mensch stellt sich die Frage, was nach seinem Tod mit ihm geschieht. Wird sein Bewußtsein einfach für immer ausgelöscht, oder gibt es irgend eine Form des Weiterlebens? Wenn es ein Weiterleben gibt, wie sieht es aus, wie kann es zustande kommen? Nach unseren wissenschaftlichen Erkenntnissen scheint es keinerlei physikalischen Grundlagen für ein solches Leben nach dem Tod geben. Spätestens hier kommt nun Gott ins Spiel, der eine Möglichkeit dafür schaffen könnte. Existiert Gott nun oder existiert er nicht? Die Antwort auf diese Frage hat allerdings nicht nur am Lebensende ei­ne große Bedeutung. Auch mitten im Leben wäre es sicher wichtig zu wissen, ob man denn mit einem Gott rechnen kann.

War früher ein Gott unverzichtbar zur Erklärung des Existierenden, so wird heute die Notwendigkeit Gottes als Schöpfer immer weiter zurückgedrängt. Nachdem man die Entstehung von Sternen und Planeten erklären kann, für die Entstehung des Lebens und die Weiterentwicklung bis zum Menschen eine allgemein akzeptierte Theorie hat, bleibt als Aufgabe Gottes letztlich nur noch die Erschaffung des Universums selbst, also das Auslösen des Urknalls. Doch scheint es nun sogar Anhaltspunkte dafür zu geben, daß das Universum ohne fremde Hilfe spontan aus dem Nichts entstehen konnte.
Angenommen, die Physiker finden nun die gesuchte Theorie von Allem und können damit die Entstehung des Universums aus dem Nichts und seine Weiterentwicklung bis zum heutigen Zustand restlos erklären, heißt das dann, daß es keinen Gott gibt? So paradox es zunächst scheinen mag, gerade aus der Tatsache, daß die Existenz Gottes nicht nötig ist für die Entstehung der Welt, läßt sich schlußfolgern, daß es einen Gott geben muß. Als Zugabe erhält man sogar eine Erklärung für die Entstehung Gottes und gewinnt einen Ansatzpunkt, das Wesen Gottes genauer zu erforschen. Der Ursprung eines Gottes, der das Universum geschaffen hätte, wäre dagegen ab­solut unerklärlich. Der Ansatzpunkt für diese Schlußfolgerung ist folgernder: Ein Universum, daß aus dem Nichts entstehen konnte und ein Wesen wie den Menschen hervorbringen konnte, ist mit hoher Wahrscheinlichkeit auch in der Lage, irgend wann einen Gott hervorzubringen. In diesem Buch will ich eine mögliche Entwicklung beschreiben, die zu einem Gott führt, und will zeigen, daß eine derartige Entwicklung mit großer Wahrscheinlichkeit bereits stattgefunden hat, bevor des den Menschen gab.
Den Schlüssel zur Lösung vieler Fragen erhält man nämlich, wenn man sich Gott nicht als ein zeitloses Wesen ohne einen Anfang vorstellt, sondern als jemand, der irgendwann in einem nachvollziehbaren Prozeß entstanden ist und sich seitdem zu dem entwickelt hat, was er heute ist. Die Theorie, die ich hier entwickeln werde, kann man daher mit dem Wort Theogenese zusammenfassen, was aus dem Griechischen abgeleitet ist von den Wörtern theos, "Gott" und genese, "Entstehung" oder "Entwicklung".

Zunächst sei einmal in groben Zügen die Vorgehensweise zur Entwicklung dieser Theorie dargestellt, gleichzei­tig soll auch eine Übersicht über den Inhalt dieses Buches gegeben werden.
Zuerst werde ich der Frage nachgehen, was wohl aus der Menschheit werden würde, wenn die Entwicklung nicht gestört wird, weder durch Eingriffe von außen, wie durch einen Gott oder ein außerirdisches Wesen, noch durch vernichtende Katastrophen natürlichen oder menschlichen Ursprungs.
Ich werde zeigen, wie der Mensch in den nächsten hundert Jahren eine Art relative Unsterblichkeit innerhalb virtueller, vom Computer erschaffenen Welten erlangen kann. Dabei muß die Verschaltung aller Neuronen im Gehirn eines gerade Verstorbenen und die darin gespeicherte Information vollständig analysiert und in einen entsprechend leistungsfähigen Computer übertragen werden. Dies wird aufgrund des enormen Aufwands zunächst nur einigen wenigen zugänglich sein, aufgrund sinkender Kosten im Laufe der Zeit aber immer mehr Verbreitung finden. Die Entwicklung des Gehirns entkoppelt sich von der langsamen biologischen Evolution und läuft nun mit der exponentiellen Geschwindigkeit der technologischen Entwicklung ab. Beide Entwicklungen, die der Technologie und die des Gehirns beschleunigen sich nun gegenseitig,. Wo hierbei die Grenzen liegen, ist noch nicht abzusehen.
Die globale Vernetzung aller Computer erlaubt auch eine Kommunikation mit anderen körperlosen Menschen direkt auf Gedankenebene. Bei intensiver Kommunikation kommt es zu einer teilweisen Verschmelzung von Persönlichkeiten. Aus zunächst kleinen Gemeinschaften entsteht irgendwann durch Zusammenschluß des größten Teils der Menschheit ein globales Überbewußtsein, das die geistigen Fähigkeiten der ganzen Menschheit in sich vereint.

Parallel zu dieser Entwicklung werden Kolonien im Weltraum entstehen. Wenn kein biologisches Leben mehr transportiert werden muß, werden Raummissionen wesentlich kostengünstiger, und auch sehr lange Reisen, etwa zu anderen Sternen, werden möglich. Menschen, die nur noch aus reiner Information bestehen, können zudem mit Lichtgeschwindigkeit reisen, vorausgesetzt es gibt am Zielort bereits einen Empfänger. Ein Risiko bestände dabei nicht, von Information kann man Sicherheitskopien anfertigen, so daß eine mißglückte Übertragung beliebig oft wiederholt werden kann. Durch Weiterentwicklung der Antriebs- und Übertragungstechnik wird die Ausbreitung des Menschen im Weltraum beschleunigt. Durch Übertragung von genetischem Code kann auch biologisches Leben auf dafür geeigneten Planeten angesiedelt werden. In einigen Millionen Jahren könnte bereits unsere ganze Galaxis kolonisiert sein, in einer Milliarde Jahren sogar ein großer Teil aller Galaxien in unserer Nachbarschaft.
Dies wäre wahrscheinlich unsere Zukunft unter der Voraussetzung, daß unsere Entwicklung nicht gestört wird. Vermutlich werden wir aber bereits sehr früh auf andere Wesen treffen, die bereits eine ähnliche Entwicklung durchlaufen haben und darin schon viel weiter fortgeschritten sind.

Mit solchen Wesen werde ich mich im dritten Kapitel beschäftigen. Dabei soll es um die Frage gehen, was wohl wäre, wenn wir nicht die ersten intelligenten Wesen im Universum wären, wenn andere Wesen schon vor langer Zeit eine ähnliche Entwicklung wie die Menschheit gehabt hätten und die kritischen Phasen ihrer Geschichte überlebt hätten. So könnte schon fünf, sechs Milliarden Jahre nach dem Urknall, also vor etwa zehn Milliarden Jahren die erste intelligente Lebensform aufgetreten sein. Man könnte diese Wesen die Ersten oder die Alten nennen. Ich werde den hypothetischen Planeten, auf dem diese Wesen entstanden sind, einfach "Archan" nennen, so daß man seine Bewohner auch als "Archaner" bezeichnen kann. Im Folgenden werde ich die Begriffe Archaner und die Ersten als Synonyme verwenden.
Die Archaner hätten nun eine ähnliche Entwicklung gehabt wie die Menschheit. Was ich im zweiten Kapitel für die Zukunft der Menschheit gesagt habe, wäre für die Ersten uralte Geschichte. Die Voraussetzung, daß es keine Störung von außen gibt, wäre bei den Archanern erfüllt, schließlich wären sie ja per Definition die Ersten, und es gab noch niemanden, der sie aufhalten konnte.
Die Gemeinschaft der Archaner entwickelte ein Überbewußtsein und schließlich verschmolzen die Archaner zu einem äußerst mächtigen Überwesen. Der Charakter dieses Wesens kann man aus der Gesetzmäßigkeit seines Entstehens herleiten. Er ist geprägt von Liebe, Güte und Toleranz. Archaner mit gegensätzlichem Charakter konnten nicht in die Gemeinschaft integriert werden und blieben als Einzelgänger stets relativ schwach.
Die Ausbreitung dieses Superwesens im Universum war wahrscheinlich stets durch die Lichtgeschwindigkeit be­grenzt. Daher konnten sich an verschiedenen Stellen des Universums unabhängig voneinander ähnliche Entwicklungen vollziehen. Sind bei der Expansion zwei Superwesen aufeinander getroffen, so konnten diese wegen ihrer Seelenverwandtschaft im Laufe der Jahrmillionen miteinander verschmelzen. So wären irgendwann alle Lücken im Universum geschlossen worden. Das gesamte Universum ist nun erfüllt mit einem unvorstellbar komplexen Geistwesen, das das Wissen des ganzen Universum in sich trägt. Dieses Wissen, die enorme Intelligenz und eine Technologie, die der unseren um Milliarden Jahre voraus ist, bilden die Grundlage einer unvorstellbar großen Macht.
Natürlich kam es auch immer wieder zu Begegnungen mit primitiveren Arten. Mit ihrer beschränkten Intelligenz konnten sie unmöglich die wahre Größe und Macht des kosmischen Geistes erkennen. Eine kleine, für ihn unbedeutende Demonstration seiner Fähigkeiten würde ausreichen und er wäre für sie der allmächtige Gott. Doch mit göttlichen Machtdemonstrationen würde er eher sparsam umgehen. Schließlich will er die Eingeborenen nicht beherrschen und ihnen so die Chance auf eine eigene Entwicklung nehmen. Er will ihnen helfen, sie aber nicht ih­rer Identität berauben. Er tut das, was mit Sicherheit keinen Schaden anrichten kann, für den einzelnen aber das größte Geschenk überhaupt ist: Er rettet beim Eintritt des Todes ihre Seelen und ermöglicht ihnen so ein Weiterleben in einer anderen paradiesischen Welt. Solange diese Geretteten nur streng von den Lebenden getrennt werden, muß dieser Eingriff für eine Gesellschaft folgenlos bleiben.
Dennoch scheint etwas Information über ein Leben nach dem Tod zu den Lebenden durchzusickern. Das mag durchaus beabsichtigt sein, schließlich ist es eine Quelle von Hoffnung und Trost und ein Ansporn, ein guter Mensch zu sein.
Um diese Hinweise auf ein Leben nach dem Tod wird es im vierten Kapitel gehen. Menschen, die dem Tod sehr nahe waren, berichten von erstaunlichen Erfahrungen. Ich werde den grundsätzlichen Ablauf solcher Erfahrungen darstellen, der in ähnlicher Form immer wieder auftritt. Dabei soll untersucht werden, was wir daraus lernen können und wie diese Erfahrungen in das Bild der Theogenese passen. Schließlich wird der Versuch einer Interpretation einzelner Elemente einer Nahtoderfahrung gemacht.

Solche Hinweise auf ein Leben nach dem Tod können auch zur Entstehung von Religionen beigetragen haben, um die es im fünften Kapitel gehen soll. Zwar kann man die Entstehung von Religionen auch auf natürliche Weise erklären, dennoch könnte die Richtung, die ihre Entwicklung genommen hat, nicht immer dem Zufall überlassen worden sein.
Die Alternativen zur Theogenese werden untersucht und deren Schwachpunkte aufgezeigt. Es wird auch verdeutlicht, daß die Theogenese durchaus imstande ist, auch schwierige theologische Probleme zu lösen, wie das Theodizee-Problem, bei dem es um den Widerspruch zwischen der Güte Gottes und dem Leid in der Welt geht.
Abgesehen von gewissen, eher willkürlich eingeführten Dogmen und Idealvorstellungen ist die Theogenese ganz gut mit den Religionen vereinbar, wobei ich besonderes Augenmerk auf die christlichen Religionen lege. Die Existenz von Engeln und Dämonen und nebenbei auch von UFOs ließe sich problemlos erklären. Zudem können die Aussagen und Wahrheiten des Christentums das Modell widerspruchsfrei ergänzen und erweitern. So wird dann auch ersichtlich, welche Bedeutung Jesus Christus für die Menschen hat, und wie er in das Bild einzuordnen ist.

Gewisse Fragen sind aber noch offen geblieben. Daher soll im sechsten Kapitel die Frage behandelt werden, wie das Leben aus unbelebter Materie entstehen und sich zur heutigen Vielfalt entwickeln konnte. Dabei wird gezeigt, wie sich in der Ursuppe durch spontane Synthese organischer Stoffe bilden konnte und wie mit der RNA die Fähigkeit zur Selbstreplikation entstand.
Aus Zusammenballungen von organischen Substanzen entstand eine Vorstufe zur Zelle, die sich durch Mutation und Selektion weiter entwickelte. Die Entstehung der DNA erlaubte eine Art Arbeitsteilung. Schließlich entstand der noch heute gültige sogenannte universelle genetische Code. Die erfolgreichsten frühen Lebensformen waren die Bakterien, die später in ihrer Vorrangstellung von den Eukaryoten abgelöst wurden. Aus diesen entstanden schließlich Vielzeller, und letztlich auch der Mensch. Zuletzt wird noch untersucht, welche Schlüsse sich daraus auf das Leben im Universum allgemein ziehen lassen.

Das siebte und letzte Kapitel könnte von der chronologischen Reihenfolge her auch ganz am Anfang stehen, denn es geht um den Anfang des Universums selbst. Wegen der Schwierigkeit des Themas und den vielen noch ungelösten Problemen will ich mich diesem Thema aber erst zum Schluß widmen. Ich habe hier zusammengetra­gen, was unsere Wissenschaft über das früheste Stadium unseres Universum weiß. Der Anfang selbst ist allerdings sehr spekulativ. Dasselbe gilt demnach auch für meine eigenen Gedanken, die ich zu diesem Thema habe. Dennoch wäre das Bild ohne diese Betrachtung nicht komplett. Solange man einen Gott hat, des das Universum geschaffen hat, muß man den Anfang selbst nicht weiter erklären. Wenn Gott aber erst Milliarden Jahre nach dem Anfang entstanden ist, kommt man nicht umhin, sich um den Anfang selbst Gedanken zu machen. Und ich denke, es gibt hier recht interessante Ansätze, um auch eine spontane Entstehung aus dem Nichts erklären zu können.

Die Kernaussagen der Theogenese und dieses Buchs sind in Abb. 1.1 grafisch dargestellt. Hier kommt die Beziehung zwischen dem Universum, dem Leben und Gott zum Ausdruck. Außerdem wird hier ersichtlich, welchen Platz der Mensch in diesem Bild einnimmt.


Abb. 1.1   Schematische Darstellung der Theogenese, sie veranschaulicht die Beziehungen zwischen Universum, Leben, Mensch und Gott.



2. Die Zukunft der Menschheit

Wenn wir die wissenschaftlich-technische Entwicklung der menschlichen Zivilisation während der letzten tausend Jahren betrachten, so sehen wir, daß die Menschheit in dieser Zeit eine Entwicklung gemacht hat, die mit den tausend Jahren davor überhaupt nicht zu vergleichen ist. Dabei war die Entwicklung nicht gleichmäßig über die gesamte Zeit verteilt. Im Gegenteil, je näher wir an das Heute herankommen, um so schneller verläuft die Entwicklung.
Während der ersten Hälfte dieses Jahrtausends hat sich fast gar nichts bewegt. Auf das Gebiet der Naturwissenschaften hatte sicherlich auch die Kirche einen gewissen lähmenden Einfluß, denn sie duldete keinerlei Abweichung von ihren festgefügten Dogmen. Andererseits trug die Kirche auch zur Erhaltung und Verbreitung von Wissen bei, denn gerade in den Klöstern wurden in mühevoller Handarbeit alte Bücher und Schriften kopiert.
Das änderte sich erst, als 1440 Johannes Gutenberg den Buchdruck erfand. Nun erst konnten Bücher eine größere Verbreitung finden, das war ein entscheidender Schritt zur Verbreitung von Wissen und zur Weiterentwicklung der Wissenschaft.

In der Mitte des Jahrtausend nahm denn auch das Tempo der Entwicklung deutlich zu. So wollte Christoph Kolumbus die Erkenntnis, daß die Erde eine Kugel ist, dazu nutzen, einen Seeweg nach Indien zu finden. 1498 entdeckte er dabei Amerika.
1517 bot Martin Luther der Kirche die Stirn und leitete so die Reformation ein.
Der deutsche Astronom Nikolaus Kopernikus (1473-1543) fand 1514 heraus, daß die Erde um die Sonne kreist und nicht umgekehrt, wie das Ptolemäische Weltsystem es darstellt. Vermutlich aus Angst vor der Kirche veröffentlichte er seine Schriften aber anonym.

Der italienische Naturforscher Galileo Galilei (1564-1642) glaubte nach seiner Entdeckung der Jupitermonde 1609 genug Beweise für das kopernikanische Weltbild gefunden zu haben und veröffentlichte seine Erkenntnisse. Dadurch bekam er aber großen Ärger mit der katholischen Kirche, die hier einen Widerspruch zur Bibel sah. Er argumentierte zwar, es liege nicht in der Absicht der Bibel, uns über wissenschaftliche Theorien zu unterrichten. Man könne doch davon ausgehen, daß die Bibel dort, wo sie dem gesunden Menschenverstand widerspreche, al­legorisch zu verstehen sei. Doch es half nichts, man erklärte die Kopernikanische Lehre für falsch und irrig und zwang Galileo schließlich, davon abzuschwören.

Doch nicht einmal die Kirche konnte nun noch die weitere Entwicklung aufhalten. Der deutsche Astronom und Mathematiker Johannes Kepler (1571-1630), Erfinder des sog. Keplerschen Fernrohrs, fand schließlich die Grundgesetze der elliptischen Planetenbahnen, die drei Keplerschen Gesetze. Den physikalische Grund für diese Gesetze entdeckte aber erst der englische Physiker und Mathematiker Isaac Newton (1643-1727), als er unter anderem das Gravitationsgesetz fand. Übrigens baute er auch 1671 das erste Spiegelteleskop.

1765 baute der englische Ingenieur James Watt die erste brauchbare Dampfmaschine und schuf so eine Quelle mechanischer Energie für die Industrielle Revolution, die 1785 in England begann und sich schnell in Europa und den USA ausbreitete.
Der italienische Physiker Alessandro Graf von Volta (1745 bis 1827) schuf die erste brauchbare Stromquelle (Voltasche Säule) und machte so die Elektrizität für den Menschen nutzbar.
Weite Verbreitung fand die Elektrizität, als der amerikanische Erfinder Thomas Alva Edison 1879 die Glühlampe erfand. Zur Versorgung der nun möglichen elektrischen Straßenbeleuchtung baute er in New York auch noch das erste Elektrizitätswerk.

Heinrich Rudolf Hertz entdeckte 1888 die von Maxwell (1831-1879) vorausgesagten elektromagnetischen Wellen und legte so die Grundlagen für die Funktechnik. Diese konnte sich aber erst entwickeln, als elektroni­sche Verstärker möglich waren.
Die Glühlampe mutierte durch Einbringen von zusätzlichen Elektroden zur Elektronenröhre. Mit ihrer Erfindung 1907 begann die Entwicklung der Elektronik. Die Elektronenröhre diente als Verstärker von elektronischen Signalen und als schneller elektronischer Schalter. Sie ermöglichte eine Vielzahl neuer Anwendungen, am meisten profitierte zunächst die von Hertz begründete Funktechnik.

Den auf Halbleitern wie Silizium oder Germanium basierenden Transistor gibt seit 1948. Er war allerdings noch recht teuer und verdrängte die Elektronenröhre erst nach 1970 fast vollständig. Um 1960 gelang es, mehrere Transistoren zusammen mit anderen elektronischen Bauelementen auf einem Chip zu integrieren. Die ersten integrierten Schaltkreise (IC) entstanden. Das war der Startschuß für die Mikroelektronik.

Natürlich gab es in dieser Zeit auch andere bedeutende Entwicklungen und Entdeckungen. So entwickelte Albert Einstein (1879-1955) von 1905 bis 1916 seine Relativitätstheorie. Zusammen mit Max Planck (1858-1947), Niels Bohr (1885-1962), Werner Heisenberg (1901-1976) und anderen Physikern schuf er auch die Grundlagen der Quantentheorie. 1938 entdeckte Otto Hahn die Kernspaltung, was dann zum Beginn des Atomzeitalters führte.
Während des zweiten Weltkriegs schufen Hermann Oberth und Wernher von Braun die Grundlagen der Raketentechnik, die zwei Jahrzehnte später zur bemannten Weltraumfahrt führte.

Der erste funktionsfähige programmgesteuerte Computer wurde 1941 von dem deutschen Ingenieur Konrad Zuse gebaut, 1944 begann die Entwicklung des Computers auch in den USA. Waren die Schaltelemente des ersten Computers noch Relais, so wurden sie bald von der wesentlich schnelleren Elektronenröhre abgelöst. Dennoch erreichten die damaligen Computer nicht einmal die Leistung eines heutigen programmierbaren Taschenrechners, dabei waren sie tonnenschwer, füllten ganze Räume, verbrauchten sehr viel Energie und waren extrem fehleran­fällig. Deutliche Verbesserung brachte der Transistor, doch erst seine Integration in integrierte Schaltkreise erlaubte eine immer weitere Miniaturisierung bei steigernder Leistung und sinkenden Kosten. 1986 wurden mit dem 1-Megabit-Chip bereits Schaltkreise produziert, die über eine Million Transistoren auf einem 0,5 Quadratzentimeter großen Siliziumplättchen integriert hatten. Heute, 1995, werden 64-Megabit-Chips produziert, von 256-Megabit-Chips existieren schon Prototypen. (Anmerkung: Zumindest bis 2015 hat sich diese Entwicklung fortgesetzt, die sehr schnellen GDDR5-Chips fassen aktuell 8 Gigabit, beim langsameren, aber nichtflüchtigen Flashspeicher sind 128 Gigabit pro Chip Stand der Technik.)

Aus dieser kurzen Übersicht, die natürlich längst nicht vollständig ist, wird ersichtlich, wie sehr sich die Entwicklung in diesem Jahrtausend beschleunigt hat. Konnte anfangs ein ganzes Menschenalter vergehen, ohne daß irgend etwas erfunden, entdeckt oder auch nur verbessert wurde, vergeht heute kaum mehr ein Tag ohne eine neue Entdeckung oder Erfindung. Es scheint so, als ob sich die Geschwindigkeit der Entwicklung mit der Zeit ständig erhöht. Ein naheliegender Grund dafür ist, daß sich die Ergebnisse der Entwicklung gegenseitig befruch­ten, eine Entwicklung aus einem bestimmten Gebiet kann die Entwicklung in einem anderen Gebiet stark be­schleunigen oder erst ermöglichen. Was hätte man mit den von Hertz entdeckten Funkwellen anfangen können, wenn es keinen elektrischen Strom gegeben hätte und so Edison keine Glühbirne erfinden konnte, aus der sich ei­ne Elektronenröhre hätte entwickeln können. Computer wären allenfalls mit einem aufwendigen mechanischen Werk voller Zahnräder und Hebel möglich, eine Leistungssteigerung wäre zwar auch hier noch denkbar, doch längst nicht in dem heutigen Tempo. Und denken wir, wie gerade der Computer die Entwicklung in den verschie­densten Bereichen vorantreiben kann.

Man sagt, das Wissen der Menschheit verdoppelt sich alle zwei Jahre. Ich weiß nicht, ob das stimmt, denn wie soll man Wissen messen. Die Menge an gespeicherten Daten muß ja nicht gleichbedeutend sein mit dem Maß an Wissen. Doch wenn das wirklich zutrifft, dann würde das ein exponentielles Wachstum bedeuten. Das Kennzeichen eines exponentiellen Wachstums ist, daß sich der Wert in immer gleichen Zeitabschnitten verdop­pelt.
Doch schauen wir einmal den Anfang dieses Jahrtausends an. Hier kann niemand behaupten, das sich das Wissen alle zwei Jahre verdoppelt hätte. Ich vermute eher, daß sich das Wissen während den ersten 500 Jahren nicht ein einziges Mal verdoppelt hat. Nach 1500 hat sich das Wissen durchaus verdoppelt, aber sicher noch nicht alle zwei Jahre. Will man hier ein Wachstumsgesetz finden, das auch über größere Zeiträume gültig ist, so bräuchte man eine Kurve, anfangs flacher, aber später noch steiler als eine Exponentialkurve wird! Die Zeiträume, in denen eine Verdopplung stattfindet, müßten mit der Zeit immer kürzer werden.
Nun kann man das Wissen selbst, wie gesagt, schlecht messen. Wenden wir uns daher einer Entwicklung zu, wo Zahlen sowieso eine wichtige Rolle spielen.

Eine der Entwicklungen, die unsere Zukunft entscheidend bestimmen wird, ist mit Sicherheit die Computertechnik. Hier sind die Fortschritte am deutlichsten sichtbar. Jeder Besitzer eines PCs kann ein Lied davon singen. Hat er gerade für teures Geld eine neue Hardware gekauft, das beste Modell, der letzte Stand der Technik, so kommen kurz darauf die Preise ins Rutschen, neue Modelle kommen auf den Markt, mit einer neuen Technologie, die noch mehr Leistung verspricht und ganz neue Features enthält. Dagegen sieht seine Kiste auf einmal richtig alt aus, sie ist nur noch Technik von gestern. Kurzum, wer heute einen PC neuester Technik kauft, muß damit rechnen, daß er ein Jahr später nur noch halb soviel wert ist und es bereits weit besseres zu kaufen gibt. Und wer noch ein Jahr mit dem Kauf wartet, ist natürlich auch nicht besser dran.
Tatsächlich verdoppelt sich die Rechengeschwindigkeit alle zwei Jahre bei unverändertem Preis. In den letzten zwanzig Jahren (Stand 1995) hat sich die Rechengeschwindigkeit vertausendfacht! Dasselbe gilt auch für die Entwicklung der Kapazität der verschiedenen Speichermedien. Da ist sie wieder, die Exponentialfunktion. Verdopplung in immer gleichen Zeitabständen. Diesmal ist der Wert aber exakt meßbar, es ist die Rechengeschwindigkeit und die Speicherkapazität. Aber auch hier gilt die Exponentialfunktion nur für einen kleinen Zeitraum. Seit der Abakus erfunden wurde, hat es wesentlich länger als zwei Jahre gedauert, um die Rechenleistung zu verdoppelt. So ist auch hier zu erwarten, daß sich die Zeit zwischen zwei Verdopplungen mit der Zeit noch verkürzt! Neue Technologien mögen dazu beitragen. Nehmen wir doch das Beispiel von oben und stellen uns vor, die Elektronik gäbe es noch nicht und die Computer wären ein kompliziertes mechanisches Räderwerk. Mit einer derartigen Technologie könnte es unmöglich alle zwei Jahre zu einer Verdopplung von Rechenleistung und Speicherkapazität kommen, vor allem nicht bei unveränderten Kosten. Erst die Technologie Elektronik und hier vor allen die integrierten Schaltkreise erlauben diese Entwicklungsgeschwindigkeit.

Um aber auf der sicheren Seite zu sein, gehe ich davon aus, daß sich die zukünftige Entwicklung "nur" mit der Geschwindigkeit fortsetzt, die sie heute bereits hat, also Verdopplung alle zwei Jahre. Und es ist durchaus zu erwarten, daß diese Entwicklung noch eine geraume Zeit so weitergeht. Zwar wird man hin und wieder an physikalische Grenzen stoßen, doch diese können durch neue Verfahren überwunden werden. Eine recht harte physikalische Grenze ist die Lichtgeschwindigkeit und die Größe der Atome. Aber ein Rechner, der an diese Grenzen stößt, wäre dem menschlichen Gehirn bereits weit überlegen. Und es gibt bereits Überlegungen, durch Ausnutzung von Quanteneffekten, die in atomaren Größenordnungen nun einmal auftreten, die Leistung in gewissen Bereichen noch um viele Größenordnungen zu steigern. Dabei geht es um die Überlagerung von Zuständen, die in der Quantentheorie die Regel ist. Anstelle eine Lösung für ein Problem zu suchen, indem man Millionen und Milliarden Möglichkeiten nacheinander durchrechnet, bis man die beste Lösung gefunden hat, legt man bei einem Quantencomputer als Eingangsgröße eine Überlagerung aller Möglichkeiten an. Dadurch werden alle diese Möglichkeiten in einem einzigen Durchgang gleichzeitig durchgerechnet und die richtige Lösung meldet sich praktisch von selbst. Dieses Beispiel mag deutlich machen, daß selbst eine als unverrückbar geltende physikalische Grenze nicht bedeutet, daß die Entwicklung an diesem Punkt zum Stillstand kommen muß. An jeder Grenze können neuartige und unerwartete Phänomene lauern, die man sich nutzbar machen kann, um die Entwicklung in eine ganz neue Richtung voranzutreiben.

Das menschliche Gehirn allerdings ist von den heute bekannten physikalischen Grenzen noch weit entfernt. Die Signallaufzeit in einer Nervenfaser beträgt etwa 10 Meter pro Sekunde, die physikalische Grenze dagegen ist die Lichtgeschwindigkeit mit etwa 300000 Kilometer pro Sekunde, also das Dreißigmillionenfache. Auch die Größe einer Nervenzelle ist noch viele Größenordnungen von der Größe eines einzelnen Atoms oder Moleküls entfernt. Es sollte also kein unüberwindbares Hindernis geben, das uns davon abhalten könnte, die Leistung eines Gehirns mit technischen Mitteln zu erreichen und zu übertreffen.

Welche Leistung hat nun ein menschliches Gehirn?
Die Zahl der Neuronen (Gehirnzellen) beträgt ungefähr 100 Milliarden. Jedes Neuron steht mit bis zu 10000 anderen Neuronen über Synapsen in Verbindung. Vereinfacht leitet jede Synapse die Signale mit einem Faktor multipliziert weiter. Der Faktor kann durch Lernen verändert werden und bildet die Grundlage für das Gedächtnis. Diesen Faktor würde man in einem Computer durch ein Byte (8 Bit) darstellen. Zusätzlich müßte man die Verbindung speichern, also entweder die Adresse der Quelle oder des Ziels. Mit 37 Bit lassen sich 136 Milliarden Neuronen adressieren. Damit wären pro Synapse 45 Bit nötig. Mit ein paar Verwaltungsbits käme man auf 6 Byte (48 Bit). Für ein komplettes Gehirn wären dann 6000 Terrabyte (Terra = 1 Billion oder 1012) nötig. Um ein Neuron im Rechner nachzubilden, ist für jede Synapse eine Multiplikation und eine Addition pro Zeittakt nötig, also eine Rechenleistung 2*f  FLOPS (floating point operation per second), wobei f die Frequenz des Zeittakts ist. Als Zeittakt sollte 100 Hz ausreichen, da Neuronen relativ langsam sind. Ein Lichtsignal mit einer Frequenz von 100 Hz z.B. wird vom Gehirn nicht mehr als flimmernd wahrgenommen. Da im Gehirn im­mer nur ein Teil der Neuronen aktiv sind, hat man aber auch noch Reserven, um den Takt bei zeitkritischen Neuronen zu erhöhen. Somit wäre zur Emulation eines Gehirns im Computer 20000 Terra-FLOPS oder 20 Peta-FLOPS nötig, wobei ich davon ausgehe, daß die zur Adressierung der Synapsenspeicher nötige Operationen parallel zu den arithmeti­schen Operationen laufen und daher keine extra Rechenzeit benötigen.
Wenn die Entwicklung in dem bisherigen Tempo weitergeht, so werden im Jahr 2050 bereits handelsübliche PCs diese Leistung erbringen. Supercomputer könnten bereits 20 Jahre früher mit der Rechenleistung eines Gehirns gleichziehen. (Anmerkung: Diese Schätzung war von 1995, tatsächlich ist man 2014 bereits dabei, die 100 Petaflops-Marke zu knacken, während die korrekte Modellierung eines Neurons wohl aufwendiger ist, als die obige Abschätzung den Anschein erweckt. Das mit einer Milliarde Euro geförderte Human-Brain-Project strebt die vollständige Simulation eines menschlichen Gehirns für 2020 an.)  

Allerdings hat ein Computer mit der Rechenleistung und der Speicherkapazität eines menschlichen Gehirns noch lange nicht dessen Fähigkeiten. Hier kommt es entscheidend auf die Software an, und diese müßte unglaublich komplex sein. Um eine Software zu schreiben, die das Gehirn nachbildet, müßte man die Funktionsweise des Gehirns bis ins letzte Detail verstehen. Ich bezweifle nun, daß ein Gehirn jemals in der Lage sein wird, seine eigene Funktionsweise vollständig zu analysieren. In Teilbereichen, wie Spracherkennung, Bilderkennung, Analyse von speziellen Problemen und allen rechenintensiven Aufgaben werden diese Computer den Menschen, wie z.T. auch schon heute, übertreffen können. Um aber einen Computer mit der Gesamtheit menschlicher Fähigkeiten ausstatten zu können, ist wahrscheinlich ein anderer Weg nötig.

Eine Lösung dieses Problems kann der Fortschritt der Technik im biologisch-medizinischen Bereich bringen. Man ist heute in der Lage, ein lebendes Gehirn mit Computertomographieverfahren auf der Basis von Röntgenstrahlen, Kernspinresonanz oder Positronenemmision zu analysieren und als 3D-Datenpaket zu spei­chern. 3D-Visualisierungsprogramme können damit Strukturen im Inneren des Gehirns sowie lokale Stoffwechselaktivitäten sichtbar machen. Man kann totes Hirngewebe in feine Scheiben zerschneiden und mit konfokalen Laserscanmikroskopen oder Rasterelektronenmikroskopen die Neuronen und den Verlauf der Nervenfasern sichtbar machen.
Wollte man aber mit heutiger Technik ein komplettes Gehirn in der erforderlichen Auflösung aufnehmen, so würde allein der Scanvorgang die Lebenszeit eines Menschen übersteigen. Es müssen daher neue leistungsfähi­gere Geräte entwickelt werden. Anstelle wie beim Laserscanmikroskop mit nur einem Laserstrahl die Oberfläche abzutasten, könnten etwa zehntausend Strahlen gleichzeitig eingesetzt werden. Diese müßten entsprechend versetzt, aber möglichst gleichmäßig über eine Fläche verteilt werden. Das reflektierte Licht wird dann auf eine Maske mit zehntausend feinen Löchern projiziert, die alles Licht, das nicht aus der Fokusebene stammt, weg­blendet (konfokaler Filter), so daß ein scharfer optischer Schnitt entsteht. Dahinter befindet sich dann ein hochintegrierter Chip, der die optischen Sensoren, die Signalverstärker und die Analog-Digitalwandler enthält. Dieser muß mit hoher Geschwindigkeit zehntausend Signale gleichzeitig aufnehmen, verstärken und wandeln können. An seinem Ausgang steht dann eine enorme Flut an digitalen Daten an, die von einem entsprechend lei­stungsfähigen Rechner zu übernehmen sind. Noch mehr Daten entstehen, wenn das Licht in mehrere Spektralteile aufgeteilt wird, die dann getrennt aufgenommen werden müssen.
Schließlich muß noch mit neuen Scantechniken die Scangeschwindigkeit erhöht werden. Will man ein Spezialmikroskop bauen, das ausschließlich zur Gehirnanalyse benutzt werden soll, dann könnte man etwa die Gehirnschnitte auf einem präzise gelagerten Ring von etwa einem Meter Durchmesser anordnen. Dieser wird dann in Rotation versetzt. Während einer Umdrehung verfährt die gesamte Aufnahmeoptik in vertikaler oder axialer Richtung, so daß sich eine spiralförmige Abtastung ergibt. Sollte sich die Zentrifugalkraft störend auf das Objekt auswirken, so könnte man diese durch eine entsprechende Schräglage kompensieren. Da sich die Strahlen relativ zur Optik nicht bewegen müssen, halten sich die Anforderungen an die Optik in Grenzen, viele Abbildungsfehler lassen sich auch nachträglich noch kompensieren. Mit Mikrolinsenarrays könnte man den Scanbereich noch wesentlich vergrößern und die Zahl der Teilstrahlen noch weiter erhöhen.
Mit solchen und ähnlichen Maßnahmen könnte man zu einem Gerät kommen, das ein komplettes Gehirn in einer akzeptablen Zeit scannen und als 3D-Datensatz in einem Rechner ablegen kann. Als nächster Schritt muß aus der gewaltigen Menge an Bilddaten die Verschaltung der Neuronen gewonnen werden.
Mit leistungsfähiger Bildanalyse-Software kann man die Analyse der Neuronenverbindungen automatisieren. Die Ergebnisse der einzelnen Aufnahmen müssen per Computer Stück für Stück zu einem gigantische Puzzle zusammengesetzt werden. Je leistungsfähiger nun die Computer werden, desto eher lassen sich diese Aufgaben lösen. Ebenfalls ist zu erwarten, daß die Tomographieverfahren von der Entwicklung der Computertechnik profitieren und auch bei Aufnahmen vom lebenden Gehirn die Detailauflösung ständig steigt. Die erste vollstän­dige Kartographie des Neuronennetzes eines Gehirns wird man aber wohl von dem sezierten Gehirn eines Toten erhalten.

Unsterblichkeit in virtuellen Welten

Was würde nun geschehen, wenn man die Topologie eines so ermittelten neuronalen Netzwerks in einen Computer einprogrammiert und ein Simulationsprogramm startet, das die Funktionsweise der Neuronen in Echtzeit nachbildet?
Das Ergebnis wäre wohl zunächst enttäuschend, da man zwar die Topologie nachgebildet hat, aber der in den Synapsen gespeicherte Gedächtnisinhalt fehlt. Das Netzwerk wäre in dem Zustand eines neugeborenen Kindes. Man müßte Lernalgorithmen einbauen und das Netzwerk über Jahre hinweg erziehen und ausbilden wie ein Kind. Schneller käme man zum Erfolg, wenn man auch den Gedächtnisinhalt auslesen könnte. Es ist anzunehmen, daß der Gewichtungsfaktor einer Synapse von der Konzentration spezieller Moleküle in der unmittelbaren Umgebung der Synapse abhängt. Wenn man nun diese Moleküle und ihre Wirkungsweise kennt, kann man auch Farbstoffe konstruieren, um diese Gedächtnismoleküle zu markieren und ihre Konzentration zu messen, möglicherweise läßt sich die Konzentration auch einmal im lebenden Gehirn etwa durch typische Kernspinresonanzen messen. Auf diese Weise kann man das Netzwerk mit dem vollständigen Gedächtnis des Verstorbenen versehen. Ein solches Netzwerk könnte auf Anhieb funktionieren und würde über das Wissen, die Fähigkeiten und die Erinnerungen des Toten verfügen. Allerdings gäbe es sicher noch eine Reihe von Problemen. So ist die Wirkung von Hormonen, Endorphinen und anderen körpereigenen Stoffen noch nicht berücksichtigt. Ebenfalls fehlen noch die Mechanismen des Lernens und der Speicherung von Wahrnehmungen und Gedanken im Langzeitgedächtnis. Wenn man aber bereits eine funktionsfähige Gehirnsimulation hat, besitzt man ein wirkungsvolles Mittel, um diese Probleme zu lösen. Vermutungen werden schnell bestätigt oder widerlegt, indem man die Simulationssoftware modifiziert und das Verhalten des Gehirns beobachtet. Im Gegensatz zum natürlichem Gehirn kann man dabei auch keinen Schaden anrichten, da man das Gehirn beliebig oft in dem Ausgangszustand zurückversetzen und die Simulation neu starten kann. Und da man Software und Daten leicht kopieren kann, können viele Forscher parallel daran arbeiten (um ethischen Bedenken gegen ein solches Vorgehen zu begegnen gehe ich davon aus, daß der Besitzer des analysierten Gehirns Wissenschaftler war und sein Gehirn zu eben diesem Zweck gestiftet hat). Auf diese Weise wird man schnell Antworten auf noch verbliebene Fragen finden. Durch Einbau der gewonnenen Erkenntnisse in die Simulationssoftware gelangt man schließlich zu einem künstlichen Gehirn, das ein gleiches Verhalten zeigt und die gleichen Leistungen erbringen kann wie ein natürliches Gehirn.

Nun ist ein isoliertes Gehirn wahrscheinlich nicht lange lebensfähig. Ein Gehirn, das keine Reize von der Außenwelt erhält und keinen Körper zum Steuern hat, würde wohl bald wahnsinnig werden. Man müßte daher eine virtuelle Umwelt im Computer simulieren. Ansätze dazu gibt es ja bereits heute, angefangen mit 3D-Computerspielen, Flugsimulatoren bis zu Cyberspace-Anwendungen, bei denen man, ausgestattet mit Datenhandschuh und Stereo-Monitorhelm noch nicht existierende Gebäude und Städte besichtigen kann und mit dem Handschuh Gegenstände manipulieren kann, wie etwa Möbel verschieben, Türen und Schubladen öffnen oder Schalter betätigen. Was heute noch grob und ruckelig erscheint, wird mit steigender Computerleistung so flüssig und detailreich aussehen, daß es der Realität in nichts nachsteht. Weiterhin wird man einen virtuellen Körper programmieren, der sich in dieser künstlichen Umwelt bewegen kann. Gesteuert wird der Körper direkt von den Nervensignalen des neuronalen Netzes, und zwar von denselben, die früher die entsprechenden Muskeln gesteuert haben. Und statt die errechneten Bilder auf einem Monitor darzustellen, werden sie nach entsprechen­der Bearbeitung in den Sehnerv des Netzes eingespeist. Auch alle anderen Sinne werden dem Gehirn zugeführt, so daß es sich in dem virtuellen Körper genauso fühlt, wie in einem natürlichen, und sich mit diesem Körper in der simulierten Umwelt genauso bewegen kann, wie früher in der realen Welt.
Die simulierte Welt kann im Prinzip sehr groß sein und einen ganzen Planeten umfassen oder auch das Weltall mit beliebig vielen Planenten. Die Speicherkapazität dürfte dabei kein Problem sein. Unbekannte, d. h. nicht vorprogrammierte Landschaften würden erst beim Betreten mit einem fraktalen Algorithmus generiert. Lediglich die Veränderungen, die dort vorgenommen wurden, müssen gespeichert werden, und auch nur die, von denen man erwartet, sie später einmal wiederzufinden. Die Landschaften selbst können mit dem fraktalen Algorithmus jederzeit wieder neu generiert werden, moduliert von jahreszeitlichen und zufälligen Veränderungen durch Wetter, Wachstum und Lebewesen. In einer solchen Welt könnte man also beliebig weit gehen, würde immer neue Landschaften sehen, ohne je an eine Grenze zu stoßen, auch wenn der Speicher des Computers begrenzt ist. Die Simulation einer solchen Welt würde auch nicht viel Rechenzeit kosten, jedenfalls weniger als die Simulation eines Gehirns, wenn man sich im wesentlichen auf die Erzeugung der Sinnesinformation für das Gehirn und die Umsetzung seiner Handlungen beschränkt. Die meisten Dinge und Lebewesen dieser Welt hätten kein Eigenleben, das man aufwendig berechnen müßte, es sei denn, sie würden gerade beobachtet und man erwartet ein bestimmtes Verhalten.
Auch Siedlungen und Städte könnte es geben, bewohnt von zahlreichen Menschen. Diese Menschen wären dann aber nur vom Computer animierte Kulisse, mit einem Verhalten, das ihren Funktionen angepaßt wäre, wie z.B. Verkäufer, Bedienung oder Passant. Man könnte mit ihnen durchaus auch einfache Gespräche führen. Beim Versuch, ein Gespräch mit mehr Tiefgang zu führen, wird man aber bald merken, daß die Antworten computer­generiert sind und über ein gewisses Niveau und Repertoire nicht hinauskommen.
Dies wird sich erst ändern, nachdem man ein zweites Gehirn analysiert hat und ihre Simulationen miteinander gekoppelt werden. Man kann dann zwei Computer so miteinander verbinden, daß jede Aktion in der einen simulierten Welt dieselbe Wirkung auch in der anderen hat. Mit steigender Computerleistung wird man auch mehrere Gehirne in einem einzigen Computer simulieren können. Somit könnten dann mehrere Menschen in derselben simulierten Welt leben, miteinander reden und ganz normal miteinander umgehen. Darüber hinaus ist über Bildtelefon ein normaler Kontakt zur gesamten Außenwelt möglich. Ein Unternehmer könnte seine Geschäfte so auch nach seinem Tod weiterführen, ein Wissenschaftler seine Arbeit fortsetzen, wobei die praktischen Arbeiten von Assistenten ausgeführt würden.
Wenn die Methode erst aus dem Experimentierstadium herausgekommen ist, wird es viele Leute geben, die ein Vermögen auszugeben bereit sind, um nach ihren körperlichen Tod als Simulation weiterleben zu können. Schließlich gibt es bereits heute Menschen, die viel Geld zahlen, damit nach ihrem Tod ihr Körper oder wenig­stens ihr Kopf in flüssigem Stickstoff eingefroren wird, in der Hoffnung, später einmal wiederbelebt und geheilt zu werden. Wenn ihre Gehirnstruktur und ihr Gedächtnisinhalt dabei erhalten geblieben ist, so wäre diese Hoffnung nicht einmal ganz vergeblich, auch dann, wenn eine Wiederbelebung des Körpers nicht mehr möglich wäre, vorausgesetzt, jemand trägt die Kosten für eine Gehirnanalyse.

Die großen Konzerne werden darin ein lukratives Geschäft wittern und großen Aufwand in die Weiterentwicklung des Verfahrens der Gehirnanalyse und Simulation stecken. Es werden überall auf der Welt simulierte Welten entstehen, die mit immer mehr verstorbenen Menschen bevölkert werden. Die Welten werden über ein globales Rechnernetzwerk miteinander verbunden sein, so daß ihre Bewohner auch andere Welten besuchen können, wenn sie die Gebühren für den dazu nötigen Datentransfer bezahlen können.
Zwar wird anfangs die Skepsis überwiegen. Viele werden nicht glauben, daß sie in einer Computersimulation noch sie selbst sind. Doch wenn Menschen die Erfahrung machen, daß ihnen nahestehende Menschen sich kurz nach ihrem Tod per Bildtelefon bei ihnen melden, als wenn nichts gewesen wäre und auch intensive Gespräche nicht den Verdacht aufkommen lassen, es wäre nicht mehr derselbe Mensch, so werden die Bedenken weitgehend in den Hintergrund treten. Zudem könnte man mit geeigneter Virtual-Reality-Ausstattung wie Monitorhelm und Datenanzug einen Besuch in der virtuellen Welt machen und Verstorbene in ihrer neuen Heimat erleben und die Vorzüge der neuen Welt kennenlernen. Mit der Zeit wird man sich an diese Möglichkeit gewöhnen, und der Tod eines Angehörigen oder Freundes bedeutet letztendlich nur noch eine vorübergehende körperliche Distanz, wie ein Umzug in eine andere Stadt, also kein Grund zu großer Trauer. Die Akzeptanz der Methode wird so immer größer, auch Skeptiker werden sich in zunehmendem Maße darauf einlassen, und sei es nur, um die Hinterbliebenen damit zu trösten.

Mit der Weiterentwicklung der Technik werden die Kosten für eine Gehirnanalyse ständig sinken, so daß immer breitere Bevölkerungsschichten sich ein Leben nach dem Tod leisten können.
Die Verträge werden stets auf eine Simulation auf unbegrenzte Zeit abgeschlossen. Das ist möglich, weil das aufwendigste an diesem Verfahren die Gehirnanalyse ist. Die Kosten für die Simulation werden im Laufe der Zeit immer geringer, da die Entwicklung in der Computertechnik weitergeht und daher die zur Simulation nötige Rechenleistung und der Rechenspeicher immer preiswerter werden. Ein regelmäßiges Backup des Arbeitsspeichers und die Lagerung der Datenträger in feuerfesten Tresoren garantiert, daß die Existenz der Simulationen nicht durch eine Funktionsstörung oder ein Unglück unwiderruflich ausgelöscht werden kann. Die gesicherten Daten können im Störungsfall auf Ersatzcomputer geladen werden. Die simulierten Menschen hätten dann nur die Zeit ihres Lebens verloren, die zwischen dem letzten Backup und der Störung lag, bei täglichem Backup also höchstens einen Tag. Über spezielle Gesetze und Versicherungen wird das unbegrenzte Weiterleben der Simulationen sichergestellt. Somit hätten die Menschen bereits eine Art von Unsterblichkeit erlangt.
Allerdings gibt es immer Todesfälle, bei denen das Gehirn zerstört wird, sei es durch einen Unfall mit schwerer Schädelverletzung, durch Alzheimer oder einen Hirntumor. Um auch in solchen Fällen ein Weiterleben zu ermöglichen, muß die Gehirnanalyse durch extrem hochauflösende Tomographieverfahren auch beim lebenden Gehirn möglich werden. Wenn die Menschen sich nun in regelmäßigen Zeitabständen einer Gehirnanalyse unterziehen, so kann auch die Zerstörung ihres Gehirns ihr Weiterleben nicht verhindern. Die Zeit seit der letzten Analyse wäre allerdings verloren. Auch wären viele Menschen nicht sicher, ob das immer noch sie selbst sind, was da nach ihrem Tod im Computer zu Leben erweckt wird.
Ziel der Entwicklung wird wohl ein eher gleitender Übergang sein. Denkbar wäre in fernerer Zukunft ein unzer­störbares Implantat, das die Struktur des Gehirns und alle Vorgänge und Veränderungen registriert und allmäh­lich eine Verbindung zum Gehirn aufbaut und in die Denkvorgänge einbezogen wird. Schließlich würden alle Prozesse im Gehirn parallel dazu auch im Implantat ablaufen, und es wäre nicht mehr möglich, den Sitz des Bewußtseins zu lokalisieren. Wenn nun das Gehirn seine Funktion einstellt, arbeitet das Implantat selbständig weiter, der Mensch würde lediglich bemerken, daß er die Kontrolle über seinen Körper verloren hat, aber gleichzeitig auch alle Schmerzen verschwunden sind. Damit das Bewußtsein danach aber nicht von allen Sinneseindrücken abgeschnitten ist und dadurch Schaden erleiden könnte, wird sofort eine drahtlose Verbindung zu einer virtuellen Welt hergestellt. Dadurch könnten Sinnesinformationen erzeugt werden, wie der Betreffende von seinem Körper fortschwebt und schließlich durch einen Tunnel in seine neue virtuelle Welt gelangt. Sollte es aber gelingen, das Gehirn durch Wiederbelebungsmaßnahmen wieder zum Funktionieren zu bringen, müßte eine neue Synchronisierung zwischen dem Gehirn und dem Implantat erfolgen. Will man dem Menschen seine neuen Erfahrungen nicht stehlen, müssen alle neuen Erinnerungen vom Implantat auf das Gehirn übertragen werden. Was nun ein solcher Mensch zu erzählen hätte, würde große Ähnlichkeit haben mit den heutigen Berichten von Menschen, die für kurze Zeit klinisch tot waren und wiederbelebt wurden. Doch auf dieses Thema will ich in einem der folgenden Kapitel näher eingehen. Nach dieser kleinen Spekulation auf die Entwicklung in einer ferneren Zukunft will ich nun die weitere Entwicklung innerhalb der virtuellen Welt und die Auswirkungen auf die Außenwelt schildern.

Die virtuelle Welt wird der Außenwelt zunächst so weit wie möglich nachempfunden, um den Übergang so einfach und schonend wie möglich zu machen. Aber prinzipiell könnte man diese Welt auch anders gestalten. So brauchten die Naturgesetze der Außenwelt keine Gültigkeit mehr zu haben. Wenn also jemand den Wunsch hat, auf seinem Land einen Bereich ohne Schwerkraft einzurichten, um dort herumzuschweben, so wäre das nur eine Frage der Software. Bewohner, die sich gut eingelebt haben und programmieren können, wird erlaubt werden, kleine private Erweiterungen zu programmieren und in die Simulationssoftware einzubinden. Die Sicherheitsvorrichtungen des Betriebssystems gewährleisten dabei, daß weder kritische Bereiche verändert werden können, noch daß die Rechte der anderen Bewohner verletzt werden können. Änderungen, die mehrere Menschen betreffen, bedürfen deren einstimmige Zustimmung.
Mit solchen Erweiterungen könnte man neue Fähigkeiten erwerben. Menschen könnten beispielsweise ohne Hilfsmittel wie die Comicfigur Superman durch die Luft fliegen. Über vorprogrammierte Schlüsselsätze könnte man bestimmte Ereignisse auslösen, etwa das lokale Wetter ändern, sich an einen anderen Ort versetzen, Gegenstände oder den eigenen Körper verwandeln. Man könnte eigene Fantasiewelten erschaffen und darin interessante Abenteuer erleben.
Aber nicht nur die Umwelt wäre veränderbar. Auch die eigenen geistigen Fähigkeiten wären erweiterbar. Anstelle einer Kommunikation mit dem Simulationscomputer über simulierte Tastatur und Monitor oder über Sprache wäre eine telephatische Verbindung denkbar, also eine direkte Kommunikation durch Gedankenübertragung. Dazu müßten eine Anzahl neuer Nervenverbindungen programmiert werden. Auf der einen Seite der Verbindungen würde der Computer Befehle entgegennehmen und Antworten zurückliefern. Auf der anderen Seite würden die Nerven zunächst wahllos an geeignete Neuronen angekoppelt, zum Teil unter Dazwischenschalten neuer Neuronen. Nun ist das Gehirn sehr anpassungsfähig. Wenn bei einem Mensch etwa durch einen Unfall oder einen Schlaganfall sein Sprachzentrum zerstört wurde, können andere Teile des Gehirns die Funktion des Sprachzentrums übernehmen, so daß der Patient das Sprechen wieder neu erlernen kann. Allerdings ist dazu ein hartes Training nötig. Ein ähnlich hartes Training wird nötig sein, um die neuen Nervenbahnen anzusteuern und die zurückgelieferten Informationen richtig wahrnehmen zu können. Aber der Computer kann den Vorgang auch unterstützen, indem er bei größeren Problemen andere Ankoppelpunkte für die neuen Nerven sucht und die Signale optimal aufbereitet.
Wenn die Kommunikation erst einmal mühelos funktioniert, steht einen die gesamte Rechenleistung des Computers und alle gespeicherten Informationen jederzeit und unmittelbar zur Verfügung. Komplizierteste Berechnungen kann man im Kopf formulieren und hat sofort das Ergebnis parat. Große Mengen an Zahlen kann man mit einem Gedanken im Computerspeicher ablegen und hat jederzeit den direkten Zugriff darauf. All die Fertigkeiten, die ein Computer so leicht beherrscht und die dem menschlichen Gehirn dagegen so schwer fallen, stehen dem Mensch plötzlich unmittelbar zur Verfügung. Im Laufe der Zeit merkt er gar nicht mehr, daß er die Hilfe des Computers in Anspruch nimmt, sondern betrachtet den Computer als selbstverständliches Teil von sich selbst und alle Fähigkeiten des Computers werden zu den eigenen Fähigkeiten.
Ein Wissenschaftler kann so in schneller Folge die kompliziertesten Gleichungen aufstellen, sie selber durch­rechnen, als Simulationen vor dem geistigen Auge ablaufen lassen, sie wieder verwerfen oder ändern, und dabei alle Versuche und Erkenntnisse vom Computer protokollieren lassen, und das alles ohne einen Strich auf dem Papier zu machen oder eine Taste zu drücken.
Aber das ist noch nicht alles. Wenn Menschen direkt mit dem Computer kommunizieren können, dann können sie durch Vermittlung des Computers auch direkt miteinander kommunizieren. Es ist dann nicht mehr nötig, jeden Gedanken erst in Worte zu kleiden und auszusprechen, man könnte die Gedanken direkt austauschen. So kann man außer Worte auch komplette Bilder, Symbole, Diagramme, Gleichungen, Melodien, Gerüche, Gefühle und vieles mehr übertragen. Wenn Probleme zu lösen sind, schaltet sich eine Gruppe von Menschen zu einer Gedankenkonferenz zusammen. Alle Teilnehmer können sofort alle Argumente, Gegenargumente, Bedenken und Stimmungen aller anderen wahrnehmen und sich ein Bild machen, welches dann von allen anderen ebenfalls gesehen wird. Jede Idee, jeder Lösungsvorschlag ist sofort allen bekannt und kann von jedem weiterverfolgt werden.
Mit der nötigen Übung kann eine Gruppe für kurze Zeit zu einem einzigen Wesen mit überragenden geistigen Fähigkeiten verschmelzen.
Es gibt aber noch weitere Möglichkeiten zur Steigerung der geistigen Fähigkeiten. In einem fertig ausgebildeten natürlichen Gehirn haben die Neuronen ihre Teilungsfähigkeit verloren, ihre Zahl kann nicht mehr zunehmen, ja nicht einmal abgestorbene Neuronen können ersetzt werden. Ein simuliertes Gehirn hat diese Einschränkung nicht. In stark ausgelasteten Gehirnregionen können so ständig neue Neuronen generiert werden. Bei der Vernetzung dieser neuen Neuronen mit dem bisherigen können dann ähnliche Mechanismen angewandt werden wie beim embryonalen und frühkindlichen Gehirn. Oder man erzeugt zufällig einen große Zahl von Verbindungen und entfernt später die nicht benutzten wieder. Im Laufe der Zeit werden die Neuronen über die Lernmechanismen in das Gehirn integriert und erhöhen zunächst unmerklich, aber ständig die Leistungsfähigkeit des Gehirns. Auf diese Weise kann das Gehirn mit der Zeit auf ein Vielfaches seiner bisherigen Größe anwach­sen. Natürlich gibt es Beschränkungen für die Wachstumsrate. Schließlich dürfen Neuronen nicht schneller generiert werden, als sie ohne einen Verlust an Stabilität in das Gehirn integriert werden können. Nur so bleibt die Person dieselbe, und nur ihre Intelligenz und ihre Fähigkeiten nehmen ständig zu.
Eine weitere Möglichkeit zur Leistungssteigerung ist die Erhöhung der Taktrate des neuronalen Netzwerkes. Dies führt dann dazu, daß die Zeit subjektiv langsamer vergeht als objektiv. Wenn es nun darum geht, ein Problem in einer fest vorgegebenen, sehr knapp bemessenen Zeit zu lösen, dann hätte man durch eine Verdopplung der Taktrate die doppelte Zeit zur Verfügung. Sobald man aber mit der Außenwelt oder mit Simulationen in Normalzeit in Kontakt tritt, würde es Probleme geben, da für den einen sein Gegenüber schleppend langsam erscheinen würde und er extrem langsam sprechen müßte, damit ihn sein Gesprächspartner überhaupt verstehen könnte. Daher ist eine generelle Takterhöhung nur zeitlich begrenzt sinnvoll. Eine andere Möglichkeit wäre eine lokale Takterhöhung in Bereichen des Gehirns, die sich nicht auf die Zeitempfindung auswirken und die Sprechgeschwindigkeit sowie die Geschwindigkeit der Bewegungssteuerung unbeeinflußt lassen. Allerdings muß dann aus Stabilitätsgründen die Takterhöhung so langsam erfolgen, daß das Gehirn sich der Veränderung anpassen kann und nicht die Balance verliert. Im Endeffekt werden die Reaktionszeiten verringert und die Qualität von Entscheidungen, die unter Zeitdruck getroffen werden müssen, verbessern sich.

Wenn man nun alle beschriebenen Verfahren zur Leistungssteigerungen zusammen nimmt, also
1. direkte Kopplung des Gehirns mit einem leistungsfähigen Computer,
2. direkte Kopplung von mehreren Gehirnen zu Arbeitsgruppen
3. Erhöhung der Anzahl von Neuronen,
4. Lokale und globale Erhöhung der Taktfrequenz,
so entwickelt sich in der virtuellen Welt eine Intelligenz, die an Fähigkeit nach kurzer Zeit allen lebenden Menschen weit überlegen ist. Bahnbrechende wissenschaftliche Erkenntnisse werden fast nur noch in der virtuellen Welt gemacht. Lebende Wissenschaftler werden immer mehr in die Rolle von Studenten und Assistenten gedrängt. Sie führen Experimente aus, um Theorien zu überprüfen, deren theoretische Grundlagen sie längst nicht mehr begreifen. Ingenieure und konstruieren Geräte, deren revolutionäres Funktionsprinzip in der virtuellen Welt entwickelt wurde. Erst nach ihrem Tod und ihrem Eintritt in die virtuelle Welt haben sie die Chance, die zugrundeliegenden Theorien zu verstehen und weiterzuentwickeln.

Die weitere Entwicklung verläuft explosionsartig. Die zuvor schon erstaunliche Geschwindigkeit des wissen­schaftlichen und technischen Fortschritts wird nun potenziert, ganze Generationen und zahlreiche Zwischenschritte werden einfach übersprungen. Diese Fortschritte betreffen natürlich auch die Leistungsfähigkeit der Computer, wodurch eine weitere Intelligenzsteigerung möglich ist. Dadurch wiederum wird die Geschwindigkeit des Fortschritts noch weiter gesteigert, und so weiter. Das Ganze ist ein sich selbst beschleuni­gender Prozeß, der wohl erst dann zum Stillstand kommt, wenn man an die endgültig letzten physikalischen Grenzen gestoßen ist. Wo aber diese Grenzen letztlich liegen werden, läßt sich unmöglich voraussagen.

Das globale Überbewußtsein

Die Kopplung von mehreren Gehirnen führt aber auch zu einer anderen interessanten Entwicklung.
Es wird nämlich nicht allein bei Zusammenkopplungen zu Arbeitsgruppen bleiben. Menschen, die sich mögen, werden auch eine intimere Kopplung auf Gefühlsebene wagen. Menschen, die voreinander keine Geheimnisse haben wollen, können andere teilhaben lassen an ihren Gedanken, Gefühlen, Erinnerungen und Träumen. In der engsten Form einer Koppelung ist nichts mehr verborgen, jeder kann alles über den anderen wissen, selbst die geheimsten Gedanken werden offenbar. Natürlich sind bestimmte Voraussetzungen erforderlich, um eine solche Verbindung einzugehen. Es ist ein hohes Maß an Toleranz erforderlich. Man muß bereit sein, den anderen so an­zunehmen, wie er ist, all seine Fehler, die er ja nun nicht mehr verbergen oder überspielen kann, zu akzeptieren. Und man muß selbst bereit sein, dem anderen zu vertrauen, sich zu öffnen und auf Masken oder Schauspielerei zu verzichten.
Manche Menschen werden dazu nicht fähig sein. Menschen etwa, die ein dunkles Geheimnis in sich tragen, hätten Angst, es würde ans Tageslicht kommen. Oder Menschen, die von Haß oder Perversionen erfüllt sind und deren Gedanken auf andere abstoßend wirken. Menschen, die nicht fähig sind zu lieben, die selbstsüchtig sind, denen andere Menschen gleichgültig sind, haben kein Interesse an einer so engen Gemeinschaft und würden auch schwerlich Gruppen finden, die bereit sind, sie aufzunehmen.
Eine Spaltung wird stattfinden. Es wird die Gemeinschaften geben und die Individualisten. Diese zwei Gruppen werden sich in unterschiedliche Richtungen entwickeln.
In den Gemeinschaften herrscht Liebe unter den Mitgliedern, denn anders ist eine so intime Verbindung nicht vorstellbar. Mit der Zeit wird die Verbindung immer enger und immer selbstverständlicher. Eine Trennung der Verbindung würde dann wie eine Amputation empfunden, ein Gefühl der Leere und Unvollständigkeit wäre die Folge. Die Mitglieder der Gemeinschaft entwickeln so langsam ein gemeinsames Bewußtsein und einen gemein­samen Willen, ihre Einzelpersönlichkeiten entwickeln sich immer mehr zu Aspekten und Handlungsinstanzen des Gemeinschaftsbewußtseins. Das geistige Potential einer Gemeinschaft ist höher als das einer Arbeitsgruppe, da sich in der Gemeinschaft verschiedene Fähigkeiten optimal ergänzen und einem gemeinsamen Willen unterlie­gen, während in Arbeitsgruppen immer Reibungsverluste und gegenläufige Interessen vorhanden sind, die die Leistungen stark beeinträchtigen können.
So werden die Gemeinschaften mit der Zeit immer stärker werden, verschiedene Gemeinschaften werden sich zusammenschließen und immer größere Gemeinschaften bilden. Der Endpunkt einer solchen Entwicklung ist erreicht, wenn sich alle existierenden Gemeinschaften zu einer globalen Gemeinschaft zusammengeschlossen haben und sich daraus ein globales Bewußtsein entwickelt hat, das an Geisteskraft alles dagewesene bei weitem übertrifft.
Die Individualisten werden dagegen schwach bleiben. Sie können sich allenfalls zu kleinen Arbeitsgruppen zusammenfinden und haben auch dort mit ihren gegenläufigen Interessen zu kämpfen. Wenn man nun den Wettlauf der Gemeinschaften mit den Individualisten als Kampf zwischen Gut und Böse ansieht, dann kann hier nur das Gute gewinnen. Die Gemeinschaften stehen für das Gute, weil die unabdingbare Grundlagen einer Gemeinschaft Liebe, Toleranz und Kooperation sind. Die Individualisten stehen für das Böse wegen der Gründe, die sie davon abhalten, sich einer Gemeinschaft anzuschließen, wie Haß, Selbstsucht, Perversion, Gleichgültigkeit und dunkle Geheimnisse. Das Gute wird die Macht haben, das Böse wird wegen der Toleranz des Guten aber fortbestehen.

Wahrscheinlich werden sich Viele fragen, ob ich die Entwicklung der Menschheit nicht zu optimistisch sehe. Was ist mit den großen Problemen, die drohend vor der Menschheit stehen, wie Bevölkerungsexplosion, Umweltverschmutzung, Raubbau an der Natur, Klimakatastrophen durch den Treibhauseffekt und das Ozonloch, die Gefahr eines atomaren Holocausts und anderes?
Wie uns die Erfahrungen dieses Jahrhunderts gezeigt hat, hat sich der wissenschaftliche und technische Fortschritt nicht aufhalten lassen, weder durch weltweite Wirtschaftskrisen, Kriege oder Naturkatastrophen. Selbst während der beiden schlimmsten Katastrophen dieses Jahrhunderts, den Weltkriegen, ging die Entwicklung weiter. Während des zweiten Weltkriegs etwa war mit der Rakete und der Atombombe die Grundlage geschaffen worden für die Weltraumtechnik und der Kerntechnik in der Folgezeit. Natürlich entstand durch diese Techniken auch eine neue Bedrohung der Menschheit von nie dagewesenem Ausmaß, aber vielleicht ist durch die Gefahr eines allesvernichtenden Atomkriegs die Verantwortungsbereitschaft der Menschheit soweit gestiegen, daß sie in Zukunft eher die Kooperation als die Konfrontation sucht.
Das Wachstum der Bevölkerung ist in der Tat beängstigend, und wenn es nicht gebremst wird, sind wohl in der Zukunft gewaltige Hungerkatastrophen unvermeidlich. Allerdings dort, wo die wissenschaftliche und technische Entwicklung vorangetrieben wird, findet die Bevölkerungsexplosion nicht statt. In Deutschland etwa hat man gar eine rückläufige Entwicklung. Auch die Auswirkungen einer Klimakatastrophe treffen hauptsächlich die Länder der dritten Welt. Die Industrieländer liegen in den kühleren Breitengraden, wo man eine Temperaturerhöhung von einigen Grad leichter ertragen kann. Lediglich tiefliegende Länder wie die Niederlande werden durch den ansteigenden Meeresspiegel Probleme bekommen. Und auch die durch den Ozonabbau erhöhte UV-Strahlung wird nicht bis in die Forschungslabors und Industriekomplexe vordringen. Allerdings könnte die Nahrung etwas knapp werden, wenn durch die UV-Strahlung die Vegetation geschädigt wird.
So negativ die Auswirkungen dieser Probleme auch sein mögen, so glaube ich doch nicht, daß der Fortschritt da­durch gebremst wird. Es werden große Anstrengungen nötig sein, um diese Probleme in den Griff zu bekommen oder wenigsten ihre Auswirkungen zu lindern. Diese Anstrengungen werden die Entwicklungen in bestimmten Bereichen geradezu vorantreiben und auch andere Gebiete mitziehen. Und es bleibt die Hoffnung, daß gerade dieser Fortschritt auch zu einer Lösung der Probleme führt, wenigstens dort, wo es noch nicht zu spät ist.

Der Weg zu den Sternen

Mit der heutigen Technik ist es kein Problem, irgend einen Punkt im Sonnensystem zu erreichen. Während bemannte Raumflüge aber extrem aufwendig und teuer sind und noch nicht weiter als bis zum Mond geführt haben, wurden mit unbemannten Raumsonden schon fast alle Planeten erreicht. Unbemannte Raumsonden werden durch Funksignale und Bordcomputer gesteuert. Wenn die Bordcomputer nun leistungsfähig genug geworden sind, um ein simuliertes Gehirn aufzunehmen, ist so in gewisser Weise ein bemannter Raumflug möglich, und das mit dem Aufwand einer unbemannten Mission. Aufwendige Lebenserhaltungssysteme sind da­bei nicht nötig. Auch erhöhter Aufwand für die Sicherheit der Besatzung ist nicht erforderlich, da selbstverständ­lich ein Backup des Raumfahrergehirns auf der Erde zurückbleibt. Im Fall eines Unglücks verliert der Raumfahrer höchstens die Erinnerung an den Flug, er kann seine Reise aber in einer neuen Sonde wiederholen. Auch eine Rückkehr der Sonde wäre nicht unbedingt erforderlich, wenn am Ende der Mission der Gehirninhalt oder zumindest die neuen Erinnerungen über Funk an die Erde übertragen werden.
Wenn eine Sonde auf einem anderen Planeten oder Mond landet, so wird gegenüber einem echten bemannten Flug der fehlende Körper ein Problem. Man wird das Gehirn daher in einen mobilen Universalroboter einbauen müssen, mit dem sich der Raumfahrer auf dem Planeten fortbewegen und alle nötigen Arbeiten verrichten kann. Pläne für fahrbare Planetensonden gibt es auch heute schon, aber das größte Problem bei ferngesteuerten Sonden ist die Signallaufzeit, die je nach Planet und Position mehrere Minuten bis zu mehreren Stunden betragen kann. Von dem Moment an, in dem die Kameras ein unerwartetes Hindernis anzeigen bis zum nötigen Ausweichmanöver vergeht die doppelte Signallaufzeit, daher wäre höchstens eine Bewegung im Schneckentempo möglich. Diese Probleme entfallen, wenn im Roboter ein Computer mit einem simulierten menschlichen Gehirn eingebaut ist, das ihn direkt kontrolliert.
Will man dem Planeten nicht nur einen Besuch abstatten, sondern ihn dauerhaft besiedeln, so muß die Raumsonde auch eine miniaturisierte Universalfabrik und einen Minenroboter enthalten. Der Minenroboter sucht nach Bodenschätzen und fördert sie. Die Universalfabrik produziert damit Ausrüstungsgegenstände, Werkzeuge und Maschinenteile. Mithilfe des Universalroboters werden daraus größere Maschinen, Anlagen und Fabriken gebaut. In diesen Fabriken werden dann noch größere und leistungsfähigere Maschinen und Roboter gefertigt. Die Sonde muß also eine Art Samenkapsel unserer Zivilisation sein, die alles enthält, um mit den vorgefundenen Rohstoffen in einem mehrere Zyklen umfassenden Wachstumsprozeß schließlich alles produzieren zu können, was auch auf der Erde in automatischen Fabriken produziert wird. Die Siedlung ist dann autark, und weitere Raumflüge zu diesem Planeten sind nicht mehr nötig. Um die Siedlungen mit Bewohner zu füllen und die Aufbauarbeiten zu überwachen, werden möglichst früh leistungsstarke Sende- und Empfangsanlagen errichtet, die einen sehr breitbandigen Datenaustausch mit der Erde ermöglichen. Sobald genug neue Computer produziert wurden, werden die Gehirninformationen von weiteren Menschen übertragen und in den Computern als Simulation gestartet. Monatelanges Reisen durchs All bleibt den neuen Siedlern erspart. Da diese Personen ja nur aus Information bestehen, können sie sozusagen mit Lichtgeschwindigkeit zwischen der Erde und einem erschlossenen Planeten hin- und herreisen. Das stellt natürlich große Anforderungen an die Leistungsfähigkeit der Kommunikationsanlagen. Mit Mikrowellen würde ein Transfer wahrscheinlich Tage dauern. Leistungsfähiger wäre eine Kommunikation über Licht mit einem kräftigen Laser als Sender und einem Teleskop als Empfänger. Damit ist theoretisch eine zehntausendfach höhere Bandbreite möglich, vorausgesetzt, man hat eine genügend hohe Lichtstärke, um das aufgrund der energiereicheren Photonen leider auch höhere Quantenrauschen zu vermeiden.
Auf diese Weise kann man fast alle Planeten und Monde sowie die interessanten Asteroiden im Sonnensystem besiedeln. Schließlich brauchen Computer und Roboter keine Sauerstoffatmosphäre. Ein Himmelskörper ohne atembare Atmosphäre ist für eine solche Siedlung genauso gut geeignet wie ein erdähnlicher Planet. Die tiefen Temperaturen sollten auch kein Problem sein. Schließlich sind auch supraleitende Computer denkbar, die nur bei tiefsten Temperaturen funktionieren. Pluto wäre die beste Heimat für solche Computer. Problematischer ist wohl die Hitze. Aber selbst auf Merkur gibt es in tiefen Kratern an den Polarregionen Stellen, an die nie Sonnenlicht gelangt und an denen es entsprechend kalt ist. Nur auf der Venus mit ihrer dichten, um die 400° C heißen Atmosphäre dürfte ohne extrem temperaturstabiler Technik keine Siedlung möglich sein. Wenig geeignet sind wohl auch die Gasriesen selbst, ihre Monde sind jedoch gut zum Siedeln geeignet.

Wenn das Sonnensystem besiedelt ist, wird der nächste Schritt zu den Sternen führen. Mit herkömmlicher Antriebstechnik wird das allerdings eine sehr lange Reise über mehrere zehntausend Jahre. Für biologische Menschen wäre eine solche Reise undenkbar. Man muß also Computer und Maschinen entwickeln, die eine so lange Zeit überstehen können. Eine derartige Technik darf keine Verschleißteile besitzen, muß gegen schädi­gende kosmische Strahlung gut abgeschirmt sein und über Reparaturmechanismen verfügen, um unvermeidliche Schäden selbst beheben zu können.
Da man selbst simulierten Menschen eine so lange Reise nicht zumuten kann, wird man nur Kopien von simulier­ten Menschen mitführen. Durch Reduzieren der Taktrate kann man leicht erreichen, daß zum Beispiel tausend Jahre wie ein einziger Tag empfunden werden. Lediglich in kritischen Fällen wird man auf normalen Takt um­schalten. Die Navigation und die Steuerung der Reparaturroboter übernehmen dagegen normale Computer ohne Zeitempfindung.
Nach der Ankunft in einem neuen System wird sich die Sonde einen geeigneten Planeten oder Mond aussuchen, um eine Basisstation einzurichten. Auch hier kommen miniaturisierte Universalfabriken zum Einsatz, um mit den vorgefundenen Rohstoffen autarke Siedlungen mit Industrieanlagen, Forschungsstationen und Computerzentren zu errichten. Weiterhin entstehen Werften, in denen neue Raumfahrzeuge gebaut werden, um damit sämtliche Planeten und Monde des Systems zu besiedeln und später auch wieder in den interstellaren Raum zu neuen Sternen aufzubrechen. Hohe Priorität hat aber die Errichtung einer gewaltigen Sende- und Empfangsanlage, um die Lichtjahre weite Entfernung zur Erde zu überbrücken. Im Sonnensystem nimmt zur vorausberechneten Ankunftszeit eine ebenso große Gegenstation den Betrieb auf. Zwar sind die gesendeten Signale einige Jahre un­terwegs, aber im Vergleich zur Reisezeit ist das relativ kurz. Damit erfährt die Erde alles Interessante über das neue System, aber es können auch weitere Menschen zum neuen System übertragen werden; und dieses Mal ist es eine Reise mit Lichtgeschwindigkeit.
Wenn es in dem System einen erdähnlichen Planeten gibt, auf dem Leben möglich ist, kann man über die Kommunikationsverbindung auch die Gensequenzen von irdischen Lebensformen, von Pflanzen über Tiere bis zum Menschen übertragen. Damit lassen sich zumindest die Chromosomen der Lebewesen synthetisieren. Falls es noch nicht möglich ist, funktionierende Zellen künstlich herzustellen, wäre es auch möglich, einige robuste Basiszellen tiefgefroren und vor Strahlen geschützt mitzuführen. Oder man beginnt mit sehr primitiven Lebensformen, deren Zellen einfach genug aufgebaut sind, um künstlich hergestellt zu werden und ersetzt schrittweise die Gene, bis man kompliziertere Lebensformen erhält. Auf diese Weise kann sich die Menschheit auch als biologisches Leben im Weltall ausbreiten.
Wegen der sehr langen Reisedauer ist es durchaus möglich, daß die ersten interstellaren Raumsonden vom Fortschritt überholt werden. Eine neuartige Antriebstechnik könnte weit höhere Geschwindigkeiten ermöglichen. Vielleicht ist es dann auch gelungen, mobile Computer zu entwickeln, die nur noch aus reiner Energie bestehen und damit keine Ruhemasse mehr haben. Damit kann der menschliche Geist mit Lichtgeschwindigkeit durch den Weltraum reisen. Sollte es gar irgendwann gelingen, die Grenze der Lichtgeschwindigkeit zu umgehen, wäre der Expansion der Menschheit keine Grenzen mehr gesetzt. Doch auch mit konventioneller Technik wird sich die Menschheit weit in den Weltraum ausbreiten, und mit immer besseren Antriebstechniken kann sich die Expansionsgeschwindigkeit der Lichtgeschwindigkeit annähern. In einigen Millionen Jahren könnte bereits unsere ganze Galaxis kolonisiert sein, in einer Milliarde Jahren sogar ein großer Teil aller Galaxien in unserer Nachbarschaft.
Dies könnte unsere Zukunft sein unter der Voraussetzung, daß unsere Entwicklung nicht gestört wird. Sollten wir aber bei unserem Vorstoß zu den Sternen auf andere, höher entwickelte Zivilisationen treffen, dann wird die weitere Entwicklung einen ganz anderen, unvorhersehbaren Verlauf nehmen. Es ist sehr wahrscheinlich, daß wir bereits relativ früh auf andere Wesen treffen, die bereits eine ähnliche Entwicklung durchlaufen haben und darin schon viel weiter fortgeschritten sind. Um solche Wesen soll es nun im nächsten Kapitel gehen.


3. Die Ersten

In nur 13 Lichtjahren Entfernung gibt es einen roten Zwergstern, der nach seinem Entdecker Jacobus C. Kapteyn den Namen Kapteyn Stern erhalten hatte. In dessen Umlaufbahn wurden zwei Planeten entdeckt mit Umlaufzeiten von 48 und 121 Tagen, wobei sich der innere der beiden, Kapteyn b in der habitablen Zone befindet, in der es flüssiges Wasser und damit Leben geben kann. Mit einem Alter von 11,5 Milliarden Jahre gilt er als ältester aller möglicherweise bewohnbaren Planeten, die bisher entdeckt wurden. Er ist damit zweieinhalb mal so alt wie die Erde. Falls es hier Leben gibt, hätte es bereits länger existiert, als es auf der Erde überhaupt Leben geben kann, bevor die Sonne zur Nova wird. Und er ist nicht der einzige alte Planet in unserer Nähe. Der 11,9 Lichtjahre entfernte Tau Ceti ist wie die Sonne ein gelber Klasse-G-Stern, nur etwas kleiner und kühler, aber mit 10 Milliarden Jahren mehr als doppelt so alt. Auch hier wurde in der habitablen Zone ein Planet gefunden. Wenn es bereits in unserer unmittelbaren Nachbarschaft so alte Planeten gibt, ist zu erwarten, dass es noch viele weitere gibt, die womöglich noch älter sind.  

Die Lebensdauer eines Sterns hängt entscheidend von seiner Temperatur ab. Je heißer ein Stern ist, um so schneller verbraucht er seinen Brennstoff. So kann ein sehr heißer Stern bereits nach weniger als 100 Millionen Jahren ausgebrannt sein, während ein kühler Stern mehr als 100 Milliarden Jahre alt werden kann. Unsere Sonne liegt mit einer Lebensdauer von etwa 11 Milliarden Jahren irgendwo dazwischen. In der Milchstraße werden in Gas- und Staubwolken ständig neue Sterne geboren, daher können wir hier auch viele kurzlebige Sterne beobachten.

Kurz nach dem Urknall bestand die atomare Materie des Universums zu 77% aus Wasserstoff und 23% aus Helium. Schwerere Elemente waren allenfalls in Spuren vorhanden. Ein größerer Stern wird am Ende zu einer Nova oder einer Supernova. Bei einer Nova entstehen schwere Elemente bis zum Eisen, bei einer Supernova auch noch schwerere Elemente. Ein Großteil dieser Elemente wird in einer Explosion abgestoßen. Eine kugelförmige Staubwolke breitet sich dann mit hoher Geschwindigkeit in den Raum aus. Vermischen sich diese Staubwolken mit dem ursprünglichen Wasserstoff- und Heliumgas, so kann daraus eine zweite Generation von Sternen entstehen, sowie kleinere Himmelskörper mit fester Oberfläche, wie Planeten, Monde, Asteroiden und Kometen.

Anfangs entstanden viele besonders große und heiße Sterne. Im Verlauf von wenigen hundert Millionen Jahren explodierten diese und hinterließen große Staubwolken aus schweren Elementen. So nahm die Konzentration an schweren Elementen relativ schnell zu. Somit könnten relativ früh auch er­d­ähn­liche Planeten entstanden sein, auf denen sich Leben entwickeln kann.

Die erste Voraussetzung für die Entstehung von Leben ist ein Planet ähnlich dem der Erde. Die Erde besteht aus Elementen der Ordnungszahl 1 bis 92, wobei das weitaus am häufigsten vorkommende Element Eisen ist. Aus den einfachsten Elementen Wasserstoff und Helium entstanden die höheren Elemente durch Kernfusion in den Sternen, wobei Eisen ein Endprodukt darstellt, aus dem ein Stern keine weitere Energie mehr gewinnen kann.
Frei werden diese Elemente aber nur, wenn ein Stern am Ende seiner aktiven Lebenszeit explodiert und dabei einen Großteil seiner Bestandteile ins All schleudert. Die dabei freiwerdende Energie führt auch zu Elementen, die schwerer als das Eisen sind. Dies geschieht nur bei den besonders massereichen Sternen. Eine solche Explosion wird als Supernova bezeichnet.
Ein Planet wie die Erde kann daher nur aus der Asche einer Supernova entstehen, das heißt, seit dem Anfang muß mindestens die Lebensdauer eines Sterns vergangen sein. Die Lebensdauer eines Sterns hängt stark von seiner Masse ab. Je massereicher ein Stern ist, um so heißer muß er werden, bis er durch seinen inneren Druck dem Gravitationsdruck standhalten kann. Je heißer er aber ist und je dichter die Materie im Innern zusammengepreßt ist, desto schneller laufen die Kernreaktionen in seinem Inneren ab. Um so schneller verbraucht er daher auch seinen Energievorrat und um so kürzer ist seine Lebensdauer. Ein Stern, der zu einer Supernova wird, hat eine Lebensdauer von weniger als einer Milliarde Jahren, herunter bis zu nur 100 Millionen Jahren. Eine Milliarde Jahren nach dem Urknall könnte es also bereits genug Staubwolken mit Elementen höherer Ordnungszahl geben, um erdähnliche Planeten entstehen zu lassen.
Von der Entstehung des Sonnensystems und der Erde bis zum Auftauchen des Menschen sind etwa 4,5 Milliarden Jahre vergangen. Wenn man diese Zahl als notwendige Entwicklungszeit für intelligentes Leben auf einem erdähnlichen Planeten ansetzt, dann kommt man zu der Schlußfolgerung, daß es bereits 5 Milliarden Jahre nach dem Aufleuchten der ersten Sterne intelligentes Leben geben konnte. Wenn das Universum 13,8 Milliarden Jahre alt ist, dann könnte intelligentes Leben bereits seit mehr als 8 Milliarden Jahren existieren.

Die erste Zivilisation

Stellen wir uns daher einfach mal vor, es hätte vor sagen wir mal 8 Milliarden Jahren in unseren Teil des Universums eine Zivilisation gegeben, die einen mit dem unseren vergleichbaren Entwicklungsstand hatte. Die Gründer dieser Zivilisation wären die ersten intelligenten Lebewesen in unserem Teil des Universums, man könnte sie also die Ersten nennen.
Der Planet, auf dem diese Zivilisation entstand, müßte der Erde ähnlich sein. In Anspielung auf sein hohes Alter will ich diesen Planet im folgenden einfach Archan nennen. Seine Bewohner könnte man dann auch als Archaner bezeichnen.

Die Archaner befanden sich irgendwann einmal auf dem Entwicklungsstand, den wir heute haben, das heißt, sie kannten die Atomenergie, die Mikroelektronik und die Computertechnik, hatten erste Erfahrungen mit der Raumfahrt gemacht, usw. Natürlich ist klar, daß die Entwicklung einer intelligenten Spezies auch einen total anderen Verlauf nehmen könnte als die unsere, aber unsere Entwicklung ist nun einmal das einzige reale Beispiel das wir kennen, jede andere Möglichkeit wäre reine Spekulation.

Die Frage ist nun: wie haben sich die Archaner weiterentwickelt, was ist aus ihnen geworden?
Um diese Frage zu beantworten, war der Blick in unsere eigene Zukunft notwendig. Die Archaner haben sich nun vermutlich so ähnlich entwickelt, wie sich auch die Menschheit entwickeln wird, wenn die Entwicklung ungestört verlaufen kann. Im Gegensatz zu uns ist bei den Archanern jedoch auch keine Störung ihrer Entwicklung vom Außen zu erwarten, denn sie waren ja per Definition die Ersten, und es gab noch niemand, der ihre Entwicklung stoppen konnte. Was ich daher im vorhergehenden Kapitel über die Zukunft der Menschheit gesagt habe, könnte für die Archaner bereits uralte Geschichte sein. Daß die Archaner vorzeitig durch eine selbstverschuldete oder eine kosmische Katastrophe vernichtet wurden, will ich ebenfalls per Definition ausschließen, da in diesem Fall eine andere Spezies die Rolle der am weitesten entwickelte Spezies übernommen hätte und ich dann ebensogut diese als die Ersten bezeichnen könnte.

Expansion und Vereinigung

Wenn wir davon ausgehen, daß die Archaner einmal auf einem ähnlichen technologischen Stand waren wie wir jetzt, so ist es plausibel anzunehmen, daß ihre weitere Entwicklung auch einen ähnlichen Verlauf genommen hat wie unsere künftige Entwicklung. Somit haben auch sie ihre Sterblichkeit überwunden durch den Transfer ihres Geistes in die virtuellen Welten von Computern. Auch kam es zu einer Vereinigung der meisten Archanern zu ei­ner globalen Gemeinschaft, die von Liebe und Toleranz bestimmt wird. Und es hat der Vorstoß in den interstella­ren Weltraum begonnen. Diese Expansion begann zunächst langsam, mit Fortschreiten der Technologie näherte sich die Geschwindigkeit der Expansion der Lichtgeschwindigkeit. Im Verlauf vom 10 Milliarden Jahren haben die Archaner einen großen Teil des uns bekannten Universums besiedelt. Sollten sie gar einen Weg zur Überwindung der Lichtgeschwindigkeit gefunden haben, so beherrschen sie bereits das gesamte Universum.
Mit einer überlichtschnellen Kommunikation wäre ein einziges Bewußtsein, das das gesamte Universum ausfüllt, durchaus denkbar. Bei einer Kommunikation mit Lichtgeschwindigkeit würde die Expansion eines Gemeinschaftsbewußtseins zu Problemen führen. Wenn die Antwortzeit auf jede Frage Jahre, Jahrtausende oder gar Jahrmillionen beträgt, ist ein Dialog nicht mehr möglich. Dennoch muß das gemeinsame Bewußtsein dadurch nicht zersplittern. Schließlich waren alle nun örtlich getrennten Teile lange Zeit eine Einheit und haben ein gemeinsames Wertesystem entwickelt und gemeinsame Pläne und Ziele gehabt. Außerdem ist die Verbindung nicht wirklich abgerissen. Alle Teile können weiterhin alle Gedanken, Gefühle, Erfahrungen und Erkenntnisse der anderen Teile empfangen und wissen dabei, daß ihre Gedanken ebenfalls von den anderen wahrgenommen werden. Nur gibt es eben keine unmittelbaren Erwiderungen. Daß auch eine einseitige Kommunikation ohne sofortige Antworten funktionieren kann, zeigen Kommunikationsformen wie der Brief, Medien wie Bücher, Zeitungen und Fernsehen und auch das Gebet.

Früher oder später werden die Archaner auf anderes Leben und andere hochentwickelte Zivilisationen getroffen sein. Wenn die Zivilisation einen ähnlichen Stand ihrer Entwicklung erreicht hat und bereits ein Gemeinschaftsbewußtsein herausgebildet hat, so ist anzunehmen, daß ihrer Entwicklung die gleichen Gesetzmäßigkeiten zugrunde lagen. Demnach werden ihre Charaktereigenschaften und ihre Ziele große Ähnlichkeit miteinander haben. Sie werden also in der Mehrzahl mit den Archanern kooperiert haben und schließlich auch eine Gemeinschaft mit ihnen gebildet haben. In Gegensatz zu biologischem Leben mit seinen zahlreichen Artenschranken gibt es bei geistigem Leben, das auf reiner Information basiert, nichts grundsätzlich Trennendes. Verschiedene Codierungssysteme lassen sich leicht durch entsprechende Übersetzungsroutinen mit­einander kompatibel machen, die enorme Anpassungsfähigkeit von Information lassen Unterschiede und Grenzen immer mehr verschwinden. So sind die Fremden im Laufe der Zeit mit den Archanern zu einer Einheit ver­schmolzen. Bei der Größe des Universums ist zu erwarten, daß an vielen anderen Orten solche Wesen entstanden sind und sich erfolgreich im Universum ausbreiten konnten. Wenn nun zwei dieser Superwesen bei der Expansion aufeinandergetroffen sind, dann sind sie ebenfalls miteinander verschmolzen, in einem Prozeß, der durchaus Jahrmillionen in Anspruch nehmen konnte. Auf diese Weise wären irgendwann alle Lücken im Universum geschlossen worden.

Gott

Gleichgültig, ob die Lichtgeschwindigkeit überwindbar ist oder nicht, man kann in beiden Fällen davon ausge­hen, daß das ganze bewohnbare Universum von einem einzigartigen, unvorstellbar komplexen Geistwesen erfüllt und beherrscht wird, dessen unzählige Einzelbewußtseine ein gemeinsames Überbewußtsein mit einem gemein­samen Willen bilden. Dieser kosmische Geist hat nun mit seinem gewaltigen geistigen Potential in den letzten 10 Milliarden Jahren alles erforscht, was zu erforschen war und mit den daraus entstandenen Erkenntnissen seine Technologie zur höchsten Vollendung gebracht. Er hätte die Macht, alles zu tun, was überhaupt möglich ist. Er könnte alles wissen, was man überhaupt wissen kann. Aufgrund seiner vielen Einzelbewußtseine könnte er an un­zähligen Orten gleichzeitig sein und sich um unzählig viele Dinge gleichzeitig kümmern. Einer primitiveren Intelligenz würde der kosmische Geist zweifellos als Allmächtig, Allwissend, Allgegenwärtig und Ewig erschei­nen. Wesen, die noch nichts über das Universum wissen, die ihren eigenen Planeten für den Mittelpunkt des Universums halten, könnten unmöglich die wahre Größe und Macht des kosmischen Geistes erkennen. Es bräuchte nur eine kleine, für ihn im Grunde eher unbedeutende Machtdemonstration, und schon wäre er für sie der allmächtige Gott.
Daß auch unser Gottesbild in Wirklichkeit den kosmischen Geist widerspiegelt, wird deutlich, wenn wir einige Eigenschaften betrachten, mit denen Gott von den Christen und auch von anderen Religionen bedacht wird.
Eine wesentliche Eigenschaft von Gott ist Liebe in der höchsten Vollendung. Nun habe ich aber gezeigt, daß zur Bildung von Gemeinschaften die Liebe unter den Beteiligten unverzichtbar ist. Je größer die Gemeinschaft wird, um so umfassender muß auch die Liebe werden. Also ist Liebe nicht nur ein zufälliges Wesensmerkmal von Gott, sondern die Voraussetzung seiner Existenz.
Auch steht Gott für das Gute. Wir haben gesehen, daß die Gemeinschaften ein Kristallisationspunkt für das Gute waren, während sich das Böse im Laufe der Zeit in der schrumpfenden Gruppe der Individualisten konzentriert hat.
Die Eigenschaften Allmacht, Allwissenheit, Allgegenwärtigkeit und Ewigkeit wurden ja schon erwähnt. Auch wenn sie für den kosmischen Geist nicht in der strengsten Absolutheit gelten mögen, macht das, was die Belange des Menschen angeht, praktisch keinen Unterschied.

Begegnung mit anderem Leben

Kehren wir nun zu der Frage zurück, was geschehen ist, wenn die Archaner auf anderes Leben und andere hochentwickelte Zivilisationen getroffen sind. Wenn die Zivilisation einen ähnlichen Stand ihrer Entwicklung er­reicht hat, führte dies, wie schon beschrieben, über kurz oder lang zu einer Verschmelzung.
Wenn die Archaner auf Planeten getroffen sind, auf dem es Leben gab, aber noch keine wirklich intelligente Lebensform, so haben sie sich wahrscheinlich darauf beschränkt, den Planeten zu erforschen und Beobachtungsstationen einzurichten, um die weitere Entwicklung im Auge zu behalten. Der Planet wurde also unter eine Art Naturschutz gestellt, denn ein massiver Eingriff in die Biosphäre wie ihn eine Besiedlung mit sich bringt, würde die weitere Entwicklung empfindlich stören und dem Leben möglicherweise die Chance nehmen, aus eigener Kraft intelligentes Leben hervorbringen.
Auch bei einem Planeten, auf dem es bereits intelligentes Leben gab, die technische Entwicklung aber noch an ihrem Anfang stand, mußten sie sehr vorsichtig vorgehen. Eine offene Kontaktaufnahme hätte einen Kulturschock ausgelöst, der die Spezies ihrer Identität beraubt hätte und die eigene Entwicklung ihrer Kultur verhindert hätte. Die Archaner hatten daher für solche Fälle spezielle Gesetze und Richtlinien geschaffen, an die sich auch die Individualisten halten mußten. Diese Gesetze verboten eine offizielle Kontaktaufnahme oder gar ei­ne Invasion. Forschungsexpeditionen mußten also im Verborgenen arbeiten und Beobachtungsstationen mußten gut getarnt werden. Eindeutige Beweise für die Existenz der Fremden durften nicht zurückbleiben. Auch eine indirekte Machtübernahme durch unbemerkte Kontrolle des Willen der Eingeborenen war verboten. Der freie Wille mußte erhalten bleiben.
Allerdings konnte es nicht im Interesse der Archaner liegen, ganz auf eine Lenkung zu verzichten. Schließlich galt es, verhängnisvolle Sackgassen in der Geschichte zu vermeiden, unnötiges Leid verhindern und existenzbe­drohende Katastrophen abzuwenden.

Rettung der Seelen

Was aber mit Sicherheit keinen Schaden anrichten konnte, war die Rettung des Bewußtseins eines sterbenden Planetenbewohners. Der Sterbende erhält die Möglichkeit, in einer anderen Welt weiterzuleben, kann aber nicht mehr zurückkehren, um seinen Artgenossen davon zu berichten. Die Kultur der Spezies kann sich ungestört entwickeln, ohne daß den Wesen der Segen des ewigen Lebens vorenthalten wird. Natürlich ist dazu eine Technik nötig, die es erlaubt, die Rettung eines Bewußtseins beim Eintritt des Todes völlig unbemerkt vorzu­nehmen. Die dazu nötigen Vorrichtungen dürfen auch von einer weiter fortgeschrittenen Zivilisation mit ihren technischen Möglichkeiten nicht entdeckt werden. Die Beschaffenheit dieser Vorrichtungen müssen daher auch uns noch unbekannt sein. Vielleicht sind die Geräte im subatomar Kleinen oder in der Struktur des Raumes verborgen, bestehen aus einer unbekannten Energieart, einem Kraftfeld, oder einer unbekannte Form von Materie, die kaum Wechselwirkungen mit bekannter Materie hat. Neutrinos beispielsweise werden in großen Mengen von der Sonne ausgestrahlt und durchdringen mühelos massive Materie. Die gesamte Erde ist für sie durchsichtiger als es eine dünne Glasscheibe für sichtbares Licht ist. Auf jedes Atom im Universum kommen etwa 6 Milliarden Neutrinos. Dabei wissen wir noch sehr wenig über diese Teilchen, es ist nicht einmal bekannt, ob sie eine Ruhemasse haben oder sich nur mit Lichtgeschwindigkeit bewegen können. Wenn sie nun eine Ruhemasse hätten, wären auch kalte Neutrinos, d.h. Neutrinos mit geringer Bewegungsenergie denkbar, die sich durch Aneinanderlagern organisieren könnten. Solche Komplexe aus kalten Neutrinos wären mit heutigen Mitteln absolut unnachweisbar. Neutrinos sind uns bekannt, weil sie in vielen Elementarteilchenreaktionen erzeugt werden und dort Energie und Impuls aufnehmen. Es wären aber auch andere stabile Teilchen denkbar, die einen ähnlich niedrigen Wechselwirkungsquerschnitt haben, aber noch in keinem Teilchenbeschleuniger erzeugt werden konnten. Natürlich sind das alles nur Spekulationen, es ist jedoch sicher, daß wir noch nicht alles wissen und die Natur noch ein paar Überraschungen für uns bereithält.

Daß es aber noch eine unbekannte Form stabiler Materie geben muß, zeigt sich bei der jüngsten Suche nach der sogenannten dunklen Materie. Es hat sich gezeigt, daß nach der heutigen Theorie der sichtbare Teil der Materie weniger als ein Prozent der gesamten Materie im Universum ausmacht. Nach der sogenannten Inflationstheorie entspricht die Dichte des Universums gerade der kritischen Dichte von 5*10-24 Gramm pro Kubikmeter. Bei dieser Dichte erhält man ein flaches Universum. Enthält das Universum mehr Materie als es der kritischen Dichte entspricht, so ist das Universum geschlossen, der Raum ist zu einer vierdimensionalen Kugel gekrümmt. In dem Fall ist die Gravitation so stark, daß die Expansion des Universums irgendwann zum Stillstand kommt. Danach stürzt das Universum wieder in sich zusammen. Bei einer Dichte kleiner als der kritischen Dichte würde sich das Universum dagegen für alle Zeiten immer weiter ausdehnen und die Krümmung wäre negativ, vergleichbar mit einem Pferdesattel. Das Verhältnis zwischen tatsächlicher Dichte und kritischer Dichte wird mit dem griechi­schen Buchstaben W (Omega) bezeichnet. Wenn nun W nicht exakt den Wert eins hat, dann entfernt es sich im Laufe der Zeit immer weiter von dem Wert eins. Wenn W also in einem frühen Stadium des Universums nur wenig größer als eins gewesen wäre, dann wäre W schnell so groß geworden, daß das Universum längst wieder in sich zusammengestürzt wäre. Wäre W dagegen nur geringfügig kleiner gewesen als eins, dann hätte sich das Universum so schnell in die Unendlichkeit ausgebreitet, daß gar keine Sterne hätten entstehen können.
Die Inflationstheorie konnte dieses Problem lösen, nach dieser Theorie ergibt sich ein W von praktisch exakt eins. Rechnet man aber die Masse aller sichtbaren Sterne und Galaxien hoch, so kommt man auf ein W von weniger als 0,01. Allerdings zeigt die Bewegung der Sterne innerhalb einer Galaxie und die Bewegung der Galaxien umein­ander, daß in es in der Umgebung der Galaxien große Mengen nichtleuchtende Materie geben muß. Das können Wolken aus Gas und Staub sein, braune Zwerge und schwarze Löcher, vielleicht auch eine unbekannte Form von Materie. Nimmt man diese Materie hinzu, so erhält man ein W von 0,1, also immer noch um Faktor zehn zu wenig. Wenn W also tatsächlich 1 ist, so müssen 90% der Materie von einer völlig anderen Art sein. Dies wird auch bestätigt von der Urknalltheorie. Das zahlenmäßige Verhältnis der Elemente zueinander, das sich aus dem Urknall ergeben hat, hängt von der damaligen Dichte der Baryonen ab. Baryonen sind die Elementarteilchen, aus denen die Atome bestehen, also Protonen, Neutronen und Elektronen. Nach dem heute vorgefundenen Verhältnis zwischen den Elementen entspricht die Zahl der Baryonen einem W von 0,05 bis 0,1. Der Rest muß also nicht­baryonische Materie sein. Daß es diese Materie geben muß, zeigt sich auch an der Tatsache, daß es überhaupt Galaxien gibt. Aus den äußerst geringen Schwankungen in der Materiedichte, wie sie die Hintergrundstrahlung aufzeigt, konnten sich in der zu Verfügung stehenden Zeit keine Galaxien entwickeln. Die Hintergrundstrahlung zeigt schließlich die Materieverteilung, als die Temperatur des Universums auf unter 3000K abgesunken war. Wenn es aber zusätzlich Materie gab, die nicht mit dem Licht wechselwirkt, dann hätte diese Materie viel unregelmäßiger verteilt sein können, ohne daß dies in der Hintergrundstrahlung eine Spur hinterlassen hätte. Dann hätte diese nichtbaryonische Materie die Gravitationskeime zur Bildung der Galaxien und der großräumi­gen Strukturen im Universum sein können. Wie man sieht, gibt des durchaus zwingende Gründe für die Annahme einer gänzlich anderen Form von Materie, die auf Licht keinerlei Wirkung hat.
Woraus könnte diese unbekannte nichtbaryonische Materie nun bestehen? Die ersten Kandidaten dafür wären die Neutrinos. Sollten sie tatsächlich eine Ruhemasse haben, so könnten sie die fehlende Masse durchaus beisteuern. Für die Entstehung der Galaxien würden sie allerdings nicht ausreichen. Aufgrund ihrer hohen Geschwindigkeit könnten sie nur sehr großräumige Strukturen entstehen lassen, zu Bildung von Galaxien blieben sie nicht lange genug an Ort und Stelle. Neben der heißen dunklen Materie, die etwa aus schnellen Neutrinos bestehen könnte, braucht man auch kalte dunkle Materie, die aus schwereren und trägeren Teilchen besteht.
Kandidaten dafür stammen aus dem Versuch, alle Elementarkräfte in einer Theorie zu vereinigen. In den Großen Vereinheitlichten Theorien mit Supersymmetrie hat jedes Elementarteilchen einen supersymmetrischen Partner. Der Partner des Elektrons wäre das Selektron, der Partner des Quarks hieße Squark und der des Photons etwa Photino. Zumindest das leichteste dieser Teilchen sollte stabil sein. In Frage käme dafür unter anderem das Photino, das Gravitino und das Higgsino. Bisher hat man allerdings noch keines dieser Teilchen gefunden.
Ein anders hypothetisches Teilchen, das für die kalte dunkle Materie in Frage kommen könnte, wurde Axon genannt. Wenn es existiert, dann muß es wesentlich leichter als ein Elektron sein, es hätte weniger als ein Milliardstel der Elektronenmasse. Diese Teilchen wären im frühen Universum entstanden, als sich die Quarks zu Protonen und Neutronen vereinigten und zwar in einer Zahl, die weit über der Anzahl der Neutrinos liegt. Aufgrund der großen Zahl könnte ihre Masse das Universum beherrschen. Und im Gegensatz zu den Neutrinos würden sie im Ruhezustand erzeugt, so daß sie kalte dunkle Materie bilden könnten.
Als weitere Kandidaten waren schon kleine urzeitliche schwarze Löcher im Gespräch und topologische Defekte des Raums wie magnetische Monopole und kosmische Strings. Es könnte auch sogenannte Quark-Nuggets geben, eine Zusammenballung sehr vieler Quarks, sozusagen ein Objekt, das zwischen einem Atom und einem Neutronenstern angesiedelt wäre.
Als letztes wäre noch eine Art von Schattenmaterie zu nennen. Nach der Theorie von Allem, die alle vier Elementarkräfte in sich vereinigen will, kann sich 10-43 Sekunden nach dem Urknall ein paralleles Universum von dem unserem abgespalten haben. Dies würde denselben Raum wie das unsere einnehmen, hätte aber völlig andere Kräfte und Teilchen. Dieses Schattenuniversum würde mit unserem Universum nur über die Gravitation, die schwächste aller Kräfte wechselwirken, ansonsten würden wir nichts davon bemerken.
Bisher wissen wir nur, daß es die dunkle Materie geben muß. Aus welchen der oben vorgestellten Möglichkeiten sie aber tatsächlich besteht, läßt sich noch nicht sagen. Möglicherweise trifft ja auch keine dieser Möglichkeiten zu und sie ist von einer vollkommen anderen Art als wir uns bis jetzt vorstellen konnten.
Das alles soll deutlich machen, daß es im Universum höchstwahrscheinlich mehr gibt, als die Art von Materie, die wir kennen. Eine fortgeschrittene Zivilisation könnte also durchaus noch neue Formen von Materie entdecken und sich nutzbar machen. Sie könnte eine Technologie auf der Basis dieser Materie entwickeln, die von uns völlig unbemerkt bliebe. Mit dieser Technologie könnten sie einer primitiveren Intelligenz zu Unsterblichkeit verhelfen, ohne daß diese etwas davon bemerkt. Erst beim Eintritt des Todes würde das Individuum bemerken, daß es da jemanden gibt, für den das Leben so kostbar ist, daß er niemand der Vergänglichkeit preisgeben will.

Daneben gibt es aber auch konkrete Hinweise, daß es einen solchen unsichtbaren Rettungsmechanismus für das Bewußtsein tatsächlich gibt. Es scheint sogar so zu sein, daß der Mechanismus nicht nur im Moment des Todes wirksam wird, sondern während des gesamten Lebens aktiv ist und die gesamte Entwicklung des Gehirns und alle gemachten Erfahrungen bis ins kleinste Detail speichert. Und es gibt auch Hinweise, daß dieser Informationsfluß keine Einbahnstraße ist, sondern unter bestimmten Bedingungen auch ein Rückfluß an Information möglich ist, um die Integrität des Bewußtseins zu erhalten. Eine wichtige Quelle für solche Hinweise sind Nahtoderfahrungen, auf die ich im nächsten Kapitel eingehen werde.

4. Leben nach dem Tod

Die Vorstellung, daß nach dem physischen Tod des Menschen nicht alles zu Ende ist, ist so alt wie die Menschheit selbst. Schon in den frühesten Kulturen glaubte man an ein Weiterleben in irgend einer anderen Form. Bei den meisten Religionen ist das Weiterleben in einer anderen Welt ein elementarer Bestandteil. Woher kommt diese Vorstellung? Ist es nur ein Wunschtraum, oder ist es eine Ahnung von der Wirklichkeit? Gibt es für die Entstehung dieser Vorstellung womöglich einen realen Hintergrund?
Heute beginnt man die Mechanismen des Lebens und der Vorgänge im Gehirn in immer größeren Maße zu verstehen. Es sieht heute so aus, als ob die Tatsache, daß man noch nicht alles erklären kann, nicht auf gänzlich unbekannte Faktoren zurückzuführen ist, sondern nur auf die enorme Komplexität der ablaufenden Prozesse. Nichts von den bekannten biologischen und physikalischen Prozessen deutet aber auch nur im Entferntesten auf die Möglichkeit eines Lebens nach dem Tod hin. So gelangten viele zu der Ansicht, das ein Leben nach dem Tod nur eine Illusion ist. Um den Tod nahestehender Menschen erträglicher zu machen, will man glauben, daß sie ir­gendwo weiterleben. Man dies zwar nicht beweisen, aber man kann auch nicht das Gegenteil beweisen. Ist also doch nur der Wunsch Vater des Glaubens an ein Leben nach dem Tod? Schließlich, so sagt man, ist noch niemand zurückgekommen, um davon zu berichten. Ist das aber wirklich so?

Nahtoderfahrungen

Immer wieder gab es Menschen, die für tot gehalten wurden und doch plötzlich wieder zum Leben erwacht sind. Man spricht dabei von Scheintoten. Mit dem Fortschritt in der Medizin gelingt es immer öfters, einen Menschen, der bereits klinisch tot ist, zu reanimieren. Es gibt also Menschen, die zumindest für kurze Zeit tot waren und doch zurückgekommen sind. Können diese Menschen nun sagen, wie der Tod wirklich aussieht? Eigentlich wäre zu erwarten, daß sie überhaupt nichts zu berichten haben. Wenn der Tod das große Vergessen, die totale Auslöschung der Existenz ist, dann sollte das Erlöschen aller Körperfunktionen eine tiefe Bewußtlosigkeit zufolge haben. Eine Erinnerung an die Zeit ohne Bewußtsein könnte es nicht geben. Völlig unerklärlich erscheint es da, daß dennoch viele Menschen gerade in dieser Zeit die intensivsten Erfahrungen ihres Lebens gemacht ha­ben!

Etwa ein Drittel aller Menschen, die wieder zum Leben zurückgeholt werden konnten, können über außerge­wöhnliche Erfahrungen berichten. Bekannt geworden sind solche Berichte etwa durch den Bestseller "Leben nach dem Tod" von Dr. Raymond A. Moody, der ungefähr 3000 Leute interviewt hat und ihre Berichte in mehreren Büchern veröffentlichte. Auch die Arbeit von Dr. Elisabeth Kübler-Ross auf dem Gebiet der Sterbeforschung bestätigt solche Erfahrungen.
Kann man von solchen Menschen Informationen über eine jenseitigen Welt erwarten, oder muß man das alles als lebhafte Halluzination abtun? Es gibt eine Reihe von Hinweisen, die gegen eine Halluzination sprechen. Zunächst waren die Menschen zu dem Zeitpunkt alles andere als lebhaft. Wenn das Herz nicht mehr arbeitet, das Gehirn keinen Sauerstoff mehr erhält und selbst die einfachsten Reflexe ausgefallen sind, dann kann es auch keine Halluzinationen mehr geben. Zudem können viele davon berichten, was zu der Zeit um sie herum geschehen ist und was gesprochen wurde, und die Berichte stimmen mit der Erinnerung der Beteiligten überein. Spezielle Untersuchungen galten Menschen, die mindestens seit zehn Jahren vollkommen blind waren. Sie konnten während der Nahtoderfahrung wieder perfekt sehen und konnten hinterher auch Farben, Musterung und Schnitt der Kleidung aller Anwesenden aufs Genaueste beschreiben. Wer also eine solche Nahtoderfahrung als Halluzination aufgrund von Sauerstoffmangel im Gehirn erklären will, kann ja mal versuchen, einem Blinden durch Sauerstoffmangel das Sehvermögen wiederzugeben.
Auch schwere Autounfälle, bei denen eine ganze Familie verunglückt ist, können erstaunliche Erkenntnisse liefern. Sterbende Kinder wußten genau, welche Familienmitglieder bereits tot waren, obwohl man ihnen nichts gesagt hatte. Das kam zum Ausdruck in Aussagen wie "Es ist alles in Ordnung, Mami und mein Bruder warten schon auf mich". Dabei wurden ausschließlich Familienmitglieder genannt, die zu diesem Zeitpunkt bereits gestorben waren, und seien es nur wenige Minuten zuvor. Selbst die Betreuer erhielten oft erst hinterher die Nachricht, daß ein weiteres Familienmitglied inzwischen seinen Verletzungen erlegen ist.
Und schließlich stimmen die Berichte der verschiedensten Menschen in hohem Maße überein, es tauchen immer dieselben Elemente auf, und auch die Reihenfolge der Ereignisse ist fast immer dieselbe. Im folgenden sollen solche Erfahrungen beschrieben werden, wobei ich nicht auf einzelne Berichte eingehen will, sondern nur die Elemente beschreibe, die in vielen Berichten immer wieder auftauchen. Für Genaueres sei auf die verschiedenen Bücher zu diesem Thema verwiesen.

Am Anfang einer Nahtoderfahrung steht in vielen Fällen, daß ein Mensch hört, wie er für tot erklärt wird. Das kann durch einen Arzt geschehen oder durch andere Anwesende. Wenn er den anderen mitteilen will, daß er gar nicht tot ist, merkt er, daß er dazu aus irgend einem Grund nicht in der Lage ist.
Gleichfalls zählt zu den ersten Erfahrungen, daß plötzlich alle Schmerzen verschwinden. Man fühlt sich voll­kommen entspannt und verspürt Wärme und höchstes Wohlbehagen, auch wenn es in Wirklichkeit sehr kalt ist und man zuvor die heftigsten Schmerzen hatte. Man hat ein Gefühl von Frieden, Harmonie und vollkommener Ruhe.
Damit verbunden ist oft auch das Gefühl, sich durch einen dunklen Tunnel zu bewegen. Es wird beschrieben als eine absolut finstere schwarze Leere oder ein Vakuum, und man hat das Gefühl, sich darin mit großer Geschwindigkeit zu bewegen oder hinabzugleiten. In diesem Zusammenhang tritt zuweilen auch ein seltsames Geräusch auf, das meist als unangenehm oder lästig bezeichnet wird. Die Dauer dieses Zustands kann sehr unterschiedlich sein, meist ist sie relativ kurz. Anschließend, also quasi beim Erreichen des Tunnelendes kann man seine Umwelt wieder wahrnehmen, doch die Perspektive hat sich auf seltsame Weise verändert.
Plötzlich ist man in der Lage, seinen eigenen Körper aus einem gewissen Abstand zu betrachten. Oft schwebt man dabei über den Köpfen der anderen und kann die ganze Szenerie gut überblicken. Diese Erfahrung, sich außerhalb des eigenen Körpers zu befinden, ist meist sehr verwirrend und ein äußerst überraschendes Erlebnis. Es ist ja auch recht merkwürdig, wenn man bei Menschen, die sich einem zugewandt haben, nicht das Gesicht, sondern den Hinterkopf sieht. Auch können sie nicht hören, was man ihnen sagen will, und kein Mensch nimmt irgend eine Notiz von einem. Obwohl man alles sieht und hört, kann niemand einen selbst sehen oder hören.
Oft ist man auch überrascht oder betroffen über sein eigenes Aussehen, zum einen ist der Körper meist gezeich­net von Krankheit oder schwer verletzt, zum anderen sieht man sich nicht so wie im Spiegel von vorne, sondern in der Weise, wie auch die anderen einen sehen. So kommt es durchaus vor, daß man den eigenen Körper gar nicht auf Anhieb als solchen erkennt. Die Empfindungen beim Anblick des eigenen Körpers sind unterschiedlich. Die einen beobachten mit Sorge, wie bei Wiederbelebungsmaßnahmen der Körper traktiert wird und er unter der Wirkung der Elektroschocks förmlich in die Höhe schnellt und versuchen, ihn zu schützen, freilich ohne Erfolg. Andere betrachten ihren Körper wie einen fremden Gegenstand, auch ein blutüberströmter, zusammengequetsch­ter Körper läßt sie vollkommen gleichgültig.

Der Geistkörper

In den allermeisten Fällen haben die Menschen immer noch das Gefühl, einen Körper zu haben, auch wenn dieser ganz anders beschaffen ist wie ihr physischer Körper. Er wird als durchsichtig, wie Nebel oder Rauch beschrie­ben. Auch wenn die Gestalt nicht mit dem physischen Körper übereinstimmt, so gibt es doch eine Struktur, ein Oben und Unten, mit Kopf und Gliedmaßen. Allerdings scheint die Gestalt nicht von Bedeutung zu sein, auch die Hände erwiesen sich als nutzlos, sie konnten damit weder etwas berühren noch von der Stelle bewegen. Der Körper scheint weder über einen Tastsinn, noch über Geruchs- oder Geschmacksinn zu verfügen, auch der kinästhetische Sinn, mit dem wir Stellung, Bewegung und Spannung in Muskeln und Gelenken wahrnehmen und der uns ein Körpergefühl vermittelt, scheint nicht vorhanden zu sein. Der Gesichtssinn und das Gehör scheint da­gegen wesentlich leistungsfähiger zu sein als im physischen Körper, wenn diese Sinne auch auf einem anderen Prinzip beruhen müssen. Während der Geistkörper für die anwesenden Menschen völlig unsichtbar ist, kann ein Sterbender seinen eigenen Geistkörper sehen und auch den von anderen Geistwesen. Das deutet darauf hin, daß er zumindest nicht ausschließlich auf der Basis von Licht arbeiten kann. Außerdem, würde Licht zum Zwecke der Wahrnehmung absorbiert, so müßte man in der Nähe von Sterbenden zwei dunkle Flecken beobachten können, was aber noch nie der Fall war. Die Entfernung scheint für das Sehen keine Rolle zu spielen. Die Berichte sprechen davon, daß es ausreicht, sich auf irgend etwas zu konzentrieren, um es sogleich wie mit einem Zoomobjektiv aus nächster Nähe betrachten zu können, ohne dabei selbst die Position zu ändern. Man hat dabei das Gefühl, auf diese Weise jedes beliebige Ereignis auf der ganzen Welt beobachten zu können, ganz gleich, wie groß die Entfernung ist.
Der Gehörsinn scheint nach Aussagen der meisten weniger die akustischen Schwingungen der Luft zu registrie­ren als direkt die Gedanken der Menschen. So konnten sie bereit "hören", was jemand sagen wollte, bevor dieser den Mund zum Sprechen geöffnet hat.
Der Geistkörper selbst ist anscheinend nicht der Schwerkraft unterworfen. In der Regel schwebte er in einiger Höhe über dem Boden. Materielle Körper bilden für ihn auch kein Hindernis. Menschen können durch einen Geistkörper hindurchgehen, der Geistkörper selbst kann mühelos Mauern und geschlossene Türen durchqueren. Auch die Fortbewegung an einen anderen Ort kann blitzschnell vor sich gehen.
Auch der Denkprozeß läuft in dem Geistkörper viel rascher und klarer ab als zuvor. Der Verstand ist viel auf­nahmefähiger und verarbeitet auch eine Vielzahl von Eindrücken sofort, ohne daß man danach über irgend etwas noch weiter nachdenken muß.

Das Lichtwesen

Ein wichtiger Punkt, der in den Berichten immer wieder auftaucht, ist die Begegnung mit einem erstaunlichen Wesen. Es erscheint stets in Form eines außerordentlich hellen Lichts. Trotz seiner großen Helligkeit blendet es nicht und verhindert nicht die Sicht auf die Umgebung. Der Sterbende fühlt, wie eine überwältigende Liebe, Wärme und Geborgenheit von diesem Licht ausgeht und auf ihn einströmt. Kurz nach seinem Erscheinen stellt das Lichtwesen eine Frage, allerdings nicht in Form von hörbaren Worten, sondern es ist die direkte Übermittlung eines Gedankens. Wenn die Befragten diesen Gedanken in Worte fassen sollen, dann benutzen sie Formulierungen wie: "Bist du bereit zu sterben?", "Was hast du mit deinem Leben angefangen, das bestehen kann?" oder "Was hast du in deinem Leben getan, das du mir jetzt vorweisen kannst?". Dabei ist diese Frage nie vorwurfsvoll oder anklagend gemeint, sie soll eher dazu anregen, daß die Betroffenen offen und ehrlich über ihr Leben nachdenken, um dabei zu neuer Erkenntnis zu gelangen. Sie haben dabei stets das Gefühl derselben uneingeschränkten Liebe und Annahme, gleichgültig wie auch immer die Antwort auf die Frage aussehen mag.
Menschen mit christlichen Hintergrund nannten in dieses Lichtwesen oft Jesus Christus, Juden sahen darin einen Engel, häufig wurde es auch einfach als helles Licht oder als Lichtwesen bezeichnet.

Der Lebensfilm

Das nächste Ereignis kann man als Lebensfilm beschreiben. Dabei läuft das ganze Leben in chronologischer Reihenfolge in ganz kurzer Zeit noch einmal vor einem ab. Manche sagen gar, sie hätten ihr ganzes Leben mit allen Stationen gleichzeitig in einem Panorama vor sich gesehen. Die Bilder waren dabei dreidimensional, sehr realistisch und bewegt, und sie enthielten auch kleinste Details. Trotz der kurzen Dauer konnten die Betroffenen alles aufnehmen und verarbeiten. Allerdings sahen sie die Ereignisse nicht so, wie sie es selbst damals gesehen hatten, sondern aus der Perspektive eines Dritten, als ob eine unsichtbare Kamera die ganze Szene aus einem gewissen Abstand aufgenommen hätte. Das heißt, sie konnten ihr damaliges Ich von außerhalb beobachten, als wäre es irgend eine Gestalt in einem Film. Weiterhin konnten sie auch wahrnehmen, welche Folgen ihre Handlungen auf andere Menschen gehabt haben. Alles, was man anderen zugefügt hat, muß man nun selbst miterleben, oft begleitet von einem Gefühl bitterer Reue, aber auch die positiven Auswirkungen von liebevollen und selbstlosen Handlungen werden miterlebt und sind dann ein Grund zu großer Freude.
In den Fällen, in den eine Begegnung mit dem Lichtwesen stattgefunden hat, begleitete es auch den Lebensfilm und kommentierte ihn. Dabei scheint es ihm auf zwei Dinge besonders anzukommen: Einmal das Verhältnis zu den Mitmenschen. Man wird ermuntert, mehr an andere Menschen zu denken und ihnen mit Liebe zu begegnen. Zum anderen scheint das Lernen und die Suchen nach Wissen sehr wichtig zu sein. Dabei entstand der Eindruck, daß die Suche nach Wissen ein kontinuierlicher Prozeß ist, der auch nach dem Tod immer weiter geht.

Die Folgen

Diese Erfahrungen hatten natürlich auch Folgen für das weitere Leben der Menschen. Sie lebten danach bewußter und wurden nachdenklicher. Sie empfanden ihr weiteres Leben als erweitert und vertieft. Die Prioritäten in ihrem Leben änderten sich, denn sie hatten in ihrem Erlebnis erfahren, worauf es wirklich ankommt. Fast jeder hat hervorgehoben, wie wichtig die Liebe zu anderen Menschen ist, und daß es das Ziel ist, dieser intensiven Art bedingungsloser Liebe, wie sie von dem Lichtwesen ausgegangen ist, näherzukommen. Außerdem legten sie danach mehr Wert darauf, Wissen zu erlangen, wie eine Frau etwa, die danach jede ihr sich bietende Fortbildungsmöglichkeit nutzte. Egal, wie alt man ist, es scheint wichtig zu sein, nie mit dem Lernen aufzuhören.
Weiterhin haben diese Menschen jegliche Angst vor dem Tod verloren. Sie sind sich sicher, daß es ein Weiterleben nach dem Tod gibt, auch wenn sie vor ihrer Nahtoderfahrung nicht daran geglaubt hatten. Aber sie wissen auch, daß ein Selbstmord als schneller Weg in diese andere Welt absolut verboten ist. Stattdessen haben sie das Gefühl, daß sie in diesem Leben noch etwas Wichtiges zu erledigen haben.
Jemand, der nach einem Selbstmordversuch eine Nahtoderfahrung gemacht hat, war danach nicht mehr in der Lage, jemals wieder einen neuen Selbstmordversuch zu unternehmen. Sie erkannten, daß sie einen schweren Fehler gemacht haben, und daß man sich den Problemen, vor denen man davonlaufen wollte, auch nach dem Tod wird stellen müssen. Nur muß man dann die unheilvollen Folgen seiner Tat ohnmächtig mit ansehen und hat keine Möglichkeit mehr, irgend etwas wieder gut zu machen.
Überhaupt überwiegte bei allen der Eindruck, daß es ein schwerer Verstoß gegen die Regeln ist, sich selbst oder anderen das Leben zu nehmen, und daß eine solche Tat ernste Folgen nach sich zieht.

Versuch einer Interpretation

Die Beschreibung des dunklen Tunnels haben mich zu der Überlegung geführt, was wohl ein körperloses Gehirn empfinden würde, wenn es von allen Sinnesorganen abgeschnitten ist. Beim Verlust des Gesichtssinns würde er nur eine Schwärze um sich herum wahrnehmen. Der Verlust des Gehörs könnte absolute Stille bedeuten. Ein Hörsturz, ausgelöst durch ein verstopftes Blutgefäß, macht sich allerdings meist durch heftige Ohrgeräusche be­merkbar. Auch wenn die Sinneszellen durch längere Lärmeinwirkung betäubt worden sind, hört man danach in der Stille eine Zeitlang Geräusche im Ohr. Auch muß das Gehirn gewisse Geräusche wie Herzschlag und das Rauschen des Blutes in den Adern kompensieren, die dann beim Wegfall der Eingangssignale in Erscheinung tre­ten können.
So wäre es durchaus möglich, daß ein isoliertes Gehirn ein gleichförmiges oder rhythmisches Geräusch wahr­nimmt.
Eine Bewegung kann man nicht direkt wahrnehmen, aber sehr wohl eine Beschleunigung, die in den Bogengängen des Ohrs registriert wird. Die Erdanziehung wirkt aber in derselben Weise wie eine Beschleunigung, so daß die Bogengänge ständig Signale an das Gehirn liefern müssen. Das Gehirn muß nun unter Berücksichtigung der Stellung des Kopfes und den Wahrnehmungen der Augen die Wirkung der Schwerkraft herausrechnen, um eine Information über die Beschleunigung zu erhalten. Fehlen diese Signale, so errechnet das Gehirn daraus eine starke Beschleunigung. Die wahrgenommene Beschleunigung ist im einfachsten Fall nach unten gerichtet, aber wenn ebenfalls der Gesichtssinn fehlt und die Stellung des Kopfes nicht mehr zu ermitteln ist, kann das Gehirn dadurch so verwirrt sein, daß auch andere Richtungen empfunden werden.
Wenn man nicht weiß, wo man ist und absolut nichts sieht und auch sonst nichts wahrnimmt, dann hat man in der Regel den Eindruck, sich in einem geschlossenen Raum zu befinden, denn in einem offenen Raum sieht man meist doch irgend etwas, hört Umgebungsgeräusche, verspürt einen Luftzug und riecht die frische Luft. Bewegt man sich aber mit großer Beschleunigung in konstanter Richtung, ohne anzustoßen, so muß daraus der Eindruck eines langen Zylinders, eines Rohrs oder eines Tunnels entstehen. Wenn man aber trotz der hohen Geschwindigkeit keinerlei Luftzug verspürt, so wird man den Eindruck erhalten, sich durch ein Vakuum, durch eine absolute Leere zu bewegen.
Vergleicht man das alles mit den Beschreibungen der Sterbenden, so erkennt man eine verblüffende Übereinstimmung. Das läßt darauf schließen, daß es beim Sterben eine Phase gibt, in der das Bewußtsein von den Sinnen des Körpers abgeschnitten ist. Das könnte dadurch geschehen, daß bei Sauerstoffmangel zuerst die peripheren Bereiche des Gehirns ausfallen, bevor schließlich auch die Träger des Bewußtseins die Funktion einstellen. Es könnte aber auch dadurch geschehen, daß die Funktionen des Gehirns auf ein anders Trägermedium übergehen, das ich als Seele bezeichnet habe. Da die Seele wegen des nicht mehr funktionsfähi­gen Gehirns keine Verbindung zu den Sinnesorganen des Körpers mehr hat, entstehen Empfindungen wie bei ei­nem isolierten Gehirn. Dieser Zustand hält meist nur kurze Zeit an. Wenn man danach wieder Sinnesinformationen erhält, sind diese aber anderer Art und man findet sich außerhalb des Körpers wieder. Die Zeit ohne Sinne könnte man mit der nötigen Anpassung an eine neue Art von Sinnesinformation erklären, für die das Gehirn bisher keine Verarbeitungsstufe hatte. Wenn dazu neue Strukturen geschaffen werden müssen, könnte es sein, daß bei der Rücktransformation in den physischen Körper Reste davon erhalten bleiben. Tatsächlich be­richten einige Personen, daß sie nach dieser Erfahrung plötzlich schwache telepathische Fähigkeiten an sich entdeckt haben, indem sie etwa bei fremden Menschen am Gesicht ablesen konnten, welche Probleme sie haben oder oft bereits im Voraus wußten, was jemand anderes sagen wollte. Im Geistkörper konnten sie ja die Stimmen der anderen nicht direkt hören, stattdessen aber die ihre Gedanken wahrnehmen.

Das Lichtwesen wurde oft als Jesus Christus bezeichnet. Einen Hinweis darauf, daß Jesus tatsächlich als helles Licht erscheinen kann, finden wir in der Bibel.
In einer Anhörung vor König Herodes Agrippa II. gibt Apostel Paulus folgenden Bericht (App. 26,12):
Und als ich hierbei mit der Erlaubnis und Vollmacht der Hohenpriester nach Damaskus reiste, sah ich mitten auf dem Weg, o König, ein Licht, das vom Himmel her mich und meine Begleiter heller als der Glanz der Sonne umleuchtete. Da stürzten wir alle zur Erde nieder, und ich hörte eine Stimme in hebräischer Sprache zu mir sa­gen: Saul, Saul, was verfolgst du mich? Es ist schwer für dich, gegen den Stachel auszuschlagen. Ich aber sagte: Wer bist du, Herr? Da sprach der Herr: Ich bin Jesus, den du verfolgst. Doch steh auf und stell dich auf deine Füße! Denn dazu bin ich dir erschienen, dich zu bestimmen zum Diener und Zeugen dessen, wie du mich gesehen hast, und dessen, wie ich dir künftig erscheinen werde.

Lebensfilm - Reintegration des Geistes?

Etwas ausführlicher möchte ich hier auf den Lebensfilm eingehen, weil ich meine, daß er einige recht interessante Aspekte enthält.
Bei dem Lebensfilm sehen die Menschen in kürzester Zeit ihr ganzes Leben vor sich ablaufen. Trotz der kurzen Zeit, die nur Sekunden beträgt, wird das ganze Leben bis ins kleinste Detail und äußerst lebensecht vorgeführt. Längst vergessene Erlebnisse werden wieder lebendig und bleiben auch nach dieser Erfahrung noch lange in Gedächtnis. Trotz der großen Geschwindigkeit ist man in der Lage, alles aufzunehmen und zu verarbeiten. Der Lebensfilm enthält aber auch Fakten, die man früher gar nicht wahrgenommen hat, etwa welche Auswirkung seine Handlungen auf andere Menschen hatte.

Wie lassen sich solche Erfahrungen mit der in den letzten Kapiteln entworfenen Theorie der Theogenese erklären? Wenn es nun einen unsichtbaren Mechanismus gibt, der das Bewußtsein vor dem Auslöschen bewahrt, dann muß dieser spätestens beim Eintritt des Todes aktiv werden. Wird er erst später aktiv, indem er etwa ein to­tes Gehirn analysiert, so besteht zum einen die Gefahr, daß schon zuviel Information verloren gegangen ist oder das Gehirn vollständig zerstört wurde, was etwa bei einem Brand sehr schnell geschehen kann. Zum anderen verhindert man so nicht den Tod des Bewußtseins, sondern rekonstruiert das bereit erloschene Bewußtsein aus den organischen Überresten. Es gibt aber auch Gründe, diesen Mechanismus nicht erst im Moment des Todes zu aktivieren. Denn was geschieht, wenn ein Gehirn durch Krankheiten wie Alzheimer oder einem Gehirntumor langsam zerstört wird und der Tod erst dann eintritt, wenn von dem Bewußtsein fast nichts mehr übrig ist? Wenn ein Mensch in seinen letzten Jahren von unheilbarem Wahnsinn befallen wird? Muß er nun die Ewigkeit in dem geistigen Zustand verbringen, in dem er zum Zeitpunkt seines Todes war? Diese Probleme werden gelöst, wenn der Mechanismus während des ganzen Lebens aktiv ist, indem er etwa alle Erfahrungen, Gedanken und Gedächtnisinhalte des Gehirns während seiner gesamten Entwicklungszeit speichert. Ein unsichtbares Speichermedium, das einen Menschen das ganze Leben hindurch begleitet und alles aufzeichnet, was einen Menschen ausmacht und nach dem Tod fortbesteht, kann man durchaus als die unsterbliche Seele eines Menschen bezeichnen.
Angenommen, diese Seele würde nach dem Tod die Funktionen des Gehirns übernehmen. Im diesem Fall dürfte die Seele nicht nur ein Speichermedium sein, sondern müßte auch Informationen verarbeiten können. Dann muß die Seele ein funktionsfähiges neuronales Netz enthalten, dessen Struktur im Kern ein Spiegelbild des jungen Gehirns ist. Während des Alterns entstehen im Gehirn keine grundsätzlich neuen Strukturen mehr, lediglich die Gewichtung der Synapsen verändert sich. Stattdessen gehen beim Altern ständig Neuronen zugrunde, die nicht mehr ersetzt werden können, weil die Neuronen nicht mehr teilungsfähig sind. Ein in der Seele gespeichertes neuronales Netz braucht von diesen Ausfällen nicht betroffen zu sein, es kann seine volle Leistungsfähigkeit be­halten. Darüber hinaus kann dieses Netzwerk in ein viel größeres, noch jungfräuliches Netzwerk eingebettet sein, wodurch der menschliche Geist nach dem organischen Tod eine enorme Entwicklungsfähigkeit hätte.

An dieser Stelle will ich zur Begriffsklärung noch kurz die Definition der Begriffe Seele und Geist, wie ich sie hier verwende, einschieben. Der Geist sei dabei die Gesamtheit der Information, die unser eigentliches Wesen ausmacht und die nicht körperabhängig ist. Obwohl der Geist als reine Information immateriell ist, benötigt er doch ein Trägermedium. Das Trägermedium für den Geist ist zunächst das Gehirn. Als Seele bezeichne ich den unsterblichen Teil des Menschen. Sie dient spätestens beim Tod des Gehirns als Trägermedium für den Geist. Während der Aufbau des sterblichen Gehirns erforschbar ist, ist die Natur der unsterblichen Seele völlig unbekannt und rätselhaft, lediglich Indizien sprechen für ihre Existenz.

Das neuronale Netzwerk der Seele muß während des Sterbens mit dem Gehirn synchron laufen, um beim Erlöschen der Gehirnfunktionen übergangslos die Arbeit des Gehirns übernehmen zu können. Wenn sich das Bewußtsein an den neuen Zustand etwas gewöhnt hat, kann dann die gesamte Information, die während des Lebens von der Seele aufgenommen und unabhängig vom Gehirn gespeichert wurde, in das neuronale Netz überspielt werden. Alle durch Krankheit, Altern und durch die Unzulänglichkeit des organischen Gehirns entstandenen Informationsverluste werden dadurch wieder beseitigt. Da es fast unmöglich ist, ein kompliziertes neuronales Netzwerk direkt zu programmieren, muß die Information den normalen Weg über die Sinneseingänge nehmen. Um diese Informationsflut aufnehmen und speichern zu können, muß die Kapazität des neuronalen Netzes größer als die des Gehirns sein. Wenn man dann noch die kurze Zeitdauer des ganzen Überspielvorgangs in Betracht zieht, wird klar, daß das neuronale Netz der Seele weit leistungsfähiger sein muß als das Gehirn.
Der oben beschriebene Lebensfilm in einer Nahtoderfahrung scheint nun mit diesen Vorgaben nichts anderes zu sein als die bewußte Begleiterscheinung dieses Überspielvorgangs.
Die folgenden Indizien sollen dies noch erhärten: Der Lebensfilm ist streng chronologisch. Er beginnt mit den frühesten Erinnerungen und endet mit der Gegenwart. Nun sind aber Erinnerungen selten chronologisch, sondern eher assoziativ, d. h. eine Erinnerung ruft die nächste Erinnerung mit ähnlichem Inhalt herbei, wobei die Reihenfolge hauptsächlich von der Intensität und Gegenwärtigkeit der Erinnerung abhängt. Wird dagegen eine Aufzeichnung abgespielt, wie etwa ein Tonband oder ein ungeschnittener Film, so ist die Abfolge der Ereignisse immer chronologisch.
Weiterhin enthält der Lebensfilm auch kleinste Details. Das Gedächtnis abstrahiert die Erinnerungen dagegen auf das Wesentliche. Feine Details werden vom Rauschen der nachfolgenden Erinnerungen überlagert und gehen verloren, falls sie nicht ab und zu aus der Schublade geholt und gepflegt werden. Der Lebensfilm enthält auch längst vergessene Episoden des Lebens. Diese wiederhergestellten Erinnerungen bleiben nach der Nahtoderfahrung noch lange erhalten, also muß ein Informationstransfer stattgefunden haben.

Ein derartiger Informationstransfer bietet auch Hoffnung für Menschen mit einer schweren geistigen Behinderung. Bei dem Tod eines solchen Menschen können alle Ereignisse seines ganzen Lebens in das nunmehr voll funktionsfähige neuronales Netz seiner Seele eingespielt werden. All die Dinge, die er in seinem Leben aufgenommen hat, aber nicht verstanden hat, kann er nun verstehen und aufarbeiten. All die Liebe, die ihm von anderen Menschen gegeben wurde, kann er nun noch mal erfahren, diesmal aber mit einem wachen Verstand, der alles in der rechten Weise zu würdigen vermag. Somit geht letztlich nichts verloren, selbst wenn vieles zunächst als vergebliche Liebesmüh erscheinen mag.

Wenn der Lebensfilm nun eine Notwendigkeit ist, so bietet sich als Zusatznutzen eine gewisse Wertung an. Als wichtiger Maßstab dient dabei die Wirkung von Handlungen auf andere Menschen. Diese Wirkung wird parallel zum Lebensfilm erfahren und kann Gefühle auslösen wie Freude und Befriedigung oder auch bittere Reue. Dadurch soll wohl dafür gesorgt werden, daß alle Erfahrungen des Lebens auch mit dem gewünschten Vorzeichen abgespeichert werden. Das läßt aber auch Rückschlüsse auf die Zielsetzung Gottes zu. Es kommt nicht auf eine möglichst intensiven Verehrung irgendeiner Gottheit an, auch nicht auf die rücksichtslose Verteidigung von Idealen oder Lehrmeinungen, sondern auf unser soziales Verhalten, unser Verhältnis zu unseren Mitmenschen. Letztlich gibt es nur zwei Alternativen für einen Menschen, entweder er geht eine Gemeinschaft mit Gott ein, oder er gehört zu der Gruppe der Individualisten, die aufgrund ihrer asozialen Natur nicht zur Gemeinschaft fähig sind. Die Zielsetzung Gottes ist natürlich die erste Alternative, und die Voraussetzungen dafür sind nun einmal Liebe, Kooperation, Offenheit und Ehrlichkeit.

Eine interessante Tatsache ist, daß Menschen überhaupt von Nahtoderfahrungen berichten können. Schließlich können diese Erfahrungen gar nicht vom Gehirn direkt aufgenommen und gespeichert werden. Ein äußerst detailreicher und vollständiger Lebensfilm innerhalb von Sekunden würde auch ein gesundes Gehirn bei weitem überfordern. Bei einem Gehirn, das aufgrund eines Herzstillstandes unter einem extremen Sauerstoffmangel leidet, wäre bereits der Versuch eines derartigen Kraftaktes tödlich für die Nervenzellen. Schließlich verbraucht ein Gehirn bei anstrengender geistiger Tätigkeit weit mehr Sauerstoff als bei Ruhe. Und auch im Normalzustand verbraucht das Gehirn eines Erwachsenen immerhin 25% der gesamten Energie des Körpers, bei einem kleinen Kind sind es gar 60%. Da eine Nervenzelle bei Sauerstoffmangel innerhalb von Minuten abstirbt, kann die Strategie des Gehirns bei Sauerstoffknappheit nur sein, alle Funktionen auf ein Mindestmaß zu reduzieren. Die Folge ist dann eine tiefe Bewußtlosigkeit, bis hin zum Koma oder dem vollständigen Stillstand aller Gehirnströme. Ein Gehirn in diesem Zustand verarbeitet und speichert überhaupt keine Informationen, und schon gar nicht die immense Informationsfülle des Lebensfilms.

Des weiteren kann das Gehirn auch schwerlich die Erfahrung eines Austritts aus dem eigenen Körper registrieren, da sich das Bewußtsein ja in dem Moment gar nicht mehr im Körper befindet und die Sinneswahrnehmungen nicht mehr über die biologischen Sinnesorgane laufen können.
Dennoch besitzen viele Menschen nach ihrer erfolgreichen Wiederbelebung eine derart intensive Erinnerung an diese Erfahrungen, daß sie großen Einfluß auf ihr weiteres Leben haben. Wie läßt sich dies erklären? Anscheinend ist der Informationsfluß vom Gehirn zur Seele keine strenge Einbahnstraße. Es muß auch die Möglichkeit geben, daß Information von der Seele zum Gehirn gelangt. Dieser Rückfluß könnte auf eine kurze Zeit nach der Rückkehr in den Körper beschränkt sein, um die Integrität des Bewußtseins zu erhalten. Andernfalls gäbe es nämlich eine Aufspaltung des Bewußtseins in einen Teil, der diese beeindruckende Erfahrungen gemacht hat, und einen Teil, dem diese Erfahrungen fehlen. Eine andere Möglichkeit wäre, daß dieser Informationsfluß latent immer vorhanden ist. Er könnte bei verschiedenen Menschen unterschiedlich stark sein und durch bestimmte Ereignisse verstärkt oder geschwächt werden. Solange man die Funktion des menschli­chen Gehirns nicht bis in alle Einzelheiten verstanden hat und den menschlichen Geist und alle seine Fähigkeiten daraus nicht vollständig erklären kann, muß diese Frage wohl offen bleiben.

Allerdings könnten sich damit auch interessante Erklärungen für bisher unerklärbare Phänomene anbieten. So könnte man etwa Genialität oder auch gewisse unerklärliche Fähigkeiten vom einigen Menschen, etwa aus dem Bereich der Parapsychologie, als einen verstärkten Informationsaustausch zwischen Seele und Gehirn deuten. Allerdings gibt es für übernatürliche Phänomene auch andere Erklärungen, wie ich später noch erläutern werde.


5. Religion

Ursprung der Religionen

Die Idee eines Lebens nach dem Tod ist eine wichtige Grundlage der meisten Religionen. Als der Mensch die Fähigkeit entwickelt hatte, in die Zukunft zu denken, begann er auch, über den eigenen Tod nachzudenken. Die Möglichkeit, plötzlich nicht mehr zu existieren, ist aber nur schwer vorstellbar, schließlich fehlen dazu jegliche Erfahrungswerte. So weit ein Mensch zurückdenken kann, hat er existiert, den Zustand der Nichtexistenz hat er nie erlebt, es ist daher eine höchst abstrakte Vorstellung. So war der Gedanke nur naheliegend, daß man auch nach dem Tod in irgend einer Weise weiterlebt. Dazu kam auch noch, daß durch die engen sozialen Bindungen des Menschen der Tod eines Nahestehenden sehr schmerzlich empfunden wurde. Will man nun jemanden trösten, der einen schweren Verlust erlitten hat, was wäre besser geeignet, als eine Geschichte über eine bessere Welt, in der der Verstorbene nun weiterlebt, auch wenn man selber gar nicht daran glaubt. Der Trauernde wird sich nur zu gern an diesen Strohhalm klammern und die Geschichte später vielleicht weitererzählen. Solche Geschichten können sich mit der Zeit verbreiten und eine einheitliche Struktur annehmen. Auch wenn es damals nicht die heutigen Möglichkeiten zur Wiederbelebung gab, so sind wahrscheinlich dennoch vereinzelt die im letzten Kapitel beschriebenen Nahtoderfahrungen aufgetreten. Berichte darüber hätten dann auch kritischere Menschen überzeugt und die Geschichten über das Leben nach dem Tod stark beeinflußt.
Im Laufe von Generationen konnte sich aus solchen Geschichten ein Totenkult entwickeln. Es entstanden spezielle Bestattungsriten, Grabbeigaben sollten das Leben im Jenseits angenehmer machen, als Wohnung für die Verstorbenen wurden Grabmahle gebaut, das ging bis zu den riesigen Pyramiden der ägyptischen Pharaone. Bei derartig hochgestellten Personen wurde auch oft der Körper konserviert, viele dieser Mumien haben bis heute überdauert.
Es entstand aber auch die Vorstellung, daß die Verstorbenen sich weiter um die Angehörigen kümmern. Das konnte dann erklären, warum Glück und Unglück oft so ungleich verteilt ist. Die einen sind erfolgreich, alles, was sie anfangen, gelingt ihnen, sie sind gesund und wohlhabend. Andere scheinen vom Pech verfolgt zu sein und erleiden ständig Schicksalsschläge. Man nahm daher an, daß die Geister der Toten einen großen Einfluß auf das Schicksal der Lebenden haben. Man ersann also Maßnahmen, um diese Geister günstig zu stimmen und nicht zu verärgern. So entstanden Ahnenkult und Geisterglaube.
Mit der Entwicklung des Verstandes beließ es der Mensch nicht damit, daß gewisse Dinge einfach geschehen, der Mensch wollte auch wissen, warum sie geschehen. Viele Ereignisse in der Natur waren für den Menschen einfach unerklärlich. Warum geht die Sonne auf und unter, warum verändert der Mond immer seine Gestalt, wie kommen die Jahreszeiten und das Wetter zustande, was ist verantwortlich für die Fruchtbarkeit der Lebewesen, für Wachstum und Altern, für Geburt und Tod? Ein heftiges Gewitter mit Blitz und Donner oder ein orkanartiger Sturm muß auf die Menschen gewirkt haben wie das Wüten eines sehr mächtigen Wesens. Und dann gibt es noch Katastrophen wie Erdbeben und Vulkanausbrüche. Die Geister der Toten können eine solche Macht nicht haben. Also mußte es in der jenseitigen Welt noch Wesen geben, die viel mächtiger sind als alle Menschen und Geister, nämlich die Götter. So gab es nun für jede rätselhafte Naturerscheinung einen Gott, der dafür verantwortlich ist. Durch Riten, Opfer und einer vorschriftsmäßigen Lebensführung versuchte man nun, die Götter gnädig zu stimmen.
Oft gab es auch für die verschiedenen Völker jeweils einen bestimmten Gott, der sich für sein Volk einsetzt und es gegen seine Feinde verteidigt. Das Volk mit dem mächtigsten Gott mußte daher auch militärisch am erfolg­reichsten sein. War nun ein Volk besonders erfolgreich, so kam zuweilen der Verdacht auf, die Götter der anderen seinen nicht nur schwach, sondern würden gar nicht existieren. Diese Erkenntnis wurde den unterlegenen Völkern dann auch kräftig eingebleut. So fand die Vorstellung eines einzigen, äußerst mächtigen Gottes seine Verbreitung.

Heute sind die vielfältigen Naturerscheinungen wissenschaftlich erklärbar. Für deren Erklärung ist also kein Gott mehr nötig. Warum sind die Religionen dann nicht einfach verschwunden? Vieles blieb sicherlich noch aus Tradition erhalten. Auch scheint Religion ein Grundbedürfnis des Menschen zu sein. Auf der Suche nach dem Sinn des Lebens erhält er in einer Religion oft Antworten, die er anderswo vergeblich sucht. Nicht zuletzt bietet sie auch die Hoffnung auf ein Leben nach dem Tod. Und nachdem es tatsächlich Hinweise auf ein Leben nach dem Tod gibt, wie im letzten Kapitel gezeigt wurde, kann auch an anderen Aussagen der Religionen etwas dran sein. Dann könnte die Entwicklung der Religionen von Gott unmerklich beeinflußt worden sein, ihre Entwicklung wäre gleichsam eine schrittweise Offenbarung Gottes.

Will man ein mögliches Weiterleben des Bewußtseins nach dem Tod eines Menschen irgendwie physikalisch er­klären, dann tauchen oft abenteuerliche Vorstellungen auf. Da ist von höherdimensionalen Räumen die Rede, in dem unser Bewußtsein angesiedelt ist, vom Hyperraum und von einem holographischen Universum, in dem unsere physische Welt nur eine Projektion darstellt.
Wenn man bedenkt, welch günstigen Umständen wir es zu verdanken haben, daß unser Universum gerade so be­schaffen ist, daß Leben und damit Bewußtsein entstehen konnte, dann ist es unwahrscheinlich, daß es in unserem Universum gleich zwei grundsätzlich verschiedene Wege gibt, wie Bewußtsein entstehen kann, eine über den Weg des biologischen Lebens, und eine, die uns noch völlig unbekannt ist. Während man einen Weg noch mit dem anthrophischen Prinzip erklären kann, nachdem ein Beobachter in seinem Universum immer die Verhältnisse vorfinden muß, die seine eigene Existenz erlauben, gäbe es für zwei vollkommen unterschiedliche Wege keine Erklärung. Vollends unwahrscheinlich wäre dann die Vorstellung, daß sich diese zwei Wege gerade beim Menschen vereinigt haben, um diesem so zur Unsterblichkeit zu verhelfen.
Für die normalen Leistungen des Menschen ist sein Gehirn als Erklärung völlig ausreichend. Wenn wir trotzdem nicht verstehen, wie etwa Bewußtsein entstehen kann, dann liegt es daran, daß das Gehirn zu komplex ist, als daß wir alle seine Funktionen in ihrer Gesamtheit überblicken können und so verstehen können, was uns wirklich ausmacht. Das bedeutet aber nicht, daß wir irgend welche abstruse Mechanismen zur Erklärung von Bewußtsein heranziehen müssen, den solche Vorstellungen sind meistens so weit vom Boden der Realität entfernt, daß man damit alles und gar nichts erklären kann.
Das heißt allerdings nicht, daß es nur eine Form gibt, in der Bewußtsein existieren kann, sondern nur, daß es höchstwahrscheinlich nur einen Weg gibt, auf dem Bewußtsein von selbst entstehen konnte. So kann man sich sehr wohl einen elektronischen Siliziumkristall vorstellen, der komplex genug ist, um an die Leistungsfähigkeit des menschlichen Gehirns heranzureichen, und der daher auch ein Bewußtsein entwickeln kann. Aber ein solcher Kristall könnte sich nicht von selbst aus primitiven Anfängen heraus entwickeln, sondern müßte von einem schon existierenden Bewußtsein geschaffen werden.

Alternativen zur Theogenese

Die in den letzten Kapiteln aufgebaute Theorie der Theogenese, also einer Entwicklung, die zur Entstehung Gottes führte, könnte die Religionen und Vorstellungen über die Unsterblichkeit des Bewußtseins auf eine solidere Grundlage stellen. Allerdings läßt sich die Theogenese letztlich noch nicht beweisen. Aber es läßt sich zeigen, daß die Wahrscheinlichkeit dafür spricht. Betrachten wird dazu einmal die Alternativen:

Alternative 1:
Es gibt keinen Gott und der Mensch ist die einzige intelligente Lebensform im gesamten Universum.

Das würde bedeuten, daß die Entstehung von Leben und die Entwicklung zu intelligenten Leben so extrem unwahrscheinlich ist, daß sie in 14 Milliarden Jahren trotz 100 Milliarde Galaxien mit jeweils durchschnittlich 100 Milliarden Sternen nur ein einziges Mal stattgefunden hat. Ist es bei so viel Unwahrscheinlichkeit nicht höchst erstaunlich, daß Leben überhaupt entstanden ist, und dann auch noch zum frühest möglichen Zeitpunkt in der Erdgeschichte, in dem Moment, in dem die Temperatur auf ein einigermaßen erträgliches Maß abgesunken war? Wäre die bereits extrem kleine Wahrscheinlichkeit nur geringfügig kleiner, dann dürften wir gar nicht existieren. Wäre des da nicht einsichtiger, daß das Leben entweder oft oder überhaupt nicht entstanden ist? Bei letzterem wäre aber ein Gott nötig, der unser Leben, das nun einmal existiert, geschaffen hat. Somit muß diese Möglichkeit als unglaubwürdig verworfen werden.


Alternative 2:
Es gibt keinen Gott und der Mensch ist nicht die einzige intelligente Lebensform im gesamten Universum.

Den sehr unwahrscheinlichen Spezialfall, daß es außer dem Menschen im ganzen Universum nur sehr wenige an­dere intelligente Arten gibt, will ich mal außer acht lassen. Dann müßte es also sehr viele Orte mit intelligentem Leben geben. Dabei ist es aber nicht anzunehmen, daß alles intelligente Leben zur gleichen Zeit wie der Mensch entstanden ist. Das würde aber bedeuten, daß es bereits vor einigen Milliarden Jahren viele intelligente Arten ge­geben hat. Intelligenz, die sich mehrere Milliarden Jahre immer weiter entwickeln konnte, müßte heute bereits das Universum beherrschen und eine göttliche Macht besitzen. Für Wesen wie uns wäre diese Intelligenz Gott. Wenn es anfangs keinen Gott gegeben hat, dann müßte es jetzt einen geben. Wenn es keinen Gott gibt, dann müßten alle diese intelligenten Arten entweder ausgestorben sein oder in völlige Stagnation verfallen sein. Das mag in Einzelfällen auch geschehen sein, aber daß dieses Schicksal ausnahmslos alle getroffen hat, ist schwer vorstellbar. Es scheint eher so zu sein, daß ab einem gewissen Stadium die Gefahr eines Aussterbens auf ein Minimum reduziert wird. Wenn das Leben sich im Weltall ausbreitet, dann kann selbst eine kosmische Katastrophe nicht mehr alles Leben auslöschen. Außerdem wäre man ab einem gewissen Stand der Technik in der Lage, sich vor allen denkbaren Katastrophen zu schützen. Der Gedanke, daß sich intelligentes Leben früher oder später stets selbst ausrottet, halte ich für abwegig. Der Mensch hat bereits seit geraumer Zeit die Möglichkeit, mit Atomwaffen zumindest den größten Teil der Menschheit auszurotten. Dennoch wurde die Atombombe nur zweimal eingesetzt, und das beendete den größten Krieg der Menschheitsgeschichte. Der Schrecken von Hiroschima und Nagasaki wirkt bis heute nach und hatte zahlreiche Verhandlungen und Abkommen zur Folge. Heute wird daher die Gefahr einer Selbstvernichtung deutlich geringer eingeschätzt als in den Jahren zuvor. Bei einer Intelligenz mit weniger Aggressivität und mehr Vernunft wäre die Gefahr einer Selbstvernichtung wesentlich geringer. Daß nicht nur aggressive Wesen eine relativ hohe Intelligenz erreichen können, kann man ja am Beispiel der Wale sehen.
Die Gefahr eines Aussterben durch genetische Degeneration wäre zwar denkbar, aber auch unwahrscheinlich. Zum einen wirken die Mechanismen der Evolution dem entgegen, zum anderen wächst mit der Perfektionierung der Gentechnik die Möglichkeit, alle Gendefekte zu reparieren und die weitere genetische Entwicklung selbst in die Hand zu nehmen.
Die Gefahr einer völligen Stagnation ist ebenfalls gering. Zumindest bei Wesen, die den Menschen ähneln. Damit es zur völligen Stagnation kommt, müßte eine Gesellschaft völlig selbstzufrieden sein und wunschlos glücklich. Jeder hätte alles, was er sich nur wünscht, so daß es keinerlei Bestrebungen nach irgend einer Verbesserung mehr gäbe, jeder wüßte alles was er nur wissen will, so daß es keine Neugier mehr gäbe. Wenn nur ein Individuum aus der Reihe tanzt und eine neue Idee hat oder eine neue Frage stellt, oder gar unzufrieden oder unglücklich ist, dann könnte es mit der Stagnation bereits wieder vorbei sein. Wer die Menschen kennt, weiß, daß solch eine Gesellschaft völlig illusorisch ist. In der Regel wirft jede beantwortete Frage neue Fragen auf, jeder erfüllte Wunsch gebiert neue, nichts ist so gut, daß man nicht noch etwas daran verbessern kann. Und wer alles hat, wird unzufrieden und unglücklich, wenn er keine Aufgabe und kein Ziel mehr sieht. Zwar schien die Entwicklung der Menschheit lange Zeit auf der Stelle zu treten, im Verlauf eines Menschenleben veränderte sich nichts merklich. Aber das haben exponentielle Wachstumskurven nun einmal so an sich. Am unteren Ende sind sie so flach, daß man kaum eine Steigung bemerkt. Aber irgend wann wird die Steigung unübersehbar, und schon wenig später wächst sie über alle Grenzen. Der einzige Grund, daß sich diese Kurve wieder abflacht, wäre eine natürliche Grenze für alles Wachstum. Gott könnte eine solche Grenze vorgeben, aber wenn es ihn noch nicht gibt, wäre die Grenze das Universum selbst. Das heißt, die Entwicklung würde erst dann aufhören, wenn man alle Geheimnisse des Universums gelöst hat und das gesamte Universum beherrscht. Wenn sich aber das Universum selbst immer weiterentwickelt, verschiebt sich auch diese Grenze immer weiter.
Somit spricht viel für die Aussage: Wenn es früher keinen Gott gegeben hat, dann muß es jetzt einen geben. Aber auch andere Gründe sprechen dafür, daß es einen Gott gibt. Immerhin glaubt der größte Teil der Menschheit an einen Gott. Es gibt zahlreiche Berichte von Wundern, von plötzlichen Heilungen in medizinisch hoffnungslosen Fällen. Es gibt Ereignisse, die sich auf natürliche Weise nicht erklären lassen. Zahlreiche Menschen, die anfangs nicht an Gott glaubten, gelangten durch solche Ereignisse in ihrem eigenen Leben oder in dem Leben ihrer Mitmenschen zum Glauben an Gott. Letztlich sind das keine unangreifbare Beweise dafür, daß es Gott gibt, aber wo Rauch ist, da ist auch Feuer. Gäbe es keinen Gott, wären die meisten Menschen im Irrtum, und viele uner­klärliche Ereignisse würden weiter auf eine Erklärung warten.

Wenn also der Mensch nicht die einzige intelligente Lebensform im Universum ist, dann spricht alles dafür, daß es auch einen Gott gibt.


Alternative 3:
Es gibt Gott und er ist der Schöpfer des Universums.

Wenn Gott das Universum und auch das Leben selbst erschaffen hat, ist zwar die Frage nach dem Ursprung des Universums und des Lebens beantwortet, die Frage nach dem Ursprung Gottes ist aber wieder völlig offen.
Man könnte zunächst sagen, daß auch Gott erschaffen wurde, und zwar von einem noch höheren Wesen als Gott.
Auch die führt sofort wieder zur Frage, wer denn dieses noch höhere Wesen geschaffen hat. Wenn man diese Fragen weiterführt, gelangt man zu einer unendlich großen Hierarchie von immer höheren Wesen, die einander erschaffen haben, und man erhält den sogenannten "unendlichen Regreß". Nun ist die Zahl Unendlich eine reine Rechengröße in der Mathematik. In der Praxis kann es zwar sehr große Zahlen geben, aber nicht unendlich. Selbst die Zahl aller möglichen der Quantenzustände aller Atome im gesamten Universum ist nicht unendlich. Deshalb halte ich die Existenz einer unendlich großen Hierarchie für äußerst unwahrscheinlich.
Die Möglichkeit, daß Gott von einem noch höheren Gott erschaffen wurde, kann man auch dadurch ausschließen, daß man mit dem Begriff Gott das höchste überhaupt existierende Wesen meint. Mit dieser Definition kann es nichts höheres als Gott geben, somit auch keinen Über-Gott, der Gott erschaffen könnte. Den Gedanken, daß Gott von einem niederen Wesen erschaffen werden konnte, will ich nicht weiter verfolgen, denn er führt entweder ebenfalls zum unendlichen Regreß oder ergibt nur eine Variante der Theogenese.
Könnte Gott sich womöglich selbst erschaffen haben? Um sich selbst zu erschaffen, müßte jemand existieren, bevor er zu existieren begonnen hat. Dies würde die Existenz einer Zeitschleife voraussetzen. Zur Zeit weiß niemand, ob so etwas wie eine Zeitschleife physikalisch überhaupt möglich ist. Als Beispiel für eine Zeitschleife soll einmal folgendes Gedankenspiel dienen: Irgendwann in der Zukunft hätte man eine Möglichkeit gefunden, rückwärts durch die Zeit zu reisen. Man hätte nun herausgefunden, daß das Leben unmöglich von selbst entstehen konnte. Die Gentechniker wären nun in der Lage, eine primitive Lebensform künstlich herzustellen, die in der unwirtlichen Umwelt der jungen Erde überleben kann. Diese würde mit einer Zeitmaschine in eine Zeit transpor­tiert, in der es noch kein Leben gab, und dort ausgesetzt. Aus dieser Lebensform könnten sich nun alle bekannten Arten entwickeln bis hin zum Menschen selbst. Man könnte dann sagen, das Leben hat sich selbst erschaffen.
Die Sache hat allerdings einen Haken: Die Verletzung der Kausalität. Wäre eine Zeitreise zur Entstehung des Lebens auf der Erde nötig, dann wäre die Erde mit größter Wahrscheinlichkeit ohne Leben. Das Entstehen einer derart komplexen Zeitschleife, die ja die ganze Geschichte des Lebens und der Menschheit umfaßt, quasi aus dem Nichts wäre mehr als unwahrscheinlich.

Wenn Gott also nicht erschaffen wurde, muß er entweder zufällig entstanden sein oder schon immer existiert haben. Untersuchen wir zunächst die erste Möglichkeit genauer. Danach ist aus dem absoluten Nichts zuerst Gott entstanden, dieser hat dann das Universum und damit Zeit und Raum erschaffen. Danach hat er direkt oder indirekt die Erde, das Leben und zuletzt den Menschen erschaffen. Soweit schön und gut. Der Haken an der Geschichte wird deutlich, wenn man die Komplexität von Gott mit seiner Schöpfung vergleicht. Ein primitiver Einzeller wie etwa die Amöbe ist bereits äußerst komplex. Obwohl schon viele Einzelheiten bei den Lebensvorgängen entschlüsselt wurden, sind wir noch lange nicht in der Lage, zu erklären, wie eine Amöbe wirklich funktioniert. Niemand würde heute noch ernsthaft behaupten wollen, so ein Einzeller könnte einfach durch Zufall aus den Nichts entstehen, nicht einmal aus einer Mixtur, die bereits alle Bestandteile enthält. Der einzig akzeptable Weg ist eine lange Entwicklung aus den primitivsten Vorstufen von Leben mit vielen, vielen Zwischenstufen, mit Rückschlägen, Irrwegen, Sackgassen und großen Umwälzungen, bis schließlich der heutige Stand erreicht ist.
Noch wesentlich komplexer ist die Nervenzelle. Mit ihren Zehntausenden von Fortsätzen, die Meterlänge erreichen können, ihrem aktiven Reizleitungssystem, den Zehntausenden von informationsspeichernden Synapsen, der Fähigkeit, Information zu verarbeiten, speichern, weiterzuleiten und zu lernen, ist sie der kompli­zierteste Zelltyp überhaupt. Und gleich zig Milliarden dieser Zellen befinden sich im menschlichen Gehirn, verschaltet zu einem äußerst komplexen Netzwerk. Das menschliche Gehirn wurde oft als das komplexeste Gebilde im Kosmos bezeichnet. Das Gehirn Gottes müßte jedoch noch wesentlich komplexer sein.
Hat Gott denn ein Gehirn? Nun, wenn man Gott nur als eine Formel ansieht, als das universelle Naturgesetz, das allem Sein zugrunde liegt, dann braucht Gott kein Gehirn. Allerdings gibt es keinen Grund, warum man ihn dann Gott und nicht einfach Naturgesetz nennen sollte. Wenn man Gott dagegen als Persönlichkeit ansieht, die denken, planen und fühlen kann, die Wissen aufnehmen, speichern und verarbeiten kann, dann ist dafür ein wie auch im­mer geartetes Gehirn nötig. Dieses Gehirn muß natürlich nicht an einem Ort lokalisiert sein wie das unsere, sondern kann über das ganze Universum verteilt sein, es muß auch nicht aus einer uns bekannten Materieform bestehen. Aber es muß irgendwie die Fähigkeit zur Verarbeitung und Speicherung von Information besitzen. Und, aufgrund der Fähigkeiten, die man Gott zuschreibt, muß es um viele Größenordnungen komplexer sein als das menschliche Gehirn.
Kommen wir nun zum Universum selbst. Auf den ersten Blick scheint das Universum unglaublich komplex zu sein, denn schließlich bildet es die Summe aller Komplexität in seinem Inneren. Aber es war nicht immer so. All die Strukturen des Universums entstanden durch Symmetriebrechung und Selbstorganisation von Materie. Je nä­her man zurück an den Urknall geht, um so symmetrischer wird das Universum. Die Unterschiede zwischen den vier Elementarkräften verschwinden, es gibt nur noch eine Kraft und eine Teilchenart. Noch weiter am Anfang war das Universum nur ein äußerst dichter Punkt ohne innere Struktur, irgendwo an der Grenze zwischen der Realität und dem Nichts, beschreibbar nur durch eine Wellenfunktion einer noch zu entwickelnden Quantentheorie der Gravitation. Die Physiker hoffen, daß eine solche Theorie von Allem in den nächsten Jahren entwickelt werden kann. Sie hätten damit eine vollständige Beschreibung des Universums zum Zeitpunkt des Urknalls und könnten sich daranmachen, daraus seine weitere Entwicklung und seine heutigen Eigenschaften ab­zuleiten. Dann wären die Physiker schon wesentlich weiter als die Biologen, denn eine vollständige Beschreibung einer Amöbe wird es so schnell nicht geben; sie würde auch wesentlich mehr Papier füllen als eine mathematisch kompakte vollständige Beschreibung des frühen Universums.
Somit erhalten wir eine Rangfolge mit aufsteigender Komplexität, wobei ich statt vom Menschen allgemeiner von intelligentem Leben oder Intelligenz spreche:
Frühes Universum - Leben - Intelligenz - Gott.
Geht man von einer Entwicklung vom Einfachen zum immer Komplexeren aus, dann sollte dies auch die Reihenfolge der Entwicklung sein. Die Vorstellung, dann ausgerechnet der mit Abstand komplexeste Teil dieser Kette, nämlich Gott, zufällig aus dem Nichts entstanden sein soll, erscheint da geradezu absurd. Noch schlimmer, was macht ein Gehirn in einem absoluten Nichts, wo es weder den Raum gibt, um es aufzunehmen, noch die Zeit, die für Vorgänge jeder Art nötig ist, auch für den Vorgang des Denkens. Es gäbe ja auch nichts zu denken, denn vom Nicht kämen keinerlei Sinnesreize, und Erinnerungen zum drüber Nachdenken gäbe es auch noch keine.
Wenn also irgend etwas aus den Nichts entstanden ist, dann kann es nur das frühe Universum gewesen sein. Nach den Gesetzen der Quantenphysik scheint die spontane Entstehung eines Universums durchaus im Rahmen des Möglichen zu liegen, und vielleicht haben wir ja bald eine Formel, die eine Entstehung aus dem Nichts exakt beschreiben kann.

Nachdem wir die Möglichkeit, daß Gott zufällig aus dem Nichts entstanden ist, ausschließen können, kommen wir zu der Vorstellung, daß Gott schon immer existiert hat. Allerdings muß man aufpassen, was man mit "schon immer" meint. Wenn wir sagen, dies und das war schon immer so, dann meinen wir in der Regel, es war schon sehr lange so, oder es war so, soweit wir zurückdenken können. Natürlich hatte auch das, was schon immer so war, auch irgendwann einen Anfang, vielleicht ausgenommen so abstrakte Dinge wie Logik und Mathematik. Real existierende Dinge haben dagegen immer einen Anfang, egal wie weit dieser zurück liegt. Könnte Gott dabei eine Ausnahme sein?
Nehmen wir das "schon immer" doch einmal wörtlich und betrachten wir die Konsequenzen. Die Aussage "Gott hat schon immer existiert" bedeutet dann, das Gott heute bereits eine unendlich große Zeitspanne durchlebt hat. Nun besteht Leben aber in Veränderung. Jede Wahrnehmung, die im Gehirn gespeichert wird, verändert das Gehirn geringfügig. Auch jeder Gedanke, an den man sich später noch erinnern kann, hat im Gehirn Spuren hinterlassen, also eine Veränderung bewirkt. Auch unbemerkte Einflüsse von innen und außen, wie Stoffwechsel, Wachstum, Alterung, radioaktive Prozesse, Viren und kosmische Strahlung sorgen für ständigen Veränderungen.
In einer unendlichen Zeit gibt es unendlich viel Veränderungen. Bereits in endlicher Zeit würde daraus eine vollständige Veränderung, jedes Informationsbit hätte mindestens einmal den Zustand gewechselt. Zwar kann man den Zerfall von Information durch Fehlerkorrektur- und Reparaturmaßnahmen verlangsamen, aber selbst der beste Algorithmus korrigiert nicht exakt zu hundert Prozent, selbst der unwahrscheinlichste Fehler tritt in unendlicher Zeit beliebig oft auf. Wenn Gott also schon immer existiert hätte, würde er dabei unendlich oft seine Identität, sein Gedächtnis und alles, was ihn ausmachte, verloren haben. Der Gott, der jetzt existiert, kann also gar nicht schon immer existiert haben, wenn überhaupt, dann müßte bereits vor endlicher Zeit etwas existiert haben, mit dem der heutige Gott nichts mehr gemeinsam hat. Dasselbe gilt auch für die Erinnerungen Gottes. Die Erinnerungen könnten gar nicht unendlich weit zurückreichen, zudem dafür auch noch ein unendlich großes Gedächtnis nötig wäre. Daher könnte nicht einmal Gott wissen, ob es nicht doch einen Anfang gegeben hat.

Wenn Gott also nicht aus dem Nichts entstanden ist, nicht erschaffen wurde und auch nicht schon immer existiert hat, dann muß sich Gott aus einfachsten Anfängen zu dem entwickelt haben, was er heute ist. Eine solche Entwicklung kann aber nicht im absoluten Nichts stattfinden, sondern nur in einem schon existierenden Universum. Wenn das Universum also schon vor Gott da war, kann er es jedoch nicht erschaffen haben. Nun könnte man sagen, das Gott gar nicht in unserem Universum entstanden ist, sondern in einem Universum, das vor dem unseren existierte. Dann könnte er unser Universum immer noch geschaffen haben. Allerdings gäbe es gar keinen Grund, willkürlich ein zweites Universum einzuführen, wenn ein Universum ausreicht, um alles zu erklären. Oder man definiert das Universum als Überbegriff von allem was ist und jemals war. Dann gab und gibt es nur ein einziges Universum. Und dieses Universum kann von Gott nicht erschaffen worden sein.

Damit sind alle drei Alternativen als unwahrscheinlich oder unmöglich verworfen. Man muß nicht unbedingt Sherlock Holmes heißen um darauf die logische Regel anzuwenden: Wenn man alle anderen Möglichkeiten ausschließen kann, so muß das, was übrig bleibt, die Wahrheit sein. Wenn man die ersten zwei Alternativen ausschließt, dann bedeutet dies, daß es einen Gott geben muß. Mit dem Ausschluß der dritten Möglichkeit folgt, daß Gott nicht das Universum erschaffen hat, sondern erst nach dem Entstehen des Universums entstanden ist. Er hat sich dann von der einfachsten Lebensform über menschenähnliche Wesen bis zu dem entwickelt, was er heute ist. Dies ist in verkürzter Form die Hauptaussage der Theogenese. Wie eine solche Entwicklung vonstatten gehen kann, habe ich bereits ausführlich erläutert.

Das Theodizee-Problem

Daß die Theogenese auch imstande ist, schwierige theologische Probleme zu lösen, soll anhand des Theodizee-Problems gezeigt werden.
Die Theodizee ist der philosophische Versuch, den Widerspruch zwischen dem Übel in der Welt und der Allmacht und Güte Gottes zu lösen. Der Begriff wurde 1710 von Leipniz eingeführt für die Rechtfertigung Gottes hinsichtlich des von ihm zugelassenen Bösen in der Welt.
Das Dilemma stellt sich folgendermaßen dar:
- Ein gütiger Gott will Leid verhindern.
- Ein allmächtiger Gott könnte das Leid verhindern.
- Es gibt Leid.
- Daher ist Gott entweder nicht gütig oder nicht allmächtig.

Auch heute wird der Versuch gemacht, diesen Widerspruch aufzulösen. Das hat dann etwa zur Entstehung der sogenannten Prozeßtheologie geführt.
Die Prozeßtheologie gehört zu den einflußreichsten theologischen Strömungen in den USA. Einer der prominen­testen Vertreter ist David Ray Griffin. Sein Buch God, Power and Evil, A Process Theodicy, eines seiner innovativsten Arbeiten kritisiert radikal die traditionellen Vorstellungen von Gottes Allmacht.
Die Prozeßtheologie beruht auf den philosophischen Ideen von Alfred North Whitehead, auch bekannt als Prozeßphilosophie.
Nach traditionellen Vorstellungen ist Gott allmächtig, und zwar in dem Sinn, daß er uneingeschränkt bestimmen kann, was in der Welt geschieht. Nach Ansicht der Prozeßtheologie ist dies jedoch falsch.
Alle Geschöpfe, von den Elementarteilchen bis hin zu den Menschen haben danach eine gewisse Macht zur Selbstbestimmung, die Gott nicht ausschalten kann. Gott hat nicht die Wahl, uns diese Freiheit zu schenken oder vorzuenthalten. Wir besitzen diese Freiheit vielmehr von uns aus. Daher kann Gott nicht uneingeschränkt bestimmen, was in der Welt geschieht. Dies führt auch zu einer veränderten Schöpfungsvorstellung: Normalerweise nimmt man an, daß Gott einst vor langer Zeit oder gar "vor aller Zeit" ganz für sich allein exi­stierte und dann erst aus dem völligen Nichts heraus eine Welt erschaffen hat. Da das wenig Sinn ergibt und so auch gar nicht in der Bibel steht, versucht man es mit der Annahme, daß Gott unsere Welt aus etwas erschaffen hat, das bereits existierte und sich in einem ziemlich chaotischen Zustand befanden. Dieses Material hatte ein gewisses Maß an Freiheit und Selbstbestimmung, so daß Gott nicht alles damit machen konnte, was er wollte. Es hat also nicht irgendwann am Anfang eine vollkommene Schöpfung gegeben. Gott kann nur das Beste aus dem Material machen, das er vorfindet.
Weil das Material eine gewisse Selbständigkeit hat, kann Gott nur versuchen, es zu beeinflussen, er kann es aber zu nichts zwingen.
Unter Berufung auf den biblischen Schöpfungsbericht glaubten Christen über Jahrhunderte hinweg, daß Gott die Welt aus dem Nichts erschaffen hat. Dabei hat Gott ein Paradies erschaffen, in dem alles sehr gut war.
Unter dem Einfluß moderner natur- und erdgeschichtlicher Erkenntnisse mußte die christliche Theologie diese Vorstellung an das zeitgenössische Weltbild anpassen.
Immer noch geht man davon aus, daß Gott die Welt aus dem Nichts erschaffen hat, aber er bewirkte dies durch den Urknall und die darauf folgende Evolution des Weltalls und des biologischen Lebens. Unverständlich bleibt hierbei jedoch, warum Gott einen Weg wählte, der fast 14 Milliarden Jahre brauchte, um eine Welt wie die unsere hervorzubringen. Er hätte sie doch auch direkt aus dem Nichts erschaffen können. Und warum erschuf Gott nicht sofort eine paradiesische Welt, sondern setzte einen Prozeß in Gang, der für zahllose Lebewesen unsagbares Leid, Krankheit und Tod brachte?
Nach Griffin muß die Schöpfungsvorstellung daher geändert werden. Gott konnte gar keine vollkommene Welt aus dem Nichts erschaffen. Vielmehr mußte Gott eine von Anfang an existierende chaotische Urmaterie in einen langen allmählichen Prozeß beeinflussen, damit sie sich zu immer höheren Formen des Lebens entwickelte. Die Evolution war daher unvermeidlich.

Aufgrund der Eigenschaft der Urmaterie hängen vier Faktoren unausweichlich miteinander zusammen:
Sollen Gottes Geschöpfe mehr and Gutem und Wertvollen erfahren, dann ist es unvermeidlich, daß sie auch mehr Leid und intensiveren Schmerz erleben können. Soll ihre Fähigkeit, Gute und Wertvolle Erfahrungen zu machen, erhöht werden, so muß auch ihr Handlungsspielraum größer werden. Je mehr die Freiheit zur Selbstbestimmung wächst, um so mehr kann ein Geschöpf auch auf andere einwirken und ihnen Gutes oder Schlechtes zufügen. Wird ein Faktor erhöht, so erhöhen sich zwangsläufig auch die drei anderen. Übel und Leid sind daher die unausweichliche Kehrseite des Guten.
Nach der Prozeßtheologie kann Gott auch keine Wunder vollbringen oder Krankheiten heilen, allenfalls psycho­somatische Krankheiten. Denn hätte Gott die uneingeschränkte Macht, alle Krankheiten zu heilen, würde es aber nur in den seltensten Fällen tun, wie könnte man dann noch an einen gütigen Gott glauben?

Die Prozeßtheologie zeichnet das Bild eines recht schwächlichen Gottes. Viele Fragen bleiben auch ungelöst. So ist weder der Ursprung Gottes geklärt, noch die Herkunft dieser eigenwilligen Urmaterie, aus der Gott alles erschaffen hat. Auch ist nicht ersichtlich, warum die Grenzen, die Gott von der Urmaterie gesetzt sind, nicht auch für den Menschen gültig sind. Krankheiten, die früher ganze Landstriche entvölkert haben, sind nun problemlos mit einem Medikament heilbar oder wurden durch Impfungen gar ausgemerzt. Warum ist dem Menschen etwas gelungen, was für Gott unmöglich war? Ist der Mensch klüger als Gott? Ist er mächtiger als Gott? Andererseits gibt es zahlreiche verbürgte wunderbare Heilungen, die medizinisch nicht erklärbar sind, oft Fälle, die von den Ärzten als hoffnungslos aufgegeben wurden. Das spricht doch eher dafür, daß Gott sehr wohl die Macht hat, alle Krankheiten zu heilen und alles Böse auszumerzen, aber auch gute Gründe hat, es in der Regel nicht zu tun. Die Gründe könnten durchaus auch in den Beziehungen zwischen den obengenannten vier Faktoren liegen. Diese wä­ren dann aber nicht eine Eigenschaft einer rätselhaften Urmaterie, sondern ließen sich, zumindest in Teilen, von den allgemeingültigen Gesetzen der Logik ableiten.

Die Theogenese stellt dagegen eine Lösung für das Theodizee-Problem zur Verfügung, die derartige Ungereimtheiten und Schwächen vermeidet. Wenn Gott das Universum gar nicht geschaffen hat, dann kann man ihn auch nicht für die Unvollkommenheit im Universum verantwortlich machen. Auch hier wäre Gott zwar nicht wirklich allmächtig, aber mächtig genug, um zumindest auf der Erde für Ordnung zu sorgen. So könnte Gott durchaus die Erde in einen Garten Eden verwandeln. Alles Schädliche, Krankheitserreger, giftige Pflanzen, gefährliche Tiere sowie Ungeziefer würde eliminiert. Es gäbe keine Krankheiten mehr, für alle Bedürfnisse ist gesorgt. Um zu verhindern, daß ein Mensch dennoch einem anderen etwas antut, gäbe es ein Überwachungssystem, das jeden bösen Gedanken im Ansatz erkennen kann. Mittels eines leichten Elektroschocks im Gehirn würden die Gehirnströme sofort wieder auf andere Bahnen gelenkt. Das Leben wäre leicht und angenehm, die Tage würden sorgenfrei in immerwährender Harmonie verstreichen. Aber hätte Gott das Recht, so etwas zu tun? Im Grunde wäre das die Versklavung der Menschheit, wenn auch die angenehmste Form, die man sich vorstellen kann. Doch die Menschen hätten keinen freien Willen mehr, der Menschheit würde jede Chance auf eine eigene Entwicklung genommen. Der Mensch wäre nur noch das verhätschelte Schoßhündchen Gottes ohne die Möglichkeit, gegen ein solches Schicksal aufzubegehren. Wie also sollte Gott solches Vorgehen vor sich selbst und allen anderen rechtfertigen?
Es gibt Leid auf der Erde, das Gott beseitigen kann, aber andererseits haben die Vorfahren Gottes vor langer Zeit ähnliches Leid ertragen müssen. Auch sie haben gegen das Böse kämpfen müssen. Doch aus all den Widrigkeiten ist letztlich etwas Wunderbares entstanden. Warum sollte Gott nun verhindern, daß die Menschen einen Weg ge­hen, den er selbst bereits durchschritten hat? Aufgrund seiner Güte kann er zwar den Wunsch haben, daß die Menschen es besser haben sollen, als er selbst es damals gehabt hat. Die meisten Eltern haben diesen Wunsch be­züglich ihrer Kinder. Doch was geschieht, wenn einem Kind in Reichtum und Luxus aufwächst, es vor allen Schwierigkeiten bewahrt wird und alle seine Wünsche erfüllt bekommt? Oft müssen die Eltern feststellen, daß sich das Kind ganz anders entwickelt, als sie sich das gewünscht haben. Das Kind wird dann vielleicht undankbar sein, verwöhnt, verweichlicht, unselbständig, rechthaberisch, jähzornig, verschwenderisch, leichtsinnig, unfähig, allein mit dem Leben zurechtzukommen. So ist es dann kein Wunder, wenn oft auch Kinder aus besten Verhältnissen beginnen, Drogen zu nehmen, kriminell werden und in ihrem Leben letztlich scheitern.

Gott war zweifellos in der Lage, die Auswirkungen seiner Handlungen auf die Zukunft der Menschheit recht gut abzuschätzen. So hat er nach Wegen gesucht, das Leid der Menschen zu mildern, ohne dabei einen Schaden anzurichten und der Menschheit ihren eigenen Weg zu verbauen. Die größte Quelle von Leid ist für die Menschen der Tod. Eine Krankheit, von der man sich wieder vollständig erholen kann, mag zwar unangenehm und oft auch schmerzhaft sein, doch sie bereitet nicht annähernd soviel Schrecken wie eine Krankheit, die stets mit dem Tod endet. Der Tod als die vollkommene Auslöschung der Persönlichkeit war schon immer der erklärte Feind Gottes. So hat Gott das einzig richtige gemacht, er hat den Menschen ihr eigenes Leben gelassen und ihnen dazu das ewige Leben gegeben. Damit hat der den Menschen ein weit größeres Geschenk gemacht, als wenn er nur die Lebensverhältnisse verbessert hätte. Allerdings mußte er die Verstorbenen strikt von den Lebenden trennen, andernfalls wären die Auswirkungen nicht abzusehen. Schließlich haben die Verstorbenen vollen Zugang zum Wissen einer Zivilisation, die der unseren um Milliarden Jahre voraus ist. Der Kulturschock wäre sonst weit größer als der eines isolierten Urwaldstammes, der sich plötzlich in New York wiederfindet. Eine eigene, unabhängige Entwicklung wäre unter diesen Umständen unmöglich.
Mit der Hoffnung auf ewiges Leben ist das Leid in der Welt zwar nicht beseitigt, aber wer an ein Leben nach dem Tod glaubt, der weiß, daß das Leid ein Ende hat und der Tod eines Nahestehenden nur eine Trennung auf Zeit ist.

UFOs, Engel und Dämonen

In vielen Religionen kommen neben Gott oder den Göttern auch noch andere, schwächere Wesen vor. Das können gute und böse Geister sein, oder Engel, Teufel und Dämonen. In jüngerer Zeit sind noch andere Erscheinungen aufgetaucht, die auf den ersten Blick mit Religion nichts zu tun haben, früher aber zweifellos in eine der oben genannten Rubriken gefallen wäre, nämlich UFOs, unbekannte Flugobjekte. All dies ausnahmslos als Ausgeburt menschlicher Phantasie abzutun, erscheint mir dann doch etwas zu einfach. Daher will ich untersuchen, wie sich diese Erscheinungen, wenn sie denn wirklich existent sind, mit der Theogenese erklären lassen.
Die Theogenese setzt voraus, daß das Universum voller Leben ist. Zu allen Zeiten und an vielen Orten hat sich intelligentes Leben entwickelt. Daher muß es heute Leben in allen denkbaren Entwicklungsstufen geben. Wie im zweiten Kapitel beschrieben, werden die meisten irgendwann Raumschiffe in den interstellaren Weltraum hinausschicken. Da wegen der extrem langen Reisezeit zum nächsten Stern und der hohen Strahlenbelastung biologisches Leben ungeeignet für eine solche Reise ist, müssen diese Raumschiffe von Computern gesteuert und von Robotern gewartet werden. Die Außerirdischen können dann in Form von im Computer ablaufenden Gehirnsimulationen und als im Computer gespeicherten genetischen Code diese Reise mitmachen. Im Zielsystem angekommen, würden sie auf einem der äußeren Planeten oder deren Monde eine Basis errichten und automati­sche Fabriken aufbauen. Im äußeren Bereich des Systems deshalb, weil hier die Gefahr einer Entdeckung am geringsten ist. Wenn die Fabriken soweit sind, daß sie Flugkörper produzieren können, werden damit auch die anderen Planeten erforscht. Finden sie einen für biologische Wesen geeigneten Planeten, so können sie aus dem mitgeführten genetischen Code wieder biologisches Leben entstehen lassen.
Ist ein derartiger Planet aber bereits bewohnt, so müßten sie dabei aber mit Problemen rechnen. Wenn Gott sich nun größte Mühe gibt, um die ungestörte Entwicklung der Bewohner eines Planeten zu gewährleisten, so wird er nicht zulassen, daß andere Wesen über diesen Planeten herfallen, ihn kolonisieren und mit ihrer überlegenen Technik die Ureinwohner beherrschen. Er wird sie, wenn nötig, zwingen, bei ihren Besuchen auf dem Planeten zumindest die gleiche Vorsicht walten zu lassen, mit der er auch selbst zu Werke geht. Das würde erklären, warum man die Existenz von UFOs ebensowenig beweisen kann, wie man die Existenz Gottes beweisen kann.
Sollte auch unser Sonnensystem auf diese Weise Besuch bekommen haben, so wären die Außerirdischen im Grunde Gefangene in unserem System. Einfach zurückfliegen könnten sie nicht, denn das würden ihre biologi­schen Körper nicht überleben. Und die Übertragung reiner Information geht mit einer leistungsfähigen Sendeanlage wesentlich schneller und sicherer als mit einem interstellaren Raumflug. Bei einem Aufbruch zu noch weiter entfernten Sternen kommen sehr kleine und leichte Raumschiffe mit miniaturisierten Universalfabriken zum Einsatz, die aus Sicherheitsgründen nur mit Kopien von Simulationen "bemannt" sind. Die Originale und ihre Basen samt allen Ausrüstungsgegenständen bleiben dabei stets zurück. So werden die Außerirdischen wohl für immer in unserem Sonnensystem bleiben.
Ihre biologischen Körper nützen den Außerirdischen auf der Erde allerdings recht wenig, denn damit würden sie hier großes Aufsehen erregen. Um sich wirklich unauffällig auf der Erde bewegen zu können, bräuchten sie Körper, die so aussehen wie die Körper der Menschen. Der einfachste Weg dazu wäre, sich vereinzelt ein paar Menschen zu greifen, ihnen Eizellen und Samen zu entnehmen und daraus menschliche Körper züchten. Wenn sie in der Lage sind, ihre eigenen Körper nach der langen Weltraumfahrt neu entstehen zu lassen, so müßten sie dies nach vielleicht einigen Fehlversuchen auch mit menschlichen Körpern schaffen. Ist ihre Gentechnik weit ge­nug entwickelt, so könnten sie die Gene für das Gehirn so modifizieren, daß ein Gehirn entsteht, daß in der Struktur dem Gehirn der Außerirdischen nahekommt. Andernfalls müßten sie das Gehirn so konditionieren, daß es wie ein Außerirdischer denkt.
Und tatsächlich gibt es Berichte von Menschen, die von Außerirdischen entführt wurden. Der erste Fall, der bekannt wurde, geschah 1961, seitdem wurden Tausende von Berichten bekannt. Diese Berichte weisen untereinander große Ähnlichkeit auf. Die Entführer wahren relativ zarte Wesen, kleiner als ein Mensch, ihre Köpfe waren haarlos und verjüngten sich nach unten, ihre Augen sehr groß und schwarz, mandelförmig, nach au­ßen in die Höhe gehend, eine Nase war allenfalls angedeutet, dazu ein sehr dünner Mund. Die Entführten wurden in ein rundes Flugobjekt gebracht, entkleidet und von einem anderen Wesen, das wie ein Arzt wirkte, einer medizinischen Untersuchung unterzogen.
Fast alle Entführten berichten mit und ohne Hypnose übereinstimmend von schmerzhaften und beschämenden Manipulationen an ihren Genitalien. Männern werden Spermaproben abgesaugt, Frauen werden Eizellen entnommen. In einer Anzahl von Fällen kam es zu einer Begegnung mit einem sehr kleinen Wesen, einem Kind, das zwar ähnlich aussah, wie die anderen, aber andererseits deutlich menschliche Züge aufwies und auch Kopfhaar besaß. Von diesem Wesen ging eine Welle intensiver Gefühle aus. Die Entführer ließen keine Unklarheiten darüber, daß dieses Wesen aus den entnommenen Ei- und Samenzellen entstanden ist. Sie schienen dabei sehr stolz zu sein auf das, was sie da geschaffen haben.
Sollte tatsächlich das Ziel sein, Außerirdische in Menschengestalt zu erschaffen, so haben sie dieses Ziel allerdings noch nicht erreicht, zu fremdartig sehen diese Wesen noch aus.
Was immer man von diesen Berichten halten mag, sollten sie zutreffen, dann wären die Handlungen der Außerirdischen durchaus erklärbar. Noch weit zahlreicher als Berichte über Entführungen sind aber die Berichte über UFO-Beobachtungen. So hat etwa der amerikanische Flugpsychologe Dr. Richard F. Haines, ein NASA-Experte im Ruhestand und Spezialist für menschliche Wahrnehmung, 3400 Berichte über UFO-Sichtungen von Piloten und Astronauten untersucht. Glaubte er zu Anfang noch an natürliche Ursachen, so meint er heute, daß UFOs auf einer weit fortgeschrittenen Technologie beruhen und eindeutig intelligentes Verhalten zeigen.

Wenn UFOs tatsächlich außerirdischer Herkunft sind, dann stellt sich die Frage, warum sie gerade in der heutigen Zeit auftauchen. Vielleicht ist die Menschheit erst jetzt für sie interessant geworden. Andererseits, wären sie im Mittelalter aufgetaucht, hätte wohl keiner an Außerirdische gedacht, sondern sie für Dämonen oder ähnliches gehalten. Aber vielleicht wird die Menschheit Schritt für Schritt aus ihrer behüteten Kinderstube entlassen. So könnten jedesmal, wenn die Menschheit in eine neue Epoche eintritt, die Vorschriften für die Außerirdischen gelockert werden. UFO-Sichtungen gibt es seit einem halben Jahrhundert. Ebenso lange befindet sich die Menschheit im Atomzeitalter. Am 12. 4. 1961 ist mit Jurij Gagarin der erste Mensch ins Weltall gestar­tet. Damit begann das Zeitalter der bemannten Weltraumfahrt. Am 19. 9. 1961 sahen das Ehepaar Barnie und Betty Hill auf ihrem Heimweg ein hell leuchtendes Objekt. Die folgenden zwei Stunden fehlten danach in ihrer Erinnerung. Seitdem von Alpträumen und Panikanfällen geplagt, sucht Barnie über ein Jahr später einen Psychiater auf. Unter Hypnose erlebte Barnie seine Entführung in ein UFO. Dies war der erste Bericht dieser Art, ihm folgten in der Zeit danach Tausende. Zwei Ereignisse im selben Jahr, die eigentlich nichts miteinander zu tun haben. Oder doch? Was wird wohl die nächste Epoche der Menschheit einläuten? Und mit was für Überraschungen müssen wir dann wohl rechnen?

Die Erbauer vom UFOs müssen uns technologisch zwar weit voraus sein, aber sie sind immer noch auf die uns vertraute Form von Materie angewiesen. Andernfalls wären UFOs für uns nicht sichtbar, und die Außerirdischen könnten sich ohne Probleme mitten unter uns bewegen. Nun muß es aber auch Wesen geben, die diese Stufe der Technologie bereits weit hinter sich gelassen haben. Prominentestes Beispiel dafür dürfte wohl Gott selbst sein. Niemand würde wohl erwarten, daß Gott in einem UFO durch die Gegend fliegt. Diese Wesen könnten dann einen Körper benutzen, der dem ähnlich ist, von dem in den Nahtoderfahrungen aus Kapitel 4 die Rede war. Dieser wäre für uns völlig unsichtbar, daher könnten sie sich völlig frei und unbemerkt auf unserem Planeten aufhalten. Somit gäbe es auch genügend Raum zur Erklärung solch mystischer Gestalten wie Engel, Teufel und Dämonen.
Wenn in der Bibel von Engeln die Rede ist, dann sind damit oft Boten Gottes, häufig sogar die Manifestation von Gott selbst gemeint. Da man Gott als die Gemeinschaft von unzähligen Einzelwesen mit einem übergeordneten Bewußtsein betrachten kann, bedeutet die Anwesenheit Gottes gleichzeitig die Anwesenheit zahlreicher Einzelpersonen, die zwar alle auf das gleiche Ziel hinarbeiten, aber dennoch unterschiedliche Charaktere und Persönlichkeit besitzen. Diese Wesen kann man dann durchaus als Engel bezeichnen.
Dann bleiben noch diejenigen Wesen, die sich der großen Gemeinschaft nicht anschließen wollen oder können. Es wäre wahrscheinlich ein Fehler, in ihnen ausschließlich Vertreter des abgrundtief Bösen zu sehen. Allerdings werden sie wohl kaum übermäßig um das Wohl der Menschen besorgt sein und stattdessen ihre eigenen, egoistischen Ziele verfolgen. So könnten sie durchaus interessiert sein, ihr eigenes Gedankengut unter den Menschen zu verbreiten. Auf diese Weise könnten sie die Zahl derer, die für Gott verloren sind, erhöhen und somit ihre eigenen Reihen stärken.
Als Lockmittel könnten dabei besondere Dienstleistungen dienen, die den Menschen übernatürliche Fähigkeiten und Macht über andere verleihen. Somit können zahlreiche parapsychologische und okkulte Fähigkeiten gewisser Menschen eine einleuchtende Erklärung finden. Für diese Erklärung spricht auch, daß diese Fähigkeiten recht unzuverlässig zu sein scheinen und sich gegen jeden Beweis sträuben. So sicher sich jemand seiner Fähigkeiten auch sein mag, wenn es darum geht, den unanfechtbaren Beweis zu erbringen, haben sich seine Fähigkeiten verflüchtigt und er ist der Lächerlichkeit preisgegeben. Die Gründe dafür können strikte Vorschriften sein, die alle Außerirdischen einhalten müssen und die dem Grad der Einflußnahme auf die Menschheit enge Grenzen setzt. So sind parapsychologische Fähigkeiten ebenso unbeweisbar wie die Existenz von UFOs, Außerirdischen, Engel und Dämonen sowie Gott selbst.

Jesus Christus

Dieses Kapitel wäre nicht vollständig ohne die Betrachtung des Urhebers der bedeutendsten Religion der westlichen Welt, des Christentums. Nun gilt Jesus Christus nicht nur einfach als Religionsgründer wie etwa Mohammed oder Buddha, für die Christen ist er der Sohn Gottes. Gleichzeitig gilt er als Teil der Dreieinigkeit Gottes. Andererseits war er aber auch ein Mensch wie alle anderen. Wie paßt dies alles nun zu dem Bild Gottes, wie es durch die Theogenese gezeichnet wird?
Obwohl dies eine etwas heikle Angelegenheit ist, will ich hier den Versuch unternehmen, die Bedeutung von Jesus Christus mit den Elementen der Theogenese zu erklären. Dabei zeigt sich, daß auch Details, die bisher nur mit großen theologischen Verrenkungen zu erklären waren, plötzlich eine einfache und einleuchtende Erklärung erhalten. So war es schwer nachzuvollziehen, welche Zwänge einen allmächtigen Gott dazu veranlassen konnten, unserer Sünden wegen seinen Sohn zu opfern. Schließlich ist ein König oder Präsident, der einen Delinquenten begnadigt, auch nicht verpflichtet, stattdessen seinen eigenen Sohn hinrichten zu lassen. Sollte Gott nicht mindestens ebenso souverän sein?
Außerdem, wenn das Universum wirklich voller Leben ist, warum schickt ein Gott, der das Universum erfüllt, seinen Sohn ausgerechnet auf dieses Staubkorn namens Erde? Eine mögliche Antwort ergibt sich aus den Begrenzungen durch die Lichtgeschwindigkeit.
Wenn Gott nun das Weltalls erfüllt, so müssen die verschiedenen Bestandteile von Gott über große Strecken miteinander kommunizieren. Wenn man davon ausgeht, daß die Grenze der Lichtgeschwindigkeit auch für Gott gilt, dann wird klar, daß Entscheidungen über lokale Probleme keinesfalls zentral oder gemeinschaftlich getroffen werden können. Bis das zu entscheidende Problem allen Teilen bekannt geworden wäre, würden nicht nur die be­troffenen Menschen nicht mehr leben, auch der Planet, auf dem sie gelebt haben, wäre wohl bereits untergegan­gen. Aus diesem Grund müssen alle Entscheidungen, die einen Planeten betreffen, lokal innerhalb des Planetensystems getroffen werden. Daher muß es auch in unserem Sonnensystem einen Teil von Gott geben, der sich ganz um die Belange der Menschen auf der Erde kümmert. Nun dürfte es für einen Milliarden Jahre alten Geist aber schwierig sein, die Nöte und Probleme der Menschen wirklich zu verstehen. Schließlich sind die vielen Fehler und Schwächen, die Unzulänglichkeiten, Unvollkommenheiten und Widersprüchlichkeiten des menschlichen Wesens bei ihm schon seit langer Zeit ausgemerzt worden. Im Gegensatz zum Menschen ist Gott heilig, vollkommen und gerecht. Um die Menschen wirklich verstehen zu können und mit ihnen mitfühlen zu können, mußte er erst ein Mensch werden. Dabei würde es wenig nützen, wenn er nur Menschengestalt annehmen würde und eine Weile wie ein Mensch leben würde, da er ja immer wüßte, daß er Gott ist und auf seine Milliarden Jahre alte Erfahrungen zurückgreifen könnte. Daher mußte also ein Mensch geboren werden. Und dieser Mensch war Jesus.

Zunächst kann er auf die Welt als normaler Mensch. Da die Bibel von einer Jungfrauengeburt spricht, ist das al­lerdings ein Hinweis darauf, daß Gott die Auswahl der Gene nicht dem Zufall überlassen hat, sondern selbst dafür gesorgt hat, daß der entstehende Mensch zumindest die genetischen Voraussetzungen zur Bewältigung der ihm zugedachten Aufgaben hatte.
Während dieser Jesus nun aufwuchs, gab es eine ständige und enge Kommunikation zwischen ihm und Gott. Diese Kommunikation war so intensiv, daß das Wesen Gottes in Jesus Gestalt annahm und Jesus das menschliche Spiegelbild Gottes wurde, und Gott und Jesus schließlich eine untrennbare Einheit bildeten.
Die Wunder, die er tat, lassen sich leicht dadurch erklären, daß die Engel Gottes einfach der Stimme Jesu gehorchten, denn die Engel sind der ausführende Teil Gottes, und Jesus war nun ebenfalls ein Teil von Gott.
Während seines Lebens versuchte Jesus den Menschen das Wesen Gottes und besonders seine Liebe näherzu­bringen. Es sagte: Wenn ihr den Vater sehen wollt, seht mich an.
Und sein Leben war geprägt von Liebe und Barmherzigkeit. Er war für alle da, die ihn brauchten, egal ob Sünder, Kranke oder Verachtete, und stellte immer die Not eines Menschen über die Vorschriften und Gesetze. Dafür geriet er auch öfters heftig aneinander mit den Pharisäern und Schriftgelehrten, den geistlichen Führern dieser Zeit. Sie glaubten durch strengstes Beachten unzähliger Gesetze und Regeln und durch frommes Gehabe den Willen Gottes zu tun. Jesus hielt ihnen dagegen ihre Selbstgerechtigkeit und Scheinheiligkeit vor und zeigte ihnen, wie sie in den Augen Gottes wirken, worauf sie versuchten, ihn zu töten. Obwohl er ihnen stets mühelos entkommen konnte, stellte er sich ihnen zuletzt freiwillig. Er tat dies, um den Menschen den größten Beweis seiner Liebe zu bringen, den er konnte, nämlich seinen eigenen qualvollen Tod am Kreuz.
Bei den Juden war es üblich, daß für die Sünden eines Menschen ein Tier geopfert wurde. Dabei sollte das Tier die Strafe für die Sünde übernehmen, die eigentlich der Mensch verdient hätte, und diese Strafe war der Tod. Mit dem Tod am Kreuz wollte Jesus zeigen, daß er die Strafe für die Sünden der Menschen aus lauter Liebe über­nommen hat und daß sie von nun an trotz ihrer Unvollkommenheit zu Gott kommen können.
Um aber seinen Jüngern zu zeigen, daß er nicht vom Tod besiegt wurde, sondern daß vielmehr Jesus den Tod besiegt hat, ist er am dritten Tag wieder auferstanden und ist seinen Jüngern mehrfach erschienen. Aus den Berichten wird deutlich, daß es sich dabei aber nicht einfach um die Wiederbelebung des alten Körper handelte, wie etwa bei Lazarus, sondern daß es sich um eine ganz neue Art von Körper handeln mußte. Dieser Körper konnte plötzlich in geschlossenen Räumen auftauchen und wieder verschwinden, er konnte seine Gestalt verändern, so daß auch langjährige Weggefährten ihn nicht mehr erkannten, und war dennoch zu all dem fähig, zu dem auch ein normaler Körper fähig ist, und vermutlich noch zu vielem mehr. Das läßt die erstaunliche Technologie erahnen, die nötig ist, um einen derartigen Körper zu erschaffen.

Als Jesus nun seine Aufgabe auf der Erde beendet hatte, trat er sein göttliches Erbe an. Es sagt von sich: "Mir ist gegeben alle Gewalt im Himmel und auf Erden". Das bedeutet, er nahm unter allen Bewußtseinen, die den im Sonnensystem stationierten Teil Gottes bildeten, die zentrale Stelle ein. Seine Erfahrungen als Mensch prägte die Gesamtheit des lokalen Geistes Gottes. Jesus war nun nicht mehr nur der Sohn Gottes, sondern er war Gott und die oberste Autorität und der Entscheidungsträger für alle lokalen Angelegenheiten im Sonnensystem.

Die Offenbarung

Ein Ereignis, das den weiteren Verlauf der Geschichte der Menschheit in einer nicht voraussagbarer Weise beeinflussen würde, wäre der Beschluß Gottes, seine bisher geübte Zurückhaltung aufzugeben und sich der Menschheit in aller Offenheit zu zeigen und sie teilhaben zu lassen an seinem Wissen. Daß dies früher oder später geschehen muß, ist wohl unzweifelhaft und ist spätestens dann der Fall, wenn wir uns in den Weltraum ausbreiten und dabei auf eine andere intelligente Lebensform treffen, die entweder unter dem Schutz Gottes steht und Gott deshalb einen direkten Kontakt verhindern muß, oder die Gott bereits kennt.
Vielleicht wird Gott aber solange nicht warten. Ein Bestandteil des Glaubens der Christen ist die Wiederkunft Jesu. Nach den Aussagen der Bibel wird diese Wiederkunft nicht so unauffällig stattfinden, wie seine erste Ankunft, sondern so, daß sie die ganze Welt wahrnimmt, und das wird der Beginn eines neuen Zeitalters sein. Wenn nun diese Wiederkunft so stattfindet, wie in der Bibel vorausgesagt, dann werden die Menschen und besonders die Wissenschaftler eine Menge Fragen an Jesus haben. Will Jesus auf all diese Fragen nicht mit beharrlichem Schweigen reagieren, so muß er der Menschheit das Wesen Gottes offenbaren und eine Antwort auf die großen Fragen der Menschheit geben. Dabei wird sich dann wohl auch zeigen, wie weit das hier vorgestellte Modell den Tatsachen entspricht.
Wann soll diese Offenbarung Gottes geschehen? Wahrscheinlich gibt es keinen festen Zeitpunkt dafür, es findet einfach dann statt, wenn die Zeit dazu reif ist. Vielleicht ist es an den Eintritt eines katastrophalen Zustandes gekoppelt, oder es hängt ab von den Stand der ethischen oder religiösen Entwicklung, von der allgemeinen Erkenntnis oder dem Stand des wissenschaftlichen oder technischen Fortschritts. Der Zeitpunkt kann erreicht sein, wenn die Menschen das wahre Wesen Gottes erkannt haben oder wenn sie die Unsterblichkeit erlangt haben oder wenn sich die meisten Menschen zu einem globalen Bewußtsein vereinigt haben.
Wenn es möglich sein wird, daß der Geist des Menschen nach dem biologischen Tod in einer Computersimulation weiterlebt, so gibt es das Problem, was denn nun mit der Seele wird, die ja nach dem Tod des Gehirns der Träger des Geistes ist. Bleibt alles wie bisher, so gibt es nun plötzlich zwei Ausgaben ein- und desselben Menschens. Um diese Problematik zu umgehen, könnte Gott den Toten erlauben, mit den Lebenden in ähnlichem Umfang zu kommunizieren, wie eine Computersimulation es könnte. Sobald das Leben nach dem Tod eine allgemein bekannte Tatsache wäre und jeder genau wüßte, was ihn erwartet, gäbe es keinen Grund mehr, in einer Computersimulation weiterleben zu wollen.
Es ist natürlich klar, daß die Offenbarung Gottes ein Bruch in der weiteren Entwicklung der Menschheit darstellt. Auch eine Entwicklung, wie ich sie im zweiten Kapitel beschrieben haben, würde dadurch abrupt gestoppt. Das enorme Wissen, das den Menschen nun plötzlich zuteil würde, hätte einen gewaltigen Entwicklungssprung zufolge, und es erscheint mir unmöglich vorauszusagen, welche Entwicklung die Menschheit danach nehmen würde.


6. Die Entstehung des Lebens

Die ganze Theorie der Theogenese steht und fällt mit der Frage, ob sich aus anorganischer Materie ohne Hilfe ir­gend einer Form von Intelligenz von selbst Leben entwickeln kann. Ich will hier einen denkbaren Weg vorstellen. Die Beschreibung dieses Weges kann hier allerdings nur verkürzt und schematisch erfolgen. Viele Details und Zwischenstufen sind auch noch gar nicht aufgeklärt, vielleicht wird der tatsächliche Ablauf auch niemals vollständig aufgeklärt. Es ist zu erwarten, daß die Vorgänge, die schließlich zum Leben führten, derart ver­schlungen, verschnörkelt und chaotisch waren, daß ein geradlinig denkender Mensch sich so etwas gar nicht aus­denken kann. Es bleibt natürlich noch die Möglichkeit von Laborexperimenten, die die damaligen Bedingungen nachstellen. Doch die Verhältnisse auf dem Planet Erde waren und sind derart vielfältig und komplex, daß kein Labor der Welt alle denkbaren Umgebungen exakt simulieren könnte. Und bei vereinfachten Experimenten fehlen dann wahrscheinlich die entscheidenden Faktoren zum Erfolg.
Dennoch will ich hier einen roten Faden auslegen, einen Weg aufzeigen, der in groben Zügen zeigt, wie es gewesen sein könnte. Dabei soll vor allem verdeutlicht werden, daß es nicht eines einzigen unwahrscheinlichen Zufalls bedurft hatte, um Leben entstehen zu lassen, sondern daß es sich um einen Prozeß aus sehr vielen kleinen und kleinsten Einzelschritten war, bei dem jeder Einzelschritt eine ausreichend große Wahrscheinlichkeit hatte und aus sich selbst heraus sinnvoll war. Aus der heutigen Sicht liegt es nahe, nur Schritte zu beschreiben, die stets auf das hinführen, was wir heute kennen. Doch dem Leben gestehe ich zu, daß es sich am Anfang vielleicht in ei­ne ganz andere Richtung entwickelt hat und erst nach heute unentwirrbar verschlungen Pfaden und unzähligen Irrwegen schließlich eine Richtung eingeschlagen hat, die zu dem führte, was wir heute als Leben bezeichnen.

Die Geschichte der Erde begann vor etwa 4600 Millionen Jahren, als in der rotierenden, durch die Schwerkraft verdichteten Gas- und Staubwolke um die entstehende Sonne die Materie sich zu kleinen Klumpen zusammenla­gerte, die durch Zusammenstöße an Größe zunahmen. Sobald ein Brocken groß genug war, um eine merkliche Schwerkraft zu besitzen, saugte er wie ein kosmischer Staubsauger kleinere Brocken sowie Staub und Gas an und nahm dabei weiter an Größe zu. Dabei kam es immer wieder zu Kollisionen zwischen großen Brocken, so daß mit der Zeit die Anzahl der Körper und die Menge von Staub und Gas immer mehr abnahm und die verbliebenen Körper immer größer wurden. Daher bildete sich schließlich ein System von Planeten heraus, bei dem nur die Körper erhalten blieben, deren Umlaufbahn sie nicht in die Nähe von anderen großen Körpern brachte. So ergaben sich die nahezu kreisförmigen Umlaufbahnen mit genügend Abstand zwischen den Planeten.
Vor etwa 4000 Millionen Jahren war dieser Prozeß größtenteils abgeschlossen, und die aufgrund der Zusammenstöße erhitzte Erde hatte sich an der Oberfläche soweit abgekühlt, daß atmosphärischer Wasserdampf sich nach und nach niederschlagen konnte und sich die ersten Meere bildeten. Die ältesten Gesteine, die man ge­funden hatte, wurden auf ein Alter von 3800 Millionen Jahren datiert.
Die Zusammensetzung der Atmosphäre der Erde sah anfangs vermutlich ähnlich aus wie bei den großen Gasplaneten heute noch. Sie bestand zunächst aus Wasserstoff, Methan, Ammoniak und Wasserdampf und etwas Schwefelwasserstoff. Durch die Wirkung des Sonnenlichts entstand in der oberen Atmosphäre aus Methan und Wasserdampf auch Kohlendioxid und Sauerstoff, wobei der Sauerstoffgehalt auf diesem Weg aber nicht über 0,5% ansteigen konnte. Gesteinsfunde weisen darauf hin, daß im Bereich von vor 3000 bis 2000 Millionen Jahren die Sauerstoffkonzentration unter 0,5% lag, erst danach stieg sie stetig an, bis sie vor etwa 600 Millionen die heutige Konzentration von 21% erreicht hatte.
Die frühesten Lebensspuren sind 3500 Millionen Jahren alt. Es sind Stromatolithen, Kalksedimente, die von dichten Teppichen aus Blaualgen und Bakterien zeugen, die damals auf den Ozeanen trieben und Sonnenlicht zur Energiegewinnung ausnutzen. Weitere Spuren sind Mikrofossilien, mikroskopisch kleine Abdrücke von den Zellwänden prähistorischer Bakterien. Oft wurden diese Mikrofossilien auch in Stromatolithen gefunden. Einige davon gehen ebenfalls auf ein Alter von 3500 Millionen Jahren zurück. Aber diese Lebensformen mußten bereits weit entwickelt gewesen sein, um etwa die Photosynthese zu beherrschen und in so großer Menge aufzutreten, um geologisch bedeutsame Formationen zu hinterlassen. Darum ist es plausibel anzunehmen, daß es bereits viel früher primitivere Lebensformen gegeben hat, die jedoch keine direkten Spuren hinterlassen haben. Allerdings wurden schon versteinerte Kohlenstoffablagerungen gefunden, die sich auf ein Alter von 3800 Millionen Jahren datieren lassen, und die eine Anreicherung von Kohlenstoffatomen mit der Atommasse 12 aufweisen. Die Anreicherung dieses Isotops im Vergleich zum Kohlenstoff 13 ist ein typisches Merkmal biologischer Kohlenstoffaufnahme. Dies läßt die Vermutung zu, daß die ersten Lebensformen irgendwann in einem Zeitraum vor 4000 bis 3800 Millionen Jahren auftraten.

Spontane Synthese organischer Stoffe

Die Verhältnisse auf der jungen Erde waren recht turbulent. Es gab heftige Gewitter, einen starken Vulkanismus, zahlreiche heiße Quellen und häufige Meteoriteneinschläge. In der damaligen reduzierenden Atmosphäre mußten sich dabei zahlreiche chemische Verbindungen gebildet haben. Einen ersten Versuch, diese Prozesse nachzubil­den, unternahm in den frühen fünfziger Jahren Stanley L. Miller, Mitarbeiter von Harold C. Urey an der Universität Chicago in Illinois. Dabei wurde in einem Kolben Wasser erhitzt, der entstandene Wasserdampf in eine Atmosphäre aus Methan, Ammoniak und Wasserstoff geleitet, in der unter Hochspannung stehende Elektroden künstliche Blitze erzeugten. Danach wurde das Gas abgekühlt und das Kondensat wieder in den Kolben geleitet. Dieser Prozeß lief nun über mehrere Tage in einem abgeschlossenen Kreislauf. In dieser Zeit ist 10% des vorhandenen Kohlenstoffs in eine Reihe von organischen Verbindungen übergegangen, aus 2% entstanden sogar verschiedene Aminosäuren, die Bausteine der für das Leben so wichtigen Proteine und Enzyme.
In der Folgezeit wurde dieser Versuch in zahlreichen Varianten immer wieder wiederholt. Bei diesen Versuchen entstand eine breite Palette von organischen Verbindungen, unter anderem auch die Purinbasen Adenin und Guanin und später in der flüssigen Phase auch die Pyrimidinbasen Urazil und Cytosin (Oro und Ponnamperuma, 1972). Damit waren die wesentlichsten Bausteine der RNS (Ribonucleinsäure) vorhanden.
Weiterhin entstanden die Aminosäuren Alanin (Ala), Aspargin (Asn), Asparaginsäure (Asp), Cystein (Cys), Glutaminsäure (Glu), Glykokoll (Gly), Isoleuzin (Ile), Leuzin (Leu), Lysin (Lys), Phenylalanin (Phe), Serin (Ser), Threonin (Thr), Tyrosin (Tyr) und Valin (Val).
Durch Polymerisation dieser Aminosäuren entstanden auch primitive Proteine, sogenannte Proteinoide, welche bereits multivalente katalytische Eigenschaften besaßen.
Von den weiteren Verbindungen, die gefunden wurden, seinen noch genannt: Fettsäuren, Zucker, Nukleoside, Nukleotide und Polyphosphat, einem Vorläufer des Energieträgers ATP.
All diese Stoffe und noch viele mehr mußten sich auch unter den damaligen Verhältnissen gebildet haben und sich in den Urozeanen angereichert haben. Schließlich übertrifft die urzeitliche Umwelt all diese stark vereinfach­ten Laborsimulationen an Vielfalt und Dimension bei weitem. In der Natur spielen 92 verschiedene Elemente eine Rolle, die in unzähligen Verbindungen vorkamen, die ihrerseits in den verschiedensten Mischungsverhältnissen vorlagen. Dazu kommen noch unterschiedlichste Temperatur- und Druckverhältnisse, verschiedene Gradienten und Strömungen und verschiedene Oberflächeneigenschaften der Mineralien. Das ganze spielte sich in ungefähr 1000 Millionen Kubikkilometer Wasser ab und über eine Zeitdauer von vielen Millionen Jahren.
Einen Hinweis darauf, daß ähnliche Prozesse im Universum häufig ablaufen müssen, liefern auch Meteoritenfunde an kohligen Chondriten, wie etwa dem Murchison-Meteorit, die viele organische Stoffe enthalten, wie unter anderem verschiedene Aminosäuren und Kernbasen, und das auch in ähnlichen Mengenverhältnissen wie bei den Laborversuchen.
So konnte auch der damals verstärkt auf die Erde niedergehende interstellare Staub eine weitere Quelle für organische Stoffe gewesen sein.

Ursuppe und Koazervate

All diese organischen Stoffe sammelten sich in dem Ozeanen zu der sogenannten Ursuppe. Da es keine Organismen gab, die diese Moleküle als Nahrung verwerten konnten, sammelten sie sich immer weiter an und reagierten in vielfältiger Weise miteinander.
Da die meisten komplexeren Verbindungen nicht wasserlöslich waren, bildeten sie Suspensionen oder kolloidale Lösungen, sammelten sich auf der Wasseroberfläche oder auf dem Meeresgrund oder wurden an Land gespült. Der für die Entstehung des Lebens interessanteste Zustand dürfte eine Zusammenlagerung zu kleinen Kugeln sein, genannt Mikrosphären oder Koazervate (Ein Koazervat ist in der Chemie ein im Schwebezustand zwischen kolloidaler Lösung und Ausfällung befindlicher Stoff). Solche Kugeln haben einen Stoffaustausch mit der Umgebung, können durch Anlagerung und Aufnahme von weiteren Stoffen wachsen und sich dann ab einer be­stimmten Größe wegen mechanischer Instabilität teilen. Koazervate haben den Vorteil, daß zum einen die organischen Substanzen dicht beieinander sind und die Reaktionsprodukte nicht sofort wegdiffundieren, sondern lange genug an Ort und Stelle bleiben, daß auch mehrstufige Reaktionsketten möglich sind. Es entsteht so bereits eine Art von Individualität, die aber noch nicht durch so etwas wie einen genetischen Code stabilisiert ist. Einen ähnlichen Effekt können auch die Oberflächen und Poren von Mineralen gehabt haben. Bestimmte organische Stoffe könnten sich dort bevorzugt angelagert haben. Zudem können bestimmte Minerale auch eine katalytische Wirkung haben und so bestimmte Reaktionen ermöglichen, die sonst nicht oder nur sehr langsam von statten ge­hen.

Selbstreplikation durch RNA

Die aussichtsreichsten Kandidaten für eine Vorstufe des Lebens dürften wohl kurze RNA-Ketten gewesen sein. Im Gegensatz zu Proteinen erlaubt der komplementäre Aufbau ihrer Bausteine, der Kernbasen Adenin, Guanin, Urazil und Cytosin, eine einfache Vervielfältigung. Dabei lagern sich Adenin und Urazil sowie Guanin und Cytosin bevorzugt zusammen, so daß beim Kopieren zunächst ein komplementärer Strang entsteht, das heißt aus z.B. AGUCAU würde UCAGUA. Erst beim Kopieren dieses Strangs entsteht eine wirkliche Kopie des Originalstrangs, nämlich AGUCAU. Dieser Kopiervorgang kann zwar selbständig ablaufen, aber dann ist diese Reaktion sehr langsam. Auch besteht die Gefahr, daß von den in der Ursuppe zahlreich vorhandenen Verbindungen sich auch welche einmogeln können, die eine weitere Verdopplung blockieren. Mit einem geeigne­ten Katalysator kann der Kopiervorgang wesentlich schneller und sicherer ablaufen. Heutige Lebewesen setzen dazu Enzyme aus komplexen Proteinen ein. Um solche Proteine herzustellen, ist ein genetischen Code aus RNA oder DNA und ein aufwendiger Transkriptionsapparat notwendig. Für den Anfang war aber sicher ein weit unspezifischerer Katalysator ausreichend. Die Replikation wäre dann zwar langsamer und unsicherer, aber schließlich sind die ersten kurzen RNA-Ketten nicht mit der komplexen RNA und DNA der heutigen Lebensformen vergleichbar.

Was käme nun als Katalysator für eine RNA-Replikation in Frage? Denkbar wären zum einen gewisse Minerale mit katalytischer Wirkung. So hat etwa das gewöhnliche Tonmineral Montmorillonit die Fähigkeit, die Synthese von kurzen RNA-Ketten zu katalysieren. Auf der Oberfläche eines geeigneten Minerals hätten sich dann Kolonien weitgehend identischer RNA-Ketten gebildet. Aufgrund der großen Mutationsrate entstanden zahlreiche Variationen. Diejenigen RNA-Ketten, die sich unter diesen Bedingungen besonders schnell und stabil replizieren konnten, bildeten die größten Kolonien verdrängten die anderen Kolonien auf der nur beschränkt zur Verfügung stehenden Oberfläche.
Ein anderer Kandidat für einen derartigen Katalysator ist die RNA selbst. Seit der Entdeckung der ersten Ribozyme Anfang der achtziger Jahre weiß man, daß auch in heutigen Organismen RNA mit enzymatischen Fähigkeiten existiert. Bei bestimmten Basenfolgen kann sich eine RNA-Kette an komplementäre Basen in der eigenen Kette anlagern und sich dabei zu einer räumlichen Struktur verknäueln, ähnlich wie ein Proteinmolekül. In dieser Form kann RNA aufgrund der stereochemischen Eigenschaften bestimmte Reaktionen katalysieren. Dabei lagern sich die Reaktanden an räumlich passenden Stellen an. Dadurch werden sie in die richtigen Position zueinander gebracht, um in der gewünschten Weise miteinander zu reagieren. Andere Formen können durch Anlagern die Bindungsenergie eines Moleküls an einer ganz bestimmten Stelle schwächen und so als chemische Schere arbeiten.
Obwohl noch kein Ribozym bekannt ist, das die Replikation von RNA katalysiert, wäre es doch denkbar, daß es ein derartiges RNA-Molekül etwa durch eine Mutation bei mineralisch katalysierter RNA-Replikation entstanden ist. Allerdings behindert die für eine katalytische Wirkung notwendige Verknäuelung der RNA die Replikation. Damit die RNA-Kette sich selbst replizieren kann, muß es von dieser RNA gleichzeitig Moleküle in der ver­knäuelten und der gestreckten Phase geben. Derartige Probleme waren wahrscheinliche ein wichtiger Grund für den späteren Übergang zu DNA, um eine Funktionstrennung zwischen Informationsspeicherung und katalytischer Wirkung zu erreichen.
Es wäre aber auch denkbar, daß katalytisch wirksame RNA entstanden ist, welche die Bildung von bestimmten Proteinen bewirkt. Wenn dabei ein Protein erzeugt wird, das die RNA-Replikation katalysiert, dann wäre ein sich selbst unterstützender zweistufiger zyklischer Prozeß entstanden, der zur starken Vermehrung der beteiligten Substanzen führt. Zudem müßte die RNA nicht mehr gleichzeitig in verknäueltem und gestecktem Zustand vorliegen, es würde ausreichen, wenn die Verknäuelung zyklisch in Abhängigkeit von wechselnden Umgebungsverhältnissen stattfindet. In der verknäuelten Phase würde Protein produziert, und in der gestreckten Phase RNA repliziert.

Eine weitere Möglichkeit wäre, daß ein Protein, das die RNA-Replikation katalysieren kann, über andere Prozesse entsteht. Man kann sich vorstellen, daß sich die reichlich vorhandenen Aminosäuren zufällig zu einem enzymatisch wirksamen Protein zusammenlagern. Dieses Enzym A katalysiert nun die Bildung eines zweiten Enzyms B. Wenn B nun in der Lage ist, die Bildung von A zu katalysieren, so entsteht ein geschlossener Produktionszyklus, der zur massenhaften Produktion ganz spezieller Verbindungen führt. Da die Emzyme A und B zunächst nicht besonders spezifisch sein können, werden sie nämlich auch eine ganze Reihe von Nebenprodukten erzeugen. Wenn nun eines dieser Nebenprodukte in der Lage wäre, die RNA-Replikation zu ka­talysieren, so könnte dieser Zyklus der Antriebsmotor für eine RNA-Vervielfältigung sein. Im Schlepptau solcher Zyklen könnten sich eine Vielzahl von unterschiedlichen RNA-Ketten entwickeln und miteinander konkurrieren. Irgendwann wird sich dabei auch eine Form von RNA bilden, die aktiv in den katalytischen Zyklus eingreifen kann und dabei die Ausbeute der RNA-Replikase erhöht. Eine höhere Enzymkonzentration bewirkt dann eine schnellere Vermehrung, so daß sich diese RNA rasch ausbreiten wird.

Die Vorstufe zur Zelle

Wenn man sich diese Reaktionen nicht im freien Ozean, sondern im Inneren von Koazervaten lokalisiert denkt, dann erhält man Gebilde, die einer primitiven lebenden Zelle schon recht nahe kommen. Mikroskopisch kleine kugelförmige Gebilde treiben nun im Meerwasser. In diesen befinden sich zahlreiche weitgehend identische RNA-Moleküle. Die RNA steuert einen zyklischen Prozeß, der zur Bildung von RNA-Replikase führt. Die RNA-Replikase wiederum fertigt identische Kopien der RNA an. Das Ausgangsmaterial für diese Reaktionen ist in der Ursuppe reichlich vorhanden und diffundiert ins Innere der Koazervate. Die viel größeren Endprodukte der Reaktionen, Proteine und RNA können aber nicht entweichen, so daß die Koazervate ständig größer werden. Dabei werden sie wegen der abnehmenden Oberflächenspannung mechanisch instabil und können leicht durch zufällige Stöße oder brechende Wellen in mehrere Tröpfchen aufgespalten werden. Da das Innere der Koazervate noch unstrukuriert ist, ist auch in den Tochterkoazervaten von allen wichtigen Substanzen noch genügend vorhanden, um die chemischen Prozesse unverändert weiterlaufen zu lassen. So werden auch diese Koazervate wachsen und sich wieder aufspalten, und so weiter.

Es kommt so zu einer massenweisen Vermehrung von Koazervaten derselben Art. Die Eigenschaften dieser Koazervate sind dabei bestimmt durch die RNA und durch die Art des katalytischen Zyklusses, der die RNA-Replikase erzeugt. Bei vielen Koazervaten werden aber auch Mutationen auftreten, so daß sich die Eigenschaften ändern. Daß der katalytische Zyklus direkt mutiert, ist aber ziemlich unwahrscheinlich. Schließlich erfordert ein Zyklus eine feine Abstimmung zwischen den sich gegenseitig katalysierenden Proteinen. Jede Abweichung an nur einem Enzym würde nur den Prozeß zum Stillstand bringen, Modifikationen an allen Enzymen gleichzeitig in einer Weise, die wieder zu einem stabilen Zyklus führen, sind aber sehr unwahrscheinlich.
Ganz anders sind die Verhältnisse bei der RNA. Aufgrund des primitiven Kopierverfahrens sind Kopierfehler oft aufgetreten. Solange die Replikationsrate einer RNA-Kette weitgehend unabhängig von der in dieser RNA gespeicherten Information ist, können sich auch die fehlerhaften Kopien weiter vermehren und dabei auch weiter mutieren. Solange es noch genügend von der funktionierenden RNA gibt, geht das Wachstum weiter. Bei Koazervaten, in denen aber funktionslose RNA überhand nimmt und die funktionsfähige RNA verdrängt, verlangsamt sich das Wachstum, und sie geraten im Vergleich zu anderen Koazervaten ins Hintertreffen. Wenn dagegen bei der Mutation RNA entsteht, die das Wachstum beschleunigt, so wird sich dieser Koazervattyp schneller vermehren als die anderen. Bei der Teilung der Koazervate wird die RNA zufällig auf die Tochterkoazervate verteilt. Tochterkoazervate, die nun besonders viel von der "besseren" RNA erwischt haben, vermehren sich besonders schnell, während Töchter mit besonders viel funktionslosem RNA-Müll nur geringe Wachstumsraten haben.
So reichert sich die bessere RNA immer stärker an, während sich bei der funktionslosen RNA ein Gleichgewicht zwischen Erzeugung durch Mutation und Vernichtung durch Selektion einstellt. Diese funktionslose RNA hat aber durchaus auch einen gewissen Wert, schließlich kann daraus durch Mutation auch funktionelle RNA mit ganz neuen Fähigkeiten entstehen.

Mutation und Selektion

Damit haben sich mit Mutation und Selektion die wichtigsten Mechanismen der Evolution herausgebildet. Die Selektion wird dabei anfangs hauptsächlich über die Vermehrungsrate wirken, später können auch andere Elemente wie besserer Schutz vor äußeren Einflüssen und damit eine höhere Lebensdauer oder höhere Effizienz bei der Ausnutzung der vorhandenen Ressourcen eine zunehmende Rolle spielen.

Die nun ablaufende Entwicklung führt zu einer Fülle von neuen Techniken, die alle in Konkurrenz zueinander stehen. Ebenso entstanden zahlreiche Arten mit den unterschiedlichsten Eigenschaften und Techniken, doch nur eine einzige Art unter diesen Urformen des Lebens sollte der Vorfahre allen heutigen Lebens werden, alle anderen Arten sind wieder verschwunden.

Arbeitsteilung durch DNA

Ein Schritt bei der Weiterentwicklung war das Auftreten von DNA (Desoxyribonukleinsäure). DNA ist ähnlich aufgebaut wie RNA, mit zwei Unterschieden. Bei der RNA besteht das Rückgrat, an dem die Basen befestigt sind, aus einer Kette, die abwechselnd das Zuckermolekül Ribose und einen Phosphatrest enthält. Bei der DNA ist die Ribose durch die Desoxyribose ersetzt, der in Gegensatz zur Ribose eine OH-Gruppe fehlt. Die Pyrimidinbase Urazil ist durch Thymin ersetzt, das lediglich einen zusätzlichen CH3-Rest besitzt. Da dieser CH3-Rest die Wasserstoffbrückenbindung zur komplementären Base Adenin nicht stört, ist die DNA voll kompatibel zur RNA, das heißt, DNA kann auf RNA kopiert werden und umgekehrt.
Was für einen Vorteil hat aber nun die DNA? Ein Problem der RNA ist ihre Doppelfunktion. Zum einen ist sie ein replikationsfähiger Informationsspeicher, zum anderen wirkt sie als Katalysator. Die katalytische Wirkung ist aber um besser, je stärker die RNA in sich verknäuelt ist. Für eine gute Replikationsfähigkeit muß die RNA dagegen möglichst glatt sein. Dieser Zielkonflikt könnte durch eine Arbeitsteilung zwischen RNA und DNA gelöst werden. Die DNA, von der bisher keine katalytische Wirkung bekannt ist, übernahm die Rolle des Informationsspeichers. Da sie sich nicht wie die RNA verknäuelt, kann sie sich unabhängig von der in ihr codierten Information immer gut vervielfältigen. Gleichzeitig kann an ihr auch RNA entstehen. Da diese RNA sich nicht mehr selbst vervielfältigen muß, kann sie beliebig stark verknäuelt sein. Auf diese Weise werden wesentlich leistungsfähigere Ribozyme möglich, was wiederum ein deutlicher Vorteil für ein Lebewesen ist.

Der universelle genetische Code

Ein weiterer Schritt ist das Herausbilden einer einheitlichen Codierung für die genetische Information, eine Art symbolische Sprache auf molekularer Ebene. Alle heute auf der Erde lebenden Lebewesen benutzen dieselbe Sprache. Es gibt vier Buchstaben, nämlich U, C, A, G bei der RNA bzw. T, C, A, G bei der DNA. Dies sind die Anfangsbuchstaben der vier Kernbasen. Jedes Wort dieser Sprache besteht aus drei Buchstaben (Triplett) und re­präsentiert genau eine Aminosäure, wobei auch mehrere Worte dieselbe Aminosäure codieren können. Ein Satz besteht aus einer verschieden langen Folge von Worten, die ohne Zwischenräume aufeinander folgen. Lediglich die einzelnen Sätze sind durch spezielle Start- und Stopsequenzen voneinander getrennt, wobei dazu auch Buchstabenfolgen benutzt werden, die keiner Aminosäure zugeordnet sind. Ein Satz beschreibt dabei den Aufbau eines Proteins, wobei über die Reihenfolge der Worte die Reihenfolge der entsprechenden Aminosäuren im Protein festgelegt wird.
Die folgende Tabelle zeigt den universellen genetischen Code mit der Zuordnung der Tripletts zu den damit codierten Aminosäuren für die RNA (bei der DNA ist U durch T zu ersetzen):

 U    C  A  G
UUU Phe UCU Ser UAU Tyr UGU Cys
U UUC Phe UCC Ser UAC Tyr UGC Cys
UUA Leu UCA Ser UAA - ** UGA - **
UUG Leu UCG Ser UAG - ** UGG Try
CUU Leu CCU Pro CAU His CGU Arg
C CUC Leu CCC Pro CAC His CGC Arg
CUA Leu CCA Pro CAA Gln CGA Arg
CUG Leu CCG Pro CAG Gln CGG Arg
AUU Ile ACU Thr AAU Asn AGU Ser
A AUC Ile ACC Thr AAC Asn AGC Ser
AUA Ile ACA Thr AAA Lys AGA Arg
AUG Met* ACG Thr AAG Lys AGG Arg
GUU Val GCU Ala GAU Asp GGU Gly
G GUC Val GCC Ala GAC Asp GGC Gly
GUA Val GCA Ala GAA Glu GGA Gly
GUGValGCGAlaGAGGluGGGGly

Der universelle genetische Code - eine Zuordnung von Symbolen (Tripletts) zu ihrer Bedeutung (Aminosäuren).  *: Markiert auch einen Kettenanfang.  **: Stopcodons am Kettenende

Nukleotide
  Purin-Basen
    A    Adenin
    G    Guanin
  Pyrimidinbasen
    U    Urazil
    C    Cytosin
    T    Thymin

Aminosäuren
Ala    Alanin H3C-CH(NH2)-COOH
Arg Arginin H2N‑C(=NH)‑NH‑[CH2]3‑CH(NH2)‑COOH 
Asn Aspargin H2N-C(=O)-CH2-CH(NH2)-COOH
Asp Asparaginsäure   HOOC-CH2-CH(NH2)-COOH
Cys Cystein HS-CH2-CH(NH2)-COOH
Gln Glutamin  H2N-C(=O)-[CH2]2-CH(NH2)-COOH
Glu Glutaminsäure   HOOC-[CH2]2-CH(NH2)-COOH
Gly Glycin  CH2(NH2)-COOH
Ile Isoleuzin  H3C-CH2-CH(CH3)-CH(NH2)-COOH
His Histidin H3N2C3-CH2-CH(NH2)-COOH
Leu Leuzin H3C-CH(CH3)-CH2-CH(NH2)-COOH
Lys Lysin  H2N-[CH2]4-CH(NH2)-COOH
Met Methionin H3C-S-CH2-CH2-CH(NH2)-COOH
Phe Phenylalanin C6H5-CH2-CH(NH2)-COOH
Pro Prolin H8NC4-COOH
Ser Serin  HO-CH2-CH(NH2)-COOH
Thr Threonin H3C-CH(OH)-CH(NH2)-COOH
Try Tryptophan H6NC8-CH2-CH(NH2)-COOH
Tyr Tyrosin HO-C6H4-CH2-CH(NH2)-COOH
Val Valin H3C-CH(CH3)-CH(NH2)-COOH

Wie aber konnte ein solcher universeller Code entstehen?
Zunächst war die DNA-Sequenz immer so aufgebaut, daß beim Umkopieren in RNA ein verknäueltes Ribozym entstand. Die räumliche Struktur dieses Ribozyms war so beschaffen, daß sich einzelne Aminosäuren und kurze Proteinketten in einer bestimmten Weise anlagern konnten und dabei miteinander verbunden wurden. Einfache Proteine konnten von einem Ribozym in einem Arbeitsschritt erzeugt werden, bei komplizierteren Proteinen waren mehrere Arbeitsschritte und verschiedene Ribozyme nötig.
Dabei mußte es in der RNA auch Sequenzen gegeben haben, die eine einzelne Aminosäure an eine vorhandene Kette anfügen konnten. Solche RNA-Segmente erlauben eine wesentlich feinere und flexiblere Strukturierung von Proteinen als der bloße Zusammenbau schon vorhandener Proteinbruchstücke. Die intensive Nutzung eines solchen Verfahrens erfordert es aber, daß dieselbe komplizierte DNA-Sequenz an vielen Stellen in der DNA vorhanden ist. Daß dies allein durch mutative Veränderung der DNA geschieht, ist aber ziemlich unwahrschein­lich. Eher möglich wäre, daß durch zufällige Brüche DNA-Fragmente entstehen und diese an anderen Stellen in die DNA einfügt werden. Diese DNA-Fragmente können aber auch separat in RNA umkopiert werden. So würden selbständige Ribozyme entstehen, die unter bestimmten Bedingungen eine bestimmte Aminosäure an ein beliebiges Protein anzuhängen vermögen. Eine solche RNA hätte damit dieselbe Wirkung wie die heutige t-RNA (Transfer-RNA), daher will ich sie im Folgenden auch so bezeichnen. Nun erfolgt ein Bruch in der DNA aber normalerweise nicht direkt an der Grenze des wirksamen Codes. So werden auch die Ribozyme an ihrem Ende ein Stück RNA besitzen, das nicht enzymatisch wirksam ist und dessen Basen-Sequenz beliebig sein kann. Wenn nun aber zwei Ribozyme RNA-Reste besitzen, die zueinander komplementär sind dann, könnten diese Ribozyme sich aneinanderlagern. Handelt es sich bei dem kleineren der beiden Ribozyme um die oben beschriebene t-RNA, so kann diese an das vom größeren Ribozym erzeugte Protein eine einzelne Aminosäure anhängen.
Wenn in einer Zelle nun mehrere Arten von t-RNA in ausreichender Menge vorhanden sind, dann ist es nun nicht mehr nötig, für das Anhängen einer Aminosäure an ein Protein eine größere DNA-Sequenz an der richtigen Stelle einzufügen. Es genügt eine kleinere Mutation, die eine kurze Sequenz erzeugt, an der sich eine t-RNA anlagern kann. Diese Sequenz darf allerdings nicht so groß sein, daß eine Mutation zu unwahrscheinlich wird. Sie muß aber groß genug sein, daß die t-RNA sich stabil anlagern kann, und es außerdem genug Varianten gibt, um die verschiedenen t-RNA-Typen eindeutig voneinander unterscheiden zu können. Zwei Nukleotide sind mindestens nötig für eine stabile Verbindung, dabei sind 16 verschiedene Kombinationen möglich, was damals mehr als ausreichend war. Die Wahrscheinlichkeit, daß eine bestimmte Kombination zufällig auftritt, ist 1/16, also groß genug für eine Veränderung durch Mutation.

Durch diese Methode konnten nun mit bereits kleinen Mutationen zahlreiche neue Proteine erzeugt werden, denn wenn bei mehrstufigen Prozessen Proteine zusammengefügt werden, können die angehängten Aminosäuren auch ins Innere eines Proteins gelangen. Wenn dabei nützliche Proteine entstehen, dann setzt sich diese Methode durch. Es werden dann auch spezielle Ribozyme entstehen, die diesen Prozeß fördern. Mit solchen Ribozymen, die wohl Vorläufer der heutigen r-RNA (ribosomale RNA) waren, wird es auch möglich, mehr als nur eine Aminosäure anzuhängen. Dabei wurden die Fortsätze der Ribozyme länger. Diese Fortsätze enthielten die Information für mehrere Aminosäuren, jede codiert durch wahrscheinlich zwei Nukleotiden, wobei wohl ein dritter Nukleotid als Trennzeichen diente. Spezielle Ribozyme konnten an diesen Ketten entlanggleiten und dabei Schritt für Schritt die passende t-RNA anlagern. Damit waren diese Ribozyme die Vorläufer der heutigen Ribosomen, kleine Partikel, ungefähr zu gleichen Teilen aus Proteinen und r-RNA zusammengesetzt.
Sobald dieser Prozeß zuverlässig funktionierte, wurde die katalytische Wirkung der für ein Protein verantwortli­chen RNA-Kette immer unwichtiger, die Fortsätze immer länger. Schließlich verschwand der katalytisch wirksa­me Teil ganz, aus den Fortsätzen wurde die heutige m-RNA (Messenger-RNA).

Der genetische Code war anfangs aber noch nicht stabil. Zunächst entstanden durch Mutation neue t-RNA-Formen, die zwar dieselbe Aminosäure anfügte, aber deren Fortsatz einen etwas anderen Code hatte. Solange es dabei nicht zu Doppeldeutigkeiten kam, war das kein Nachteil - im Gegenteil, die Wahrscheinlichkeit, daß eine Mutation wieder einen gültigen Code erzeugt, wurde so höher. Da es anfangs weit weniger Aminosäuren als die 20 von heute benutzt wurden, dürften auch bei den ersten beiden Nukleotiden eines Tripplets verschiedene redundante Codierungen entstanden sein, von denen heute noch zwei übrig sind (Leu und Arg). Allerdings dürfen auch nicht alle Kombinationen belegt werden, es muß auch ungültige Kombinationen geben, die zum Abbruch der Proteinproduktion führen und so das Ende eines Gens markieren können. Ein Gen ist dabei ein Abschnitt in der Nukleotidsequenz, der die Information für ein bestimmtes Protein enthält. In der Grammatik würde das einem Satz entsprechen.

Die Redundanz führt aber auch zu Problemen, nämlich dann, wenn neue Aminosäuren in dem Code aufgenom­men werden sollen und es ist keine Kombination mehr frei. Dann muß die Redundanz mühsam wieder ausge­merzt werden. Wenn die neu aufzunehmende Aminosäure einen Code bekommt, der schon verwendet wird, so gibt es viele Doppeldeutigkeiten, und es hängt vom Zufall ab, welche Aminosäure hier nun tatsächlich eingebaut wird. Für ein Lebewesen ist dies dann in der Regel tödlich. Eine Chance zum Überleben gäbe es nur dann, wenn die neue Aminosäure der anderen möglichst ähnlich ist und dieser Code bisher nur selten verwendet wurde. Dann könnte es sogar sein, daß die Proteine mit der neuen Aminosäure noch besser funktionieren. In dem Fall würde die t-RNA, die redundant die alte Aminosäure codiert, durch Mutation und Selektion wieder ausgemerzt werden und so die Eindeutigkeit des Codes wiederhergestellt werden.

Wenn aber alle redundanten Codierungsmöglichkeiten bereits zu häufig vorkommen oder eine Aminosäure dazukommt, die sich von dem anderen stark unterscheidet, so bleibt nur der Weg, den dritten, bisher ignorierten Nukleotid auch noch für die Codierung mit heranzuziehen. Dabei können entweder alle drei Nukleotide voll­ständig dekodiert werden, oder es wird beim dritten Nukleotid nur unterschieden zwischen Purin- (A, G) und Pyrimidinbasen (U, C). Hier besteht noch die Chance, eine Kombination zu finden, die noch nicht so oft existiert und deren doppelte Belegung nicht gleich tödlich ist. Dann müßte noch die t-RNA der kollidierenden Aminosäure so durch Mutation so geändert werden, daß sie ebenfalls den dritten Nukleotid mit codiert. Erst dann wäre die neue Aminosäure uneingeschränkt einsatzfähig.

Je mehr Aminosäuren eingebaut werden und je komplexer die DNA wird, um so größer wird das Risiko jeder neuen Codeänderung. Zudem wird der zu erwartende Vorteil einer neuen Aminosäure immer geringer, wenn bereits viele Aminosäuren zur Verfügung stehen. Irgendwann steht das Risiko in keinem Verhältnis mehr zum Gewinn, und es gibt niemanden mehr, der den Versuch einer neuen Codeänderung überlebt. Dennoch war das Lebewesen, das es als einziges geschafft hat, die zwanzig heute benutzten Aminosäuren zu integrieren und dieses auch zu überleben, danach so erfolgreich, daß es sämtliches anderes Leben auf diesem Planeten verdrängt hat und heute der Vorfahre allen existierenden Lebens ist.
Und deswegen gibt es heute auch nur einen genetischen Code, der für alles irdische Leben Gültigkeit hat. Bei ei­nem komplexen Lebewesen wäre auch jede Codeänderung undenkbar, es sei denn, der Mensch würde eines Tages einen neuen künstlichen Code erschaffen.
Dennoch wurden bereits Abweichungen von diesem universellen Code entdeckt. Bei den Mitochondrien in Säugetierzellen gibt es folgende Abweichungen: UGA=Try, UAA=Met, AUA=Met oder Insertionscodon. AGA und AGG sind hier Stop-Codons. Allerdings ist die DNA der Mitochondrien nur noch rudimentär, da die meisten Funktionen inzwischen von der Mitochondrien-DNA in die Zellkern-DNA gewandert ist. Bei einer derart reduzierten DNA-Ausstattung sind Spielereien am genetischen Code wieder möglich.
Es sind aber auch schon zwei primitive Organismen bekannt geworden, in denen der genetische Code der Kern-DNA an jeweils einer Stelle eine Abweichung zeigt: UGA=Try bzw. UAA=Gln. Doch das sind die Ausnahmen von der Regel.

Die Bakterien

Die Urform des Lebens, das Lebewesen, von dem alles andere Leben abstammt, war eine Bakterie. Leben dieses Typs nennt man auch Prokaryot. Bakterien sind relativ einfach aufgebaut und haben auch noch keinen Zellkern. Dennoch sind sie im Grunde die erfolgreichste Lebensform. Sie besiedeln nahezu jeden Lebensraum, selbst in 110°C heißen Quellen und in der konzentrieren Salzlauge des Toten Meers sind sie zu finden. Sogar 1500 Meter unter der Erde hat man schon methanbildende Bakterien gefunden. Den zur Methanerzeugung aus CO2 nötigen Wasserstoff erhalten sie wahrscheinlich durch die Umsetzung des im Basalt enthalten zweiwertigen Eisens zu dreiwertigem Eisen unter Einwirkung von Wasser. Eine solche Reaktion, bei der Fe(II)-Ionen mit Wasser zu Fe(III)-Verbindungen und Wasserstoff umgesetzt werden, könnte übrigens auch den frühesten Lebensformen als Energiequelle gedient haben, denn Eisen war damals überall und in großen Mengen vorhanden. Selbst auf dem Mars müßten solche Bakterien tief unter der Oberfläche überleben können. Man sollte dort nur einmal tief genug bohren ...

Die Anpassungsfähigkeit der Bakterien ist unübertroffen. Allerdings ist nicht die einzelne Bakterie derart anpassungsfähig. Der Grund liegt in der hohen Vermehrungsrate. Gerade weil sie so einfach und funktionell aufgebaut sind, können sie sich alle 20 bis 30 Minuten teilen, vorausgesetzt, es ist genug Nahrung vorhanden. Bei einer derart hohen Vermehrungsrate kommt es natürlich entsprechend häufig zu Mutationen. Bei einer veränder­ten Lebensbedingung gibt es sehr bald eine passende Mutation, die damit besser zurechtkommt. Wir sehen dies etwa, wenn Bakterien resistent gegen bestimmte Antibiotika werden.
Die Linie des gemeinsamen Vorfahren spaltete sich sehr früh in zwei Organismenreiche, den hitzeliebenden Archaebakterien und den Eubakterien, die Temperaturen unter 80°C benötigen und zum Teil bei 0°C noch gedeihen.
Erste, auf das Leben zurückzuführende geologische Spuren entstanden erst, als sich im Reich der Eubakterien die Klasse der Cyanobakterien bildete. Man nennt sie auch Blaualgen, obwohl sie eigentlich keine Algen sind. Diese neue Form von Bakterien war nun in der Lage, Photosyntese zu betreiben, das heißt, sie konnten aus dem Sonnenlicht Energie gewinnen. Dabei entzogen sie dem Wasser den Wasserstoff und setzten molekularen Sauerstoff frei. Aus dem Wasserstoff und Kohlendioxid erzeugten sie organische Stoffe. Zum Leben genügte ih­nen somit Sonnenlicht, Wasser, CO2 sowie einige Mineralstoffe als Dünger. Damit waren sie nicht mehr darauf angewiesen, ihre Energie zum Leben aus den begrenzt vorhandenen organischen Stoffen oder Mineralen im Urozean zu beziehen, oder ihren Lebensraum auf die Umgebung von heißen Quellen zu beschränken, wo noch genügend Substanzen freigesetzt wurden, die zur Energiegewinnung nutzbar waren.
So konnten sich diese Cyanobakterien überall im Ozean in Massen verbreiten und über einen Zeitraum von 3 Milliarden Jahre das Gesicht der Erde entscheidend verändern.

Die größte Bedeutung hatte dabei die Umgestaltung der Atmosphäre. Bei der Photosyntese erzeugten die Cyanobakterien große Mengen an freiem Sauerstoff. Aus der anfangs praktisch sauerstofflosen reduzierenden Uratmosphäre wurde so schließlich eine oxydierende Sauerstoffatmosphäre.
Allerdings tauchte der Sauerstoff den verfügbaren Hinweisen zufolge erst vor 2 Milliarden Jahre in der Atmosphäre auf. Das heißt aber nicht, daß auch die Cyanobakterien erst zu diesem Zeitpunkt entstanden sind. Vielmehr wurde der freigesetzte Sauerstoff anfangs sofort wieder verbraucht, indem er andere Stoffe oxydierte. Da die Erde zum weitaus größten Teil aus Eisen besteht, mußte es damals riesige Vorkommen an Eisen gegeben haben. Wenn Eisen mit Sauerstoff in Berührung kommt, dann wird es oxydiert, es rostet. So entstanden im Laufe der Zeit große Erzlager.
Besonders die Bändereisenerze lassen auf einen derartigen Ursprung schließen. Die Ablagerung dieses Erzes be­gann vor mindestens 3,75 Milliarden Jahren und setzte sich ununterbrochen fort bis vor etwa 2 Milliarden Jahren. Danach nahm die Bildung dieses Erzes ständig ab, bis sie vor 1,7 Milliarden Jahren ganz zum Stillstand kam. Demnach konnte der Sauerstoff erst dann in nennenswerten Mengen in die Atmosphäre gelangen, als das nichtoxydierte Eisen vor 2 Milliarden Jahren nahezu aufgebraucht war.
Daraus kann man nun durchaus den Schluß ziehen, daß die Cyanobakterien bereits vor 3,75 Milliarden Jahren in Massen vorhanden waren. Größere Ablagerungen von abgestorbenen Cyanobakterien selbst bildeten sich aber erst später. Es sind die eingangs erwähnten Stromatolithen, die auf ein Alter von bis zu 3,5 Milliarden Jahren datiert wurden.

Der freiwerdende Sauerstoff hatte somit auch große Auswirkungen auf die Erdoberfläche und den Ozean, vor al­lem aber auf das Leben. Viele Stoffe, die in einer reduzierenden Atmosphäre entstehen konnten oder stabil waren, wurden in der Sauerstoffatmosphäre oxydiert. Davon betroffen waren nicht nur Metalle, wie das in großen Mengen vorhandene Eisen, sondern auch alle organischen Stoffe. Die Metalle oxydierten zu Metallerzen und bil­deten so viele der heutigen Erzlager, während die organischen Stoffe des Urozeans durch den aggressiven Sauerstoff zu hauptsächlich Kohlendioxid und Wasser zersetzt wurden. Für das aus organischem Material bestehende Leben mußte der Sauerstoff pures Gift gewesen sein. Der Anstieg der Sauerstoffkonzentration mußte daher zu einem massenhaften Aussterben von Arten geführt haben. Die Cyanobakterien selbst waren davon aber kaum betroffen, da sie den Sauerstoff selbst produzierten und daher bereits früh gelernt haben, sich vor der oxydierenden Wirkung zu schützen. Dies kann mit speziellen Antioxidantien geschehen, wie etwa Ascorbinsäure (Vitamin C).
Unter den sehr anpassungsfähigen Bakterien fanden sich nun bald welche, die nicht nur gegen den Sauerstoff re­sistent waren, sondern ihn auch noch nutzen konnten, um aus organischem Material Energie zu gewinnen. Und organisches Material entstand nun in großen Mengen in Form von Cyanobakterien. Wenn ein Bakterium dann noch geeignete Verdauungsenzyme ins Wasser abgeben konnte, um das organische Material einer toten Cyanobakterie in nutzbare Bestandteile zu zerlegen, dann konnte es sich zusammen mit den Cyanobakterien über die ganze Welt ausbreiten. So entstanden riesige, im Wasser treibende, in Schichten übereinanderliegenden Bakterienkolonien, deren oberste Schichten mit Cyanobakterien besiedelt waren, während die Bakterien in den unteren Schichten sich von den organischen Stoffen ernährten, die durch die Photosynthese der Cyanobakterien immer wieder aufs Neue entstanden. Als Ablagerung bildeten diese Kolonien schließlich das Schichtgestein der Stromatolithen.

Diese Koalition aus Cyanobakterien und den anderen Bakterien war so erfolgreich, daß die Bakterien über eine sehr lange Zeit, nämlich 2/3 der Erdgeschichte die dominierende Lebensform auf der Erde waren. Alle anderen Lebensformen, die in dieser Zeit existiert haben mögen, wurden in ein unscheinbares Schattendasein gedrängt. Jedenfalls haben sie keinerlei Spuren hinterlassen, die heute noch zu erkennen wären. Erst vor über einer Milliarde Jahre trat eine wesentlich komplexere Lebensform in Erscheinung, der Eukaryot.

Eukaryoten

Obwohl es scheint, als ob die Entwicklung für den größten Teil der Erdgeschichte auf dem Stand der Bakterien stehengeblieben wäre, muß es im Verborgenen doch eine Weiterentwicklung gegeben haben.
So hat sich möglicherweise in der Tiefe des Meeres eine ganz neue Form von Leben entwickeln. Dort, wo in der Tiefe heiße schweflige Quellen existierten, konnte sich kein Sauerstoff in Lösung halten. Hier konnten noch organische Stoffe entstehen. Zudem wurden hier Stoffe wie Schwefel aus dem Inneren der Erde gespült, die sich zur Energiegewinnung nutzen lassen. An solchen Stellen, an denen das Leben wahrscheinlich auch seinen Anfang genommen hat, konnten viele Lebensformen eine Zuflucht vor dem sauerstoffverseuchten Ozeanwasser finden. Während die Bakterien an der Oberfläche paradiesische Zustände vorfanden, ein riesiger Lebensraum mit unerschöpflichen Energiequellen, wo sich schnell ein stabiles Gleichgewicht zwischen Fressen und gefressen werden einstellen konnte und der Konkurrenzkampf entsprechend gering war, war das Leben in der Tiefe sehr hart. Die Ressourcen waren knapp, der Lebensraum klein und die Konkurrenz zahlreich. Zudem ist die Lebensdauer einer heißen Quelle beschränkt. Wenn eine heiße Quelle versiegte, setzte regelmäßig ein Massensterben ein, das nur die wenigsten überleben konnten. Dieser enorme Selektionsdruck führte wohl schließlich zur Entwicklung einer Form von Leben, die an Komplexität und Entwicklungsfähigkeit alles übertraf, was bisher auf der Erde existierte: Der Eukaryot.
Eukaryoten haben Zellkerne, in denen die DNA in Form von Chromosomen organisiert ist. Das Zellinnere ist räumlich strukturiert, es gibt Organellen, also organähnliche Strukturen im Zellinneren mit spezifischen Aufgaben. Die Zellteilung verläuft in präzise gesteuerter Weise, wobei alle Chromosomen und Organellen verdoppelt werden und mit einem aufwendigen Faserapparat so in die beiden Tochterzellen verteilt werden, daß beide wieder einen kompletten Satz aller nötigen Teile besitzen. Zudem beherrschen sie bereits die sexuelle Rekombination, um innerhalb einer Art Gene auszutauschen zu können und so die optimale Kombination zu finden. Die m-RNA kann nach der Transkription noch nachbearbeitet werden (Postprocessing), die Proteinsynthese wird über Regelschleifen mit positiver und negativer Rückkopplung gesteuert. Zudem haben sie einen hochentwickelten aktiven Bewegungsapparat und können sich mit leistungsfähigen Geißeln fortbewegen. Auch die Art der Nahrungsaufnahme hat sich geändert. Bakterien können andere Organismen nur fressen, indem sie Verdauungsenzyme ins Wasser abgeben und warten, bis sich der Organismus zersetzt hat. Erst wenn die Molekülketten in ihre Bausteine zerfallen sind, können diese durch die Zellwand aufgenommen werden.
Die Eukaryoten schließen ihre Nahrung dagegen einfach durch umfließen in ihre Zelle ein. In die so entstandene Blase im Zellinneren, die sogenannte Vakuole, werden zersetzende Enzyme gebracht, die die fremde Zelle auflösen. Die nützlichen Stoffe werden über eine Membran aufgenommen, der unverdauliche Rest wird beseitigt, indem die Vakuole an die Zellwand gebracht wird und einfach ausgestülpt wird.

Wie konnten solch komplexe Zellen aus der relativ einfachen Bakterienzellen entstehen? Man nimmt an, daß die Eukaryoten sich aus den hitzeliebenden Archaebakterien entwickelt haben, da sie mit diesen noch am meisten gemeinsam haben. Allerdings besitzen sie nicht die hitzestabile Zellmembran der Archaebakterien, sondern die beweglichere Zellmembran der Eubakterien. Dies könnte man durch horizontalen Gentransfer erklären oder durch die Vorstellung, daß eine entsprechende Mutation nicht nur einmal stattgefunden hat (konvergente Evolution).
Irgendwann verlor der Vorfahre der Eukaryoten seine Zellwand, die Bakterien im allgemeinen vor Verletzungen schützt. Normalerweise ist dies ein Nachteil, der die Überlebensfähigkeit deutlich verringert. In einer besonders geschützten Umgebung könnte dieser Nachteil durch entsprechende Vorteile wieder ausgeglichen werden.
Zum einen ist die Zelle beweglicher als die mit einer starren Zellwand ausgestattete Bakterienzelle. Sie kann sich besser an ihre Nahrung anschmiegen, ihre Verdauungsenzyme wirken so besser und es geht weniger Nahrung verloren. Die Zelle kann aber auch größer werden. Bei einer starren Zelle von bestimmter Form wächst das Volumen schneller als die Oberfläche. Da der Stoffaustausch nur über die Oberfläche erfolgen kann, der Bedarf aber proportional zum Volumen ist, kann die starre Zelle nicht beliebig groß werden. Eine Zelle ohne starre Zellwand kann dagegen ihre Oberfläche beliebig in Falten legen und so die Oberfläche vergrößern.
Nahrung, die zwischen die Falten und Ausstülpungen gerät, läßt sich noch besser verwerten. Wenn dabei die Nahrung ganz eingeschlossen wird, kann es hin und wieder geschehen, daß die Zellwände von zwei nebeneinan­derliegenden Ausläufern an der Berührungsstelle plötzlich miteinander verschmelzen und die Nahrung in einer Blase in das Zellinnere wandert. An der Außenhülle der Zelle bleibt dabei keine Narbe zurück, da die Zellmembran aufgrund der besonderen Eigenschaften ihrer Lipidmoleküle selbstheilend ist, ähnlich wie eine Seifenblase. Da die Blase, in der die Nahrung eingeschlossen ist, aus der ehemals äußeren Zellmembran besteht, wird diese Membran nun ebenfalls Verdauungsenzyme abgeben, nur diesmal nicht nach draußen, sondern ins Innere der Blase. So ist eine Art Magen entstanden.
Dieser Vorgang wird aber bald nicht mehr dem Zufall überlassen, sondern aktiv unterstützt. Schließlich bietet er Vorteile, die weit über die effizientere Nahrungsaufnahme hinausgehen. Die Zelle muß nun nicht mehr an Ort und Stelle bleiben, bis die Nahrung verdaut ist, sondern kann die Nahrung einfach mitnehmen und unterwegs verdauen, während sie auf der Suche nach weiterer Nahrung ist. Sie kann schon weitere Nahrung aufnehmen, während die alte noch verdaut wird. Und sie kann sogar in ihren Inneren Vorräte anlegen, wenn mehr Nahrung vorhanden ist, als sie momentan bewältigen kann. Die Zelle ist sozusagen zum Jäger und Sammler geworden.
So entstanden im Zellinnern immer kompliziertere Strukturen im Zusammenhang mit der Nahrungsaufnahme und Verdauung, die zu immer höherer Effizienz führten. Auch eine wachsende Zellgröße war von Vorteil, konnte doch eine größere Zelle auch große Bakterien mühelos überwältigen und fressen. Um dabei ohne äußere Zellwand noch stabil zu bleiben und nicht einfach zu zerfließen, war der Aufbau eines Systems an inneren Stützstreben erforderlich, das sogenannte Cytoskelett. Um beweglich zu sein, mußten diese Stützstreben zudem mit Proteinen verbunden werden, die chemische Energie in Bewegungsenergie umwandeln konnten, wie etwa Dynein, das sich unter ATP-Verbrauch stark verbiegt oder das Motorprotein Myosin, das auch in den Muskeln für Bewegung sorgt.
All diese immer komplizierter werdenden inneren Strukturen hatten aber einen gravierenden Nachteil, der die Vermehrungsfähigkeit in zunehmenden Maße beeinträchtige. Es war nämlich immer mehr DNA erforderlich, um diese Komplexität zu codieren. Bei einer Bakterienzelle besteht die DNA aus einem Faden, der an einem Ende an die Zellmembran geheftet ist. An diesem Punkt startet die Verdopplung der DNA. Dabei wird der ganze Faden durch diesen Replikationspunkt durchgespult. Anschließend teilt sich die Zelle so, daß jeder der beiden Fäden in eine Tochterzelle gelangt.
Nun ist der DNA-Faden einer Bakterie nur einen Millimeter lang. Die Verdopplung dieses einen Millimeters dauert 20 bis 30 Minuten. Eine Eukaryotenzelle wie sie der Mensch besitzt, enthält DNA mit einer Gesamtlänge von zwei Meter. Eine Verdopplung nach Art der Bakterien wäre unerträglich langsam. Nun braucht eine menschliche Zelle aber nur eine Stunde für die Verdopplung der DNA, das bedeutet, es wurden neue Methoden entwickelt, um die Verdopplung zu beschleunigen.
Zwei Methoden kommen heute zum Einsatz, welche zuerst entwickelt wurde, ist schwer zu sagen. Zum einen erhält ein DNA-Faden mehrere Replikationspunkte, an denen die Verdopplung gleichzeitig starten kann. Allerdings entstehen so mehrere Bruchstücke von der DNA, die mit speziellen Enzymen wieder in der richtigen Reihenfolge zusammengefügt werden müssen. Zum anderen wurde die DNA in mehrere Teile zerlegt, die dann die einzelnen Chromosomen bildeten. So konnte jedes Teil unabhängig vom anderen verdoppelt werden. Der Preis war dann aber ein größerer Aufwand bei der Zellteilung, um die kopierten Fäden so auf die beiden Tochterzellen zu verteilen, daß jede wieder einen kompletten Satz an Chromosomen erhält. Heute sorgt dafür ein komplexes Gebilde aus Mikrotubuli (hohle Rohre aus 13 spiralförmig miteinander verbundenen Tubulinfäden), das bei der Teilung des Zellkerns die sog. Mitosespindel bildet und die Chromosomen auseinanderreißt und zu jeweils einem Pol der Spindel zieht. Anschließend bildet sich um jeden der beiden Chromosomensätze eine Kernhülle. Erst jetzt teilt sich die Zelle so, daß jeder der beiden Zellkerne in eine Tochterzelle gelangt. Hier wird auch ein Vorteil des Zellkerns deutlich: Die Zellteilung, die bei der stark strukturierten Eukaryotenzelle sowieso schon kompliziert genug ist, wird nicht dadurch erschwert, daß gleichzeitig auch noch die verschiedenen Chromosomensätze auseinandersortiert werden müssen, sondern nur noch zwei Zellkerne zu verteilen sind.
 
Ein weiteres Charakteristikum der meistem Eukaryoten sind spezielle Organellen von der Größe von Bakterien,
die über eigene DNA verfügen. Die wichtigsten dieser Organellen sind die Mitochondrien, die für die Energiegewinnung und Zellatmung zuständig sind, und die Chloroplasten, die für die Photosyntese verantwort­lich sind. Im Gegensatz zu den Chloroplasten, die fast nur in den pflanzlichen Zellen vorkommen, findet man Mitochondrien in fast allen Eukaryoten. Ein Vergleich der DNA in den Organellen mit Bakterien-DNA zeigt, daß diese Organellen von Bakterien abstammen. Die Mitochondrien sind demnach mit den sogenannten schwefelfrei­en Purpurbakterien verwandt, die Chloroplasten stammen von den Cyanobakterien ab.
Wie wurden diese Bakterien nun in die Eukaryotenzelle integriert? Nun, Bakterien wurden eigentlich ständig als Nahrung aufgenommen, aber dabei in der Regel getötet und verdaut. Wurden Bakterien aber resistent gegen die Verdauungsenzyme, so konnten sie sich im Magen der Zelle weitervermehren und dabei sogar den Eukaryoten zum Platzen bringen. Nützlicher könnte es für sie aber sein, die Zelle nicht zu töten, sondern sie als Nahrungslieferant und schützende Unterkunft zu nutzen.
Andererseits kann es auch sein, daß der Jäger seine Beute nicht immer sofort verdaut, sondern sie erst nur als Vorrat in sich trägt. Wenn eine Cyanobakterie dabei genügend Licht erhält, kann sie noch wachsen und sich vermehren. Verdaut der Jäger dann immer nur ein Teil seines Vorrats, dann wird sich der Vorrat automatisch immer wieder erneuern. Er hätte sozusagen einen Garten in seinem Zellinneren angelegt und züchtet dort seine eigene Nahrung. Wenn nun die äußere Nahrung knapp wird, dann hat ein Eukaryot mit eigenem Garten einen entscheidenden Vorteil gegenüber allen anderen.
Wie auch immer, im Laufe der Zeit bildet sich eine Partnerschaft zum gegenseitigen Nutzen, eine Symbiose. Aus dem Opfer wird ein Symbiont, oder, weil er im Inneren des anderen sitzt, ein Endosymbiont. Im weiteren Verlauf übernimmt der Wirt immer mehr Stoffwechselaktivitäten für seinen Gast, während dieser sich immer mehr auf seine Spezialaufgabe konzentriert. Dabei wandert DNA vom Endosymbiont in den Zellkern des Wirts. So wird aus dem Endosymbiont schließlich eine Organelle.
Die Chloroplasten kamen zwar als letzte Organelle hinzu, ihre Bedeutung ist jedoch enorm, denn diese grünen Organellen sind heute unverzichtbarer Bestandteil jeder Pflanze. Ohne die Chloroplasten könnte keine Pflanze Photosynthese betreiben und daher nicht wachsen.

Ebenfalls sehr bedeutsam war die Entstehung von Sexualität. Dabei mußte sich zunächst ein doppelter Satz an Chromosomen bilden. Dies könnte geschehen sein, als beim Teilen die beiden Zellkerne nicht in verschiedene Tochterzellen gewandert sind und sich so eine Zelle mit zwei Zellkernen gebildet hat. Oder zwei Zellen derselben Art sind miteinander verschmolzen. Die zwei Zellkerne haben sich danach bei Zellteilungen ebenfalls immer verdoppelt. Ein Beispiel für einen Eukaryot mit zwei Zellkernen ist der Darmparasit Giardia, ein ziemlich urtüm­licher Einzeller, der noch keine Endosymbionten besitzt.
Mit zwei Zellkernen wird die Zellteilung zwar aufwendiger, aber es gibt auch gewisse Vorteile. Mutationen wirken sich nun viel seltener negativ aus. Wenn ein wichtiges Gen durch eine Mutation funktionslos wird, so ist das entsprechende Gen immer noch im anderen Zellkern vorhanden, die Zelle bleibt also noch lebensfähig. Wenn dagegen der relativ seltene Fall eintritt, daß eine Mutation ein Gen in ein neues nützliches Gen umwandelt, dann bleibt auch das ursprüngliche Gen noch erhalten. Außerdem erhält ein durch Mutation funktionslos gewordenes Gen noch die Möglichkeit, durch eine zweite oder dritte Mutation doch noch zu einem nützlichen Gen zu werden, wenn die Zelle solche Mutation überleben kann.
Nun können zwei Zellen einen ihrer Zellkerne austauschen. Dies kann etwa durch eine kurzzeitige Verschmelzung und anschließender Teilung ohne Verdopplung der Zellkerne erfolgen. Das wäre auch in umgekehrter Reihenfolge denkbar und entspräche dann eher der heutigen Meiose, allerdings sind dann für das gleiche Ergebnis zwei Zellteilungen ohne Kernverdopplung und zwei Verschmelzungen nötig, wobei alle Zellen auch mit einem Zellkern noch lange genug überleben müssen, um verschmelzen zu können.
Durch einen derartigen Austausch werden die mutierten Gene auf immer neue Weise kombiniert. So wird die Wahrscheinlichkeit größer, daß sich dabei eine besonders nützliche Kombination ergibt. Solange aber immer nur komplette Zellkerne ausgetauscht werden, sind die Anzahl möglicher Genkombinationen stark begrenzt. So verschmolzen schließlich beide Zellkerne zu einem und es entstanden Strategien, einzelne Chromosomen oder gar nur Teile von Chromosomen auszutauschen. Letzteres geschieht beim Crossing-over, bei dem sich ein Chromosomenpaar irgendwo überkreuzt und dabei zwei Chromosomenstücke vom Kreuzungspunkt an auf das jeweils andere Chromosom übergehen. Aus diese Weise wird die Zahl der Kombinationsmöglichkeiten praktisch unbegrenzt.

Vielzeller

Schließlich gab es Eukaryoten, die sich nach einer Zellteilung nicht mehr vollständig voneinander lösten und Kolonien bildeten. Durch Spezialisierung der Zellen einer Kolonie entstanden so die ersten Vielzeller. Hier zahlte sich die große Komplexität der Eukaryotenzelle aus. Die Fähigkeit, viel DNA verwalten zu können und Messenger-RNA noch auf verschiedene Weise nachzubearbeiten, erwies sich von Vorteil, wenn es darum ging, daß sich Zellen mit gleichem Erbgut dennoch zu ganz unterschiedlichen Zelltypen entwickeln konnten, und das auch noch zur richtigen Zeit am richtigen Ort innerhalb eines Organismusses. Die Komplexität der Zelle erlaubte schließlich einen komplexen vielzelligen Organismus.
So entwickelten sich dann schließlich eine große Vielzahl verschiedener Pflanzen und Tiere, zunächst nur im Wasser, später drangen sie auch auf das trockene Land vor. In relativ kurzer Zeit entstand so eine große Vielfalt an Arten. Wie zahlreiche Fosilienfunde belegen, traten vor 550 Millionen Jahren zahlreiche verschiedenen Arten auf. Erdgeschichtlich ist dies der Beginn des Kambriums. Es wurden aber auch schon ältere Fossilien von Vielzeller gefunden. Die Vielzeller brauchten also etwa 600 Millionen Jahre, um sich bis zur heutigen Vielfalt zu entwickeln. Die fossilen Überreste der ersten Bakterien sind dagegen 3500 Millionen Jahre alt. Fast 3000 Millionen Jahre waren sie die dominante Lebensform dieses Planeten. Die Geschichte der Vielzeller erscheint dagegen schon relativ kurz. Die Entwicklung des menschlichen Gehirns dauerte nur etwa 2 Millionen Jahren. In dieser Zeit vergrößerte sich das Hirnvolumen um das Dreifache auf heute 1400 cm³. Die Anfänge der Zivilisation liegen etwa 6000 Jahre zurück. Die Entwicklung der heutigen Hochtechnologie dauerte gar weniger als 200 Jahre.

Die gesamte Entwicklung hat den Charakter einer Exponentialfunktion, womöglich sogar einer Hyperbel. In immer kürzeren Zeiten sind immer komplexere Strukturen entstanden. Die Tatsache, daß wir gerade jetzt leben, kann aber keinesfalls der Anlaß für die Annahme sein, daß die Entwicklung nun plötzlich abflacht oder gar alles in einem großen Knall aufhört. Viel wahrscheinlicher ist es, daß die Gegenwart nur eine Momentaufnahme der stetigen Entwicklungskurve des Lebens ist. Dann ist aber zu erwarten, daß die Entwicklung in kurzer Zeit in unvorstellbaren Höhen emporschnellt.

Leben im Universum

In diesem Kapitel haben wir gesehen, wie das Leben aus unbelebter Materie entstehen konnte, indem sich zunächst zufällige chemische Reaktionen selbst erhalten und verstärken konnten. Solche Reaktionen in der Verbindung zur Fähigkeit zur Informationsspeicherung entwickelten eine Eigendynamik mit einer Tendenz zu immer mehr Komplexität. Die einzelnen Schritte dieses Prozesses erscheinen dabei nicht so unwahrscheinlich, daß sie nicht auch anderswo geschehen konnten. So ist zu erwarten, daß auf allen erdähnlichen Planeten ähnliche Prozesse abliefen. Die dabei entstandenen Strukturen sahen sicher anders aus, aber die zugrunde liegenden Gesetze sind dieselbe, und der Entwicklungsdruck wirkt in derselben Richtung. So werden sich langfristig solche Strukturen durchsetzen, wie sie sich auch auf der Erde durchgesetzt haben. Wo es aber nur vom Zufall abhängt, da können auch große Unterschiede auftreten. So wird der genetische Code sicher auf jedem Planet anders aussehen. Auch werden sich die verwendeten Aminosäuren unterscheiden. Von solchen Zufällen wird es abhängen, ob die Entwicklung zu höheren Lebensformen schneller oder langsamer verläuft als auf der Erde, oder ob das Leben gar in eine Sackgasse gerät. So könnte es auch sein, daß das Leben auf dem Stand der Bakterien stehen bleibt oder sich nicht schnell genug an eine globale Veränderung der Umwelt anpassen konnte. Doch wenn erst eine Lebensform vergleichbar mit dem Eukaryot entstanden ist, so wäre es kaum noch einsichtig, daß das Leben nicht eine ähnliche Komplexität erreicht wie bei uns. Dann wäre es nur eine Frage der Zeit, bis auch hier eine intelligente Lebensform entsteht. Bei den 1020 sonnenähnlichen Sternen im Universum sollte es genug erdähnliche Planeten geben, um unzählige intelligente Lebensformen hervorzubringen. Und die allermeisten dieser Lebensformen müssen uns bereits um Millionen und Milliarden Jahren voraus sein. Was dieser Vorsprung aber bei der beschriebenen exponentiellen Entwicklungskurve bedeuten mag, läßt sich wohl kaum ermessen und kann selbst die kühnsten Vorstellungen noch weit übertreffen.


7. Der Anfang des Universums

Eine Frage bleibt jetzt noch offen, die eigentlich ganz am Anfang hätte stehen können: Wie ist unser Universum überhaupt entstanden? Die Wissenschaft liefert hier die Urknalltheorie. Inzwischen sind so viele Fakten bekannt, die eine Urknalltheorie stützen, daß kaum ein Forscher diese Theorie ernsthaft in Frage stellen würde. Doch besonders in den frühesten Stadien des Universums gibt es noch viele Unsicherheiten. Noch problematischer ist die Frage, was den Urknall selbst denn letztendlich ausgelöst hat. Was hat das Universum dazu bewogen, mit sei­ner Existenz zu beginnen?
Gerne greift man in Fällen, wo man nicht mehr weiter weiß, auf Gott oder Götter zurück. Götter ließen Blitze über den Himmel zucken, Götter brachten die Erde zum erbeben und Vulkane zum Ausbrechen. Tödliche Seuchen wurden als Strafe Gottes angesehen und Frömmigkeit sollte dagegen schützen. Gott hat den Menschen erschaffen, die Tiere und alles Leben. Und Gott hat die Erde erschaffen, die Sonne und die Sterne. Mit fortschrei­tender wissenschaftlicher Erkenntnis wurde Gott immer mehr Verantwortung genommen, immer mehr Phänomene ließen sich auf natürliche Art erklären. Inzwischen sind manche der Ansicht, daß Gott nur den Urknall ausgelöst hat und im übrigen das Universum weitgehend seinem Schicksal überlassen hat.
Wenn aber Gott, so wie geschildert, ein Kind unseres Universums ist, kann er es natürlich nicht erschaffen haben. Im Grunde hat dann das Universum einen Gott erschaffen und nicht umgekehrt.
Letztlich würde die Vorstellung, Gott hätte den Urknall ausgelöst, überhaupt nichts erklären, sondern es würde nur ein Mysterium durch ein noch viel größeres Mysterium ersetzt. Wenn Gott das Universum geschaffen hat, wo hat Gott gelebt, bevor das Universum da war? Im Nichts? In einem Über-Universum? Und wer hat dann das Über-Universum geschaffen und wer hat Gott selbst erschaffen? Ein Über-Gott in einem Über-Über-Universum? Sie sehen, diese Fragen ließen sich ins Endlose fortsetzen, was auch bezeichnet wird als ein unendlicher Regreß. So bleibt als Ausweg die Vorstellung, daß irgend ein Universum vom selbst entstanden ist und daß dieses so be­schaffen war, daß es ohne Eingriffe von außen das Leben und schließlich einen Gott hervorbringen konnte. Und die am wenigsten komplizierte Möglichkeit ist die, daß es sich bei diesem von selbst entstandenen Universum um unser eigenes Universum handelt. Über-Universen und Über-Götter werden dann nicht mehr benötigt.

Spekulationen

Daß das Universum von selbst aus dem Nichts entstanden sein könnte, scheint doch einigen Naturgesetzen zu wi­dersprechen. Da ist einmal der Energieerhaltungssatz. Das Universum enthält eine enorme Menge an Materie, was ja im Grunde nicht anders als eine spezielle Form von Energie ist. Wie konnte all diese Energie aus dem Nichts entstehen, ohne den Energieerhaltungssatz zu verletzen?
Man kann allerdings die Gravitation als negative Energie ansehen. Um einen Körper aus einem Gravitationsfeld zu befreien, muß man Energie aufwenden, folglich hat ein Körper in einem Gravitationsfeld weniger Energie aus außerhalb. Die Frage ist nun, wieviel Energie nötig wäre, um einen Körper aus dem Gravitationsfeld des gesam­ten Universums zu befreien. Wenn diese Energie im Mittel genauso groß ist wie die Energie des Körpers selbst gemäß der Formel E=m*c², dann würde die negative Energie des Gravitationsfeldes die positive Energie der Materie kompensieren. Die Gesamtenergie des Universums wäre dann Null, so daß ein Universum aus dem Nichts entstehen könnte und auch wieder verschwinden könnte, ohne den Energieerhaltungssatz zu verletzen. Innerhalb des Universums wird der Energieerhaltungssatz sowieso verletzt. Denn während das Universum sich ausdehnt, wird die Strahlung darin immer langwelliger und damit energieärmer. Sollte es zur Kontraktion kom­men, würde die Strahlung ständig an Energie gewinnen. Da aber während der gesamten Lebensdauer des Universums Materie in Strahlung umgewandelt wurde, hätte das Universum am Ende mehr Energie als zu Beginn.
Es gibt auch weniger fundamentale Erhaltungsgrößen, die verletzt werden, wie die Baryonenzahl. Doch inzwi­schen glaubt man, daß solche Erhaltungssätze bei extrem hohen Temperaturen, wie sie beim Urknall herrschten, ungültig werden. Ein anderes Problem ist die Kausalität: Wie konnte dort, wo nichts war, ohne eine Ursache plötzlich etwas werden? Im Gebiet der Quantenphysik ist selbst eine Verletzung der Kausalität aber nichts Ungewöhnliches. Auch treten dort ständig spontane Ereignisse auf, ohne daß es eine Ursache gibt, etwa beim Zerfall von instabilen Teichen oder radioaktiven Atomen. Es treten sogar Effekte auf, die auf eine Art Informationsaustausch mit Überlicht­geschwindigkeit (Nichtlokalität) schließen lassen. Da dies eine Verletzung der Kausalität bedeutet, hat Einstein diese Interpretation der Quantentheorie immer als spukhafte Fernwirkung abgelehnt. Inzwischen wurden diese Effekte aber durch Experimente bestätigt.
Es scheint also, als daß die Quantenphysik die spontane Entstehung des Universums erlaubt. Um die Bedingungen des Urknalls aber wirklich zu verstehen, müßte man die Allgemeine Relativitätstheorie und die Quantenphysik zu einer Quantentheorie der Gravitation vereinigen. Dies ist bisher noch nicht gelungen, auch wenn etwa die Stringtheorie ein interessanter Ansatz dazu ist. Doch auch wenn das gelungen ist, bleibt wo­möglich noch eine Frage offen, nämlich: Woher kommen die fundamentalen Naturgesetze, die der Quantenphysik oder der noch zu entwickelnden Quantentheorie der Gravitation zugrunde liegen? Vielleicht läßt sich aber auch nachweisen, daß es überhaupt nur eine Möglichkeit für eine alles umfassende Theorie gibt, die völlig ohne innere Widersprüche ist. In dem Fall müssen die Naturgesetze so sein wie sie sind, weil alles andere aufgrund innerer Widersprüche ein Paradoxon auslösen würde und daher nicht möglich ist.
In dem Fall müßten sich die Naturgesetze vollständig aus der Mathematik ableiten lassen. Die Mathematik wäre dann der Schöpfer des Universums. Die Mathematik selbst brauchte keinen Schöpfer, da sie vom universeller Gültigkeit ist und nur aus sich selbst heraus existiert.

Sollte es aber sehr viele oder gar unendlich viele vollständige und widerspruchsfreie Theorien geben, so wird es schwieriger. Aber vielleicht genügt es, wenn nur die Abwesenheit jeglicher Naturgesetze ausgeschlossen werden kann. Dann könnte man sich denn Anfang als chaotisches Rauschen vorstellen, in dem alle widerspruchsfreien Theorien als Möglichkeiten in einer Überlagerung koexistieren. Eine Möglichkeit, die in der Lage ist, ein Universum entstehen zu lassen, prägt diesem dann auch ihre Naturgesetze auf. Innerhalb des Universums würde die Möglichkeit dann zur Realität. Im Prinzip könnten so auch mehrere Universen nebeneinander existieren, in denen völlig andere Naturgesetze gelten. Diese Universen wären dann aber durch eine Grenze getrennt, die in Raum und Zeit nicht faßbar ist und vielleicht als Realitätsgrenze bezeichnet werden könnte.

Doch gehen wir die Frage nach dem Anfang einmal von einer anderen Richtung an. Wenn wir heute das Universum betrachten, so können wir feststellen, daß das Universum expandiert. Je weiter ein Objekt von uns entfernt ist, desto schneller entfernt es sich von uns, was anhand der Rotverschiebung der Spektrallinien des Lichts leicht gemessen werden kann. Dreht man die Zeit in Gedanken um, so kommen die Sterne und Galaxien alle auf uns zu, die weit entfernten schnell und die nahen nur langsam. So gelangt man schließlich zu einem Zeitpunkt, an dem die ganze Materie des Universums an einer Stelle versammelt ist. Dieser Zeitpunkt war vor etwa 14 Milliarden Jahren und wird als Anfang des Universums angesehen.

Wie sah nun dieser Anfang aus? Zunächst fällt auf, daß innerhalb kürzester Zeit sehr viel geschehen ist. Dies wird auch durch die chronologische Beschreibung der Abläufe deutlich, die im nächsten Abschnitt dargestellt wird. Dabei sollten wir diese extrem kurzen Zeiten nicht mit unserem subjektiven Zeitmaßstab vergleichen. Unser Gefühl für Zeit orientiert sich meist an Bewegungen mit vertrauten Geschwindigkeiten über Strecken, die überschaubar sind. Nun war das gesamte Universum anfangs mikroskopisch klein und war so heiß, daß sich alles ungefähr mit Lichtgeschwindigkeit bewegte. Unter solchen Bedingungen kann selbst eine Nanosekunde eine Ewigkeit darstellen, in der sich unvorstellbar viel abspielen kann und gewaltige Umwälzungen die Struktur des gesamten Universums radikal verändern können. Auch die geringe Größe ist zu relativieren, denn die Anzahl der Materieteilchen war in einem frühen Zustand sogar größer als heute, weil die meiste Materie von damals durch Antimaterie vernichtet wurde. Allerdings war die Vielfalt dennoch begrenzt. Die Anzahl der möglichen Quantenzustände hängt nämlich von der verfügbaren Energie und der Größe des Raumes ab. Nach der Unschärferelation kann der Ort und der Impuls eines Teilchens niemals gleichzeitig exakt festgelegt sein. Je kleiner das Universum ist, desto exakter liegt der Ort fest und desto unschärfer muß der Impuls werden und desto weniger unterscheidbare Zustände kann die Materie annehmen. Die heutige Vielfalt wurde also nur möglich, weil sich das Universum ausgedehnt hatte. Und umgekehrt war das Universum um so einfacher, je näher man an den Anfang kommt. Aufgrund der extremen Energiedichte verschmolzen die verschiedenen Elementarkräfte zu einer Einheit, auch die Unterschiede der verschiedenen Teilchen verschwanden.
So wäre es auch vorstellbar, daß es ganz am Anfang nur einen einzigen Quantenzustand gab. Ein einziger Quantenzustand hat den Informationsgehalt 0 Bit, das heißt, er enthält überhaupt keine Information. Stattdessen kann man ihn als Überlagerung aller Möglichkeit ansehen. Das wäre nun ein Zustand von allerhöchster Symmetrie, aus dem durch viele Symmetriebrechungen schließlich das heute so komplizierte Erscheinungsbild des Universums hervorgegangen ist.
In einem Wasserstoffatom beispielsweise ist die Position des Elektrons im Grundzustand über einen kugelförmi­gen Bereich "verschmiert", dieser Zustand ist also die Überlagerung aller möglichen Positionen, an denen sich das Elektron befinden könnte. Dieser Zustand enthält auch keinerlei innere Information über eine tatsächliche Position, denn dann wären auch gleiche Atome voneinander unterscheidbar, dies ist aber nicht der Fall. Und dennoch, wenn ein Beobachter die Position des Elektrons lokalisieren will, in dem er das Atom mit Partikeln beschießt, findet er es an einer klar definierten Stelle, und zwar mit einer Wahrscheinlichkeit, die der Amplitude der Wellenfunktion des Elektrons entspricht. Durch den Beobachtungsvorgang kollabiert die Überlagerung aller möglichen Positionen zu einer einzigen Position, gleichzeitig verändert sich der Impuls des Elektron auf nicht vorhersagbare Art.

In analoger Weise kann man sich den Anfang des Universums als die Überlagerung aller möglichen Zustände zu einem einzigen Quantenzustand ohne innere Information vorstellen. Wenn es aber keine innere Information gibt, dann können auch die Naturkonstanten noch keinen bestimmten Wert haben, denn das wäre bereits eine Information. In dieser Überlagerung gab es neben allen anderen möglichen Variationen und Kombinationen von Eigenschaften auch die eine, die zu einem Universum führen mußte, wie wir es kennen.

Was hat aber zu dem Kollaps der Überlagerung aller möglichen Zustände geführt, und gerade zu dem Zustand, der unser Universum hervorgebracht hat?
Eine etwas exotische Möglichkeit wäre, daß dieser Kollaps in Ermangelung eines Beobachtungsvorgangs von außen noch gar nicht stattgefunden hat. Wenn es außer dem Universum nichts gibt, kann es auch keinen Eingriff von außen geben, der zum Kollaps der Überlagerung führt. Folglich wäre unser heutiges Universum nur ein Zustand innerhalb einer Überlagerung aller möglichen Zustände. Das könnte dann erklären, warum das Universum gerade so ist wie wir es kennen, denn in den anderen Universumsmöglichkeiten, wo die Naturgesetze nicht dazu geeignet sind, Leben hervorzubringen, gibt es auch niemanden, der dieses Universum wahrnehmen kann. Das Universum, das wir wahrnehmen können, muß so beschaffen sein, daß wir existieren können (anthrophisches Prinzip). Allerdings stellt sich dann die Frage, was denn nun überhaupt real ist. Ist unsere Welt real und sind die anderen möglichen Welten ebenfalls real? Im Beispiel mit dem Elektron gilt, wenn eine be­stimmte Position als real feststeht, sind alle anderen Möglichkeiten ausgeschlossen. Für uns ist unsere Welt zweifellos real, daher folgt, daß von unserem Standpunkt alle anderen möglichen Welten unreal sein müssen. Das schließt aber nicht aus, daß es noch andere Realitäten gibt, in denen unsere Welt unreal ist.

Noch einen Schritt weiter geht die Viele-Welten-Deutung der Quantenphysik. Einige der größten Quantenphysiker dieser Welt gehören zu den Anhängern dieser Variante der Quantentheorie. Man geht hier davon aus, daß eine Wellenfunktion überhaupt nie kollabiert. Alle logisch möglichen Ergebnisse eines Experiments würden tatsächlich auftreten, aber ein Beobachter könnte stets nur eine Möglichkeit wahrnehmen. Gleichzeitig würden in anderen Realitätsebenen Doppelgänger dieses Beobachters auch alle anderen möglichen Resultate dieses Experiments registrieren. Das Experiment hätte also zu einer Aufspaltung der Welt in so viele parallelen Welten geführt, wie es mögliche Ergebnisse des Experiments gibt. Diese Aufspaltung tritt aber auch ganz unabhängig von jeder Beobachtung bei allen Quantenprozessen in der Natur auf. Das führt dann in jedem Augenblick zu einer wahren Inflation von immer neuen Welten. Diese Welten sind aber voneinander vollständig und für immer getrennt, so daß wir stets nur eine einzige Geschichte erleben.
Die Viele-Welten-Deutung ist somit gut geeignet, alles zu erklären, die Entstehung des Universums bis zur Entstehung von Leben, denn wir könnten natürlich nur die Geschichte erleben, die zu einem lebensfreundlichen Universum führt und in der das Leben tatsächlich entstanden ist. Von den unzähligen Welten, in denen dies nicht geschehen ist, könnten wir nie etwas erfahren. Wenn es keine andere Möglichkeit gibt, wie man die Entstehung eines lebensfreundlichen Universums erklären kann, dann hätte man in der Tat ein starkes Argument für die Viele-Welten-Deutung.
Der Preis ist aber, daß man die gewohnte Vorstellung von Realität über Bord werfen muß. Die mathematische Formulierung der Quantentheorie jedenfalls findet man am besten in der Viele-Welten-Deutung wieder. Auch wenn einem die Viele-Welten-Deutung als nicht akzeptabel erscheint, so kann man doch sagen, daß sich die Natur genau so verhält, wie wir sie wahrnehmen müßten, wenn die Viele-Welten-Deutung zutreffend wäre. Immerhin ist die Quantentheorie die bisher erfolgreichste physikalische Theorie. Ihre Voraussagen stimmen mit einer Genauigkeit von eins zu einer Milliarde oder besser mit den in der Natur gemessenen Werten überein.

Die Viele-Welten-Deutung ist durch Messungen nicht zu unterschieden von der Kopenhagener Deutung, wonach eine Wellenfunktion erst durch die Beobachtung kollabiert. Durch die Beobachtung wird aus der Überlagerung von Möglichkeiten eine der Möglichkeiten zur Realität. Das heißt aber, Realität entsteht erst durch den Beobachter.
Es scheint so, daß die Quantentheorie einem nur die Wahl läßt zwischen überhaupt keiner objektiven Realität, wenn jede Realität erst durch den Beobachtungsakt entsteht, und ein einer Unzahl verschiedener Realitäten.
Aber vielleicht gibt es auch noch andere Möglichkeiten, die diese Probleme mit der Wirklichkeit umgehen. Die gewohnte Vorstellung ist doch, daß es genau eine Wirklichkeit gibt, die unabhängig von einem Beobachter existiert. So könnte man sagen, nicht der Beobachter bringt die Wellenfunktion zum kollabieren, sondern allein die Tatsache der grundsätzlichen Beobachtbarkeit - ein vorhandener Informationskanal, der Abfluß von Information über den tatsächlichen Zustand - wobei dann egal ist, ob nun tatsächlich ein Beobachter hinschaut oder nicht. Schaut er nicht hin, so würde er nie erfahren, ob ein Kollaps stattgefunden hat, schaut er aber hin, kann er nur dann etwas sehen, wenn die Bedingung der Beobachtbarkeit erfüllt ist. Somit kann der Beobachter bei dieser Deutung stets nur das sehen, was er auch bei den anderen Deutungen zu sehen bekommt, so daß man mit Experimenten mit zwischen diesen Deutungen nicht unterscheiden kann. Die letzte Deutung hat den Vorteil, daß sie die Realitätsprobleme vermeidet. Die Frage ist aber, was dann hier den Kollaps einer Wellenfunktion auslöst. Bei der Kopenhagener Deutung ist es der Beobachtungsakt, bei der Viele-Welten-Deutung kollabiert die Wellenfunktion überhaupt nicht. Bei einer objektiven Wirklichkeit muß dagegen ein spontaner Kollaps der überlagerten Zuständen stattfinden.
Spontane Ereignisse treten in der Quantenphysik häufig auf, man denke nur an den spontanen Zerfall von radioaktiven Atomen. Solche spontanen Prozesse haben weder eine äußere noch eine innere Ursache und treten rein zufällig auf. Wie man diese Prozesse verstehen kann, zeigt der Tunneleffekt. Ein energiearmes Elektron, das durch einen Isolator von einem Leiter getrennt ist, könnte diesen eigentlich nie erreichen. Der Isolator stellt eine Energiebarriere dar, und wenn die Energie des Elektrons zu gering ist, diese Barriere zu überwinden, würde man erwarten, daß das Elektron niemals auf die andere Seite der Barriere gelangt. Anders sieht es aus, wenn man das Elektron als Welle betrachtet. Da es für die Wellenfunktion keine scharfe Begrenzung gibt, ist die Welle auch hinter der Barriere nicht exakt Null. Da die Welle ein Maß für die Wahrscheinlichkeit darstellt, mit der das Elektron an einem bestimmten Ort lokalisiert werden kann, ist die Wahrscheinlichkeit, daß es sich hinter der Barriere befindet, zwar klein, aber nicht Null. Nun muß man sich vorstellen, daß all die überlagerten Zustände, die durch die Wellenfunktion beschrieben werden, für einen sehr kurzen Moment zufällig Realität werden können. Wird aber gerade der Zustand real, bei dem das Elektron sich hinter der Barriere befindet, und sei es nur extrem kurz, dann kollabiert die Wellenfunktion und es entsteht eine neue, die ganz anders aussehen kann. Die Zustände, in denen es vor der Barriere ist, werden unreal oder zumindest sehr unwahrscheinlich. Das Elektron, das vorher in einem Quantenzustand gefangen war, driftet im elektrischen Leiter davon und kann dort eine Vielzahl von verschiedenen Quantenzuständen einnehmen. Die Wahrscheinlichkeit, daß das Elektron wieder zurück an die alte Stelle mitten im Isolator zurückkehrt, ist so gut wie Null.
Dieses spontane Überwinden einer eigentlich unüberwindlichen Barriere nennt man Tunneleffekt. Er tritt immer zufällig, aber mit einer berechenbaren Wahrscheinlichkeit auf.
Einem ähnlichen spontanen Prozeß kann man auch die Entstehung unseres Universums zu verdanken haben. Dabei muß man sich vorstellen, daß unter den überlagerten Zuständen auch einige waren, die zu einem expandie­renden Universum führen. Wenn einer dieser Zustände für einen kurzen Moment real wird, dann beginnt sofort die Expansion. War die Expansion schnell genug, dann war das Universum, bevor der Zustand wieder unreal werden konnte, bereits groß genug, um nicht mehr den Quanteneffekten unterworfen zu sein. Ähnlich wie beim Tunneleffekt hat das Universum spontan einen Zustand erreicht, der zum Kollaps aller anderen überlagerten Zustände führt und den Übergang in eine Vielzahl neuer Zustände ermöglicht.
Dies würde nun ausreichen, um zu erklären, warum unser Universum expandiert, denn ohne Expansion gäbe es keinen Kollaps der überlagerten Zustände. Es ist aber fraglich, ob man so auch erklären kann, warum das Universum so beschaffen ist, daß Leben darin möglich ist. Als Ausweg bietet sich die Vorstellung an, daß der Prozeß der Entstehung eines Universums nicht nur einmal stattgefunden hat, sondern oft genug, daß dabei auch zumindest ein Universum entstanden ist, das die Entstehung von Leben erlaubt. Oder unser Universum ist so groß, daß es darin unzählige verschiedene Regionen geben kann mit jeweils anderen Ausprägungen der Naturgesetze.

Wie Sie sehen, kann man über den Anfang des Universums viel spekulieren, und doch gibt es die Hoffnung, daß wir eines Tages solidere Grundlagen haben, um auch die frühesten Ereignisse zu rekonstruieren. Kommen wir nun zu dem nicht mehr ganz so spekulativen Teil. Nachdem das Universum also auf irgend eine Weise entstan­den ist, fand eine Abfolge spezieller Ereignisse statt. Während man die späteren Ereignisse durch Experimente mit Teilchenbeschleuniger erforschen kann, ist man bei den frühesten Ereignissen auf spezielle Theorien und Modelle angewiesen, die allenfalls indirekt bestätigt werden können. Im Folgenden sei der Ablauf beschrieben, wie er sich nach dem heutigem Wissensstand darstellt.

Chronologischer Ablauf des Urknalls

0 bis 10-43 s   Quantengravitation
Dieser früheste Zeitraum wird beherrscht von der Quantengravitation, einer noch zu entwickelnden Quantentheorie der Gravitation. Da es diese Theorie noch nicht gibt, kann man über diese Zeitspanne im Grunde nur spekulieren. Es ist aber anzunehmen, daß alle vier Elementarkräfte zu einer einzigen Kraft vereinigt waren. Nach 10-43s wurde die Gravitation zu einer eigenständigen Kraft, die sich in ihren Eigenschaften immer mehr von den anderen drei Kräften entfernte.

10-34 s   Aufspaltung der Elementarkräfte in starke Kraft und elektroschwache Kraft, Beginn der Inflation
In den ersten 10-34 Sekunden war nach der großen Vereinheitlichungstheorie (GUT) die Energie im Universum so groß, daß es neben der Gravitation nur eine einzige Kraft gegeben hat. Diese Kraft war die Vereinigung aus der elektromagnetischen Kraft, der schwachen Kraft, die für die Radioaktivität verantwortlich ist, und der starken Kraft, die den Atomkern zusammenhält und die Quarks aneinander bindet. Zwischen diesen drei Kräften gab es zunächst keinen Unterschied. Nach 10-34 Sekunden war die Energie soweit abgesunken, daß sich die einheitliche Kraft in die starke Kraft und in die elektroschwache Kraft aufspaltete. Man muß sich das wie einen Phasenübergang vorstellen. Kohlenstoff zum Beispiel hat bei hoher Energie in der gasförmigen Phase ein einheitliches Erscheinungsbild, während er bei niedriger Energie in der festen Phase zwei so unterschiedliche Formen wie Graphit (Ruß) und Diamant annehmen kann.
Nach der sogenannten Inflationstheorie des Universums ist dieser Phasenübergang aber verzögert abgelaufen. Das wäre vergleichbar mit unterkühltem Wasser, also sehr reines Wasser ohne Kristallisationskeime, das auch unter Null Grad Celcius noch eine Zeitlang flüssig bleiben kann, bevor es dann schlagartig gefriert.
Diese Verzögerung des Phasenübergangs führte nach der Inflationstheorie zu einem instabilen Zustand, der als falsches Vakuum bezeichnet wird. Dieses falsche Vakuum unterscheidet sich vom wahren Vakuum dadurch, das der Raum selbst eine sehr hohe Energiedichte besitzt, etwa 1088 Joule pro cm³. Vor diesem Zeitpunkt war die Energiedichte aber noch höher, so daß die Vakuumenergie noch keine Rolle gespielt hat. Nun ist die Energiedichte aber die treibende Kraft bei der Expansion. Je größer der Raum wird, um so mehr verdünnt sich die darin enthaltene Energie. Die Energiedichte sinkt, und damit auch die Geschwindigkeit der Expansion. Wenn die Energie aber im Raum selbst steckt, dann bleibt die Energiedichte trotz Expansion konstant. In dem Fall bleibt die Expansionsgeschwindigkeit konstant, das heißt für die Verdoppelung jedes beliebigen Raumabschnitts ist immer dieselbe Zeit nötig. Die Größe des Universum wächst also solange exponentionell an, bis das falsche Vakuum in das echte Vakuum übergeht, bei dem der Raum selbst keine Energie mehr enthält. Die exponentielle Expansion dauert etwa 10-32 Sekunden. In dieser Zeit hat sich die Größe des Universums mindestens 166 mal verdoppelt, was einem Faktor von 1050 entspricht. Der Durchmesser des heute sichtbaren Universums hat sich dabei von einem äußerst kleinen Bereich innerhalb des Universums auf etwa 10 cm vergrößert. Das bedeutet aber auch, daß unser heute sichtbares Universum, das sich um uns herum in allen Richtungen auf etwa 14 Milliarden Lichtjahre erstreckt, nur ein unglaublich kleiner Teil des gesamten Universums wäre. Sterne in größeren Entfernungen wären für uns allerdings unsichtbar, da das Licht seit dem Urknall nicht genug Zeit hätte, um zu uns zu gelangen.
Auch wenn diese Dimensionen schwer vorstellbar sind, liefert die Inflationstheorie schlüssige Erklärungen für einige kosmologischen Probleme. Man kann so erklären, warum die Hintergrundstrahlung eine bis auf 0,001% gleichmäßige Temperatur aufweist, denn unser gesamtes sichtbares Universum war vor der Inflation nur ein winziger Punkt im Universum, und dort konnte sich problemlos eine einheitliche Temperatur einstellen. Auch wird klar, warum das Universum relativ flach ist, denn die Krümmungen des Raums hätten sich durch die starke Expansion entsprechend stark verringert. Weiterhin erklärt sich, was aus den zahlreiche Defekten wie Monopole und kosmische Strings, die es anfangs gegeben haben mußte, geworden ist. Diese wurden durch die Expansion so stark verdünnt, daß sie heute keine Rolle mehr spielen. Außerdem kann man nun eine gewisse Klumpigkeit der Materie erklären, die als Keime für die Entstehung von Galaxien gedient hat.
Die Inflation wurde nämlich dadurch beendet, daß der hinausgezögerte Phasenübergang schließlich vollzogen wurde. Das falsche Vakuum wurde dabei zum wahren Vakuum. Dabei wurde die im falschen Vakuum gespei­cherte Energie frei und verwandelte sich nach der einsteinschen Gleichung E = m * c² in unzählige Materieteilchen. Der genaue Zeitpunkt des Phasenübergangs variierte allerdings von Ort zu Ort, so daß es auch Schwankungen in der Energiedichte gab, so daß daraus eine etwas klumpige Verteilung der Materie resultierte.

10-32 s   Ende der Inflation, Abschluß der Aufspaltung
In der Zeit von 10-34 s bis 10-32 s hat sich das Universum der Inflationstheorie zufolge um den Faktor 1050 ausgedehnt. Danach hat der heute sichtbare Teil des Universums einen Durchmesser von über 10 cm. Die Aufspaltung der Elementarkräfte in starke Kraft und elektroschwache Kraft ist nun abgeschlossen.
Das Universum ist gefüllt mit Quarks, Leptonen, Photonen und den X-Teilchen. Die Temperatur beträgt fast 1028 K, die Teilchenenergie 1015 GeV. Die X-Teilchen, hypothetische Teichen mit einer Masse von mindestens 1014 GeV, das ist die 1014-fache Masse eines Protons, zerfallen im weiteren Verlauf in Quarks und Leptonen.
Die weitere Entwicklung ab 10-32 s nach dem Urknall verläuft nun unabhängig davon, ob es eine Inflation gegeben hat oder nicht.

10-12 s   Elektroschwacher Übergang
Die Temperatur ist auf 1016 K gesunken, die Energie pro Teilchen beträgt nun 1000 GeV und kommt in die Größenordnung der nun zahlreich vorhandenen W- und Z-Bosonen (82 GeV bzw. 92 GeV), den Trägern der schwachen Kraft. Dies führt zu einer weiteren Symmetriebrechung, nämlich der Aufspaltung der elektroschwa­chen Kraft in die elektromagnetische und die schwache Kraft.

10-6 s   Nukleonenbildung
Die Temperatur beträgt nun 1013 K, die Teilchenenergie 1 GeV. Die Quarks kombinieren nun zu Mesonen und Baryonen. Dabei entstehen auch viele Teilchen-Antiteilchen-Paare, die sich beim Aufeinandertreffen gegenseitig vernichten und dabei Photonen erzeugen. Da die Anzahl der Quarks aufgrund einer kleinen Symmetrieverletzung aber um 10-8 höher ist als die Anzahl der Antiquarks, werden nicht alle Teilchen vernichtet, es bleibt ein kleiner Rest übrig.
Unter den Baryonen spielen dabei für den weiteren Verlauf die Protonen und Neutronen, auch mit dem Sammelbegriff Nukleonen bezeichnet, eine besondere Rolle. Aus zwei Up-Quarks und einem Down-Quark entsteht ein Proton und aus einem Up-Quark und zwei Down-Quarks ein Neutron.

10-3 s
Die Mesonen, die schweren Leptonen und Baryonen sind größtenteils wieder zerfallen, das Universum ist nun hauptsächlich mit Photonen, Elektronen, Positronen und den verschiedenen Neutrinos bevölkert. Von den Baryonen sind nur noch die beiden Nukleonen Proton und Neutron übrig, die aber nur den milliardsten Teil aller Teilchen ausmachen. Die Nukleonendichte beträgt jetzt 1027 cm-3, während die Gesamtdichte 1036 Partikel pro cm³ beträgt.

1 s   Leptonen-Ära
Bei einer Temperatur T=1010 K koppeln die Neutrinos aus und treten mit der anderen Materie fast nicht mehr in Wechselwirkung. Sie werden daher im Folgenden nicht mehr weiter berücksichtigt.
Die Teilchenenergie liegt bei 1 MeV und damit in der Größenordnung der Energiedifferenz von Proton (938,256 MeV) und Neutron (939,550 MeV) sowie des Elektrons und Positrons (0,511 MeV).
In den nächsten 100 Sekunden zerfallen daher die meisten Neutronen in Protonen und Elektronen, und es kommt zur Paarvernichtung von Elektronen und Positronen.

100 s   Kernsynthese
Mit einer Temperatur T=109 K kommen Temperatur und Dichte in die Nähe des Innern sehr heißer Sterne, es kommt zur Kernsynthese, also einer Verschmelzung von Protonen zu Atomkernen.

1000 s
Das Universum enthält nun ein Urplasma, eine Mischung aus Elektronen und Atomkernen sowie Photonen. Die Atomkerne waren zu 77% Wasserstoff, zu 23% Helium sowie Spuren anderer Kerne wie Deuterium und Lithium.

300000 Jahre
Bei der nun herrschenden Temperatur von 3000 K vereinigen sich Elektronen und Protonen zu Wasserstoffatomen, entsprechendes geschieht mit Helium und den schwereren Elementen. Das undurchsichtige Plasma verwandelt sich in durchsichtiges Neutralgas mit einer Dichte von 10-21 gcm-3, was bereits wesentlich dünner ist als das beste, je in einem Labor hergestellte Vakuum.
Da dieses Gas das Licht nicht mehr beeinflußt, wird die Struktur der Hintergrundstrahlung eingefroren. Die Strahlung besteht hauptsächlich aus sichtbaren Licht und Infrarot und etwas Ultraviolett.
Weil die Strahlung sich nun weitgehend unbehindert von der Materie bewegt, erlaubt sie uns daher heute noch, diesen Vorgang mit astronomischen Mitteln zu beobachten.

100 bis 1000 Millionen Jahre
Aus kleinen Inhomogenitäten der ursprünglichen Verteilung der Materie bilden sich Gravitationszentren . Daraus bilden sich Strukturen unterschiedlicher Größenordnung heraus. Galaxien und Galaxienhaufen entstanden. Innerhalb der großen Strukturen bewirkte die anziehende Wirkung der Gravitation ein "körnig"-werden der Materie. Dabei stürzte die Materie in lokale Gravitationszentren zusammen. Diese lokale Verdichtung führte zu einer starken Temperaturerhöhung. Sobald die Temperatur und der Druck groß genug waren, setzte die Fusionsreaktion des Wasserstoffs zu Helium ein. Die dabei entstehende Strahlung und der Druck des dadurch aufgeheizten Gases erzeugten einen Gegendruck, der groß genug war, um das weitere Zusammenstürzen der Materie zu einem Punkt zu verhindern. Auf diese Weise entstanden die Sterne.
Die Brenndauer eines Sterns hängt von ihrer Masse ab. Während Sterne mit sehr geringer Masse mit ihrem Brennstoff so sparsam umgehen, daß er über 100 Milliarden Jahre ausreichen kann, kann der Brennstoff bei einem sehr massereichen Stern schon nach 100 Millionen Jahren verbraucht sein. Bei Nachlassen des Strahlendrucks stürzen diese Sterne wieder in sich zusammen, bis die Temperatur groß genug ist, um auch Helium zu verbrennen. Solche Zyklen wiederholen sich, bis schließlich das Element Eisen vorliegt, aus dem keine weitere Energie zu gewinnen ist. Bei dem nun folgenden endgültigen Zusammensturz zu einem Neutronenstern kommt es zu einem extrem starken Energieausbruch, der sogenannten Supernovaexplosion. Die dabei freiwerdenden Energien führen zu Bildung von Elementen, die schwerer als das Eisen sind. Außerdem werden die äußeren Schichten des Sterns in das Weltall geschleudert. Die Asche der Supernova vermischt sich mit dem kosmischen Wasserstoff- und Heliumgas und bildet so eine Staubwolke, die alle uns bekannten Elemente des Periodensystems enthält. Aus solchen Staubwolken können nun Sterne der zweiten Generation ent­stehen. Diese können bereits Planeten aus fester Materie besitzen, auf denen sich auch Leben entwickeln kann.

13,8 Milliarden Jahre   heute
Die Temperatur ist auf unter 3 K abgesunken, das sind -270° C, der genaue Wert beträgt 2,735 K. Die Materie hat sich soweit verdünnt, daß jeder Kubikmeter Raum im Schnitt nur ein Atom enthält (möglicherweise sogar nur ein Drittel davon). Allerdings ist die Verteilung stark unterschiedlich. So gibt es neben unvorstellbar großen Räumen fast völliger Leere auch Gebiete mit hoher Dichte, wie Planeten, Sterne, Neutronensterne oder gar Schwarze Löcher. Wesentlich zahlreicher sind Neutrinos und Photonen. So kommen vermutlich 600 Neutrinos auf 1 cm³, ein Nachweis dieses Neutrinogases ist bisher wegen der äußerst schwachen Wechselwirkungen noch nicht gelungen.
Bei den Photonen beträgt die Dichte 500 Teilchen pro cm³. Es handelt sich dabei um die Strahlung, die sich 300000 Jahre nach dem Urknall von der Materie abkoppeln konnte und seitdem ungehindert das Universum durchquert. Aus dem sichtbaren Licht von damals ist durch die Expansion des Universums eine Mikrowellenstrahlung im Zentimeter- und Millimeterbereich geworden. Der Nachweis dieser Strahlung sollte als Prüfstein für die Urknalltheorie dienen. Doch zunächst sah es so aus, als ob es eine solche Strahlung nicht gäbe, was ernste Zweifel an einem Urknall auslöste. Erst 1964 wurde diese Strahlung von Arno Penzias und Robert Wilson entdeckt, die dafür 1978 den Nobelpreis für Physik erhielten. Aufgrund immer genauerer Messungen, zuletzt mit dem Satelliten COBE (Cosmic Background Explorer) wissen wir nun recht gut über diese Strahlung Bescheid. Die Frequenzverteilung entspricht exakt dem Spektrum eines schwarzen Körpers bei 2,735 K, man erhält also genau das Spektrum, das man auch von einer glühenden Gaswolke in 14 Milliarden Lichtjahren Entfernung erhalten würde. Da wir mit jedem Lichtjahr auch ein Jahr in die Vergangenheit blicken, sehen wir, wohin wir auch blicken, eine 14 Milliarden Jahre alte Feuerwand aus glühendem Plasma, die das gesamte sichtbare Universum kugelförmig umschließt.
Die Strahlung ist in allen Richtungen des Raums äußerst gleichmäßig, die Abweichungen vom Mittelwert liegen bei nur 0,1%. Diese Abweichungen haben aber eine dipolförmige Verteilung, d. h. die Temperatur hat in einer bestimmten Richtung ein Maximum, in der entgegengesetzten Richtung ein Minimum und dazwischen einen gleichmäßigen Übergang. Diese Dipolanisotropie läßt sich mit der Eigenbewegung der Erde erklären. Wenn man die Bewegung der Erde um die Sonne und der Sonne innerhalb unserer Galaxis berücksichtigt, so kommt man zu dem Ergebnis, daß sich unsere Milchstraße mit einer Geschwindigkeit von 600 km/s durch das Weltall bewegt, und zwar in Richtung der Superhaufen Virgo und Hydra-Centaurus. Erstmals ist man nun in der Lage, eine absolute Geschwindigkeit anzugeben, da man mit der Hintergrundstrahlung einen universellen Bezugspunkt hat. Im vorigen Jahrhundert vermutete einen solchen Bezugspunkt in einem Weltäther als Trägermedium des Lichts, der das ganze Universum durchdringt. Als man aber die absolute Geschwindigkeit der Erde relativ zu diesen Äther messen wollte, erhielt man stets den Wert Null, obwohl die Erde ständig um die Sonne kreist. So wurde der Äther durch Einsteins Relativitätstheorie ersetzt, wonach es eine absolute Bewegung nicht gibt. Dank der Hintergrundstrahlung kann man nun anscheinend doch wieder eine absolute Bewegung messen.
Wird die Hintergrundstrahlung um die Dipolanisotropie korrigiert, so verkleinern sich die Abweichungen auf 0,001%. Die gemessen Temperaturfluktuationen betragen nur 30 µK, was bei der mittleren Temperatur von 2,735 K einem Verhältnis von 1:100000 entspricht. Sie sind als Rippeln von unterschiedlicher Größe über die ganze Kugeloberfläche statistisch verteilt. Diese Rippeln gelten als Keimzellen für die großräumigen Strukturen im Universum und den Galaxien. Wenn man die gemessenen Temperaturunterschiede als Unterschiede in der Dichte des Plasmas 300000 Jahren nach dem Urknall ansieht, so sind diese Unterschiede allerdings so gering, daß sich bis heute noch keine Galaxien hätten bilden können. Erst wenn man eine bisher unbekannte Form von Materie annimmt, die nicht mit Licht wechselwirkt, dann können die beobachteten Rippeln wirklich die Keimzellen der Galaxien sein. Daß es solche dunkle Materie geben muß, dafür sprechen auch die beobachteten Bewegung der Galaxien und der Sterne in den Galaxien. Wenn man zur Massebestimmung nur die sichtbaren Sterne nimmt, dann sind die Geschwindigkeiten viel zu hoch, die Galaxien und Galaxienhaufen müßten längst auseinandergeflogen sein. Die Massen müssen daher um ein Vielfaches höher sein. Auch die Inflationstheorie fordert eine wesentlich größere Masse, da das Universum nach dieser Theorie flach sein muß. Das bedeutet aber, daß die sichtbare Materie nur ein kleiner Bruchteil der gesamten Materie im Universum ist. Der weitaus größte Teil muß eine dunkle, bislang unbekannte Form von Materie sein. Da diese dunkle Materie nicht mit Licht wechselwirkt, hätten bei ihr Dichtefluktuationen viel mehr Zeit gehabt, sich zu verstärken, ohne daß sich dies auf die Hintergrundstrahlung ausgewirkt hätte. Allerdings, hätte man auch mit COBE keine Rippeln in der Hintergrundstrahlung entdeckt, dann wäre es sehr schwierig geworden, die Bildung von Galaxien überhaupt noch zu erklären.
So bleibt jetzt noch als größte Herausforderung an die Astrophysik, das Wesen dieser rätselhaften dunklen Materie zu erklären. Sollte sich herausstellen, daß die Neutrinos eine Ruhemasse besitzen, so könnten sie zumindest eine Erklärung für die größten Strukturen im Universum bieten. Als Keimzellen für Galaxien sind sie allerdings zu schnell und zu leicht. Hier bräuchte man eher langsame und träge Teilchen. Vielleicht entdeckt man ja eines Tages eine ganz neue Klasse von stabilen Teilchen, deren Masse so groß ist oder die so fremdartig sind, daß sie in unseren heutigen Teilchenbeschleunigern einfach noch nicht entstehen können, und die wie Neutrinos so unscheinbar sind, daß wir sie auch dann nicht bemerken würden, wenn sie wie Mücken um uns herum schwirrten.

Epilog

Wir haben nun gesehen, wie das Universum entstehen konnte und sich aus einfachsten Anfängen durch vielfältige Symmetriebrechung bis zur heutigen Vielfalt entwickelt hat. Eine unzählbare Menge an Sternen ist entstanden, von denen ein großer Teil auch Planeten besitzt. Schon früh begann sich auf geeigneten Planeten Leben zu ent­wickeln. In Laufe der Jahrmilliarden entstand so auch irgendwo zum ersten Mal intelligentes Leben. Nachdem dieses Leben einen mit dem unserem vergleichbaren Stand der Entwicklung erreicht hat, verläuft die weitere Entwicklung explosionsartig. Die langsame biologische Evolution wird durch die rasante technische Evolution abgelöst. Der Verzicht auf die Begrenzungen des biologischen Körpers macht die direkte Evolution des Geistes möglich. Die Vereinigung zu einer globalen Gemeinschaft läßt ein gemeinsames Überbewußtsein von unbegreif­licher Geisteskraft entstehen. Mit einer Geschwindigkeit, die sich im Laufe der Zeit der Lichtgeschwindigkeit an­nähert, breitet sich dieses Leben nun kugelschalenförmig in den Weltraum aus. Wo die Wellenfront des Lebens auf eine Wellenfront ähnlich gearteten Lebens stößt, kann es im Laufe der Zeit zu einer Vereinigung beider Lebensformen kommen, wobei wieder ein gemeinsames Überbewußtsein entstehen kann. Wenn alle Lücken im Universum geschlossen sind, ist das gesamte Universum von einen gewaltigen Geist erfüllt, der alles Wissen und alle technischen Fähigkeiten in sich vereinigt und so die größte Macht im Universum darstellt. Man kann diese Macht den kosmischen Geist nennen, für Lebensformen wie dem heutigen Menschen ist es ganz einfach Gott.
Zu einem schon weit fortgeschrittenen Zeitpunkt in diesem Prozeß ist das Sonnensystem entstanden. Auf dem dritten Planeten dieses Systems waren alle Voraussetzungen vorhanden, um Leben hervorzubringen. So entstand das Leben und entwickelte sich bis hin zur Menschheit. Ob nun Gott in diese Entwicklung in irgend einer Weise steuernd eingegriffen hat, können wir nicht sagen - grundsätzlich könnte die Entwicklung auch ohne jede Eingriffe so abgelaufen sein. Als nun der Mensch die Szene betrat, hat Gott eine Möglichkeit geschaffen, dem Geist des Menschen ein Weiterleben nach dem Tod zu gestatten.
Die weitere Entwicklung der Menschheit wird in ähnliche Bahnen verlaufen wie die Entwicklung der ersten in­telligenten Lebewesen, die schließlich zur Bildung des kosmischen Geistes geführt hat. So wird sich auch die Menschheit in die Richtung hin zu Gott entwickeln, um sich dann irgendwann mit Gott zu vereinigen. Gemeinsam werden wir dann die Aufgaben angehen, die das Universum in der fernsten Zukunft für uns noch bereithält, damit das Leben die Ewigkeit überdauern kann.


Keine Kommentare:

Kommentar veröffentlichen