Die Zukunft der Raumfahrt

Unbemannte Raumfahrt im Vorteil

Das spektakulärste Raumfahrtprojekt war sicherlich die Mondlandung, als 1969 mit Apollo 11 erstmals Menschen einen anderen Himmelskörper betraten. Die Entwicklung lief bis dahin geradezu rasant:
1957 erreicht mit Sputnik 1 der erste künstliche Satellit die Erdumlaufbahn,
1959 prallt Lunik 2 auf dem Mond auf,
1961 fliegt mit Juri Gagarin der erste Mensch in den Weltraum und
1969 betreten mit Neil Armstrong und Buzz Aldrin die ersten Menschen den Mond.

Damals hätte man erwartet, das es in dem Stil weitergeht: Raumstationen, eine ständig bemannte Station auf dem Mond, bemannter Flug zum Mars, Pendelverkehr zum Mond - und das alles noch vor dem Jahr 2000.

Tatsächlich hat sich seit dem Ende des Apollo-Programms 1972 kein Mensch mehr weiter als ca. 600 km von der Erde entfernt.

Was sind die Gründe dafür? Nun, wenn man die Kosten in Relation zum wissenschaftlichen Nutzen setzt, dann schneidet die bemannte Raumfahrt wesentlich schlechter ab als die unbemannte Raumfahrt. Unbemannte Raumsonden haben inzwischen Nahaufnahmen von allen Planeten des Sonnensystems gemacht sowie einiger Monde, Asteroiden und Kometen, es gab Landungen auf dem Mars, der Venus, dem Asteroiden Itokawa, dem Saturnmond Titan und dem Kometen Churyumov-Gerasimenko. Mit Voyager 1 ist sogar erstmals eine von Menschen kontrollierte Sonde in den interstellaren Raum vorgedrungen.

Das Kosten-Nutzen-Verhältnis zwischen bemannter und unbenannter Raumfahrt neigt sich immer mehr zu Gunsten der unbemannten Raumfahrt. Werden Menschen ins All befördert, so steht der Sicherheitsgedanke im Vordergrund. Und das Sicherheitsbewusstsein hat sich seit den Mondlandungen deutlich erhöht. Die Autos hatten damals in der Regel keine Sicherheitsgurte, kaum Knautschzonen, keine Airbags und kein ABS oder ESP. Heute würde so ein Auto als Neuwagen gar nicht mehr zugelassen werden. Die Unglücke mit den Raumfähren Challenger und Columbia habe gezeigt, dass selbst kleine Schwachstellen schreckliche Folgen haben können. Infolge dessen wurden die Sicherheitsmaßnahmen weiter verstärkt, was aber auch die Kosten immer weiter erhöht hat.

Bei der unbemannten Raumfahrt ist die Zuverlässigkeit natürlich auch ein wichtiger Gesichtspunkt, ein Misserfolg ist aber nur ein finanzieller Verlust und ein zeitlicher Rückschlag, kostet aber keine Menschenleben. Das Kosten-Nutzen-Verhältnis wird hier immer günstiger, da die Leistungsfähigkeit der verwendeten Technik immer besser wird. Heute ist ein nur 200 Gramm schweres Smartphone leistungsfähiger als ein tonnenschwerer Großcomputer zur Zeit der Mondlandung. Und je weniger Gewicht benötigt wird, umso günstiger ist der Transport in dem Weltraum. Je leistungsfähiger Steuerungscomputer und Robotik sind, umso eher kann eine Automatik Tätigkeiten übernehmen, für die bisher ein Mensch nötig war. Während die Größe eines Menschen durch die biologischen Gegebenheiten festliegt, lässt sich Technik immer weiter verkleinern.

Nanotechnik

In der Elekronik und der Computertechnik ist die Miniaturisierung schon weit vorgeschritten, die Mechanik hinkt hier noch deutlich hinterher. Aber das Potential ist hier gewaltig. Wenn einzelne Bauteile nur noch wenige Atome oder Moleküle groß sind, könnten hektargroße Fabrikanlangen auf Bruchteile von Millimeter schrumpfen. Wäre diese Nanofabrik nun in der Lage, aus einfachen Rohstoffen alle Bestandteile dieser Fabrik herzustellen und zusammenzubauen, hätte man ein selbst replizierendes System im Nanomaßstab.

Noch steht die Nanotechnik ganz am Anfang. Ein selbst replizierendes System ist aber nicht nur ein reines Phantasieprodukt. Es gibt einen unwiderlegbaren Beweis, dass dies tatsächlich möglich, und den liefert die Natur. In Grunde ist eine lebende Zelle nichts weiter als eine spezielle Form einer hoch entwickelten Nanotechnologie. Ein Cyanobakterium etwa erzeugt aus Wasser, Kohlendioxid, mineralischen Salzen und Sonnenlicht alles, was nötig ist, um sich selbst zu replizieren, dabei ist es mit ca. 1 µm viel zu klein, um es mit bloßem Auge sehen zu können. Bakterien, die sich mit einer Geisel fortbewegen, nutzen als Antrieb einen Nanomotor, der mit Stator und Rotor fast aussieht wie ein extrem verkleinerter Elektromotor, nur dass er aus einzelnen Molekülen aufgebaut ist und statt einem elektrischen Strom treibt ihn ein durch den Rotor fließender Strom aus positiven Ionen wie Protonen oder Natriumionen an und er erreicht dabei Drehzahlen von 3000 bis 100000 UpM.

Das erstaunlichste ist, dass sich dieser Motor quasi von selbst zusammenbaut. Es müssen nur alle nötigen, kompliziert geformten Einzelteile vorhanden sein, dann lagern sie sich wie Teile eines 3D-Puzzles ausgehend von eine Startmolekül in der Zellmembran passend aneinander und bilden einen funktionsfähigen Motor einschließlich eines langen fadenförmigen Fortsatzes - der Geisel. Die Einzelteile, in der Regel Proteine, bauen sich allerdings nicht von selbst zusammen, diese werden von molekularen Maschinen getreu dem in der RNA gespeicherten Bauplan aus Aminosäuren zusammengebaut. Die Aminosäuren wiederum werden in einer Art chemischen Fabrik im Nanomaßstab aus von außen kommenden Rohstoffen synthetisiert, oder im Fall von räuberischen Organismen aus proteinhaltiger Nahrung gewonnen. Hatte man früher an eine geheimnisvolle Lebenskraft geglaubt, die all die Lebensvorgänge in Gang hält, so weiß man heute, dass es sich um einem sehr komplexen Mechanismus handelt, dessen Kernelement ein sehr kompakter Informationsspeicher ist - die RNA oder, bei höher entwickelten Organismen, die DNA. Dieser Speicher enthält nun einerseits sämtliche Baupläne sowie eine Art Programmcode, der alle ablaufenden Prozesse direkt oder indirekt steuert.

Dies soll nur ein Beispiel dafür sein, dass Nanotechnik nicht nur tatsächlich funktionieren kann, sondern irgendwann in der Lage sein wird, sich selbst zu replizieren und auch sehr große Strukturen zu erschaffen, so wie auch die biologische Nanotechnik Mammutbäume, Korallenriffe, Elefanten, Dinosaurier und Wale hervorbringen konnte.

Eigentlich müssten die einzelnen Nanoroboter, kurz Nanobots, sich nicht einmal selbst replizieren, es reicht, wenn sich ihre Fabrikationsanlage selbst replizieren kann. Das wäre dann der Fall wenn die Fabrik aus natürlichen oder künstlichen Organismen bestände. Auch natürliche Zellen können so umprogrammiert werden, dass sie die gewünschten Bauteile produzieren und zusammenbauen - Viren machen uns dies schon lange vor. So programmieren Bakteriophagen eine Bakterienzelle so um, dass sie ein Virus zusammenbauen, das von seinem äußeren Erscheinungsbild stark an den Mondlander der Apollomissionen erinnert. Wenn es auf ähnliche Weise gelänge, komplette Nanobots herzustellen, wäre eine Serienproduktion riesigen Stückzahlen zu minimalen Kosten möglich. Da biologische Zellen auf flüssiges Wasser angewiesen sind, würde ein Einsatz im Vakuum und in den kalten Außenbereichen des Sonnensystems aufwendige Schutzmaßnahmen und Heizsysteme erfordern, was einen einzelnen Nanobot stark vergrößern und in seinen Möglichkeiten einschränken würde. Ideal wären daher Nanobots, die auch bei tiefen Temperaturen und im Vakuum operieren können. Auch wenn die zugrunde liegende Technik dann nicht biologisch wäre, könnte man biologische Organismen zumindest so umprogrammieren, dass sie zur Massenproduktion derartiger Nanobots verwendet werden können.

Was hat das aber nun mit Raumfahrt zu tun? Zum einen gilt: je kleiner die Masse der Nutzlast ist, desto geringer sind auch die Transportkosten und eine Nanotechnik ermöglicht ein Maximum an Nutzen mit einem Minimum an Masse zu erreichen. Zum anderen werden die Kosten minimiert, wenn jedes Ziel nur ein einziges Mal angeflogen werden muss. Wenn eine Raumsonde nach der Landung die aufgefunden Materialien verwenden kann, um nicht nur sich selbst nachzubauen, sondern jedes gewünschte Objekt, dann wäre es unnötig, diesen Himmelskörper ein zweites Mal anzufliegen (mal abgesehen von politischen Gründen). Künftig würde es ausreichen, per Funk die Baupläne für das gewünschte Objekt zu übertragen und es würde sofort vor Ort gebaut. Auch Ausfälle durch Alterung und Verschleiß wären kein Problem, wenn stets genügend Ersatzeinheiten repliziert werden, um alle ausgefallene Einheiten ersetzen zu können.

Natürlich müsste man Rücksicht nehmen, welche Rohstoffe in erreichbarer Nähe vorhanden sind. Daher würde man eine Grundausstattung an Förderanlagen mitschicken und den ersten Landeplatz sorgfältig auswählen, um an die wichtigsten Rohstoffe heranzukommen. Auch die nötige Energie müsste vor Ort gewonnen werden. Bei allen sonnennahen Himmelskörper liefert die Sonne genügend Energie. Fossile Energie wird man auf anderen Himmelskörpern nicht finden. Dort, wo die Sonne zu schwach ist, könnte man nach Uranvorkommen zu suchen, was sich aber als schwierig erweisen könnte. Eine bessere Lösung wäre die Kernfusion, die man hoffentlich irgendwann in den Griff bekommen wird. Hier sollte es kein Problem sein, genügen Brennstoffe zu finden.

Der nächste Schritt wäre die automatische Herstellung kompletter Raumfahrzeuge auf fremden Himmelskörpern. Überall dort, wo es Wasser und ausreichend Sonnenenergie gibt, kann man auch geeigneten Raketentreibstoff herstellen. Da auf dem Mars nur ein Drittel der Erdschwerkraft herrscht, wäre zum Start auch wesentlich weniger Treibstoff nötig. Noch geringe wäre die Schwerkraft auf Asteroiden und Monden. Selbst auf dem Erdmond hat man bereits in tiefen Kratern an den Polen Wassereis entdeckt. Statt Satelliten und Raumsonden mit hohem Aufwand in die Umlaufbahn zu schießen, könnte man sie dort produzieren und von dort mit relativ bescheidenem Energieaufwand an den gewünschten Ort bringen.

Um sich im Sonnensystem weiter nach außen zu bewegen, muss man aber immer noch die Schwerkraft der Sonne überwinden. Um hier Energie zu sparen, wären Swing-By-Manöver an Erde und Venus möglich, aber diese kosten viel Zeit und erfordern ein exaktes Timing. Besser wäre es, das Raumfahrzeug bereits möglichst weit weg von der Sonne herzustellen - andererseits ist hier die Treibstoffproduktion per Solarenergie weniger effizient. Solange die Kernfusion als Alternative noch nicht zur Verfügung steht, gilt es hier einen Kompromiss zu finden.

Sobald es möglich ist, komplette Raumschiffe außerhalb der Erde ohne menschliche Arbeitskräfte und nur mit im Weltraum vorhandenem Material zu bauen, wird die Raumfahrt plötzlich sehr billig. Letztendlich könnte man ein neues Raumfahrtprojekt am Computer entwerfen, auf eine geeignete Raumbasis hochladen und dann einfach warten, bis die Mission startet. Es würden nur noch Kosten für die Entwicklung neuer Spezialinstrumente, für Missionsplanung und Überwachung und für die Auswertung der übermittelten Daten anfallen.

Neben der hohen Gravitation auf der Erde könnte es noch weitere Gründe geben, warum die Produktion im Weltraum günstiger sein kann als auf der Erde. Will man auf der Erde eine Fabrik errichten, muss man erst mal Land erwerben; um Rohstoffe abzubauen, braucht man teuere Abbaurechte; auch Solarenergie ist nicht kostenlos, wenn man für die benötigten Flächen Land pachten oder kaufen muss. Dazu kommen Kosten für Bürokratie, Genehmigungen, Patente, Steuern, Emmisionsrechte, Natur- und Grundwasserschutz, usw.. Wenn dann noch eine neuartige potentiell gefährliche Technologie eingeführt oder gar zur Rohstoffgewinnung in der Umwelt ausgesetzt werden soll, dann fangen die Probleme erst richtig an. Eine Nanotechnik mit Einheiten, die sich ähnlich wie lebendige Organismen selbständig fortpflanzen können, weckt in der Bevölkerung sicherlich zahlreiche Ängste. Da können noch so viele Sicherheiten eingebaut werden, solange nicht der Beweis erbracht werden kann, dass es nicht doch das Restrisiko eines GAUs gibt, nämlich der unkontrollierbaren Ausbreitung einer mutierten Variante und Verseuchung des ganzen Planeten - die Proteste und Sabotageakte gegen die grüne Gentechnik und deren Freilandversuche wären nur ein schwacher Vorgeschmack auf das gewesen, was nun folgt. 

Natürlich will auch niemand, dass sich auf dem Mond oder dem Mars eine nicht mehr kontrollierbare künstliche Lebensform ausbreitet. Daher muss vor dem Einsatz sichergestellt sein, dass das, was das Leben so erfolgreich machte, nämlich Evolution durch Mutation und Selektion, hier unter keinen Umständen stattfinden kann. Zusätzliche tief verankerte Schutzmaßnahmen wie Abschaltsequenzen und Empfindlichkeit gegen bestimmte Substanzen könnten die Sicherheit zusätzlich erhöhen. Und falls alles schief geht, wären mit Weltraum drastische Bekämpfungsmaßnamen möglich, ohne dass Menschen gefährdet werden.

Zwischen den Sternen

Spätestens wenn man die Raumsonden mit der Fähigkeit ausstattet, Raumschiffe zu bauen und die nächsten Ziele selbständig auszuwählen, muss das Vertrauen in die Zuverlässigkeit der Technologie schon sehr groß sein und auch gerechtfertigt sein. Dies könnte aber nötig werden, wenn man in die äußeren Bereiche des Sonnensystems jenseits der Planetenbahnen vordringen will. Während man im jenseits der Neptunbahn gelegenen Kuipergürtel schon über 500 Objekte gefunden hat, kann man die noch weiter außen gelegene Oortsche Wolke nur indirekt über langperiodische Kometen nachweisen. Die Oortsche Wolke erstreckt sich bis fast zur Hälfte der Strecke nach Alpha Centauri und enthält vermutlich mehrere hundert Milliarden Objekte. Durch die große Zahl der Objekte und der großen Entfernung zur Erde wäre eine direkte menschliche Kontrolle der Raumsonden kaum mehr möglich. Eine komplette Durchdringung der Oortschen Wolke mit sich exponentiell vervielfältigenden Raumsonden wäre vielleicht möglich, aber nicht wünschenswert. Schließlich sollen auch kommende Generationen in der Oortschen Wolke noch naturbelassene Objekte vorfinden können. Stattdessen würde man sich vorzugsweise in Richtung auf die in unser Nachbarschaft gelegenen Sterne vorarbeiten, wie etwa Alpha Centauri. Auf diese Weise könnte sogar eine Brücke zu anderen Sternen entstehen. Immerhin kann man davon ausgehen, dass auch die anderen Sterne von ähnlich gearteten Wolken umgeben sich. Selbst die Räume dazwischen müssen von zahlreichen vagabundierenden Objekten erfüllt sein, die an keinen bestimmten Stern gebunden sind. Schließlich ist in den äußeren Bereichen die Anziehungskraft der Sonne so gering, dass selbst kleine Störungen ausreichen können, um ein Objekt aus seiner Umlaufbahn zu reißen. Größere derartige Störungen können übrigens auch dazu führen, dass die Objekte auf die Sonne zustürzen und dann bei uns als Kometen in Erscheinung treten - wo sie die bisher einzige Informationsquelle über die Oortsche Wolke darstellen.

Ein Problem dürfte aber sein, die Objekte der Oortschen Wolke überhaupt zu finden. Auch wenn die Zahl der Objekte mehrere hundert Milliarden beträgt, verteilt über eine Kugel von über drei Lichtjahre Durchmesser machen sie sich außerordentlich rar. Das jeweils nächste kometengroße Objekt, das auch nur einigermaßen in der gewünschten Bewegungsrichtung liegt, dürfte im Schnitt so weit weg sein, wie Neptun oder Pluto von der Erde. Je weiter man sich nun von der Sonne wegbewegt, desto weniger Licht wirft das Objekt zurück, bis es am Ende nur noch vom Licht der Sterne beleuchtet wird. So bräuchte man irgendwann kilometergroße Teleskopspiegel und sehr lange Belichtungszeiten, um das Objekt noch sichtbar zu machen. In der Schwerelosigkeit müsste es aber möglich sein, so große Spiegel aus zahlreichen Einzelspiegel zusammenzusetzen und exakt auszurichten. Durch die Umgebungstemperatur von nur vier Kelvin ist auch das thermische Rauschen so klein, dass sehr lange Belichtungszeiten möglich sind. Sollte auch das nicht mehr ausreichen, wäre eine künstliche Beleuchtung denkbar, etwa so etwas wie eine künstliche Sonne. Dafür könnte man im Zentrum einer zuvor erzeugten Gaswolke eine Wasserstoff-Fusionsbombe zünden. Alles was dann kurzzeitig im Teleskopbild auftaucht und wieder verschwindet, müsste ein relativ nahes Objekt sein.

Auf diese Weise zum nächsten Stern vorzudringen wäre allerdings ein sehr langer Prozess mit sehr vielen Schritten. Allerdings, wenn der einzelne Schritt zuverlässig beherrscht wird, ist der Erfolg des Gesamtunternehmens so gut wie sicher, auch wenn es sehr lange dauert. Da der Prozess, einmal angestoßen, automatisch abläuft, wären auch die Kosten relativ gering.

Interstellare Raumfahrt

Eine schnellere Möglichkeit, die Sterne zu erreichen, wäre der direkte Flug. Mit einer Reisegeschwindigkeit von 1 % der Lichtgeschwindigkeit könnte Alpha Centauri in 440 Jahren erreicht werden, mit 10 % Licht bereits in 44 Jahren. Mit konventionellen Triebwerken ist das allerdings mit machbar. Eine Raumsonde wie Voyager 1 bräuchte dazu über 100000 Jahre.

Mit chemischen Treibstoffen sind kaum Austrittsgeschwindigkeiten von mehr als vt = 4500 m/s zu erreichen.
Gemäß Raketenformel ve = vt*ln(1+mt/mn) bräuchte man die Treibstoffmenge mt = (exp(ve/vt)-1)*mn um die Endgeschwindigkeit ve zu erreichen. Mit mt = 4500 m/s und vt = 300000 m/s (nur 0,1 % Licht, bei 1 % streikt der Taschenrechner) bräuchte man pro Tonne Nutzmasse mn mit mehr als 1028 Tonnen Treibstoff die 17-fache Masse der Sonne und wäre dennoch 4400 Jahre unterwegs nach Alpha Centauri. Eine Landung wäre bei der Geschwindigkeit ausgeschlossen - wollte man die Atmosphäre eines Planeten zum Abbremsen benutzen, gäbe es nur eine gigantische Explosion und die Raumsonde würde sich in eine Plasmawolke verwandeln. Um in eine Umlaufbahn zu treten, bräuchte man schon die Schwerkraft eines Schwarzen Lochs.

Um also auch irgendwo landen zu können, muss ein Raumschiff auch genügend Treibstoff zum Abbremsen mitführen. Ein Raumschiff würde also zunächst bis zur Reisegeschwindigkeit ve beschleunigen, dann sehr lange mit konstantem ve ohne Treibstoffverbrauch weiterfliegen, um kurz vor dem Ziel die Geschwindigkeit auf Null zu reduzieren. Allein für das Abbremsen wird die Treibstoffmenge (exp(ve/vt)-1)*mn benötigt - diese muss man für die Beschleunigungsphase zur Nutzmasse dazuschlagen.
Es lässt sich zeigen, dass man für die komplette Reise die Raketenformel wie folgt modifizieren muss:
  ve =  vt*ln(1+mt/mn)/2
Daraus ergibt sich als gesamte Treibstoffmenge
  mt = (exp(2*ve/vt)-1)*mn
Im obigen Beispiel wären das 1058 Tonnen und damit mehr Masse als es im ganzen sichtbaren Universum gibt.

Eine Geschwindigkeit von 1 % Licht mit konventionellen Triebwerken zu erreichen ist also nicht nur sehr schwierig, sondern ganz einfach unmöglich. Man sieht es der Raketenformel schon an, das die Austrittsgeschwindigkeit vt in derselben Größenordnung wie die Reisegeschwindigkeit ve sein muss, um sinnvolle Ergebnisse zu liefern. Wie kann man aber den Treibstoff auf 1 % der Lichtgeschwindigkeit bringen? Am Relativistic Heavy Ion Collider (RHIC) auf Long Island, New York werden z. B. Gold-Atomkerne auf 99,9 % der Lichtgeschwindigkeit beschleunigt und aufeinander geschossen, um ein Quark-Gluon-Plasma zu erzeugen. Die Masse der beschleunigten Teilen ist allerdings sehr gering und der Energiebedarf enorm. Aber es zeigt, dass es technisch möglich ist, geladene Teilchen, sogenannte Ionen, auf sehr hohe Geschwindigkeit zu bringen. Ein Ionentriebwerk könne ähnlich wie ein kleiner Linearbeschleuniger mit angefügtem Neutralisator aufgebaut sein. Hier käme es nicht auf Erreichen relativistischer Geschwindigkeiten oder gute Strahlqualität an, sondern auf hohe Strahlstärke und einen möglichst hohen Wirkungsgrad, d. h. möglichst viel der zugeführten Energie muss in Bewegungsenergie der ausgestoßenen Partikel umgesetzt werden. Bisher entworfene, mit Gleichspannung betriebene Ionentriebwerke haben meist nur eine Beschleunigungsstufe und können Ausstoßgeschwindigkeiten von 150 km/s erreichen - das allerdings bei einem guten Wirkungsgrad von 50-90 %. Höhere Ausstoßgeschwindigkeiten könnten mehrere hintereinander geschaltete mit Wechselspannung betriebene Beschleunigungsstufen erreichen, oder man nutzt den elektrischen Feldanteil von elektromagnetischen Wellen. Der Teilchenstrahl muss dabei allerdings in viele kleine Pakete unterteilt werden.

Die Raketengleichung lässt nun vermuten, je höher die Austrittsgeschwindigkeit vt ist, umso weniger Treibstoff wird benötigt. Hier muss man aber unterscheiden zwischen Stützmasse und dem Energieträger. Gemäß Impulserhaltungssatz muss die ausgestoßene Stützmasse mt den Impuls p=m*v abgeben, damit das Raumschiff denselben Impuls gewinnen kann. Um die Stützmasse zu beschleunigen, wird die Energie E = 0,5*mt*vt² benötigt. Um diese zu gewinnen, wird der Energieträger verbraucht. Im Idealfall werden die Überreste des Energieträgers anschließend als Stützmasse benutzt. Im Fall eines chemischen Triebwerks ist dies der Fall, hier werden die heißen Abgase als Stützmasse ausgestoßen.

Mit steigender Austrittsgeschwindigkeit vt der Stützmasse steigt nun der übertragene Impuls und damit die Beschleunigung proportional an, der Energieverbrauch steigt aber quadratisch an. Andererseits senkt eine höhere Austrittsgeschwindigkeit die Menge benötigter Stützmasse, die ja vor allem am Anfang zusammen mit dem Raumschiff beschleunigt werden muss und daher zusätzliche Energie benötigt. Während des Fluges nimmt dieser zusätzliche Anteil dann kontinuierlich ab. Das lässt vermuten, dass es für jede Maximalgeschwindigkeit eine optimale Austrittsgeschwindigkeit gibt, bei der der Energieverbrauch minimal wird.

Durch Kombination der Energiegleichung mit der modifizierten Raketengleichung (mit Beschleunigungs- und Bremsphase) erhält man nun folgende Gleichung:
  E(x) = 0,5*mn*ve² * (exp(2/x)-1)*x²  mit x=vt/ve
Diese Funktion hat ein Minimum bei x=1,25500, wobei x hier das Verhältnis von Austrittsgeschwindigkeit zur Reisegeschwindigkeit vt/ve ist.
(Das Minimum ist die positive Nullstelle der ersten Ableitung:
  dE(x)/dx = 0 → (x-1)*exp(2/x)-x = 0, Näherungslösung: x = 1,2550009749)
Ohne Abbremsphase wäre das optimale Verhältnis vt/ve mit 0,6275 übrigens nur halb so groß.

Bei einer Reisegeschwindigkeit von 1 % Licht müsste die Stützmasse also mit 1,255 % der Lichtgeschwindigkeit ausgestoßen werden. Die dazu nötige Energie kann man mit obiger Formel ausrechnen, erhält aber einen unanschaulich hohen Wert. Da nach E = mc² Masse und Energie äquivalent sind, kann man die Formel durch c² dividieren und erhält so die Masse, die vollständig in Energie umgesetzt werden müsste, um die komplette Reise zu vollenden.
  E = 0,00031 * mn  bei ve = 3000 km/s und vt = 3765 km/s
d. h. pro Tonne Leergewicht mn müsste man also 0,31 kg Masse in Energie umsetzen.
Außerdem muss man noch den Wirkungsgrad berücksichtigen, da die Energie im Endeffekt in Bewegungsenergie der Stützmasse umgewandelt werden muss. Dies erhöht die nötige Energie noch beträchtlich.
Solche Energiemengen ist nach derzeitigem Wissen in einem Raumschiff nur mit Kernspaltung, Kernfusion oder einer Materie-Antimaterie-Reaktion erzeugbar.
Während bei einer Materie-Antimaterie-Reaktion die gesamte Masse in Energie umgesetzt wird, sind es bei der Kernfusion 0,45 % und bei Kernspaltung 0,09 %.
Die benötigte Menge an Stützmasse wäre:
  mt = (exp(2*ve/vt)-1)*mn = 3,922 * mn
also 3922 kg pro Tonne Nutzmasse. Während beim Antimaterieantrieb die Stützmasse zusätzlich mitgenommen werden muss, da nach der Reaktion nichts Verwertbares übrig bleibt, kann man bei Kernspaltung und Kernfusion die Reaktionsprodukte als Stützmasse benutzen. Dadurch ergibt sich ein Grenzwert für den Wirkungsgrad. Wird dieser unterschritten, muss die gewünschte Reisegeschwindigkeit reduziert werden, wird er überschritten, kann man vt erhöhen und so die Reise verkürzen.
  Kernspaltung: 0,31 kg / (3922 kg * 0,09 / 100) * 100 % = 9 %
  Kernfusion:   0,31 kg / (3922 kg * 0,40 / 100) * 100 % = 2 %

Dies zeigt, dass es zumindest theoretisch möglich ist, mit allen drei Energiearten 1 % der Lichtgeschwindigkeit zu erreichen. Bei der Kernspaltung sind die Anforderungen an den Wirkungsgrad recht hoch. Kernkraftwerke haben einen Wirkungsgrad von etwa 35 %, die Frage ist, ob sich dies auch in einem Raumschiff erreichen lässt. Und selbst dann müsste der Ionenantrieb selbst mit einem Wirkungsgrad 26 % die elektrische Energie in Bewegungsenergie umsetzen - theoretisch möglich, Elektromotoren kommen auf über 95 % - der Wirkungsgrad von Teilchenbeschleuniger liegt allerdings noch weit darunter. Außerdem benötigt man als Treibstoff das seltene Uran 235 in reiner Form. Alternativ könnte man Plutonium einsetzen, das sich aus dem häufigeren Uran 238 erzeugen lässt.

Da es noch keinen Fusionsreaktor gibt, der wirklich elektrische Energie produziert, liegen bezüglich des Wirkungsgrades noch keine Erfahrungen vor. Da man zum Aufheizen des Reaktionsplasmas aber zunächst viel Energie hineinstecken muss, dürfte der Wirkungsgrad sicher kleiner sein als bei der Kernspaltung. Aber da ein Gesamtwirkungsgrad von nur 2 % nötig ist, bleibt noch viel Spielraum. Die Frage ist nur, ob sich ein Reaktor weit genug verkleinern lässt, um in einem Raumschiff installiert zu werden. Würde es allerdings gelingen, Antrieb und Reaktor als Einheit zu konstruieren und die schnellsten Ionen des Reaktionsplasmas auszukoppeln und als Antriebsstrahl auszustoßen, könnte das den Wirkungsgrad beträchtlich steigern.

Bliebe noch der Antimaterieantrieb. Da man ähnlich wie bei der Kernspaltung nicht erst Energie zufügen muss, um die Reaktion zu starten, kann der Wirkungsgrad ähnlich hoch sein. Bei einem angenommen Gesamtwirkungsgrad von 10 % müsste man hier eine Masse von 3,1 kg pro Tonne Nutzmasse umsetzen, das wären 1,55 kg Antimaterie und nochmals die gleiche Menge normaler Materie. Die Herstellung einer derartigen Menge Antimaterie wäre allerdings extrem aufwendig und würde lange dauern und enorme Energiemengen verschlingen. Aufgrund der damit verbundenen Gefahren würde man dies kaum auf der Erde durchführen wollen. Denkbar wären spezielle solar betriebene Antimateriegeneratoren, die in großer Zahl in Sonnennähe oder auf dem Merkur über viele Jahre hinweg Antimaterie produzieren würden. In Sonnenferne könnten man stattdessen Fusionskraftwerke als Energiequelle benutzen.

Der Antimaterieantrieb bietet sogar die Chance, noch erheblich schneller zu werden. Ohne Berücksichtigung relativistischer Effekte kann man sagen, dass die nötige Antimaterie im Quadrat mit der Geschwindigkeit zunimmt. Um also 10 % der Lichtgeschwindigkeit zu erreichen, während also 155 kg Antimaterie pro Tonne Nutzmasse nötig (eigentlich etwas mehr, da hier eine Masse von 310 kg verschwindet, ohne das diese als Stützmasse oder Nutzmasse dient). Damit könnte man Alpha Centauri bereits in etwa 44 bis 50 Jahre erreichen, je nachdem wie hoch die Beschleunigungswerte der Triebwerke sind.

Natürlich enthalten die obigen Berechnungen Vereinfachungen und sind eher theoretischer Natur. Für die praktische Umsetzung dürfte noch manches Problem zu lösen sein, aber zumindest vermittelt diese Berechnung ein Gefühl dafür, was in der interstellaren Raumfahrt möglich ist, und was nicht. 

Auf welche Weise auch immer eine Reise zu den Sternen stattfindet, der Aufwand und die Dauer ist so hoch, dass es sicher nicht nur bei einem kurzen Besuch bliebe. Wenn ein Raumschiff in einem fremden Planetensystem ankommt, dann um für immer dort zu bleiben und das System bis ins kleinste Detail zu erforschen. Und hier kommt wieder eine selbst replizierende Nanotechnik ins Spiel. Während dies bei Reisen innerhalb des Sonnensystems nur eine Option war, um die Kosten für die Raumfahrt drastisch zu senken, ist sie bei interstellarer Raumfahrt eine Notwendigkeit. Wie könnte man den hohen Aufwand einer Mission zu den Nachbarsternen rechtfertigen, wenn die Technik bereits nach wenigen Jahren nach der Ankunft den Dienst versagt? Außerdem, wie soll der kleine Bordsender einer Raumsonde mit begrenzten Energiereserven die Fülle an Daten, die die Sonde in dem System gesammelt hat, über viele Lichtjahre Entfernung an die Erde senden? 

Daher müsste bei der Ankunft in dem fremden Sonnensystem folgendes geschehen:
Zunächst würde ein geeigneter Himmelskörper gesucht, auf dem die Hauptbasis errichtet werden kann. Nach der Landung würde mit dem ersten Abbau von Rohstoffen begonnen. Damit könnten dann kleinere Produktionsstätten errichtet, um dort größere Maschinen herzustellen zum Abbau von Rohstoffen und Bau weiterer Produktionsstätten. Vielleicht würde es aber auch aussehen, wie bei einer Pflanze: Ein Samenkorn vollgestopft mit Nanotechnik wird an geeigneter Stelle abgesetzt, Wurzelfäden sprießen daraus, um die Rohstoffe aufzunehmen und das Samenkorn dehnt sich in alle Richtungen aus und wächst zu einer großen Basis heran. Oder es wird ein Schwarm aus kleinen Nanorobotern ausgestoßen, die sich durch den Untergrund bohren und das vorgefundene Material benutzen, um sich zu vervielfältigen, um sich schließlich zu riesigen Strukturen zusammenzuschließen.

Wie auch immer der Bau der Basis ablaufen wird, das Ziel ist letztlich, Raumsonden zu produzieren, die dann zu den verschiedenen Planeten, Monden und Asteroiden fliegen, um dort weitere Operationsbasen zu errichten. Dort würden dann kleine Fahrzeuge und Flugkörper gebaut, welche die jeweiligen Himmelskörper im Detail erforschen würden. Parallel dazu würde in der Hauptbasis mit dem Bau einer gewaltigen Sendeanlage begonnen, um die gewonnenen Forschungsdaten zur Erde oder zur nächstgelegenen Relaisstation zu schicken. Für den enormen Energiebedarf eines interstellaren Senders würde ein großes Fusionskraftwerk sorgen. Eine möglichst geringe Schwerkraft würde auch den Bau riesiger beweglicher Parabolspiegel erleichtern. Eine Atmosphäre und damit verbundene Winde würden auch stören, so dass für die Hauptbasis ein Asteroid oder ein kleiner atmosphäreloser Mond am besten geeignet wäre. Als Brennstoff für die Fusionskraftwerke muss genügend Wasserstoff bzw. Wassereis, Methan oder Ammoniak vorhanden sein, so dass die äußeren kalten Bereiche des Systems besser geeignet wären. Eine kalte Umgebung ist auch für den Empfang von Signalen von der Erde wichtig, da hier das störende thermische Rauschen am kleinsten ist.

Erst wenn diese Arbeiten erledigt sind, kann mit dem Bau neuer stellarer Raumschiffe begonnen werden, die dann die weiter von der Erde entfernten Sterne anfliegen würden und dort auf dieselbe Art und Weise vorgehen würden. Zusätzliche Sende-Empfangsanlagen in Richtung der Zielsterne der neuen Raumschiffe müssten gebaut werden, damit die Hauptbasis als Relaisstation für die neuen Basen dienen kann, da eine Direktverbindung zur Erde immer aufwendiger würde, je größer die Entfernung wird. Eventuell könnte man auch die Objekte in den Oortschen Wolken zum Bau von Relaisstationen verwenden, um die Sendeleistung zu reduzieren und die Übertragungsgeschwindigkeit zu erhöhen, oder man plaziert Relaisstationen in den Brennpunkten der Sterne, um den Gravitationslinseneffekt auszunutzen. Über zahlreiche Relaisstationen könnten eines Tages sogar Daten vom anderen Ende der Milchstraße empfangen werden, allerdings wären diese dann fast 80000 Jahre unterwegs. Außerdem würde es wahrscheinlich mehrere Millionen Jahre dauern, bis alle 100 Milliarden Sterne in unserer 100000 Lichtjahre großen Galaxie erreicht und an das Kommunikationsnetz angeschlossen worden sind.

Erforschung fremder Lebensformen

Bei der Erforschung eines Planetensystems sind natürlich besonders die Himmelskörper interessant, auf denen Leben existiert kann oder einmal existiert haben kann. Hier wird man besonders gründlich nach Spuren von Leben suchen. Die größte Aufmerksamkeit wird einem Planet oder Mond dann zuteil, wenn tatsächlich aktives Leben gefunden wird. In dem Fall wird man überall auf der Oberfläche verteilt Forschungsstationen einrichten, um das Leben in seiner ganzen Vielfalt genauestens zu untersuchen. Solange es sich um primitives Leben wie Bakterien handelt, muss man dabei nur achtgeben, dass die Umwelt dadurch nicht beeinträchtigt wird und dass keine ev. im Rahmen der Erforschung veränderte Organismen ins Freie entkommen und dort die Evolution beeinflussen können. Ziel wird in der Regel sein, den Lauf einer ungestörten Evolution über einen langen Zeitraum zu beobachten und zu dokumentieren. Natürlich kann es auch Ausnahmen geben. Wenn ein Planet für eine menschliche Besiedlung geeignet ist und das Leben bereits eine Sauerstoffatmosphäre erzeugt hat, aber anderseits noch so primitiv ist, dass in der verbleibenden Lebenszeit des Zentralsterns nicht mehr mit einer wesentlichen Weiterentwicklung zu rechnen ist, dann könnte man hier eine irdische Flora und Fauna implantieren. Dazu könnte man alle nötigen Gensequenzen entweder aus dem Datenspeichern des Mutterschiffs benutzen, oder sie werden über die interstellaren Sender übermittelt. Per Nanotechnik würden geeignete Sporen, Samen und Eizellen zusammengebaut, die DNA synthetisiert und eingebaut. Für Eizellen müssten noch geeignete Inkubatoren gebaut werden, in denen sich die Embryos entwickeln können. Natürlich müsste das alles nach einem sorgfältig ausgearbeiteten Plan geschehen, da die meisten Lebewesen von anderen abhängig sind und das komplizierte irdische Ökosystem Schritt für Schritt aufgebaut werden muss. Aber wenn das gelingt, könnten schließlich in derselben Weise auch menschliche Embryonen erzeugt werden. Die daraus entstandenen Säuglinge würden dann von menschenähnlichen Robotern aufgezogen und ausgebildet werden. Auf diese Weise könnte auch dann menschliches Leben zu dem Sternen gebracht werden, wenn eine bemannte interstellare Raumfahrt nicht möglich ist.

Dort, wo aber bereits höher entwickeltes Leben entdeckt wurde oder gar erste Spuren von Intelligenz, verbieten sich solche Überlegungen. Wo es bereits Lebewesen mit Augen gibt, muss die zur Beobachtung verwendete Technik unsichtbar oder zumindest unauffällig für diese Augen sein, um keinen unerwünschten Einfluss auf das Verhalten und die Entwicklung auszulösen. Größere Einrichtungen müssten unter der Oberfläche errichtet werden, oder man ahmt natürliche Formen so perfekt nach, dass keinem Tier etwas Ungewöhnliches auffällt. Kleinere nanotechnische Einheiten oder Roboter (Nanobots) könnten so klein sein, dass sie von organischen Augen gar nicht wahrgenommen werden können. In Vorbereitung auf den Tag, dass weiter entwickelte Wesen irgendwann anfangen, Mikroskope zu bauen, könnte man den Nanobots die äußere Gestalt von natürlich vorkommenden Mikroben geben.

In der Form könnten die Nanobots auch in die Körper vor allem der tierische Lebewesen eindringen. Um nicht vom Immunsystem angegriffen zu werden und so unerwünschte Entzündungsreaktionen auszulösen, müssten die Nanobots nach außen hin wie körpereigene Zellen wirken. So könnten man die Lebewesen auch von innen erforschen, ohne sie in irgend einer Form zu beeinträchtigen. Außerdem könnte ein kleiner Teil der Nährstoffe zur Energieversorgung der Nanobots abgezweigt werden, so dass stets genügend Energie für alle Aktionen vorhanden ist, ohne auf Sonnenlicht oder externe Treibstoffdepots angewiesen zu sein. Schließlich wäre eine nukleare Energiequelle im Nanomaßstab kaum vorstellbar - die Abschirmung von harter Strahlung und hohen Temperaturen erfordert eben ein Mindestmaß an Masse und Volumen.

Von besonderem Interesse wären natürlich die Gehirne. Getarnt als Hilfs- oder Versorgungszellen könnte die Aktivität von Nervenzellen überwacht werden und die Verknüpfungen der Neuronen untereinander analysiert werden, vorausgesetzt, die Lebewesen haben auch ein auf Neuronen basierendes Informationsverarbeitungssystem entwickelt. So könnten schließlich komplette Schaltpläne von lebenden Gehirnen rekonstruiert werden. Weiterhin könnten die Sinnesorgane der Tiere angezapft  werden, vor allem die Augen und Ohren. Denn ein einzelner Nanobot wäre so gut wie blind, da die Gesetze der Optik leistungsfähige Kameras im Nanomaßstab nicht zulassen. So aber hätte man über den gesamten Planeten verteilt eine gewaltige Anzahl an Beobachtungseinheiten, ohne dass selbst dem aufmerksamsten Beobachter etwas Ungewöhnliches auffallen würde. Um Tiere an einen bestimmten Ort zu bringen, könnten Neuronen auch gezielt stimuliert werden. Solange dies spärlich eingesetzt wird und innerhalb der Bandbreite natürlicher Verhaltensweisen bleibt, wird dies auch keine negativen Folgen haben.

Früher oder später müsste man auch auf intelligente Wesen stoßen, die bereits eine komplexe Sprache entwickelt haben und in der Lage sind, eine Zivilisation aufzubauen. Hier wäre dann besondere Sorgfalt geboten. Wenn ein Tier einen fremdartigen Gegenstand entdeckt, wird es ihn entweder ignorieren oder ängstlich, aggressiv oder neugierig darauf reagieren, aber es kann seine Erfahrung nicht weiter geben, so das dass Ausmaß der Störung stets gering bleibt. Anders sieht es aus bei sprachbegabten Wesen. Sie können die Erfahrungen weitergeben. Und je ungewöhnlicher die Erfahrung ist, desto weiter breitet sie sich aus und umso größer sind die Auswirkungen. Noch schwieriger wird es, wenn komplexe Werkzeuge zur Erforschung der Umbebung entwickelt werden wie Mikroskope und Teleskope, wenn die der Natur zugrundeliegenden Gesetze erkannt werden und die verschieden Naturerscheinungen eine wissenschaftliche Erklärung finden. Dann wird alles, was diesen Gesetzen zu widersprechen scheint, höchste Aufmerksamkeit erregen. Würde ein Astronom ein Objekt entdecken, dessen Bewegungsmuster auf einen Antrieb schließen lässt, oder gar ein Biologe unter dem Mikroskop künstliche Nanobots finden und isolieren, hätte das unabsehbare Folgen für die gesamte Zivilisation. Ganze Weltbilder würden ins Wanken geraden und die weitere Entwicklung in eine neue Richtung lenken.

Eine solche Störung gilt es unbedingt zu vermeiden. Ein wichtiges Element ist die Tarnung. Ohne nähere Untersuchung dürfen die fremden Elemente nicht von natürlich vorkommenden zu unterscheiden sein. Mit zunehmender Entwicklung von Wissenschaft und Technik wird eine Entdeckung aber nicht immer vermeidbar sein. Wenn aber jedes dieser Wesen schon bei seiner Geburt Nanobots im Körper trägt, dann bietet sich eine weitere Möglichkeit, Störungen zu verhindern. Dazu müssten die Nanobots direkten Einfluss auf das Gehirn nehmen. Das könnten sehr geringfügige Einwirkungen sein, wie leichte Ablenkung der Aufmerksamkeit oder leichter Einfluss beim Treffen einer Entscheidung. Es könnte aber auch in die Verarbeitung von Sinneseindrücken eingegriffen werden, um Illusionen zu erzeugen. Ein Eingriff in das motorische System könnte zu einer Ungeschicklichkeit führen, die zur Zerstörung von Beweisen führt. Dann könnten Gedächtnisinhalte im Nachhinein verändert werden. Es könnte eine Bewusstseinstrübung erzeugt werden und der Körper eine Zeit lang fremdgesteuert werden, um alle verdächtigen Spuren und Aufzeichnungen zu beseitigen, ohne dass eine Erinnerung daran zurückbleibt. Auf diese Weise könnte also immer sichergestellt werden, dass niemand etwas entdeckt, was er nicht entdecken soll, und zwar unabhängig vom Entwicklungsstand von Wissenschaft und Technik.

Unsterblichkeit

Allerdings - bis auf diese Weise die erste außerirdische Zivilisation entdeckt wird, werden wahrscheinlich noch viele Jahrhunderte vergehen. Die Entwicklung der Menschheit wird bis dahin einen Stand erreicht haben, den wir uns heute kaum vorstellen können. Aber eine Voraussage dürfte mit nahezu Sicherheit eingetreten sein: Der natürliche Tod infolge Alter oder Krankheit wird besiegt sein. Wie genau das erreicht wird, dafür gibt es verschiedene Möglichkeiten.

In den letzten Jahrzehnten hat sich die Lebenserwartung in den Industrieländern pro Jahrzehnt um etwa 2,5 Jahre erhöht. Die medizinische Forschung findet immer neue Heilungsmöglichkeiten für Krankheiten. Durch das zunehmende Verständnis des menschlichen Genoms und neue Erkenntnisse in der Biochemie werden immer mehr Faktoren gefunden, die für das Altern maßgeblich sind. In Tierexperimenten hat man bereits einzelne Faktoren ausschalten können und so das Leben der Tiere deutlich verlängern können. Es gibt auch primitive Organismen, die überhaupt nicht altern, daher kann davon ausgegangen werden, dass das Altern keine biologische Notwendigkeit ist. Allerdings funktioniert die Evolution am besten, wenn es eine möglichst schnelle Abfolge von Generationen gibt. Für die Ansammlung von Wissen und Erfahrung und die Entwicklung der menschlichen Kultur ist dagegen eine hohe Lebensspanne vorteilhaft. Daher ist unsere Lebenserwartung einfach der Kompromiss, den die Evolution gefunden hat und keine unabänderliche Größe. Werden also sämtliche Altersfaktoren ausgeschalten und zuverlässigen Heilverfahren für Krankheiten wie Krebs, Herz-Kreislauf-Erkrankungen, Demenz und verschiedene Degenerationserkrankungen gefunden, kann die mögliche Lebensspanne nahezu beliebig ausgedehnt werden.

Eine weitere Möglichkeit bietet eine Nanotechnologie. Im Blutstrom schwimmende Nanobots könnten in der Lage sein, alle Defekte im Körper zu reparieren. Nanobots im Gehirn könnten die Funktion ausgefallener Neuronen übernehmen. Im Laufe der Zeit könnte das Gehirn immer mehr künstliche Anteile enthalten bis zu dem Punkt, an dem die verbliebenen biologischen Anteile für den Denkprozess keine relevante Rolle mehr spielen. Damit wäre auch ein biologischer Körper zur Versorgung des Gehirns nicht mehr erforderlich, das Gehirn könnte ebenso einen komplett künstlichen Körper steuern. Schließlich könnte die komplexe Verschaltung des Gehirns als Datensatz auf einem externen Medium abgespeichert werden. Damit wäre selbst bei einem Defekt des Gehirns oder seiner der Zerstörung durch Unfall oder Gewalt nichts verloren. Aufgrund es gespeicherten Datensatzes könnte das Gehirn wieder identisch wiederhergestellt werden. Wahrscheinlich wäre es aber sinnvoller, den Datensatz in eine Emulation zu verwandeln, die auf einer Standard-Hardware laufen kann, die dem jeweiligen Stand der Technik entspricht. Dies hätte auch den Vorteil, dass die Leistungsfähigkeit des Gehirns ständig zunehmen könnte.

Ein weiterer Aspekt sind virtuelle Welten. Bereits heute gibt es hier interessante Ansätze, sei es in aufwendigen 3D-Computerspielen, digitale Nachbildungen von Museen, Gebäuden oder ganzer Stadtteile oder künstlicher Alternativwelten wie Second Life. Begeisterte Computerspieler tauchen oft für viele Stunden am Stück in die künstlichen Welten ein, obwohl das Interface per Monitor, Maus und Tastatur oder Gamepad alles andere als perfekt ist und mit der Zeit zu Verspannungen, Schmerzen und Augenbrennen führen kann. Mit einer guten 3D-Brille samt Lage- und Bewegungssensor kann die virtuelle Welt so eindrucksvoll wiedergegeben werden, dass man sich tatsächlich in eine andere Welt versetzt fühlt. Allerdings muss die Darstellung schon sehr gut sein und ohne merkliche Verzögerungen und Unschärfen allen Kopfbewegungen folgen, um nach einer Zeit keine Übelkeit auszulösen. Aber auch hier wird es ständige Verbesserungen geben. In Zukunft wird es virtuelle Welten geben, die an Größe und Vielfalt mit der realen Welt nicht nur gleichziehen können, sondern sie noch weit übertreffen. Denn abgesehen von der Rechenleistung und Speicherkapazität der Hardware ist sie nur durch die Kreativität, die Fantasie und das Vorstellungsvermögen ihrer Designer begrenzt, auf Naturgesetze und natürlichen Gegebenheiten muss keine Rücksicht genommen werden. Wenn die virtuellen Welten weit bunter und interessanter wären als die oft triste Wirklichkeit, sind es manchmal womöglich nur die drängende Bedürfnisse des Körpers, die eine Rückkehr in die Realität erzwingen.

Wenn ein Gehirn teilweise oder vollständig aus technischen Komponenten besteht, dann gäbe es auch eine perfekte Schnittstelle zu den virtuellen Welten. Eine virtuelle Nachbildung der realen Welt würde sich dann so real anfühlen, dass man keinen Unterschied zur realen Welt bemerken würde. Ist der eigene Körper bereits komplett durch einen künstlichen ersetzt worden, kann man diesen auch für längere Zeit in einen Ruhezustand versetzen, ohne dass er Schaden nimmt, so dass die Verweildauer in den virtuellen Welten kaum noch begrenzt ist. Viele werden irgendwann ganz auf einen privaten Körper verzichten und für die wenigen Fälle, die ein Verweilen in der realen Welt erforderlich machen, einen Mietkörper verwenden. Schließlich verursacht ein Körper Kosten, er muss gepflegt und gewartet werden, benötigt Kleidung und Wohnraum, verbraucht Energie und ist irgendwann so verschlissen, dass er durch einen neuen ersetzt werden muss. Dafür braucht man aber reales Geld, das in einem realen Job verdient werden muss. Diese könnten aber in einer übervölkerten und robotisierten Welt rar werden. Und je mehr Menschen auf einen eigenen Körper verzichten, umso kleiner werden die durch Überbevölkerung verursachten Probleme, solange nur die Leistungsfähigkeit der Computersysteme schneller wächst als die Bevölkerung. Wenn eine Bevölkerung aber problemlos nahezu unbegrenzt wachsen kann, dann hat der Tod sein wichtigstes Argument verloren, nämlich Platz zu schaffen für nachfolgende Generationen. Damit gäbe es keinen Grund mehr, warum ein Mensch überhaupt noch sterben sollte, es sei denn, er will es so. Allerdings würden Menschen mit Todessehnsucht früher oder später aussterben. Irgendwann wäre der Tod eines vernunftbegabten Wesens nur noch eine Obszönität aus ferner Vergangenheit.

Wenn Menschen in diesem Stadium irgendwo im Weltraum auf andere vernunftbegabte Wesen stoßen und mitverfolgen, wie sie leben, zu Persönlichkeiten heranreifen, Wissen und Erfahrung erwerben, um dann zu verfallen und sterben, wie würden sie reagieren? Es ist anzunehmen, dass die Menschheit bis dahin auch ethisch-moralisch weit fortgeschritten ist. Wenn es keinen Kampf ums Überleben und um lebenswichtige Ressourcen mehr gibt, kann man sich wesentlich höhere Grundsätze leisten. Wenn heute irgendwo auf der Welt eine Naturkatastrophe stattfindet oder eine Seuche ausbricht, sind viele bereit zu helfen, möglichst viele Menschenleben zu retten, manchmal auch unter Einsatz des eigenen Lebens. Da spielt es auch keine Rolle, wenn die anderen eine andere Hautfarbe, eine andere Kultur oder einen anderen Glauben haben. Internationale Hilfsorganisationen sind eine Erfindung der Neuzeit, so etwas gab es früher nicht. Diese positive Entwicklung scheint eine Begleiterscheinung des Fortschritts zu sein, daher ist nicht zu erwarten, dass sich die Entwicklung wieder umkehrt und die Menschen gleichgültig gegenüber dem Schicksal anderer werden.

Warum sollte also eine unsterbliche Menschheit gleichgültig zuschauen, wie andere vernunftbegabte Wesen einfach so sterben und dabei alles unrettbar verloren geht, was sie ausgemacht hat. Vor allem dann, wenn eine Rettung weder Aufwand noch Kosten verursacht, wenn nur eine entsprechende Anweisung über die Lichtjahre überspannenden interstellaren Sender übermittelt werden müsste?  Andererseits darf man aber nicht einfach in die Entwicklung dieser Wesen eingreifen und ihnen unsere Technologie vermitteln. Der Kulturschock wäre gewaltig und alle Chancen auf eine eigenständige Entwicklung wären dahin. Allerdings ist das ja gar nicht nötig. Wenn ihre Gehirne bereits Nanobots irdischer Technologie enthalten, so können diese auch alle gemachten Erfahrungen und alles erworbene Wissen aufzeichnen. Die komplette Gehirnstruktur und ihre Veränderung im Laufe des Lebens könnte aufgezeichnet werden und an einem Ort außerhalb es Körpers gespeichert werden. Wenn solch ein Wesen dann stirbt, könnten die gesammelten Daten verwendet werden, um sein ursprüngliches Wesen zu rekonstruieren. Aber nicht die womöglich degenerierte und demente Version, die es womöglich an seinem Lebensende war, sondern eine Version, die die Gesamtheit aller Entwicklungsstufen und aller Erfahrungen und Erinnerungen in sich vereinigt. Wie genau das geschehen kann, da kann man nur spekulieren. Eine Möglichkeit wäre, den letzten klaren Zustand als Ausgangsbasis zu nehmen, dort verloren gegangene Gehirnstrukturen wiederherzustellen und mit eine großen Anzahl noch inaktiver Neuronen zu ergänzen und dann sämtliche im Leben gemachte Erfahrungen in chronologischer Reihenfolge in einem extremen Zeitraffer einzuspielen. Die neu eingefügten künstlichen Neuronen, die wesentlich schneller und leistungsfähiger sein müssten als die natürlichen, könnten all die neuen Informationen schnell genug abspeichern. Das Wesen würde den Prozess das als eine Art Lebensfilm erleben, bei dem das ganze Leben vor dem inneren Auge abläuft.

Dieses künstliche Gehirn würde man mit Input aus einer virtuellen Realität versorgen. Diese könnte zunächst ein Spiegelbild der näheren Umgebung des toten Körpers sein, um den Schock des Übergangs zu mildern. Hier könnte man dann eine Art Portal platzieren, durch das das Bewusstsein in die eigentliche, für es bestimmte Welt gelangt. Hier könnte dann die Begegnung mit den vor ihm Gestorbenen stattfinden. Ein gedanklicher Zugang zu einer Art Bibliothek oder Datenbank mit dem gesamten Wissen der Menschheit könnte ihnen nach und nach das fehlende Wissen vermitteln. Sie müssten nur eine Frage denken, und die Antwort würde in für sie verständlichen Gedankenbildern in ihrem Kopf entstehen. Der Preis wäre aber, dass sie keinerlei Kontakt zu ihren noch lebenden Artgenossen dürfen. Nur so könnte die weitere Entwicklung ungestört verlaufen. Um bei den Lebenden das Leid und die Trauer zu mildern, könnte aber einigen möglicherweise nach einem kurzen Blick in das Jenseits die Rückkehr gestattet werden, wobei sie aber nur den unkritischen Teil der Erinnerung daran behalten dürften. So könnte eine Hoffnung auf ein Leben nach dem Tod vermittelt werden, ohne dass es dafür einen unwiderlegbaren Beweis gäbe. Es bliebe jedem selbst überlassen, ob er daran glauben oder es als typische Halluzinationen in Todesnähe abtun will.

Galaktische Infrastruktur

Damit hätte die interstellare Raumfahrt nicht nur den Zweck, Informationen zu sammeln und ev. zur Kolonisierung geeignete Planeten zu finden, sondern auch, eine galaxisweite jenseitige Welt zu schaffen, in der auch alle diejenigen vernunftbegabte Wesen nach ihrem Tod weiterleben können, die aus eigener Kraft noch nicht dazu in der Lage sind.

Allerdings, wer immer die Kontrolle über eine solche Technologie hat, hat auch eine enorme Macht. Wie sollte verhindert werden, dass die Kontrolle in falsche Hände gerät? Oder dass man komplett die Kontrolle darüber verliert? Ein Alptraum wäre eine mutierte, völlig aus der Kontrolle geratene Technologie, die ein Sternensystem nach dem anderen infiziert und sich dort so lange vermehrt, bis alle Ressourcen aufgebraucht sind und eine lebensfeindliche Technikwüste übrigbleibt. Bevor also ein Raumschiff mit selbstreplizierender Nanotechnik das Sonnensystem verlässt, muss man absolut sicher sein, dass dieses Szenario nicht Wirklichkeit werden kann. Schließlich hätte man aus vielen Lichtjahren Entfernung außer steuernde Funksignale keine Einflussmöglichkeiten mehr. Wenn alle Kommandos ignoriert würden, bliebe nur noch, neue Raumschiffe zu entsenden. Bis diese nach vielen Jahrhunderten einträfen, wäre es wahrscheinlich längst zu spät, um noch etwas zu retten.

Daher muss ein System grundsätzlicher Gesetze und Regeln ersonnen werden, welches tief in der Technik eingebettet werden muss, so tief, dass jede Verletzung die sofortige Funktionsunfähigkeit oder gar Selbstzerstörung zur Folge haben muss. Ein ausgeklügeltes System zur Selbstüberwachung müsste z. B. über verschiedene Prüfsummen erkennen, ob sich irgendetwas an dem Speicherinhalt geändert hat, der diese grundlegenden Gesetze und deren Überwachung enthält. Ausgefeilte Fehlerkorrektur-Algorithmen müssten dafür sorgen, dass auch nach der millionsten Kopie die Wahrscheinlichkeit eines Kopierfehlers extrem unwahrscheinlich bleibt. Hier liegt dann auch der Unterschied zu rein biologischen Systemen, bei dem Fehler nur erkannt und korrigiert werden können, wenn der entsprechende komplementäre Teil der Doppelhelix unbeschädigt bleibt und bei dem Fehler im Moment der Kopiervorgangs, wenn die komplementären DNA-Stränge getrennt sind, oft gar nicht mehr erkannt werden.

In unzähligen Simulationen müsste nun nachgewiesen werden, dass selbst die massivsten Angriffe und unwahrscheinlichsten Zufälle zu keinem unkontrollierbarem Zustand führen können. Als zusätzliche Sicherheit könnte noch ein separates Immunsystem eingeführt werden. Dieses wäre ausschließlich dazu da, die Einhaltung der grundsätzlichen Gesetze zu überwachen und alles zu attackieren, was diese Gesetze verletzt. Dies soll dann vor allem vor gezielten Manipulationen schützen. Denn wenn zusätzlich zu den Grundgesetzdaten auch alle Prüfsummen und Vergleichsmuster passend verändert würden, würden alle Selbsttests zu dem Ergebnis kommen, dass alles in Ordnung ist. Daher ist eine externe Überwachungsinstanz nötig. Außerdem wäre dieses Immunsystem auch ein Schutz vor völlig andersartiger Technik, sei sie nun von Menschen geschaffen oder von einer nicht menschlichen Intelligenz. In dem Fall müsste eine Ausbreitung unbedingt verhindert werden, solange nicht gründliche Untersuchungen genauesten Aufschluss über die Natur und die Absicht dieser fremden Technik erbracht haben und eine autorisierte Entscheidung gefallen ist, wie damit weiter zu verfahren ist.

Wenn sich diese Technologie immer weiter ausbreitet, hätte man schließlich eine versteckte Infrastruktur, die sich über die gesamte Galaxie erstreckt. Wer immer die Kontrolle darüber hat, besitzt große Macht. Er könnte Krankheiten heilen, Katastrophen verhindern und jedes gewünschte Objekt produzieren. Es werden also genaue Regeln aufzustellen sein, wer im welchem Grad Kontrolle über diese Infrastruktur ausüben kann, von wem die Infrastruktur überhaupt Befehle entgegennimmt und welche Befehle jeweils gestattet sind. Hier muss ausgeschlossen werden, dass die damit verbundene Macht jemals missbraucht werden kann und zum Schaden von vernunftbegabten Wesen eingesetzt wird. Da sich diese Infrastruktur auch in Bereichen ausbreiten wird, die zigtausend Lichtjahre von einer menschlichen Zivilisation entfernt sind, und man auch nicht ausschließen kann, dass die Menschheit irgendwann nicht mehr existiert, wäre es sehr egoistisch, die Kontrolle einzig den Menschen vorzubehalten. Wenn nichtmenschliche Intelligenzen die nötige Voraussetzungen erfüllen, sollte man auch ihnen in ihren eigenen Territorien einen begrenzten Zugang zu den Möglichkeiten der galaxisweiten versteckten Infrastruktur geben.

Zukunft oder Vergangenheit?

Das bringt uns zu einer  Möglichkeit, die alle gemachten Vorhersagen über die interstellare Raumfahrt ins Wanken bringt. Was ist, wenn nicht wir die Ersten sind?

Die Milchstraße enthält 100 Milliarden Sterne, und ein Großteil besitzt auch erdähnliche Planeten, auf denen Leben möglich ist. Und viele davon sind wesentlich älter als die Erde. In nur 13 Lichtjahren Entfernung hat man den Planeten Kapteyn b entdeckt, der in einer Temperaturzone liegt, die flüssiges Wasser und damit Leben erlaubt. Mit 11,5 Milliarden Jahren ist er 2,5-mal so alt wie die Erde. Wenn es also bereits in 13 Lichtjahren Entfernung einen so alten Planeten mit flüssigem Wasser gibt, dann muss es in der hunderttausend Lichtjahre durchmessenden Milchstraße viele Millionen derartiger Planeten geben.

Es hat den Anschein, dass wo immer Leben möglich ist, es dort auch irgendwann existiert. Man hat schon Leben bei Temperaturen von über 100° C gefunden, in giftigen Salzseen und im Gestein kilometertief unter der Erde. Auf der Erde ist das Leben zum frühest möglichen Zeitpunkt aufgetaucht, an dem Leben überhaupt möglich war, und zwar in einer so großen Masse, dass es geologische Spuren hinterlassen hat, die noch heute sichtbar sind. Das lässt es unwahrscheinlich erscheinen, dass die Entstehung von Leben ein extrem unwahrscheinlicher Glücksfall war, wie er nur einmal im Universum aufgetreten ist. Wenn man aber annimmt, dass die Gesetze in unserem Universum eben so sind, dass unter bestimmten günstigen Umständen früher oder später Leben entstehen muss, dann kann man davon ausgehen, dass die meisten der Milliarden erdähnlichen Planeten in unserer Galaxie auch Leben enthalten und ein Teil davon wesentlich älter als die Erde ist. Somit ist auch anzunehmen, dass sich auf vielen davon auch intelligentes Leben entwickelt hat, und das teilweise Milliarden Jahre vor dem Auftauchen des Homo sapiens.

Nun ist aber nicht einzusehen, warum ein Teil davon nicht eine ähnliche Entwicklung gemacht hat wie die Menschheit, ähnliche Ideen hat und über ähnliche Neugier und Entdeckungsfreude verfügen wie die Menschen. Im Prinzip genügt nur eine einzige Spezies, die in der Milchstraße Raumsonden mit selbstreplizierenden Einheiten auf den Weg bringt, und in wenigen Millionen Jahren wäre die ganze Galaxie davon durchdrungen. Wenn dies schon vor 4,5 Milliarden Jahren geschehen wäre, hätte diese Spezies die Entstehung unseres Sonnensystem aus nächsten Nähe verfolgen können. Mit hoher Wahrscheinlichkeit konnten sie aber die Blütezeit der Dinosaurier und ihr plötzliches Aussterben beobachten.

Falls die Entstehung von intelligentem Leben doch weit unwahrscheinlicher ist als gedacht, besteht natürlich auch die Möglichkeit, dass Expansion von einer anderen Galaxie oder, falls wir in einem Multiversum leben, gar von einem anderen Universum ausging, aber dies setzt Annahmen voraus, deren Wahrscheinlichkeit nicht abzuschätzen ist. So ist das Wahrscheinlichste und Plausibelste die Annahme, dass eine Intelligenz aus unserer Galaxie das Rennen gemacht hat. Und dass es sich dabei nicht um Wesen mit einem rücksichtslosen Kolonisierungsbestreben handeln kann, zeigt schon die Tatsache unserer Existenz. Andernfalls wäre ein so lebensfreundlicher Planet wie die Erde schon zu der Zeit von Aliens in Besitz genommen worden, als sich gerade erst die Sauerstoffatmosphäre gebildet hat. Damit wäre die irdische Biologie von einer viel weiter entwickelten fremden Biologie verdrängt worden und der Mensch wäre nie entstanden. Aber, wenn der Mensch in einem Entwicklungszustand, an dem es nicht mehr um das nackte Überleben geht, ein Bewusstsein dafür einwickeln kann, dass es besser ist, die Natur zu schützen statt rücksichtslosen Raubbau zu betreiben, so kann man diese Einsicht auch weiter fortgeschrittenen Aliens zugestehen.

Wenn unsere Galaxis aber schon von einer Alientechnologie durchdrungen ist, so dürfte die geschilderte Expansion irdischer Technologie in die Milchstraße so nicht mehr stattfinden können. Dennoch wäre dieses Szenario dann nicht komplett hinfällig. Nur die Rollen wären vertauscht und die Entwicklung läge nicht in der Zukunft, sondern in der Vergangenheit. Dann wäre die Entwicklung des Lebens auf der Erde das Langzeit-Forschungsprojekt einer fremden Intelligenz, welches mit dem Auftritt des Menschen und der Entwicklung einer Zivilisation plötzlich ungemein interessant wurde. Vielleicht wird ihre Präsenz auch durch eine Art Nanotechnologie verschleiert, wie wir sie in den nächsten 100 Jahren entwickeln können. Dann wäre sie aber bereit sehr viel weiter entwickelt und damit effizienter und schwerer zu entdecken. Vielleicht kommt aber eine noch weit fortschrittlichere Technologie zum Einsatz, die unser derzeitiges Vorstellungsvermögen sprengt. Letztlich macht es keinen Unterschied: Wenn sie nicht wollen, dass wir sie entdecken, werden wir sie auch nicht entdecken, selbst wenn ihre Technologie um uns und in uns ist. So wie bereits mit vertauschen Rollen beschrieben, müssten sie auch in der Lage sein, uns ein Weiterleben nach dem Tod zu ermöglichen. Was einem Neurowissenschaftler als Ding der Unmöglichkeit erscheinen muss - dass das menschliche Bewusstsein nach dem Absterben des Gehirns in irgendeiner Form weiter existieren könnte - hier wäre eine schlüssige Erklärung dafür, ganz ohne Metaphysik oder dem Übernatürlichen.

Auch wenn das gesamte Szenario phantastisch anmuten mag, jeder Teilaspekt davon besitzt eine durchaus hohe Wahrscheinlichkeit, beruht auf aktuellen wissenschaftlichen Erkenntnissen und setzt eine Technologie voraus, wie auch wir sie innerhalb von 100 Jahren entwickeln können. Eine wesentlich höher entwickelte Technologie ist zwar nützlich, aber nicht zwingend erforderlich, um das Szenario schlüssig zu entwickeln. Ob dieses mögliche und auch wahrscheinliche Szenario aber auch der Realität entspricht, dafür gibt es leider keine Beweise. Aber vielleicht lassen sich Hinweise finden, sei es in den Religionen, in Nahtoderfahrungen und in Berichten von Wundern - meist unerklärliche Heilungen. Immerhin träumen Zukunftsforscher bereits von im Blutstrom schwimmenden Nanobots, die alle Krankheiten heilen und Defekte reparieren können. Was heute wie ein Wunder aussieht, wäre für eine Nanotechnik eine Standardaufgabe. Und was Nahtoderfahrungen anbetrifft - diese durchaus häufige Erfahrungen als durch Sauerstoffmangel verursachte Halluzinationen abzutun, wäre sicher zu kurz gegriffen. Immerhin sind die Erfahrungen sehr intensiv und haben großen Einfluss auf das weitere Leben - das ist bei Halluzinationen normalerweise nicht der Fall. Auch die große Ähnlichkeit der Berichte trotz vielfältigem kulturellem und religiösem Hintergrund sollte einem zu denken geben.

Letztlich sind es aber nur Hinweise und keine Beweise. So bleibt es jedem selbst überlassen, ob er an ein Leben nach dem Tod glauben will. Aber es gibt keinen zwingenden Grund mehr, es nicht zu tun.

 Tilo Landsberger * Die Zukunft der Raumfahrt * 2014 * raumfz14 

Keine Kommentare:

Kommentar veröffentlichen