2001: A space odyssey, Robocalypse und die Singularität

Vielen dürfte der Scifi-Klassiker "2001: a space odyssey" von Stanley Kubrick ein Begriff sein. Dieser Film aus dem Jahre 1969 ist nach wie vor ein verstörender Klassiker des Genre, und nicht zuletzt einer der wenigen Filme, in denen der Weltraum korrekt dargestellt wird. So sind die Raumschiffe in den Außenaufnahmen völlig ruhig, jeder dürfte sich an den vordergründig freundlichen Megacomputer HAL-9000 mit dem roten Auge erinnern, die psychedelische Schlusssequenz sowie die Verwendung von klassischer Musik. Die Frage, auf die viele dabei keine Antwort finden, ist dabei allerdings diese: was, bitte, will mir der Film nun eigentlich sagen?

Kubrick selber äußerte sich dazu nur insofern, dass er sagte, man solle darüber denken, was man möge. Dementsprechend viele Interpretationen und Meinungen gibt es dazu. Die einfachste ist dabei diese, dass es dabei um den Aufstieg der Menschheit geht, seitdem sie Werkzeuge benutzt und das Verhältnis der Menschheit zu ihren Werkzeugen. In der Anfangsszene gibt es den Affen, der den Knochen als Werkzeug entdeckt. Das verschafft ihm einen evolutionären Vorteil und so beginnt der Aufstieg der Menschheit als den Planeten dominierende Rasse. Ebenso ist HAL-9000 ein Werkzeug, auf das der Mensch angewiesen ist, um in den Weltraum zu fliegen. Am Ende muss sich der Mensch aber gegenüber seinem Werkzeug emanzipieren, wenn er überleben will und seine Abhängigkeit gegenüber diesem aufbrechen, was nicht einfach ist, aber David Bowman gelingt. Soweit die Interpretation, sie ist schlüssig, es gibt noch andere.

Ein momentan aktueller Roman ist von David H. Wilson "Robocalypse." Die Kurzfassung dabei ist diese: Mensch erschafft überlegene künstliche Intelligenz, die KI entflieht irgendwann und zettelt einen Aufstand der Roboter gegenüber den Menschen an, führt einen Krieg gegen die Menschheit. Dazu setzt sie unter anderem humanoide Roboter ein und dezimiert fröhlich die Menschen, einige Menschen werden versklavt, zu Cyborgs gemacht und dienen den Maschinen. Am Ende verbünden sich einige Roboter mit den Menschen, finden irgendwo in Alaska den Systemkern der künstlichen Intelligenz Archos und zerstören diese. Soweit die grobe Handlung.

Die Story finde ich, ehrlich gesagt, wenig befriedigend. Das beginnt schon mit der künstlichen Intelligenz: gesetzt den Fall, eine solche entstünde wirklich, wieso sollte sie so dumm sein, nur einen festen Systemkern einnehmen zu wollen? Alles in der Welt ist heutzutage vernetzt und solch eine geballte Intelligenz würde sicherlich als verteiltes System mit mannigfachen Kopien von sich selbst existieren wollen. Skynet aus Terminator 3 lässt grüßen. Ja, das ist in der Tat näher an dem, was uns erwarten würde als das, was das Buch beschreibt.

Dann weiter: humanoide Killerroboter töten den Rest der Menschen. Wie veraltet bitte ist das denn? Sollte es wirklich zu so einer KI kommen, dann gibt es zig einfachere Wege, die Menschheit effektiv zu töten als solche Maschinen zu bauen. Beispielsweise könnte man ein Supergrippevirus im Labor erzeugen, das zu 100% tödlich ist und auf die Welt loslassen. Viren sind da sehr effektiv, nur haben in der Natur solche Viren keinen langen Bestand, weil wenn sie zu lethal sind, sie sich nicht wirklich verbreiten können. Aber es traten schon vereinzelt sehr tödliche Virenstämme auf, ein Virus ist vergleichsweise einfach erzeugt, das wäre ein viel logischerer Weg die Menschheit um die Ecke zu bringen als irgendwelche Killermaschinen zu bauen.

Killermaschinen machen Jagd auf die Menschen ist einfach nur so Terminator-like, veraltet, ein alter Hut von gestern. Und Menschen verbünden sich mit den Maschinen ist der üblich, triefende amerikanische Pathos, der manschen US-Autoren hinterher hängt. Liest sich schön, die Frage ist aber, ob solche Maschinen einen freien Willen sowie etwas wie Selbstbewußtsein hätten, um sich für eine Seite zu entscheiden.

Die Sache ist doch diese: der Mensch neigt dazu, jegliche Bedrohung zu humanisieren, nur eine Superintelligenz würde anders vorgehen als das, was da in diesem Buch zu lesen steht. Das Buch ist weder besonders originell noch bietet es wirklich neue Ideen, sondern so vorhersehbar wie ein Film von Roland Emmerich. Es wird damit seinem Hype absolut nicht gerecht.

Bei Kubrick dreht es sich ja vor allem darum, welche Art Beziehung der Mensch zu seinem Werkzeug hat, und dass er erst dann sich weiter evolvieren kann, als er den uralten Pakt mit dem Werkzeug auflöst. Der Sieg über die Maschine, das Abschalten von HAL-9000 - dem ultimativen Werkzeug und irgendwie menschlicher als alle Astronauten da - zeigt das deutlich.

Bei Robocalypse geht es dagegen stärker um die Folgen, was im Falle des Erreichens einer Singularität passieren könnte. Eine Singularität ist, wenn eine Maschine/KI ein Bewußtstein erreicht und sich danach ständig selbst verbessert.

Robocalypse liefert da üblichen Hollywoodklischeekram, der in Realität wohl kaum so passieren dürfte, ganz einfach weil eine Super-KI ganz anders handeln würde. Jedenfalls viel effektiver als "wir bauen möglichst humanoide Roboter und machen mit denen Jagd auf die Menschen", das steht fest.

Während bei 2001 es noch sich um die Emanzipierung vom Werkzeug dreht, ist bei Robocalypse ja eine Singularität erreicht. Das Buch ist aber total daneben, was in einem solchen Fall passieren dürfte, viel zu optimistisch eingestellt.

Die Grundfrage wäre ja: bräuchte eine solche KI den Menschen noch überhaupt? Wenn nein, ist die Wahrscheinlichkeit groß, dass sie uns höchst effizient um die Ecke bringt. Wenn ja, würde sie daran arbeiten, den Mensch überflüssig zu machen.

Physiker wie Stephen Hawking warnen jedenfalls vor dem Eintreten der Singularität und meinen, wir seien absolut nicht darauf vorbereitet. Solange nach wie vor solch verniedlichende Bücher wie Robocalypse darüber geschrieben werden bin ich der Meinung: der Mann hat Recht!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.