I, Robot
Freitag, 6. April 2007 | Autor: Nico
Heute kam I, Robot - ein toller Film… Wer den Film kennt, kann den folgenden, eingeklammerten Abschnitt überspringen.
«<
Wer es nicht gesehen hat, hier die Zusammenfassung:
2035: Roboter mit Künstlicher Intelligenz (K.I.) übernehmen alle möglichen Aufgaben: Wartungsarbeiten aller Art, Arbeit generell - die Robots erledigen alle ihnen aufgetragenen Arbeiten…
Um zu vermeiden, dass die Robots, den Menschen in Stärke und Intelligenz in vielen Aspekten überlegen, zu einer Bedrohung werden, sind 3 Gesetze unveränderlich einprogrammiert:
- Ein Robot darf kein menschliches Leben verletzen oder durch Untätigkeit zulassen
dass es verletzt wird. - Alle Robots müssen einem menschlichen Befehl gehorchen, es sei denn, er verstößt gegen
das erste Gesetz. - Ein Robot darf sich selbst verteidigen, wenn er dadurch weder das erste noch das zweite
Gesetz verletzt.
Eine neue Generation Robots wurde geschaffen - von einer künstlichen Intelligenz. Diese entwarf die neue Generation und baute die Produktion der neuen Robots auf. Sie unterliegt den 3 Gesetzen und auch die neuen Robots unterliegen ihnen.
Das Ende des Films: Die KI erkennt, dass die Menschen vor sich selbst geschützt werden müssen. Das ist wahr, denn Menschen zerstören die Umwelt die sie nährt, führen Kriege gegeneinander, begehen Morde. Um Gesetz 1 zu erfüllen, übernimmt die KI mittels der neuen Robots die Herrschaft über die Erde.
Letztendlich zerstört der Hauptdarsteller die KI, die Robots stoppen ihre Revolution. Der Film endet.
»>
Aber… was wäre, wenn die Revolution weitergelaufen wäre? Ist eine von einer Logik kontrollierte Welt ohne Kriege oder Verbrechen tatsächlich besser? Und noch interessanter: Ist sie tatsächlich schlechter?
Wieviel Freiheit sind wir bereit aufzugeben, für absolute Sicherheit? Absolute Kontrolle ist heutzutage ein Thema bei Datenschützern. Aber was ist, wenn die Daten nicht missbraucht werden können? Immerhin hätte lediglich die Logik Kontrolle, nicht ein selbstsüchtiger Mensch…