Sharkey: „Wir stehen an der Schwelle einer Revolution in der Kriegsführung“

Lesedauer: 5 Min
Noel Sharkey (Foto: privat)

Der führende britische Experte in Künstlicher Intelligenz , Noel Sharkey, lehrt an der Universität Sheffield. Nebenher kämpft Sharkey an der Spitze des Internationalen Komitees für Roboter-Rüstungskontrolle um ein Verbot der sogenannten „autonomen Waffen“. Unser Londoner Korrespondent Alexei Makartsev sprach mit ihm über die wachsende Gefahr für die Menschheit durch „dumme“ Kampfmaschinen.

SZ: Sie wollen die „Killer-Roboter“ bannen. Wie groß ist die Gefahr?

Sharkey: Binnen zehn Jahren soll die neueste Roboter-Generation einsatzfähig sein. Diese Waffen sind dazu fähig, nach dem Start selbstständig Ziele zu erfassen und zu vernichten – auch menschliche Ziele. Wir stehen damit an der Schwelle einer Revolution in der Kriegsführung, die mit dem Bau der Atombombe vergleichbar wäre. Wobei die Atomwaffen so mächtig sind, dass die Menschen sie nicht gegeneinander verwendet haben. Drohnen und andere Roboter sind gefährlicher: Sie können nicht ganze Länder zerstören, darum ist die Hemmschwelle niedriger.

SZ: Welche Szenarien stellen Sie sich vor?

Sharkey: Wenn beispielsweise ein Land autonome Waffen gegen ein anderes Land losschickt und jenes Land seine eigenen Roboter mobilisiert, könnte es schlimme Folgen geben. Da jede Seite nicht das Programm der gegnerischen Maschinen kennt, wird die Interaktion unvorhersehbar sein. Sie könnten auf eine Stadt abstürzen, Chaos anrichten und unschuldige Menschen töten. Aber auch wenn sie zufällig aufeinander treffen, könnte die Lage in einer Region so weit destabilisiert werden, dass es zu einem Krieg kommt ...

SZ: ... der für manche Militärs und Politiker akzeptabel wäre, weil man dabei kein eigenes Blut vergießt?

Sharkey: Genau. Einer der Hemmfaktoren für einen Krieg ist der Gedanke an die Leichen, die in Särgen nach Hause kommen werden. Mit Roboter-Soldaten wäre das kein Problem. Autonome Waffen sind der letzte Schritt in der Industrialisierung der Kriegsführung.

SZ: Könnten wir den Robotern beibringen, die Genfer Konvention zu befolgen?

Sharkey: Es gibt keinen Weg, um Killer-Robotern die Genfer Konvention beizubringen. Das ist aus heutiger Sicht unmöglich. Außerdem sind derartige Gesetze offen für Interpretationen, und ich weiß nicht, wie die Maschinen sie interpretieren sollten. Aber auch wenn es solche Ethik-Programme gäbe, die Maschinen könnten trotzdem kein vernünftiges Urteil fällen, weil ihre Erkennungssysteme nicht gut genug sind. Die Militärs schätzen Computer völlig falsch ein.

SZ: Es könnte schwierig werden, den Geist wieder in die Flasche einzuschließen, wenn sie erst einmal Milliarden Dollar dafür gezahlt haben.

Sharkey: Genau darum fordern wir ein Präventiv-Verbot von „autonomen Waffen“. Die Menschen erfinden seit dem Bau der Katapulte unaufhörlich neue Distanzwaffen. Aber wir müssen den Schluss-strich ziehen, bevor die Automatisierung vollendet sein wird. Sonst werden Roboterkriege in wenigen Generationen die Norm sein.

SZ: Generell gefragt: Werden die Roboter in Zukunft jemals so intelligent sein wie wir?

Sharkey: In den kommenden zehn Jahren deutet wirklich nichts darauf hin. Einer der am weitesten entwickelten Roboter kann heute gerade einmal ein Handtuch zusammenfalten. Er braucht dafür 25 Minuten. Aber man sieht daran, wie hoch die Hürden vor dieser Technologie sind. Dabei wird die Zahl der sogenannten Serviceroboter wachsen.

SZ: Haben Sie Roboter zu Hause?

Sharkey: Ja, etwa 40 Stück, aber ich nutze aktiv nur eine kleine Drohne, die HD-Videos auf mein iPhone überträgt. Außerdem kümmert sich ein Staubsauger-Roboter ums Saubermachen. Zum Glück will er mich nicht umbringen.

Ihr Kommentar wird nach einer kurzen Prüfung durch unsere Redaktion veröffentlicht.
Kommentare werden geladen
Mehr Themen