Werbung

Ingenieure gegen Diplomaten

Die Entwicklung autonomer Kampfroboter ist voll im Gange. Wer dies per Abkommen stoppen will, muss sich beeilen

  • Von Hans-Arthur Marsiske
  • Lesedauer: 5 Min.

Echt jetzt? Ihr wollt Geld von mir?

Ja, herrgottnochmal, es kostet!

Auch, wenn's nervt – wir müssen die laufenden Kosten für Recherche und Produktion decken.

Also, mach mit! Mit einem freiwilligen regelmäßigen Beitrag:

Was soll das sein

Wir setzen ab sofort noch stärker auf die Einsicht der Leser*innen, dass linker Journalismus auch im Internet nicht gratis zu haben ist – mit unserer »sanften« nd-Zahlschranke.

Wir blenden einen Banner über jedem Artikel ein, verbunden mit der Aufforderung sich doch an der Finanzierung und Sicherstellung von unabhängigem linkem Journalismus zu beteiligen. Ein geeigneter Weg besonders für nd-Online-User, die kein Abo abschließen möchten, die Existenz des »nd« aber unterstützen wollen.

Sie können den zu zahlenden Betrag und die Laufzeit frei wählen - damit sichern Sie auch weiterhin linken Journalismus.

Aber: Für die Nutzung von ndPlus und E-Paper benötigen Sie ein reguläres Digitalabo.

Tausende Experten fordern ein Verbot autonomer Waffen. Doch die diplomatischen Bemühungen dazu kommen nur langsam voran.

Ihr sei sehr daran gelegen, dass »es immer ein Mensch ist, der darüber entscheidet, ob eine Waffe ausgelöst wird oder nicht«. Worte von Bundesverteidigungsministerin Ursula von der Leyen, ausgesprochen im Juli 2014. Der Bundestag debattierte damals über bewaffnete Drohnen. Sie wolle sich daher für eine »völkerrechtliche Ächtung autonomer Waffensysteme« einsetzen.

In den eineinhalb Jahre seither haben weltweit Tausende Wissenschaftler eifrig daran gearbeitet, die Intelligenz von Robotern zu steigern. Das sind überwiegend zivile Forschungen: Denn wenn Maschinen zukünftig mehr und mehr komplexe Aufgaben übernehmen sollen, etwa Fahrzeuge sicher steuern, Pflegebedürftige betreuen oder im engen Kontakt mit Menschen in Werkstätten arbeiten, geht es nicht ohne stetig wachsende Autonomie. Wie aber soll diese wachsende Intelligenz auf Dauer von Waffen tragenden Robotern ferngehalten werden? Vor allem: Wann gelingt es, eine wirksame Grenze einzuziehen?

Vonseiten der Wissenschaft gab und gibt es dringende Mahnungen, die Entwicklung hin zu selbstständig agierenden Kampfrobotern ernst zu nehmen - und rechtzeitig Maßnahmen dagegen zu treffen. Ein Offener Brief, der ein Verbot autonomer Waffen fordert, wurde inzwischen von über 3000 Robotikforschern und mehr als 17 000 anderen Experten unterzeichnet, darunter Vertreter großer Konzerne wie Steve Wozniak von Apple, Elon Musk von SpaceX und Jaan Tallinn von Skype. Sie alle warnen: »Die Technologie künstlicher Intelligenz hat einen Punkt erreicht, der den Einsatz solcher Systeme innerhalb von Jahren möglich macht, nicht erst in Jahrzehnten.«

Daran hat Nir Halamish von der israelischen Militärforschungsbehörde MAFAT keinen Zweifel. Er erklärte unlängst, den militärischen Einsatz von Robotern in den kommenden fünf Jahren massiv ausbauen zu wollen - unter anderem durch unbemannte, bewaffnete Landfahrzeuge, die im Militär als Vorhut dienen könnten. »Wir werden viele neue Plattformen sehen, die in allen Dimensionen zum Einsatz kommen«, sagt auch Elad Aronson vom Rüstungskonzern Elbit Systems. Und: »Entscheidend ist es, die Systeme dahin zu bringen, dass sie 90 Prozent der Arbeit autonom ausführen.«

Wenn zu diesen 90 Prozent autonom ausgeführter »Arbeiten« nicht das Auslösen von Waffen zählen soll, ist es also höchste Zeit etwas zu unternehmen, meinen die Kritiker. Das Fenster für ein wirksames internationales Abkommen gegen autonome Waffensysteme steht nicht mehr lange offen.

Ein Sprecher des Auswärtigen Amtes, das bei der Bundesregierung für Rüstungskontrolle zuständig ist, verweist auf Nachfrage nach dem Stand der von Verteidigungsministerin von der Leyen vor Monaten angekündigten Initiative auf das UNO-Waffenübereinkommen CCW. In dessen Rahmen sei im Mai 2014 in Genf eine erste informelle Arbeitsgruppe unter französischem Vorsitz zusammengekommen, um »das Thema der Letalen Autonomen Waffensysteme (LAWS)« zu beraten. Die Bundesregierung hat die Arbeitsgruppe »durch die Entsendung nationaler Experten und die Übernahme des Co-Vorsitzes maßgeblich unterstützt«, eine Sitzung im April dieses Jahres fand unter deutschem Vorsitz statt. Dabei wurde erstmals ein substanzieller »Bericht zu LAWS« erstellt, der laut Ministerium »die unterschiedlichen Aspekte und Fragestellungen betrachtet (u.a. der definitorischen, technischen, völkerrechtlichen, militärischen, menschenrechtlichen und ethischen) und eine umfassende Basis für die weitere Behandlung des Themas bietet«.

Die Beratungen sollen im kommenden Frühjahr im Rahmen einer weiteren Expertengruppe fortgesetzt werden. »Dieses Treffen, das wiederum unter deutschem Vorsitz stattfinden wird, hat dabei die Aufgabe, für die Überprüfungskonferenz des UNO-Waffenübereinkommens, die im Dezember 2016 stattfindet, Konsensempfehlungen für die weitere Behandlung des Themas zu erarbeiten«, heißt es im Ministerium. Nach Einschätzung von Beteiligten hätten die bisherigen Diskussionen in Genf gezeigt, »dass es breite Übereinstimmung darüber gibt, dass der Mensch die Kontrolle über Entscheidungen zur gegen Menschen gerichteten Gewaltanwendung behalten muss«. Die Debatte, in der Detailfragen eine immer wichtiger Rolle spielen, werfe »aber immer wieder definitorische Fragen auf, zu denen unterschiedliche Positionen bestehen und zu denen auch in der Wissenschaft noch keine klaren Antworten existieren.« Da völlig autonome tödliche Waffensysteme bislang nicht existieren und nach dem derzeitigen Forschungsstand »ein Einsatz im Einklang mit dem humanitären Völkerrecht nicht möglich ist, stehen im Moment Fragen der Transparenz und Vertrauensbildung im Mittelpunkt, um mögliche Grenzüberschreitungen im Blick zu haben«, lautet die Auskunft.

Die Aussage, dass autonome tödliche Waffensysteme noch nicht existierten, ist allerdings umstritten und wird von der UNO-Arbeitsgruppe selbst angezweifelt. Sie verweist in einem Dokument ausdrücklich auf »seit Jahrzehnten« eingesetzte Waffen mit unterschiedlichen Graden von Autonomie bis hin zur »automatischen Auswahl und Bekämpfung der Ziele« in der Flugabwehr.

Die Arbeitsgruppe hat in dem Papier die wesentlichen Überlegungen zum Thema in 80 Paragrafen kompakt zusammengefasst, was in der Tat eine gute Arbeitsgrundlage bietet. Die entscheidende Frage dürfte sein, wie schnell die erwähnte »Vertrauensbildung« gelingt.

Denn die Technologie für autonome Kampfroboter ist da. Es geht nur noch darum, sie zu optimieren. Insbesondere das Zusammenführen von Mobilität und Intelligenz wird in den kommenden Jahren viele neue Einsatzfelder erschließen. Auch kriegerische.

Letztlich läuft es also auf ein Wettrennen hinaus, bei dem Ingenieure gegen Diplomaten antreten: Geht der Terminator als erstes durchs Ziel. Oder gewinnt das Abkommen, das seine Entwicklung verhindert? Noch ist der Ausgang offen, aber Ingenieure und Informatiker drücken aufs Tempo. In den kommenden fünf bis zehn Jahren könnten sie Tatsachen schaffen, die alle Bemühungen um Rüstungsbeschränkungen in diesem Bereich hinfällig machen.

Ohne Unterstützung werden die Diplomaten kaum mithalten können. Vertrauen wächst in diesem Bereich eher langsam. Eine Empfehlung im Genfer Bericht lautet daher, die Debatte auszuweiten - und die Zivilgesellschaft einzubeziehen. Es geht gewissermaßen um politisches Anfeuern: Vielleicht sollten sich die Gegner der Killerroboter anlässlich der nächsten Genfer Verhandlungsrunde im kommenden April etwas ausdenken.

Der Bericht der Genfer UN-Arbeitsgruppe im Internet: dasND.de/GenferAG

BGE_links

ndPlus

Ein kleiner aber feiner Teil unseres Angebots steht nur Abonnenten in voller Länge zur Verfügung. Mit Ihrem Abo haben Sie Vollzugriff auf sämtliche Artikel seit 1990 und helfen mit, das Online-Angebot des nd mit so vielen frei verfügbaren Artikeln wie möglich finanziell zu sichern.

Testzugang sichern!

Noch kein Abo?

Jetzt kostenlos testen!

14 Tage das »nd« gratis und unverbindlich als App, digital oder gedruckt.

Kostenlos bestellen