Werbung

Killerroboter ohne Kontrolle

Über 2500 Forscher zu Künstlicher Intelligenz warnen vor Waffenentwicklung

  • Von Moritz Wichmann
  • Lesedauer: 3 Min.

Bei uns droht die ABOkalypse!

Wir brauchen zahlende Digitalleser/innen.

Unterstütze uns und überlasse die Informationsflanke nicht den Rechten!

Mach mit! Dein freiwilliger, regelmäßiger Beitrag:

Was soll das sein

Wir setzen ab sofort noch stärker auf die Einsicht der Leser*innen, dass linker Journalismus auch im Internet nicht gratis zu haben ist – mit unserer »sanften« nd-Zahlschranke.

Wir blenden einen Banner über jedem Artikel ein, verbunden mit der Aufforderung sich doch an der Finanzierung und Sicherstellung von unabhängigem linkem Journalismus zu beteiligen. Ein geeigneter Weg besonders für nd-Online-User, die kein Abo abschließen möchten, die Existenz des »nd« aber unterstützen wollen.

Sie können den zu zahlenden Betrag und die Laufzeit frei wählen - damit sichern Sie auch weiterhin linken Journalismus.

Aber: Für die Nutzung von ndPlus und E-Paper benötigen Sie ein reguläres Digitalabo.

»Wir werden uns nicht an der Entwicklung, Herstellung, am Handel und an der Benutzung von tödlichen autonomen Waffensystemen beteiligen und rufen Technologiefirmen, Regierungen, Politiker und andere Menschen auf, es uns gleich zu tun.« Mit diesem Versprechen wenden sich mittlerweile über 2500 Wissenschaftler an die Öffentlichkeit. Ihr Aufruf wurde am Mittwoch am Rande der »International Joint Conference on Artificial Intelligence« ((IJCAI) in Stockholm vorgestellt. Bei der Konferenz in Schweden kommen bis zu 5000 führende Forscher*innen aus dem Feld künstliche Intelligenz (KI) zusammen.

Weil die Regierungen bisher keine einheitlichen Regeln zu einem Verbot solcher Systeme erlassen hätten, müsse man selbst tätig werden. Die Unterzeichner stammen aus 36 Nationen, unter ihnen finden sich neben Forschern und Professoren auch Prominente wie der langjährige KI-Kritiker Elon Musk. Unterzeichnet haben auch rund 170 Organisationen, zum Beispiel das University College of London und die IJCAI-Organisatoren der schwedischen KI-Gesellschaft sowie vor allem viele Firmen der Branche wie die Google-Tochter DeepMind.

Die Entwicklung autonomer Killerroboter ist längst keine Fantasie aus Terminator-Filmen mehr. In Zukunft könnten an Grenzen oder zu schützenden Einrichtungen feste automatische Verteidigungssysteme zum Einsatz kommen, während offensive Systeme Feinde etwa mit zunehmend autonomen Drohnen bekämpfen oder per Kampfrobotern auf dem Schlachtfeld angreifen können. Solche Waffensysteme werden derzeit offenbar von US-amerikanischen Rüstungsfirmen und in Russland entwickelt. Im vergangenen Jahr kündigte Israels Premierminister Benjamin Netanjahu außerdem an, dass sein Land Roboter in der Größe einer Fliege entwickele, um etwa Hamas-Führer anzugreifen. Die israelischen Roboter könnten demnach schon in drei Jahren einsatzbereit sein.

»Die Entscheidung, ein menschliches Leben zu beenden, sollte niemals an eine Maschine delegiert werden«, heißt es im Aufruf. Das sei eine moralische Frage. Autonome Waffensysteme seien ein »mächtiges Werkzeug der Gewalt und Unterdrückung«. Die Forscher fürchten sich vor den Entscheidungen autonomer Waffensysteme, für die niemand Verantwortung übernehme.

Doch es gebe auch ein »pragmatisches« Argument gegen den Einsatz autonomer Waffensysteme, heißt es in dem Aufruf. Sie könnten ganze Länder destabilisieren, wenn sie in einem unkontrollierten Rüstungswettlauf entwickelt und eingesetzt würden. Deswegen sollte die Verhinderung eines solchen Rüstungswettlaufs »hohe Priorität« in der internationalen Politik genießen. Gegenwärtig habe die internationale Staatengemeinschaft aber nicht die technischen Möglichkeiten und politischen Kontrollstrukturen, um ihre Entwicklung zu überwachen, heißt es weiter.

Die KI-Forscher verweisen darauf, dass mittlerweile 26 Staaten - überwiegend aus dem globalen Süden - einen Aufruf zum Verbot autonomer Waffensysteme unterzeichnet haben. Kritische KI-Forscher fürchten, dass autonome Waffensysteme schwierig zu kontrollieren und leichter zu hacken seien als andere Waffensysteme. Außerdem könnten sie einfacher für »bad actors« (gemeint sind damit beispielsweise Warlords) zum Einsatz gebracht werden. Die Unterzeichner der Erklärung wollen mit ihrem Appell weitere Staaten ermutigen, im Rahmen der Vereinten Nationen ein Verbot zu erwirken - das sei in der Vergangenheit schließlich auch für Chemiewaffen erreicht worden.

Bei den Vereinten Nationen wird seit Dezember 2016 über eine mögliche Regulierung autonomer Waffensysteme verhandelt. Bei der letzten Sitzung der zuständigen UN-Organisation stimmten immerhin knapp 30 Staaten einem zumindest teilweisen Verbot von autonomen Waffensystemen zu. Die nächste Verhandlungsrunde ist für den August geplant.

Die kritischen KI-Forscher wollen mit ihrem Appell erreichen, dass bei den Verhandlungen mehr Staaten ein Verbot unterstützen. Schon 2015 hatten über 1000 Forscher - darunter auch der weltbekannte Physiker Stephen Hawking - mit einem Brief ein Verbot von autonomen Waffensystemen gefordert. Die Aktivisten der Kampagne www.autonomousweapons.org verweisen darauf, dass bereits 1995 im Rahmen der Konvention zum Verbot konventioneller Waffen von 1980 ein Verbot von Lasern erreicht wurde, die Soldaten erblinden lassen sollen.

ndPlus

Ein kleiner aber feiner Teil unseres Angebots steht nur Abonnenten in voller Länge zur Verfügung. Mit Ihrem Abo haben Sie Vollzugriff auf sämtliche Artikel seit 1990 und helfen mit, das Online-Angebot des nd mit so vielen frei verfügbaren Artikeln wie möglich finanziell zu sichern.

Testzugang sichern!

Noch kein Abo?

Jetzt kostenlos testen!

14 Tage das »nd« gratis und unverbindlich als App, digital oder gedruckt.

Kostenlos bestellen