Künstliche Intelligenz

Killerformel F2T2EA

Künstliche Intelligenz ist auch fürs Militär attraktiv

Von René Heilig

Sophia klingt nett, SGR-A1 nicht. Sophia sagt: »Ich fühle mich geehrt von der Möglichkeit, Sie kennenzulernen.« SGR-A1 brüllt: »Hands up!« Sophia trägt heute einen blauen Blazer, SGR-A1 Maschinengewehre. Sophia suchte vor einigen Wochen in der Berliner St.-Elisabeth-Kirche freundlichen Blickkontakt mit Angela Merkel. SGR-A1 sucht an der Grenze zwischen Süd- und Nordkorea nach menschlichen Zielen. Sophia und SGR-A1 sind beide Roboter - und obgleich keineswegs die größten Leuchten am Automatenhimmel - mit KI, also Künstlicher Intelligenz »begabt«. Die ist so vielfältig wie die natürliche - und nicht weniger widersprüchlich.

Aber darum ging es bei der unlängst in Potsdam veranstalteten Kabinettsklausur nicht. Da wurde davon gesprochen, wie Künstliche Intelligenz Autos autonom lenken und wie sehr die Medizintechnik von klugen Robotersystemen profitieren kann. Deutschland will bis zur Mitte des kommenden Jahrzehnts drei Milliarden Euro aus Steuermitteln für die Entwicklung der Technologie bereitstellen, heißt es in der beschlossenen 80-seitigen Strategie. Das klingt gewaltig, ist jedoch relativ: Frankreich steckt bis 2023 1,5 Milliarden Euro in KI, China will sie bis 2030 mit 150 Milliarden Dollar fördern.

Warum, lässt sich aus einer Analyse des McKinsey Global Institute (MGI) ablesen. Laut der hat Künstliche Intelligenz ein größeres ökonomisches Potenzial als weiland die Dampfmaschine. Deren jährlicher Wachstumseffekt habe bei gerade einmal 0,6 Prozentpunkten gelegen. KI könne das globale Bruttoinlandsprodukt bis 2030 zusätzlich um 1,2 Prozent steigern. Da freuen sich Unternehmen wie Börsen gleichermaßen und verlangen »clevere Produkte«.

»Clever«? Dieses Wort kann auch »durchtrieben«, »heimtückisch«, »gerissen« bedeuten - wenn es darum geht, was sich Militärs und Geheimdienstler von KI erhoffen. Bruno Kahl, Chef des Bundesnachrichtendienstes, erbat sich von der nun einsetzenden Intelligenzförderung ein »großes Stück«. Mit Hilfe selbstlernender Systeme kann man die massenhaft abgefangenen Kommunikationsströme durchforsten, Verknüpfungen zu anderen Dateien herstellen, Analysen fertigen - und Gegenwirkungen initiieren. Ähnliche Fähigkeiten vor allem zur Vorhersage von Konflikten bauen die Cybertruppen der Bundeswehr auf, um »im Bedarfsfall« bestens vorbereitet einzugreifen. Dabei stehen keine durchhaltefähigen, unverwundbaren und treffsicheren Gefechtsfeldroboter im Mittelpunkt. Es geht vor allem um digitale Überlegenheit.

Neben immensen technischen Problemen bei der Entwicklung von KI gibt es allerdings noch definitorische. Und solange solche grundlegenden Fragen unbeantwortet sind, wird man auch bei den seit 2014 von der UNO in Genf abgehaltenen Verhandlungen wider das Wettrüsten auf dem Gebiet automatisierter Waffen nicht vorankommen - so wie bei der dreitägigen Konferenz, die am Freitag endete. Denn vor jeder menschlichen Begrenzung durch Diplomatengeschick ist zu fragen: Wer oder was ist künstlich intelligent oder autonom?

Es setze sich wohl im internationalen Fachdiskurs eine »funktionalen Autonomiedefinition« durch, meint Frank Sauer in einem Arbeitspapier der Bundesakademie für Sicherheit. Dieser Definition zufolge geht es um vollautonome Waffensysteme, »die nach ihrer Aktivierung mit Hilfe von Sensoren und Software selbstständig, also im Unterschied zu ferngesteuerten Systemen ohne menschliche Kontrolle oder Aufsicht, den Entscheidungszyklus zur Zielbekämpfung durchlaufen«. In Fachkreisen nennt man das: F2T2EA (find, fix, track, target, engage und assess).

Dabei geht es bereits um Alltägliches. Das Patriot-Flugabwehrsystem, das die Bundeswehr seit Jahrzehnten nutzt, operiert zeitweise »vollautonom«, schreibt Sauer und sagt zu Recht, dass die temporäre Abgabe von menschlicher Verfügungsgewalt »wenig bis keine völkerrechtlichen, ethischen und sicherheitspolitischen Probleme« bereitet. Zumal dann nicht, wenn eine Schutzfunktion ausgeübt wird. Überschallschnelle Raketen kann der träge Mensch ohne maschinelle Intelligenz nicht abfangen. Je nach Blickwinkel ist das ebenso oder diametral anders, betrachtet man israelische Drohnen, die autonom am Himmel über Gaza lauern. Noch unsichtbarer sind Viren, die in Kommunikationsnetze kriechen, sie ausforschen und manipulieren, um sie im geeigneten Moment zu zerstören.

Waffensysteme, die abgekoppelt von menschlichen Kommandofunktionen operieren, erzeugen bereits in Friedenszeiten eine Art Verantwortungslücke. Wen will man im Falle autonom ausgeübter militärischer Gewalt vor welchem Tribunal anklagen? Für die Getöteten mag es keinen Unterschied machen, ob ein Mensch oder ein Algorithmus ihren Tod bewirkt. Aber die Auslagerung der Entscheidung über Leben und Tod an einen emotional unfähigen Algorithmus senkt jene Schwelle, die rational begründeten Irrsinn stoppen könnte. Jede Gesellschaft, die auf diese Weise ihr kollektives Gewissen beruhigt, »riskiert nicht weniger als die Aufgabe der grundlegendsten zivilisatorischen Werte und humanitären Prinzipien«, sagt Bundeswehrforscher Sauer.

Aktuell fordern 26 Staaten im Rahmen von Genfer Rüstungskontrollgesprächen ein völkerrechtlich bindendes Verbot von Waffen, die ohne menschliche Verfügungsgewalt töten können. Gegen eine Regulierung sprechen sich die USA und Russland aus. Deutschland hat sich den Verbotsbefürwortern bislang nicht angeschlossen, dabei liest man im Koalitionsvertrag von Union und SPD: »Autonome Waffensysteme, die der Verfügung des Menschen entzogen sind, lehnen wir ab. Wir wollen sie weltweit ächten.«

Wenn sie es nicht machen will, sollte Kanzlerin Merkel vielleicht Sophia bitten, die entsprechenden Passagen vor dem Bundestag vorzulesen. Laut und eindringlich.