Die Macht der Algorithmen

Wenn Computersysteme Menschen beurteilen - wie an einem Berliner Bahnhof -, dann wird es gefährlich, meint Enno Park

  • Enno Park
  • Lesedauer: 4 Min.

»Algorithmus« ist das Gruselwort der vergangenen Jahre. Kaum jemand weiß, was genau das eigentlich ist - jedenfalls wenn es nach einer repräsentativen Umfrage der Bertelsmann-Stiftung im Frühjahr 2018 geht. Dort gaben fast drei Viertel der Befragten an, schon einmal den Begriff Algorithmus gehört zu haben, aber nur etwa zehn Prozent konnten erklären, was das ist. Für die anderen 90 Prozent muss die Welt eine gruselige sein, schließlich entscheiden diese ominösen Algorithmen über Kreditwürdigkeit, Partnerwahl und Polizeieinsätze.

Dabei ist ein Algorithmus einfach nur eine Rechenanweisung. Ein Problem soll in mehreren vorher festgelegten Einzelschritten gelöst werden. Algorithmen haben deshalb zunächst nichts mit Computern zu tun: Wenn wir in der Grundschule schriftliches Dividieren lernen, folgen wir genauso einem Algorithmus wie beim Kochen nach Rezept. Juristen, die Sachverhalte anhand von Paragrafen schematisch prüfen, gehen nach einem komplexen Algorithmus vor. Dasselbe tun Beamte, die über Anträge entscheiden, oder Buchhalter, die Bilanzen aufstellen.

Neu ist noch nicht einmal, dass der Computer die Berechnung von Algorithmen übernimmt. Genau dafür werden Computer seit vielen Jahrzehnten auf allen möglichen Ebenen eingesetzt. Neu hingegen ist künstliche Intelligenz - ein weiterer Begriff, der außerhalb der Informatik leicht missverstanden wird. Schließlich suggeriert er, dass der Computer so ähnlich intelligent sei wie ein Mensch und dann auch so ähnlich agiert. Davon sind aktuelle Computersysteme trotz aller Fortschritte weit entfernt. Deshalb sprechen Fachleute auch lieber von Machine Learning. Der Computer simuliert bestimmte Eigenschaften des Gehirns und kann auf diese Weise tatsächlich lernen.

Allerdings hat dieses Lernen nichts mit menschlichem Denken zu tun. Das zeigt ein einfaches Beispiel: Begegnet ein Kleinkind einem Hund, reicht diese eine Begegnung, und es wird in Zukunft alle anderen Hunde sicher erkennen. Machine-Learning-Systeme können das nicht. Sie müssen mühsam mit Tausenden oder Millionen von Hundebildern trainiert werden, bevor sie einigermaßen sicher in der Lage sind, einen Hund auf einem Bild zu erkennen.

Der Haken beim Machine Learning: Die Programmierer wissen hinterher selber nicht, wie das Computerprogramm eigentlich im Detail entscheidet, ob es sich um einen Hund handelt. Wenn ein Algorithmus, der zu kompliziert ist, um noch von Menschen verstanden werden zu können, Alltagsentscheidungen übernimmt, scheinen wir Menschen die Kontrolle abgegeben zu haben.

Das ist harmlos, wenn es ums Einblenden von Onlinewerbung geht, und praktisch, wenn wir die schnellste Route zu einem Ort wissen möchten. Selbst die Kreditvergabe per Algorithmus hat durchaus ihren Sinn, schließlich ist es im Interesse aller, wenn Banken ihre Risiken minimieren. Gefährlich wird es, wenn die Entscheidungen solcher Systeme Konsequenzen für die algorithmisch beurteilten Menschen haben.

So soll ab September 2018 am Berliner Bahnhof Südkreuz ein Überwachungssystem getestet werden, das Menschen mit auffälligem Verhalten erkennen soll, um sie aus dem Verkehr zu ziehen, bevor sie Straftaten begehen. In einigen Staaten der USA ist es heute schon üblich, dass Computer Prognosen über die Resozialisierung von Straftätern berechnen, anhand derer die Richter dann über Strafmaß und Bewährung entscheiden - bei denen Farbige dann regelmäßig schlechter abschneiden. Und China ist dabei, die gesamte Bevölkerung einem Punktesystem zu unterwerfen. Wer sich im Sinne des Algorithmus mustergültig verhält, bekommt Kredite, Wohnungen und darf vielleicht sogar zwecks Urlaub das Land verlassen.

Doch dass wir damit Macht an Computersysteme abgeben, ist ein weiterer Trugschluss. Denn die Macht wandert nicht vom Menschen zur Maschine, sondern bleibt bei denjenigen Personen, Firmen und Organisationen, die solche Systeme für ihre Zwecke einsetzen. Sie geben keine Macht ab, sondern Verantwortung. In Zukunft können sie sich dahinter verstecken, dass sie auch nicht so genau wissen, wie das Machine-Learning-System zu einem bestimmten Ergebnis kommt: »Entschuldigung, wir wissen auch nicht, warum wir Sie jetzt festnehmen müssen, aber das steht so im Computer. Wahrscheinlich ist es Ihre Schuld.« Am Ende ist einmal mehr nicht die Technik gefährlich, sondern der Mensch, der sie verantwortungslos einsetzt.

Werde Mitglied der nd.Genossenschaft!
Seit dem 1. Januar 2022 wird das »nd« als unabhängige linke Zeitung herausgeben, welche der Belegschaft und den Leser*innen gehört. Sei dabei und unterstütze als Genossenschaftsmitglied Medienvielfalt und sichtbare linke Positionen. Jetzt die Beitrittserklärung ausfüllen.
Mehr Infos auf www.dasnd.de/genossenschaft

Linken, unabhängigen Journalismus stärken!

Mehr und mehr Menschen lesen digital und sehr gern kostenfrei. Wir stehen mit unserem freiwilligen Bezahlmodell dafür ein, dass uns auch diejenigen lesen können, deren Einkommen für ein Abonnement nicht ausreicht. Damit wir weiterhin Journalismus mit dem Anspruch machen können, marginalisierte Stimmen zu Wort kommen zu lassen, Themen zu recherchieren, die in den großen bürgerlichen Medien nicht vor- oder zu kurz kommen, und aktuelle Themen aus linker Perspektive zu beleuchten, brauchen wir eure Unterstützung.

Hilf mit bei einer solidarischen Finanzierung und unterstütze das »nd« mit einem Beitrag deiner Wahl.

Unterstützen über:
  • PayPal