Werbung

Die Macht der Algorithmen

Wenn Computersysteme Menschen beurteilen - wie an einem Berliner Bahnhof -, dann wird es gefährlich, meint Enno Park

  • Von Enno Park
  • Lesedauer: 4 Min.

Bei uns droht die ABOkalypse!

Wir brauchen zahlende Digitalleser/innen.

Unterstütze uns und überlasse die Informationsflanke nicht den Rechten!

Mach mit! Dein freiwilliger, regelmäßiger Beitrag:

Was soll das sein

Wir setzen ab sofort noch stärker auf die Einsicht der Leser*innen, dass linker Journalismus auch im Internet nicht gratis zu haben ist – mit unserer »sanften« nd-Zahlschranke.

Wir blenden einen Banner über jedem Artikel ein, verbunden mit der Aufforderung sich doch an der Finanzierung und Sicherstellung von unabhängigem linkem Journalismus zu beteiligen. Ein geeigneter Weg besonders für nd-Online-User, die kein Abo abschließen möchten, die Existenz des »nd« aber unterstützen wollen.

Sie können den zu zahlenden Betrag und die Laufzeit frei wählen - damit sichern Sie auch weiterhin linken Journalismus.

Aber: Für die Nutzung von ndPlus und E-Paper benötigen Sie ein reguläres Digitalabo.

»Algorithmus« ist das Gruselwort der vergangenen Jahre. Kaum jemand weiß, was genau das eigentlich ist - jedenfalls wenn es nach einer repräsentativen Umfrage der Bertelsmann-Stiftung im Frühjahr 2018 geht. Dort gaben fast drei Viertel der Befragten an, schon einmal den Begriff Algorithmus gehört zu haben, aber nur etwa zehn Prozent konnten erklären, was das ist. Für die anderen 90 Prozent muss die Welt eine gruselige sein, schließlich entscheiden diese ominösen Algorithmen über Kreditwürdigkeit, Partnerwahl und Polizeieinsätze.

Dabei ist ein Algorithmus einfach nur eine Rechenanweisung. Ein Problem soll in mehreren vorher festgelegten Einzelschritten gelöst werden. Algorithmen haben deshalb zunächst nichts mit Computern zu tun: Wenn wir in der Grundschule schriftliches Dividieren lernen, folgen wir genauso einem Algorithmus wie beim Kochen nach Rezept. Juristen, die Sachverhalte anhand von Paragrafen schematisch prüfen, gehen nach einem komplexen Algorithmus vor. Dasselbe tun Beamte, die über Anträge entscheiden, oder Buchhalter, die Bilanzen aufstellen.

Neu ist noch nicht einmal, dass der Computer die Berechnung von Algorithmen übernimmt. Genau dafür werden Computer seit vielen Jahrzehnten auf allen möglichen Ebenen eingesetzt. Neu hingegen ist künstliche Intelligenz - ein weiterer Begriff, der außerhalb der Informatik leicht missverstanden wird. Schließlich suggeriert er, dass der Computer so ähnlich intelligent sei wie ein Mensch und dann auch so ähnlich agiert. Davon sind aktuelle Computersysteme trotz aller Fortschritte weit entfernt. Deshalb sprechen Fachleute auch lieber von Machine Learning. Der Computer simuliert bestimmte Eigenschaften des Gehirns und kann auf diese Weise tatsächlich lernen.

Allerdings hat dieses Lernen nichts mit menschlichem Denken zu tun. Das zeigt ein einfaches Beispiel: Begegnet ein Kleinkind einem Hund, reicht diese eine Begegnung, und es wird in Zukunft alle anderen Hunde sicher erkennen. Machine-Learning-Systeme können das nicht. Sie müssen mühsam mit Tausenden oder Millionen von Hundebildern trainiert werden, bevor sie einigermaßen sicher in der Lage sind, einen Hund auf einem Bild zu erkennen.

Der Haken beim Machine Learning: Die Programmierer wissen hinterher selber nicht, wie das Computerprogramm eigentlich im Detail entscheidet, ob es sich um einen Hund handelt. Wenn ein Algorithmus, der zu kompliziert ist, um noch von Menschen verstanden werden zu können, Alltagsentscheidungen übernimmt, scheinen wir Menschen die Kontrolle abgegeben zu haben.

Das ist harmlos, wenn es ums Einblenden von Onlinewerbung geht, und praktisch, wenn wir die schnellste Route zu einem Ort wissen möchten. Selbst die Kreditvergabe per Algorithmus hat durchaus ihren Sinn, schließlich ist es im Interesse aller, wenn Banken ihre Risiken minimieren. Gefährlich wird es, wenn die Entscheidungen solcher Systeme Konsequenzen für die algorithmisch beurteilten Menschen haben.

So soll ab September 2018 am Berliner Bahnhof Südkreuz ein Überwachungssystem getestet werden, das Menschen mit auffälligem Verhalten erkennen soll, um sie aus dem Verkehr zu ziehen, bevor sie Straftaten begehen. In einigen Staaten der USA ist es heute schon üblich, dass Computer Prognosen über die Resozialisierung von Straftätern berechnen, anhand derer die Richter dann über Strafmaß und Bewährung entscheiden - bei denen Farbige dann regelmäßig schlechter abschneiden. Und China ist dabei, die gesamte Bevölkerung einem Punktesystem zu unterwerfen. Wer sich im Sinne des Algorithmus mustergültig verhält, bekommt Kredite, Wohnungen und darf vielleicht sogar zwecks Urlaub das Land verlassen.

Doch dass wir damit Macht an Computersysteme abgeben, ist ein weiterer Trugschluss. Denn die Macht wandert nicht vom Menschen zur Maschine, sondern bleibt bei denjenigen Personen, Firmen und Organisationen, die solche Systeme für ihre Zwecke einsetzen. Sie geben keine Macht ab, sondern Verantwortung. In Zukunft können sie sich dahinter verstecken, dass sie auch nicht so genau wissen, wie das Machine-Learning-System zu einem bestimmten Ergebnis kommt: »Entschuldigung, wir wissen auch nicht, warum wir Sie jetzt festnehmen müssen, aber das steht so im Computer. Wahrscheinlich ist es Ihre Schuld.« Am Ende ist einmal mehr nicht die Technik gefährlich, sondern der Mensch, der sie verantwortungslos einsetzt.

ndPlus

Ein kleiner aber feiner Teil unseres Angebots steht nur Abonnenten in voller Länge zur Verfügung. Mit Ihrem Abo haben Sie Vollzugriff auf sämtliche Artikel seit 1990 und helfen mit, das Online-Angebot des nd mit so vielen frei verfügbaren Artikeln wie möglich finanziell zu sichern.

Testzugang sichern!

9 Ausgaben für nur 9 €

Jetzt nd.DieWoche testen!

9 Samstage die Wochenendzeitung bequem frei Haus.

Hier bestellen