Diese Website verwendet Cookies. Wir können damit die Seitennutzung auswerten, um nutzungsbasiert redaktionelle Inhalte und Werbung anzuzeigen. Mit der Nutzung der Seite stimmen Sie der Verwendung von Cookies zu. Unsere Datenschutzhinweise.
Werbung

Da schiebt sich was zusammen

Ohne Algorithmen würden weder Computer noch die Suche im Internet funktionieren. Gleichzeitig räumen wir kaum durchschauten Mechanismen Macht über unser Leben ein. Von Robert D. Meyer

  • Von Robert D. Meyer
  • Lesedauer: 8 Min.

Kein Mensch darf zum Objekt eines Algorithmus werden«, postulierte Bundesjustizminister Heiko Maas Ende vergangenen Jahres in einem Vorschlag für eine mögliche europäische Charta der digitalen Grundrechte. Die Forderung des SPD-Politikers offenbarte zugleich auf mehreren Ebenen jenes Dilemma, in dem sich (nicht nur) Linke in der Debatte um Chancen und Risiken einer digitalisierten Welt befindet. Auch wenn es die ministerielle Forderung anders suggerieren mag: Es geht schon seit Jahrzehnten, genauer gesagt allerspätestens seit der Einkehr des Internets in den Alltag, nicht mehr um die Frage, ob Algorithmen unser Leben beeinflussen, sondern wie viel Freiheit wir jenen Programmierern und Unternehmen geben, die jenen mathematischen Werkzeugkasten nutzen. Womit gleich zu Beginn ein oft vorgebrachtes Missverständnis zu auszuräumen ist: Nicht die Algorithmen aus der digitalisierten Welt sind das Problem, sondern die weitverbreitete Hilflosigkeit im Umgang mit den immer neuen theoretisch denkbaren wie auch tatsächlich bereits realisierten Möglichkeiten ihrer Anwendung. So war Anfang März ein Artikel des Journalisten Michael Moorstedt in der »taz« mit der schrillen Warnung »Die Tyrannei der Algorithmen« überschrieben. Korrekt hätte es heißen müssen: »Die Tyrannei der Programmierer und Unternehmen hinter den Algorithmen«. Ergeben sich in diesem Zusammenhang gesellschaftliche Probleme, dann ist der Verursacher nicht in den Möglichkeiten der Mathematik zu suchen, sondern in deren Anwendung zu einem konkreten Zweck. Doch wo von Mathe die Rede, erklären sich viele schnell für überfordert.

Diese Überforderung erfasst selbst Personen, die es besser wissen könnten. So skizzierte der US-amerikanische Spieleentwickler und Computerwissenschaftler Ian Bogost ein mahnendes Gedankenexperiment: Käme ein Gespräch zufällig auf den Begriff »Algorithmus« zu sprechen, solle man das Wort durch »Gott« ersetzen und die zuletzt formulierte Aussage daraufhin überprüfen, ob der Satz weiterhin in gleicher Weise einen Sinn ergibt. Bogosts ketzerisch formulierte These: Algorithmen hätten längst jene Macht übernommen, die religiöse Menschen sonst einer übernatürlichen Kraft zuschreiben. Gibt es Schicksal? Regiert der Zufall? Der IT-Professor behauptet: Im 21. Jahrhundert bestimmen Algorithmen unser Dasein. Womit sich der Kreis zu der von Maas aufgestellten Forderung schließt. Jegliche Errungenschaften der Digitalisierung wären ohne Algorithmen undenkbar, das Internet in seiner bestehenden Form nicht existent.

Um dies zu verstehen, muss man sich klar machen, was ein Algorithmus ist. Im Grunde wird bereits jeder Schüler ab der ersten Klasse damit konfrontiert, ohne es zu wissen. Übersetzt lässt sich von einem Berechnungsverfahren sprechen. Bereits dem »schriftlichen« Lösen einer Rechenaufgabe liegt ein - wenn auch vergleichsweise simpler - Algorithmus zugrunde. Dass viele Menschen diesen Umstand nicht erkennen, hat wahrscheinlich auch mit den veränderten Methoden im Unterricht zu tun. Noch in den 90er Jahren waren an vielen Schulen Rechenschieber übliche Werkzeuge, um mathematische Grundlagen zu vermitteln. Der Vorteil: Durch die grafische Addition oder Subtraktion von Strecken wurde zugleich visuell vermittelt, dass jede Berechnung stets automatisierbar ist und damit auch von einer Maschine übernommen werden kann.

Allein der Unterricht vermittelt viel zu wenig, dass hinter jeder Berechnung eine abstrakte mathematische Aussage steckt. Ein angewandter Algorithmus muss zwingend stets zum richtigen Ergebnis kommen, weil zur Lösung des Problems (im Mathematikunterricht die Rechenaufgabe) eine Handlungsvorschrift vorgegeben ist, die aus mehreren klar definierten Einzelschritten besteht.

In seinem Buch »Total berechenbar? Wenn Algorithmen für uns entscheiden« (Hanser Verlag, 256 S., 17,90 Euro) vergleicht der Wissenschaftsjournalist Christoph Drösser die Funktionsweise von Algorithmen mit einem Kochrezept. Auch dieses ist nichts weiter als eine Anleitung, die aus »einer Reihe von Vorschriften besteht, bei der jeder Schritt eindeutig definiert ist«. Roboter könnten deshalb ein Gericht nachkochen, vorausgesetzt, jeder einzelne Arbeitsschritt ist klar definiert, etwa die exakte Menge der Gewürze. »Diese ›Idiotensicherheit‹ ist das Wesen jedes Algorithmus. Er lässt im Idealfall keinen Raum für Interpretation«, so Drösser.

Warum ohne komplexe Algorithmen eine sinnvolle Nutzung des Internets unmöglich wäre, zeigt ein Beispiel aus einer Zeit, die kaum zwei Jahrzehnte zurückliegt. Drösser beschreibt in seinem Buch die heutzutage simpel anmutende Aufgabe, mithilfe des Internets ein konkretes Kochrezept herauszusuchen. Während inzwischen die Mehrheit der Bevölkerung einfach »googeln« würde, war dies vor dem Zeitalter der Websuchmaschinen im Jahr 1994 noch eine Herausforderung. Drösser berichtet, dass er in einem ersten Schritt gezielt die Website einer ihm bekannten US-Wissenschaftlerin ansteuerte, die wiederum den »Internet Resources Meta-Index« des Kernforschungszentrums CERN in der Schweiz empfahl. Dieser Index funktionierte wie ein virtuelles Karteikartensystem, das gelisteten Webseiten Stichworte zuordnete. Unter dem Schlagwort »cooking« fand er immerhin 32 Verweise auf Homepages, die sich mehr oder weniger mit dem Kochen auseinandersetzten. Ob dahinter allerdings das gesuchte Rezept oder bestenfalls eine Abhandlung zur Kulturgeschichte des Essens steckte, musste Drösser damals umständlich herausfinden, in dem er jede verlinkte Website einzeln anklickte. Jenes durchaus als Glück zu bezeichnende Ergebnis, ein passendes und zugleich schmackhaftes Rezept zu finden, hing letztlich wesentlich von der Qualität und Vollständigkeit der von Hand zusammengetragenen Linksammlung ab.

Bei einigen hundert bis maximal vielleicht tausend Webseiten mag dies noch ein überschaubares Unterfangen sein, doch die Zahl möglicher Fundstellen wuchs schnell in die Millionen. Rückblickend wirkt es kurios, dass der inzwischen zu einem Schatten seiner selbst degradierte Internetkonzern Yahoo als erstes Unternehmen professionell und erfolgreich Webkataloge nach dem beschriebenen Karteikartenprinzip betrieb. Allerdings waren zur händischen Pflege der Kataloge Hunderte Angestellte nötig, die im Prinzip das leisteten, was ausgeklügelte Algorithmen heute automatisiert tun: Neue Websites erfassen und nach ihrer echten oder auch vermeintlichen »Relevanz« bewerten.

Letzteren Schritt konnte die Suchmaschine von Larry Page und Sergey Brin offenbar am erfolgreichsten automatisieren: Googles Erfolgsgeheimnis bestand anfangs nicht nur darin, möglichst viele Websites zu erfassen, sondern diese in einem komplexen Ranking einzuordnen, das es den Nutzern erlauben sollte, relevante Inhalte schneller zu finden. Googles Algorithmus rechnete in seiner simpelsten Ausführung in einem ersten Schritt zusammen, wie viele andere Websites mittels Link auf eine Homepage verwiesen. Doch die Quantität der Verlinkungen sagt allein noch nichts über deren jeweilige Qualität aus.

Um bei dem Beispiel eines Kochrezeptes zu bleiben: Hat die Linkempfehlung eines unbekannten Hobbybloggers die gleiche Wertigkeit wie die eines Fernsehkochs? Googles Algorithmus beantwortet diese Frage mit einem klaren Nein. Um die Relevanz einer Website zu bewerten, analysiert die Suchmaschine deshalb auch, wie hoch die Relevanz der verlinkenden Homepage ist. Inzwischen soll es mehr als 200 sogenannter »Signale« geben, nach denen Google den Wert einer Website gewichtet. Algorithmen sei Dank, ist dafür keine Heerschar an Mitarbeitern nötig. Die Aufgabe wäre praktisch unlösbar.

Doch führt solch eine Vorgehensweise, ähnlich auch vom sozialen Netzwerk Facebook praktiziert, nicht zu einer Diskriminierung von neuen Inhalten, die nicht dem Mainstream entsprechen? Das wohl am häufigsten gegen Google vorgebrachte Argument entkräftet der studierte Mathematiker Drösser auf den ersten Blick recht überraschend: Der Suchmaschinenalgorithmus diskriminiert Inhalte nicht nur, er muss dies sogar. Genau darin liege die eigentliche Funktion: Ordnung in eine Masse von Milliarden Websites bringen, damit Nutzer die Möglichkeit bekommen, gesuchte Inhalte überhaupt zu finden.

Bedenklich nennt Drösser hingegen die Entwicklung der letzten Jahre, dass »inzwischen auch die Google-Suchergebnisse personalisiert sind, basierend auf dem Nutzerprofil, das Google aus den Suchen und aus dem Surfverhalten aufgebaut hat«. In der Folge bekommt ein User bei erneuten Suchanfragen immer stärker nur noch Seiten angezeigt, die inhaltlich verwandt mit in der Vergangenheit besuchten sind. Der Algorithmus ist imstande zu lernen und sein Ergebnis dem Nutzerverhalten anzupassen, das wiederum mit davon beeinflusst wird, wie sich der Nutzer in der Vergangenheit verhielt.

Solch ein Filtereffekt ist auch von Facebook bekannt. Profile von Freunden, mit denen ein Nutzer mittels Kommentaren, Gefällt-mir-Klicks und anderen Optionen wenig interagiert, verschwinden mit der Zeit aus der sogenannten Timeline, sind also schwerer auffindbar. Ziel des dahinter steckenden Algorithmus ist es, den Einzelnen möglichst lange bei Facebook zu halten, indem das dargebotene Unterhaltungsangebot möglichst dem entspricht, was der Nutzer gerade zu suchen scheint. Die Technik ist allerdings stets nur so »intelligent«, wie ihre Programmierer es einkalkulieren. So zieht Facebook bereits allein aus der Anzahl von Besuchen auf einem Profil erste Rückschlüsse auf inhaltlich verwandte Seiten, die einem Nutzer »gefallen« könnten. Doch die daraus generierten Empfehlungen sagen nicht immer aus, ob dem User das Dargebotene gefällt oder nicht. Seine Intention bleibt dem Algorithmus manchmal unklar. Deshalb kann bereits der regelmäßige Besuch des Profils der rassistischen Pegida-Bewegung dazu führen, dass der Algorithmus einem »scheinbar« passend das Profil eines rechtsradikalen Versandhandels offeriert, obwohl der Nutzer lediglich aus Recherchezwecken auf die Pegida-Präsenz klickte.

Wer solche Eigenheiten der Algorithmen kennt, kann zum Schutz der eigenen Privatsphäre den Datensammlern ihre Arbeit durch technische Tricks erschweren. Schließlich lassen sich nur korrekte Datensätze in finanzielle Gewinne ummünzen. Um das Wissen des einzelnen Nutzers über die Funktionsweise der genutzten Dienste steht es eher schlecht: Laut einer qualitativen Studie der Universität Illinois aus dem Jahr 2015 bemerkten zwei Drittel der beteiligten Facebook-Nutzer in einem Versuch nicht, welchen Einfluss ihr eigenes Nutzerverhalten auf die ihnen angezeigte Timeline hatte. Unter diesem Blickwinkel gesehen, müsste der von Bundesjustizminister Maas aufgestellten Forderung, niemand dürfe zum Objekt eines Algorithmus werden, eine fast noch wichtigere vorangestellt werden: Der Einzelne muss überhaupt erkennen und begreifen können, dass er Objekt von Algorithmen ist. Vielleicht hilft dabei ein analoger Rechenschieber.

Dieser Artikel ist wichtig! Sichere diesen Journalismus!

Besondere Zeiten erfordern besondere Maßnahmen: Auf Grund der Coronakrise und dem damit weitgehend lahmgelegten öffentlichen Leben haben wir uns entschieden, zeitlich begrenzt die gesamten Inhalte unserer Internetpräsenz für alle Menschen kostenlos zugänglich zu machen. Dennoch benötigen wir finanzielle Mittel, um weiter für sie berichten zu können.

Helfen Sie mit, unseren Journalismus auch in Zukunft möglich zu machen! Jetzt mit wenigen Klicks unterstützen!

Unterstützen über:
  • PayPal
  • Sofortüberweisung

Solidarisches Berlin und Brandenburg

Corona ist nicht nur eine Gesundheitskrise. Es ist auch eine Krise des Sozialen. Wir beobachten alle sozialen und sozioökonomischen Entwicklung in der Hauptstadtregion, die sich aus der Verbreitung des Coronavirus ergeben.

Zu allen Artikeln