Werbung

Flüchtlinge, Gewalt, Holocaust: So moderiert Facebook

Geleakte Handbücher der Facebook-Moderatoren zeigen Umgang mit problematischem Material

  • Von Moritz Wichmann
  • Lesedauer: 4 Min.

Bei uns droht die ABOkalypse!

Wir brauchen zahlende Digitalleser/innen.

Unterstütze uns und überlasse die Informationsflanke nicht den Rechten!

Mach mit! Dein freiwilliger, regelmäßiger Beitrag:

Was soll das sein

Wir setzen ab sofort noch stärker auf die Einsicht der Leser*innen, dass linker Journalismus auch im Internet nicht gratis zu haben ist – mit unserer »sanften« nd-Zahlschranke.

Wir blenden einen Banner über jedem Artikel ein, verbunden mit der Aufforderung sich doch an der Finanzierung und Sicherstellung von unabhängigem linkem Journalismus zu beteiligen. Ein geeigneter Weg besonders für nd-Online-User, die kein Abo abschließen möchten, die Existenz des »nd« aber unterstützen wollen.

Sie können den zu zahlenden Betrag und die Laufzeit frei wählen - damit sichern Sie auch weiterhin linken Journalismus.

Aber: Für die Nutzung von ndPlus und E-Paper benötigen Sie ein reguläres Digitalabo.

Facebook ist ein Abbild der Gesellschaft und seiner Grausamkeiten. Um viel kümmern müssen sich die Moderatoren des sozialen Netzwerks. Es gibt Rache-Pornos von Ex-Freunden, Gewalt gegen Tiere, Kindesmissbrauch und Rassismus. Zu allem hat Facebook Regeln ausgearbeitet: Waffen, Selbstverletzung, Sex. Es gibt sogar Handbücher zum Umgang mit Wettbetrug und Kannibalismus.

Das zeigen mehr als 100 interne Handbücher und Folien zum Training der Facebook-Moderatoren, die dem britischen »Guardian« zugespielt wurden. In den letzten Tage hat die Zeitung Schritt für Schritt einzelnen Dokumente veröffentlicht. Sie geben einen Einblick, wie das soziale Netzwerk die Beiträge seiner zwei Milliarden Nutzer moderiert. Und deren Beiträge bedeuten viel Arbeit für Facebook. Laut einem Dokument in der Sammlung müssen weltweit mehr als 6,5 Millionen Meldungen moderiert werden. Im Durchschnitt nur 10 Sekunden Zeit haben die 4500 Content-Moderatoren des Internetkonzerns, wenn sie gemeldete Beiträge oder Fotos prüfen. Mittels einfacher Regeln, etwa wie genau und detailliert eine Morddrohung oder Anschlagsdrohung ist, sollen die Moderatoren so in Sekundenschnelle über die Frage »löschen oder nicht?« entscheiden.

Screenshot Facebook Manual
Screenshot Facebook Manual

Helfen sollen dabei unter anderem Beispielsätze und Bilder, neben denen in grün »erlaubt« und »verboten« steht. Nur Texte oder Bilder mit »glaubhaften« Drohungen, die detailliert und zielgerichtet sind, sollen demnach gelöscht werden. Eine allgemeine Aussage, wie »Trete eine Person mit roten Haaren«, wird bei einer Meldung des Postings nicht gelöscht.

Und es gibt bei Facebook Kategorien »geschützter Personen« und Gruppen sowie solcher, die es nicht sind. Die Drohung »Jemand sollte Trump erschießen« muss gelöscht werden, weil Trump als Staatsoberhaupt einer geschützten Kategorie angehört. Sexuelle Orientierung ist eine solche Kategorie bzw. genauer gesagt sind etwa Bisexuelle und Homosexuelle geschützt. Nicht geschützt sind politische Ideologien wie »Republikaner«, »Demokraten« oder »Sozialisten«.

Migranten und Geflüchtete dagegen sind für Facebook nur eine »quasi-geschütze« Gruppe. Gewaltaufrufe gegen oder »Vergleiche mit Tieren, Kriminellen und Dreck« sollen gelöscht werden. Doch in seinem Handbuch zum Thema schreibt Facebook auch: »Wir wollen den Leuten erlauben, breite Diskussionen über heiße Themen in kommenden Wahlen zu führen«. Beispiele für erlaubte generelle Aussagen sind zum Beispiel »Der Islam ist eine Religion des Hasses« und »Haltet die geilen Migranten von unseren Töchtern fern«.

Gegen Zensur hat sich Facebook bei Selbstverstümmelung entschieden. Man wolle »Menschen, die Leiden und den Selbstmord versuchen, nicht bestrafen«, wenn diese mittels Facebook auf sich aufmerksam machen würden. Und die Zahl der Nutzer steigt, die Facebook für suizidale Zwecke nutzen. In einem Dokument aus dem letzten Sommer gibt der Konzern an, in einem Zeitraum von zwei Wochen 4531 Fälle moderiert zu haben. In einer Zwei-Wochen-Periode 2016 habe es sogar 5016 Fälle gegeben. Offenbar befürchten die Facebook-Moderatoren Nachahmer der mittlerweile berüchtigten Serie »13 Reasons Why« – ein Netflix Drama über den Selbstmord einer Teenagerin.

So hätten Nutzer Selbstmorde auch live auf Facebook gestreamt. Das wolle man erlauben, um Freunden die Möglichkeit zur Hilfe zu geben. Gleichzeitig sollen die Moderatoren die Sicherheitsbehörden verständigen, damit auch diese helfen. Wenn keine Gelegenheit zur Hilfe mehr besteht, sollen Videos aber gelöscht werden, um potentiellen Nachahmern kein Material zu liefern.

Screenshot Facebook Manual
Screenshot Facebook Manual

Facebook gibt an, das Ziel von Meinungsfreiheit mit dem Vorgehen gegen »Hate Speech« ausbalancieren zu wollen. Ein 16-seitiges Handbuch zeigt, wie der Internetkonzern mit dem Thema Holocaust umgeht. Darin ist von der Notwendigkeit zu lesen, die »lokalen Gesetze in einigen Ländern zu respektieren«, genauer gesagt, die »aktiv« bei Unterlassung gegen Facebook vorgehen würden. Nur in vier von 14 Ländern, wo Holocaustleugnung verboten ist, sind die Facebook-Moderatoren demnach angewiesen, entsprechendes Material zu zensieren. Konkret ist dies in Deutschland, Frankreich, Österreich und Israel der Fall.

Ein weiteres Feld auf dem Facebook besonders hierzulande unter Druck geraten ist, ist das Thema Sex und Nacktheit. Man wolle »generellen Ausdruck von Begehren, aber nicht explizite sexuelle Details« erlauben, heißt es in einem Handbuch zum Thema. Trotz »Free The Nipple«-Protesten sind Bilder weiblicher Nippel weiterhin nicht erlaubt, männliche dagegen schon.

Screenshot Facebook Manual
Screenshot Facebook Manual

Doch Facebook reagiert auch auf öffentlichen Druck und hat seine Guidelines überarbeitet. Für Fälle wie das »Vietnam girl«, das berühmte Foto aus dem Vietnam Krieg, auf dem ein nacktes junges Mädchen weinend über eine Straße läuft und das Facebook vergangenen September zensierte, als die norwegische Zeitung Aftenposten es auf ihrem Cover in Gedenken an den Vietnamkrieg benutzte, sollen nun als »berichtenswerte Ausnahme« erlaubt sein.

Auch will Facebook künstlerische Nacktheit, etwa in historischen Bildern und Statuen, nun zulassen. Anfang Januar war ein Fall international bekannt geworden, bei dem das soziale Netzwerk eine italienische Stadtführerin aufforderte, ein Foto zu löschen, das eine nackte Statue des antiken Gottes Neptun zeigte.

ndPlus

Ein kleiner aber feiner Teil unseres Angebots steht nur Abonnenten in voller Länge zur Verfügung. Mit Ihrem Abo haben Sie Vollzugriff auf sämtliche Artikel seit 1990 und helfen mit, das Online-Angebot des nd mit so vielen frei verfügbaren Artikeln wie möglich finanziell zu sichern.

Testzugang sichern!

Noch kein Abo?

Jetzt kostenlos testen!

14 Tage das »nd« gratis und unverbindlich als App, digital oder gedruckt.

Kostenlos bestellen