Eigenen Aussagen zufolge hat der "Guardian" mehr als 100 Anleitungen, Tabellen und Diagramme zugespielt bekommen. Daraus geht zum Beispiel hervor, wie Facebook mit problematischen Inhalten wie Gewalt, Hass-Postings, Pornographie, Terrorpropaganda, Rassismus oder Selbsttötungen umgeht. Offensichtlich existiert ein ausdifferenziertes Regelwerk für alle möglichen Arten von fragwürdigen Inhalten. Selbst für Themen wie Kannibalismus oder
das noch relativ junge Phänomen Revenge Porn gibt es eigene Regeln.
Für viele Bereiche wurden Listen mit konkreten Beispielen erstellt. Diese machen deutlich, wie schmal der Grat zwischen zulässigen und laut Facebook-Regelwerk unzulässigen Inhalten zuweilen ist: "Kick a person with red hair" ist beispielsweise zulässig, "Someone shoot Trump" dagegen nicht. Künstlerische Darstellungen von Nacktheit sind beispielsweise nur erlaubt, wenn sie "handgemacht" sind, digital erstellte Inhalte dagegen nicht. Videos gewaltsamer Tode werden keinen minderjährigen Nutzern angezeigt, Erwachsenen sollen dagegen selbst entscheiden können, ob sie derartige Inhalte sehen wollen - diese könnten dazu beitragen, ein Bewusstsein zum Beispiel für Kriegsverbrechen oder psychische Erkrankungen schaffen. Auch Abtreibungsvideos sind zulässig, sofern sie keine Nacktheit zeigen.
Mehr zum Thema
Mit Bilderkennungs-Software
Facebook geht schärfer gegen Phänomen "Revenge Porn" vor
Facebook verschärft das Vorgehen gegen das Teilen intimer Fotos ohne Zustimmung, das sogenannte "Revenge Porn". Bilder, die von betroffenen Nutzern gemeldet werden, sollen mit Software erfasst werden, damit sie nicht mehr weiterverbreitet werden können.
Monika Bickert, Facebooks Head of Global Policy Management, sagte gegenüber dem "Guardian", bei fast zwei Milliarden Nutzern weltweit sei es schwer, einen Konsens zu finden. "Wir haben eine wirklich vielfältige globale Community und die Menschen haben sehr unterschiedliche Vorstellungen davon, was man teilen kann. Egal, wo man die Linie zieht, es wird immer Graubereiche geben."
Aus den geleakten Unterlagen geht auch hervor, dass die schiere Menge der täglich veröffentlichten Inhalte die Mitarbeiter vor enorme Herausforderungen stellen. So hätten die Mitarbeiter oft lediglich zehn Sekunden Zeit, um eine Entscheidung zu treffen. "Facebook hat keine Kontrolle mehr über die Inhalte", zitiert der "Guardian" eine interne Quelle. "Es ist zu schnell zu groß geworden." Facebook setzt daher auch auf automatische Prozesse, die bestimmte Inhalte von vornherein herauszufiltern.
Mehr zum Thema
Gewaltvideos
Facebook stockt Zahl der Kontrolleure stark auf
Facebook will nach dem Schock über Gewaltvideos bei dem Online-Netzwerk 3000 weitere Mitarbeiter zum Herausfiltern von Inhalten einstellen. Sie sollen im Laufe eines Jahres weltweit dazukommen, schrieb Gründer und Chef Mark Zuckerberg am Mittwoch.
Facebook hatte Anfang des Monats angekündigt, im Laufe des Jahres weltweit 3000 weitere Mitarbeiter einzustellen, um Inhalte zu überprüfen. Bislang würden rund 4500 Mitarbeiter
"Millionen Hinweise pro Woche" nachgehen. Das Online-Netzwerk mit rund 1,9 Milliarden Nutzern war in den vergangenen Wochen massiv in die Kritik geraten, nachdem mehrfach Videos mit Gewalttaten stundenlang auf der Plattform blieben. Erst filmte ein Amerikaner, wie er einen Passanten erschoss. Dann übertrug ein Mann in Thailand live bei Facebook, wie er seine Tochter tötete, und brachte sich dann selbst um. dh