Regelwerk "Guardian" veröffentlicht Lösch-Regeln von Facebook

Montag, 22. Mai 2017
Facebook will Nutzern das Planen von Beiträgen erleichtern
Facebook will Nutzern das Planen von Beiträgen erleichtern
© Facebook

Was darf man auf Facebook veröffentlichen und was nicht? Nach welchen Regeln löscht das soziale Netzwerke Postings, in denen zum Beispiel zu Gewalt aufgerufen wird oder nackte Tatsachen zu sehen sind? Der "Guardian" hat nun interne Dokumente veröffentlicht, die Aufschluss über die Löschregeln geben. 
Eigenen Aussagen zufolge hat der "Guardian" mehr als 100 Anleitungen, Tabellen und Diagramme zugespielt bekommen. Daraus geht zum Beispiel hervor, wie Facebook mit problematischen Inhalten wie Gewalt, Hass-Postings, Pornographie, Terrorpropaganda, Rassismus oder Selbsttötungen umgeht. Offensichtlich existiert ein ausdifferenziertes Regelwerk für alle möglichen Arten von fragwürdigen Inhalten. Selbst für Themen wie Kannibalismus oder das noch relativ junge Phänomen Revenge Porn gibt es eigene Regeln. 
Für viele Bereiche wurden Listen mit konkreten Beispielen erstellt. Diese machen deutlich, wie schmal der Grat zwischen zulässigen und laut Facebook-Regelwerk unzulässigen Inhalten zuweilen ist: "Kick a person with red hair" ist beispielsweise zulässig, "Someone shoot Trump" dagegen nicht. Künstlerische Darstellungen von Nacktheit sind beispielsweise nur erlaubt, wenn sie "handgemacht" sind, digital erstellte Inhalte dagegen nicht. Videos gewaltsamer Tode werden keinen minderjährigen Nutzern angezeigt, Erwachsenen sollen dagegen selbst entscheiden können, ob sie derartige Inhalte sehen wollen - diese könnten dazu beitragen, ein Bewusstsein zum Beispiel für Kriegsverbrechen oder psychische Erkrankungen schaffen. Auch Abtreibungsvideos sind zulässig, sofern sie keine Nacktheit zeigen.
Facebook Mark Zuckerberg 2015 2
Bild: Facebook

Mehr zum Thema

Mit Bilderkennungs-Software Facebook geht schärfer gegen Phänomen "Revenge Porn" vor

Monika Bickert, ‎Facebooks Head of Global Policy Management, sagte gegenüber dem "Guardian", bei fast zwei Milliarden Nutzern weltweit sei es schwer, einen Konsens zu finden. "Wir haben eine wirklich vielfältige globale Community und die Menschen haben sehr unterschiedliche Vorstellungen davon, was man teilen kann. Egal, wo man die Linie zieht, es wird immer Graubereiche geben." 

Aus den geleakten Unterlagen geht auch hervor, dass die schiere Menge der täglich veröffentlichten Inhalte die Mitarbeiter vor enorme Herausforderungen stellen. So hätten die Mitarbeiter oft lediglich zehn Sekunden Zeit, um eine Entscheidung zu treffen. "Facebook hat keine Kontrolle mehr über die Inhalte", zitiert der "Guardian" eine interne Quelle. "Es ist zu schnell zu groß geworden." Facebook setzt daher auch auf automatische Prozesse, die bestimmte Inhalte von vornherein herauszufiltern. 
Mark Zuckerberg
Bild: Facebook

Mehr zum Thema

Gewaltvideos Facebook stockt Zahl der Kontrolleure stark auf

Facebook hatte Anfang des Monats angekündigt, im Laufe des Jahres weltweit 3000 weitere Mitarbeiter einzustellen, um Inhalte zu überprüfen. Bislang würden rund 4500 Mitarbeiter "Millionen Hinweise pro Woche" nachgehen. Das Online-Netzwerk mit rund 1,9 Milliarden Nutzern war in den vergangenen Wochen massiv in die Kritik geraten, nachdem mehrfach Videos mit Gewalttaten stundenlang auf der Plattform blieben. Erst filmte ein Amerikaner, wie er einen Passanten erschoss. Dann übertrug ein Mann in Thailand live bei Facebook, wie er seine Tochter tötete, und brachte sich dann selbst um. dh
Meist gelesen
stats