Facebooks Löschpraxis ist seit langer Zeit wiederkehrender Anlass für Diskussionen. Für Aufsehen sorgten etwa Fälle, in denen das soziale Netzwerk Kunstwerke
oder Dokumente der Zeitgeschichte entfernte, weil sie nackte Körper zeigten. Gleichzeitig blieben Posts, in denen klar Hass oder Gewalt hervortraten, häufig stehen. Das sorgte bei Nutzern für Verwirrung - und Verärgerung.
Facebook gibt nun erstmals einen Einblick in
die Umsetzungsrichtlinien der so genannten Community Standards, also die Regeln, die für den Verbleib eines Inhalts auf der Plattform entscheidend sind. Man habe sich aus zwei Gründen dafür entschieden, schreibt Facebook-Managerin
Monika Bickert in einem Blogpost: "
Zum einen werden diese Richtlinien den Menschen dabei helfen, zu verstehen, warum wir bei Grenzfällen wie entscheiden. Zum anderen werden es diese Informationen allen, auch Experten aus den verschiedenen Bereichen, leichter machen, uns Feedback zu geben. So können wir die Richtlinien – und damit auch unsere Entscheidungen – langfristig weiter verbessern." Mehr zum Thema
Hate Speech
Facebook will 10.000 neue Leute für Kampf gegen Hetze einstellen
Facebook verspricht weitere Anstrengungen gegen Hass und Hetze im Netz und will dafür zusätzlich 10.000 Mitarbeiter einstellen. "Wir haben noch nicht genug getan, um den Missbrauch unserer Technologie zu stoppen", sagte Facebook-Geschäftsführerin Sheryl Sandberg.
Facebooks Gemeinschaftsstandards enthalten etwa Informationen darüber, wen man als "gefährliche Individuen und Organisationen" einstuft. Darunter fallen etwa Organisationen oder Einzelpersonen, die in terroristische Aktivitäten, organisierten Hass, Massen- oder Serienmord, Menschenhandel sowie organisierte Gewalt oder kriminelle Aktivitäten involviert sind. Beiträge dieser Absender werden entfernt.
Dabei geht Facebook teilweise übrigens ziemlich ins Detail: "Ein Mord ist für uns ein Massenmord, wenn dabei vier oder mehr Personen sterben", heißt es etwa. Oder: "Eine Person, die zwei oder mehr Morde zu verschiedenen Zeitpunkten oder an verschiedenen Orten begangen hat, ist für uns ein Serienmörder." Auch der Punkt "
Nacktheit" im Kapitel "Anstößiger Inhalt" liefert einen plastischen Eindruck dessen, was auf Facebook erwünscht ist und was nicht.
„Unsere Richtlinien sind nur so gut wie ihre Durchsetzung – und die ist nicht perfekt.“
Monika Bickert
Neu sei all dies nicht, betont Bickert: "E
s spiegelt Standards wider, die bereits seit langem gelten." Nur würden diese internen Umsetzungsrichtlinien erstmals veröffentlicht. Außerdem räumt die Facebook-Managerin ein, dass die bisherige Löschpraxis des Unternehmens verbesserungswürdig ist: "Unsere Richtlinien sind nur so gut wie ihre Durchsetzung – und die ist nicht perfekt." Bei der Entfernung von Beiträgen setze man auf Künstliche Intelligenz sowie die Mitarbeit von mehr als 7.500 Personen - für die ganze Welt und mehr als 2 Milliarden Nutzer, wohlgemerkt.
Im Zuge der zunehmenden Diskussionen um Hass und Gewalt in sozalen Netzwerken sowie der Einführung des Netzwerkdurchsetzungsgesetzes ("NetzDG") in Deutschland zu Beginn des Jahres muss sich Facebook wesentlich häufiger mit der Frage beschäftigen: Löschen oder nicht? Kritiker befürchten, dass es dabei zur Entfernung von Beiträgen kommen kann, die weder dem Gesetz noch den Community Standards zuwiderlaufen. Facebook gibt den Nutzern daher ein Instrument an die Hand, um der Löschung eines Beitrags zu widersprechen. Mehr zum Thema
ARD-Umfrage
90 Prozent der Nutzer haben kein Vertrauen in Facebook
Lediglich 10 Prozent der Facebook-Nutzer haben großes Vertrauen in den Datenschutz bei dem Netzwerk. Das geht aus dem aktuellen Deutschland-Trend der ARD hervor. Die große Mehrheit hat kein Vertrauen in das soziale Netzwerk.
Wurde ein Beitrag entfernt, weil er gegen die Gemeinschaftsstandards von Facebook verstößt, wird der Nutzer darüber informiert und erhält zudem die Möglichkeit, eine zusätzliche Überprüfung anzufordern. Die Beschwerden würden dabei normalerweise binnen 24 Stunden geprüft. "Wenn uns ein Fehler unterlaufen ist, informieren wir dich darüber", erklärt Facebook. Der Beitrag, das Foto bzw. Video werde dann wiederhergestellt.
Die Funktion, die bis Jahresende eingeführt werden soll, kann bei Löschgründen wie Nacktheit/sexuellen Handlungen, Hassrede oder expliziten Gewaltdarstellungen angewendet werden. Weitere Kategorien sollen allerdings folgen.
ire