Immer wieder fragen sich Nutzer, wie Facebook Anträge auf Löschen von Beiträgen bearbeitet und welche Kriterien es dafür gibt. Oftmals scheinen die Entscheidungen ambivalent. Die britische Zeitung „Guardian“ hat nun interne Facebook-Dokumente online gestellt. Angeblich sind diese der Zeitung aus Facebook-Kreisen zugespielt worden. Man habe mehr als 100 interne Schulungshandbücher, Tabellen und Flussdiagramme einsehen können, die im letzten Jahr an Facebook-Moderatoren übergeben worden seien. Bislang wird die Authentizität der Informationen nicht angezweifelt.
How Facebook allows users to post footage of children being bullied https://t.co/6hwrq8PfoW
— The Guardian (@guardian) 22. Mai 2017
Facebook außer Kontrolle
Anfang Mai verkündete Facebook, dass man die Mitarbeiterzahl, die als Online-Aufpasser im sozialen Netzwerk fungieren, von 3000 weltweit auf 7500 aufstocken wolle. So sollten z.B Mordvideos und ähnliches von nun an verhindern. Doch die Prüfteams bei Facebook arbeiten am Limit. Entscheidungen in konkreten Fällen würden innerhalb von „zehn Sekunden“ getroffen werden. Der Guardian zitiert eine ungenannte Quelle:“Facebook hat die Inhalte nicht mehr unter Kontrolle (…), es ist zu schnell zu groß geworden“.
Bitte nicht nackt
Insbesondere wenn es um zu viel bloße Haut geht, sollen die Mitarbeiter sich für das Löschen entscheiden. Jede „handgemachte“ Kunst, die Nacktheit oder sexuelle Aktivität zeigt, sei auf Facebook erlaubt, während digital produzierte Kunst mit denselben Inhalten verboten ist. Auch Abtreibungsvideos sind für Facebook in Ordnung, solange sie keine Nacktheit beinhalten.
Mord ab 18
Videos, die Mord oder Totschlag zeigen, sollen nur für Kinder und Jugendliche unter 18 gesperrt, aber nicht für alle Nutzer gelöscht werden. Die Videos seien aufwühlend, zitiert der „Guardian“ Facebook-Einschätzungen, könnten aber helfen, ein Bewusstsein für Kriegsverbrechen oder psychische Krankheiten zu schaffen.
Meistgesehen: Zweiter Fall nach Mord in den USA: Thailänder tötet sich und seine Tochter live bei Facebook https://t.co/iYhJegORun (Vid) pic.twitter.com/z0RZKkBUxF
— n-tv (@ntvde) 26. April 2017
Kein Eingriff bei Selbstverletzung
Bei Livestreams, in denen sich Leute selbst etwas antun wollen, möchte Facebook „Menschen in Not nicht zensieren oder bestrafen“. Die Inhalte sollen aber entfernt werden, wenn es keine Möglichkeit mehr gebe, der Person zu helfen.
Katelyns Suizid verpflichtet Facebook zu neuen Wegen https://t.co/YozkoTmsay pic.twitter.com/UlCKZljARu
— WELT (@welt) 15. Mai 2017
Im Zweifel war es der Computer
Gegenüber dem „Guradian“ sagte Facebook, dass das Netzwerk auch eine Software einsetze, um explizite Inhalte abzufangen, bevor sie auf die Seite gehen. Man wolle aber, dass die Menschen die Möglichkeit haben, weltweit aktuelle Geschehnisse zu diskutieren. Dies sei nicht immer leicht einzuschätzen, da die weltweite Community zu komplex sei.
Die Plattform für Selbstdarstellung
In Deutschland wird aktuell ein Gesetzesentwurf von Heiko Maas diskutiert, der Facebook und andere Plattformen bestrafen sollte, falls sie z.B. Hatespeech nicht löschen. Doch gegen die Verbreitung von Mord- und Selbstmord-Livestreams scheint es bislang kein Mittel zu geben. Inwiefern 10 Sekunden reichen um eine Situation passend einzuschätzen, zeigt der Fall, in dem ein Bild aus dem Vietnam-Krieg gelöscht wurde, weil es angeblich Kinderpornografie zeige. Das geliegte Material des „Guardian“ scheint genau das Facebook darzustellen, dass sich alle nach solchen Fällen bereits vorstellten.
Facebook dreht die Zensur zurück: Facebook hat ein Foto aus dem Vietnam-Krieg von der Pla… https://t.co/axPDcZmAUK via @FAZ_Wirtschaft
— Marius S. Reichelt (@MarSReichelt) 22. Oktober 2016

Helena Serbent

Neueste Artikel von Helena Serbent (alle ansehen)
- Abtreibungsvideos: Ja! Aber bitte nicht nackt. – So löscht Facebook Beiträge. - 22. Mai 2017
- Lindner: Der digitale Siegeszug - 15. Mai 2017
- Facebook – Der Tod der Demokratie? - 12. Mai 2017
0 Kommentare
Kommentar schreiben