Neuseelands Premierministerin Jacinda Ardern weiter nach Kräften bemüht, einende Stärke zu zeigen und ihre traumatisierte Heimat wieder aufzurichten, brennen auch andere Fragen weiter: Wie konnte es sein, dass der Massenmord von Christchurch live auf Facebook übertragen und in voller Länge – es waren immerhin 17 Minuten – von unzähligen Usern angeschaut werden konnte? Wo beginnt die Verantwortung solcher Plattformen, wo darf diese keinesfalls enden?

1,5 Millionen Videos gelöscht

Facebook hat nach eigenen Angaben in den ersten 24 Stunden nach dem Anschlag auf zwei Moscheen in Christchurch 1,5 Millionen Videos der Tat aus dem sozialen Netzwerk gelöscht: "Wir arbeiten weiter rund um die Uhr, um gegen die Regeln verstoßende Inhalte zu entfernen", ließ Facebook Neuseeland ein wenig zu trocken und leidlich zufriedenstellend wissen. Das Video, in dem der Täter sich inszeniert und skrupellos mordet, wurde von unzähligen Usern verbreitet, flugs auch auf Youtube hochgeladen – und kursiert indes weiter im Netz. Als Kopie, als Original und in bearbeiteten Versionen.



Bis vor einigen Jahren waren die Global Players darauf angewiesen, dass sie jemand auf indiskutable Inhalte hinweist. Seit einiger Zeit wird auch Software eingesetzt, um Kinderpornografie oder Gewalt automatisch zu erkennen. Zudem werden Datenbanken für jene Fotos und Videos angelegt, die bereits entdeckt wurden. Darin wird eine Art digitaler Fingerabdruck der Dateien gespeichert – werden solche Dateien hochgeladen, sollen sie wiedererkannt und in weiterer Folge entfernt werden.

Facebook setzt zudem weiter auf menschliche Kontrolle und stockte dafür die Kapazitäten auf: Die Anzahl der Mitarbeiter in Löschzentren, die verbotene Inhalte entfernen, stieg bis Ende 2018 binnen eines Jahres um 45 Prozent auf gut 33.600. Er verliere aber das Gleichgewicht von Kosten und Einnahmen nicht aus den Augen, versicherte Facebook-Boss Mark Zuckerberg zugleich aufmerksamen Analysten. Auf wiederkehrende Kritik kontern Facebook und andere Plattformen mit dem Hinweis, dass es sehr wohl Fortschritte gebe: Beiträge mit Gewalt, Hassreden oder Terrorpropaganda würde rascher als früher gelöscht, oft schneller, als sie User zu Gesicht bekämen.

Maximilan Schubert ist Generalsekretär der ISPA, der Internet Service Providers Austria
Maximilan Schubert ist Generalsekretär der ISPA, der Internet Service Providers Austria © (c) Daniel Hinterramskogler/ISPA



Doch auch im aktuellen Fall mehrt sich Kritik am obersten Netzwerker: "Mark Zuckerberg, vier Tage danach ist Ihr Schweigen zu Christchurch ohrenbetäubend", fragt etwa die Online-Plattform "The Spinoff" nach der oft beschworenen "moralischen Verantwortung" des Datenkraken. Man baue nicht mehr auf Versprechen, wonach bald Mittel zur Beseitigung aller bedenklichen Inhalte bereitstehen. Faktum ist: Den ultimativen Suchalgorithmus für Bild- oder Videoerkennung im Netz gibt es (noch) nicht.

"Alles zu kontrollieren ist unmöglich, aber es wäre möglich, viel mehr und mit viel besserer Qualität zu kontrollieren, wenn die Unternehmen entsprechend viel Geld in die Hand nehmen", so auch die Einschätzung von Datenschutzaktivist Max Schrems. Er kritisiert, dass das EU-Recht bislang nur "Inhalteersteller" und "Hoster" kennt: "Die Hoster sind in der Vorstellung des Gesetzes praktisch ein 'dummer Server', der nicht haftet. Facebook behauptet, es ist ein reiner Host und muss daher nur tätig werden wenn es informiert wird. Ich glaube wir brauchen eine dritte Kategorie für 'Plattformen', weil diese durchaus mehr Macht über die Daten haben, aber eben auch nicht jedes Posting kontrollieren können."

Zehntausende "Cleaner" am Werk

Vodafone, das zusammen mit zwei anderen Telekommunikationsanbietern den meisten Neuseeländern ihren Netzempfang bereitstellt, will Zuckerberg und Twitter-Erfinder Jack Dorsey sowie Google-Chef Sundar Pichai zu einer "dringenden Diskussion" einladen. Thema: Wie kann man schädliche Inhalte fernhalten? Vor allem US-Konzerne stehen in der Kritik: Die Kontrolle der geposteten und geteilten Inhalte würde oft auf Sub-Unternehmer ausgelagert, die Billiglöhner in ärmeren Ländern beschäftigen. In Manila etwa sind Tausende "Cleaner" rund für Hungerlähne um die Uhr damit beschäftigt, sich Dreck anschauen zu müssen und zu entfernen. 

In der Doku "The Cleaners" wird gezeigt, wie ein "Content Moderator" zu arbeiten hat: Acht Sekunden habe er im Durchschnitt Zeit, um zu entscheiden, ob ein Bild oder ein Video auf Facebook oder anderen Netzwerken bleibt – oder ob der Beitrag gelöscht wird.