Können wir Facebook schützen, ohne den Mitarbeitern zu schaden?

Können wir Facebook schützen, ohne den Mitarbeitern zu schaden?

Im Jahr 2017 hat Facebook sein Leitbild leicht geändert. Es wurde eine Verpflichtung versprochen, „die Welt offener und vernetzter zu machen“, und an ihrer Stelle erschien die Absicht, „Menschen zu befähigen, eine Gemeinschaft aufzubauen und die Welt näher zusammenzubringen“.

Man kann das als Eingeständnis sehen, dass die „Öffnung“ gescheitert ist. „Offen“ bedeutet offen für Hassreden, Kindesmissbrauch, Gewalt, Sex und die Art von illegalen Handlungen, mit denen Facebook nichts zu tun haben würde. Und doch muss die Gesellschaft diesen Schaden nun stündlich und jeden Tag beseitigen.

Oder besser gesagt, er beschäftigt Fremde, um seine Drecksarbeit zu erledigen. In „The Cleaners“, einem Dokumentarfilm von Hans Block und Moritz Riesewieck, diskutieren philippinische Geschäftsleute offen über den ständigen Strom von Sex, Gewalt und Hassreden, den sie jeden Tag filtern müssen.

Mozfest 2019

Der ehemalige Facebook-Moderator Chris Gray und der Filmemacher Moritz Riesewieck beim Mozfest 2019

(Bildnachweis: Connor Ballard-Bateman)

Jede Entscheidung sollte innerhalb von acht bis zehn Sekunden getroffen werden, und „Denken Sie nicht zu viel nach“ ist bereits ein direktes Zitat aus dem Schulungsmaterial. „Machen Sie sich nicht zu viele Gedanken darüber, ob Ihre Entscheidung richtig oder falsch ist, sonst überdenken Sie es und können keine Entscheidung treffen“, sagt Riesewieck gegenüber TechRadar auf Mozillas Mozfest, wo er und sein Regisseurkollege herkommen. Nehmen Sie an einer Internet-Moderationsdiskussionsgruppe teil.

Wenn jemals ein Unternehmen auf der Idee beharren musste, dass jedes Problem mit genügend Geld gelöst werden kann, dann ist es Facebook. Und doch nimmt das Problem bisher nur zu. Im Jahr 2009 gab es bei Facebook nur 12 (ja, zwölf) Content-Moderatoren, die sich um das Wohlergehen von 120 Millionen Nutzern kümmerten. Mittlerweile gibt es mehr als zwei Milliarden Menschen auf der Plattform und rund 15,000 Moderatoren. Dies bedeutet zwar, dass das Moderator/Nutzer-Verhältnis von moderat auf niedrig gesunken ist, es ist jedoch erwähnenswert, dass Facebook im Jahr 2019 ganz anders ist als vor einem Jahrzehnt, als der „J“-Button verwendet wurde. Wie „war die neueste Innovation und Facebook Live, es gab noch viele Jahre.“

„Das Schlimmste vom Schlimmsten an Internetverschwendung“

„Es wird geschätzt, dass rund 100,000 Fachleute in diesem Bereich arbeiten“, sagt Clara Tsao, eine Mozilla-Kollegin und Expertin für die Bekämpfung von Online-Fehlinformationen. „Sie kümmern sich um den schlimmsten Internetmüll“, fügt er hinzu und weist darauf hin, dass sie am 4. Januar im wahrsten Sinne des Wortes „Hausmeister“ genannt werden.

Allerdings sind Internet-Reiniger im Gegensatz zu echten Hausmeistern nicht immer mit der richtigen Hardware für die anstehende große Aufgabe ausgestattet. Das philippinische Kontingent von Facebook erlebte manchmal Austausch in Sprachen, die sie nicht sprachen, und nutzte Google Translate, um die Bedeutung zu verstehen. Dies nimmt unweigerlich einen schweren Ton an, noch bevor die unvermeidlichen kulturellen Unterschiede zwischen Ländern angesprochen werden, die durch einen Abstand von acht Stunden zwischen den Zeitzonen getrennt sind.

Social-Media-Bilder

Facebook-Moderatoren müssen große Mengen an Inhalten aus der ganzen Welt überwachen und möglicherweise Gespräche in einer Sprache bewerten, die sie nicht sprechen.

(Bildnachweis: Shutterstock)

Facebook-Moderatoren gibt es nicht nur auf den Philippinen. Es gibt Niederlassungen auf der ganzen Welt, und Chris Gray landete in Dublin, nachdem er eine Zeit lang in Asien unterrichtet hatte. Er ist nun der Hauptkläger der Moderatoren in einem Verfahren vor dem Obersten Gerichtshof gegen Facebook. Während eines neunmonatigen Zeitraums im Unternehmen (in Irland haben die meisten Arbeiter einen 11-Monats-Vertrag, aber die meisten verlassen das Unternehmen vorzeitig) probierte Gray 500 bis 600 Inhalte pro Nacht aus, normalerweise von 18 bis 2 Uhr. . Nur ein Jahr nach seiner Abreise erhielt er offiziell die Diagnose einer posttraumatischen Belastungsstörung.

„Es hat ein Jahr gedauert, bis mir klar wurde, dass mich dieser Job umgehauen hat“, sagte er in der Gruppendiskussion. Diese verzögerte Reaktion, sagt Riesewieck, sei nicht ganz ungewöhnlich. „In einigen Fällen erzählten sie uns, dass es vor allem ihre Freunde waren, die ihnen erzählten, dass sie sich verändert hatten“, sagt er.

Es dauerte ein Jahr, bis mir klar wurde, dass mich dieser Job am Arsch getroffen hatte

Chris Gray

Auf jeden Fall sind viele ehemalige Kollegen von Gray erfreut darüber, dass er gegen das NDA verstoßen und die Klage in die Länge gezogen hat, auch wenn sie noch nicht bereit sind, dies öffentlich zu sagen. Jetzt. „Die Leute kommen einfach aus dem Wald und sagen: ‚Oh, Gott sei Dank, jemand hat sich zu Wort gemeldet und das gesagt‘“, sagte er später zu LaComparacion.

Um es klar zu sagen: Trotz der Tatsache, dass er persönlich von der Arbeit betroffen war, hält Gray es für irreführend anzunehmen, dass es sich um eine endlose Aktivität voller Blut, sexueller Ausbeutung und Ausbeutung handelt. „Um ehrlich zu sein, ist die meiste Arbeit mühsam“, sagt er. „Das sind nur Leute, die sich gegenseitig melden, weil sie streiten und einen Prozess nutzen wollen, um mit der anderen Person zu kommunizieren.“

Mühsam, aber hoher Druck. Im irischen Büro hatte Gray 30 Sekunden Zeit, um ein Urteil über den Inhalt zu fällen, bei dem es sich um eine Beleidigung einer Zeile oder eines 30-minütigen Videos handelte. . „Wenn Ihr Zuhörer zwei Sekunden nach Ihnen auf (ein Video) geklickt hat und etwas anderes sah, eine andere Beleidigung hörte oder etwas weiter oben in der Prioritätshierarchie sah, dann seien Sie ehrlich, Sie haben eine schlechte Entscheidung getroffen.“ Schlechte Entscheidungen wirken sich auf das Qualitätsniveau aus, und das Qualitätsniveau wirkt sich auf Ihre Arbeit aus. Dennoch war das Ziel des Büros eine nahezu unmögliche Genauigkeit von 98 %.

Super Heroes

Es ist schwer, Leute zu finden, die über ihre Moderationserfahrungen sprechen, wie Block und Riesewieck bei der Themensuche herausfanden. NDAs sind universell und das Werk ist unter einem Codenamen klassifiziert: Zum Zeitpunkt der Dreharbeiten war es das „Honey Badger Project“.

Trotzdem stellen Facebook oder Subunternehmer, die sich zurückhaltend zeigen, offen ein, auch wenn sie häufig äußerst irreführend darüber sind, was der Job eigentlich beinhaltet. „Sie verwenden Superhelden in Kostümen, ‚Kommt schon, seid Superhelden, räumt das Internet auf‘“, sagt Gabi Ivens, ein weiteres Mozilla-Mitglied im Panel. In einer Anzeige für Content-Moderatoren in Deutschland wurden Fragen gestellt wie „Mögen Sie soziale Medien und möchten Sie über das Geschehen in der Welt auf dem Laufenden bleiben?“

Trotz der allgemeinen Langeweile des Alltags überraschen die Dokumentarfilme von Block und Riesewieck: Viele der Interviewpartner sind sehr stolz auf diese Rolle und betrachten sie weniger als Pflicht als als Job.

Facebook

Philippinische Facebook-Moderatoren erklärten den Regisseuren Hans Block und Moritz Riesewieck, dass es ihre ethische Pflicht sei, das Internet aufzuräumen.

(Bildnachweis: Shutterstock)

„Sie erzählten uns, dass sie sich wie Internet-Superhelden fühlten, wie Polizisten, die das Internet überwachen“, sagte Block. Administratoren führen dies zum Teil auf die 90 Prozent christliche Bevölkerung der Philippinen zurück. „Sie sagten uns, dass sie das Gefühl hatten, dass Jesus die Welt befreite“, fügt Block hinzu. Dies wiederum könnte dazu führen, dass Menschen zögern, das Unternehmen zu verlassen, da es eine ethische Pflicht und nicht nur ein Job ist.

Dem sind aber Grenzen gesetzt, zumal die Moderatoren nicht selbst die letzten Entscheidungen treffen. Hier ist der heilige Text das labyrinthische Regelwerk und die Anweisungen von Facebook: Tausende von Wörtern, die sich über viele Jahre angesammelt haben. In manchen Fällen müssen Menschen die Sprache schützen, die ihrer Meinung nach verboten werden sollte, oder Wörter verbieten, die ihrer Meinung nach geschützt werden sollten, was laut Ivens ein klares Problem für das Wohlbefinden darstellt. „Inhalte online zu halten, von denen man denkt, dass sie nicht zugänglich sind, sollte extrem schädlich sein, bevor man überhaupt darüber nachdenkt, was die Leute sehen.“

Die Ironie daran, die Regeln als heilig zu betrachten, besteht darin, dass die Regeln von Facebook nie ein unfehlbarer, eingefrorener Text waren: Sie sind das Ergebnis jahrelanger iterativer Änderungen, die nach und nach auf auftretende Krisen reagieren und versuchen, das Subjektive zielgerichteter zu gestalten.

Inhalte online zu halten, von denen Sie glauben, dass sie nicht online sein sollten, ist äußerst schädlich, bevor Sie überhaupt darüber nachdenken, was die Leute sehen.

Gabi Ivens

Erinnern Sie sich an die Aktion „Free Nipple“? Kurz gesagt, in den Richtlinien von Facebook hieß es ursprünglich, dass jedes Foto mit Brüsten als Pornografie verboten werden sollte, was bedeutete, dass das Internet von stolzen Müttern ausgeschlossen wurde, die auf der Plattform stillten. Facebook hat seine Regeln nach und nach geändert und akzeptiert, dass der Kontext wichtig ist. Ebenso müssen wir akzeptieren, dass es Ihre Pflicht ist, zu handeln, auch wenn der Verzehr von Gezeitenkapseln oder die Verbreitung von Anti-Impf-Verschwörungstheorien nichts Illegales ist, wenn sich etwas zu einer Epidemie im Bereich der öffentlichen Gesundheit entwickelt.

„Einige Plattformen sagen, dass einige der Inhalte vielleicht nicht illegal sind, aber das ist inakzeptabel“, sagt Tsao. Aber „andere meinen, das Internet sollte mehr Freiheiten haben, zu sagen, was es will.“ Für Facebook führt diese Dichotomie zu absurden Granularitätsebenen: „Jetzt haben wir einige Hinweise auf die Drohung, jemanden vom Dach zu stoßen“, sagt Gray. „Schieben ist keine gewalttätige Aktion. An der Decke zu sein ist wichtig, aber wie hoch ist sie?“ Schade, „denken Sie nicht zu viel nach.“

Diese Art von Trägheit in den Moderationsrichtlinien ermöglicht es Internet-Trollen, zu gedeihen. Sie müssen nicht lange suchen, um Beispiele für Internetgerüchte zu finden, die es direkt auf den Punkt bringen, ohne es zu übertreiben. Stattdessen überlassen sie es ihren Anhängern, und manchmal schwappt es katastrophalerweise auf die reale Welt über.

Moral überschreitet keine Grenzen

Der globale Status von Facebook macht das Problem noch komplexer, da Moralvorstellungen nicht über Grenzen hinweg geteilt werden. „Es ist kompliziert, weil es über die lokale Politik der Länder hinausgeht und an einen Wilden Westen grenzt“, sagt Tsao.

Gray gibt ein Beispiel für die Sexualität der Menschen: Gay Pride ist in den meisten westlichen Ländern sehr präsent, anderswo auf der Welt jedoch weniger. Sie können einen Freund in einem Beitrag als schwul markieren und er fühlt sich mit seiner Sexualität so wohl, dass er sie teilt. In diesem Fall ist es also vernünftig, nicht aufzuhören, selbst wenn sich ein homophobes Mädchen darüber beschwert.

Facebook

Moral ist kein globales Konzept. was die Moderation internationaler Inhalte zu einer großen Herausforderung macht

(Bildnachweis: Shutterstock)

„Aber wenn man in Nigeria ist, könnte man geschlagen oder getötet werden, weil jemand diese Nachricht sieht“, sagt er. „Dieser Fehler könnte jemanden das Leben kosten. Ich meine, es ist die Realität: Manchmal geht es um Leben oder Tod.“

Objektive Gewalttaten müssten konkreter sein, sind es aber nicht. Das Video, das zeigt, wie ein Kind erschossen wird, mag wie ein offensichtlicher Repressionskandidat erscheinen, aber was passiert, wenn Bürgerjournalismus nicht gemeldete Kriegsverbrechen aufdeckt? Wenn Facebook es abschafft, ist es dann nicht nur der unwissende Propagandaflügel der schlimmsten Despoten der Welt?

Das ist die Realität: Manchmal blicken wir auf Situationen, in denen es um Leben und Tod geht.

Chris Gray

Es ist komplex, leicht zu verwechseln und hilft Arbeitnehmern nicht, anhand ihrer objektiven Reaktionen auf subjektive Positionen beurteilt zu werden. „Die Leute protestieren und tauchen an meinem Schreibtisch auf“, sagte Gray auf der Podiumsdiskussion. „Und ich muss den Anruf tätigen: Ist dieses Baby tot? Dann muss ich den richtigen Knopf drücken. Wenn ich den falschen Knopf drücke, weil mein Zuhörer denkt, das Baby sei nicht tot, dann irre ich mich und erreiche die Qualitätsstufe und.“ Ich werde gefeuert.

„Also liege ich nachts wach im Bett, schaue mir das Foto noch einmal an und versuche, mich dafür einzusetzen, meinen Job zu behalten.“

Kann es repariert werden?

An diesem Punkt sollte es ziemlich offensichtlich sein, dass es nicht allein die Schuld von Facebook ist, auch wenn das Unternehmen während des gesamten Prozesses nicht hilfreich war. Aber was kann er tun? Es liegt auf der Hand, dass das Problem nicht funktionieren wird und die KI-Moderation noch nicht für die Show bereit ist. (Und dazu gibt es berechtigte Fragen.) Zunächst müssen Menschen die KI trainieren, wodurch das Trauma einen Schritt zurückgeht. 39 wird es sehr schwierig sein, den Menschen vollständig aus dem Kreislauf zu entfernen“, sagt Tsao.

„Facebook hat dafür keine klare Strategie“, sagt Gray. „Alles ist reaktiv. Etwas passiert, also erlassen sie eine neue Regel und stellen mehr Leute ein. Er glaubt, dass mangelnde Führung die Wurzel des Problems ist.“ „Man muss wissen, wohin man damit will und was die Strategie ist.“ „Sie tun es nicht. Daraus ergibt sich alles.“

Gestresster Arbeiter

Roderick Ordens, Professor für Psychologie, hält es für äußerst wichtig, dass niemand diese Art von Arbeit alleine erledigt. Die Verantwortung liegt nicht ausschließlich bei einer Person.

(Bildnachweis: Shutterstock)

Tsao glaubt, dass dies teilweise darauf zurückzuführen ist, dass die Entscheidungsträger dies nicht selbst tun mussten. „Ich habe Verantwortliche für Vertrauen und Sicherheit in Unternehmen interviewt und einer von ihnen hat immer gesagt: „Wer in diesem Berufsfeld eine Führungsrolle übernehmen will, muss verstehen, wie das funktioniert.“ „Sie müssen das Trauma verstehen, Sie müssen verstehen, welche Art von Unterstützungssystem benötigt wird.“

Roderick Ordens, Professor für Psychologie an der University of Lincoln, hat seine eigenen Ansichten, wenn er kontaktiert wird. „Es besteht eine Sorgfaltspflicht. Dies garantiert keineswegs, dass es unter den Personen, die diese Art von Material betrachten, keine Verluste gibt, aber es muss festgestellt werden, dass das Unternehmen alles Mögliche getan hat, um die Risiken für die Mitarbeiter zu verringern.“

Niemand sollte diese Art von Arbeit alleine erledigen. Und wenn es von einer Gruppe gemacht wurde, dann ist der starke Zusammenhalt der Gruppe das, was wirklich zählt.

Roderick-Befehle

„Zuallererst sollte niemand diese Art von Arbeit alleine erledigen. Und wenn sie von einer Gruppe erledigt wird, dann kommt es wirklich auf den starken Zusammenhalt der Gruppe an. Es ist sehr wichtig, dies so zu organisieren, dass die Verantwortung nicht wahrgenommen wird.“ als Verantwortung des Einzelnen.

Laut Ordens muss jedes Unternehmen, das „einen solch gefährlichen Job“ anstellt, eine Schulung erhalten, damit die Mitarbeiter die Warnzeichen erkennen können: „ein allgemeines Gefühl des Unbehagens, der Unfähigkeit, sich nach der Arbeit zu entspannen, vielleicht übermäßige Sorge vor einigen Bildern.“ Achten Sie besonders darauf, ob der Schlaf beeinträchtigt ist: Bei einer Anhäufung von schlechtem Schlaf ist alles andere viel schlimmer.“

„Was beunruhigt dich?“

Ob Facebook an solchen Erkenntnissen interessiert ist, ist ein weiteres Problem. „Wir behaupten nicht, dass die ganze Schuld bei den Unternehmen liegt, das stimmt nicht“, sagt Block. „Der Fehler liegt, zumindest unserer Meinung nach, darin, dass sie es nicht transparent machen, die Diskussion nicht eröffnen und nicht akzeptieren, dass sie das alles nicht alleine entscheiden können.“ Block und Riesewieck wissen, dass einige Facebook-Mitarbeiter ihren Film während einer Vorführung in San Francisco gesehen haben, und es war sogar die Rede davon, ihn in Facebook-Büros zu zeigen, sodass Folge-E-Mails mysteriöserweise unbeantwortet bleiben.

Es ist wahr, dass die NDA-Behandlung nicht hilft, und die große Anzahl ehemaliger Mitarbeiter und mit ihnen verbundener ehemaliger Mitarbeiter bedeutet, dass die Wirkung zwangsläufig nachlassen wird, da die Zahlen eine gewisse Sicherheit bieten. Gray hatte keine Facebook-Neuigkeiten, die er verbreiten konnte, zumindest nicht direkt.

„Ich habe vor ein paar Wochen einen Anruf von einem ehemaligen Kollegen erhalten. Sie sagten: ‚Hey, sie haben mir gesagt, dass Facebook Sie verklagt.‘ Nein. Wer, sagen Sie, wurde verklagt? Mein Teamleiter.“ Ihr Team versucht es um dich dazu zu manipulieren, den Mund zu halten.

Ich weiß nicht, ob schon etwas getan wurde. Wissen Sie, es scheint einfach ein Vakuum zu sein

Chris Gray

Mit anderen Worten: Die Balance zwischen Zuckerbrot und Peitsche ist genauso komisch wie der Facebook-Moderator/Nutzer-Bericht. Da die Menschen das Internet verbessern wollen, könnte Facebook diesen Sinn vielleicht nutzen?

Sogar Gray erinnert sich an seine positive Einstellung, da er sich an eine SMS erinnert, die er zu Beginn verschickt hat. „Ich sagte: „Ich habe persönlich 13 Fälle von Kindesmissbrauch an das Schnellreaktionsteam weitergeleitet und fühle mich wirklich gut.“ Aber das hielt nicht an. „Ich habe noch nie von diesen Leuten gehört. Ich weiß nicht, ob schon etwas unternommen wurde. Wissen Sie, es scheint, als ob alles im luftleeren Raum geschieht.“

Könnte Anerkennung einen Unterschied machen und die Moral stärken? Vielleicht, aber nur wenn sie wirklich Wirkung zeigen, greift Gray ausreichend ein. „Ein Kind in Afghanistan wird nackt auf dem Bett gefesselt und geschlagen. Das macht die Sache noch schlimmer, weil es sich um sexuellen Missbrauch eines Kindes handelt, aber was kann man tun?

„Ich folge nur der Richtlinie, die Person an der Spitze nimmt sie einfach zurück.“