Facebook meldet eine erhöhte Anzahl von Beiträgen, die zur Förderung von Hass entfernt wurden

Facebook meldet eine erhöhte Anzahl von Beiträgen, die zur Förderung von Hass entfernt wurden

Nachdem Facebook im vergangenen Jahr Standards zur Bekämpfung von Hass und Terrorismus im Internet festgelegt hatte, meldete es einen starken Anstieg der Anzahl von Beiträgen, die automatisch entfernt wurden, um Gewalt und Hassreden zu fördern. „Anwendungen. In einem Blogbeitrag gab das Unternehmen an, dass es im ersten Quartal 9.6 2020 Millionen Nachrichten mit Hassreden entfernt habe, verglichen mit 5.7 Millionen im Vorzeitraum. Darüber hinaus wurden 4,7 Millionen Stellen im Zusammenhang mit Hassorganisationen gestrichen, verglichen mit 1,6 Millionen im Vorquartal. Facebook sagte, dass die Nachrichten aufgrund von Verbesserungen in der Technologie zur Identifizierung dieser Nachrichten anhand von Bildern und Text automatisch entfernt wurden. Darüber hinaus wurden 50 Millionen Inhalte im Zusammenhang mit Covid-19 mit Warnhinweisen versehen und schädliche Fehlinformationen über die Pandemie verboten. Im vergangenen September kündigte das Unternehmen eine Reihe von Algorithmus-Updates an, um die Bekämpfung von Terroristen, gewalttätigen Extremistengruppen und Hassorganisationen auf Facebook und Instagram zu verbessern. Seitdem hat das Unternehmen Auszahlungsdetails auf seiner Mutterplattform Instagram, Facebook Messenger und WhatsApp bereitgestellt. Ähnliche Fortschritte erzielte das Unternehmen auf Instagram, wo die Erkennungsrate von 57.6 % auf 68.9 % sank und im ersten Quartal 175,000 Inhalte entfernt wurden. Darüber hinaus könnte das Unternehmen auch feststellen, wo sich Inhalte zu einem Thema von einem anderen unterscheiden.

Abbruchunterricht.

„Wir haben zum Beispiel gesehen, dass bei organisierten Hassverbrechen eher Memes zum Einsatz kommen, während terroristische Propaganda oft von einem zentralen Medienzweig der Organisation aus verbreitet wird und formelles Branding beinhaltet.“ „Die Identifizierung dieser Muster hilft uns, die organisierten Systeme zur Erkennung von Hass- und Terrorismusinhalten weiter zu verfeinern“, heißt es in dem Blog. Das neueste Update ist der fünfte Bericht über die Durchsetzung von Community-Standards, ein Prozess, den Facebook 2018 zusammen mit strengen Regeln für die Veröffentlichung von Inhalten begann. Es war der Dies ist das Ergebnis der brutalen Reaktion des Unternehmens auf die Überwachung von Inhalten, die auf seinen Plattformen veröffentlicht werden, zu denen auch Facebook Messenger und WhatsApp gehören. Das Unternehmen gibt an, dass es jetzt eingebetteten Text in Bildern und Videos erkennen kann, um den gesamten Kontext zu verstehen. Außerdem wurde das Vorhandensein einer Media-Matching-Technologie aufgedeckt Dadurch werden Inhalte gefunden, die mit bereits entfernten Fotos, Videos, Texten und Audiodateien identisch oder nahezu identisch sind.

Willkommen an alle neuen Mitglieder des @OversightBoard. Da es sich um ein so wichtiges Thema handelt, haben wir ein kurzes Video erstellt, um zu erklären, wie das Forum funktioniert pic.twitter.com/ayfqcshGEc 6. Mai 2020

Der Aufsichtsrat

Nach den Terroranschlägen im neuseeländischen Christchurch im vergangenen März kündigte Facebook an, eine multidisziplinäre Gruppe aus Sicherheits- und Terrorismusbekämpfungsexperten einzurichten, um Richtlinien zu entwickeln und Produktinnovationen zu entwickeln. Helfen Sie mit, Inhalte zu definieren, zu identifizieren und zu entfernen, die zu Hass und Kriminalität führen. Facebook gab letzte Woche mit der Ankunft der ersten 20 Mitglieder die Bildung seines lang erwarteten Aufsichtsausschusses bekannt. Zu diesem internationalen Gremium gehörten Journalisten, ein ehemaliger Premierminister, ein Nobelpreisträger, Anwälte und Anti-Terror-Experten, die bei Diskussionen über die Moderation von Inhalten auf der größten Plattform das letzte Wort haben würden. globale soziale Netzwerke. Das Team umfasst mittlerweile 350 Personen mit Erfahrung in den Bereichen Strafverfolgung und Heimatschutz bis hin zu Geheimdiensten zur Terrorismusbekämpfung und Studien zur Radikalisierung an Universitäten, so das Unternehmen.