Nachdem Facebook im vergangenen Jahr Standards zur Bekämpfung von Hass und Terrorismus im Internet festgelegt hatte, meldete es einen starken Anstieg der Anzahl von Beiträgen, die automatisch entfernt wurden, um Gewalt und Hassreden zu fördern. „Anwendungen. In einem Blogbeitrag gab das Unternehmen an, dass es im ersten Quartal 9.6 2020 Millionen Nachrichten mit Hassreden entfernt habe, verglichen mit 5.7 Millionen im Vorzeitraum. Darüber hinaus wurden 4,7 Millionen Stellen im Zusammenhang mit Hassorganisationen gestrichen, verglichen mit 1,6 Millionen im Vorquartal. Facebook sagte, dass die Nachrichten aufgrund von Verbesserungen in der Technologie zur Identifizierung dieser Nachrichten anhand von Bildern und Text automatisch entfernt wurden. Darüber hinaus wurden 50 Millionen Inhalte im Zusammenhang mit Covid-19 mit Warnhinweisen versehen und schädliche Fehlinformationen über die Pandemie verboten. Im vergangenen September kündigte das Unternehmen eine Reihe von Algorithmus-Updates an, um die Bekämpfung von Terroristen, gewalttätigen Extremistengruppen und Hassorganisationen auf Facebook und Instagram zu verbessern. Seitdem hat das Unternehmen Auszahlungsdetails auf seiner Mutterplattform Instagram, Facebook Messenger und WhatsApp bereitgestellt. Ähnliche Fortschritte erzielte das Unternehmen auf Instagram, wo die Erkennungsrate von 57.6 % auf 68.9 % sank und im ersten Quartal 175,000 Inhalte entfernt wurden. Darüber hinaus könnte das Unternehmen auch feststellen, wo sich Inhalte zu einem Thema von einem anderen unterscheiden.
Abbruchunterricht.
„Wir haben zum Beispiel gesehen, dass bei organisierten Hassverbrechen eher Memes zum Einsatz kommen, während terroristische Propaganda oft von einem zentralen Medienzweig der Organisation aus verbreitet wird und formelles Branding beinhaltet.“ „Die Identifizierung dieser Muster hilft uns, die organisierten Systeme zur Erkennung von Hass- und Terrorismusinhalten weiter zu verfeinern“, heißt es in dem Blog. Das neueste Update ist der fünfte Bericht über die Durchsetzung von Community-Standards, ein Prozess, den Facebook 2018 zusammen mit strengen Regeln für die Veröffentlichung von Inhalten begann. Es war der Dies ist das Ergebnis der brutalen Reaktion des Unternehmens auf die Überwachung von Inhalten, die auf seinen Plattformen veröffentlicht werden, zu denen auch Facebook Messenger und WhatsApp gehören. Das Unternehmen gibt an, dass es jetzt eingebetteten Text in Bildern und Videos erkennen kann, um den gesamten Kontext zu verstehen. Außerdem wurde das Vorhandensein einer Media-Matching-Technologie aufgedeckt Dadurch werden Inhalte gefunden, die mit bereits entfernten Fotos, Videos, Texten und Audiodateien identisch oder nahezu identisch sind.Willkommen an alle neuen Mitglieder des @OversightBoard. Da es sich um ein so wichtiges Thema handelt, haben wir ein kurzes Video erstellt, um zu erklären, wie das Forum funktioniert pic.twitter.com/ayfqcshGEc 6. Mai 2020