Wie soziale Netzwerke zur zuverlässigsten Informationsquelle werden

Wie soziale Netzwerke zur zuverlässigsten Informationsquelle werden
                Los directores ejecutivos de Twitter y Facebook fueron arrastrados al Congreso esta semana para ser gritados, acusados ​​e interrogados.  Se llama "techlashing" y se está convirtiendo en un ritual en Washington.
Mitglieder des Justizausschusses des Senats sind besorgt über politische Voreingenommenheit, Sucht, Hassreden und vor allem über die Desinformationskrise, in der ausländische staatliche Akteure, Verschwörungstheoretiker und inländische Propagandisten leicht mit Algorithmen spielen. . soziale Netzwerke, um gefälschte Nachrichten über gefälschte Personen mit gefälschten Benutzerprofilen zu verbreiten. . Vor einem Jahr erwarteten viele, dass das gefälschte Video im Vorfeld der jüngsten US-Wahlen zur Inszenierung eines politischen Skandals genutzt werden würde. Dies geschieht nicht. Und einer der Gründe ist, dass das menschliche Auge das Deepfake-Video immer noch erkennen kann. Allerdings wurden Deepfake-Bilder so weit perfektioniert, dass Menschen den Unterschied zwischen einem Foto einer echten Person und einem gefälschten Foto einer falschen Person nicht mehr erkennen können. Und das ist bei den Wahlen passiert. Ein „Dossier“, das in den Monaten vor der Wahl über Hunter Biden, den Sohn des gewählten Präsidenten Joe Biden, zusammengestellt wurde und dem Geschäftsmann Fehlverhalten vorwirft, zusammengestellt von Typhoon Investigations und unter der Leitung des Schweizer Sicherheitsanalysten Martin Aspen. es stellte sich als falsch heraus. Die Angaben waren falsch. Das Geschäft war eine Fälschung, der Analyst war eine Fälschung. Und sogar sein Profilbild wurde durch Deepfake-Technologie generiert. Im Wesentlichen handelte es sich dabei um die Art von KI-gesteuertem politischem Erfolg, den jeder mit einem Deepfake-Video befürchtet hatte, aber es handelte sich größtenteils um Textinformationen, die mithilfe eines Deepfake-Fotos legitim erscheinen wollten. Ironischerweise war es ein Fehler im Foto, der die Journalisten dazu veranlasste, sich mit der gesamten Akte zu befassen. Unabhängig davon hat das Forschungsunternehmen Graphika kürzlich eine pro-chinesische Desinformationskampagne namens „Dragon Spamouflage“ aufgedeckt, in der gefälschte Benutzer mit KI-generierten Deepfake-Profilbildern auf Twitter und YouTube versucht haben, die öffentliche Meinung über Verbotsdrohungen auf TikTok zu beeinflussen. . Fake-Nutzer haben Propagandavideos beworben.
                Los directores ejecutivos de Twitter y Facebook fueron arrastrados al Congreso esta semana para ser gritados, acusados ​​e interrogados.  Se llama "techlashing" y se está convirtiendo en un ritual en Washington.
Mitglieder des Justizausschusses des Senats sind besorgt über politische Voreingenommenheit, Sucht, Hassreden und vor allem über die Desinformationskrise, in der ausländische staatliche Akteure, Verschwörungstheoretiker und inländische Propagandisten leicht mit Algorithmen spielen. . soziale Netzwerke, um gefälschte Nachrichten über gefälschte Personen mit gefälschten Benutzerprofilen zu verbreiten. . Vor einem Jahr erwarteten viele, dass das gefälschte Video im Vorfeld der jüngsten US-Wahlen zur Inszenierung eines politischen Skandals genutzt werden würde. Dies geschieht nicht. Und einer der Gründe ist, dass das menschliche Auge das Deepfake-Video immer noch erkennen kann. Deepfake-Bilder wurden jedoch so weit perfektioniert, dass Menschen den Unterschied zwischen einem Foto einer echten Person und einem gefälschten Foto einer falschen Person nicht mehr erkennen können. Und genau das ist bei den Wahlen passiert. Ein „Dossier“, das in den Monaten vor der Wahl über Hunter Biden, den Sohn des gewählten Präsidenten Joe Biden, zusammengestellt wurde und dem Geschäftsmann Fehlverhalten vorwirft, zusammengestellt von Typhoon Investigations und unter der Leitung des Schweizer Sicherheitsanalysten Martin Aspen. es stellte sich als falsch heraus. Die Angaben waren falsch. Das Geschäft war eine Fälschung, der Analyst war eine Fälschung. Und sogar sein Profilbild wurde durch Deepfake-Technologie generiert. Im Wesentlichen handelte es sich dabei um die Art von KI-gesteuertem politischem Erfolg, den jeder mit einem Deepfake-Video befürchtet hatte, aber es handelte sich größtenteils um Textinformationen, die mithilfe eines Deepfake-Fotos legitim erscheinen wollten. Ironischerweise war es ein Fehler im Foto, der die Journalisten dazu veranlasste, sich mit der gesamten Akte zu befassen. Unabhängig davon hat das Forschungsunternehmen Graphika kürzlich eine pro-chinesische Desinformationskampagne namens „Dragon Spamouflage“ aufgedeckt, in der gefälschte Benutzer mit KI-generierten Deepfake-Profilbildern auf Twitter und YouTube versucht haben, die öffentliche Meinung über Verbotsdrohungen auf TikTok zu beeinflussen. . Fake-Nutzer haben Propagandavideos beworben. Ein Teil des Problems besteht darin, dass Deepfake-Technologie für Ersteller immer einfacher zu erstellen und für Benutzer immer einfacher zu finden ist. Auf Verbraucherebene werden Deepfakes, die einfach zu erstellen sind, als „Cheapfakes“ bezeichnet. Das Visual Threat Intelligence-Unternehmen Sensity hat kürzlich einen Deepfake-Bot in der Messaging-App Telegram entdeckt. Das Unternehmen behauptet, der Bot sei für ein „Deepfake-Ökosystem“ verantwortlich, das in einer Reihe von erpressungsbasierten Angriffen mehr als 100.000 Bilder erstellt habe, die Menschen auf der Grundlage normaler Fotos „digital ausziehen“. Auf YouTube findet eine Art Wettrüsten statt, bei dem Deepfake-Ersteller versuchen, sich selbst zu übertreffen, indem sie das Gesicht einer Berühmtheit auf eine andere Berühmtheit legen. Letzterer setzt das Gesicht des Schauspielers Jim Carry in die Figur des Joaquin Phoenix in „The Joker“. Die Macher von „South Park“ haben sogar einen Comedy-YouTube-Kanal namens Sassy Justice gestartet, auf dem sie Deepfake-Videos berühmter Persönlichkeiten, insbesondere von Präsident Donald Trump, in Satire verwenden. Sie nutzen sogar Deepfake-Technologie, um gefälschte Songs mit dem Sound und Stil echter Künstler wie Frank Sinatra zu erstellen. Der Sound ist seltsam und die Texte verrückt, aber man merkt, dass sie es schaffen. Es ist nur eine Frage der Zeit, bis die Deepfake-Technologie endlose, nie zuvor gehörte Songs eines berühmten Sängers produzieren kann. Im Moment denken wir über Deepfakes im Hinblick auf soziale Themen nach. Aber wie ich bereits früher in diesem Bereich erläutert habe, wird KI-gestützte Fälschung zu einem wachsenden Geschäftsproblem. Der Einsatz von Deepfake-Technologie bei Social-Engineering-Angriffen ist bereits weit verbreitet. Deepfake-Audio wird bereits in Telefonanrufen verwendet, bei denen eine Stimme verwendet wird, die so klingt, als würde der Chef um Geldüberweisungen usw. bitten.

Die Lösung für diese Technologie ist mehr Technologie

Forscher von Universitäten und Technologieunternehmen arbeiten hart daran, mit Deepfake-Erkennungstools neue Deepfake-Tools aufzuspüren. Das „FakeCatcher“-Tool der Binghamton University überwacht „Blutflussdaten“ von Gesichtern in Videos, um festzustellen, ob das Video echt oder gefälscht ist. Auch die University of Missouri und die University of North Carolina in Charlotte arbeiten an der Bild- und Videoerkennung in Echtzeit. Das Korea Advanced Institute of Science and Technology hat ein auf künstlicher Intelligenz basierendes Tool namens „Kaicatch“ entwickelt, um gefälschte Fotos zu erkennen. Aber was noch wichtiger ist: Technologieunternehmen arbeiten daran. Microsoft hat kürzlich ein neues Tool veröffentlicht, das versucht, Deepfake-Bilder und -Videos zu erkennen. Es ist nicht perfekt Anstatt Medien als echt oder gefälscht zu analysieren, liefert das Authenticator-Tool von Microsoft eine Schätzung mit einem Vertrauenswert für jedes Artefakt. Facebook startete letztes Jahr seine so genannte „Deepfake Detection Challenge“, um Forscher in die Problematik der Erkennung von Deepfake-Videos einzubeziehen. Mit jedem Fortschritt, der Deepfakes attraktiver macht, werden neue Technologien entwickelt, um sie für Computer weniger attraktiv zu machen.

Warum soziale Netzwerke zum sicheren Raum der Realität werden

Heutzutage wird das Problem KI-generierter Fälschungen in sozialen Medien mit Streichen, Comedy, politischen Fehlinformationen und Satire in Verbindung gebracht. Wir leben derzeit in den letzten Monaten der menschlichen Existenz, in denen computergenerierte Bilder und Videos für das menschliche Auge erkennbar sind. In Zukunft werden die Menschen buchstäblich keine Möglichkeit mehr haben, den Unterschied zwischen Fake-Medien und echten Medien zu erkennen. Fortschritte in der KI werden dafür sorgen. Nur die KI selbst wird in der Lage sein, die von der KI generierten Inhalte zu erkennen. Das Problem ist also: Sobald die Deep-Sensing-Technologie in der Theorie ist, wann und wo wird sie dann in der Praxis angewendet? Der erste und beste Platz wird in den sozialen Netzwerken selbst sein. Soziale Netzwerke sind bestrebt, diese Technologie zur Echtzeiterkennung gefälschter Medien anzuwenden, weiterzuentwickeln und weiterzuentwickeln. Ähnliche oder verwandte Technologien können eine Faktenprüfung in Echtzeit durchführen. Das bedeutet: Es ist unvermeidlich, dass die Informationen, die Sie in sozialen Netzwerken wie Twitter, Instagram und Facebook sehen, irgendwann in naher Zukunft am zuverlässigsten sein werden, da auf alles, was hochgeladen wird, KI angewendet wird. Andere Medien werden nicht unbedingt über diese Technologie verfügen. Und dann werden Kriminelle und Propagandisten zu anderen Mitteln greifen. Durch gefälschte Quellen werden Journalisten mit gefälschten Inhalten gesellschaftlich erzogen, um sie dazu zu bringen, Lügen zu veröffentlichen. Kriminelle täuschen Geschäftsinhaber zunehmend mit gefälschten Anrufen, Fotos und Videos bei Social-Engineering-Angriffen. Bald wird die neue Normalität bedeuten, dass Sie den Informationen, die Sie in den sozialen Medien lesen, mehr vertrauen als anderswo. Und wird es nicht etwas sein?