Bekämpfen Sie Misserfolge mit sprachbiometrischer Technologie.

Bekämpfen Sie Misserfolge mit sprachbiometrischer Technologie.

Mit jedem technologischen Fortschritt scheint es auch entsprechende Fortschritte bei der Nutzung dieser Technologie für schädliche Zwecke zu geben. Dies gilt insbesondere für die Finanzdienstleistungsbranche, wo die Methoden der Interaktion mit unseren Banken eine neue Generation von „Bankräubern“ hervorgebracht haben. Wenn die Transaktionen lediglich darin bestanden, eine Bankfiliale aufzusuchen, bestand die Gefahr eines finanziellen Verlusts vor allem in einem bewaffneten Angriff. Dieb. Mit dem Aufkommen des Internets wurde jedoch auch das Online-Banking eingeführt, ein entscheidender technologischer Vorteil für Banken und Kunden. Außerdem wurde eine neue Generation von Bankräubern in Form von Programmierern und Hackern eingeführt. Die neuen Flugtechniken basierten nicht auf Schusswaffen, sondern auf Social-Engineering-Techniken wie Phishing sowie viel fortschrittlicheren Techniken wie Man-in-the-Evil-Malware. -Mitte und Man-in-the-Browser. Da sie zu Computern wurden, die Geld verteilten, wurden sie zum Ziel von Malware-Angriffen. Auch Smartphone-Apps sind nicht immun gegen Malware, die auf ihre jeweiligen Betriebssysteme abzielt. Unsere Bemühungen, diesen Angriffen entgegenzuwirken, basieren häufig auch auf Technologien, wie beispielsweise dem Einsatz einer 2-Faktor-Authentifizierung mittels SMS-basierter Autorisierungscodes. Es überrascht daher nicht, dass diese Techniken auch durch Techniken wie SIM-Swapping-Angriffe und sogar das Hacken des globalen Telekommunikationsnetzwerks SS7.Deepfakes angegriffen wurden. Es gibt eine neue Technologie namens Deepfake, die, obwohl sie weit entfernte Ursprünge hat, davon überzeugt ist, dass sie als leistungsstarker neuer Betrugsvektor eingesetzt werden kann. Unter Depefake versteht man den Einsatz von maschinellem Lernen, um audiovisuelle Nachahmungen echter Menschen zu erstellen. Es nutzt eine Technik namens Generative Adversarial Network (GAN), die aus vorhandenen Datensätzen neue Daten generieren kann. Dazu gehören Bild und Ton. Beispielsweise können vorhandene Audio-/Videodateien einer sprechenden Person verwendet werden, um einen neuen synthetischen Ton/Video zu generieren, abhängig davon, was der Algorithmus aus dem tatsächlichen Video/Ton gelernt hat. Obwohl Deepfakes ursprünglich dazu dienten, Prominente in Pornofilme zu verwandeln, reichen die schädlichen Möglichkeiten von der Fälschung falscher Informationen bis hin zum Fernsehen, was bedeutet, dass wir jetzt sehen können, wie das Ziel persönlich mit uns spricht. Fake News, Wahlfälschung, Desinformationskrieg und eine ganz neue Art. Der Rückgang der Printmedien zugunsten der digitalen Rezeption unserer Nachrichten ist nicht nur praktisch, sondern hat auch viel reichhaltigere Inhalte mit sich gebracht. Audio und Video Es gibt praktisch unbegrenzte Websites, die wir für Nachrichten und Inhalte besuchen können. Wenn wir einen Videoclip einer unbekannten oder nicht unbekannten Person sehen, die eine Nachricht übermittelt, haben wir keinen Grund zu der Annahme, dass es sich bei diesem Video um eine Fälschung handelt. Dies bietet ein schlüsselfertiges Forum für diejenigen, die gefälschte Nachrichten über Deepfakes verbreiten möchten. Magier: Shutterstock (Bild: © Shutterstock) Mögliche Auswirkungen auf Finanzdienstleistungen Warum kann sich Deepfake auch auf Finanzdienstleistungen auswirken? Informationen werden zunehmend in digitaler Form verbreitet, ebenso wie Bankdienstleistungen. Bei einheitlichen und Omnichannel-Kommunikationsstrategien kommunizieren Banken mit ihren Kunden beispielsweise über ein browserbasiertes Audio-/Videosystem. Dies könnte mit einem menschlichen Agenten geschehen, in Zukunft aber auch mit auf künstlicher Intelligenz (KI) basierenden Agenten. Daher ist es nicht schwer, sich ein Video-/Audiogespräch zwischen einem vermögenden Kunden und seinem Privatbankier vorzustellen. Wenn der Kunde wie er selbst aussieht und aussieht und natürlich alle Sicherheitsfragen beantworten kann (wie er es immer tun würde), warum akzeptiert der Banker dann keine der Anweisungen des Kunden? In viel größerem Umfang nutzen Banken Gesichtserkennungstechnologie zur Authentifizierung von Kunden auf Websites und mobilen Apps? Dies kann Self-Service, Interaktion mit einem menschlichen Agenten oder mit einem KI-Chatbot umfassen. Wenn das Gesicht übereinstimmt und man bedenkt, dass Deepfakes nicht statisch sind, sondern eine Lebendigkeit zeigen, werden betrügerische Transaktionen ausgeführt. Dies sind nur zwei Beispiele für Kundeninteraktionen. Zweifellos könnten die Kommunikation und Anweisungen zwischen Banken auf die gleiche Weise kompromittiert werden, was der Autor nicht einmal in Betracht gezogen hat. Die einfache Identifizierung durch einen Kollegen oder externen Mitarbeiter könnte der Schlüssel zur Ausnutzung der Deepfake-Technologie sein. Niemand möchte die Identität einer bekannten Person bestreiten, die völlig normal aussieht und klingt. Erkennen eines Deepfakes Wie können wir also erkennen, dass das, was für unsere Augen echt aussieht und für unsere Ohren wirklich klingt, tatsächlich falsch ist? Die Antwort liegt im Audio eines Deepfakes und im Einsatz fortschrittlicher stimmbiometrischer Techniken. Unabhängig vom tatsächlichen, „menschlichen“ Erscheinungsbild eines Deepfakes wird es synthetisch erzeugt. Sogar Deepfake-Videos enthalten ausnahmslos eine Audiokomponente, und diese ist der Schlüssel zu ihrer Erkennung. Fortschrittliche sprachbiometrische Algorithmen umfassen Techniken zur Erkennung sowohl von Aufzeichnungen, sogenannten Wiedergabe- oder Präsentationsangriffen, als auch von synthetisch erzeugtem Audio. Unabhängig davon, wie eine „menschliche“ Stimme für das menschliche Ohr klingen mag, scheint sie für synthetische Erkennungsmaschinen nicht wichtig zu sein. Ihre Interpretation, ob der Ton von einem Menschen gesprochen wird oder nicht, unterscheidet sich stark von unserer. Stimmbiometrie war schon immer die leistungsstärkste und genaueste Methode zur Authentifizierung oder Identifizierung der wahren Identität eines Menschen. Die Fähigkeit der fortschrittlichsten sprachbiometrischen Maschinen, gleichzeitig den Unterschied zwischen einem Menschen und einem synthetisch erzeugten „Menschen“ zu erkennen, könnte sich als von unschätzbarem Wert erweisen, wenn wir wirklich Zeuge des Aufstiegs von Deepfakes werden.