Bekämpfung von Finanzbetrug mit maschinellem Lernen PlatoBlockchain Data Intelligence. Vertikale Suche. Ai.

Bekämpfung von Finanzbetrug mit maschinellem Lernen

Deepfakes – auch bekannt als synthetische Medien – können nicht nur dazu genutzt werden, sich als Berühmtheiten auszugeben und Desinformationen glaubwürdiger zu machen. Sie können auch für Finanzbetrug genutzt werden.

Betrüger können Deepfake-Technologie nutzen, um Mitarbeiter von Finanzinstituten dazu zu verleiten, Kontonummern zu ändern Initiierung von Geldtransferanfragen für erhebliche Beträge, sagt Satish Lalchand, Direktor bei Deloitte Transaction and Business Analytics. Er weist darauf hin, dass es oft schwierig, wenn nicht gar unmöglich ist, diese Transaktionen rückgängig zu machen.

Cyberkriminelle wenden ständig neue Techniken an, um den „Know Your Customer“-Verifizierungsprozessen und Betrugserkennungskontrollen zu entgehen. Als Reaktion darauf erforschen viele Unternehmen Möglichkeiten, wie maschinelles Lernen (ML) betrügerische Transaktionen mit synthetischen Medien, Betrug mit synthetischen Identitäten oder andere verdächtige Verhaltensweisen erkennen kann. Sicherheitsteams sollten sich jedoch der Einschränkungen bewusst sein, die der Einsatz von ML zur Erkennung von Betrug in großem Maßstab mit sich bringt.

Betrug im großen Maßstab aufdecken

Der Betrug im Finanzdienstleistungssektor in den letzten zwei Jahren sei darauf zurückzuführen, dass viele Transaktionen aufgrund der COVID-19-Pandemie auf digitale Kanäle verlagert wurden, sagt Lalchand. Er nennt drei Risikofaktoren, die den Einsatz von ML-Technologien zur Kunden- und Geschäftsverifizierung vorantreiben: Kunden, Mitarbeiter und Betrüger.

Obwohl Mitarbeiter von Finanzdienstleistungsunternehmen in der Regel über Kameras und digitale Chats im Büro überwacht werden, Fernarbeiter werden nicht so stark überwacht, sagt Lalchand. Da sich immer mehr Kunden virtuell für Finanzdienstleistungen anmelden, integrieren Finanzdienstleistungsunternehmen ML zunehmend in ihre Kundenverifizierungs- und Authentifizierungsprozesse, um dieses Zeitfenster sowohl für Mitarbeiter als auch für Kunden zu schließen. ML könne auch dazu genutzt werden, betrügerische Anträge auf staatliche Unterstützung oder Identitätsbetrug zu identifizieren, sagt Lalchand.

Zusätzlich zur Erkennung betrügerischer Handlungen Darlehen des Gehaltsscheck-SchutzprogrammsLaut Gary Shiffman, Mitbegründer von Consilient, einem IT-Unternehmen, das sich auf die Prävention von Finanzkriminalität spezialisiert hat, können ML-Modelle trainiert werden, um Transaktionsmuster zu erkennen, die auf Menschenhandel oder Missbrauch älterer Menschen hinweisen könnten.

Finanzinstitute beobachten mittlerweile, dass Betrug bei mehreren Produkten auftritt, neigen jedoch dazu, in Silos nach betrügerischen Transaktionen zu suchen. Künstliche Intelligenz und ML-Technologie können dabei helfen, Betrugssignale aus verschiedenen Bereichen zusammenzuführen, sagt Shiffman.

„Die Institutionen gehen weiterhin aufs Ganze und versuchen weiterhin herauszufinden, wo der Betrug zunimmt, aber er passiert einfach von überall her“, sagt Lalchand. „Die Verschmelzung von Informationen … nennt sich CyFi und führt Cyber- und Finanzdaten zusammen.“

ML-Tools können dabei helfen, Kunden eindeutig zu identifizieren, Identitätsbetrug aufzudecken und die Wahrscheinlichkeit von Risiken zu erkennen, sagt Jose Caldera, Chief Product Officer für globale Produkte bei Acuant bei GBG. ML kann frühere Verhaltens- und Risikosignale untersuchen und diese Erkenntnisse in der Zukunft anwenden, sagt er.

Die Grenzen des maschinellen Lernens

Obwohl ML-Modelle Datenpunkte analysieren können, um Betrug in großem Maßstab zu erkennen, wird es immer falsch positive und falsch negative Ergebnisse geben, und die Modelle werden mit der Zeit an Qualität verlieren, sagt Caldera. Daher müssen Cybersicherheitsteams, die den Algorithmus trainieren, um Betrug zu erkennen, ihre Modelle aktualisieren und die Ergebnisse regelmäßig überwachen, nicht nur alle sechs Monate oder jedes Jahr, sagt er.

„Sie müssen sicherstellen, dass Sie verstehen, dass der Prozess keine einmalige [Aufgabe] ist. Und … Sie müssen über die richtige Personalausstattung verfügen, die es Ihnen ermöglicht, diesen Prozess über einen längeren Zeitraum aufrechtzuerhalten“, sagt Caldera. „Sie werden immer mehr Informationen erhalten, und … Sie müssen in der Lage sein, diese ständig zur Verbesserung Ihrer Modelle und Systeme zu nutzen.“

Für IT- und Cybersicherheitsteams, die die Wirksamkeit von ML-Algorithmen bewerten, müssen laut Shiffman „Ground Truth“ ermittelt werden – die richtige oder „wahre“ Antwort auf eine Frage oder ein Problem. Um dies zu erreichen, testen Teams, die ML-Technologien verwenden, ein Modell anhand eines Testdatensatzes und verwenden einen Antwortschlüssel, um seine falsch-negativen, falsch-positiven, wahr-positiven und wahr-negativen Ergebnisse zu zählen, sagt er. Sobald diese Fehler und korrekten Antworten berücksichtigt sind, können Unternehmen ihre ML-Modelle neu kalibrieren, um betrügerische Aktivitäten in der Zukunft zu erkennen, erklärt er.

Neben der Aktualisierung ihrer Algorithmen zur Betrugserkennung müssen sich IT- und Cybersicherheitsteams, die ML-Technologie einsetzen, auch der rechtlichen Beschränkungen bewusst sein Teilen von Daten mit anderen Unternehmen, sogar um Betrug zu erkennen, sagt Shiffman. Wenn Sie Daten aus einem anderen Land verarbeiten, könnten Sie diese möglicherweise nicht rechtlich in die USA übertragen, sagt er.

Für Teams, die ML-Technologie zur Betrugserkennung nutzen möchten, weist Caldera darauf hin, dass solche Tools nur ein Bestandteil einer Betrugspräventionsstrategie sind und dass es keine Patentlösung zur Lösung dieses Problems gibt. Nach dem Onboarding neuer Kunden müssen Cybersicherheits- und IT-Experten auf dem Laufenden bleiben, wie sich ihr Verhalten im Laufe der Zeit ändert.

„Der Einsatz oder Nichteinsatz von Technologie oder maschinellem Lernen ist nur eine Komponente Ihres Toolsets“, sagt Caldera. „Sie als Unternehmen müssen verstehen: Wie hoch sind die Kosten, die Sie dafür aufbringen, wie hoch ist die Risikotoleranz, die Sie haben, und welche Kundenposition möchten Sie dann haben?“

Zeitstempel:

Mehr von Dunkle Lektüre