Zwalczanie oszustw finansowych dzięki uczeniu maszynowemu PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Zwalczanie oszustw finansowych za pomocą uczenia maszynowego

Deepfake – znane również jako media syntetyczne – mogą służyć nie tylko do podszywania się pod celebrytów i zwiększania wiarygodności dezinformacji. Można je również wykorzystać do oszustw finansowych.

Oszuści mogą wykorzystywać technologię deepfake, aby nakłonić pracowników instytucji finansowych do zmiany numerów kont i inicjowanie próśb o przelewy pieniężne za znaczne kwoty, mówi Satish Lalchand, dyrektor Deloitte Transaction and Business Analytics. Zauważa, że ​​transakcje te są często trudne, jeśli nie niemożliwe, do odwrócenia.

Cyberprzestępcy stale przyjmują nowe techniki, aby ominąć procesy weryfikacji opartej na zasadzie „znaj swojego klienta” i kontrole wykrywające oszustwa. W odpowiedzi wiele firm bada, w jaki sposób uczenie maszynowe (ML) może wykrywać oszukańcze transakcje z udziałem mediów syntetycznych, oszustwa związane z tożsamością syntetyczną lub inne podejrzane zachowania. Zespoły ds. bezpieczeństwa powinny jednak pamiętać o ograniczeniach stosowania uczenia maszynowego do identyfikowania oszustw na dużą skalę.

Wykrywanie oszustw na dużą skalę

Lalchand twierdzi, że oszustwa w sektorze usług finansowych, które miały miejsce w ciągu ostatnich dwóch lat, wynikały z faktu, że w wyniku pandemii Covid-19 wiele transakcji zostało przeniesionych do kanałów cyfrowych. Przytacza trzy czynniki ryzyka wpływające na przyjęcie technologii uczenia maszynowego do weryfikacji klientów i firm: klienci, pracownicy i oszuści.

Chociaż pracownicy firm świadczących usługi finansowe są zazwyczaj monitorowani w biurze za pomocą kamer i czatów cyfrowych, zdalni pracownicy nie są tak bardzo monitorowane, mówi Lalchand. Ponieważ coraz więcej klientów rejestruje się wirtualnie w usługach finansowych, firmy świadczące usługi finansowe coraz częściej włączają ML do swoich procesów weryfikacji i uwierzytelniania klientów, aby zamknąć to okno zarówno dla pracowników, jak i klientów. Lalchand twierdzi, że ML można również wykorzystać do identyfikacji fałszywych wniosków o pomoc rządową lub oszustw związanych z tożsamością.

Oprócz wykrywania oszustw Pożyczki w ramach programu ochrony wypłatModele uczenia maszynowego można przeszkolić w zakresie rozpoznawania wzorców transakcji, które mogą sygnalizować oszustwa związane z handlem ludźmi lub znęcaniem się nad osobami starszymi, mówi Gary Shiffman, współzałożyciel Consilient, firmy informatycznej specjalizującej się w zapobieganiu przestępstwom finansowym.

Instytucje finansowe obserwują obecnie pojawianie się oszustw w odniesieniu do wielu produktów, ale mają tendencję do wyszukiwania oszukańczych transakcji w silosach. Shiffman twierdzi, że sztuczna inteligencja i technologia uczenia maszynowego mogą pomóc w zebraniu sygnałów o oszustwach z wielu obszarów.

„Instytucje w dalszym ciągu atakują i próbują zidentyfikować obszary, w których nadużycia nasilają się, ale zdarzały się one wszędzie” – mówi Lalchand. „Fuzja informacji… nazywa się CyFi i łączy dane cybernetyczne i finansowe”.

Narzędzia ML mogą pomóc w pozytywnej identyfikacji klientów, wykrywaniu oszustw związanych z tożsamością i wykrywaniu prawdopodobieństwa ryzyka, mówi Jose Caldera, dyrektor ds. produktów globalnych w firmie Acuant w GBG. ML może zbadać przeszłe zachowania i sygnały ryzyka i zastosować te wnioski w przyszłości, mówi.

Granice uczenia maszynowego

Chociaż modele uczenia maszynowego mogą analizować punkty danych w celu wykrywania oszustw na dużą skalę, zawsze będą fałszywie pozytywne i fałszywie negatywne, a modele z czasem ulegną degradacji, mówi Caldera. Dlatego zespoły ds. cyberbezpieczeństwa szkolące algorytm w zakresie wykrywania oszustw muszą regularnie aktualizować swoje modele i monitorować wyniki, a nie tylko co sześć miesięcy lub co rok – mówi.

„Musisz upewnić się, że rozumiesz, że proces ten nie jest jednorazowym [zadaniem]. I… trzeba mieć odpowiedni personel, który pozwoli na utrzymanie tego procesu przez długi czas” – mówi Caldera. „Zawsze uzyskasz więcej informacji i… musisz móc je stale wykorzystywać do ulepszania swoich modeli i ulepszania swoich systemów”.

Shiffman twierdzi, że w przypadku zespołów IT i cyberbezpieczeństwa oceniających skuteczność algorytmów uczenia maszynowego będą musiały ustalić podstawową prawdę — poprawną lub „prawdziwą” odpowiedź na zapytanie lub problem. W tym celu zespoły korzystające z technologii uczenia maszynowego wypróbowują model, korzystając ze zbioru danych testowych, używając klucza odpowiedzi do zliczania wyników fałszywie ujemnych, fałszywie pozytywnych, prawdziwie pozytywnych i prawdziwie negatywnych – mówi. Po uwzględnieniu tych błędów i prawidłowych odpowiedzi firmy mogą ponownie skalibrować swoje modele uczenia maszynowego, aby w przyszłości identyfikować oszukańcze działania – wyjaśnia.

Oprócz aktualizacji swoich algorytmów w celu wykrywania oszustw zespoły IT i cyberbezpieczeństwa korzystające z technologii ML muszą również zdawać sobie sprawę z ograniczeń prawnych dotyczących udostępnianie danych innym podmiotomnawet w celu wykrycia oszustwa, mówi Shiffman. Jeśli przetwarzasz dane z innego kraju, możesz nie mieć możliwości legalnego przesłania ich do USA, mówi.

W przypadku zespołów, które chcą wykorzystać technologię uczenia maszynowego do wykrywania oszustw, Caldera ostrzega, że ​​takie narzędzia to tylko jeden z elementów strategii zapobiegania oszustwom i że nie ma jednego rozwiązania tego problemu. Po przyjęciu nowych klientów specjaliści ds. cyberbezpieczeństwa i IT muszą na bieżąco śledzić zmiany zachowań w miarę upływu czasu.

„Wykorzystanie lub nie technologii lub uczenia maszynowego to tylko jeden z elementów zestawu narzędzi” – mówi Caldera. „Jako firma musisz zrozumieć: jakie koszty to ponosisz, jaką masz tolerancję na ryzyko, a następnie jakiej pozycji klienta chcesz?”

Znak czasu:

Więcej z Mroczne czytanie