Deepfake – znane również jako media syntetyczne – mogą służyć nie tylko do podszywania się pod celebrytów i zwiększania wiarygodności dezinformacji. Można je również wykorzystać do oszustw finansowych.
Oszuści mogą wykorzystywać technologię deepfake, aby nakłonić pracowników instytucji finansowych do zmiany numerów kont i inicjowanie próśb o przelewy pieniężne za znaczne kwoty, mówi Satish Lalchand, dyrektor Deloitte Transaction and Business Analytics. Zauważa, że transakcje te są często trudne, jeśli nie niemożliwe, do odwrócenia.
Cyberprzestępcy stale przyjmują nowe techniki, aby ominąć procesy weryfikacji opartej na zasadzie „znaj swojego klienta” i kontrole wykrywające oszustwa. W odpowiedzi wiele firm bada, w jaki sposób uczenie maszynowe (ML) może wykrywać oszukańcze transakcje z udziałem mediów syntetycznych, oszustwa związane z tożsamością syntetyczną lub inne podejrzane zachowania. Zespoły ds. bezpieczeństwa powinny jednak pamiętać o ograniczeniach stosowania uczenia maszynowego do identyfikowania oszustw na dużą skalę.
Wykrywanie oszustw na dużą skalę
Lalchand twierdzi, że oszustwa w sektorze usług finansowych, które miały miejsce w ciągu ostatnich dwóch lat, wynikały z faktu, że w wyniku pandemii Covid-19 wiele transakcji zostało przeniesionych do kanałów cyfrowych. Przytacza trzy czynniki ryzyka wpływające na przyjęcie technologii uczenia maszynowego do weryfikacji klientów i firm: klienci, pracownicy i oszuści.
Chociaż pracownicy firm świadczących usługi finansowe są zazwyczaj monitorowani w biurze za pomocą kamer i czatów cyfrowych, zdalni pracownicy nie są tak bardzo monitorowane, mówi Lalchand. Ponieważ coraz więcej klientów rejestruje się wirtualnie w usługach finansowych, firmy świadczące usługi finansowe coraz częściej włączają ML do swoich procesów weryfikacji i uwierzytelniania klientów, aby zamknąć to okno zarówno dla pracowników, jak i klientów. Lalchand twierdzi, że ML można również wykorzystać do identyfikacji fałszywych wniosków o pomoc rządową lub oszustw związanych z tożsamością.
Oprócz wykrywania oszustw Pożyczki w ramach programu ochrony wypłatModele uczenia maszynowego można przeszkolić w zakresie rozpoznawania wzorców transakcji, które mogą sygnalizować oszustwa związane z handlem ludźmi lub znęcaniem się nad osobami starszymi, mówi Gary Shiffman, współzałożyciel Consilient, firmy informatycznej specjalizującej się w zapobieganiu przestępstwom finansowym.
Instytucje finansowe obserwują obecnie pojawianie się oszustw w odniesieniu do wielu produktów, ale mają tendencję do wyszukiwania oszukańczych transakcji w silosach. Shiffman twierdzi, że sztuczna inteligencja i technologia uczenia maszynowego mogą pomóc w zebraniu sygnałów o oszustwach z wielu obszarów.
„Instytucje w dalszym ciągu atakują i próbują zidentyfikować obszary, w których nadużycia nasilają się, ale zdarzały się one wszędzie” – mówi Lalchand. „Fuzja informacji… nazywa się CyFi i łączy dane cybernetyczne i finansowe”.
Narzędzia ML mogą pomóc w pozytywnej identyfikacji klientów, wykrywaniu oszustw związanych z tożsamością i wykrywaniu prawdopodobieństwa ryzyka, mówi Jose Caldera, dyrektor ds. produktów globalnych w firmie Acuant w GBG. ML może zbadać przeszłe zachowania i sygnały ryzyka i zastosować te wnioski w przyszłości, mówi.
Granice uczenia maszynowego
Chociaż modele uczenia maszynowego mogą analizować punkty danych w celu wykrywania oszustw na dużą skalę, zawsze będą fałszywie pozytywne i fałszywie negatywne, a modele z czasem ulegną degradacji, mówi Caldera. Dlatego zespoły ds. cyberbezpieczeństwa szkolące algorytm w zakresie wykrywania oszustw muszą regularnie aktualizować swoje modele i monitorować wyniki, a nie tylko co sześć miesięcy lub co rok – mówi.
„Musisz upewnić się, że rozumiesz, że proces ten nie jest jednorazowym [zadaniem]. I… trzeba mieć odpowiedni personel, który pozwoli na utrzymanie tego procesu przez długi czas” – mówi Caldera. „Zawsze uzyskasz więcej informacji i… musisz móc je stale wykorzystywać do ulepszania swoich modeli i ulepszania swoich systemów”.
Shiffman twierdzi, że w przypadku zespołów IT i cyberbezpieczeństwa oceniających skuteczność algorytmów uczenia maszynowego będą musiały ustalić podstawową prawdę — poprawną lub „prawdziwą” odpowiedź na zapytanie lub problem. W tym celu zespoły korzystające z technologii uczenia maszynowego wypróbowują model, korzystając ze zbioru danych testowych, używając klucza odpowiedzi do zliczania wyników fałszywie ujemnych, fałszywie pozytywnych, prawdziwie pozytywnych i prawdziwie negatywnych – mówi. Po uwzględnieniu tych błędów i prawidłowych odpowiedzi firmy mogą ponownie skalibrować swoje modele uczenia maszynowego, aby w przyszłości identyfikować oszukańcze działania – wyjaśnia.
Oprócz aktualizacji swoich algorytmów w celu wykrywania oszustw zespoły IT i cyberbezpieczeństwa korzystające z technologii ML muszą również zdawać sobie sprawę z ograniczeń prawnych dotyczących udostępnianie danych innym podmiotomnawet w celu wykrycia oszustwa, mówi Shiffman. Jeśli przetwarzasz dane z innego kraju, możesz nie mieć możliwości legalnego przesłania ich do USA, mówi.
W przypadku zespołów, które chcą wykorzystać technologię uczenia maszynowego do wykrywania oszustw, Caldera ostrzega, że takie narzędzia to tylko jeden z elementów strategii zapobiegania oszustwom i że nie ma jednego rozwiązania tego problemu. Po przyjęciu nowych klientów specjaliści ds. cyberbezpieczeństwa i IT muszą na bieżąco śledzić zmiany zachowań w miarę upływu czasu.
„Wykorzystanie lub nie technologii lub uczenia maszynowego to tylko jeden z elementów zestawu narzędzi” – mówi Caldera. „Jako firma musisz zrozumieć: jakie koszty to ponosisz, jaką masz tolerancję na ryzyko, a następnie jakiej pozycji klienta chcesz?”
- blockchain
- portfele kryptowalutowe
- krypto-wymiana
- bezpieczeństwo cybernetyczne
- cyberprzestępcy
- Bezpieczeństwo cybernetyczne
- Mroczne czytanie
- Departament Bezpieczeństwa Wewnętrznego
- cyfrowe portfele
- zapora
- Kaspersky
- malware
- Mcafee
- NexBLOC
- plato
- Platon Ai
- Analiza danych Platona
- Gra Platona
- PlatoDane
- platogaming
- VPN
- zabezpieczenia stron internetowych