Financiële fraude aanpakken met machine learning PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

Financiële fraude aanpakken met machine learning

Deepfakes – ook wel synthetische media genoemd – kunnen voor meer doeleinden worden gebruikt dan alleen het nabootsen van beroemdheden en het geloofwaardiger maken van desinformatie. Ze kunnen ook worden gebruikt voor financiële fraude.

Fraudeurs kunnen deepfake-technologie gebruiken om werknemers bij financiële instellingen te misleiden om rekeningnummers te wijzigen het initiëren van geldoverboekingsverzoeken voor aanzienlijke bedragen, zegt Satish Lalchand, directeur bij Deloitte Transaction and Business Analytics. Hij merkt op dat deze transacties vaak moeilijk, zo niet onmogelijk, terug te draaien zijn.

Cybercriminelen passen voortdurend nieuwe technieken toe om ken-uw-klant-verificatieprocessen en fraudedetectiecontroles te omzeilen. Als reactie hierop onderzoeken veel bedrijven manieren waarop machine learning (ML) frauduleuze transacties met synthetische media, synthetische identiteitsfraude of ander verdacht gedrag kan detecteren. Beveiligingsteams moeten zich echter bewust zijn van de beperkingen van het gebruik van ML om fraude op grote schaal te identificeren.

Fraude op grote schaal opsporen

De fraude in de financiële dienstverleningssector van de afgelopen twee jaar werd veroorzaakt door het feit dat veel transacties als gevolg van de COVID-19-pandemie naar digitale kanalen werden gepusht, zegt Lalchand. Hij noemt drie risicofactoren die de adoptie van ML-technologieën voor klant- en bedrijfsverificatie stimuleren: klanten, werknemers en fraudeurs.

Hoewel werknemers bij financiële dienstverleners doorgaans worden gevolgd via camera's en digitale chats op kantoor, externe werknemers worden niet zo vaak bewaakt, zegt Lalchand. Nu steeds meer klanten zich virtueel aanmelden voor financiële diensten, integreren financiële dienstverleners ML steeds vaker in hun klantverificatie- en authenticatieprocessen om dat venster voor zowel werknemers als klanten te sluiten. ML kan ook worden gebruikt om frauduleuze aanvragen voor overheidssteun of identiteitsfraude te identificeren, zegt Lalchand.

Naast het opsporen van frauduleus Leningen van het Paycheck Protection Programkunnen ML-modellen worden getraind om transactiepatronen te herkennen die kunnen wijzen op oplichting van mensenhandel of ouderenmishandeling, zegt Gary Shiffman, medeoprichter van Consilient, een IT-bedrijf dat gespecialiseerd is in de preventie van financiële criminaliteit.

Financiële instellingen zien nu fraude ontstaan ​​bij meerdere producten, maar ze hebben de neiging om in silo's naar frauduleuze transacties te zoeken. Kunstmatige intelligentie en ML-technologie kunnen helpen fraudesignalen uit meerdere gebieden samen te brengen, zegt Shiffman.

“Instituties blijven gekke dingen doen en blijven proberen vast te stellen waar de fraude toenam, maar het gebeurde gewoon overal vandaan”, zegt Lalchand. “De samensmelting van informatie … heet CyFi, waarbij cyber- en financiële gegevens samenkomen.”

ML-tools kunnen helpen bij het positief identificeren van klanten, het opsporen van identiteitsfraude en het opsporen van de waarschijnlijkheid van risico's, zegt Jose Caldera, Chief Product Officer van Global Products voor Acuant bij GBG. ML kan gedrag uit het verleden en risicosignalen onderzoeken en die lessen in de toekomst toepassen, zegt hij.

De grenzen van machinaal leren

Hoewel ML-modellen datapunten kunnen analyseren om fraude op grote schaal op te sporen, zullen er altijd valse positieven en valse negatieven zijn, en zullen de modellen na verloop van tijd verslechteren, zegt Caldera. Daarom moeten cybersecurityteams die het algoritme trainen om fraude op te sporen hun modellen bijwerken en de bevindingen ervan regelmatig monitoren, niet alleen elke zes maanden of elk jaar, zegt hij.

“Je moet ervoor zorgen dat je begrijpt dat het proces niet een eenmalige [taak] is. En … je moet over de juiste personeelsbezetting beschikken waarmee je dat proces in de loop van de tijd kunt volhouden”, zegt Caldera. “Je krijgt altijd meer informatie, en … je moet die voortdurend kunnen gebruiken om je modellen en systemen te verbeteren.”

Voor IT- en cybersecurityteams die de effectiviteit van ML-algoritmen evalueren, zegt Shiffman dat ze de grondwaarheid moeten vaststellen: het juiste of ‘ware’ antwoord op een vraag of probleem. Om dit te doen, proberen teams die ML-technologieën gebruiken een model uit met behulp van een testdataset, waarbij ze een antwoordsleutel gebruiken om de valse negatieven, valse positieven, echte positieven en echte negatieven te tellen, zegt hij. Zodra rekening wordt gehouden met deze fouten en correcte antwoorden, kunnen bedrijven hun ML-modellen opnieuw kalibreren om frauduleuze activiteiten in de toekomst te identificeren, legt hij uit.

Naast het updaten van hun algoritmen om fraude op te sporen, moeten IT- en cyberbeveiligingsteams die ML-technologie gebruiken zich ook bewust zijn van wettelijke beperkingen het delen van gegevens met andere entiteiten, zelfs om fraude te identificeren, zegt Shiffman. Als je gegevens uit een ander land verwerkt, kun je deze mogelijk niet legaal naar de VS overdragen, zegt hij.

Voor teams die ML-technologie willen gebruiken voor fraudedetectie waarschuwt Caldera dat dergelijke tools slechts één onderdeel zijn van een fraudepreventiestrategie en dat er niet één oplossing is om dat probleem op te lossen. Na het onboarden van nieuwe klanten moeten cybersecurity- en IT-professionals op de hoogte blijven van de manier waarop ze hun gedrag in de loop van de tijd veranderen.

“Het wel of niet gebruiken van technologie of machine learning is slechts één onderdeel van je toolset”, zegt Caldera. “Als bedrijf moet je begrijpen: wat zijn de kosten die je hieraan besteedt, wat is de risicotolerantie die je hebt en wat is dan de klantpositie die je wilt?”

Tijdstempel:

Meer van Donkere lezing