Combaterea fraudei financiare cu învățare automată PlatoBlockchain Data Intelligence. Căutare verticală. Ai.

Combaterea fraudei financiare cu învățare automată

Deepfakes – cunoscut și sub denumirea de media sintetică – poate fi folosit pentru mai mult decât pentru a uzurpa identitatea celebrităților și pentru a face dezinformarea mai credibilă. Ele pot fi folosite și pentru fraude financiare.

Escrocii pot folosi tehnologia deepfake pentru a păcăli angajații instituțiilor financiare să schimbe numerele de cont și inițierea cererilor de transfer de bani pentru sume substanțiale, spune Satish Lalchand, director la Deloitte Transaction and Business Analytics. El observă că aceste tranzacții sunt adesea dificil, dacă nu imposibil, de inversat.

Infractorii cibernetici adoptă în mod constant noi tehnici pentru a evita procesele de verificare a cunoașterii clientului și controalele de detectare a fraudelor. Ca răspuns, multe companii explorează modalități prin care învățarea automată (ML) poate detecta tranzacții frauduloase care implică medii sintetice, fraudă de identitate sintetică sau alte comportamente suspecte. Cu toate acestea, echipele de securitate ar trebui să aibă în vedere limitările utilizării ML pentru a identifica frauda la scară.

Găsirea fraudei la scară

Frauda în sectorul serviciilor financiare în ultimii doi ani a fost determinată de faptul că multe tranzacții au fost împinse către canale digitale ca urmare a pandemiei de COVID-19, spune Lalchand. El citează trei factori de risc care determină adoptarea tehnologiilor ML pentru verificarea clienților și a afacerii: clienți, angajați și fraudatori.

Deși angajații de la firmele de servicii financiare sunt de obicei monitorizați prin intermediul camerelor foto și prin chat-uri digitale la birou, lucrători la distanță nu sunt supravegheați la fel de mult, spune Lalchand. Cu mai mulți clienți care se înscriu virtual pentru servicii financiare, firmele de servicii financiare încorporează din ce în ce mai mult ML în procesele lor de verificare și autentificare a clienților pentru a închide această fereastră atât pentru angajați, cât și pentru clienți. ML poate fi folosit și pentru a identifica aplicațiile frauduloase pentru asistență guvernamentală sau fraudă de identitate, spune Lalchand.

Pe lângă reperarea frauduloasă Împrumuturi din programul de protecție a salariilor, modelele ML pot fi antrenate pentru a recunoaște modelele de tranzacții care ar putea semnala traficul de persoane sau înșelătoriile de abuz de persoane în vârstă, spune Gary Shiffman, co-fondator al Consilient, o firmă IT specializată în prevenirea criminalității financiare.

Instituțiile financiare văd acum că apar fraude în mai multe produse, dar tind să caute tranzacții frauduloase în siloz. Inteligența artificială și tehnologia ML pot ajuta la reunirea semnalelor de fraudă din mai multe domenii, spune Shiffman.

„Instituțiile continuă să facă o cârtiță și continuă să încerce să identifice locurile în care frauda a crescut, dar tocmai se întâmpla de peste tot”, spune Lalchand. „Fuziunea informațiilor... se numește CyFi, care aduce împreună datele cibernetice și financiare.”

Instrumentele ML pot ajuta la identificarea pozitivă a clienților, la detectarea fraudei de identitate și la identificarea probabilității de risc, spune Jose Caldera, director de produse globale pentru Acuant la GBG. ML poate examina comportamentul trecut și semnalele de risc și poate aplica acele lecții în viitor, spune el.

Limitele învățării automate

Deși modelele ML pot analiza punctele de date pentru a detecta frauda la scară, vor exista întotdeauna false pozitive și false negative, iar modelele se vor degrada în timp, spune Caldera. Prin urmare, echipele de securitate cibernetică care instruiesc algoritmul pentru a detecta frauda trebuie să-și actualizeze modelele și să-și monitorizeze constatările în mod regulat, nu doar la fiecare șase luni sau în fiecare an, spune el.

„Trebuie să vă asigurați că înțelegeți că procesul nu este o [sarcină] unică. Și... trebuie să aveți personal adecvat care să vă permită să mențineți acel proces în timp”, spune Caldera. „Veți obține întotdeauna mai multe informații și... trebuie să le puteți folosi în mod constant pentru a vă îmbunătăți modelele și sistemele.”

Pentru echipele IT și de securitate cibernetică care evaluează eficiența algoritmilor ML, Shiffman spune că vor trebui să stabilească adevărul de bază - răspunsul corect sau „adevărat” la o întrebare sau problemă. Pentru a face acest lucru, echipele care utilizează tehnologii ML încearcă un model folosind un set de date de testare, folosind o cheie de răspuns pentru a număra falsele negative, fals pozitive, adevărate pozitive și adevărate negative, spune el. Odată ce aceste erori și răspunsurile corecte sunt luate în considerare, companiile își pot recalibra modelele ML pentru a identifica activitățile frauduloase în viitor, explică el.

Pe lângă actualizarea algoritmilor pentru a detecta frauda, ​​echipele IT și de securitate cibernetică care utilizează tehnologia ML trebuie să fie, de asemenea, conștiente de restricțiile legale privind partajarea datelor cu alte entități, chiar și pentru a identifica frauda, ​​spune Shiffman. Dacă manipulați date dintr-o altă țară, este posibil să nu le puteți transfera în mod legal în SUA, spune el.

Pentru echipele care doresc să utilizeze tehnologia ML pentru detectarea fraudelor, Caldera avertizează că astfel de instrumente sunt doar o componentă a unei strategii de prevenire a fraudelor și că nu există o soluție pentru a rezolva această problemă. După ce au inclus clienți noi, profesioniștii în securitate cibernetică și IT trebuie să rămână la curent cu modul în care își schimbă comportamentele în timp.

„Folosirea sau nu a tehnologiei sau a învățării automate este doar o componentă a setului dumneavoastră de instrumente”, spune Caldera. „Tu, ca afacere, trebuie să înțelegi: care este costul pe care îl aduci pentru asta, care este toleranța la risc pe care o ai și apoi care este poziția clientului pe care o dorești?”

Timestamp-ul:

Mai mult de la Lectură întunecată