Talouspetosten torjunta koneoppimisen PlatoBlockchain Data Intelligencen avulla. Pystysuuntainen haku. Ai.

Talouspetosten torjunta koneoppimisen avulla

Deepfakeja – tunnetaan myös synteettisenä mediana – voidaan käyttää muuhunkin kuin julkkiksiksi esittämiseen ja disinformaation tekemiseen uskottavammaksi. Niitä voidaan käyttää myös talouspetokseen.

Huijarit voivat käyttää syväväärennösteknologiaa huijatakseen rahoituslaitosten työntekijöitä vaihtamaan tilinumeroita ja rahansiirtopyyntöjen aloittaminen huomattavia summia, sanoo Satish Lalchand, Deloitte Transaction and Business Analyticsin johtaja. Hän huomauttaa, että näitä liiketoimia on usein vaikea, ellei mahdoton, peruuttaa.

Kyberrikolliset ottavat jatkuvasti käyttöön uusia tekniikoita välttääkseen tuntemasi asiakkaasi vahvistusprosesseja ja petosten havaitsemisen valvontaa. Vastauksena monet yritykset tutkivat tapoja koneoppimisen (ML) avulla havaita synteettistä mediaa, synteettistä identiteettiä tai muuta epäilyttävää toimintaa koskevat vilpilliset tapahtumat. Turvatiimien tulee kuitenkin olla tietoisia ML:n käytön rajoituksista laajamittaisten petosten tunnistamiseen.

Petosten löytäminen mittakaavassa

Rahoituspalvelusektorin petokset kahden viime vuoden aikana johtuivat siitä, että monet tapahtumat siirtyivät digitaalisille kanaville COVID-19-pandemian seurauksena, Lalchand sanoo. Hän mainitsee kolme riskitekijää, jotka ohjaavat ML-tekniikoiden käyttöönottoa asiakkaiden ja yritysten varmentamisessa: asiakkaat, työntekijät ja huijarit.

Vaikka rahoituspalveluyritysten työntekijöitä seurataan tyypillisesti kameroiden ja digitaalisten chatin kautta toimistossa, etätyöntekijät niitä ei valvota niin paljon, Lalchand sanoo. Kun yhä useammat asiakkaat kirjautuvat rahoituspalveluihin virtuaalisesti, rahoituspalveluyritykset sisällyttävät yhä useammin ML:n asiakkaiden varmistus- ja todennusprosesseihinsa sulkeakseen ikkunan sekä työntekijöiltä että asiakkailta. ML:n avulla voidaan myös tunnistaa vilpilliset hakemukset valtion avuksi tai identiteettipetoksiksi, Lalchand sanoo.

Sen lisäksi, että havaitset petollisia Palkkasuojaohjelman lainatML-malleja voidaan kouluttaa tunnistamaan transaktiomalleja, jotka voivat olla merkki ihmiskaupasta tai vanhusten hyväksikäyttöhuijauksista, sanoo Gary Shiffman, talousrikosten torjuntaan erikoistuneen IT-yrityksen Consilientin perustaja.

Rahoituslaitokset näkevät nyt petoksia useissa tuotteissa, mutta niillä on taipumus etsiä vilpillisiä liiketoimia siiloissa. Tekoäly ja ML-tekniikka voivat auttaa yhdistämään petossignaaleja useilta alueilta, Shiffman sanoo.

"Instituutiot jatkavat lyömistä ja yrittävät edelleen tunnistaa, missä petokset lisääntyivät, mutta sitä vain tapahtui kaikkialta", Lalchand sanoo. "Tiedon fuusiota… kutsutaan CyFiksi, joka yhdistää kyber- ja taloustiedot."

ML-työkalut voivat auttaa tunnistamaan asiakkaita positiivisesti, havaitsemaan identiteettipetoksia ja havaitsemaan riskin todennäköisyyden, sanoo Jose Caldera, Acuantin globaalien tuotteiden tuotejohtaja GBG:stä. ML voi tutkia aiempia käyttäytymis- ja riskisignaaleja ja soveltaa niitä tulevaisuudessa, hän sanoo.

Koneoppimisen rajat

Vaikka ML-mallit voivat analysoida datapisteitä petosten havaitsemiseksi mittakaavassa, aina tulee vääriä positiivisia ja vääriä negatiivisia tuloksia, ja mallit heikkenevät ajan myötä, Caldera sanoo. Siksi petosten havaitsemiseen algoritmia kouluttavien kyberturvatiimien on päivitettävä mallinsa ja seurattava sen löydöksiä säännöllisesti, ei vain kuuden kuukauden tai vuoden välein, hän sanoo.

"Sinun on varmistettava, että ymmärrät, että prosessi ei ole kertaluonteinen [tehtävä]. Ja… sinulla on oltava asianmukainen henkilöstö, jonka avulla voit ylläpitää tätä prosessia ajan mittaan”, Caldera sanoo. "Saat aina lisää tietoa, ja… sinun on voitava käyttää sitä jatkuvasti mallien ja järjestelmien parantamiseen."

ML-algoritmien tehokkuutta arvioivien IT- ja kyberturvatiimien osalta Shiffman sanoo, että heidän on löydettävä perustotuus – oikea tai "tosi" vastaus kyselyyn tai ongelmaan. Tätä varten ML-teknologioita käyttävät tiimit kokeilevat mallia testitietojoukon avulla ja laskevat sen väärät negatiiviset, väärät positiiviset, todelliset positiiviset ja todelliset negatiiviset vastausavaimella, hän sanoo. Kun nämä virheet ja oikeat vastaukset on otettu huomioon, yritykset voivat kalibroida ML-mallinsa uudelleen tunnistaakseen petollisen toiminnan tulevaisuudessa, hän selittää.

Sen lisäksi, että ML-tekniikkaa käyttävien IT- ja kyberturvatiimien on päivitettävä algoritmejaan petosten havaitsemiseksi, niiden on myös oltava tietoisia laillisista rajoituksista. jakaa tietoja muiden tahojen kanssa, jopa petoksen tunnistamiseksi, Shiffman sanoo. Jos käsittelet tietoja toisesta maasta, et välttämättä voi laillisesti siirtää niitä Yhdysvaltoihin, hän sanoo.

Caldera varoittaa ryhmiä, jotka haluavat käyttää ML-tekniikkaa petosten havaitsemiseen, että tällaiset työkalut ovat vain yksi osa petostentorjuntastrategiaa ja että ongelman ratkaisemiseen ei ole yhtä ainoaa ratkaisua. Uusien asiakkaiden hankkimisen jälkeen kyberturvallisuuden ja IT-ammattilaisten on pysyttävä ajan tasalla siitä, kuinka he muuttavat käyttäytymistään ajan myötä.

"Teknologian tai koneoppimisen käyttö tai käyttämättä jättäminen on vain yksi työkalusarjasi osa", Caldera sanoo. "Sinun yrityksenä sinun on ymmärrettävä: mitä kustannuksia asetat tähän, mikä on riskinsietokykysi ja mikä on sitten haluamasi asiakasasema?"

Aikaleima:

Lisää aiheesta Pimeää luettavaa