Lutter contre la fraude financière grâce à l'apprentissage automatique PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Lutter contre la fraude financière avec l'apprentissage automatique

Les Deepfakes – également connus sous le nom de médias synthétiques – peuvent être utilisés pour bien plus que se faire passer pour des célébrités et rendre la désinformation plus crédible. Ils peuvent également être utilisés à des fins de fraude financière.

Les fraudeurs peuvent utiliser la technologie deepfake pour inciter les employés des institutions financières à modifier leurs numéros de compte et lancer des demandes de transfert d’argent pour des montants substantiels, explique Satish Lalchand, directeur chez Deloitte Transaction and Business Analytics. Il note que ces transactions sont souvent difficiles, voire impossibles, à annuler.

Les cybercriminels adoptent constamment de nouvelles techniques pour échapper aux processus de vérification de la connaissance du client et aux contrôles de détection des fraudes. En réponse, de nombreuses entreprises explorent les moyens par lesquels l'apprentissage automatique (ML) peut détecter les transactions frauduleuses impliquant des médias synthétiques, la fraude à l'identité synthétique ou d'autres comportements suspects. Toutefois, les équipes de sécurité doivent être conscientes des limites de l’utilisation du ML pour identifier la fraude à grande échelle.

Détecter la fraude à grande échelle

La fraude dans le secteur des services financiers au cours des deux dernières années était motivée par le fait que de nombreuses transactions ont été transférées vers les canaux numériques en raison de la pandémie de COVID-19, explique Lalchand. Il cite trois facteurs de risque qui motivent l'adoption des technologies ML pour la vérification des clients et des entreprises : les clients, les employés et les fraudeurs.

Bien que les employés des sociétés de services financiers soient généralement surveillés via des caméras et des discussions numériques au bureau, travailleurs à distance ne sont pas autant surveillés, dit Lalchand. Alors que de plus en plus de clients s'inscrivent virtuellement aux services financiers, les sociétés de services financiers intègrent de plus en plus le ML dans leurs processus de vérification et d'authentification des clients afin de fermer cette fenêtre pour les employés et les clients. Le ML peut également être utilisé pour identifier les demandes frauduleuses d’aide gouvernementale ou de fraude d’identité, explique Lalchand.

En plus de repérer les fraudes Prêts du programme de protection des chèques de paie, les modèles de ML peuvent être formés pour reconnaître les modèles de transaction qui pourraient signaler des escroqueries liées au trafic d'êtres humains ou à la maltraitance des personnes âgées, explique Gary Shiffman, co-fondateur de Consilient, une société informatique spécialisée dans la prévention de la criminalité financière.

Les institutions financières voient désormais apparaître des fraudes sur plusieurs produits, mais elles ont tendance à rechercher les transactions frauduleuses en silos. L'intelligence artificielle et la technologie ML peuvent aider à rassembler les signaux de fraude provenant de plusieurs domaines, explique Shiffman.

« Les institutions continuent de se lancer dans des opérations de frappe et d'essayer d'identifier les domaines dans lesquels la fraude augmente, mais elle se produit de partout », explique Lalchand. « La fusion d’informations… s’appelle CyFi, réunissant les données cybernétiques et financières. »

Les outils de ML peuvent aider à identifier positivement les clients, à détecter la fraude à l'identité et à repérer la probabilité de risque, explique Jose Caldera, directeur des produits mondiaux pour Acuant chez GBG. Le ML peut examiner les comportements passés et les signaux de risque et appliquer ces leçons à l’avenir, dit-il.

Les limites de l'apprentissage automatique

Bien que les modèles ML puissent analyser des points de données pour détecter la fraude à grande échelle, il y aura toujours des faux positifs et des faux négatifs, et les modèles se dégraderont avec le temps, explique Caldera. Par conséquent, les équipes de cybersécurité qui entraînent l’algorithme à détecter la fraude doivent mettre à jour leurs modèles et surveiller régulièrement leurs résultats, et non seulement tous les six mois ou chaque année, explique-t-il.

« Vous devez vous assurer que vous comprenez que le processus n’est pas une [tâche] ponctuelle. Et… vous devez disposer du personnel adéquat qui vous permettra de maintenir ce processus au fil du temps », explique Caldera. « Vous obtiendrez toujours plus d’informations, et… vous devez pouvoir les utiliser en permanence pour améliorer vos modèles et vos systèmes. »

Pour les équipes informatiques et de cybersécurité évaluant l'efficacité des algorithmes de ML, Shiffman affirme qu'elles devront établir la vérité terrain, c'est-à-dire la réponse correcte ou « vraie » à une requête ou à un problème. Pour ce faire, les équipes utilisant les technologies ML testent un modèle en utilisant un ensemble de données de test, en utilisant un corrigé pour compter ses faux négatifs, ses faux positifs, ses vrais positifs et ses vrais négatifs, explique-t-il. Une fois ces erreurs et ces réponses correctes prises en compte, les entreprises peuvent recalibrer leurs modèles de ML pour identifier les activités frauduleuses à l'avenir, explique-t-il.

Outre la mise à jour de leurs algorithmes pour détecter la fraude, les équipes informatiques et de cybersécurité utilisant la technologie ML doivent également être conscientes des restrictions légales en matière de fraude. partager des données avec d'autres entités, même pour identifier la fraude, dit Shiffman. Si vous manipulez des données provenant d’un autre pays, vous ne pourrez peut-être pas légalement les transférer aux États-Unis, dit-il.

Pour les équipes qui cherchent à utiliser la technologie ML pour détecter la fraude, Caldera prévient que ces outils ne sont qu'un élément d'une stratégie de prévention de la fraude et qu'il n'existe pas de solution unique pour résoudre ce problème. Après avoir intégré de nouveaux clients, les professionnels de la cybersécurité et de l’informatique doivent se tenir au courant de l’évolution de leurs comportements au fil du temps.

« L'utilisation ou non de la technologie ou de l'apprentissage automatique n'est qu'un élément de votre ensemble d'outils », explique Caldera. « En tant qu'entreprise, vous devez comprendre : quel est le coût que vous y consacrez, quelle est votre tolérance au risque, et quelle est la position de client que vous souhaitez ? »

Horodatage:

Plus de Lecture sombre