Боротьба з фінансовим шахрайством за допомогою машинного навчання PlatoBlockchain Data Intelligence. Вертикальний пошук. Ai.

Боротьба з фінансовим шахрайством за допомогою машинного навчання

Deepfakes — також відомі як синтетичні медіа — можуть використовуватися не тільки для того, щоб видати себе за знаменитостей і зробити дезінформацію правдоподібнішою. Вони також можуть бути використані для фінансових шахрайств.

Шахраї можуть використовувати технологію deepfake, щоб обманом змусити працівників фінансових установ змінити номери рахунків і ініціювання запитів на переказ грошей на значні суми, каже Сатіш Лалчанд, керівник відділу транзакцій і бізнес-аналітики Deloitte. Він зазначає, що ці транзакції часто важко, якщо не неможливо, скасувати.

Кіберзлочинці постійно впроваджують нові методи, щоб уникнути процесів перевірки «знай свого клієнта» та засобів контролю виявлення шахрайства. У відповідь на це багато компаній досліджують способи машинного навчання (ML) для виявлення шахрайських транзакцій із використанням синтетичних носіїв, шахрайства з синтетичною ідентифікацією або іншої підозрілої поведінки. Однак спеціалісти з безпеки повинні пам’ятати про обмеження використання ML для виявлення масштабного шахрайства.

Виявлення масштабного шахрайства

За словами Лалчанда, шахрайство в секторі фінансових послуг за останні два роки було зумовлене тим, що через пандемію COVID-19 багато транзакцій було переведено на цифрові канали. Він називає три фактори ризику, що спонукають до впровадження технологій ML для перевірки клієнтів і бізнесу: клієнти, співробітники та шахраї.

Хоча за працівниками компаній, що надають фінансові послуги, зазвичай стежать за допомогою камер і цифрових чатів в офісі, віддалені працівники за ними не так багато спостерігають, каже Лалчанд. У зв’язку з тим, що все більше клієнтів реєструються на фінансові послуги віртуально, фірми, що надають фінансові послуги, все частіше впроваджують ML у свої процеси верифікації та автентифікації клієнтів, щоб закрити це вікно як для співробітників, так і для клієнтів. Лалчанд каже, що ML також можна використовувати для виявлення шахрайських заявок на державну допомогу або шахрайства з особистими даними.

На додаток до виявлення шахрайства Позики програми захисту зарплати, моделі ML можна навчити розпізнавати шаблони транзакцій, які можуть сигналізувати про торгівлю людьми або жорстоке поводження з літніми людьми, каже Гарі Шиффман, співзасновник Consilient, ІТ-компанії, що спеціалізується на запобіганні фінансовим злочинам.

Фінансові установи зараз бачать шахрайство в різних продуктах, але вони, як правило, шукають шахрайські транзакції в силосах. За словами Шиффмана, штучний інтелект і технологія ML можуть допомогти об’єднати сигнали про шахрайство з багатьох сфер.

«Інституції продовжують робити шахрайські дії та продовжують намагатися визначити, де шахрайство зростає, але це відбувалося звідусіль», — каже Лалчанд. «Об’єднання інформації … називається CyFi, об’єднуючи кібернетичні та фінансові дані».

Інструменти ML можуть допомогти точно ідентифікувати клієнтів, виявити шахрайство з особистими даними та виявити ймовірність ризику, говорить Хосе Кальдера, директор із глобальних продуктів Acuant у GBG. За його словами, ML може вивчити минулу поведінку та сигнали ризику та застосувати ці уроки в майбутньому.

Межі машинного навчання

Незважаючи на те, що моделі ML можуть аналізувати точки даних для виявлення масштабного шахрайства, завжди будуть хибно-позитивні та хибно-негативні результати, і моделі з часом погіршаться, каже Кальдера. Тому команди з кібербезпеки, які навчають алгоритм для виявлення шахрайства, повинні оновлювати свої моделі та регулярно контролювати результати, а не кожні шість місяців або щороку, каже він.

«Ви повинні переконатися, що ви розумієте, що цей процес не є одноразовим [завданням]. І … вам потрібно мати належний персонал, який дозволить вам підтримувати цей процес протягом тривалого часу», — каже Кальдера. «Ви завжди будете отримувати більше інформації, і... вам потрібно мати можливість постійно використовувати її для вдосконалення своїх моделей і систем».

ІТ-командам і командам з кібербезпеки, які оцінюють ефективність алгоритмів машинного навчання, Шиффман каже, що їм потрібно буде встановити базову істину — правильну або «справжню» відповідь на запит або проблему. Для цього команди, які використовують технології ML, випробовують модель, використовуючи тестовий набір даних, використовуючи ключ відповіді для підрахунку його хибно-негативних, хибно-позитивних, істинно-позитивних і істинно-негативних результатів, каже він. Як тільки ці помилки та правильні відповіді будуть враховані, компанії можуть відкалібрувати свої моделі ML для виявлення шахрайства в майбутньому, пояснює він.

Окрім оновлення своїх алгоритмів для виявлення шахрайства, команди ІТ та кібербезпеки, які використовують технологію ML, також повинні знати про правові обмеження щодо обмін даними з іншими суб'єктами, навіть для виявлення шахрайства, говорить Шиффман. Якщо ви обробляєте дані з іншої країни, можливо, ви не зможете законно передати їх до США, каже він.

Для команд, які хочуть використовувати технологію машинного навчання для виявлення шахрайства, Caldera попереджає, що такі інструменти є лише одним із компонентів стратегії запобігання шахрайству, і що не існує єдиного рішення для вирішення цієї проблеми. Залучивши нових клієнтів, фахівці з кібербезпеки та ІТ повинні бути в курсі того, як вони змінюють поведінку з часом.

«Використання чи ні технологій чи машинного навчання — це лише один компонент вашого набору інструментів», — каже Кальдера. «Ви, як компанія, повинні розуміти: які витрати ви вкладаєте в це, яка у вас толерантність до ризику, і яку позицію клієнта ви хочете отримати?»

Часова мітка:

Більше від Темне читання