Remodelarea peisajului amenințărilor: atacurile cibernetice profunde sunt aici PlatoBlockchain Data Intelligence. Căutare verticală. Ai.

Remodelarea peisajului amenințărilor: atacurile cibernetice profunde sunt aici

Campaniile rău intenționate care implică utilizarea tehnologiilor deepfake sunt mult mai apropiate decât ar putea presupune mulți. În plus, atenuarea și detectarea acestora sunt dificile.

Un nou studiu privind utilizarea și abuzul de deepfake de către infractorii cibernetici arată că toate elementele necesare pentru utilizarea pe scară largă a tehnologiei sunt disponibile și ușor disponibile pe piețele subterane și forumurile deschise. Studiul realizat de Trend Micro arată că multe escrocherii de tip deepfake activate, compromisuri de e-mail de afaceri (BEC) și înșelătorii promoționale au loc deja și sunt remodelând rapid peisajul amenințărilor.

Nu mai este o amenințare ipotetică

“From hypothetical and proof-of-concept threats, [deepfake-enabled attacks] have moved to the stage where non-mature criminals are capable of using such technologies,” says Vladimir Kropotov, security researcher with Trend Micro and the main author of a report on the topic that the security vendor released this week. 

‘We already see how deepfakes are integrated into attacks against financial institutions, scams, and attempts to impersonate politicians,” he says, adding that what’s scary is that many of these attacks use identities of real people — often scraped from content they post on social media networks.

One of the main takeaways from Trend Micro’s study is the ready availability of tools, images, and videos for generating deepfakes. The security vendor found, for example, that multiple forums, including GitHub, offer source code for developing deepfakes to anyone who wants it. Similarly, enough high-quality images and videos of ordinary individuals and public figures are available for bad actors to be able to create millions of fake identities or to impersonate politicians, business leaders, and other famous personalities.

Cererea de servicii deepfake și de oameni cu experiență pe această temă este, de asemenea, în creștere în forumurile underground. Trend Micro a găsit reclame de la criminali care căutau aceste abilități pentru a efectua escrocherii cu criptomonede și fraude care vizează conturi financiare individuale. 

“Actors can already impersonate and steal the identities of politicians, C-level executives, and celebrities,” Trend Micro said in its report. “This could significantly increase the success rate of certain attacks such as financial schemes, short-lived disinformation campaigns, public opinion manipulation, and extortion.”

O multitudine de riscuri

There’s a growing risk also of stolen or recreated identities belonging to ordinary people being used to defraud the impersonated victims, or to conduct malicious activities under their identities. 

În multe grupuri de discuții, Trend Micro a găsit utilizatorii care discută în mod activ modalități de a utiliza deepfakes pentru a ocoli controalele bancare și alte controale de verificare a contului - în special cele care implică metode video și de verificare față în față.

For example, criminals could use a victim’s identity and use a deepfake video of them to open bank accounts, which could later be used for money laundering activities. They can similarly hijack accounts, impersonate top-level executives at organizations to initiate fraudulent money transfer or plant fake evidence to extort individuals, Trend Micro said. 

Devices like Amazon’s Alexa and the iPhone, which use voice or face recognition, could soon be on the list of target devices for deepfake-based attacks, the security vendor noted.

“Since many companies are still working in remote or mixed mode, there is an increased risk of uzurparea identității personalului în apelurile conferință which can affect internal and external business communications and sensitive business processes and financial flows,” Kropotov says.

Trend Micro isn’t alone in sounding the alarm on deepfakes. A recent online survey that VMware conducted of 125 cybersecurity and incident response professionals also found that deepfake-enabled threats are not just coming — sunt deja aici. Un uluitor 66% – în creștere cu 13% față de 2021 – dintre respondenți au declarat că au experimentat un incident de securitate care a implicat utilizarea deepfake în ultimele 12 luni.

“Examples of deepfake attacks [already] witnessed include CEO voice calls to a CFO conducând la un transfer bancar, as well as employee calls to IT to initiate a password reset,” says Rick McElroy, VMware’s principal cybersecurity strategist.

Câteva atenuări pentru atacurile Deepfake și detectarea este dificilă

În general, aceste tipuri de atacuri pot fi eficiente, deoarece nu sunt încă disponibile soluții tehnologice pentru a aborda provocarea, spune McElroy. 

“Given the rising use and sophistication in creating deepfakes, I see this as one of the biggest threats to organizations from a fraud and scam perspective moving forward,” he warns. 

Cel mai eficient mod de a atenuează amenințarea în prezent este de a crește gradul de conștientizare a problemei în rândul echipelor financiare, executive și IT, care sunt principalele ținte pentru aceste atacuri de inginerie socială. 

“Organizations can consider low-tech methods to break the cycle. This can include using a challenge and passphrase amongst executives when wiring money out of an organization or having a two-step and verified approval process,” he says.

Gil Dabah, co-fondator și CEO al Piaano, recomandă, de asemenea, un control strict al accesului ca măsură de atenuare. Niciun utilizator nu ar trebui să aibă acces la cantități mari de date personale, iar organizațiile trebuie să stabilească limite de rată, precum și detectarea anomaliilor, spune el.

“Even systems like business intelligence, which require big data analysis, should access only masked data,” Dabah notes, adding that no sensitive personal data should be kept in plaintext and data such as PII should be tokenized and protected.

Între timp, pe frontul de detecție, evoluții în tehnologii precum AI Retele adversare generative (GANs) have made deepfake detection harder. “That means we can’t rely on content containing ‘artifact’ clues that there has been alteration,” says Lou Steinberg, co-founder and managing partner at CTM Insights.

Pentru a detecta conținutul manipulat, organizațiile au nevoie de amprente digitale sau semnături care să demonstreze că ceva este neschimbat, adaugă el.

“Even better is to take micro-fingerprints over portions of the content and be able to identify what’s changed and what hasn’t,” he says. “That’s very valuable when an image has been edited, but even more so when someone is trying to hide an image from detection.”

Trei categorii mari de amenințări

Steinberg says deepfake threats fall into three broad categories. The first is disinformation campaigns mostly involving edits to legitimate content to change the meaning. As an example, Steinberg points to nation-state actors using fake news images and videos on social media or inserting someone into a photo that wasn’t present originally — something that is often used for things like implied product endorsements or revenge porn.

O altă categorie implică modificări subtile ale imaginilor, siglelor și a altor conținuturi pentru a ocoli instrumentele de detectare automată, cum ar fi cele utilizate pentru a detecta siglele de produse false, imaginile utilizate în campanii de phishing sau chiar instrumente pentru detectarea pornografiei infantile.

A treia categorie implică deepfake-urile sintetice sau compozite care sunt derivate dintr-o colecție de originale pentru a crea ceva complet nou, spune Steinberg. 

“We started seeing this with audio a few years back, using computer synthesized speech to defeat voiceprints in financial services call centers,” he says. “Video is now being used for things like a modern version of business email compromise or to damage a reputation by having someone ‘say’ something they never said.”

Timestamp-ul:

Mai mult de la Lectură întunecată