A fenyegetési táj átalakítása: Hamis kibertámadások vannak itt PlatoBlockchain adatintelligencia. Függőleges keresés. Ai.

A fenyegetett táj átalakítása: Hamis kibertámadások vannak itt

A mélyhamisítási technológiákat alkalmazó rosszindulatú kampányok sokkal közelebb állnak, mint azt sokan feltételeznék. Ezenkívül nehéz mérsékelni és felderíteni őket.

Egy új tanulmány a mélyhamisítások kiberbűnözők általi használatáról és visszaéléseiről azt mutatja, hogy a technológia széles körű használatához minden szükséges elem rendelkezésre áll, és könnyen elérhető a földalatti piacokon és nyílt fórumokon. A Trend Micro tanulmánya azt mutatja, hogy számos mélyhamisítást lehetővé tévő adathalászat, üzleti e-mail-kompromittálással (BEC) és promóciós csalás már most is megtörténik. gyorsan átformálja a fenyegetettséget.

Már nem hipotetikus fenyegetés

“From hypothetical and proof-of-concept threats, [deepfake-enabled attacks] have moved to the stage where non-mature criminals are capable of using such technologies,” says Vladimir Kropotov, security researcher with Trend Micro and the main author of a report on the topic that the security vendor released this week. 

‘We already see how deepfakes are integrated into attacks against financial institutions, scams, and attempts to impersonate politicians,” he says, adding that what’s scary is that many of these attacks use identities of real people — often scraped from content they post on social media networks.

One of the main takeaways from Trend Micro’s study is the ready availability of tools, images, and videos for generating deepfakes. The security vendor found, for example, that multiple forums, including GitHub, offer source code for developing deepfakes to anyone who wants it. Similarly, enough high-quality images and videos of ordinary individuals and public figures are available for bad actors to be able to create millions of fake identities or to impersonate politicians, business leaders, and other famous personalities.

Az underground fórumokon is nő a kereslet a deepfake szolgáltatások és a témában jártas emberek iránt. A Trend Micro hirdetéseket talált olyan bűnözőktől, akik ezeket a készségeket keresték, hogy kriptovaluta-csalásokat és csalásokat hajtsanak végre egyéni pénzügyi számlákon. 

“Actors can already impersonate and steal the identities of politicians, C-level executives, and celebrities,” Trend Micro said in its report. “This could significantly increase the success rate of certain attacks such as financial schemes, short-lived disinformation campaigns, public opinion manipulation, and extortion.”

Kockázatok tömkelege

There’s a growing risk also of stolen or recreated identities belonging to ordinary people being used to defraud the impersonated victims, or to conduct malicious activities under their identities. 

A Trend Micro számos vitacsoportban találta a felhasználókat, akik aktívan megvitatták a mélyhamisítások felhasználásának módjait a banki és egyéb számlaellenőrzési vezérlők megkerülésére – különösen a videós és a személyes ellenőrzési módszerek esetében.

For example, criminals could use a victim’s identity and use a deepfake video of them to open bank accounts, which could later be used for money laundering activities. They can similarly hijack accounts, impersonate top-level executives at organizations to initiate fraudulent money transfer or plant fake evidence to extort individuals, Trend Micro said. 

Devices like Amazon’s Alexa and the iPhone, which use voice or face recognition, could soon be on the list of target devices for deepfake-based attacks, the security vendor noted.

“Since many companies are still working in remote or mixed mode, there is an increased risk of személyi adatokkal való visszaélés a konferenciahívásokban which can affect internal and external business communications and sensitive business processes and financial flows,” Kropotov says.

Trend Micro isn’t alone in sounding the alarm on deepfakes. A recent online survey that VMware conducted of 125 cybersecurity and incident response professionals also found that deepfake-enabled threats are not just coming — már itt vannak. A válaszadók megdöbbentő 66%-a – 13%-kal több, mint 2021-ben – mondta azt, hogy az elmúlt 12 hónap során tapasztalt mélyhamisítással járó biztonsági incidenst.

“Examples of deepfake attacks [already] witnessed include CEO voice calls to a CFO átutaláshoz vezet, as well as employee calls to IT to initiate a password reset,” says Rick McElroy, VMware’s principal cybersecurity strategist.

A mélyhamisított támadások néhány mérséklése és az észlelés nehéz

Általánosságban elmondható, hogy az ilyen típusú támadások hatékonyak lehetnek, mivel még nem állnak rendelkezésre technológiai javítások a kihívás kezelésére, mondja McElroy. 

“Given the rising use and sophistication in creating deepfakes, I see this as one of the biggest threats to organizations from a fraud and scam perspective moving forward,” he warns. 

A leghatékonyabb módja annak enyhíteni a veszélyt jelenleg célja, hogy felhívja a figyelmet a problémára a pénzügyi, vezetői és informatikai csapatok körében, akik a szociális tervezési támadások fő célpontjai. 

“Organizations can consider low-tech methods to break the cycle. This can include using a challenge and passphrase amongst executives when wiring money out of an organization or having a two-step and verified approval process,” he says.

Gil Dabah, a Piaano társalapítója és vezérigazgatója szintén szigorú hozzáférés-ellenőrzést javasol enyhítő intézkedésként. Egyetlen felhasználó sem férhet hozzá a személyes adatok nagy részeihez, és a szervezeteknek sebességkorlátokat kell beállítaniuk, valamint az anomáliák észlelését is.

“Even systems like business intelligence, which require big data analysis, should access only masked data,” Dabah notes, adding that no sensitive personal data should be kept in plaintext and data such as PII should be tokenized and protected.

Mindeközben az észlelési fronton az olyan technológiák fejlesztése, mint az AI-alapú Generatív kontradiktórius hálózatok (GANs) have made deepfake detection harder. “That means we can’t rely on content containing ‘artifact’ clues that there has been alteration,” says Lou Steinberg, co-founder and managing partner at CTM Insights.

A manipulált tartalom észleléséhez a szervezeteknek ujjlenyomatokra vagy aláírásokra van szükségük, amelyek bizonyítják, hogy valami változatlan – teszi hozzá.

“Even better is to take micro-fingerprints over portions of the content and be able to identify what’s changed and what hasn’t,” he says. “That’s very valuable when an image has been edited, but even more so when someone is trying to hide an image from detection.”

Három széles körű fenyegetés kategória

Steinberg says deepfake threats fall into three broad categories. The first is disinformation campaigns mostly involving edits to legitimate content to change the meaning. As an example, Steinberg points to nation-state actors using fake news images and videos on social media or inserting someone into a photo that wasn’t present originally — something that is often used for things like implied product endorsements or revenge porn.

Egy másik kategória a képek, logók és egyéb tartalmak finom módosításait foglalja magában, hogy megkerüljék az automatizált észlelési eszközöket, például azokat, amelyeket a terméklogók, az adathalász kampányokban használt képek vagy akár a gyermekpornográfia észlelésére szolgáló eszközök észlelésére használnak.

A harmadik kategóriába a szintetikus vagy kompozit mélyhamisítások tartoznak, amelyek eredeti gyűjteményből származnak, hogy valami teljesen újat hozzanak létre, mondja Steinberg. 

“We started seeing this with audio a few years back, using computer synthesized speech to defeat voiceprints in financial services call centers,” he says. “Video is now being used for things like a modern version of business email compromise or to damage a reputation by having someone ‘say’ something they never said.”

Időbélyeg:

Még több Sötét olvasmány