Omforma hotlandskapet: Deepfake Cyberattacks Are Here PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Omforma hotlandskapet: Deepfake cyberattacks är här

Skadliga kampanjer som involverar användningen av deepfake-teknologier är mycket närmare än många kanske antar. Dessutom är det svårt att lindra och upptäcka dem.

En ny studie av användning och missbruk av deepfakes av cyberbrottslingar visar att alla nödvändiga element för utbredd användning av tekniken är på plats och lätt tillgängliga på underjordiska marknader och öppna forum. Studien från Trend Micro visar att många deepfake-aktiverade nätfiske, affärse-postkompromisser (BEC) och marknadsföringsbedrägerier redan förekommer och är snabbt omforma hotbilden.

Inte längre ett hypotetiskt hot

"Från hypotetiska och proof-of-concept-hot har [deepfake-aktiverade attacker] flyttats till det stadium där icke-mogna brottslingar kan använda sådan teknik", säger Vladimir Kropotov, säkerhetsforskare på Trend Micro och huvudförfattare till en rapport om ämnet som säkerhetsleverantören släppte i veckan. 

"Vi ser redan hur djupförfalskningar är integrerade i attacker mot finansinstitutioner, bedrägerier och försök att utge sig för politiker", säger han och tillägger att det skrämmande är att många av dessa attacker använder identiteter från riktiga personer - ofta skrapat från innehåll de publicerar på sociala medier medianätverk.

En av de viktigaste fördelarna med Trend Micros studie är den lättillgängliga verktyg, bilder och videor för att generera djupförfalskningar. Säkerhetsleverantören fann till exempel att flera forum, inklusive GitHub, erbjuder källkod för att utveckla deepfakes till alla som vill ha det. På samma sätt finns tillräckligt med högkvalitativa bilder och videor av vanliga individer och offentliga personer tillgängliga för att dåliga skådespelare ska kunna skapa miljontals falska identiteter eller utge sig för politiker, företagsledare och andra kända personligheter.

Efterfrågan på deepfake-tjänster och personer med expertis inom ämnet växer också i underjordiska forum. Trend Micro hittade annonser från brottslingar som letade efter dessa färdigheter för att utföra bedrägerier med kryptovaluta och bedrägerier riktade mot enskilda finansiella konton. 

"Skådespelare kan redan imitera och stjäla identiteter för politiker, chefer på C-nivå och kändisar", sa Trend Micro i sin rapport. "Detta kan avsevärt öka framgångsfrekvensen för vissa attacker som finansiella system, kortlivade desinformationskampanjer, opinionsmanipulation och utpressning."

En uppsjö av risker

Det finns också en växande risk för att stulna eller återskapade identiteter som tillhör vanliga människor används för att lura de efterliknade offren eller för att utföra skadliga aktiviteter under deras identiteter. 

I många diskussionsgrupper fann Trend Micro användare som aktivt diskuterade sätt att använda deepfakes för att kringgå bank- och andra kontoverifieringskontroller – särskilt de som involverar video och verifieringsmetoder ansikte mot ansikte.

Brottslingar kan till exempel använda ett offers identitet och använda en deepfake-video av dem för att öppna bankkonton, som senare kan användas för penningtvättsverksamhet. De kan på liknande sätt kapa konton, utge sig för att vara chefer på toppnivå på organisationer för att initiera bedrägliga pengaöverföringar eller plantera falska bevis för att utpressa individer, sa Trend Micro. 

Enheter som Amazons Alexa och iPhone, som använder röst- eller ansiktsigenkänning, kan snart finnas på listan över målenheter för deepfake-baserade attacker, noterade säkerhetsleverantören.

”Eftersom många företag fortfarande arbetar i fjärr- eller blandat läge finns det en ökad risk för personifiering i konferenssamtal vilket kan påverka intern och extern affärskommunikation och känsliga affärsprocesser och finansiella flöden”, säger Kropotov.

Trend Micro är inte ensamma om att slå larm om deepfakes. En nyligen genomförd onlineundersökning som VMware genomförde av 125 yrkesverksamma inom cybersäkerhet och incidenthantering fann också att hot med djupfalskningar inte bara kommer — de är redan här. Uppseendeväckande 66 % – en ökning med 13 % från 2021 – av de tillfrågade sa att de hade upplevt en säkerhetsincident som involverade deepfake-användning under de senaste 12 månaderna.

"Exempel på deepfake attacker som [redan] bevittnats inkluderar vd-röstsamtal till en CFO leder till en banköverföring, såväl som anställdas samtal till IT för att initiera en lösenordsåterställning”, säger Rick McElroy, VMwares främsta cybersäkerhetsstrateg.

Få begränsningar för Deepfake-attacker och upptäckt är svårt

Generellt sett kan dessa typer av attacker vara effektiva, eftersom det ännu inte finns några tekniska korrigeringar tillgängliga för att ta itu med utmaningen, säger McElroy. 

"Med tanke på den ökande användningen och sofistikeringen i att skapa deepfakes ser jag detta som ett av de största hoten mot organisationer ur ett bedrägeri- och bedrägeriperspektiv framåt", varnar han. 

Det mest effektiva sättet att mildra hotet för närvarande är att öka medvetenheten om problemet bland ekonomi-, lednings- och IT-team som är huvudmålen för dessa sociala ingenjörsattacker. 

"Organisationer kan överväga lågteknologiska metoder för att bryta cykeln. Detta kan inkludera att man använder en utmaning och en lösenordsfras bland chefer när man kopplar pengar från en organisation eller har en tvåstegs och verifierad godkännandeprocess, säger han.

Gil Dabah, medgrundare och VD för Piaano, rekommenderar också strikt åtkomstkontroll som en mildrande åtgärd. Ingen användare ska ha tillgång till stora bitar av personlig data och organisationer måste sätta hastighetsgränser såväl som avvikelsedetektering, säger han.

"Till och med system som business intelligence, som kräver big data-analys, bör endast få tillgång till maskerad data," noterar Dabah och tillägger att inga känsliga personuppgifter bör förvaras i klartext och data som PII bör tokeniseras och skyddas.

Samtidigt på detektionsfronten, utveckling inom teknologier som AI-baserad Generativa Adversarial Networks (GAN) har gjort deepfake-detektion svårare. "Det betyder att vi inte kan lita på innehåll som innehåller "artefakt" ledtrådar om att det har skett förändringar, säger Lou Steinberg, medgrundare och managing partner på CTM Insights.

För att upptäcka manipulerat innehåll behöver organisationer fingeravtryck eller signaturer som bevisar att något är oförändrat, tillägger han.

"Ännu bättre är att ta mikrofingeravtryck över delar av innehållet och kunna identifiera vad som har förändrats och vad som inte har förändrats", säger han. "Det är mycket värdefullt när en bild har redigerats, men ännu mer när någon försöker dölja en bild från upptäckt."

Tre breda hotkategorier

Steinberg säger att deepfake-hoten delas in i tre breda kategorier. Den första är desinformationskampanjer som mestadels involverar redigeringar av legitimt innehåll för att ändra innebörden. Som ett exempel pekar Steinberg på nationalstatsaktörer som använder falska nyhetsbilder och videor på sociala medier eller sätter in någon i ett foto som inte var närvarande från början - något som ofta används för saker som underförstådda produktgodkännanden eller hämndporr.

En annan kategori innefattar subtila ändringar av bilder, logotyper och annat innehåll för att kringgå automatiska upptäcktsverktyg som de som används för att upptäcka produktlogotyper, bilder som används i nätfiskekampanjer eller till och med verktyg för att upptäcka barnpornografi.

Den tredje kategorin handlar om syntetiska eller sammansatta deepfakes som härrör från en samling original för att skapa något helt nytt, säger Steinberg. 

"Vi började se det här med ljud för några år sedan, med datorsyntetiserat tal för att besegra röstavtryck i callcenter för finansiella tjänster", säger han. "Video används nu för saker som en modern version av affärse-postkompromiss eller för att skada ett rykte genom att någon "säger" något de aldrig har sagt."

Tidsstämpel:

Mer från Mörk läsning