Omformning af trussellandskabet: Deepfake cyberangreb er her PlatoBlockchain Data Intelligence. Lodret søgning. Ai.

Omformning af trussellandskabet: Deepfake cyberangreb er her

Ondsindede kampagner, der involverer brug af deepfake-teknologier, er meget tættere på, end mange måske antager. Desuden er afbødning og opdagelse af dem svært.

En ny undersøgelse af brug og misbrug af deepfakes af cyberkriminelle viser, at alle de nødvendige elementer til udbredt brug af teknologien er på plads og let tilgængelige på undergrundsmarkeder og åbne fora. Undersøgelsen foretaget af Trend Micro viser, at mange deepfake-aktiverede phishing, business email compromises (BEC) og salgsfremmende svindel allerede sker og er hurtigt omforme trusselslandskabet.

Ikke længere en hypotetisk trussel

"Fra hypotetiske og proof-of-concept-trusler er [deepfake-aktiverede angreb] flyttet til det stadie, hvor ikke-modne kriminelle er i stand til at bruge sådanne teknologier," siger Vladimir Kropotov, sikkerhedsforsker hos Trend Micro og hovedforfatter af en rapport om emnet, som sikkerhedsleverandøren udgav i denne uge. 

"Vi ser allerede, hvordan deepfakes er integreret i angreb mod finansielle institutioner, svindel og forsøg på at efterligne politikere," siger han og tilføjer, at det skræmmende er, at mange af disse angreb bruger identiteter af rigtige mennesker - ofte skrabet fra indhold, de poster på sociale medier. medienetværk.

En af de vigtigste ting fra Trend Micros undersøgelse er den let tilgængelige tilgængelighed af værktøjer, billeder og videoer til at generere deepfakes. Sikkerhedsleverandøren fandt for eksempel ud af, at flere fora, inklusive GitHub, tilbyder kildekode til udvikling af deepfakes til alle, der ønsker det. Tilsvarende er der nok billeder og videoer af høj kvalitet af almindelige personer og offentlige personer tilgængelige til, at dårlige skuespillere kan skabe millioner af falske identiteter eller udgive sig for politikere, virksomhedsledere og andre berømte personligheder.

Efterspørgslen efter deepfake-tjenester og folk med ekspertise om emnet vokser også i underjordiske fora. Trend Micro fandt annoncer fra kriminelle, der søgte efter disse færdigheder til at udføre cryptocurrency-svindel og svindel rettet mod individuelle finansielle konti. 

"Skuespillere kan allerede efterligne og stjæle identiteten af ​​politikere, ledere på C-niveau og berømtheder," sagde Trend Micro i sin rapport. "Dette kan markant øge succesraten for visse angreb, såsom finansielle ordninger, kortvarige desinformationskampagner, manipulation af den offentlige mening og afpresning."

Et væld af risici

Der er også en stigende risiko for, at stjålne eller genskabte identiteter tilhørende almindelige mennesker bliver brugt til at bedrage de efterlignede ofre eller til at udføre ondsindede aktiviteter under deres identitet. 

I mange diskussionsgrupper fandt Trend Micro, at brugere aktivt diskuterede måder at bruge deepfakes til at omgå bank- og andre kontobekræftelseskontroller - især dem, der involverer video og ansigt-til-ansigt verifikationsmetoder.

For eksempel kunne kriminelle bruge et offers identitet og bruge en deepfake-video af dem til at åbne bankkonti, som senere kunne bruges til hvidvaskaktiviteter. De kan på samme måde kapre konti, efterligne topledere i organisationer for at igangsætte svigagtige pengeoverførsler eller plante falske beviser for at afpresse enkeltpersoner, sagde Trend Micro. 

Enheder som Amazons Alexa og iPhone, der bruger stemme- eller ansigtsgenkendelse, kan snart være på listen over målenheder til deepfake-baserede angreb, bemærkede sikkerhedsleverandøren.

“Da mange virksomheder stadig arbejder i fjern- eller blandet tilstand, er der en øget risiko for personefterligning i konferenceopkald som kan påvirke intern og ekstern virksomhedskommunikation og følsomme forretningsprocesser og finansielle strømme,” siger Kropotov.

Trend Micro er ikke alene om at slå alarm ved deepfakes. En nylig online-undersøgelse, som VMware udførte af 125 cybersikkerheds- og hændelsesberedskabsprofessionelle, fandt også, at deepfake-aktiverede trusler ikke bare kommer - de er her allerede. Opsigtsvækkende 66 % - en stigning på 13 % fra 2021 - af de adspurgte sagde, at de havde oplevet en sikkerhedshændelse, der involverede deepfake-brug i løbet af de sidste 12 måneder.

"Eksempler på deepfake-angreb, der [allerede] har været vidne til, inkluderer CEO-taleopkald til en CFO fører til en bankoverførsel, samt medarbejderopkald til IT for at starte en nulstilling af adgangskode,” siger Rick McElroy, VMwares primære cybersikkerhedsstrateg.

Få begrænsninger for Deepfake-angreb og detektion er svært

Generelt kan disse typer angreb være effektive, fordi der endnu ikke er tilgængelige teknologiske rettelser til at løse udfordringen, siger McElroy. 

"I betragtning af den stigende brug og sofistikering i at skabe deepfakes, ser jeg dette som en af ​​de største trusler mod organisationer ud fra et svindel- og fidusperspektiv fremover," advarer han. 

Den mest effektive måde at afbøde truslen i øjeblikket er at øge bevidstheden om problemet blandt økonomi-, ledelses- og it-teams, som er hovedmålene for disse social engineering-angreb. 

"Organisationer kan overveje lavteknologiske metoder til at bryde cyklussen. Dette kan omfatte at bruge en udfordring og en adgangskode blandt ledere, når de overfører penge til en organisation eller har en totrins og verificeret godkendelsesproces,” siger han.

Gil Dabah, medstifter og administrerende direktør for Piaano, anbefaler også streng adgangskontrol som en formildende foranstaltning. Ingen brugere bør have adgang til store bidder af personlige data, og organisationer skal sætte hastighedsgrænser samt afsløring af anomalier, siger han.

"Selv systemer som business intelligence, som kræver big data-analyse, bør kun få adgang til maskerede data," bemærker Dabah og tilføjer, at ingen følsomme personlige data bør opbevares i klartekst, og data såsom PII bør tokeniseres og beskyttes.

I mellemtiden på detektionsfronten, udvikling inden for teknologier som AI-baseret Generative kontradiktoriske netværk (GAN'er) har gjort deepfake-detektion sværere. "Det betyder, at vi ikke kan stole på indhold, der indeholder 'artefakt'-antydninger om, at der er sket ændringer," siger Lou Steinberg, medstifter og managing partner hos CTM Insights.

For at opdage manipuleret indhold har organisationer brug for fingeraftryk eller signaturer, der beviser, at noget er uændret, tilføjer han.

"Endnu bedre er at tage mikrofingeraftryk over dele af indholdet og være i stand til at identificere, hvad der er ændret, og hvad der ikke har ændret sig," siger han. "Det er meget værdifuldt, når et billede er blevet redigeret, men endnu mere, når nogen forsøger at skjule et billede fra opdagelse."

Tre brede trusselskategorier

Steinberg siger, at deepfake trusler falder i tre brede kategorier. Den første er desinformationskampagner, der for det meste involverer redigeringer af legitimt indhold for at ændre betydningen. Som et eksempel peger Steinberg på nationalstatsaktører, der bruger falske nyhedsbilleder og -videoer på sociale medier eller indsætter nogen i et billede, der ikke var til stede oprindeligt - noget der ofte bruges til ting som underforståede produktgodkendelser eller hævnporno.

En anden kategori involverer subtile ændringer af billeder, logoer og andet indhold for at omgå automatiserede detektionsværktøjer, såsom dem, der bruges til at opdage knockoff-produktlogoer, billeder brugt i phishing-kampagner eller endda værktøjer til at opdage børnepornografi.

Den tredje kategori involverer syntetiske eller sammensatte deepfakes, der er afledt af en samling af originaler for at skabe noget helt nyt, siger Steinberg. 

"Vi begyndte at se dette med lyd for et par år tilbage, og vi brugte computersyntetiseret tale til at besejre stemmeaftryk i callcentre for finansielle tjenester," siger han. "Video bliver nu brugt til ting som en moderne version af virksomheds-e-mail-kompromis eller til at skade et omdømme ved at få nogen til at 'sige' noget, de aldrig har sagt."

Tidsstempel:

Mere fra Mørk læsning