Omforming av trussellandskapet: Deepfake cyberangrep er her PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Omforming av trussellandskapet: Deepfake cyberangrep er her

Ondsinnede kampanjer som involverer bruk av dypfalske teknologier er mye nærmere enn mange kanskje antar. Videre er det vanskelig å begrense dem og oppdage dem.

En ny studie av bruk og misbruk av deepfakes av nettkriminelle viser at alle nødvendige elementer for utbredt bruk av teknologien er på plass og lett tilgjengelig i underjordiske markeder og åpne fora. Studien fra Trend Micro viser at mange deepfake-aktiverte phishing, forretnings-e-postkompromisser (BEC) og reklamesvindel allerede skjer og er raskt omforme trussellandskapet.

Ikke lenger en hypotetisk trussel

"Fra hypotetiske og proof-of-concept trusler har [deepfake-aktiverte angrep] beveget seg til stadiet der ikke-modne kriminelle er i stand til å bruke slike teknologier," sier Vladimir Kropotov, sikkerhetsforsker ved Trend Micro og hovedforfatter av en rapport om emnet som sikkerhetsleverandøren ga ut denne uken. 

"Vi ser allerede hvordan dype forfalskninger er integrert i angrep mot finansinstitusjoner, svindel og forsøk på å etterligne politikere," sier han, og legger til at det som er skummelt er at mange av disse angrepene bruker identiteter til ekte mennesker - ofte skrapet fra innhold de legger ut på sosiale medier. medienettverk.

En av hovedtrekkene fra Trend Micros studie er lett tilgjengelighet av verktøy, bilder og videoer for å generere dype forfalskninger. Sikkerhetsleverandøren fant for eksempel at flere fora, inkludert GitHub, tilbyr kildekode for å utvikle dype falske forfalskninger til alle som ønsker det. På samme måte er nok høykvalitetsbilder og videoer av vanlige enkeltpersoner og offentlige personer tilgjengelige til at dårlige skuespillere kan skape millioner av falske identiteter eller utgi seg for politikere, bedriftsledere og andre kjente personligheter.

Etterspørselen etter deepfake-tjenester og personer med ekspertise på temaet vokser også i underjordiske fora. Trend Micro fant annonser fra kriminelle som søkte etter disse ferdighetene for å utføre svindel med kryptovaluta og svindel rettet mot individuelle finanskontoer. 

"Skuespillere kan allerede etterligne og stjele identiteten til politikere, ledere på C-nivå og kjendiser," sa Trend Micro i sin rapport. "Dette kan i betydelig grad øke suksessraten for visse angrep som økonomiske ordninger, kortvarige desinformasjonskampanjer, opinionsmanipulasjon og utpressing."

En mengde risikoer

Det er også en økende risiko for at stjålne eller gjenskapte identiteter som tilhører vanlige mennesker, blir brukt til å svindle de etterligne ofrene, eller til å utføre ondsinnede aktiviteter under deres identiteter. 

I mange diskusjonsgrupper fant Trend Micro at brukere aktivt diskuterte måter å bruke deepfakes for å omgå banktjenester og andre kontoverifiseringskontroller – spesielt de som involverer video og ansikt-til-ansikt verifiseringsmetoder.

For eksempel kan kriminelle bruke et offers identitet og bruke en dypfalsk video av dem til å åpne bankkontoer, som senere kan brukes til hvitvaskingsaktiviteter. De kan på samme måte kapre kontoer, utgi seg for toppledere i organisasjoner for å initiere uredelig pengeoverføring eller plante falske bevis for å presse enkeltpersoner, sa Trend Micro. 

Enheter som Amazons Alexa og iPhone, som bruker stemme- eller ansiktsgjenkjenning, kan snart være på listen over målenheter for deepfake-baserte angrep, bemerket sikkerhetsleverandøren.

"Siden mange selskaper fortsatt jobber i ekstern eller blandet modus, er det økt risiko for personetterligning i konferansesamtaler som kan påvirke intern og ekstern forretningskommunikasjon og sensitive forretningsprosesser og økonomiske flyter, sier Kropotov.

Trend Micro er ikke alene om å slå alarm om deepfakes. En nylig nettbasert undersøkelse som VMware gjennomførte av 125 fagpersoner innen cybersikkerhet og hendelsesrespons fant også at deepfake-aktiverte trusler ikke bare kommer – de er allerede her. Oppsiktsvekkende 66 % – en økning på 13 % fra 2021 – av respondentene sa at de hadde opplevd en sikkerhetshendelse som involverte deepfake-bruk i løpet av de siste 12 månedene.

"Eksempler på dypfalske angrep som [allerede] har vært vitne til inkluderer taleanrop fra administrerende direktør til en finansdirektør fører til bankoverføring, så vel som ansattes oppringninger til IT for å starte en tilbakestilling av passord, sier Rick McElroy, VMwares viktigste cybersikkerhetsstrateg.

Få begrensninger for dypfalske angrep og deteksjon er vanskelig

Generelt sett kan denne typen angrep være effektive, fordi ingen teknologiske rettelser er tilgjengelige ennå for å løse utfordringen, sier McElroy. 

"Gitt den økende bruken og sofistikeringen i å lage dype forfalskninger, ser jeg dette som en av de største truslene mot organisasjoner fra et svindel- og svindelperspektiv fremover," advarer han. 

Den mest effektive måten å redusere trusselen for øyeblikket er å øke bevisstheten om problemet blant finans-, ledelses- og IT-team som er hovedmålene for disse sosiale ingeniørangrepene. 

"Organisasjoner kan vurdere lavteknologiske metoder for å bryte syklusen. Dette kan inkludere å bruke en utfordring og passordfrase blant ledere når de kobler penger ut av en organisasjon eller har en to-trinns og verifisert godkjenningsprosess, sier han.

Gil Dabah, medgründer og administrerende direktør i Piaano, anbefaler også streng tilgangskontroll som et avbøtende tiltak. Ingen brukere skal ha tilgang til store biter av personopplysninger, og organisasjoner må sette hastighetsgrenser samt oppdagelse av anomalier, sier han.

"Selv systemer som business intelligence, som krever big data-analyse, bør bare få tilgang til maskerte data," bemerker Dabah, og legger til at ingen sensitive personopplysninger skal oppbevares i klartekst og data som PII bør tokeniseres og beskyttes.

I mellomtiden på deteksjonsfronten, utviklingen innen teknologier som AI-basert Generative motstandernettverk (GAN) har gjort deepfake-deteksjon vanskeligere. "Det betyr at vi ikke kan stole på innhold som inneholder "artefakt"-ledetråder om at det har skjedd endringer, sier Lou Steinberg, medgründer og administrerende partner i CTM Insights.

For å oppdage manipulert innhold trenger organisasjoner fingeravtrykk eller signaturer som beviser at noe er uendret, legger han til.

"Enda bedre er å ta mikrofingeravtrykk over deler av innholdet og være i stand til å identifisere hva som er endret og hva som ikke har endret seg," sier han. "Det er veldig verdifullt når et bilde har blitt redigert, men enda mer når noen prøver å skjule et bilde fra gjenkjenning."

Tre brede trusselkategorier

Steinberg sier dypfalske trusler faller inn i tre brede kategorier. Den første er desinformasjonskampanjer som hovedsakelig involverer redigeringer av legitimt innhold for å endre betydningen. Som et eksempel peker Steinberg på nasjonalstatsaktører som bruker falske nyhetsbilder og -videoer på sosiale medier eller setter inn noen i et bilde som opprinnelig ikke var til stede - noe som ofte brukes til ting som underforståtte produktgodkjenninger eller hevnporno.

En annen kategori innebærer subtile endringer i bilder, logoer og annet innhold for å omgå automatiserte gjenkjenningsverktøy som de som brukes til å oppdage produktlogoer, bilder brukt i phishing-kampanjer eller til og med verktøy for å oppdage barnepornografi.

Den tredje kategorien involverer syntetiske eller sammensatte deepfakes som er utledet fra en samling originaler for å skape noe helt nytt, sier Steinberg. 

"Vi begynte å se dette med lyd for noen år tilbake, og brukte datasyntetisert tale for å overvinne stemmeavtrykk i telefonsentre for finansielle tjenester," sier han. «Video blir nå brukt til ting som en moderne versjon av kompromittering av forretnings-e-post eller for å skade et rykte ved å få noen til å «si» noe de aldri har sagt.»

Tidstempel:

Mer fra Mørk lesning