AI Deepfakes er også en trussel mot bedrifter – her er hvorfor – Dekrypter

AI Deepfakes er også en trussel mot bedrifter – her er hvorfor – Dekrypter

AI Deepfakes er også en trussel mot bedrifter – her er hvorfor – Dekrypter PlatoBlockchain Data Intelligence. Vertikalt søk. Ai.

Mens teknologigiganter konkurrerer om å bringe kunstig intelligens til massene og eie det spirende markedet, gir AI-våpenkappløpet næring til en økning i "dypfalske" videoer og lyd – innhold som ofte ser eller høres overbevisende legitimt ut, men som faktisk er en uredelig feilrepresentasjon. Og de påvirker også bedrifter, ifølge en ny rapport.

Deepfakes er AI-genererte kreasjoner som bilder, videoer og lyd manipulert for å lure folk. Svindlere bruker deepfakes for svindel, utpressing, eller skade omdømmet. Spredningen av generativ AI verktøy har gjort det enklere enn noen gang for svindlere å lage falskt innhold.

Kjendiser og andre offentlige personer blir satt inn i kunstige og noen ganger eksplisitte opptak uten deres samtykke på måter som noen ganger blir virale eller kan forårsake panikk på sosiale medier. I en rapport gitt til dekryptere, globalt regnskapsfirma KPMG skrev at næringslivet heller ikke er immun mot den dypfalske trusselen.

Dypfalsk innhold kan brukes i sosiale ingeniørangrep og andre typer nettangrep rettet mot selskaper, skrev KPMG, mens slikt innhold også kan påvirke omdømmet til bedrifter og deres ledere. Falske fremstillinger av bedriftsrepresentanter kan også brukes i ordninger for å lure kunder, eller for å overbevise ansatte om å gi informasjon eller overføre penger til ulovlige aktører.

KPMG nevnte et eksempel fra 2020 av en filialsjef i Hong Kong som ble lurt til å overføre 35 millioner dollar i selskapets midler til svindlere etter å ha trodd at sjefen hans var på telefonen, og beordret ham til å gjøre det. I stedet var det en AI-klonet gjenskaping av veilederens stemme – alt en del av et forseggjort opplegg for å svindle penger fra firmaet.

"Konsekvensene av nettangrep som bruker syntetisk innhold - digitalt innhold som har blitt generert eller manipulert for ondsinnede formål - kan være enorme, kostbare og ha en rekke sosioøkonomiske konsekvenser, inkludert økonomiske, omdømmemessige, servicemessige og geopolitiske, blant andre." lyder rapporten.

Dypfalske opptak av Donald Trump arrestert tidligere i år, Pope Francis iført Balenciaga luksusklær, og Elon Musk promotering av kryptosvindel har gått viralt det siste året ettersom deepfake-teknologien har forbedret seg takket være utviklende AI-verktøy.

"Enten det er billige forfalskninger eller deepfakes, har den økonomiske modellen endret seg betydelig på grunn av generative AI-modeller," skrev KPMG.

Utover de offentlige personene nevnt ovenfor, inkluderer prominente kjendiser hvis likheter er blitt stjålet og brukt på falske opptak, skuespillerinne Emma Watson og musiker Taylor Swift. Men det er den potensielle innvirkningen på bedrifter og deres noen ganger fremtredende ledere som KPMG slår alarm om.

"Som en risikofaktor er dypfalsk innhold ikke bare en bekymring for sosiale medier, datingsider og underholdningsindustrien - det er nå et styreromsproblem," sa KPMG. "For eksempel sier nesten alle respondentene (92 %) av en fersk KPMG generativ AI-undersøkelse blant 300 ledere på tvers av flere bransjer og geografier at deres bekymringer om risikoen ved å implementere generativ AI er moderat til svært betydelig."

Det er ikke bare bedrifter og kjendiser som har å gjøre med økningen i både kvaliteten og antallet dypfalske videoer på internett. Regjeringer og regulatorer regner også med den potensielle innvirkningen på samfunnet og valg, mens skaperne av slike AI-verktøy veier deres potensielle negative innvirkning.

I forrige uke gikk den amerikanske føderale valgkommisjonen, som forutså bruken av deepfakes i valget i 2024, frem med en protestskriv å forby bruk av kunstig intelligens i kampanjeannonser.

Hvis det blir godkjent, vil byrået endre gjeldende regelverk angående uredelig uriktig fremstilling av «kampanjemyndighet», og klargjøre at forbudet gjelder for bevisst villedende AI-kampanjeannonser.

"Regulatorer bør fortsette å forstå og vurdere virkningen av nye trusler på eksisterende regelverk," sa Matthew Miller, rektor for Cyber ​​Security Services hos KPMG, dekryptere. "Foreslåtte krav for merking og vannmerking av AI-generert innhold kan ha en positiv innvirkning."

I juli, forskere ved MIT foreslått legge til kodeendringer til store diffusjonsmodeller for å redusere risikoen for dype forfalskninger, ved å legge til små endringer som er vanskelige å se, men som til slutt endrer hvordan modellene fungerer, og får dem til å generere bilder som ikke ser ekte ut. Meta, i mellomtiden, nylig holdt tilbake et AI-verktøy på grunn av dets dypfalske potensial.

Spenningen rundt det kreative potensialet til generative AI-verktøy har blitt dempet av erkjennelsen av at de på samme måte kan skape muligheter for skadelig innhold. Til syvende og sist, midt i raske forbedringer for slike verktøy, oppfordret Miller alle til å være på vakt om potensialet for falskt innhold.

"Offentligheten må opprettholde kontinuerlig årvåkenhet når de samhandler gjennom digitale kanaler," sa han Dekryptere. «Situasjonsbevissthet og sunn fornuft går langt for å forhindre at en hendelse inntreffer. Hvis noe ikke "føles riktig", har det stor sannsynlighet for å være ondsinnet aktivitet."

Hold deg oppdatert på kryptonyheter, få daglige oppdateringer i innboksen din.

Tidstempel:

Mer fra dekryptere