AI Deepfakes er også en trussel mod virksomheder - her er hvorfor - Dekrypter

AI Deepfakes er også en trussel mod virksomheder – her er hvorfor – Dekrypter

AI Deepfakes Are a Threat to Businesses Too—Here's Why - Decrypt PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Mens teknologigiganter konkurrerer om at bringe kunstig intelligens til masserne og eje det spirende marked, giver AI-våbenkapløbet næring til en stigning i "deepfake" videoer og lyd - indhold, der ofte ser eller lyder overbevisende legitimt, men som faktisk er en svigagtig vildledning. Og de påvirker også virksomheder, ifølge en ny rapport.

Deepfakes er AI-genererede kreationer som billeder, videoer og lyd manipuleret for at bedrage folk. Svindlere bruger deepfakes til bedrageri, afpresningeller skade omdømmet. Udbredelsen af generativ AI værktøjer har gjort det nemmere end nogensinde for svindlere at skabe falsk indhold.

Berømtheder og andre offentlige personer bliver sat ind i kunstige og nogle gange eksplicitte optagelser uden deres samtykke på måder, der nogle gange går viralt eller kan forårsage panik på sociale medier. I en rapport leveret til Dekryptér, globalt revisionsfirma KPMG skrev, at erhvervslivet heller ikke er immun over for den deepfake trussel.

Dybt falsk indhold kan bruges i social engineering-angreb og andre typer cyberangreb rettet mod virksomheder, skrev KPMG, mens sådant indhold også kan påvirke virksomhedernes og deres lederes omdømme. Falske fremstillinger af virksomhedsrepræsentanter kan også bruges i ordninger for at snyde kunder eller til at overbevise medarbejdere om at give oplysninger eller overføre penge til ulovlige aktører.

KPMG nævnt et eksempel fra 2020 of a Hong Kong company branch manager who was duped into transferring $35 million worth of company funds to scammers after believing his boss was on the phone, ordering him to do so. Instead, it was an AI-cloned recreation of the supervisor’s voice—all part of an elaborate scheme to swindle money from the firm.

"Konsekvenserne af cyberangreb, der udnytter syntetisk indhold - digitalt indhold, der er blevet genereret eller manipuleret til ondsindede formål - kan være enorme, dyre og have en række socioøkonomiske konsekvenser, herunder økonomiske, omdømmemæssige, servicemæssige og geopolitiske, blandt andre." lyder rapporten.

Deepfake-optagelser af Donald Trumps væsen anholdt tidligere i år, Pave Frans iført Balenciaga luksusbeklædning, og Elon Musk promovering af krypto-svindel er gået viralt i det sidste år, da deepfake-teknologien er blevet forbedret takket være udviklende AI-værktøjer.

"Uanset om det er billige forfalskninger eller deepfakes, har den økonomiske model ændret sig betydeligt på grund af generative AI-modeller," skrev KPMG.

Ud over de offentlige personer, der er nævnt ovenfor, omfatter prominente berømtheder, hvis ligheder er blevet stjålet og anvendt på falske optagelser, skuespillerinden Emma Watson og musikeren Taylor Swift. Men det er den potentielle indvirkning på virksomheder og deres til tider fremtrædende ledere, som KPMG slår alarm om.

"Som en risikofaktor er deepfake indhold ikke kun en bekymring for sociale medier, datingsider og underholdningsindustrien - det er nu et bestyrelsesproblem," sagde KPMG. "Eksempelvis siger næsten alle respondenter (92%) af en nylig KPMG generativ AI-undersøgelse blandt 300 ledere på tværs af flere brancher og geografiske områder, at deres bekymringer over risiciene ved at implementere generativ AI er moderat til meget betydelige."

Det er ikke kun virksomheder og berømtheder, der har at gøre med stigningen i både kvaliteten og antallet af deepfake-videoer på internettet. Regeringer og regulatorer regner også med den potentielle indvirkning på samfundet og valg, mens skaberne af sådanne AI-værktøjer afvejer deres potentielle negative indvirkning.

I sidste uge gik den amerikanske føderale valgkommission, der forudså brugen af ​​deepfakes i valget i 2024, fremad med en andragende at forbyde brug af kunstig intelligens i kampagneannoncer.

Hvis det godkendes, vil agenturet ændre gældende regler vedrørende svigagtig urigtig fremstilling af "kampagnemyndighed" og præcisere, at forbuddet gælder for bevidst vildledende AI-kampagnereklamer.

"Regulatorer bør fortsætte med at forstå og overveje indvirkningen af ​​nye trusler på eksisterende regler," sagde Matthew Miller, rektor for Cyber ​​Security Services hos KPMG, til Dekryptér. "Foreslåede krav til mærkning og vandmærkning af AI-genereret indhold kan have en positiv indvirkning."

I juli forsker ved MIT foreslog tilføjelse af kodeændringer til store diffusionsmodeller for at mindske risikoen for deepfakes, ved at tilføje små ændringer, der er svære at se, men som i sidste ende ændrer, hvordan modellerne fungerer, hvilket får dem til at generere billeder, der ikke ser ægte ud. Meta, i mellemtiden, for nylig holdt et AI-værktøj tilbage på grund af dets deepfake potentiale.

Begejstringen omkring det kreative potentiale i generative AI-værktøjer er blevet dæmpet af erkendelsen af, at de på samme måde kan skabe muligheder for ondsindet indhold. I sidste ende, midt i hurtige forbedringer af sådanne værktøjer, opfordrede Miller alle til at være opmærksomme på potentialet for falsk indhold.

"Offentligheden er nødt til at opretholde konstant årvågenhed, når de interagerer gennem digitale kanaler," sagde han Dekryptér. "Situationsbevidsthed og sund fornuft går langt for at forhindre, at en hændelse opstår. Hvis noget ikke 'føles rigtigt', har det stor sandsynlighed for at være ondsindet aktivitet."

Hold dig opdateret med kryptonyheder, få daglige opdateringer i din indbakke.

Tidsstempel:

Mere fra Dekryptér