Deepfakes z umetno inteligenco so grožnja tudi podjetjem – evo zakaj – dešifrirajte

AI Deepfakes so grožnja tudi podjetjem – evo zakaj – dešifrirajte

AI Deepfakes Are a Threat to Businesses Too—Here's Why - Decrypt PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Medtem ko tehnološki velikani tekmujejo, da bi umetno inteligenco prinesli množicam in imeli v lasti rastoči trg, oboroževalna tekma z umetno inteligenco pospešuje porast »globoko ponarejenih« videoposnetkov in zvočnih vsebin, ki so pogosto videti ali zvenijo prepričljivo legitimne, a so v resnici lažna lažna predstavitev. In glede na novo poročilo vplivajo tudi na podjetja.

Deepfake so stvaritve, ustvarjene z umetno inteligenco, kot so slike, videoposnetki in zvok, manipulirani za zavajanje ljudi. Prevaranti uporabljajo deepfake za goljufanje, izsiljevanje, ali škodovati ugledu. Širjenje generativni AI orodja je prevarantom olajšalo ustvarjanje lažne vsebine kot kdaj koli prej.

Slavne osebnosti in druge javne osebnosti so brez njihovega soglasja vstavljene v umetne in včasih eksplicitne posnetke na načine, ki včasih postanejo viralni ali lahko povzročijo paniko na družbenih medijih. V poročilu, posredovanem Dešifriraj, globalno računovodsko podjetje KPMG zapisal, da tudi poslovni sektor ni imun na grožnjo deepfake.

Vsebina Deepfake se lahko uporablja v napadih socialnega inženiringa in drugih vrstah kibernetskih napadov, usmerjenih v podjetja, je zapisal KPMG, medtem ko lahko takšna vsebina vpliva tudi na ugled podjetij in njihovih vodij. Lažne predstavitve predstavnikov podjetja se lahko uporabijo tudi v shemah za prevare strank ali za prepričevanje zaposlenih, da zagotovijo informacije ali nakažejo denar nezakonitim akterjem.

KPMG navedel primer iz leta 2020 of a Hong Kong company branch manager who was duped into transferring $35 million worth of company funds to scammers after believing his boss was on the phone, ordering him to do so. Instead, it was an AI-cloned recreation of the supervisor’s voice—all part of an elaborate scheme to swindle money from the firm.

»Posledice kibernetskih napadov, ki uporabljajo sintetično vsebino – digitalno vsebino, ki je bila ustvarjena ali manipulirana za nečedne namene – so lahko velike, drage in imajo različne socialno-ekonomske posledice, med drugim finančne, ugledne, storitvene in geopolitične,« piše v poročilu.

Deepfake posnetek Donalda Trumpa aretiran v začetku tega leta, Papež Frančišek oblečen v luksuzna oblačila Balenciaga in Elon Musk promocija kripto prevar je v zadnjem letu postala virusna, saj se je tehnologija deepfake izboljšala zahvaljujoč razvijajočim se orodjem AI.

"Ne glede na to, ali gre za poceni ponaredke ali globoke ponaredke, se je ekonomski model močno spremenil zaradi generativnih modelov umetne inteligence," je zapisal KPMG.

Poleg zgoraj omenjenih javnih osebnosti sta ugledni slavni osebnosti, katerih podobe so bile ukradene in uporabljene na ponarejenih posnetkih, še igralka Emma Watson in glasbenica Taylor Swift. Toda KPMG opozarja na potencialni vpliv na podjetja in njihove včasih vidne voditelje.

"Deepfake vsebina kot dejavnik tveganja ni samo skrb za družbene medije, spletna mesta za zmenke in zabavno industrijo - to je zdaj vprašanje sejne sobe," je dejal KPMG. »Na primer, skoraj vsi anketiranci (92 %) nedavne raziskave generativne umetne inteligence KPMG, ki je vključevala 300 vodilnih delavcev v različnih panogah in območjih, pravijo, da so njihovi pomisleki glede tveganj uvedbe generativne umetne inteligence zmerno do zelo pomembni.«

Z naraščanjem kakovosti in števila globoko ponarejenih videoposnetkov na internetu se ne spopadajo le podjetja in zvezdniki. Vlade in regulatorji prav tako računajo na potencialni vpliv na družbo in volitve, medtem ko ustvarjalci tovrstnih orodij AI tehtajo njihov potencialni negativni vpliv.

Prejšnji teden je ameriška zvezna volilna komisija, ki je predvidevala uporabo globokih ponaredkov na volitvah leta 2024, napredovala z peticije prepovedati uporabo umetne inteligence v oglaševalskih oglasih.

Če bo odobrena, bo agencija spremenila sedanje predpise glede goljufivega napačnega predstavljanja "pooblastila za kampanjo" in pojasnila, da prepoved velja za namerno zavajajoče oglase AI kampanj.

"Regulatorji bi morali še naprej razumeti in upoštevati vpliv razvijajočih se groženj na obstoječe predpise," je dejal Matthew Miller, vodja storitev kibernetske varnosti pri KPMG. Dešifriraj. "Predlagane zahteve za označevanje in vodni žig vsebine, ustvarjene z umetno inteligenco, bi lahko imele pozitiven učinek."

Julija so raziskovalci z MIT predlagano dodajanje sprememb kode velikim difuzijskim modelom za ublažitev tveganja globokih ponaredkov z dodajanjem drobnih sprememb, ki jih je težko videti, a na koncu spremenijo delovanje modelov, zaradi česar ustvarijo slike, ki niso videti resnične. Meta pa pred kratkim zadržal orodje AI zaradi potenciala globokega ponarejanja.

Navdušenje nad ustvarjalnim potencialom generativnih orodij AI je ublažilo spoznanje, da lahko na podoben način ustvarijo priložnosti za zlonamerno vsebino. Na koncu je Miller med hitrimi izboljšavami takšnih orodij vse pozval, naj bodo pozorni na možnost lažne vsebine.

"Javnost mora biti nenehno pozorna pri interakciji prek digitalnih kanalov," je povedal Dešifrirajte »Zavedanje situacije in zdrava pamet zelo pomagata pri preprečevanju incidenta. Če se nekaj 'ne zdi prav', obstaja velika verjetnost, da gre za zlonamerno dejavnost.«

Bodite na tekočem s kripto novicami, prejemajte dnevne posodobitve v svoj nabiralnik.

Časovni žig:

Več od Dešifriraj