AI Deepfakes uhkaavat myös yrityksiä – tässä miksi – Pura salaus

AI Deepfake on uhka myös yrityksille – tässä miksi – pura salaus

Tekoälyn syväväärennökset ovat uhka myös yrityksille – tässä on syy – Pura PlatoBlockchain Data Intelligence -salaus. Pystysuuntainen haku. Ai.

Kun teknologiajätit kilpailevat keinoälyn tuomisesta massoihin ja nousevien markkinoiden omistamisesta, tekoälyn asevarustelu lisää "deepfake" -videoita ja -ääntä – sisältöä, joka usein näyttää tai kuulostaa vakuuttavasti lailliselta, mutta on itse asiassa petollinen vääristely. Ja ne vaikuttavat myös yrityksiin uuden raportin mukaan.

Deepfakes ovat tekoälyn luomia luomuksia, kuten kuvia, videoita ja ääntä, joita on manipuloitu ihmisten huijaamiseksi. Huijarit käyttävät syväväärennöksiä huijauksiin, kiristystai vahingoittaa mainetta. Lisääntyminen generatiivinen tekoäly työkalut ovat tehneet huijareille väärennetyn sisällön luomisen helpommaksi kuin koskaan.

Julkkiksia ja muita julkisuuden henkilöitä lisätään keinotekoiseen ja joskus nimenomaiseen materiaaliin ilman heidän suostumustaan ​​tavoilla, jotka leviävät toisinaan tai voivat aiheuttaa paniikkia sosiaalisessa mediassa. Raportissa, joka toimitettiin Pura, maailmanlaajuinen tilitoimisto KPMG kirjoitti, että yrityssektori ei myöskään ole immuuni syvälle fake-uhkalle.

Deepfake-sisältöä voidaan käyttää manipulointihyökkäyksissä ja muissa yrityksiin kohdistetuissa kyberhyökkäyksissä, KPMG kirjoitti, mutta tällainen sisältö voi vaikuttaa myös yritysten ja niiden johtajien maineeseen. Yritysten edustajien vääriä esityksiä voidaan käyttää myös suunnitelmissa asiakkaiden huijaamiseksi tai työntekijöiden vakuuttamiseksi antamaan tietoja tai siirtämään rahaa laittomille toimijoille.

KPMG lainasi esimerkkiä vuodelta 2020 Hongkongin yrityksen sivuliikkeen johtajasta, joka huijattiin siirtämään 35 miljoonan dollarin arvosta yrityksen varoja huijareille uskottuaan pomonsa puhuneen puhelimessa ja käskenyt häntä tekemään niin. Sen sijaan se oli tekoälyn kloonattua esimiehen äänen toistoa – kaikki osa monimutkaista suunnitelmaa rahan huijaamiseksi yritykseltä.

"Synteettistä sisältöä hyödyntävien kyberhyökkäysten seuraukset voivat olla valtavia, kalliita, ja niillä voi olla erilaisia ​​sosioekonomisia vaikutuksia, kuten taloudellisia, maineeseen, palveluun ja geopoliittisia vaikutuksia." raportissa lukee.

Deepfake kuvamateriaalia Donald Trumpista pidätetty aikaisemmin tänä vuonna, Franciscus yllään Balenciaga luksusvaatteita, ja Elon Musk kryptohuijausten edistäminen on levinnyt viime vuonna, kun deepfake-tekniikka on parantunut kehittyvien tekoälytyökalujen ansiosta.

"Onpa kyseessä halpoja väärennöksiä tai syväväärennöksiä, talousmalli on muuttunut merkittävästi generatiivisten tekoälymallien vuoksi", KPMG kirjoitti.

Edellä mainittujen julkisuuden henkilöiden lisäksi tunnettuja julkkiksia, joiden hahmot on varastettu ja käytetty väärennettyihin materiaaliin, ovat näyttelijä Emma Watson ja muusikko Taylor Swift. Mutta KPMG herättää hälytyksen mahdollisista vaikutuksista yrityksiin ja niiden joskus merkittäviin johtajiin.

"Riskitekijänä syvä väärennetty sisältö ei ole vain sosiaalisen median, treffisivustojen ja viihdeteollisuuden huolenaihe - se on nyt kokoushuonekysymys", KPMG sanoi. "Esimerkiksi lähes kaikki vastaajat (92 %) äskettäisessä KPMG:n generatiivisen tekoälyn tutkimuksessa, johon osallistui 300 johtajaa useilta toimialoilta ja maantieteellisiltä alueilta, sanovat, että heidän huolensa generatiivisen tekoälyn käyttöönoton riskeistä on kohtalaisen tai erittäin merkittävä."

Yritykset ja julkkikset eivät ole tekemisissä Internetin syväfake-videoiden laadun ja määrän kasvun kanssa. Hallitukset ja sääntelyviranomaiset ottavat huomioon myös mahdolliset vaikutukset yhteiskuntaan ja vaaleihin, kun taas tällaisten tekoälytyökalujen luojat punnitsevat niiden mahdollisia kielteisiä vaikutuksia.

Viime viikolla Yhdysvaltain liittovaltion vaalilautakunta, ennakoiden syväväärennösten käyttöä vuoden 2024 vaaleissa, eteni vetoomus kieltää tekoälyn käyttö kampanjan mainoksissa.

Jos se hyväksytään, virasto muuttaisi nykyisiä säännöksiä, jotka koskevat "kampanjaviranomaisen" vilpillistä harhaanjohtamista, ja selventää, että kielto koskee tarkoituksellisesti harhaanjohtavia tekoälykampanjan mainoksia.

"Sääntelyviranomaisten tulee edelleen ymmärtää ja harkita kehittyvien uhkien vaikutusta olemassa oleviin säädöksiin", KPMG:n kyberturvallisuuspalveluiden johtaja Matthew Miller sanoi. Pura. "Tekoälyn luoman sisällön merkitsemistä ja vesileimausta koskevilla ehdotuksilla voi olla myönteinen vaikutus."

Heinäkuussa MIT:n tutkijat ehdotettu koodimuutosten lisääminen suuriin diffuusiomalleihin syväväärennösten riskin vähentämiseksi lisäämällä pieniä muutoksia, joita on vaikea havaita, mutta jotka lopulta muuttavat mallien toimintaa, jolloin ne luovat kuvia, jotka eivät näytä todellisilta. Meta puolestaan ​​äskettäin pidätti tekoälytyökalua syvän väärennöspotentiaalinsa vuoksi.

Jännitystä generatiivisten tekoälytyökalujen luovan potentiaalin ympärillä on lieventänyt oivallus, että ne voivat samalla tavoin luoda mahdollisuuksia haitalliselle sisällölle. Loppujen lopuksi Miller kehotti kaikkia olemaan valppaita väärennetyn sisällön mahdollisen suhteen tällaisten työkalujen nopeiden parannusten keskellä.

"Yleisön on säilytettävä jatkuva valppaus vuorovaikutuksessa digitaalisten kanavien kautta", hän sanoi Pura. ”Tilannetietoisuus ja maalaisjärki auttavat estämään tapauksen sattumisen. Jos jokin "ei tunnu oikealta", se on suurella todennäköisyydellä haitallista toimintaa."

Pysy ajan tasalla kryptouutisista, saat päivittäiset päivitykset postilaatikkoosi.

Aikaleima:

Lisää aiheesta Pura