Deepfake-urile AI sunt o amenințare și pentru companii – Iată de ce - Decriptați

Deepfake-urile AI sunt o amenințare și pentru companii – Iată de ce – Decriptați

AI Deepfakes Are a Threat to Businesses Too—Here's Why - Decrypt PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Pe măsură ce giganții tehnologiei concurează pentru a aduce inteligența artificială în masă și deține piața în plină dezvoltare, cursa înarmărilor AI alimentează o creștere a videoclipurilor și audio „deepfake” – conținut care adesea pare sau sună convingător de legitim, dar este de fapt o denaturare frauduloasă. Și acestea afectează și afacerile, potrivit unui nou raport.

Deepfake-urile sunt creații generate de AI, cum ar fi imagini, videoclipuri și sunet, manipulate pentru a înșela oamenii. Escrocii folosesc deepfakes pentru fraudă, stoarcere, sau pentru a prejudicia reputația. Proliferarea AI generativă instrumentele a făcut mai ușor ca niciodată pentru escroci să creeze conținut fals.

Celebritățile și alte personalități publice sunt introduse în filmări artificiale și uneori explicite fără consimțământul lor, în moduri care uneori devin virale sau pot provoca panică pe rețelele sociale. Într-un raport furnizat către decriptaţi, firma globala de contabilitate KPMG a scris că nici sectorul de afaceri nu este imun la amenințarea deepfake.

Conținutul deepfake poate fi folosit în atacuri de inginerie socială și în alte tipuri de atacuri cibernetice care vizează companii, a scris KPMG, în timp ce un astfel de conținut poate afecta și reputația companiilor și a liderilor acestora. Reprezentările false ale reprezentanților companiei pot fi, de asemenea, folosite în scheme pentru a înșela clienții sau pentru a-i convinge pe angajați să furnizeze informații sau să transfere bani unor actori ilegali.

KPMG a citat un exemplu din 2020 of a Hong Kong company branch manager who was duped into transferring $35 million worth of company funds to scammers after believing his boss was on the phone, ordering him to do so. Instead, it was an AI-cloned recreation of the supervisor’s voice—all part of an elaborate scheme to swindle money from the firm.

„Consecințele atacurilor cibernetice care utilizează conținut sintetic – conținut digital care a fost generat sau manipulat în scopuri nefaste – pot fi vaste, costisitoare și au o varietate de impacturi socioeconomice, inclusiv financiare, reputaționale, de servicii și geopolitice, printre altele.” se arata raportul.

Imagini deepfake ale lui Donald Trump arestat mai devreme anul asta, Papa Francis purtând îmbrăcăminte de lux Balenciaga și Elon Musk promovarea înșelătoriilor cripto a devenit virală în ultimul an, deoarece tehnologia deepfake s-a îmbunătățit datorită instrumentelor AI în evoluție.

„Fie că este vorba de falsuri ieftine sau de deepfakes, modelul economic s-a schimbat semnificativ din cauza modelelor AI generative”, a scris KPMG.

Dincolo de personalitățile publice menționate mai sus, celebrități proeminente ale căror asemănări au fost furate și aplicate la imagini false includ actrița Emma Watson și muzicianul Taylor Swift. Dar este impactul potențial asupra afacerilor și a liderilor lor proeminenți, uneori, despre care KPMG trage alarma.

„Ca factor de risc, conținutul deepfake nu este doar o preocupare pentru rețelele sociale, site-urile de întâlniri și industria divertismentului – este acum o problemă a sălii de consiliu”, a spus KPMG. „De exemplu, aproape toți respondenții (92%) ale unui sondaj recent KPMG privind IA generativă a 300 de directori din mai multe industrii și zone geografice spun că preocupările lor cu privire la riscurile implementării AI generative sunt moderat până la foarte semnificative.”

Nu doar companiile și celebritățile se confruntă cu creșterea atât a calității, cât și a numărului de videoclipuri deepfake pe internet. Guvernele și autoritățile de reglementare iau în calcul, de asemenea, impactul potențial asupra societății și alegerilor, în timp ce creatorii unor astfel de instrumente AI își cântăresc impactul negativ potențial.

Săptămâna trecută, Comisia Electorală Federală din SUA, anticipând utilizarea deepfake-urilor în alegerile din 2024, a avansat cu o petiţie pentru a interzice utilizarea inteligenței artificiale în reclamele campaniei.

Dacă va fi aprobată, agenția ar modifica reglementările actuale cu privire la denaturarea frauduloasă a „autorității campaniei” și ar clarifica faptul că interdicția se aplică reclamelor de campanie AI înșelătoare în mod deliberat.

„Reglementatorii ar trebui să continue să înțeleagă și să ia în considerare impactul amenințărilor în evoluție asupra reglementărilor existente”, a declarat Matthew Miller, director al serviciilor de securitate cibernetică la KPMG. decriptaţi. „Cerințele propuse pentru etichetarea și marcarea conținutului generat de IA ar putea avea un impact pozitiv.”

În iulie, cercetătorii de la MIT propus adăugarea de modificări de cod la modelele de difuzie mari pentru a atenua riscul de deepfake, prin adăugarea de mici modificări care sunt greu de văzut, dar în cele din urmă schimbă modul în care funcționează modelele, determinându-le să genereze imagini care nu par reale. Meta, între timp, recent a reținut un instrument AI datorită potenţialului său deepfake.

Emoția în jurul potențialului creativ al instrumentelor AI generative a fost temperată de conștientizarea că acestea pot crea în mod similar oportunități pentru conținut rău intenționat. În cele din urmă, pe fondul îmbunătățirilor rapide pentru astfel de instrumente, Miller a îndemnat pe toată lumea să fie vigilenți cu privire la potențialul de conținut fals.

„Publicul trebuie să mențină vigilență continuă atunci când interacționează prin canale digitale”, a spus el Decodificare. „Conștientizarea situației și bunul simț ajută la prevenirea producerii unui incident. Dacă ceva nu „se simte în regulă”, are o mare probabilitate să fie o activitate rău intenționată.”

Fiți la curent cu știrile cripto, primiți actualizări zilnice în căsuța dvs. de e-mail.

Timestamp-ul:

Mai mult de la decriptaţi