AI-deepfakes vormen ook een bedreiging voor bedrijven – hier is waarom: ontsleutelen

AI-deepfakes vormen ook een bedreiging voor bedrijven – hier is waarom – ontsleutelen

AI-deepfakes vormen ook een bedreiging voor bedrijven – hier is waarom: ontsleutel PlatoBlockchain-data-intelligentie. Verticaal zoeken. Ai.

Terwijl technologiegiganten concurreren om kunstmatige intelligentie naar de massa te brengen en de snelgroeiende markt te bezitten, zorgt de AI-wapenwedloop voor een toename van ‘deepfake’ video’s en audio – inhoud die er vaak overtuigend legitiem uitziet of klinkt, maar in werkelijkheid een frauduleuze verkeerde voorstelling van zaken is. En volgens een nieuw rapport hebben ze ook gevolgen voor bedrijven.

Deepfakes zijn door AI gegenereerde creaties zoals afbeeldingen, video's en audio die worden gemanipuleerd om mensen te misleiden. Oplichters gebruiken deepfakes voor fraude, afpersingof om reputaties te beschadigen. De proliferatie van generatieve AI tools hebben het voor oplichters gemakkelijker dan ooit gemaakt om nep-inhoud te creëren.

Beroemdheden en andere publieke figuren worden zonder hun toestemming in kunstmatige en soms expliciete beelden ingevoegd op manieren die soms viraal gaan of paniek kunnen veroorzaken op sociale media. In een rapport verstrekt aan decoderen, wereldwijd accountantskantoor KPMG schreef dat ook het bedrijfsleven niet immuun is voor de deepfake-dreiging.

Deepfake-inhoud kan worden gebruikt bij social engineering-aanvallen en andere soorten cyberaanvallen gericht op bedrijven, schreef KPMG, terwijl dergelijke inhoud ook de reputatie van bedrijven en hun leiders kan beïnvloeden. Valse verklaringen van bedrijfsvertegenwoordigers kunnen ook worden gebruikt in plannen om klanten op te lichten, of om werknemers ervan te overtuigen informatie te verstrekken of geld over te maken aan illegale actoren.

KPMG noemde een voorbeeld uit 2020 van een filiaalmanager van een Hong Kong-bedrijf die werd verleid om voor 35 miljoen dollar aan bedrijfsfondsen over te maken aan oplichters, nadat hij dacht dat zijn baas aan de telefoon was en hem daartoe opdracht gaf. In plaats daarvan was het een door AI gekloonde reproductie van de stem van de toezichthouder – allemaal onderdeel van een uitgebreid plan om geld van het bedrijf af te pakken.

“De gevolgen van cyberaanvallen waarbij gebruik wordt gemaakt van synthetische inhoud – digitale inhoud die voor snode doeleinden is gegenereerd of gemanipuleerd – kunnen enorm en kostbaar zijn en een verscheidenheid aan sociaal-economische gevolgen hebben, waaronder onder meer financiële, reputatie-, dienstverlenings- en geopolitieke gevolgen,” zo luidt het rapport.

Deepfake beelden van Donald Trump gearresteerd eerder dit jaar, paus Franciscus het dragen van luxe Balenciaga-kleding, en Elon Musk Het promoten van cryptofraude is het afgelopen jaar viraal gegaan, omdat de deepfake-technologie is verbeterd dankzij de evoluerende AI-tools.

“Of het nu gaat om goedkope vervalsingen of deepfakes, het economische model is aanzienlijk veranderd als gevolg van generatieve AI-modellen”, schreef KPMG.

Naast de hierboven genoemde publieke figuren zijn onder meer prominente beroemdheden wier gelijkenissen zijn gestolen en toegepast op vervalste beelden actrice Emma Watson en muzikant Taylor Swift. Maar het zijn de potentiële gevolgen voor bedrijven en hun soms prominente leiders waarover KPMG alarm slaat.

“Als risicofactor is deepfake-inhoud niet alleen een zorg voor sociale media, datingsites en de entertainmentindustrie – het is nu een kwestie van de bestuurskamer”, aldus KPMG. “In dit voorbeeld zeggen bijna alle respondenten (92%) van een recente KPMG-enquête over generatieve AI onder 300 leidinggevenden in meerdere sectoren en regio’s dat hun zorgen over de risico’s van de implementatie van generatieve AI matig tot zeer groot zijn.”

Het zijn niet alleen bedrijven en beroemdheden die te maken hebben met de toename van zowel de kwaliteit als het aantal deepfake-video's op internet. Regeringen en toezichthouders houden ook rekening met de potentiële impact op de samenleving en verkiezingen, terwijl de makers van dergelijke AI-instrumenten hun potentiële negatieve impact afwegen.

Vorige week heeft de Amerikaanse Federale Verkiezingscommissie, vooruitlopend op het gebruik van deepfakes bij de verkiezingen van 2024, stappen gezet met een petitie om het gebruik van kunstmatige intelligentie in campagneadvertenties te verbieden.

Indien goedgekeurd, zou het bureau de huidige regelgeving met betrekking tot frauduleuze verkeerde voorstelling van zaken over ‘campagneautoriteit’ wijzigen en verduidelijken dat het verbod van toepassing is op opzettelijk misleidende AI-campagneadvertenties.

“Regelgevers moeten de impact van evoluerende bedreigingen op de bestaande regelgeving blijven begrijpen en overwegen”, zegt Matthew Miller, directeur Cyber ​​Security Services bij KPMG. decoderen. “Voorgestelde vereisten voor het labelen en watermerken van door AI gegenereerde inhoud kunnen een positieve impact hebben.”

In juli ontdekten onderzoekers van MIT voorgestelde het toevoegen van codewijzigingen aan grote diffusiemodellen om het risico op deepfakes te verkleinen, door kleine wijzigingen toe te voegen die moeilijk te zien zijn, maar uiteindelijk de manier veranderen waarop de modellen werken, waardoor ze afbeeldingen genereren die er niet echt uitzien. Meta, ondertussen, onlangs een AI-tool tegengehouden vanwege het deepfake-potentieel.

De opwinding rond het creatieve potentieel van generatieve AI-tools is getemperd door het besef dat ze op vergelijkbare wijze kansen kunnen creëren voor kwaadaardige inhoud. Uiteindelijk, ondanks de snelle verbeteringen voor dergelijke tools, drong Miller er bij iedereen op aan waakzaam te zijn over de mogelijkheid van nep-inhoud.

“Het publiek moet voortdurend waakzaam zijn bij interactie via digitale kanalen”, zei hij Ontsleutelen. “Situationeel bewustzijn en gezond verstand helpen veel om een ​​incident te voorkomen. Als iets ‘niet goed voelt’, is de kans groot dat het om kwaadwillige activiteit gaat.”

Blijf op de hoogte van cryptonieuws, ontvang dagelijkse updates in je inbox.

Tijdstempel:

Meer van decoderen