Hoe AI-deepfakes op sociale media te herkennen

Hoe AI-deepfakes op sociale media te herkennen

Hoe AI-deepfakes op sociale media te herkennen PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

Een video die vorige week op het Chinese sociale mediaplatform Weibo werd geplaatst, laat zien dat de Amerikaanse popster Taylor Swift vloeiend Mandarijn spreekt. Alleen was het niet de 33-jarige zanger in de clip. Het was een deepfake-video gegenereerd door een AI-tool van de Chinese start-up HeyGen.

Sinds 21 oktober, toen de deepfake van Swift voor het eerst plaatsvond gedeeld, is de video meer dan zes miljoen keer bekeken. Maar het heeft ook geleid tot discussie over de mogelijke valkuilen die ontstaan โ€‹โ€‹naarmate AI geavanceerder wordt, waardoor het moeilijk wordt om onderscheid te maken tussen echte en valse identiteiten of inhoud.

Deepfakes โ€“ realistische maar nepafbeeldingen of -videoโ€™s die worden gebruikt om iemand anders na te bootsen, inclusief hun stem โ€“ kunnen worden ingezet om valse digitale identiteiten te creรซren, iets wat cybercriminelen zouden kunnen gebruiken om fraude te plegen. De afbeeldingen en video's zien er precies zo uit en spreken precies als de beoogde persoon.

In mei bijvoorbeeld een Chinese zakenman verloor 4.3 miljoen yuan [$612,000] nadat een fraudeur face-swapping AI gebruikte om zich voor te doen als zijn vriend. Er ging geen geld verloren bij de deepfake van Taylor Swift, maar hier is waar je op moet letten om te voorkomen dat je wordt opgelicht op sociale media.

Controleer de aanbevelingen van AI-beroemdheden

Oplichters gebruiken doorgaans AI-deepfakes van vertrouwde personen om hun slachtoffers te lokken. De afgelopen maanden zijn er talloze nep-AI-beroemdheden opgedoken om mensen te misleiden met valse aanbevelingen. Valse versies van iconen als Elon Musk en Beyonce zijn bedoeld om nepmerken te promoten.

Blijkbaar scoren veel van de valse advertenties hoger in de zoekresultaten op Google, waarschijnlijk omdat het bedrijf niet genoeg doet om frauduleuze inhoud te filteren.

In het tijdperk van door AI gegenereerde nep-inhoud is het echter van cruciaal belang om video's die te mooi zijn om waar te zijn, met een kritische blik te benaderen. Buitengewone beweringen vereisen buitengewoon bewijs. Als je virale video's tegenkomt die sensationeel lijken, neem dan de tijd om hun authenticiteit en bronnen te verifiรซren.

โ€œAls je advies wilt over een product of dienst, kijk dan naar recensies of zoek een expert die er verstand van heeft en dat kan bewijzenโ€, zegt consumententechnologie-expert en radiopresentator Kim Komando.

โ€œNog een slimme stap: Google het product en de acteur in de advertentie, samen met het woord 'review'. Als iemand wordt betaald om een โ€‹โ€‹product te promoten, zweeft er niet zomaar รฉรฉn willekeurige advertentie rond op sociale mediaโ€, voegde ze eraan toe in een artikel. gepubliceerde door de New York Post.

Lees ook: Taylor Swift, Emma Watson en anderen doelwit terwijl AI-porno stijgt

Besteed aandacht aan details

Deepfake-technologie is vooral eng omdat het zo realistisch is. AI-tools zoals Stabiele diffusie kan stemmen en mondbewegingen manipuleren, waardoor mensen gemakkelijk kunnen geloven dat een video- of audio-opname authentiek is.

Onthoud de door Ghostwriter gemaakte AI Drake en The Weeknd-nummer, waardoor miljoenen mensen, inclusief muziekstreamingdiensten, voor de gek werden gehouden door te denken dat het een nieuwe release was? Om een โ€‹โ€‹deepfake te ontdekken, stelt Alex Kim, medeoprichter en CEO van AI-gedreven e-commerceversneller Rice, voor om:

โ€œLet op eventuele ongebruikelijke inconsistenties in de video die je bekijkt. Contentmakers die deepfakes gebruiken, proberen meestal tijd te besparen, dus het verfijnen van details is niet iets waar ze tijd in zullen investerenโ€, vertelde Kim aan MetaNews.

โ€œDat betekent dat alle niet-overeenkomende gezichtsuitdrukkingen, onnatuurlijke bewegingen, vreemde artefacten, niet-overeenstemmende stemmen of lipsynchronisatie waarschijnlijk aanwezig zullen zijn op een deepfaked video,โ€ zei Kim, en voegde eraan toe:

โ€œBesteed specifieke aandacht aan de ogen, aangezien deepfakes hier het meeste moeite mee hebben.โ€

Het geval van de Chinese zakenman herinnert ons eraan dat deepfake-technologie een krachtig instrument is dat ten goede of ten kwade kan worden gebruikt. Regelgevers zijn meer aandacht gaan besteden aan de gevaren van AI sinds OpenAI in november zijn virale chatbot ChatGPT lanceerde, wat leidde tot een wereldwijde AI-race.

Zoals MetaNews eerder gerapporteerdExperts stellen voor om nieuwe technologieรซn te ontwikkelen die het gebruik van valse identiteiten kunnen detecteren en voorkomen. Hierbij kan gedacht worden aan het gebruik van biometrische gegevens, zoals gezichtsherkenning of het scannen van vingerafdrukken, om de identiteit van gebruikers online te verifiรซren.

Controleer de achtergrond voor aanwijzingen

Terwijl sommige apps gebruiken watermerken om door AI gegenereerde inhoud te identificeren, is het bij anderen niet zo vanzelfsprekend. Volgens Alex Kim zullen gebruikers de achtergrond in afbeeldingen of videoโ€™s moeten scannen om aanwijzingen te vinden over AI-deepfake-materiaal. Rijst.win CEO.

"Als de achtergrond onnatuurlijk beweegt of de belichting niet overeenkomt met de schaduwen op de voorgrond, is het waarschijnlijk een deepfake", zei Kim. โ€œDetails zoals textuur op materialen, of het ontbreken daarvan, zijn andere tekenen.โ€

โ€œZoek naar pixelvorming of onscherpte waar die er niet zou moeten zijn, vooral als dit bij een menselijk onderwerp gebeurt. Natuurlijke details zoals haarlijnen, oren, neuzen of gelaatstrekken zijn moeilijk in een deepfake zichtbaar te maken, althans op overtuigende wijze.โ€

AI-technologie, die voor het grootste deel gratis en gemakkelijk toegankelijk blijft, wordt op veel manieren door slechte actoren gebruikt. Afbeeldingen van spraakmakende vrouwelijke beroemdheden, waaronder Taylor Swift en Emma Watson, zijn met behulp van AI gemanipuleerd om deepfake te creรซren pornografische inhoud.

Een nieuwe AI-tool van het Massachusetts Institute of Technology (MIT) in de VS belooft deepfakes te beteugelen. Mensen kunnen gebruiken FotoGuard om โ€œkleine, onzichtbare aanpassingen te maken om [hun] fotoโ€™s te beschermen tegen deepfakes en vervelende bewerkingen โ€“ een veelbelovende gouden standaard op het gebied van online veiligheid.โ€

Alex Kim vertelde MetaNews dat de meest voor de hand liggende en gebruikelijke manier om nep-AI-videoโ€™s op sociale media te identificeren, is door te kijken naar de kanalen waarop ze worden gehost.

"Je zult willen kijken hoeveel het kanaal de laatste tijd heeft gepost en of er grote pieken of stijgingen zijn geweest in de creatie van inhoud", zei Kim. "Als er een grote piek is in het aantal geposte video's die vreemd, van lage kwaliteit of vreemd lijken, is dat een vrij zeker teken dat de maker deepfakes gebruikt."

Tijdstempel:

Meer van MetaNieuws