Microsoft onthult deepfake-technologie die te mooi is om vrij te geven

Microsoft onthult deepfake-technologie die te mooi is om vrij te geven

Microsoft onthult deepfake-technologie die te goed is om PlatoBlockchain Data Intelligence vrij te geven. Verticaal zoeken. Ai.

Microsoft demonstreerde deze week VASA–1, een raamwerk voor het maken van video's van mensen die praten op basis van een stilstaand beeld, audiofragment en tekstscript, en beweert – terecht – dat het te gevaarlijk is om aan het publiek te worden vrijgegeven.

Deze door AI gegenereerde video's, waarin mensen op overtuigende wijze kunnen worden geanimeerd om scriptwoorden met een gekloonde stem uit te spreken, zijn precies iets wat de Amerikaanse Federal Trade Commission heeft bedacht. gewaarschuwd voor vorige maand, na eerder een regel voorstellen om te voorkomen dat AI-technologie wordt gebruikt voor nabootsingsfraude.

Het team van Microsoft erkent dit in hun aankondiging, wat verklaart dat de technologie niet wordt vrijgegeven vanwege ethische overwegingen. Ze staan ​​erop dat ze onderzoek presenteren voor het genereren van virtuele interactieve karakters en niet voor het nabootsen van wie dan ook. Als zodanig is er geen product of API gepland.

“Ons onderzoek richt zich op het genereren van visuele affectieve vaardigheden voor virtuele AI-avatars, met als doel positieve toepassingen”, aldus de experts uit Redmond. “Het is niet bedoeld om inhoud te creëren die wordt gebruikt om te misleiden of te bedriegen.

“Echter, net als andere gerelateerde technieken voor het genereren van inhoud, kan het nog steeds potentieel worden misbruikt om zich voor te doen als mensen. We zijn tegen elk gedrag dat misleidende of schadelijke inhoud van echte personen creëert, en zijn geïnteresseerd in het toepassen van onze techniek voor het bevorderen van de detectie van vervalsing.”

Kevin Surace, voorzitter van Token, een biometrische authenticatiebranche, en veelgevraagd spreker over generatieve AI, vertelde het Het register in een e-mail dat hoewel er eerdere technologiedemonstraties zijn geweest van gezichten die zijn geanimeerd vanuit een stilstaand beeld en een gekloond spraakbestand, de demonstratie van Microsoft de stand van de techniek weerspiegelt.

“De implicaties voor het personaliseren van e-mails en andere zakelijke massacommunicatie zijn fantastisch”, meende hij. “Zelfs oudere foto's animeren. Voor een deel is dit gewoon leuk, voor een ander deel heeft het solide zakelijke toepassingen waar we de komende maanden en jaren allemaal gebruik van zullen maken.”

Het ‘plezier’ van deepfakes bestond voor 96 procent uit niet-consensuele porno geëvalueerd [PDF] in 2019 door cyberbeveiligingsbedrijf Deeptrace.

Desalniettemin suggereren de onderzoekers van Microsoft dat het positief nut heeft om realistisch ogende mensen te creëren en woorden in hun mond te leggen.

“Dergelijke technologie houdt de belofte in van het verrijken van digitale communicatie, het vergroten van de toegankelijkheid voor mensen met communicatieve beperkingen, het transformeren van onderwijs, methoden met interactieve AI-begeleiding en het bieden van therapeutische ondersteuning en sociale interactie in de gezondheidszorg”, stellen ze in een research paper die niet de woorden ‘porno’ of ‘verkeerde informatie’ bevat.

Hoewel het betwistbaar is dat AI-gegenereerde video niet helemaal hetzelfde is als een deepfake, de laatste gedefinieerd door digitale manipulatie in tegenstelling tot een generatieve methode wordt het onderscheid onbelangrijk wanneer een overtuigende nep kan worden opgeroepen zonder knip-en-plakwerk.

Op de vraag wat hij vindt van het feit dat Microsoft deze technologie niet aan het publiek vrijgeeft uit angst voor misbruik, uitte Surace twijfels over de haalbaarheid van de beperkingen.

“Microsoft en anderen hebben zich voorlopig ingehouden totdat ze de privacy- en gebruiksproblemen hebben opgelost”, zei hij. “Hoe gaat iemand regelen wie dit om de juiste redenen gebruikt?”

Surace voegde eraan toe dat er al open source-modellen zijn die even geavanceerd zijn, wijzend op EMO. “Je kunt de broncode uit GitHub halen en er een dienst omheen bouwen die aantoonbaar zou kunnen wedijveren met de output van Microsoft,” merkte hij op. “Vanwege het open source karakter van de ruimte zal het reguleren ervan hoe dan ook onmogelijk zijn.”

Dat gezegd hebbende, proberen landen over de hele wereld door AI gefabriceerde mensen te reguleren. Canada, ChinaEn UKNaast andere landen hebben ze allemaal regelgeving die kan worden toegepast op deepfakes, waarvan sommige bredere politieke doelen vervullen. Groot-Brittannië deze week nog maakte het illegaal om zonder toestemming een seksueel expliciet deepfake-beeld te creëren. Het delen van dergelijke afbeeldingen was al verboden op grond van de Britse Online Safety Act van 2023.

In januari sprak een tweeledige groep Amerikaanse wetgevers geïntroduceerd de Disrupt Explicit Forged Images and Non-Consensual Edits Act van 2024 (DEFIANCE Act), een wetsvoorstel dat een manier creëert voor slachtoffers van niet-consensuele deepfake-beelden om een ​​civiele claim bij de rechtbank in te dienen.

En op dinsdag 16 april hield de Amerikaanse Senaatscommissie voor de Rechtspraak, de Subcommissie voor Privacy, Technologie en de Wet een hoorzitting getiteld “Oversight of AI: Election Deepfakes.”

In voorbereide opmerkingen zei Rijul Gupta, CEO van DeepMedia, een deepfake-detectiebedrijf:

Het meest alarmerende aspect van deepfakes is hun vermogen om slechte actoren een plausibele ontkenning te bieden, waardoor ze echte inhoud als nep kunnen afdoen. Deze erosie van het publieke vertrouwen raakt de kern van ons sociale weefsel en de fundamenten van onze democratie. Het menselijk brein, geprogrammeerd om te geloven wat het ziet en hoort, is bijzonder kwetsbaar voor de misleiding door deepfakes. Naarmate deze technologieën steeds geavanceerder worden, dreigen ze het gedeelde realiteitsgevoel dat ten grondslag ligt aan onze samenleving te ondermijnen, waardoor een klimaat van onzekerheid en scepsis ontstaat waarin burgers de waarheidsgetrouwheid van elk stukje informatie dat ze tegenkomen in twijfel trekken.

Maar denk eens aan de marketingtoepassingen. ®

Tijdstempel:

Meer van Het register