AI-misleiding: door AI gemaakte blanke gezichten zien er echt uit

AI-misleiding: door AI gemaakte blanke gezichten zien er echt uit

AI steekt opnieuw zijn lelijke kop op met mensen die gemakkelijk ‘voor de gek gehouden’ worden, zoals uit een Australisch onderzoek blijkt dat de technologie blanke gezichten creëert die reëler zijn dan echte mensen.

Hoewel de technologie het voor iedereen gemakkelijker heeft gemaakt om kunstenaar te zijn, kent dezelfde technologie valkuilen waardoor de meningen verdeeld zijn.

Volgens een onderzoek onder leiding van onderzoekers van de Australian National University en gepubliceerd in Psychological Science dachten mensen dat door AI gegenereerde witte gezichten menselijk en reëler waren, in tegenstelling tot de gezichten van echte mensen.

De raciale vooroordelen

Dit was echter niet het geval bij gekleurde mensen het uiten van raciale zorgen met AI-technologie. De technologie wordt sindsdien bestempeld als racistisch bevooroordeeld en brengt ook vooroordelen van verschillende vormen tegen bepaalde groepen mensen met zich mee.

“Als witte gezichten consequent als realistischer worden gezien, zou deze technologie diepgaande gevolgen kunnen hebben voor mensen van kleur door uiteindelijk raciale vooroordelen te versterken”, zegt Dr. Amy Dawel, een senior auteur van het artikel.

Dr. Dawel legde uit dat het opvallende verschil tussen de door AI gegenereerde gezichten van blanke mensen en die van zwarten het resultaat was van de algoritmen die onevenredig getraind waren.

“Dit probleem is al zichtbaar in de huidige AI-technologieën die worden gebruikt om professioneel ogende portretfoto’s te maken.

“Wanneer gebruikt voor mensen van kleur, de AI verandert hun huid en oogkleur met die van blanke mensen”, aldus de onderzoekers.

In een afzonderlijk, maar verwant geval, arseni Alenichev, een postdoctoraal onderzoeker bij de Oxford-Johns Hopkins Global Infectious Disease Ethics Collaborative, experimenteerde met een AI-beeldgenerator. Toen hij om een ​​foto vroeg van een zwarte dokter die arme blanke kinderen assisteerde, stonden op de foto's altijd zwarte kinderen en blanke dokters afgebeeld, ondanks de specificaties.

Andere afbeeldingen van zwarte wetenschappers zouden dat wel doen dieren in het wild hebben, zoals giraffen naast hun. Andere pogingen hebben aangetoond angstaanjagend en misvormd “beelden” van zwarte vrouwen die “glimlachen”.

Een Bloomberg verslag suggereert dat AI-modellen ook het vermogen hebben om te bestendigen stereotypen en kan de gemarginaliseerden blootstellen aan ongewenste situaties.

Lees ook: Saoedi-Arabië lanceert Internationaal Centrum voor AI-ethiek

AI Deception: AI-Made Caucasian Faces Look Real PlatoBlockchain Data Intelligence. Vertical Search. Ai.AI Deception: AI-Made Caucasian Faces Look Real PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Het bedrog

ANU-promovendus en co-auteur van het onderzoek, Elizabeth Miller, zei dat ze ontdekten dat de meeste mensen die aan het onderzoek deelnamen vertrouwen hadden in hun antwoorden en door AI gemaakte gezichten voor echte gezichten aanzagen.

“Dit betekent dat mensen die AI-bedriegers voor echte mensen aanzien, niet weten dat ze worden misleid”, zegt ze.

Volgens The Standard werden mensen, hoewel er enkele verschillen waren, nog steeds voor de gek gehouden, en Dr. Dawel gaf aan dat meer in proportie staande gezichten “typische tekenen waren dat AI het gezicht had gegenereerd.”

Maar de ondervraagde mensen zagen het als een teken van menselijkheid.

“We kunnen niet lang op deze fysieke signalen vertrouwen. AI-technologie ontwikkelt zich zo snel dat het verschil tussen AI en menselijke gezichten waarschijnlijk snel zal verdwijnen”, zei ze.

Ze voegde eraan toe dat dit problematisch zou kunnen zijn en enorme gevolgen zou kunnen hebben met betrekking tot online desinformatie. deepfakes, en identiteitsdiefstal.

Desinformatie en fraudeurs

Dr. Dawel voegde eraan toe dat er door dit gebrek aan onderscheid tussen een AI-gezicht en een echt gezicht mensen voorzichtig moeten zijn, anders lopen ze het risico gedupeerd te worden door fraudeurs.

“Gezien het feit dat mensen AI-gezichten niet langer kunnen detecteren, heeft de samenleving hulpmiddelen nodig die AI-bedriegers nauwkeurig kunnen identificeren,” zei ze.

“Mensen informeren over het waargenomen realisme van AI-gezichten kan ertoe bijdragen dat het publiek op passende wijze sceptisch wordt over de beelden die ze online zien.”

Enkele experts in generatieve AI voorspellen dat maar liefst 90% van de online-inhoud de komende jaren door AI kan worden gegenereerd.

Met de opkomst van generatieve AI en het vermogen ervan om tekst, afbeeldingen, audio en video's te maken, is er nu al een toename in het aantal gevallen waarin mensen worden misleid om hun creditcardnummers bekend te maken.

Fraudeurs misleiden ook nietsvermoedende mensen door geld te sturen naar vreemden die zich voordoen als familieleden of goede vrienden die in de problemen zitten en dringend hulp nodig hebben.

Tijdstempel:

Meer van MetaNieuws