La frontière entre la création réelle et l'IA est trop mince pour l'œil

La frontière entre la création réelle et l'IA est trop mince pour l'œil

La frontière entre la création réelle et l'IA est trop mince pour l'œil PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Alors que les développeurs d’IA générative continuent d’affiner leurs modèles pour les rendre plus sophistiqués, il devient également de plus en plus difficile de faire la distinction entre les images réelles et les créations de l’IA, révèlent les chercheurs.

Une étude menée par des chercheurs du Université de Waterloo a établi que les gens ont du mal à comprendre l’image d’une personne réelle et celle d’une personne générée par l’IA.

En dessous du seuil attendu

Lors de la réalisation de l'étude, des chercheurs de l'Université de Waterloo ont fourni 20 photos non étiquetées à 260 participants. La moitié des photos étaient de vraies personnes prises à partir de Google Images, tandis que l'autre moitié était générée par l'IA à l'aide d'outils tels que Dall-E et Diffusion stable.

Les participants ont ensuite été invités à étiqueter les images, si elles étaient réelles ou générées par l'IA, en justifiant leurs réponses.

Bien que 61 % des participants puissent faire la différence entre les images réelles et les images générées par l’IA, ce chiffre reste bien en dessous du seuil attendu de 85 %.

En examinant les images, les participants ont prêté attention à des détails tels que les yeux, les doigts, les dents et d'autres indicateurs qui indiquent lors de la recherche d'images créées par l'IA, mais « leurs évaluations n'étaient pas toujours correctes ».

« Les gens ne sont pas aussi habiles à faire la distinction qu’ils le pensent » a affirmé Valérie Plante. l'auteur principal de l'étude, Andrea Pocol, qui est également doctorant en informatique à l'université.

Même si les internautes peuvent regarder les images au passage, les chercheurs de Waterloo affirment avoir permis aux participants de prendre leur temps pour analyser les images.

"Les gens qui se contentent de faire défiler la catastrophe ou qui n'ont pas le temps ne comprendront pas ces signaux", a déclaré Pocol.

A lire également: Le PDG de Leonardo souligne la stupidité des utilisateurs face aux menaces de l'IA à Davos

Abuser de la technologie

Leur étude, intitulé « Voir n'est plus croire : une enquête sur l'état des Deepfakes, des humains générés par l'IA et d'autres médias non véridiques », paru dans la revue Advances in Computer Graphics, souligne également les risques associés aux progrès de la technologie de l'IA générative. .

Les chercheurs ont également noté avec inquiétude la vitesse à laquelle la technologie de l’IA générative évolue rapidement, devenant chaque jour plus sophistiquée. La recherche universitaire et la législation ne parviennent pas à suivre le rythme des évolutions de l’industrie générative.

Pocol a déclaré que les images de l'IA deviennent de plus en plus réelles, ce qui rend difficile pour certaines personnes de distinguer facilement les images réelles des images générées par l'IA. Selon Pocol, cela crée un terrain fertile pour les mauvais acteurs qui profitent de la technologie pour répandre la malveillance et perpétuer la désinformation ou pour tromper les gens.

« La désinformation n'est pas nouvelle, mais les outils de désinformation changent et évoluent constamment », a déclaré Pocol.

« Nous arriverons peut-être à un point où les gens, quelle que soit leur formation, auront encore du mal à différencier les vraies images des fausses. C'est pourquoi nous devons développer des outils pour identifier et contrer cela. C'est comme une nouvelle course aux armements en matière d'IA.

Les chercheurs ont également reconnu les défis posés par la technologie, notamment en matière de propagation des deepfakes.

La technologie entre de mauvaises mains

Face aux difficultés rencontrées par les gens ordinaires pour faire la distinction entre les images réelles et fausses, on craint de plus en plus une augmentation de la propagation des deepfakes. Les experts ont averti que les mauvais acteurs profiteraient de la technologie de l’IA générative pour propager des mensonges électoraux dans le but d’induire les électeurs en erreur.

La Centre de lutte contre la haine numérique (CCDH), une organisation à but non lucratif qui surveille les discours de haine en ligne, a déjà averti dans leur rapport, les générateurs d’images basés sur l’IA aggravent la désinformation électorale de 2024.

« La possibilité que de telles images générées par l'IA servent de « preuves photographiques » pourrait exacerber la propagation de fausses allégations, posant un défi important à la préservation de l'intégrité des élections », ont déclaré les chercheurs du CCDH dans leur rapport.

Cela intervient cependant au milieu d'une annonce selon laquelle environ 20 grandes entreprises technologiques, dont OpenAI, Microsoft et Stability AI signé un accord de travailler ensemble pour empêcher les contenus trompeurs de l’IA « d’interférer avec les élections qui auront lieu à l’échelle mondiale cette année ».

Horodatage:

Plus de MétaActualités