Il deviendra plus difficile de détecter les Deepfakes : PDG de Secta Labs

Il deviendra plus difficile de détecter les Deepfakes : PDG de Secta Labs - Déchiffrer

Il deviendra plus difficile de détecter les Deepfakes : PDG de Secta Labs - Décrypter PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

À mesure que les générateurs d'images IA deviennent plus avancés, repérer les deepfakes devient plus difficile que jamais. Les forces de l'ordre et les dirigeants mondiaux continuent de tirer la sonnette d'alarme sur les dangers de l'IA deepfakes sur les réseaux sociaux et dans les zones de conflit.

"Nous entrons dans une ère où nous ne pouvons plus croire ce que nous voyons", a déclaré Marko Jak, co-fondateur et PDG de Secta Labs. Décrypter dans une interview. "En ce moment, c'est plus facile parce que les contrefaçons profondes ne sont pas encore très bonnes, et parfois on peut voir que c'est évident."

Selon Jak, nous ne sommes pas si loin - peut-être dans un an - du moment où la capacité de discerner une image truquée à première vue n'est plus possible. Et il devrait le savoir : Jak est le PDG d'une société de générateurs d'images AI.

Jak a co-fondé Laboratoires Secta en 2022 ; la startup d'IA générative basée à Austin se concentre sur la création d'images générées par l'IA de haute qualité. Les utilisateurs peuvent télécharger des photos d'eux-mêmes et les transformer en portraits et en avatars générés par l'IA.

 

Comme l'explique Jak, Secta Labs considère les utilisateurs comme les propriétaires des modèles d'IA générés à partir de leurs données, tandis que l'entreprise n'est que des dépositaires aidant à créer des images à partir de ces modèles. 

L'utilisation abusive potentielle de modèles d'IA plus avancés a conduit les dirigeants mondiaux à demander une action sur la réglementation de l'IA et a poussé les entreprises à décider de ne pas rendre publics leurs outils avancés.

La semaine dernière après avoir annoncé son nouveau Boîte vocale Plate-forme vocale générée par l'IA, Meta a déclaré qu'elle ne publierait pas l'IA au public.

"Bien que nous pensons qu'il est important d'être ouvert avec la communauté de l'IA et de partager nos recherches pour faire progresser l'état de l'art en matière d'IA", a déclaré le porte-parole de Meta. Décrypter dans un e-mail. "Il est également nécessaire de trouver le juste équilibre entre ouverture et responsabilité."

Plus tôt ce mois-ci, le Federal Bureau of Investigation des États-Unis averti d'escroqueries d'extorsion de fond d'IA et de criminels utilisant des photos et des vidéos prises sur les réseaux sociaux pour créer de faux contenus.

La réponse dans la lutte contre les deepfakes, a déclaré Jak, n'est peut-être pas de pouvoir repérer un deepfake, mais de pouvoir exposer un deepfake.

"L'IA est le premier moyen de repérer [un deepfake]", a déclaré Jak. "Il y a des gens qui construisent une intelligence artificielle dans laquelle vous pouvez mettre une image comme une vidéo et l'IA peut vous dire si elle a été générée par l'IA."

L'IA générative et l'utilisation potentielle des images générées par l'IA dans le cinéma et la télévision sont un sujet brûlant dans l'industrie du divertissement. SAG-AFTRA les membres ont voté avant d'entrer dans les négociations contractuelles pour autoriser une grève, une préoccupation importante, l'intelligence artificielle.

Jak a ajouté que le défi est la course aux armements de l'IA qui se déroule à mesure que la technologie devient plus avancée et que les mauvais acteurs créent des deepfakes plus avancés pour contrer la technologie conçue pour les détecter.

Reconnaissant que la blockchain a été surutilisée – certains pourraient dire surestimée – comme solution aux problèmes du monde réel, Jak a déclaré que la technologie et la cryptographie pourraient résoudre le problème du deepfake.

Mais alors que la technologie peut résoudre de nombreux problèmes avec les deepfakes, Jak a déclaré qu'une solution plus low-tech, la sagesse de la foule, pourrait être la clé.

"L'une des choses que j'ai vues sur Twitter, et je pense que c'était une bonne idée, ce sont les notes de la communauté, où les gens peuvent ajouter des notes pour donner du contexte au tweet de quelqu'un", a déclaré Jak. "Un tweet peut être de la désinformation, tout comme un deepfake peut l'être", a-t-il déclaré. Jak a ajouté qu'il serait avantageux pour les sociétés de médias sociaux de réfléchir à des moyens de tirer parti de leurs communautés pour valider si le contenu diffusé est authentique.

"La blockchain peut résoudre des problèmes spécifiques, mais la cryptographie pourrait aider à authentifier l'origine d'une image", a-t-il déclaré. "Cela pourrait être une solution pratique, car elle traite de la vérification de la source plutôt que du contenu de l'image, quelle que soit la sophistication du deepfake."

Restez au courant des actualités cryptographiques, recevez des mises à jour quotidiennes dans votre boîte de réception.

Horodatage:

Plus de Décrypter