Le conseil de surveillance de Meta révise les règles après une fausse vidéo de Biden

Le conseil de surveillance de Meta révise les règles après une fausse vidéo de Biden

Le conseil de surveillance de Meta révise les règles après la fausse vidéo de Biden PlatoBlockchain Data Intelligence. Recherche verticale. Aï.

Le conseil de surveillance de Meta enquête sur les politiques du géant des médias sociaux en matière de contenu deepfake après que Facebook a décidé de ne pas supprimer une fausse vidéo qualifiant faussement le président américain Joe Biden de pédophile.

La fausse vidéo a adapté des images de Biden plaçant un autocollant « J'ai voté » au-dessus de la poitrine de sa petite-fille Natalie Biden lors des élections américaines de mi-mandat de 2022.

La vidéo de sept secondes, partagée en mai de cette année, a été falsifiée et mise en boucle pour donner l'impression que le président avait touché sa petite-fille de manière inappropriée, avec en arrière-plan les paroles NSFW de la chanson « Simon Says » du rappeur Pharoahe Monch. Une légende de la vidéo affirmait à tort que Biden était « un pédophile malade » et affirmait que les personnes qui avaient voté pour lui lors de l’élection étaient « mentalement malades ».

Malgré une plainte d'un utilisateur, les modérateurs de Meta n'ont pas supprimé le clip. L'utilisateur de Facebook à l'origine du signalement a fait appel de la décision de conserver la vidéo, selon le conseil de surveillance.

Meta a de nouveau décidé de ne pas supprimer la fausse vidéo, qui a certes été visionnée moins de 30 fois le mois dernier, car elle n'a pas été générée à l'aide de l'IA et présentée comme authentique et ne comportait aucune manipulation du discours de Biden pour le faire passer pour lui. a dit quelque chose qu'il n'a jamais dit.

Le plaignant a finalement soulevé la question auprès du conseil de surveillance, un groupe d'experts indépendants recrutés par Meta pour examiner les politiques de modération du contenu.

"Le conseil d'administration a sélectionné ce cas pour évaluer si les politiques de Meta couvrent de manière adéquate les vidéos modifiées qui pourraient induire les gens en erreur en leur faisant croire que les politiciens ont pris des mesures, en dehors du discours, alors qu'ils ne l'ont pas fait", a déclaré le groupe. écrit dans un communiqué.

"Cette affaire relève des élections du conseil d'administration, de l'espace civique, de l'application automatisée des politiques et de la conservation des priorités de contenu."

Facebook médias manipulés les politiques stipulent que les utilisateurs ne doivent pas publier de vidéos synthétiques générées à l'aide de « l'intelligence artificielle ou de l'apprentissage automatique, y compris des techniques d'apprentissage profond (par exemple, un deepfake technique), qui fusionnent, combinent, remplacent et/ou superposent du contenu sur une vidéo, créant ainsi une vidéo qui apparaît ». authentique », ni un contenu qui « induirait probablement en erreur une personne moyenne en lui faisant croire qu’un sujet de la vidéo a dit des mots qu’il n’a pas prononcés ».

La fausse vidéo de Biden à l'étude n'a violé aucune des deux règles et a donc été autorisée à rester en ligne. Ce n’était pas une machine fabriquée ni une mise dans la bouche du président.

Quoi qu’il en soit, les efforts déclarés de Meta pour lutter contre et réduire la désinformation politique pourraient être dilués si ce type de contenu est autorisé à proliférer. Il peut y avoir un déséquilibre dans les règles si la vidéo ci-dessus est autorisée à rester, tout cela parce qu'elle a été maladroitement montée par un humain, alors qu'il y a une répression contre les deepfakes. Si l’IA avait réalisé la vidéo falsifiée, serait-elle tombée ? Mais s’il est fabriqué par l’homme, ce n’est pas obligatoire ?

À ce titre, le conseil sollicite les commentaires et les idées du public sur les domaines suivants à la lumière de cette affaire :

  • Recherche sur les tendances en ligne consistant à utiliser du contenu vidéo modifié ou manipulé pour influencer la perception de personnalités politiques, en particulier aux États-Unis.
  • L'adéquation des politiques de désinformation de Meta, y compris sur les médias manipulés, pour répondre aux défis présents et futurs dans ce domaine, notamment dans le contexte des élections.
  • Les responsabilités de Meta en matière de droits de l'homme lorsqu'il s'agit de contenu vidéo qui a été modifié pour créer une impression trompeuse d'une personnalité publique, et comment elles doivent être comprises en gardant à l'esprit les développements de l'intelligence artificielle générative.
  • Défis et bonnes pratiques en matière d'authentification du contenu vidéo à grande échelle, notamment en utilisant l'automatisation.
  • Recherche sur l'efficacité des réponses alternatives à la désinformation politique ou à la mésinformation au-delà de la suppression de contenu, telles que les programmes de vérification des faits ou l'étiquetage (également appelés « traitements d'information »). De plus, des recherches visant à éviter les biais dans de telles réponses.

Fort de cette contribution, le panel devrait examiner les politiques et faire des suggestions à Meta – même si cela ne permettra pas d’en tirer grand-chose.

« Dans le cadre de ses décisions, le conseil d'administration peut émettre des recommandations politiques à Meta. Bien que les recommandations ne soient pas contraignantes, Meta doit y répondre dans un délai de 60 jours », a admis le panel. « En tant que tel, le conseil accueille les commentaires publics proposant des recommandations pertinentes pour cette affaire. »

Les experts et les législateurs sont de plus en plus préoccupés par les deepfakes qui manipulent le discours politique à l’approche de l’élection présidentielle américaine de 2024.

La semaine dernière, la sénatrice américaine Amy Klobuchar (Démocrate-MN) et la représentante de la Chambre Yvette Clarke (Démocrate-NY) ont envoyé des lettres au PDG de Meta, Mark Zuckerberg, et à la PDG de X, Linda Yaccarino, cherchant à clarifier leurs politiques de contenu concernant les deepfakes politiques.

« À l’approche des élections de 2024, un manque de transparence sur ce type de contenu dans les publicités politiques pourrait conduire à un dangereux déluge de désinformation et de désinformation liées aux élections sur vos plateformes – vers lesquelles les électeurs se tournent souvent pour en savoir plus sur les candidats et les enjeux », a-t-il ajouté. lettre déclarée, AP rapporté.

Le registre a demandé à Meta de commenter. ®

Horodatage:

Plus de Le registre