Il comitato di vigilanza di Meta esamina le regole dopo il falso video di Biden

Il comitato di vigilanza di Meta rivede le regole dopo il falso video di Biden

Meta's Oversight Board reviews rules after fake Biden video PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Il comitato di sorveglianza di Meta sta indagando sulle politiche del colosso dei social media sui contenuti deepfake dopo che Facebook ha deciso di non rimuovere un video falso che etichettava falsamente il presidente degli Stati Uniti Joe Biden come pedofilo.

Il video fasullo ha adattato il filmato di Biden che posiziona un adesivo "Ho votato" sopra il petto di sua nipote Natalie Biden durante le elezioni americane di medio termine del 2022.

Il video di sette secondi, condiviso nel maggio di quest'anno, è stato modificato e riprodotto in loop per far sembrare che il presidente avesse toccato sua nipote in modo inappropriato, con il testo NSFW della canzone "Simon Says" del rapper Pharoahe Monch in sottofondo. Una didascalia nel video affermava erroneamente che Biden fosse “un pedofilo malato” e affermava che le persone che avevano votato per lui alle elezioni erano “mentalmente malate”.

Nonostante il reclamo di un utente, i moderatori di Meta non hanno rimosso la clip. L'utente Facebook che ha effettuato la segnalazione ha presentato ricorso contro la decisione di conservare il video, secondo l'organo di vigilanza.

Meta ha deciso ancora una volta di non rimuovere il video falso, che è stato visto meno di 30 volte a partire dal mese scorso, perché non era stato generato utilizzando l'intelligenza artificiale e spacciato per autentico, né presentava alcuna manipolazione del discorso di Biden per farlo sembrare come lui. ha detto qualcosa che non ha mai detto.

Il denunciante alla fine ha sollevato la questione con il comitato di sorveglianza, un gruppo indipendente di esperti reclutato da Meta per rivedere le politiche di moderazione dei contenuti.

"Il consiglio ha selezionato questo caso per valutare se le politiche di Meta coprono adeguatamente i video alterati che potrebbero indurre le persone a credere che i politici abbiano intrapreso azioni, al di fuori del discorso, che loro non hanno fatto", ha affermato il gruppo. ha scritto in un comunicato.

"Questo caso rientra nelle elezioni del consiglio, nello spazio civico, nell'applicazione automatizzata delle politiche e nella cura delle priorità dei contenuti."

Facebook media manipolati Le politiche stabiliscono che gli utenti non dovrebbero pubblicare video sintetici generati utilizzando "l'intelligenza artificiale o l'apprendimento automatico, comprese le tecniche di deep learning (ad esempio un deepfake tecnico), che uniscono, combinano, sostituiscono e/o sovrappongono contenuti su un video, creando un video che appare autentico", né contenuti che "potrebbero indurre in errore una persona media a credere che un soggetto del video abbia detto parole che non ha detto".

Il falso video di Biden in esame non ha violato nessuna delle due regole e quindi è stato autorizzato a rimanere online. Non è stato fatto da una macchina né ha messo le parole in bocca al Presidente.

Comunque sia, gli sforzi dichiarati di Meta per affrontare e ridurre la disinformazione politica potrebbero essere diluiti se si permettesse a tali contenuti di proliferare. Potrebbe esserci uno squilibrio nelle regole se il video di cui sopra dovesse rimanere attivo, tutto perché è stato modificato goffamente da un essere umano, mentre c'è un giro di vite sui deepfake. Se l'intelligenza artificiale avesse realizzato il video modificato, sarebbe venuto giù? Ma se è stato creato dall'uomo, non è necessario?

Pertanto, il consiglio invita il pubblico a esprimere commenti e idee sulle seguenti aree alla luce di questo caso:

  • Ricerca sulle tendenze online relative all'utilizzo di contenuti video alterati o manipolati per influenzare la percezione di personaggi politici, soprattutto negli Stati Uniti.
  • L'idoneità delle politiche di disinformazione di Meta, anche sui media manipolati, a rispondere alle sfide presenti e future in questo settore, in particolare nel contesto elettorale.
  • Le responsabilità di Meta in materia di diritti umani quando si tratta di contenuti video che sono stati alterati per creare un'impressione fuorviante di un personaggio pubblico e come dovrebbero essere intesi tenendo presente gli sviluppi dell'intelligenza artificiale generativa.
  • Sfide e best practice nell'autenticazione dei contenuti video su larga scala, anche utilizzando l'automazione.
  • Ricerca sull'efficacia di risposte alternative alla disinformazione politica o alla disinformazione che vanno oltre la rimozione dei contenuti, come programmi di verifica dei fatti o etichettatura (noti anche come "trattamenti informativi"). Inoltre, la ricerca su come evitare pregiudizi in tali risposte.

Forti di questo input, ci si aspetta che il comitato riveda le politiche e fornisca suggerimenti a Meta, anche se da ciò potrebbe derivare non molto.

“Come parte delle sue decisioni, il consiglio può fornire raccomandazioni politiche a Meta. Anche se le raccomandazioni non sono vincolanti, Meta deve rispondere entro 60 giorni”, ha ammesso la commissione. “In quanto tale, il consiglio accoglie con favore i commenti del pubblico che propongono raccomandazioni rilevanti per questo caso”.

Nel frattempo, esperti e legislatori sono sempre più preoccupati per i deepfake che manipolano il discorso politico in vista delle imminenti elezioni presidenziali americane del 2024.

La settimana scorsa, la senatrice statunitense Amy Klobuchar (D-MN) e la rappresentante della Camera Yvette Clarke (D-NY) hanno inviato lettere al CEO di Meta Mark Zuckerberg e alla CEO di X Linda Yaccarino cercando di chiarire le loro politiche sui contenuti riguardanti i deepfake politici.

“Con l’avvicinarsi rapido delle elezioni del 2024, la mancanza di trasparenza su questo tipo di contenuti negli annunci politici potrebbe portare a un pericoloso diluvio di disinformazione e disinformazione relativa alle elezioni attraverso le vostre piattaforme – dove gli elettori spesso si rivolgono per informarsi su candidati e questioni”, ha affermato. lettera dichiarata, AP segnalati.

Il registro ha chiesto a Meta un commento. ®

Timestamp:

Di più da Il registro