La Junta de Supervisión de Meta revisa las reglas después del video falso de Biden

La Junta de Supervisión de Meta revisa las reglas después del video falso de Biden

La Junta de Supervisión de Meta revisa las reglas después del video falso de Biden PlatoBlockchain Data Intelligence. Búsqueda vertical. Ai.

La Junta de Supervisión de Meta está investigando las políticas del gigante de las redes sociales sobre contenido deepfake después de que Facebook decidiera no eliminar un vídeo falso que etiquetaba falsamente al presidente estadounidense Joe Biden como pedófilo.

El vídeo falso adaptó imágenes de Biden colocando una pegatina que decía “Yo voté” sobre el pecho de su nieta Natalie Biden durante las elecciones de mitad de mandato de Estados Unidos de 2022.

El video de siete segundos, compartido en mayo de este año, fue retocado y repetido para que pareciera como si el presidente tocara a su nieta de manera inapropiada, con la letra NSFW de la canción “Simon Says” del rapero Pharoahe Monch sonando de fondo. Una leyenda en el video afirmaba erróneamente que Biden es “un pedófilo enfermo” y afirmaba que las personas que votaron por él en las elecciones estaban “mentalmente enfermas”.

A pesar de la queja de un usuario, los moderadores de Meta no eliminaron el clip. El usuario de Facebook que hizo el informe apeló la decisión de conservar el vídeo, según la junta de supervisión.

Meta nuevamente decidió no eliminar el video falso, que ciertamente fue visto menos de 30 veces hasta el mes pasado, porque no fue generado usando IA y se hizo pasar por auténtico ni presentaba ninguna manipulación del discurso de Biden para hacerlo parecer como él. dijo algo que nunca pronunció.

El denunciante finalmente planteó el problema ante la junta de supervisión, un panel independiente de expertos reclutado por Meta para revisar las políticas de moderación de contenido.

"La junta seleccionó este caso para evaluar si las políticas de Meta cubren adecuadamente videos alterados que podrían inducir a error a la gente haciéndoles creer que los políticos han tomado acciones, fuera del discurso, que no es así", dijo el grupo. escribí en un comunicado.

"Este caso cae dentro de las elecciones de la junta y el espacio cívico y la aplicación automatizada de políticas y la curación de prioridades de contenido".

Facebook medios manipulados Las políticas establecen que los usuarios no deben publicar videos sintéticos generados utilizando “inteligencia artificial o aprendizaje automático, incluidas técnicas de aprendizaje profundo (por ejemplo, un deepfake técnico), que fusiona, combina, reemplaza y/o superpone contenido en un video, creando un video que parece auténtico”, ni contenido que “probablemente pueda engañar a una persona promedio haciéndole creer que un sujeto del video dijo palabras que no dijo”.

El vídeo falso de Biden que se está considerando no viola ninguna de las reglas y, por lo tanto, se le permitió permanecer en línea. No fue hecho a máquina ni puesto palabras en boca del presidente.

Sea como fuere, los esfuerzos declarados de Meta para abordar y reducir la desinformación política pueden diluirse si se permite que dicho contenido prolifere. Puede haber un desequilibrio en las reglas si se permite que el video anterior permanezca visible, todo porque fue editado torpemente por un humano, mientras hay medidas enérgicas contra los deepfakes. Si AI hubiera hecho el video manipulado, ¿se habría reducido? Pero si es creado por humanos, ¿no tiene por qué ser así?

Como tal, la junta solicita comentarios e ideas del público sobre las siguientes áreas a la luz de este caso:

  • Investigación sobre las tendencias en línea de uso de contenido de video alterado o manipulado para influir en la percepción de figuras políticas, especialmente en los Estados Unidos.
  • La idoneidad de las políticas de desinformación del Meta, incluso en los medios manipulados, para responder a los desafíos presentes y futuros en este ámbito, particularmente en el contexto de las elecciones.
  • Las responsabilidades de Meta en materia de derechos humanos cuando se trata de contenido de vídeo que ha sido alterado para crear una impresión engañosa de una figura pública, y cómo deben entenderse teniendo en cuenta los avances en la inteligencia artificial generativa.
  • Desafíos y mejores prácticas para la autenticación de contenido de vídeo a escala, incluido el uso de la automatización.
  • Investigación sobre la eficacia de respuestas alternativas a la desinformación política o a la desinformación más allá de la eliminación de contenidos, como programas de verificación de hechos o etiquetado (también conocidos como “tratamientos informativos”). Además, se realizan investigaciones sobre cómo evitar sesgos en dichas respuestas.

Armado con esa información, se espera que el panel revise las políticas y haga sugerencias a Meta, aunque es posible que no surjan muchas de ellas.

“Como parte de sus decisiones, la junta puede emitir recomendaciones de políticas a Meta. Si bien las recomendaciones no son vinculantes, Meta debe responderlas dentro de los 60 días”, admitió el panel. "Como tal, la junta agradece los comentarios públicos que propongan recomendaciones que sean relevantes para este caso".

Mientras tanto, los expertos y legisladores están cada vez más preocupados por la manipulación del discurso político por parte de los deepfakes de cara a las próximas elecciones presidenciales estadounidenses de 2024.

La semana pasada, la senadora estadounidense Amy Klobuchar (D-MN) y la representante de la Cámara de Representantes Yvette Clarke (D-NY) enviaron cartas al director ejecutivo de Meta, Mark Zuckerberg, y a la directora ejecutiva de X, Linda Yaccarino, buscando aclarar sus políticas de contenido con respecto a los deepfakes políticos.

“Con las elecciones de 2024 acercándose rápidamente, la falta de transparencia sobre este tipo de contenido en los anuncios políticos podría conducir a una peligrosa avalancha de información errónea y desinformación relacionada con las elecciones en sus plataformas, donde los votantes a menudo recurren para informarse sobre los candidatos y los problemas”, afirmó. carta indicada, AP reportaron.

El registro ha pedido a Meta un comentario. ®

Sello de tiempo:

Mas de El registro