Metas Oversight Board gennemgår regler efter falsk Biden-video

Metas Oversight Board gennemgår regler efter falsk Biden-video

Meta's Oversight Board reviews rules after fake Biden video PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Metas Oversight Board undersøger den sociale mediegigants politikker for dybt falsk indhold, efter at Facebook besluttede sig for ikke at fjerne en forfalsket video, der fejlagtigt betegnede den amerikanske præsident Joe Biden som en pædofil.

Den falske video-tilpassede optagelse af Biden, der placerer et "Jeg stemte"-mærkat over sit barnebarn Natalie Bidens bryst under det amerikanske midtvejsvalg i 2022.

Den syv sekunder lange video, der blev delt i maj i år, blev manipuleret og loopet for at få det til at se ud som om præsidenten rørte ved sit barnebarn på upassende måde, med NSFW-tekster fra sangen "Simon Says" af rapperen Pharoahe Monch, der spillede i baggrunden. En billedtekst i videoen hævdede fejlagtigt, at Biden er "en syg pædofil", og hævdede, at folk, der stemte på ham ved valget, var "mentalt utilpas."

På trods af en klage fra en bruger fjernede Metas moderatorer ikke klippet. Facebook-brugeren, der lavede rapporten, ankede beslutningen om at beholde videoen, ifølge tilsynsrådet.

Meta besluttede igen ikke at fjerne den falske video, som ganske vist blev set færre end 30 gange i sidste måned, fordi den ikke blev genereret ved hjælp af AI og fremstået som autentisk, og den indeholdt heller ikke nogen manipulation af Bidens tale for at få ham til at virke som om han sagde noget, han aldrig sagde.

Klageren rejste til sidst spørgsmålet med tilsynsrådet, et uafhængigt panel af eksperter rekrutteret af Meta til at gennemgå politikker for indholdsmoderering.

"Bestyrelsen valgte denne sag for at vurdere, om Metas politikker i tilstrækkelig grad dækker ændrede videoer, der kan vildlede folk til at tro, at politikere har truffet handlinger uden for tale, som de ikke har," gruppen skrev i en erklæring.

"Denne sag falder inden for bestyrelsens valg og civile rum og automatiserede håndhævelse af politikker og kurering af indholdsprioriteter."

Facebooks manipulerede medier politikker angiver, at brugere ikke bør poste syntetiske videoer, der er genereret ved hjælp af "kunstig intelligens eller maskinlæring, herunder deep learning-teknikker (f.eks. en teknisk deepfake), der fusionerer, kombinerer, erstatter og/eller overlejrer indhold på en video, hvilket skaber en video, der vises autentisk" eller indhold, der "sandsynligvis ville vildlede en gennemsnitlig person til at tro, at et emne i videoen sagde ord, som de ikke sagde."

Den falske Biden-video, der var under overvejelse, overtrådte ikke nogen af ​​reglerne og fik derfor lov til at forblive online. Det var ikke maskinfremstillet eller lagt ord i præsidentens mund.

Uanset hvad, kan Metas erklærede bestræbelser på at tackle og reducere politisk misinformation blive udvandet, hvis sådant indhold får lov til at sprede sig. Der kan være en ubalance i reglerne, hvis ovenstående vid får lov til at blive oppe, alt sammen fordi den er klodset redigeret af et menneske, mens der bliver slået hårdt ned på deepfakes. Hvis AI lavede den behandlede video, ville den så være faldet? Men hvis det er menneskeskabt, behøver det ikke?

Som sådan opfordrer bestyrelsen til kommentarer og ideer fra offentligheden på følgende områder i lyset af denne sag:

  • Forskning i online-tendenser med at bruge ændret eller manipuleret videoindhold til at påvirke opfattelsen af ​​politiske personer, især i USA.
  • Egnetheden af ​​Metas misinformationspolitikker, herunder om manipulerede medier, til at reagere på nuværende og fremtidige udfordringer på dette område, især i forbindelse med valg.
  • Metas menneskerettighedsansvar, når det kommer til videoindhold, der er blevet ændret for at skabe et misvisende indtryk af en offentlig person, og hvordan de skal forstås med udviklingen inden for generativ kunstig intelligens in mente.
  • Udfordringer til og bedste praksis i autentificering af videoindhold i stor skala, herunder ved at bruge automatisering.
  • Forskning i effektiviteten af ​​alternative reaktioner på politisk desinformation eller misinformation ud over fjernelse af indhold, såsom faktatjekprogrammer eller mærkning (også kendt som "informere behandlinger"). Derudover forskning i at undgå bias i sådanne svar.

Bevæbnet med det input forventes panelet at gennemgå politikkerne og komme med forslag til Meta - selvom der måske ikke kommer meget ud af det.

"Som en del af sine beslutninger kan bestyrelsen udstede politiske anbefalinger til Meta. Selvom anbefalinger ikke er bindende, skal Meta svare på dem inden for 60 dage,” indrømmede panelet. "Som sådan hilser bestyrelsen velkommen offentlige kommentarer, der foreslår anbefalinger, der er relevante for denne sag."

Eksperter og lovgivere er i mellemtiden mere og mere bekymrede over deepfakes, der manipulerer den politiske diskurs forud for det kommende amerikanske præsidentvalg i 2024.

I sidste uge sendte den amerikanske senator Amy Klobuchar (D-MN) og husrepræsentant Yvette Clarke (D-NY) breve til Meta CEO Mark Zuckerberg og X CEO Linda Yaccarino for at afklare deres indholdspolitikker vedrørende politiske deepfakes.

"Når valget i 2024 nærmer sig hurtigt, kan mangel på gennemsigtighed om denne type indhold i politiske annoncer føre til en farlig syndflod af valgrelateret misinformation og desinformation på tværs af dine platforme - hvor vælgerne ofte henvender sig for at lære om kandidater og emner," brev anført, AP rapporteret.

Registret har bedt Meta om en kommentar. ®

Tidsstempel:

Mere fra Registret