Metas Oversight Board granskar regler efter falsk Biden-video

Metas Oversight Board granskar regler efter falsk Biden-video

Metas Oversight Board granskar regler efter falsk Biden-video PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Metas tillsynsstyrelse undersöker sociala mediejättens policy för djupt falskt innehåll efter att Facebook beslutat att inte ta bort en falsk video som felaktigt stämplade USA:s president Joe Biden som pedofil.

Den falska video-anpassade filmen av Biden som placerar en "jag röstade"-dekal ovanför sitt barnbarn Natalie Bidens bröst under USA:s mellanårsval 2022.

Den sju sekunder långa videon, som delades i maj i år, gjordes och slingades för att få det att se ut som om presidenten rörde vid hans barnbarn på ett olämpligt sätt, med NSFW-texter från låten "Simon Says" av rapparen Pharoahe Monch spelade i bakgrunden. En bildtext i videon hävdade felaktigt att Biden är "en sjuk pedofil" och hävdade att personer som röstade på honom i valet var "mentalt sjuka".

Trots ett klagomål från en användare tog Metas moderatorer inte bort klippet. Facebook-användaren som gjorde anmälan överklagade beslutet att behålla videon, enligt tillsynsnämnden.

Meta beslutade återigen att inte ta bort den falska videon, som visserligen sågs färre än 30 gånger från och med förra månaden, eftersom den inte genererades med AI och framhölls som autentisk och inte heller innehöll någon manipulation av Bidens tal för att få honom att verka som om han sa något han aldrig yttrade.

Den klagande tog så småningom upp frågan med tillsynsnämnden, en oberoende panel av experter som rekryterats av Meta för att granska policyer för innehållsmoderering.

"Styrelsen valde det här fallet för att bedöma om Metas policyer på ett adekvat sätt täcker ändrade videor som kan vilseleda människor att tro att politiker har vidtagit åtgärder, utanför tal, som de inte har gjort," gruppen skrev i ett uttalande.

"Det här ärendet faller inom styrelsens val och medborgerliga utrymmen och automatiserade verkställande av policyer och kurering av innehållsprioriteringar."

Facebooks manipulerade medier policyer anger att användare inte ska lägga upp syntetiska videor som skapats med hjälp av "artificiell intelligens eller maskininlärning, inklusive djupinlärningstekniker (t.ex. en teknisk deepfake), som slår samman, kombinerar, ersätter och/eller lägger över innehåll på en video, vilket skapar en video som visas autentiskt" eller innehåll som "sannolikt skulle vilseleda en genomsnittlig person att tro att ett ämne i videon sa ord som de inte sa."

Den falska Biden-videon som övervägdes bröt inte mot någon av reglerna och fick därför vara online. Det var inte maskintillverkat och inte heller lagt ord i presidentens mun.

Hur det än är, Metas uttalade ansträngningar för att ta itu med och minska politisk desinformation kan tunnas ut om sådant innehåll tillåts spridas. Det kan finnas en obalans i reglerna om videon ovan får stanna uppe, allt för att den var klumpigt redigerad av en människa, samtidigt som det förekommer ett tillslag mot deepfakes. Om AI gjorde den manipulerade videon, skulle den ha fallit? Men om det är mänskligt, behöver det inte?

Som sådan inbjuder styrelsen kommentarer och idéer från allmänheten på följande områden i ljuset av detta fall:

  • Forskning om onlinetrender för att använda förändrat eller manipulerat videoinnehåll för att påverka politiska personers uppfattning, särskilt i USA.
  • Lämpligheten hos Metas desinformationspolicy, inklusive om manipulerade medier, för att svara på nuvarande och framtida utmaningar inom detta område, särskilt i samband med val.
  • Metas ansvar för mänskliga rättigheter när det kommer till videoinnehåll som har ändrats för att skapa ett missvisande intryck av en offentlig person, och hur de ska förstås med utvecklingen inom generativ artificiell intelligens i åtanke.
  • Utmaningar och bästa praxis för autentisering av videoinnehåll i stor skala, inklusive genom att använda automatisering.
  • Forskning om effektiviteten av alternativa svar på politisk desinformation eller desinformation utöver borttagning av innehåll, såsom program för faktakontroll eller märkning (även känd som "informera behandlingar"). Dessutom forskning om att undvika partiskhet i sådana svar.

Beväpnad med denna input förväntas panelen granska policyerna och komma med förslag till Meta – även om det kanske inte kommer mycket från det.

”Som en del av sina beslut kan styrelsen utfärda policyrekommendationer till Meta. Även om rekommendationer inte är bindande, måste Meta svara på dem inom 60 dagar”, erkände panelen. "Som sådan välkomnar styrelsen offentliga kommentarer som föreslår rekommendationer som är relevanta för det här fallet."

Experter och lagstiftare är under tiden alltmer oroade över deepfakes som manipulerar den politiska diskursen inför det kommande amerikanska presidentvalet 2024.

Förra veckan skickade den amerikanska senatorn Amy Klobuchar (D-MN) och husrepresentanten Yvette Clarke (D-NY) brev till Metas vd Mark Zuckerberg och X:s vd Linda Yaccarino för att förtydliga deras innehållspolicy angående politiska deepfakes.

"När valet 2024 närmar sig snabbt kan en brist på transparens om den här typen av innehåll i politiska annonser leda till en farlig störtflod av valrelaterad desinformation och desinformation på era plattformar – dit väljarna ofta vänder sig för att lära sig om kandidater och frågor," brev angav, AP rapporterade.

Registret har bett Meta för en kommentar. ®

Tidsstämpel:

Mer från Registret