Metin nadzorni odbor pregleda pravila po lažnem videoposnetku Bidna

Metin nadzorni odbor pregleda pravila po lažnem videoposnetku Bidna

Meta's Oversight Board reviews rules after fake Biden video PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Nadzorni odbor Mete preiskuje politiko velikana družbenih medijev glede vsebine deepfake, potem ko se je Facebook odločil, da ne bo odstranil ponarejenega videoposnetka, ki je ameriškega predsednika Joeja Bidna lažno označil za pedofila.

Lažni video je priredil posnetek Bidna, ki med vmesnimi volitvami leta 2022 v Ameriki nalepi nalepko »Glasoval sem« nad prsi svoje vnukinje Natalie Biden.

Sedemsekundni videoposnetek, ki je bil objavljen maja letos, je bil prirejen in narejen tako, da je videti, kot da se je predsednik neprimerno dotaknil svoje vnukinje, v ozadju pa je igralo besedilo NSFW iz pesmi »Simon Says« raperja Pharoahe Moncha. Napis v videu je napačno trdil, da je Biden "bolan pedofil", in trdil, da so ljudje, ki so glasovali zanj na volitvah, "duševno bolni".

Kljub pritožbi uporabnika Metini moderatorji posnetka niso odstranili. Uporabnik Facebooka, ki je podal prijavo, se je po navedbah nadzornega odbora pritožil na odločitev o hrambi videoposnetka.

Meta se je spet odločila, da ne bo odstranila ponarejenega videoposnetka, ki si ga je prejšnji mesec res ogledalo manj kot 30-krat, ker ni bil ustvarjen z umetno inteligenco in je veljal za pristnega, niti ni vseboval nobene manipulacije Bidnovega govora, da bi se zdelo, da je rekel nekaj, česar ni nikoli izgovoril.

Pritožnik je na koncu sprožil vprašanje pri nadzornem odboru, neodvisni komisiji strokovnjakov, ki jo je zaposlila Meta za pregled politik moderiranja vsebine.

"Odbor je izbral ta primer, da bi ocenil, ali politike Mete ustrezno pokrivajo spremenjene videoposnetke, ki bi lahko zavedli ljudi, da verjamejo, da so politiki izvedli dejanja, ki niso govorna," je skupina Napisal v izjavi.

"Ta primer spada v okvir volitev odbora in državljanskega prostora ter avtomatiziranega uveljavljanja politik in urejanja prednostnih nalog glede vsebine."

Facebookovi manipulirani mediji pravilniki navajajo, da uporabniki ne smejo objavljati sintetičnih videoposnetkov, ustvarjenih z »umetno inteligenco ali strojnim učenjem, vključno s tehnikami globokega učenja (npr. tehnični deepfake), ki združujejo, združujejo, nadomeščajo in/ali prekrivajo vsebino v videoposnetku, kar ustvarja videoposnetek, ki se prikaže verodostojna«, niti vsebine, ki »bi verjetno zavedla povprečnega človeka, da verjame, da je subjekt videoposnetka rekel besede, ki jih ni rekel«.

Obravnavani ponarejeni Bidnov videoposnetek ni kršil nobenega od pravil, zato mu je bilo dovoljeno, da ostane na spletu. Ni bilo narejeno strojno niti položenih besed v predsednikova usta.

Kakor koli že, lahko se Metina prizadevanja za boj proti političnim dezinformacijam in njihovo zmanjševanje oslabijo, če se takšni vsebini dovoli širjenje. Morda pride do neravnovesja v pravilih, če se zgornjemu videu dovoli, da ostane, vse zato, ker ga je nespretno uredil človek, medtem ko poteka zatiranje globokih ponaredkov. Če bi umetna inteligenca posnela prirejen videoposnetek, bi bil posnet? Ampak, če je delo človeka, ni nujno?

Kot tak odbor vabi javnost k komentarjem in idejam o naslednjih področjih v luči tega primera:

  • Raziskovanje spletnih trendov uporabe spremenjenih ali manipuliranih video vsebin za vplivanje na dojemanje političnih osebnosti, zlasti v Združenih državah.
  • Primernost politike dezinformiranja Mete, vključno z zmanipuliranimi mediji, za odziv na sedanje in prihodnje izzive na tem področju, zlasti v kontekstu volitev.
  • Metine odgovornosti glede človekovih pravic, ko gre za video vsebino, ki je bila spremenjena, da bi ustvarila zavajajoč vtis o javni osebnosti, in kako jih je treba razumeti ob upoštevanju razvoja generativne umetne inteligence.
  • Izzivi in ​​najboljše prakse pri preverjanju pristnosti video vsebin v velikem obsegu, vključno z uporabo avtomatizacije.
  • Raziskovanje učinkovitosti alternativnih odzivov na politične dezinformacije ali dezinformacije, ki presegajo odstranitev vsebine, kot so programi za preverjanje dejstev ali označevanje (znano tudi kot »obravnava z informacijami«). Poleg tega raziskave o izogibanju pristranskosti v takšnih odgovorih.

Na podlagi teh prispevkov se pričakuje, da bo odbor pregledal politike in dal predloge Meti – čeprav iz tega morda ne bo veliko.

»Kot del svojih odločitev lahko odbor izda Meti priporočila politike. Čeprav priporočila niso zavezujoča, se mora Meta nanje odzvati v 60 dneh,« je priznal odbor. "Kot tak odbor pozdravlja javne komentarje, ki predlagajo priporočila, ki so pomembna za ta primer."

Strokovnjaki in zakonodajalci so medtem vse bolj zaskrbljeni zaradi globokih ponaredkov, ki manipulirajo s političnim diskurzom pred prihajajočimi ameriškimi predsedniškimi volitvami leta 2024.

Prejšnji teden sta ameriška senatorka Amy Klobuchar (D-MN) in predstavnica predstavniškega doma Yvette Clarke (D-NY) poslali pismi izvršnemu direktorju Mete Marku Zuckerbergu in izvršni direktorici X Lindi Yaccarino, v katerih želita pojasniti svojo vsebinsko politiko glede političnih globokih ponaredkov.

"Ker se volitve leta 2024 hitro približujejo, bi lahko pomanjkanje preglednosti glede te vrste vsebine v političnih oglasih povzročilo nevarno poplavo dezinformacij in dezinformacij, povezanih z volitvami, na vaših platformah – kamor se volivci pogosto obračajo, da bi izvedeli več o kandidatih in težavah," je pismo navedeno, AP poročali.

Register je prosil Meto za komentar. ®

Časovni žig:

Več od Register