A Meta Felügyelő Bizottsága a hamis Biden-videó után felülvizsgálja a szabályokat

A Meta Felügyelő Bizottsága a hamis Biden-videó után felülvizsgálja a szabályokat

Meta's Oversight Board reviews rules after fake Biden video PlatoBlockchain Data Intelligence. Vertical Search. Ai.

A Meta felügyelőbizottsága vizsgálja a közösségi média óriáscég hamisított tartalmakkal kapcsolatos politikáját, miután a Facebook úgy döntött, hogy nem távolít el egy hamis videót, amely hamisan pedofilnak minősítette Joe Biden amerikai elnököt.

A hamis videó a 2022-es amerikai félidős választások idején adaptált felvételeket készített arról, hogy Biden egy „Voltam” matricát helyez el unokája, Natalie Biden mellkasa fölé.

Az idén májusban megosztott hét másodperces videót úgy alakították ki, hogy úgy tűnjön, mintha az elnök helytelenül érintette volna meg az unokáját, a háttérben pedig Pharoahe Monch rapper „Simon Says” című dalának NSFW szövege szól. A videó felirata tévesen azt állította, hogy Biden „beteg pedofil”, és azt állította, hogy azok, akik a választáson rá szavaztak, „mentálisan rosszul vannak”.

Egy felhasználó panasza ellenére Meta moderátorai nem távolították el a klipet. A felügyelőbizottság szerint a bejelentést tevő Facebook-felhasználó fellebbezett a videó megtartására vonatkozó döntés ellen.

A Meta ismét úgy döntött, hogy nem távolítja el a hamis videót, amelyet bevallottan kevesebb, mint 30-szor néztek meg a múlt hónapban, mert nem mesterséges intelligencia segítségével hozták létre, és hitelesnek minősítették, és nem tartalmazott semmilyen manipulációt Biden beszédében, hogy úgy tűnjön, mint ő mondott valamit, amit soha nem mondott ki.

A panaszos végül felvetette a kérdést a felügyelő bizottságnak, egy független szakértői testületnek, amelyet a Meta toborzott a tartalommoderálási irányelvek felülvizsgálatára.

„A testület azért választotta ki ezt az esetet, hogy felmérje, vajon a Meta irányelvei megfelelően lefedik-e azokat a módosított videókat, amelyek félrevezethetik az embereket, és azt hihetik, hogy a politikusok olyan cselekedeteket tettek a beszéden kívül, amit nem” írt egy nyilatkozatában.

"Ez az ügy a testület választásaira és a polgári térre, valamint a szabályzatok automatizált érvényesítésére és a tartalmi prioritások kezelésére vonatkozik."

Facebook manipulált média Az irányelvek kimondják, hogy a felhasználók nem tehetnek közzé olyan szintetikus videókat, amelyeket „mesterséges intelligencia vagy gépi tanulás, ideértve a mély tanulási technikákat (pl. műszaki mélyhamisítás) felhasználásával hoztak létre, amelyek tartalmat egyesítenek, kombinálnak, cserélnek és/vagy ráhelyeznek egy videóra, így videót hoznak létre, amely megjelenik hiteles”, sem olyan tartalmak, amelyek „valószínűleg félrevezetnének egy átlagembert, hogy azt higgyék, a videó alanya olyan szavakat mondott, amelyeket nem mondott”.

A vizsgált hamis Biden-videó egyik szabályt sem sértette meg, így az interneten maradhatott. Nem géppel készítették, és nem adtak szavakat az elnök szájába.

Bárhogy is legyen, a Meta a politikai félretájékoztatás leküzdésére és csökkentésére tett erőfeszítései felhígulhatnak, ha hagyják, hogy az ilyen tartalom elterjedjen. Kiegyensúlyozatlanság léphet fel a szabályokban, ha a fenti videót fent hagyják, mindezt azért, mert ügyetlenül ember szerkesztette, miközben a deepfake-eket felszámolják. Ha a mesterséges intelligencia elkészíti az orvosolt videót, lejött volna? De ha ember alkotta, akkor nem kell?

Ennek megfelelően a testület az eset fényében a következő területeken várja a lakosság véleményét és ötleteit:

  • Olyan online trendek kutatása, amelyek a módosított vagy manipulált videotartalmak felhasználásával a politikai személyiségek megítélésének befolyásolására irányulnak, különösen az Egyesült Államokban.
  • A Meta félretájékoztatási politikáinak alkalmassága, beleértve a manipulált médiát is, hogy reagáljanak a jelenlegi és jövőbeli kihívásokra ezen a területen, különösen a választások kapcsán.
  • A Meta emberi jogi kötelezettségei, amikor olyan videótartalomról van szó, amelyet úgy módosítottak, hogy félrevezető benyomást keltsen egy közszereplőről, és hogyan kell ezeket értelmezni a generatív mesterséges intelligencia fejlődését szem előtt tartva.
  • Kihívások és bevált gyakorlatok a videotartalom hitelesítésével kapcsolatban, beleértve az automatizálást is.
  • A politikai dezinformációra vagy félretájékoztatásra adott alternatív válaszok hatékonyságának kutatása a tartalom eltávolításán túl, például tényellenőrző programok vagy címkézés (más néven „információs kezelések”). Emellett kutatás az ilyen válaszok torzításának elkerülésére.

Ezzel az inputtal felvértezve a testület várhatóan felülvizsgálja az irányelveket, és javaslatokat tesz a Metának – bár nem sok származhat belőle.

„A testület döntéseinek részeként szakpolitikai ajánlásokat fogalmazhat meg a Metának. Bár az ajánlások nem kötelezőek, a Metának 60 napon belül válaszolnia kell rájuk” – ismerte el a testület. „Ezért a testület örömmel fogadja a nyilvános észrevételeket, amelyek ebben az ügyben releváns ajánlásokat javasolnak.”

A szakértők és a törvényhozók eközben egyre jobban aggódnak a politikai diskurzust manipuláló hamisítások miatt a közelgő, 2024-es amerikai elnökválasztás előtt.

A múlt héten Amy Klobuchar (D-MN) amerikai szenátor és Yvette Clarke (D-NY) képviselőház levelet küldött Mark Zuckerbergnek, a Meta vezérigazgatójának és Linda Yaccarinónak, az X vezérigazgatójának, hogy tisztázzák a politikai mélyhamisításokkal kapcsolatos tartalmi irányelveiket.

„A 2024-es választások közeledtével a politikai hirdetések ilyen típusú tartalmaival kapcsolatos átláthatóság hiánya a választásokkal kapcsolatos félretájékoztatás és félretájékoztatás veszélyes özönéhez vezethet az Ön platformjain – ahol a választók gyakran fordulnak meg, hogy tájékozódjanak a jelöltekről és a kérdésekről” levélben szerepel, AP jelentett.

A regisztráció megjegyzést kért Metától. ®

Időbélyeg:

Még több A regisztráció