Rada Nadzorcza Meta dokonuje przeglądu zasad po fałszywym filmie Bidena

Rada Nadzorcza Meta dokonuje przeglądu zasad po fałszywym filmie Bidena

Rada nadzorcza Meta dokonuje przeglądu zasad po fałszywym filmie Bidena PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Rada nadzorcza Meta bada politykę giganta mediów społecznościowych dotyczącą fałszywych treści po tym, jak Facebook zdecydował się nie usuwać fałszywego filmu, w którym fałszywie uznano prezydenta USA Joe Bidena za pedofila.

Fałszywy film jest adaptacją materiału filmowego, na którym Biden umieszcza naklejkę z napisem „Głosowałem” nad piersią swojej wnuczki Natalie Biden podczas wyborów śródokresowych w Ameryce w 2022 r.

Siedmiosekundowe wideo, udostępnione w maju tego roku, zostało zmodyfikowane i zapętlone, aby sprawiało wrażenie, jakby Prezydent dotykał swojej wnuczki w niewłaściwy sposób, a w tle leciał tekst NSFW z piosenki „Simon Says” rapera Pharoahe Moncha. Podpis na filmie błędnie stwierdza, że ​​Biden jest „chorym pedofilem”, a osoby, które na niego głosowały w wyborach, „były w złym stanie psychicznym”.

Pomimo skargi użytkownika moderatorzy Meta nie usunęli klipu. Według rady nadzorczej użytkownik Facebooka, który sporządził raport, odwołał się od decyzji o zatrzymaniu filmu.

Meta ponownie zdecydowała się nie usuwać fałszywego filmu, który wprawdzie obejrzano mniej niż 30 razy w zeszłym miesiącu, ponieważ nie został wygenerowany przy użyciu sztucznej inteligencji i uchodził za autentyczny, ani też nie zawierał żadnej manipulacji przemówieniem Bidena, która miałaby sprawiać wrażenie, że powiedział coś, czego nigdy nie powiedział.

Ostatecznie skarżący podniósł tę kwestię do rady nadzorczej – niezależnego panelu ekspertów zatrudnionego przez Meta w celu przeglądu zasad moderowania treści.

„Zarząd wybrał tę sprawę, aby ocenić, czy zasady Meta odpowiednio uwzględniają zmienione filmy, które mogą wprowadzić ludzi w błąd i sprawić, że politycy podjęli działania poza słowami, których tak naprawdę nie zrobili” – grupa napisał w oświadczeniu.

„Ta sprawa dotyczy wyborów zarządu i przestrzeni obywatelskiej oraz automatycznego egzekwowania zasad i ustalania priorytetów treści”.

Facebooka'S zmanipulowane media Zasady stanowią, że użytkownicy nie powinni publikować syntetycznych filmów wideo wygenerowanych przy użyciu „sztucznej inteligencji lub uczenia maszynowego, w tym technik głębokiego uczenia się (np. technicznego deepfake), które łączą, łączą, zastępują i/lub nakładają treści na film, tworząc film, który pojawia się autentyczne” ani treści, które „prawdopodobnie wprowadziłyby w błąd przeciętnego człowieka, wierząc, że podmiot filmu powiedział słowa, których nie powiedział”.

Rozważany fałszywy film Bidena nie naruszył żadnej z zasad, w związku z czym pozwolono mu pozostać w Internecie. Nie zostało to zrobione maszynowo ani nie zostało włożone w usta Prezydenta.

Tak czy inaczej, wysiłki Meta mające na celu zwalczanie i ograniczanie dezinformacji politycznej mogą zostać osłabione, jeśli pozwoli się na rozprzestrzenianie się takich treści. Jeśli powyższy film pozostanie nieaktywny, może zaistnieć brak równowagi w zasadach, a wszystko dlatego, że został niezdarnie zmontowany przez człowieka, podczas gdy trwa walka z deepfakes. Czy gdyby sztuczna inteligencja nakręciła sfałszowane wideo, upadłoby? Ale jeśli jest dziełem człowieka, to nie musi?

W związku z tym zarząd zaprasza opinię publiczną do komentarzy i pomysłów w następujących obszarach w świetle tej sprawy:

  • Badanie trendów internetowych dotyczących wykorzystywania zmienionych lub zmanipulowanych treści wideo w celu wywarcia wpływu na postrzeganie osobistości politycznych, szczególnie w Stanach Zjednoczonych.
  • Odpowiedniość polityki Meta w zakresie dezinformacji, w tym dotyczącej zmanipulowanych mediów, w odpowiedzi na obecne i przyszłe wyzwania w tym obszarze, szczególnie w kontekście wyborów.
  • Obowiązki Meta w zakresie praw człowieka w przypadku treści wideo, które zostały zmienione w celu wywołania mylącego wrażenia osoby publicznej, oraz tego, jak należy je rozumieć, mając na uwadze rozwój generatywnej sztucznej inteligencji.
  • Wyzwania i najlepsze praktyki w zakresie uwierzytelniania treści wideo na dużą skalę, w tym za pomocą automatyzacji.
  • Badania nad skutecznością alternatywnych reakcji na dezinformację polityczną lub dezinformację wykraczającą poza usuwanie treści, takich jak programy sprawdzania faktów lub etykietowanie (znane również jako „terapie informacyjne”). Dodatkowo przeprowadzono badania nad unikaniem stronniczości w takich odpowiedziach.

Oczekuje się, że uzbrojony w te informacje panel dokona przeglądu zasad i przedstawi Meta sugestie – choć niewiele może z tego wyniknąć.

„W ramach swoich decyzji zarząd może wydawać Meta zalecenia dotyczące polityki. Chociaż zalecenia nie są wiążące, Meta musi na nie odpowiedzieć w ciągu 60 dni” – przyznał panel. „W związku z tym zarząd z radością przyjmuje publiczne uwagi zawierające propozycje zaleceń istotnych dla tej sprawy”.

Tymczasem eksperci i prawodawcy są coraz bardziej zaniepokojeni deepfakes manipulującymi dyskursem politycznym przed nadchodzącymi wyborami prezydenckimi w USA w 2024 roku.

W zeszłym tygodniu amerykańska senator Amy Klobuchar (Niemcy) i przedstawicielka Izby Reprezentantów Yvette Clarke (D-NY) wysłały listy do dyrektora generalnego Meta Marka Zuckerberga i dyrektor generalnej X Lindy Yaccarino, prosząc o wyjaśnienie ich zasad dotyczących treści dotyczących deepfake'ów politycznych.

„W związku ze zbliżającymi się wyborami w 2024 r. brak przejrzystości w zakresie tego typu treści w reklamach politycznych może doprowadzić do niebezpiecznego zalewu dezinformacji i dezinformacji związanych z wyborami na platformach, na których wyborcy często zwracają się, aby dowiedzieć się o kandydatach i problemach” – dodał. stwierdzono w piśmie, AP zgłaszane.

Rejestr poprosił Meta o komentarz. ®

Znak czasu:

Więcej z Rejestr