Giganci technologiczni podpisują umowy mające na celu udaremnienie niewłaściwego wykorzystania sztucznej inteligencji podczas wyborów

Giganci technologiczni podpisują umowy mające na celu udaremnienie niewłaściwego wykorzystania sztucznej inteligencji podczas wyborów

Penka Christowska Penka Christowska
Opublikowany: 20 lutego 2024 r.

Duże firmy technologiczne podpisały porozumienie o dobrowolnym wdrożeniu „rozsądnych środków ostrożności”, aby powstrzymać narzędzia sztucznej inteligencji przed zakłócaniem wyborów na całym świecie.

Dyrektorzy firm Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI i TikTok spotkali się na Konferencji Bezpieczeństwa w Monachium, aby przedstawić nową strategię zwalczania deepfake generowanych przez sztuczną inteligencję, których celem jest oszukiwanie wyborców. Dodatkowo do porozumienia przyłącza się 12 innych firm, w tym X Elona Muska.

„Wszyscy zdają sobie sprawę, że żadna firma technologiczna, żaden rząd, żadna organizacja społeczeństwa obywatelskiego nie jest w stanie samodzielnie poradzić sobie z pojawieniem się tej technologii i jej możliwym nikczemnym wykorzystaniem” – powiedział Nick Clegg, prezes ds. spraw globalnych w firmie Meta, która jest spółką-matką Facebooka i Instagrama.

Porozumienie, które ma głównie charakter symboliczny, koncentruje się na zwalczaniu wysoce realistycznych obrazów, dźwięku i wideo generowanych przez sztuczną inteligencję, „które w zwodniczy sposób fałszują lub zmieniają wygląd, głos lub działania kandydatów politycznych, urzędników wyborczych i innych kluczowych interesariuszy w demokratycznych wyborach lub które dostarczają wyborcom fałszywych informacji o tym, kiedy, gdzie i w jaki sposób mogą zgodnie z prawem głosować”.

Porozumienie nie nakłada na firmy obowiązku zakazywania lub usuwania deepfake’ów, ale szczegółowo opisuje strategie, jakie przyjmą, aby identyfikować i oznaczać zwodnicze treści AI na swoich platformach. Wspomina, że ​​firmy będą wymieniać najlepsze praktyki i oferować „szybkie i proporcjonalne reakcje”, aby ograniczyć rozprzestrzenianie się takich treści.

Federalna Komisja Łączności oświadczyła niedawno, że klipy audio generowane przez sztuczną inteligencję wykorzystywane w automatycznych połączeniach telefonicznych są nielegalne. Orzeczenie to nie ma jednak zastosowania do deepfake’ów audio udostępnianych w mediach społecznościowych lub pojawiających się w reklamach kampanii.

Niektóre platformy mediów społecznościowych egzekwują już zasady zapobiegające wprowadzającym w błąd wpisom dotyczącym procesów wyborczych, niezależnie od tego, czy są one generowane przez sztuczną inteligencję, czy nie. Meta twierdzi, że eliminuje dezinformację dotyczącą „dat, miejsc, godzin i metod głosowania, rejestracji wyborców lub udziału w spisach powszechnych”, a także inne niedokładne posty mające na celu utrudnianie jednostki zaangażowania obywatelskiego.

Znak czasu:

Więcej z Detektywi bezpieczeństwa