Chiny wprowadzą w styczniu przepisy mające na celu zwalczanie deepfake’ów PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Chiny wprowadzą przepisy dotyczące walki z deepfake'ami w styczniu

Jeśli byłeś w tym tygodniu w mediach społecznościowych, prawdopodobnie natknąłeś się na zdjęcia wygenerowane przez sztuczną inteligencję przedstawiające twoich przyjaciół jako istoty wróżkowe, postacie z anime, awatary i magiczne istoty.

Wynika to częściowo z Lensy, sztucznej inteligencji, która syntetyzuje cyfrowe portrety na podstawie zdjęć przesłanych przez użytkowników. Portrety aplikacji praktycznie zawładnęły Internetem, a Lensa stała się najczęściej pobieraną aplikacją w sklepie z aplikacjami Apple.

Lensa, podobnie jak wszystkie aplikacje AI, które cyfrowo renderują obrazy, wzbudziła zarówno podziw, jak i kontrowersje ze względu na pozornie rażącą seksualizację kobiecych wizerunków. Inni użytkownicy zauważyli, że aplikacja sprawiła, że ​​ich skóra stała się jaśniejsza lub ich ciała były cieńsze.

Przeczytaj także: Technologia sztucznej inteligencji, która tworzy niszczące życie głębokie fałszywe obrazy

Jak zdobyć własnego „magicznego awatara”

Krążące obrazy są dumnym dziełem funkcji magicznych awatarów Lensy. Aby to poczuć, trzeba pobrać aplikację Lensa na telefon. Roczna subskrypcja kosztuje około 35.99 USD, ale jej usługi są również dostępne, choć z ograniczeniami za darmo w tygodniowym okresie próbnym, jeśli ktoś chce to najpierw sprawdzić.

Jednak wygenerowanie popularnych magicznych awatarów wymaga dodatkowej opłaty ze względu na to, co aplikacja mówi o „ogromnej mocy obliczeniowej”.

W ramach bezpłatnego okresu próbnego można uzyskać 50 awatarów za 3.99 USD i 200 awatarów za 7.99 USD. Aby uzyskać najlepsze wyniki, aplikacja zachęca użytkowników do przesłania co najmniej 20 zbliżeń.

Idealnie byłoby, gdyby te obrazy były zbliżeniami twarzy z szeregiem odmiennych tła, wyrazów twarzy i kątów. Aplikacja nalega, aby użytkownicy mieli co najmniej 13 lat. Lensa nie jest całkowicie nową aplikacją.

Produkt firmy Prisma, aplikacja stała się popularna w 2016 roku dzięki funkcji, która pozwalała użytkownikom zamieniać swoje selfie na zdjęcia w stylu znanych artystów.

Jak działa Lensa?

Według firmy wykorzystuje to, co nazywa „technologią TrueDepth API”, w której użytkownik dostarcza zdjęcia lub „dane twarzy”, a następnie sztuczna inteligencja jest szkolona w zakresie swoich algorytmów, aby działały lepiej i pokazywały lepsze wyniki. Szkolenie ma miejsce, gdy sztuczna inteligencja przetwarza dane, weryfikuje i testuje modele.

Aby korzystać z aplikacji, można wybrać 20 autoportretów z różnymi wyrazami twarzy i różnymi kątami oraz wybrać opcję 100 awatarów.

Wykonanie zadania zajmuje około 20 minut. Po zakończeniu sztuczna inteligencja zwraca awatary, które dzielą się na 10 kategorii, takich jak fantasy, bajkowa księżniczka, skupienie, pop, stylowe, anime, lekkie, kawaii, opalizujące i kosmiczne.

„Ogólnie rzecz biorąc, czułem, że aplikacja wykonała przyzwoitą robotę, tworząc artystyczne obrazy na podstawie moich selfie. Na większości portretów nie mogłem się rozpoznać, ale widziałem, skąd pochodzą” Zoe Sottile napisał CNN.

„Wydawało się, że rozpoznaje i powtarza pewne cechy, takie jak moja blada skóra czy okrągły nos, bardziej niż inne. Niektóre z nich były w bardziej realistycznym stylu i były na tyle blisko, że gdybym zobaczył je z daleka, mógłbym pomyśleć, że to moje zdjęcia. Inne były znacznie bardziej stylizowane i artystyczne, więc wydawały mi się mniej specyficzne”.

Sottile zauważył, że sztuczna inteligencja również uczyniła ją lżejszą.

Jeśli chodzi o mnie, również wyczułem, że automatycznie uczyniło mnie to jaśniejszym, a zdjęcie, które wypróbowałem w mojej galerii, przedstawiające mnie i przyjaciela o nieco ciemniejszej karnacji, oddawało nieco jaśniejszą wersję nas, wyraźnie przesadę i ujawniło skłonność do rozjaśniania czarne odcienie skóry.

Seksualizacja kobiet

Inni, którzy go używali, mieli mniej więcej podobne obawy.

Kobiety twierdzą, że sztuczna inteligencja szybko seksualizuje ich zdjęcia. Ale we wcześniejszym artykule my wyjaśnione stało się to możliwe dzięki ogromnej liczbie zseksualizowanych obrazów znalezionych w zbiorach danych wykorzystywanych w szkoleniu AI.

Innymi słowy, oznacza to, że sztuczna inteligencja jest zbyt zaznajomiona z generowaniem tych obrazów i łatwo staje się pornograficzna. Przy odrobinie podstępu można go nakłonić do nieświadomego wyprodukowania pornografii z tych obrazów, jeśli użytkownik chce.

W innych historiach omówiliśmy, w jaki sposób można oszukać sztuczną inteligencję, aby dostarczyła informacji o tym, jak zrobić bomba na przykład. Co dziwne, kwestia seksualizacji nie pojawiła się na zdjęciach mężczyzn przesłanych do funkcji Magic Avatar. Dla MIT Technology Review, Melissa Heikkilä napisał,

„Moje awatary były karykaturalnie pornograficzne, podczas gdy moi koledzy byli astronautami, odkrywcami i wynalazcami”.

Z drugiej strony Sottile zauważyła, że ​​sztuczna inteligencja „na jednym z najbardziej dezorientujących obrazów” sprawiła, że ​​wyglądała „jak wersja mojej twarzy na nagim ciele”.

„Na kilku zdjęciach wyglądało to tak, jakbym była naga, ale z strategicznie umieszczonym kocem lub zdjęcie zostało po prostu ucięte, aby ukryć coś wyraźnego” – powiedziała.

„Wiele zdjęć, nawet na których byłam w pełni ubrana, przedstawiało zmysłowy wyraz twarzy, znaczny dekolt i skąpe ubranie, które nie pasowało do zdjęć, które przesłałam” — dodaje Zoe Sottile.

Inni wyrażali obawy, że dzięki technologii sztucznej inteligencji, takiej jak Lensa, zostaną gwiazdami porno.

Piętnowanie ciało

W przypadku kobiet o pełnej budowie ciała doświadczenie było nieco inne, aw niektórych przypadkach nawet gorsze. Sztuczna inteligencja uczyniła je szczuplejszymi i seksownymi.

„W przypadku Lmfao, jeśli masz dysmorfię ciała, nie używaj tej aplikacji Lensa do zdjęć generowanych przez sztuczną inteligencję. To jest twoje ostrzeżenie”, użytkownik napisał.

Inna powiedziała, że ​​dzięki aplikacji wyglądała jak Azjatka.

Inny użytkownik zgłosił się na Twitterze, aby poskarżyć się, że zapłacił 8 dolarów za doświadczenie dysmorfii ciała, gdy korzystał z sztucznej inteligencji.

Dysmorfia ciała to stan zdrowia psychicznego, w którym osoba spędza dużo czasu martwiąc się o wady swojego wyglądu. Te wady są często niezauważalne dla innych.

Inny skarżył się, że sztuczna inteligencja automatycznie zrzuciła znaczną wagę na jej skądinąd pełne obrazy postaci.

„Jedyną skargą, jaką mam na temat sztucznej inteligencji Lensa, jest to, że na niektórych obrazach będziesz chudy. Jako gruba osoba te obrazy naprawdę mnie niepokoiły. Uważaj więc, aby nie dać się sprowokować, jeśli jesteś grubaskiem, który nie jest zainteresowany chudnięciem” – napisała Mariah Successful (@Shlatz) 5 grudnia 2022 r.

Psychologiczna bomba zegarowa

A psychologowie zgadzają się z jej twierdzeniami, że sztuczna inteligencja może wywołać w pełni ukształtowane kobiety.

Psycholog kliniczny, dr. Toniego Pikoosa, australijski lekarz zajmujący się zdrowiem psychicznym, który prowadzi badania i specjalizuje się w leczeniu dysmorfii ciała, uważa, że ​​aplikacja może wyrządzić więcej szkody niż pożytku i jest niczym innym jak „narzędziem do filtrowania zdjęć” zmieniającym postrzeganie siebie.

„Kiedy istnieje większa rozbieżność między idealnym a postrzeganym wyglądem, może to podsycać niezadowolenie ciała, niepokój i chęć naprawienia lub zmiany swojego wyglądu za pomocą potencjalnie niezdrowych lub niebezpiecznych środków”, takich jak zaburzenia odżywiania lub niepotrzebne zabiegi kosmetyczne, mówi Pikoos.

Wyraziła zaniepokojenie, że obrazy usuwają „skomplikowane szczegóły”, takie jak „piegi i linie”, coś, co może spotęgować obawy o skórę. Mówi, że może to również wywołać psychologiczną reakcję osoby wrażliwej.

„Zobaczenie zewnętrznego obrazu odzwierciedlającego ich niepewność tylko wzmacnia ideę:„ Widzisz, to jest ze mną nie tak! I nie tylko ja to widzę!'” mówi Pikoos.

Mówi, że dzięki temu, że sztuczna inteligencja wprowadza własne funkcje, które nie odzwierciedlają rzeczywistego wyglądu użytkownika, aplikacja może budzić nowe obawy.

Mówi, że „magiczne awatary” AI były „szczególnie interesujące, ponieważ wydają się bardziej obiektywne – jakby jakaś zewnętrzna, wszechwiedząca istota wygenerowała ten obraz tego, jak wyglądasz”.

Jej zdaniem byłoby to „przydatne” dla osób z dysmorfią ciała i pomogłoby rzucić światło na „niedopasowanie” między „negatywnym spojrzeniem danej osoby na siebie a tym, jak postrzegają ją inni”.

Zauważyła jednak, że sztuczna inteligencja nie była obiektywna ze względu na próbę przedstawienia bezbłędnej i bardziej „ulepszonej i udoskonalonej wersji” czyjejś twarzy.

Na przykład osoba cierpiąca na zaburzenie dysmorficzne ciała (BDD) „może doświadczyć krótkiego wzrostu pewności siebie, gdy zobaczy swój wizerunek i zechce podzielić się tą wersją siebie ze światem”, mówi, ale rzeczywistość mocno ją dotknie, gdy będzie wyłączona. ekran, bez filtra, w lustrze lub zdjęcie, które sami sobie robią”.

Broniąc swoich

Andrey Usoltsev, dyrektor generalny Prisma Labs, mówi, że jego firma jest obecnie „przytłoczona” zapytaniami na temat Lensy i zaoferowała link do strony z często zadawanymi pytaniami, która odpowiada na pytania dotyczące zseksualizowanych obrazów, ale nie jest to reakcja użytkowników opisana przez Pikoosa.

„Zobaczenie tego odzwierciedlenia w aplikacji byłoby bardzo konfrontacyjne i stanowiłoby pewnego rodzaju„ potwierdzenie ”dla sposobu, w jaki postrzegają siebie”, prowadząc ich do „bardziej zakorzenienia się w zaburzeniu”.

Stabilna dyfuzja

Lensa używa również Stable Diffusion, która wykorzystuje syntezę głębokiego uczenia się, która może tworzyć nowe obrazy z opisów tekstowych i może działać na komputerze z systemem Windows lub Linux, na komputerze Mac lub w chmurze na wypożyczonym sprzęcie komputerowym.

Dzięki intensywnej nauce sieć neuronowa Stable Diffusion opanowała kojarzenie słów i ogólne statystyczne powiązanie między pozycjami pikseli na obrazach.

Pokryliśmy się innym historia w jaki sposób technologia może mieć rujnujące życie konsekwencje poprzez renderowanie i przedstawianie obrazów ludzi, którzy wydają się być przestępcami lub są zaangażowani w mniej pochlebne praktyki, takie jak kradzież.

Na przykład, można dać Open Source Stable Diffusion podpowiedź, taką jak „Tom Hanks w klasie”, a to da mu nowy obraz Toma Hanksa w klasie. W przypadku Toma Hanka jest to spacer po parku, ponieważ setki jego zdjęć znajdują się już w zbiorze danych używanym do trenowania Stable Diffusion.

Artyści też dostają surową ofertę

Na froncie sztuki niektórzy artyści są nieszczęśliwi.

Obawiają się, że sztuczna inteligencja może zagrozić ich źródłom utrzymania. Wynika to z faktu, że artyści, w tym artyści cyfrowi, również nie mogą tworzyć portretów cyfrowych tak szybko, jak sztuczna inteligencja.

Firma macierzysta Lensy, Prisma, próbowała rozwiać obawy dotyczące jej technologii eliminującej pracę artystów cyfrowych.

„Chociaż zarówno ludzie, jak i sztuczna inteligencja uczą się stylów artystycznych w podobny sposób, istnieją pewne fundamentalne różnice: sztuczna inteligencja jest w stanie szybko analizować i uczyć się na podstawie dużych zbiorów danych, ale nie ma takiego samego poziomu uwagi i uznania dla sztuki jako ludzka istota," napisał firma na Twitterze 6 grudnia.

Mówi, że „wyników nie można opisać jako dokładnych replik jakiejkolwiek konkretnej grafiki”.

Zmiana obrazu siebie

Kerry Bowman, bioetyk z University of Toronto, twierdzi, że sztuczna inteligencja może potencjalnie negatywnie wpłynąć na obraz samego siebie, między innymi na kwestie etyczne.

„W pewnym sensie może to być świetna zabawa, ale te wyidealizowane obrazy są napędzane oczekiwaniami społecznymi, które mogą być bardzo okrutne i bardzo wąskie” – powiedział Bowman w poniedziałek.

Bowman powiedział, że te programy AI wykorzystują źródła danych, takie jak Internet, w poszukiwaniu różnych stylów artystycznych do tworzenia tych portretów. Minusem jest to, że gdy sztuczna inteligencja to robi, artyści rzadko otrzymują wynagrodzenie finansowe za korzystanie z ich pracy lub uznanie.

„To, co dzieje się z pojawiającą się sztuczną inteligencją, polega na tym, że przepisy nie były w stanie nadążyć za tym pod względem prawa autorskiego. Jest to bardzo trudne i bardzo niejasne, a etyka jest jeszcze bardziej za prawem, ponieważ uważam, że jest to zasadniczo niesprawiedliwe” – powiedział Bowman.

Obawy dotyczące danych osobowych

Bowman wyraził również obawy dotyczące sposobu przechowywania danych osobowych ludzi.

„Czy naprawdę chcesz mieć swoją twarz w dużej bazie danych? Ludzie muszą sami o tym decydować, ale to nie jest łagodne, nie ma w tym nic, to nie jest tylko zabawa” – powiedział.

Lensa twierdzi, że zdjęcia są przechowywane na serwerach iw aplikacjach nie dłużej niż 24 godziny. Dzięki algorytmom głębokiego uczenia i uczenia maszynowego sztuczna inteligencja gromadzi, a następnie dostarcza lepsze wyniki w przyszłości, również na podstawie usuniętych danych. Bowman mówi, że spowoduje to obawy dotyczące bezpieczeństwa związane z potencjalnym wykorzystaniem rozpoznawania twarzy, ponieważ tego typu dane mogą być wykorzystywane przez policję nielegalnie.

Znak czasu:

Więcej z MetaWiadomości