Granica między tworzeniem rzeczywistym a sztuczną inteligencją jest zbyt cienka dla oka

Granica między tworzeniem rzeczywistym a sztuczną inteligencją jest zbyt cienka dla oka

Granica między tworzeniem rzeczywistości a tworzeniem sztucznej inteligencji jest zbyt cienka dla oka PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Badacze ujawniają, że w miarę jak twórcy generatywnej sztucznej inteligencji w dalszym ciągu dostrajają swoje modele do poziomu wyrafinowania, coraz trudniej jest rozróżnić rzeczywiste obrazy od wytworów sztucznej inteligencji.

Badanie przeprowadzone przez naukowców z Uniwersytet Waterloo Ustalono, że ludziom trudno jest wyobrazić sobie obraz prawdziwej osoby i osoby wygenerowanej przez sztuczną inteligencję.

Poniżej oczekiwanego progu

Przeprowadzając badanie, naukowcy z Uniwersytetu Waterloo przekazali 20 nieopisanych zdjęć 260 uczestnikom. Połowa zdjęć przedstawiała prawdziwych ludzi pobranych z Grafiki Google, a druga połowa została wygenerowana przez sztuczną inteligencję przy użyciu narzędzi takich jak Dall-E i Stabilna dyfuzja.

Następnie uczestnicy zostali poproszeni o oznaczenie obrazów, uzasadniając swoje odpowiedzi, czy są prawdziwe, czy wygenerowane przez sztuczną inteligencję.

Chociaż 61% uczestników potrafiło odróżnić obrazy rzeczywiste od obrazów wygenerowanych przez sztuczną inteligencję, nadal było to znacznie poniżej oczekiwanego progu 85%.

Analizując obrazy, uczestnicy zwracali uwagę na szczegóły, takie jak oczy, palce, zęby i inne wskaźniki, które wskazywały, że podczas wyszukiwania sztucznej inteligencji tworzyły obrazy, ale „ich oceny nie zawsze były prawidłowe”.

„Ludzie nie są tak biegli w rozróżnianiu, jak im się wydaje” powiedziany główna autorka badania, Andrea Pocol, która jest także doktorantką informatyki na uniwersytecie.

Chociaż internauci mogą mimochodem oglądać obrazy, badacze z Waterloo twierdzą, że umożliwili uczestnikom poświęcenie czasu na analizę obrazów.

„Ludzie, którzy po prostu przeglądają zagładę lub nie mają czasu, nie wyłapią tych wskazówek” – powiedział Pocol.

Przeczytaj także: Dyrektor generalny Leonardo podkreśla głupotę użytkowników w związku z zagrożeniami AI w Davos

Nadużywanie technologii

Ich „The Puzzle of Monogamous Marriage” , zatytułowana „Widzieć nie znaczy już wierzyć: ankieta na temat stanu deepfakes, AI-Generated Humans, and Other Nonveridical Media”, która ukazuje się w czasopiśmie Advances in Computer Graphics, również podkreśla ryzyko związane z postępem w technologii generatywnej sztucznej inteligencji .

Naukowcy z niepokojem odnotowali także tempo, w jakim technologia generatywnej sztucznej inteligencji szybko się zmienia, stając się z każdym dniem coraz bardziej wyrafinowana. Badania akademickie i ustawodawstwo nie nadążają za rozwojem przemysłu generatywnego.

Pocol powiedział, że obrazy AI stają się coraz bardziej realne, co utrudnia niektórym osobom łatwe rozróżnienie między obrazami rzeczywistymi a obrazami wygenerowanymi przez sztuczną inteligencję. To, zdaniem Pocola, stwarza podatny grunt dla złych aktorów, którzy wykorzystują technologię do szerzenia złośliwości i utrwalania dezinformacji lub oszukiwania ludzi.

„Dezinformacja nie jest niczym nowym, ale narzędzia dezinformacji stale się zmieniają i ewoluują” – stwierdził Pocol.

„Może dojść do punktu, w którym ludzie, niezależnie od tego, jak bardzo będą wyszkoleni, nadal będą mieli trudności z odróżnieniem prawdziwych obrazów od podróbek. Dlatego musimy opracować narzędzia umożliwiające identyfikację i przeciwdziałanie temu zjawisku. To jak nowy wyścig zbrojeń AI.”

Naukowcy zdali sobie również sprawę z wyzwań, jakie stwarza ta technologia, zwłaszcza jeśli chodzi o rozprzestrzenianie deepfakes.

Technologia w niewłaściwych rękach

W związku z trudnościami, jakie napotykają zwykli ludzie w rozróżnieniu obrazów prawdziwych od fałszywych, rosną obawy przed wzrostem rozprzestrzeniania się deepfakes. Eksperci ostrzegają, że nieuczciwi aktorzy wykorzystają technologię generatywnej sztucznej inteligencji do szerzenia fałszerstw wyborczych, próbując wprowadzić wyborców w błąd.

Połączenia Centrum Zwalczania Cyfrowej Nienawiści (CCDH), organizacja non-profit monitorująca mowę nienawiści w Internecie, już to zrobiła ostrzeżony w swoim raporcie, że generatory obrazów oparte na sztucznej inteligencji pogłębiają dezinformację dotyczącą wyborów w 2024 r.

„Możliwość wykorzystania takich obrazów generowanych przez sztuczną inteligencję jako „zdjęcia dowodowe” może zaostrzyć rozprzestrzenianie się fałszywych twierdzeń, co stanowi poważne wyzwanie dla zachowania uczciwości wyborów” – stwierdzili w swoim raporcie badacze CCDH.

Dzieje się to jednak po ogłoszeniu, że około 20 dużych firm technologicznych, w tym OpenAI, Microsoft i Stabilność AI podpisał umowę współpracować, aby zapobiec „zakłócaniu zwodniczych treści AI w wyborach odbywających się na całym świecie w tym roku”.

Znak czasu:

Więcej z MetaWiadomości