Narzędzie Uniwersytetu w Chicago chroni sztukę cyfrową przed skrobaniem AI

Narzędzie Uniwersytetu w Chicago chroni sztukę cyfrową przed skrobaniem AI

W ramach inicjatywy mającej na celu wzmocnienie pozycji artystów i ochronę ich cyfrowych dzieł sztuki przed nieuprawnionym użyciem naukowcy z Uniwersytetu w Chicago zaprezentowali „Nightshade” – narzędzie zaprojektowane do „zatruwania” sztuki cyfrowej.

Subtelnie zmieniając piksele w dziełach sztuki przed ich przesłaniem do Internetu, Nightshade gwarantuje, że każda próba Modele AI skrobanie i trenowanie tych obrazów spowoduje chaotyczne i nieprzewidywalne wyniki, skutecznie niszcząc modele.

Narzędzie to pojawia się w odpowiedzi na rosnące obawy i wyzwania prawne stojące przed gigantami sztucznej inteligencji, takimi jak OpenAI, Meta i Google, w związku z domaganiem się przez artystów na całym świecie poszanowania ich praw autorskich i własności intelektualnej.

Zdaniem osób zaznajomionych ze sprawą Nocny Cień nie tylko obiecuje przywrócić twórcom równowagę sił, ale także stanowi świadectwo innowacyjnych sposobów walki ze środowiskiem artystycznym.

Nocny Cień: Walka o prawa artystów

Opracowany pod przewodnictwem Bena Zhao, wybitnego profesora na Uniwersytecie w Chicago, Nightshade jest świadectwem odporności i innowacyjności społeczności artystycznej. Narzędzie wprowadza niewidoczne zmiany w pikselach dzieł sztuki, czyniąc je toksycznymi dla modeli AI, jeśli są używane bez pozwolenia.

Kiedy te „zatrute” obrazy zostaną wskrobane w zbiorze danych szkoleniowych, powodują one poważne awarie wyników AI, zamieniając psy w koty, samochody w krowy i tworząc niezliczoną ilość chaotycznych wyników. Technologia MIT Review, który otrzymał ekskluzywny podgląd trwających badań, podkreślił potencjał Nocnego Cienia w niszczeniu przyszłych iteracji wybitnych modele AI generujące obrazy takie jak DALL-E, Midjourney i Stable Diffusion.

Środek odstraszający przed naruszeniem

Nightshade nie polega tylko na sabotowaniu modeli sztucznej inteligencji; to potężny środek odstraszający, mający na celu przechylenie równowagi sił z powrotem na korzyść artystów. Z licznymi artyści składają pozwy przeciwko głównym korporacjom technologicznym za kradzież ich materiałów chronionych prawem autorskim bez zgody, Nocny Cień jawi się jako latarnia nadziei.

Udostępniając narzędzie jako open source i integrując je z innym narzędziem o nazwie Glaze, które maskuje styl artysty przed skrobakami AI, badacze dają artystom wybór. Mogą teraz aktywnie uczestniczyć w ochronie swojej pracy, jednocześnie przyczyniając się do rosnącego arsenału mechanizmów obrony przed nieautoryzowanym szkoleniem AI.

Wezwanie do solidnej obrony

Innowacje nie są jednak pozbawione wyzwań i potencjalnych zagrożeń. Według MIT Technology Review wprowadzenie Nightshade do sfery sztuki cyfrowej uwydatnia znaczną lukę w zabezpieczeniach generatywnych modeli sztucznej inteligencji wynikającą z ich uzależnienia od obszernych zbiorów danych pobranych z Internetu. Nightshade wykorzystuje to, „zatruwając” te zbiory danych.

Metoda ta wykazała skuteczność w badaniach przeprowadzonych na Stabilna dyfuzja najnowsze modele oraz model sztucznej inteligencji wytrenowany od podstaw przez badaczy.

Wyniki były surowe; przy zaledwie 50 obrazach zatrutych psów, wyniki Stable Diffusion zaczęły się zniekształcać, zamieniając obrazy psów w dziwaczne, kreskówkowe stworzenia. Jednak Zhao przyznaje, że istnieje potencjał złośliwego wykorzystania zatruwania danych, podkreślając potrzebę opracowania solidnych zabezpieczeń przed takimi atakami.

Narzędzie Uniwersytetu w Chicago Chroń sztukę cyfrową przed zdrapywaniem danych przez sztuczną inteligencję PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Narzędzie Uniwersytetu w Chicago Chroń sztukę cyfrową przed zdrapywaniem danych przez sztuczną inteligencję PlatoBlockchain Data Intelligence. Wyszukiwanie pionowe. AI.

Krok w stronę sprawiedliwości

Według ekspertów rozwój Nightshade i Glaze to krok w kierunku wzmocnienia pozycji artystów w erze cyfrowej, zapewnienia im narzędzi do ochrony ich pracy i podważenia status quo firm zajmujących się sztuczną inteligencją.

Zasady rezygnacji oferowane przez programiści AI krytykowano za nakładanie nadmiernych obciążeń na artystów i pozostawianie firmom nadmiernie zrównoważonych uprawnień. Nightshade rzuca temu wyzwanie, oferując artystom proaktywne środki ochrony ich twórczości i żądania poszanowania ich praw.

Znak czasu:

Więcej z MetaWiadomości