Authors Guild pozywa OpenAI za używanie książek do szkolenia ChatGPT

Authors Guild pozywa OpenAI za używanie książek do szkolenia ChatGPT

Authors Guild sues OpenAI for using books to train ChatGPT PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Gildia Autorów, stowarzyszenie branżowe zrzeszające autorów publikacji, oraz 17 autorów spuściło smoki na OpenAI w związku z rzekomym wykorzystaniem ich dzieł do szkolenia chatbotów.

Wymienieni powodowie w pozwie zbiorowym o naruszenie praw autorskich – złożonym w południowym dystrykcie Nowego Jorku w związku z prawami autorskimi – to David Baldacci, Mary Bly, Michael Connelly, Sylvia Day, Jonathan Franzen, John Grisham, Elin Hilderbrand, Christina Baker Kline, Maya Shanbhag Lang , Victor LaValle, George RR Martin, Jodi Picoult, Douglas Preston, Roxana Robinson, George Saunders, Scott Turow i Rachel Vail.

Połączenia skarga [PDF] twierdzi, że usługi OpenAI „zagrażają możliwościom zarabiania na życie pisarzy beletrystycznych, ponieważ duże modele językowe pozwalają każdemu generować – automatycznie i swobodnie (lub bardzo tanio) – teksty, za których utworzenie w przeciwnym razie płaciliby pisarzom”.

Skrybowie są niezadowoleni, że OpenAI nie tylko szkoli swoje modele w zakresie ich pracy bez pozwolenia, ale także że systemy sztucznej inteligencji nieuczciwie kopiują ich teksty, odpowiadając na prośby ludzi, a przynajmniej tak się twierdzi.

W skardze wskazano, że ChatGPT zostało pomyślnie poproszony o stworzenie „szczegółowego planu książki będącej prequelem” Gra o tron … używając tych samych postaci z istniejących książek Martina z tej serii Pieśń lodu i ognia.” Podobne wyniki były możliwe w przypadku innych autorów, którzy dołączyli do pozwu.

Zdolność ChatGPT do tego jest problematyczna, biorąc pod uwagę, że autorzy oświadczyli, że nie upoważnili OpenAI do dostępu do ich dzieł, jak się wydaje, że to zrobili. Autorzy uważają, że kiedy laboratorium sztucznej inteligencji wprowadziło swoją pracę do modelu podczas szkolenia, było to równoznaczne z nieautoryzowanym kopiowaniem i że modele GPT generują nielegalne pochodne dzieła chronionego prawem autorskim.

„Sednem tych algorytmów jest systematyczna kradzież na masową skalę” – stwierdza dokumentacja pozwu.

W skardze stwierdzono, że OpenAI przyznało się do wykorzystywania zbiorów danych o nazwach „Books1” i „Books2” do uczenia swoich dużych modeli językowych, ale nie ujawniło ich zawartości. Powodowie podejrzewają, że pirackie książki przedostały się do danych szkoleniowych OpenAI.

„Wzrost mocy i wyrafinowania z GPT-3 do GPT-4 sugeruje korelacyjny wzrost rozmiaru „treningowych” zbiorów danych, nasuwając wniosek, że jedno lub więcej bardzo dużych źródeł pirackich e-booków opisanych powyżej musiało zostać wykorzystanych do „ trenuj GPT-4” – argumentuje się w skardze, dodając: „Nie ma innego sposobu, w jaki OpenAI mogłoby uzyskać taką liczbę książek wymaganą do „trenowania” potężnego LLM, takiego jak GPT-4”.

W rzeczywistości w skardze wspomina się jeszcze jeden sposób: płacenie za treści wykorzystywane do szkolenia ChatGPT. Jednak w pozwie zarzuca się, że OpenAI nigdy o tym nie myślało, i cytuje zeznania dyrektora generalnego Sama Altmana złożone przed Kongresem, że wierzy on w prawa autorskie i zapłacił za niektóre dane szkoleniowe.

„Dla autorów beletrystyki nieuprawnione wykorzystanie ich twórczości przez OpenAI jest kradzieżą tożsamości na wielką skalę” – stwierdziła dyrektor naczelna Authors Guild, Mary Rasenberger.

„Autorzy fikcji tworzą zupełnie nowe światy na podstawie swojej wyobraźni – tworzą miejsca, ludzi i wydarzenia w swoich opowieściach” – dodała, po czym zaczęła lamentować: „Ludzie już rozpowszechniają treści generowane przez wersje GPT, które naśladują oryginalnych autorów lub korzystają z nich „Bohaterowie i historie. Firmy sprzedają podpowiedzi, które pozwalają „wejść w świat” autorskich książek. Są to oczywiste naruszenia praw własności intelektualnej oryginalnych twórców”.

Powodowie żądają „odszkodowania za utraconą możliwość licencjonowania swoich dzieł oraz za uzurpację rynku, którą pozwani [OpenAI] umożliwili, czyniąc powodów niechętnymi wspólnikami we własnym zastąpieniu; oraz stały nakaz zapobiegający ponownemu wystąpieniu tych szkód.”

Rejestr poprosił OpenAI o komentarz i zaktualizuje tę historię, jeśli otrzymamy istotną odpowiedź. ®

Znak czasu:

Więcej z Rejestr