Dlaczego pozew „New York Timesa” dotyczący praw autorskich dotyczący sztucznej inteligencji będzie trudny do obrony

Dlaczego pozew „New York Timesa” dotyczący praw autorskich dotyczący sztucznej inteligencji będzie trudny do obrony

Dlaczego pozew New York Timesa dotyczący praw autorskich dotyczący sztucznej inteligencji będzie trudny w obronie PlatoBlockchain Data Intelligence Wyszukiwanie pionowe. AI.

„The New York Times” (NYT) postępowanie sądowe przeciwko OpenAI i Microsoft otworzyła nową granicę w bieżących wyzwaniach prawnych wynikających z wykorzystania danych chronionych prawem autorskim do „trenowania” lub ulepszania generatywnej sztucznej inteligencji.

Istnieje już wiele pozwów przeciwko firmom zajmującym się sztuczną inteligencją, w tym jeden wniesiony przez Getty Images przeciwko stabilności AI, co sprawia, że ​​Stable Diffusion jest generatorem zamiany tekstu na obraz online. Autorzy George RR Martin i John Grisham również wnieśli sprawy sądowe przeciwko właścicielowi ChatGPT OpenAI w związku z roszczeniami dotyczącymi praw autorskich. Ale sprawa NYT nie jest „bardziej taka sama”, ponieważ dodaje do tego nowe, interesujące argumenty.

Działania prawne skupiają się na wartość danych szkoleniowych i nowe pytanie dotyczące szkody dla reputacji. Jest to silne połączenie znaków towarowych i praw autorskich, które może przetestować zwykle stosowane zabezpieczenia w zakresie dozwolonego użytku.

Bez wątpienia będzie to uważnie obserwowane przez organizacje medialne, które chcą rzucić wyzwanie zwykłemu podejściu do danych szkoleniowych w stylu „prośmy o przebaczenie, a nie o pozwolenie”. Dane szkoleniowe służą do poprawy wydajności systemów sztucznej inteligencji i zazwyczaj składają się z informacji ze świata rzeczywistego, często pobieranych z Internetu.

W pozwie przedstawiono także nowy argument – ​​nie wysunięty w innych podobnych sprawach – który jest powiązany z czymś, co nazywa się „halucynacje”, gdy systemy sztucznej inteligencji generują fałszywe lub wprowadzające w błąd informacje, ale przedstawiają je jako fakt. Argument ten może być w rzeczywistości jednym z najpotężniejszych w tej sprawie.

W szczególności sprawa NYT podnosi trzy interesujące podejścia do zwykłego podejścia. Po pierwsze, ze względu na reputację wiarygodnych wiadomości i informacji, treści NYT zwiększyły wartość i przydatność jako dane szkoleniowe do wykorzystania w sztucznej inteligencji.

Po drugie, ze względu na paywall NYT powielanie artykułów na żądanie jest szkodliwe z handlowego punktu widzenia. Po trzecie, to ChatGPT halucynacje wyrządzają szkodę reputacji „New York Timesa” w rzeczywistości poprzez fałszywe atrybucje.

To nie jest kolejny spór dotyczący praw autorskich do sztucznej inteligencji. Pierwszym argumentem prezentowanym przez NYT jest to, że dane szkoleniowe wykorzystywane przez OpenAI są chronione prawem autorskim, w związku z czym twierdzą, że faza szkoleniowa ChatGPT narusza prawa autorskie. Widzieliśmy tego typu argumentację biegnij wcześniej w innych sporach.

Dozwolonego użytku?

Wyzwaniem dla tego typu ataku jest tarcza dozwolonego użytku. W Stanach Zjednoczonych dozwolony użytek to doktryna prawna zezwalająca na wykorzystanie materiałów chronionych prawem autorskim w pewnych okolicznościach, np. w reportażach prasowych, pracach akademickich i komentarzach.

Odpowiedź OpenAI jak dotąd zachowywał się bardzo ostrożnie, ale kluczowym założeniem oświadczenia wydanego przez firmę jest to, że wykorzystywanie przez nią danych online rzeczywiście podlega zasadzie „dozwolonego użytku”.

Przewidując pewne trudności, jakie może potencjalnie spowodować taka obrona dotycząca dozwolonego użytku, NYT przyjął nieco inny punkt widzenia. W szczególności stara się odróżnić swoje dane od danych standardowych. NYT zamierza wykorzystać to, co uważa za dokładność, wiarygodność i prestiż swoich reportaży. Twierdzi, że tworzy to szczególnie pożądany zbiór danych.

Argumentuje, że jako renomowane i zaufane źródło jej artykuły mają dodatkową wagę i niezawodność w szkoleniu generatywnej sztucznej inteligencji i stanowią część podzbioru danych, któremu w tym szkoleniu przypisuje się dodatkową wagę.

Argumentuje, że ChatGPT, w dużej mierze powielając artykuły po namowie, może odrzucić NYT, który jest płatny, odwiedzających i przychodów, jakie uzyskałby w przeciwnym razie. Wydaje się, że to wprowadzenie pewnych aspektów konkurencji handlowej i przewagi handlowej ma na celu udaremnienie zwykłej obrony w ramach dozwolonego użytku, wspólnej dla tych twierdzeń.

Ciekawie będzie sprawdzić, czy zapewnienie specjalnego ważenia w danych szkoleniowych ma wpływ. Jeśli tak się stanie, umożliwi to innym organizacjom medialnym zakwestionowanie wykorzystania ich raportów w danych szkoleniowych bez pozwolenia.

Ostatni element twierdzenia NYT przedstawia wyzwanie z nowego punktu widzenia. Sugeruje to, że materiał wytwarzany przez ChatGPT wyrządza szkody marce NYT. Chociaż zostało to niemal na marginesie przedstawione w skardze, może to być właśnie roszczenie, które sprawia OpenAI najwięcej trudności.

Jest to argument związany z halucynacjami AI. NYT argumentuje, że sytuacja jest jeszcze bardziej skomplikowana, ponieważ ChatGPT przedstawia informacje jako pochodzące z NYT.

Gazeta sugeruje ponadto, że konsumenci mogą działać w oparciu o podsumowanie podane przez ChatGPT, uważając, że informacje pochodzą z NYT i można im ufać. Szkoda dla reputacji wynika z tego, że gazeta nie ma kontroli nad tym, co produkuje ChatGPT.

To ciekawe wyzwanie na zakończenie. Halucynacje to uznany problem, na który reagują sztuczna inteligencja, a NYT argumentuje, że naprawienie szkody dla reputacji może nie być łatwe.

Twierdzenie NYT otwiera szereg nowatorskich ataków, które przenoszą uwagę z praw autorskich na sposób prezentowania użytkownikom danych chronionych prawem autorskim przez ChatGPT i wartość tych danych dla gazety. Jest to znacznie trudniejsze do obrony dla OpenAI.

Sprawie tej będą uważnie przyglądać się inni wydawcy mediów, zwłaszcza ci stojący za paywallami, ze szczególnym uwzględnieniem jej interakcji ze zwykłą obroną dotyczącą dozwolonego użytku.

Jeśli zbiór danych NYT zostanie uznany za mający „większą wartość”, o której twierdzi, może to utorować drogę do monetyzacji tego zbioru danych w szkoleniu sztucznej inteligencji, zamiast dominującego obecnie podejścia „przebaczenie, a nie pozwolenie”.

Artykuł został opublikowany ponownie Konwersacje na licencji Creative Commons. Przeczytać oryginalny artykuł.

Kredytowych Image: AbsolutVision / Unsplash 

Znak czasu:

Więcej z Centrum osobliwości