Komiker, romanförfattare stämmer OpenAI för att ha skrapat böcker

Komiker, romanförfattare stämmer OpenAI för att ha skrapat böcker

Komiker, romanförfattare stämmer OpenAI för att ha skrapat böcker PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

AI i korthet De prisbelönta romanförfattarna Paul Tremblay och Mona Awad, och, separat komikern Sarah Silverman och romanförfattarna Christopher Golden och Richard Kadrey, har stämt OpenAI och anklagat uppstarten för att träna ChatGPT på deras böcker utan samtycke, vilket bryter mot upphovsrättslagarna.

Stämningarna, båda inlämnade till Northern District Court of San Francisco, säger att ChatGPT genererar korrekta sammanfattningar av deras böcker och framhävde detta som bevis för programvaran som tränas i deras arbete.

"OpenAI gjorde kopior av kärandenas böcker under utbildningsprocessen för OpenAI-språkmodellerna utan kärandens tillstånd. Specifikt kopierade OpenAI åtminstone käranden Tremblays bok Stugan i slutet av världen; och käranden Awads böcker 13 sätt att se på en fet tjej och Kanin," enligt domstolsdokument [PDF] i första färgen.

I den andra färgen, Silverman et al [PDF], gör liknande påståenden. Trion gör också en poäng av att påstå att deras böcker, inklusive Silvermans bok, en komisk självbiografi med titeln The Bedwetter, innehåller viss information om upphovsrättshantering som skulle ha inkluderats i de legitima, upphovsrättsskyddade böckerna. Detta är grunden för det tredje åtalet som de hävdar mot OpenAI, ett påstående att det bröt mot DCMA genom att ta bort informationen om upphovsrättshantering. I stämningsansökan står det: "Vid ingen tidpunkt reproducerade ChatGPT någon av de upphovsrättshanteringsuppgifter som käranden inkluderade i deras publicerade verk."

OpenAI tränar sina stora språkmodeller genom att skrapa text från internet, och även om det inte har avslöjat exakt vilka resurser den har slukt upp, har startupen erkänt att de tränar sina system på hundratusentals böcker som skyddas av upphovsrätt och lagras på webbplatser som Sci-Hub eller Bibliotik. 

Alla författarna tror att deras böcker har intagits av ChatGPT utan deras tillåtelse, och att OpenAI tjänar på deras arbete utan tillskrivning. De har inlett en grupptalan för andra författare att ansluta sig och begär kompenserande skadestånd och permanenta förelägganden för att stoppa OpenAI från att fortsätta i sina handlingar. 

På tal om OpenAI... Det har frigörs Code Interpreter, ett plugin för ChatGPT Plus-prenumeranter som kan analysera uppladdade filer, så att användare kan fråga och redigera sina dokument, skapa diagram och så vidare. Den hävdar också att den kör kod.

Adobe begränsar anställda från att använda generativa AI-verktyg från tredje part

Mjukvarujätten Adobe har förbjudit anställda att använda sina privata e-postadresser eller företagskreditkort för att registrera sig och betala för produkter och tjänster för maskininlärning.

Informationschef Cindy Stoddard varnade personalen för att skydda teknikjättens data och att inte använda generativa AI-verktyg på ett sätt som kan skada dess verksamhet, kunder eller arbetsstyrka, Business Insider rapporterade.

Adobe har inte direkt förbjudit tredjepartsprogram som ChatGPT, men har strikta restriktioner på vad som är tillåtet och inte tillåtet på sådana system. Anställda bör inte avslöja sina inmatningsuppmaningar, ladda upp privata Adobe-data eller kod för att generera e-postutkast, sammanfatta dokument eller korrigera programbuggar.

De bör också se till att välja bort att innehåll från deras konversationer används som träningsdata. Dessutom kan de inte registrera sig för att använda dessa verktyg med sina egna privata e-postadresser eller betala för ett abonnemang med sina företagskreditkort (eller betala med ett personligt kort och kräva tillbaka det som en kostnad). 

Adobe ansluter sig till en växande lista av företag inklusive Amazon, Samsungoch Apple, som har begränsat eller förbjudit anställda att använda generativa AI-applikationer på grund av datasekretessproblem.

Det amerikanska försvarsdepartementet testar LLM

Pentagon testar fem stora språkmodellers förmåga att lösa textbaserade uppgifter som en dag kan hjälpa till i beslutsfattande och strid.

Modellerna matas med topphemliga dokument och ombeds att hjälpa till att planera och lösa hypotetiska scenarier, som en global kris. Vissa uppgifter, som att begära information från specifika militära enheter, kan ibland ta personaltimmar eller dagar att utföra, men stora språkmodeller kan tillhandahålla data inom några minuter.

Ett test ska ha genomfört en begäran på bara tio minuter. Men tekniken är notoriskt knepig, dess prestanda kan bero på hur förfrågan är formulerad och den är benägen att generera falsk information. 

"Det betyder inte att det är redo för bästa sändningstid just nu. Men vi gjorde det bara live. Vi gjorde det med data på hemlig nivå, säger Matthew Strohmeyer, en överste från det amerikanska flygvapnet berättade Bloomberg militären kan distribuera stora språkmodeller snart.

Pentagon avslöjade inte vilka modeller de testade. Scale AI avslöjade dock enligt uppgift att en av dem är dess försvarsorienterade Donovan-system. Andra potentiella system kan vara OpenAI:s modeller som erbjuds via Microsofts Azure Government-plattform, eller andra verktyg byggda av försvarsentreprenörer som Palantir eller Anduril. ®

Tidsstämpel:

Mer från Registret