Anthropic säger att det inte kommer att använda dina privata data för att träna sin AI - Dekryptera

Anthropic säger att det inte kommer att använda dina privata data för att träna sin AI – Dekryptera

Anthropic säger att den inte kommer att använda dina privata data för att träna sin AI - Dekryptera PlatoBlockchain Data Intelligence. Vertikal sökning. Ai.

Ledande generativa AI-startup Anthropic har deklarerat att de inte kommer att använda sina kunders data för att träna sin Large Language Model (LLM), och att de kommer att gå in för att försvara användare som står inför upphovsrättsanspråk.

Anthropic, grundat av tidigare forskare från OpenAI, uppdaterade sin reklamfilm Användarvillkor att beskriva dess ideal och avsikter. Genom att skära ut privata data från sina egna kunder, skiljer Anthropic sig starkt från rivaler som OpenAI, Amazon och Meta, som använder användarinnehåll för att förbättra sina system.

"Anthropic får inte träna modeller på kundinnehåll från betaltjänster", enligt de uppdaterade villkoren, som tillägger att "mellan parterna och i den utsträckning det är tillåtet enligt tillämplig lag, samtycker anthropic till att kunden äger alla utdata och frånsäger sig alla rättigheter som den tar emot innehåll till kunden enligt dessa villkor.”

Villkoren fortsätter med att säga att "Anthropic inte förväntar sig att erhålla några rättigheter till kundinnehåll enligt dessa villkor" och att de "inte ger någon av parterna några rättigheter till den andras innehåll eller immateriella rättigheter, underförstått eller på annat sätt."

Det uppdaterade juridiska dokumentet ger till synes skydd och transparens för Anthropics kommersiella kunder. Företag äger alla AI-utdata som genereras, till exempel för att undvika potentiella IP-tvister. Anthropic åtar sig också att försvara kunder från upphovsrättsanspråk på allt intrångsintrång som producerats av Claude.

Politiken överensstämmer med Antropics uppdrag uttalande att AI ska vara fördelaktigt, ofarligt och ärligt. När allmänhetens skepsis växer över etiken kring generativ AI, kan företagets engagemang för att ta itu med problem som datasekretess ge det en konkurrensfördel.

Användardata: LLMs Vital Food

Stora språkmodeller (LLM) som GPT-4, LlaMa eller Anthropics Claude är avancerade AI-system som förstår och genererar mänskligt språk genom att tränas på omfattande textdata. Dessa modeller utnyttjar tekniker för djupinlärning och neurala nätverk för att förutsäga ordsekvenser, förstå sammanhang och förstå språkets finesser. Under träningen förfinar de ständigt sina förutsägelser, vilket förbättrar deras förmåga att konversera, skriva text eller tillhandahålla relevant information. LLMs effektivitet beror till stor del på mångfalden och volymen av de data som de utbildas på, vilket gör dem mer exakta och kontextuellt medvetna när de lär sig av olika språkmönster, stilar och ny information.

Och det är därför användarnas data är så värdefulla vid utbildning av LLM:er. För det första säkerställer det att modellerna håller sig uppdaterade med de senaste språktrenderna och användarpreferenserna (till exempel att förstå nya slangar). För det andra möjliggör den personalisering och bättre användarengagemang genom att anpassa sig till individuella användarinteraktioner och stilar. Detta skapar dock en etisk debatt eftersom AI-företag inte betalar användarna för denna avgörande information som används för att träna modeller som tjänar dem på miljontals dollar.

Som rapporterats av Avkryptera, Hälften nyligen avslöjade att det utbildar sin kommande LlaMA-3 LLM baserat på användardata och dess nya EMU-modeller (som genererar foton och videor från textmeddelanden) tränades också med hjälp av allmänt tillgänglig data som laddats upp av dess användare på sociala medier.

Förutom det avslöjade Amazon också att dess kommande LLM, som skulle driva en uppgraderad version av Alexa, också tränas på användarnas konversationer och interaktioner, men användare kan välja bort träningsdata som som standard är inställd på att anta att användarna håller med att dela denna information. "[Amazon] har alltid trott att utbildning av Alexa med verkliga förfrågningar är avgörande för att ge kunderna en upplevelse som är korrekt och personlig och ständigt blir bättre", en talesperson för Amazon. berättade Avkryptera. "Men samtidigt ger vi kunder kontroll över huruvida deras Alexa-röstinspelningar används för att förbättra tjänsten, och vi respekterar alltid våra kunders preferenser när vi tränar våra modeller."

Med tekniska jättar som tävlar om att släppa de mest avancerade AI-tjänsterna, är ansvarsfull datapraxis nyckeln till att vinna allmänhetens förtroende. Anthropic strävar efter att föregå med gott exempel i detta avseende. Den etiska debatten om att få kraftfullare och bekvämare modeller på bekostnad av att lämna ut personlig information är lika utbredd idag som för decennier sedan när sociala medier populariserade begreppet användare blir produkten i utbyte mot gratistjänster.

Redigerad av Ryan Ozawa.

Håll dig uppdaterad om kryptonyheter, få dagliga uppdateringar i din inkorg.

Tidsstämpel:

Mer från Avkryptera