Anthropic siger, at den ikke vil bruge dine private data til at træne sin AI - Dekrypter

Anthropic siger, at den ikke vil bruge dine private data til at træne sin AI – Dekrypter

Anthropic Says It Won’t Use Your Private Data to Train Its AI - Decrypt PlatoBlockchain Data Intelligence. Vertical Search. Ai.

Førende generative AI-startup Anthropic har erklæret, at den ikke vil bruge sine kunders data til at træne sin Large Language Model (LLM), og at den vil træde til for at forsvare brugere, der står over for ophavsretskrav.

Anthropic, grundlagt af tidligere forskere fra OpenAI, opdaterede sin reklame Servicevilkår at præcisere dets idealer og hensigter. Ved at udskille sine egne kunders private data adskiller Anthropic sig solidt fra rivaler som OpenAI, Amazon og Meta, som udnytter brugerindhold til at forbedre deres systemer.

"Anthropic må ikke træne modeller på kundeindhold fra betalte tjenester," ifølge de opdaterede vilkår, som tilføjer, at "som mellem parterne og i det omfang, det er tilladt i henhold til gældende lovgivning, accepterer anthropic, at kunden ejer alle output, og fraskriver sig enhver rettigheder det modtager til kunden indhold i henhold til disse vilkår."

Vilkårene fortsætter med at sige, at "Anthropic forventer ikke at opnå nogen rettigheder til kundeindhold i henhold til disse vilkår", og at de "ikke giver nogen af ​​parterne nogen rettigheder til den andens indhold eller intellektuelle ejendom, hverken implicit eller på anden måde."

Det opdaterede juridiske dokument giver tilsyneladende beskyttelse og gennemsigtighed for Anthropics kommercielle kunder. Virksomheder ejer alle AI-output, der genereres, for eksempel for at undgå potentielle IP-tvister. Anthropic forpligter sig også til at forsvare klienter mod ophavsretskrav over alt krænkende indhold produceret af Claude.

Politikken er i overensstemmelse med Antropics mission erklæring om, at AI skal være gavnligt, harmløst og ærligt. Efterhånden som den offentlige skepsis vokser over etikken i generativ AI, kan virksomhedens forpligtelse til at imødegå bekymringer som databeskyttelse give det en konkurrencefordel.

Brugerdata: LLM'ers Vital Food

Store sprogmodeller (LLM'er) som GPT-4, LlaMa eller Anthropics Claude er avancerede AI-systemer, der forstår og genererer menneskeligt sprog ved at blive trænet i omfattende tekstdata. Disse modeller udnytter dybe læringsteknikker og neurale netværk til at forudsige ordsekvenser, forstå kontekst og forstå sprogets finesser. Under træningen forfiner de løbende deres forudsigelser, hvilket forbedrer deres evne til at tale, skrive tekst eller give relevant information. Effektiviteten af ​​LLM'er afhænger i høj grad af mangfoldigheden og mængden af ​​de data, de trænes på, hvilket gør dem mere nøjagtige og kontekstuelt bevidste, når de lærer af forskellige sprogmønstre, stilarter og ny information.

Og det er grunden til, at brugernes data er så værdifulde til træning af LLM'er. For det første sikrer det, at modellerne holder sig opdaterede med de seneste sproglige trends og brugerpræferencer (for eksempel at forstå nye slangs). For det andet giver det mulighed for personalisering og bedre brugerengagement ved at tilpasse sig individuelle brugerinteraktioner og stilarter. Dette genererer dog en etisk debat, fordi AI-virksomheder ikke betaler brugere for denne afgørende information, som bruges til at træne modeller, der tjener dem til millioner af dollars.

Som rapporteret af Dekryptér, Meta for nylig afsløret at det træner sin kommende LlaMA-3 LLM baseret på brugernes data, og dets nye EMU-modeller (som genererer fotos og videoer fra tekstprompter) blev også trænet ved hjælp af offentligt tilgængelige data uploadet af dets brugere på sociale medier.

Udover det afslørede Amazon også, at dets kommende LLM, som vil drive en opgraderet version af Alexa, også trænes i brugernes samtaler og interaktioner, men brugere kan fravælge træningsdataene, som som standard er indstillet til at antage, at brugerne er enige at dele denne information."[Amazon] har altid troet, at træning af Alexa med anmodninger fra den virkelige verden er afgørende for at levere en oplevelse til kunder, der er nøjagtig og personlig og konstant bliver bedre," en talsmand for Amazon. fortalt Dekryptér. "Men samtidig giver vi kunderne kontrol over, om deres Alexa-stemmeoptagelser bruges til at forbedre tjenesten, og vi respekterer altid vores kundepræferencer, når vi træner vores modeller."

Med tech-giganter, der ræser om at frigive de mest avancerede AI-tjenester, er ansvarlig datapraksis nøglen til at tjene offentlighedens tillid. Anthropic har til formål at gå foran med et godt eksempel i denne henseende. Den etiske debat om at få mere kraftfulde og bekvemme modeller på bekostning af at afgive personlige oplysninger er lige så udbredt i dag, som den var for årtier siden, da sociale medier populariserede begrebet brugere bliver produktet til gengæld for gratis tjenester.

Redigeret af Ryan Ozawa.

Hold dig opdateret med kryptonyheder, få daglige opdateringer i din indbakke.

Tidsstempel:

Mere fra Dekryptér