Anthropic sier at den ikke vil bruke dine private data til å trene AI - Dekrypter

Anthropic sier at den ikke vil bruke dine private data til å trene AI – Dekrypter

Anthropic sier at den ikke vil bruke dine private data til å trene sin AI - Dekrypter PlatoBlockchain-dataintelligens. Vertikalt søk. Ai.

Den ledende generative AI-oppstarten Anthropic har erklært at den ikke vil bruke kundenes data til å trene sin store språkmodell (LLM), og at den vil gå inn for å forsvare brukere som står overfor opphavsrettskrav.

Anthropic, grunnlagt av tidligere forskere fra OpenAI, oppdaterte reklamefilmen sin Våre vilkår å presisere sine idealer og intensjoner. Ved å dele ut de private dataene til sine egne kunder, skiller Anthropic seg solid fra rivaler som OpenAI, Amazon og Meta, som utnytter brukerinnhold for å forbedre systemene sine.

"Anthropic kan ikke trene modeller på kundeinnhold fra betalte tjenester," ifølge de oppdaterte vilkårene, som legger til at "som mellom partene og i den grad det er tillatt av gjeldende lov, samtykker anthropic i at kunden eier alle utdata, og fraskriver seg alle rettigheter det mottar innhold til kunden i henhold til disse vilkårene."

Vilkårene fortsetter med å si at "Anthropic forventer ikke å oppnå noen rettigheter til kundeinnhold i henhold til disse vilkårene" og at de "ikke gir noen av partene noen rettigheter til den andres innhold eller immaterielle eiendom, enten implisitt eller på annen måte."

Det oppdaterte juridiske dokumentet gir tilsynelatende beskyttelse og åpenhet for Anthropics kommersielle kunder. Bedrifter eier alle AI-utganger generert, for eksempel for å unngå potensielle IP-tvister. Anthropic forplikter seg også til å forsvare klienter mot opphavsrettskrav over alt krenkende innhold produsert av Claude.

Politikken er i tråd med Antropics oppdrag uttalelse om at AI skal være fordelaktig, ufarlig og ærlig. Etter hvert som den offentlige skepsisen vokser over etikken til generativ AI, kan selskapets forpliktelse til å ta opp bekymringer som datapersonvern gi det et konkurransefortrinn.

Brukerdata: LLMs Vital Food

Store språkmodeller (LLM) som GPT-4, LlaMa eller Anthropics Claude er avanserte AI-systemer som forstår og genererer menneskelig språk ved å bli trent på omfattende tekstdata. Disse modellene utnytter dyplæringsteknikker og nevrale nettverk for å forutsi ordsekvenser, forstå kontekst og forstå språkets finesser. Under treningen avgrenser de kontinuerlig sine spådommer, og forbedrer deres evne til å snakke, skrive tekst eller gi relevant informasjon. Effektiviteten til LLM-er avhenger sterkt av mangfoldet og volumet av dataene de blir trent på, noe som gjør dem mer nøyaktige og kontekstuelt bevisste når de lærer av ulike språkmønstre, stiler og ny informasjon.

Og dette er grunnen til at brukernes data er så verdifulle for opplæring av LLM-er. For det første sikrer det at modellene holder seg oppdatert med de siste språktrendene og brukerpreferansene (for eksempel å forstå nye slanger). For det andre gir det mulighet for personalisering og bedre brukerengasjement ved å tilpasse seg individuelle brukerinteraksjoner og stiler. Dette genererer imidlertid en etisk debatt fordi AI-selskaper ikke betaler brukere for denne viktige informasjonen som brukes til å trene modeller som tjener dem til millioner av dollar.

Som rapportert av dekryptere, Halvparten nylig avslørt at den trener opp sin kommende LlaMA-3 LLM basert på brukernes data og dens nye EMU-modeller (som genererer bilder og videoer fra tekstmeldinger) ble også trent ved å bruke offentlig tilgjengelig data lastet opp av brukerne på sosiale medier.

I tillegg avslørte Amazon også at dets kommende LLM, som vil drive en oppgradert versjon av Alexa, også blir trent på brukernes samtaler og interaksjoner, men brukere kan velge bort treningsdataene som som standard er satt til å anta at brukerne er enige å dele denne informasjonen. «[Amazon] har alltid ment at opplæring av Alexa med forespørsler fra den virkelige verden er avgjørende for å levere en opplevelse til kunder som er nøyaktig og personlig og som stadig blir bedre,» en talsperson for Amazon fortalte dekryptere. "Men samtidig gir vi kundene kontroll over om Alexa-stemmeopptakene deres brukes til å forbedre tjenesten, og vi respekterer alltid kundenes preferanser når vi trener modellene våre."

Med teknologigiganter som kjemper for å frigi de mest avanserte AI-tjenestene, er ansvarlig datapraksis nøkkelen til å tjene offentlig tillit. Anthropic har som mål å gå foran som et godt eksempel i denne forbindelse. Den etiske debatten om å få kraftigere og mer praktiske modeller på bekostning av å avgi personlig informasjon er like utbredt i dag som for tiår siden da sosiale medier populariserte konseptet brukere blir produktet i bytte mot gratis tjenester.

Redigert av Ryan Ozawa.

Hold deg oppdatert på kryptonyheter, få daglige oppdateringer i innboksen din.

Tidstempel:

Mer fra dekryptere