Anthropic zegt dat het uw privégegevens niet zal gebruiken om zijn AI te trainen - ontsleutelen

Anthropic zegt dat het uw privégegevens niet zal gebruiken om zijn AI te trainen – ontsleutelen

Anthropic zegt dat het uw privégegevens niet zal gebruiken om zijn AI te trainen - Decodeer PlatoBlockchain Data Intelligence. Verticaal zoeken. Ai.

De toonaangevende generatieve AI-startup Anthropic heeft verklaard dat het de gegevens van zijn klanten niet zal gebruiken om zijn Large Language Model (LLM) te trainen, en dat het tussenbeide zal komen om gebruikers te verdedigen die te maken krijgen met auteursrechtclaims.

Anthropic, opgericht door voormalige onderzoekers van OpenAI, heeft zijn commercial geüpdatet Algemene Voorwaarden om zijn idealen en bedoelingen uiteen te zetten. Door de privégegevens van zijn eigen klanten te ontginnen, onderscheidt Anthropic zich stevig van rivalen als OpenAI, Amazon en Meta, die wel gebruik maken van gebruikersinhoud om hun systemen te verbeteren.

“Anthropic mag geen modellen trainen op klantinhoud van betaalde diensten”, aldus de bijgewerkte voorwaarden, waarin wordt toegevoegd dat “anthropic tussen de partijen en voor zover toegestaan ​​door de toepasselijke wetgeving, ermee instemt dat de klant eigenaar is van alle outputs, en alle rechten daarop afwijst.” onder deze voorwaarden inhoud aan de klant ontvangt.”

De voorwaarden gaan verder met te zeggen dat “Anthropic niet verwacht dat er rechten zullen worden verkregen op de inhoud van klanten onder deze voorwaarden” en dat zij “geen van beide partijen enige rechten verlenen op de inhoud of het intellectuele eigendom van de ander, impliciet of anderszins.”

Het bijgewerkte juridische document biedt ogenschijnlijk bescherming en transparantie voor de commerciële klanten van Anthropic. Bedrijven zijn eigenaar van alle gegenereerde AI-outputs, waardoor bijvoorbeeld potentiële IE-geschillen worden vermeden. Anthropic verplicht zich er ook toe klanten te verdedigen tegen auteursrechtclaims op inbreukmakende inhoud geproduceerd door Claude.

Het beleid sluit aan bij De missie van Anthropic stelling dat AI nuttig, onschadelijk en eerlijk moet zijn. Naarmate het publieke scepticisme over de ethiek van generatieve AI groeit, kan de inzet van het bedrijf om problemen als gegevensprivacy aan te pakken het bedrijf een concurrentievoordeel opleveren.

Gebruikersgegevens: Vital Food van LLM's

Large Language Models (LLM's) zoals GPT-4, LlaMa of Claude van Anthropic zijn geavanceerde AI-systemen die menselijke taal begrijpen en genereren door te worden getraind op uitgebreide tekstgegevens. Deze modellen maken gebruik van deep learning-technieken en neurale netwerken om woordreeksen te voorspellen, de context te begrijpen en de subtiliteiten van taal te begrijpen. Tijdens de training verfijnen ze voortdurend hun voorspellingen, waardoor hun vermogen om te converseren, tekst op te stellen of relevante informatie te verstrekken wordt vergroot. De effectiviteit van LLM's hangt sterk af van de diversiteit en het volume van de gegevens waarop ze zijn getraind, waardoor ze nauwkeuriger en contextueel bewuster worden terwijl ze leren van verschillende taalpatronen, stijlen en nieuwe informatie.

En dit is de reden waarom de gegevens van gebruikers zo waardevol zijn bij het trainen van LLM’s. Ten eerste zorgt het ervoor dat de modellen op de hoogte blijven van de nieuwste taalkundige trends en gebruikersvoorkeuren (bijvoorbeeld het begrijpen van nieuwe straattaal). Ten tweede maakt het personalisatie en een betere gebruikersbetrokkenheid mogelijk door aanpassing aan individuele gebruikersinteracties en -stijlen. Dit leidt echter tot een ethisch debat omdat AI-bedrijven gebruikers niet betalen voor deze cruciale informatie die wordt gebruikt om modellen te trainen waarmee ze miljoenen dollars kunnen verdienen.

Zoals gerapporteerd door decoderen, Half onlangs onthuld dat het zijn aankomende LlaMA-3 LLM traint op basis van gebruikersgegevens en dat zijn nieuwe EMU-modellen (die foto's en video's genereren op basis van tekstprompts) ook zijn getraind met behulp van openbaar beschikbare gegevens die door zijn gebruikers op sociale media zijn geüpload.

Daarnaast onthulde Amazon ook dat de aankomende LLM, die een geüpgradede versie van Alexa zou aandrijven, ook wordt getraind in de gesprekken en interacties van gebruikers. Gebruikers kunnen zich echter afmelden voor de trainingsgegevens, die er standaard van uitgaan dat gebruikers het ermee eens zijn om deze informatie te delen. "[Amazon] heeft altijd geloofd dat het trainen van Alexa met verzoeken uit de echte wereld essentieel is om klanten een ervaring te bieden die accuraat en persoonlijk is en voortdurend beter wordt", zegt een woordvoerder van Amazon. vertelde decoderen. “Maar tegelijkertijd geven we klanten controle over de vraag of hun Alexa-spraakopnamen worden gebruikt om de service te verbeteren, en we houden altijd rekening met de voorkeuren van onze klanten wanneer we onze modellen trainen.”

Nu technologiegiganten racen om de meest geavanceerde AI-diensten op de markt te brengen, zijn verantwoorde datapraktijken van cruciaal belang om het vertrouwen van het publiek te winnen. Anthropic wil op dit vlak het goede voorbeeld geven. Het ethische debat over het verkrijgen van krachtigere en handigere modellen ten koste van het prijsgeven van persoonlijke informatie is vandaag de dag nog net zo wijdverspreid als tientallen jaren geleden, toen sociale media het concept van gebruikers populariseerden. het product worden in ruil voor gratis diensten.

Bewerkt door Ryan Ozawa.

Blijf op de hoogte van cryptonieuws, ontvang dagelijkse updates in je inbox.

Tijdstempel:

Meer van decoderen