Anthropic spune că nu va folosi datele tale private pentru a-și antrena AI - Decriptează

Anthropic spune că nu va folosi datele dumneavoastră private pentru a-și antrena AI – Decriptare

Anthropic spune că nu va folosi datele tale private pentru a-și antrena AI - Decriptează PlatoBlockchain Data Intelligence. Căutare verticală. Ai.

Startup-ul lider generativ de inteligență artificială, Anthropic, a declarat că nu va folosi datele clienților săi pentru a-și instrui modelul de limbă mare (LLM) și că va interveni pentru a apăra utilizatorii care se confruntă cu revendicări de drepturi de autor.

Anthropic, fondată de foști cercetători de la OpenAI, și-a actualizat reclama Termeni şi Condiții să-și explice idealurile și intențiile. Prin exploatarea datelor private ale propriilor clienți, Anthropic se diferențiază solid de rivali precum OpenAI, Amazon și Meta, care folosesc conținutul utilizatorilor pentru a-și îmbunătăți sistemele.

„Anthropic nu poate antrena modele cu privire la conținutul clienților din serviciile plătite”, conform condițiilor actualizate, care adaugă că „între părți și în măsura permisă de legea aplicabilă, anthropic este de acord că clientul deține toate ieșirile și își declină orice drepturi. primește conținut pentru client în conformitate cu acești termeni.”

Termenii spun că „Anthropic nu anticipează obținerea de drepturi asupra conținutului clienților în conformitate cu acești termeni” și că „nu acordă niciunei părți niciun drept asupra conținutului sau asupra proprietății intelectuale a celeilalte, implicit sau în alt mod”.

Documentul legal actualizat oferă aparent protecție și transparență clienților comerciali ai Anthropic. Companiile dețin toate rezultatele generate de IA, de exemplu, evitând potențialele dispute privind IP. Anthropic se angajează, de asemenea, să apere clienții de reclamațiile privind drepturile de autor asupra oricărui conținut care încalcă drepturile produs de Claude.

Politica se aliniază cu Misiunea antropică afirmația că AI ar trebui să fie benefică, inofensivă și sinceră. Pe măsură ce scepticismul publicului crește față de etica AI generativă, angajamentul companiei de a aborda preocupări precum confidențialitatea datelor i-ar putea oferi un avantaj competitiv.

Datele utilizatorilor: LLMs’ Vital Food

Modelele de limbaj mari (LLM) precum GPT-4, LlaMa sau Anthropic’s Claude sunt sisteme avansate de inteligență artificială care înțeleg și generează limbajul uman prin instruire pe date text extinse. Aceste modele folosesc tehnici de învățare profundă și rețele neuronale pentru a prezice secvențele de cuvinte, a înțelege contextul și a înțelege subtilitățile limbajului. În timpul antrenamentului, ei își perfecționează continuu predicțiile, îmbunătățindu-și capacitatea de a conversa, de a compune text sau de a oferi informații relevante. Eficacitatea LLM-urilor depinde în mare măsură de diversitatea și volumul datelor pe care sunt instruiți, făcându-le mai precise și mai conștiente din punct de vedere contextual, pe măsură ce învață din diferite modele lingvistice, stiluri și informații noi.

Și acesta este motivul pentru care datele utilizatorilor sunt atât de valoroase în formarea LLM-urilor. În primul rând, se asigură că modelele rămân la curent cu cele mai recente tendințe lingvistice și preferințele utilizatorilor (de exemplu, înțelegerea noilor argou). În al doilea rând, permite personalizarea și implicarea mai bună a utilizatorilor prin adaptarea la interacțiunile și stilurile individuale ale utilizatorului. Cu toate acestea, acest lucru generează o dezbatere etică, deoarece companiile de inteligență artificială nu plătesc utilizatorii pentru această informație crucială care este folosită pentru a antrena modele care le câștigă milioane de dolari.

După cum sa raportat de către decriptaţi, Jumătate a dezvăluit recent că își antrenează viitorul LlaMA-3 LLM pe baza datelor utilizatorilor și noile sale modele EMU (care generează fotografii și videoclipuri din mesaje text) au fost, de asemenea, instruite folosind date disponibile public încărcate de utilizatorii săi pe rețelele sociale.

În plus, Amazon a mai dezvăluit că viitorul său LLM, care ar alimenta o versiune actualizată a Alexa, este, de asemenea, instruit cu privire la conversațiile și interacțiunile utilizatorilor, totuși, utilizatorii pot renunța la datele de instruire, care implicit sunt setate să presupună că utilizatorii sunt de acord. pentru a împărtăși aceste informații. „[Amazon] a crezut întotdeauna că instruirea Alexa cu solicitări din lumea reală este esențială pentru a oferi clienților o experiență precisă și personalizată și care se îmbunătățește constant”, un purtător de cuvânt al Amazon. a spus decriptaţi. „Dar în tandem, le oferim clienților control asupra faptului că înregistrările lor vocale Alexa sunt folosite pentru a îmbunătăți serviciul și ne onorăm întotdeauna preferințele clienților atunci când ne antrenăm modelele.”

Cu giganții tehnologiei care se întrec pentru a lansa cele mai avansate servicii de inteligență artificială, practicile responsabile de date sunt cheia pentru a câștiga încrederea publicului. Anthropic își propune să conducă prin exemplu în acest sens. Dezbaterea etică cu privire la obținerea de modele mai puternice și mai convenabile în detrimentul predării informațiilor personale este la fel de răspândită astăzi ca acum zeci de ani, când social media a popularizat conceptul de utilizatori. devenind produsul în schimbul serviciilor gratuite.

Editat de Ryan Ozawa.

Fiți la curent cu știrile cripto, primiți actualizări zilnice în căsuța dvs. de e-mail.

Timestamp-ul:

Mai mult de la decriptaţi