Anthropic afferma che non utilizzerà i tuoi dati privati ​​per addestrare la sua intelligenza artificiale - Decrypt

Anthropic afferma che non utilizzerà i tuoi dati privati ​​per addestrare la sua intelligenza artificiale – Decrittografa

Anthropic afferma che non utilizzerà i tuoi dati privati ​​per addestrare la sua intelligenza artificiale: decrittografa la data intelligence di PlatoBlockchain. Ricerca verticale. Ai.

La principale startup di intelligenza artificiale generativa Anthropic ha dichiarato che non utilizzerà i dati dei suoi clienti per addestrare il suo Large Language Model (LLM) e che interverrà per difendere gli utenti che devono affrontare rivendicazioni sul copyright.

Anthropic, fondata da ex ricercatori di OpenAI, ha aggiornato il suo spot Termini di Servizio per precisare i suoi ideali e le sue intenzioni. Ritagliando i dati privati ​​dei propri clienti, Anthropic si sta differenziando nettamente da rivali come OpenAI, Amazon e Meta, che sfruttano i contenuti degli utenti per migliorare i propri sistemi.

"Anthropic non può formare modelli sui contenuti del cliente provenienti da servizi a pagamento", secondo i termini aggiornati, che aggiungono che "tra le parti e nella misura consentita dalla legge applicabile, Anthropic concorda che il cliente possiede tutti gli output e nega qualsiasi diritto su di esso". riceve al cliente i contenuti secondo questi termini."

I termini continuano affermando che "Anthropic non prevede di ottenere alcun diritto sui contenuti dei clienti in base a questi termini" e che "non concedono a nessuna delle parti alcun diritto sui contenuti o sulla proprietà intellettuale dell'altra, implicitamente o in altro modo".

Il documento legale aggiornato fornisce apparentemente protezione e trasparenza per i clienti commerciali di Anthropic. Le aziende possiedono tutti i risultati dell’intelligenza artificiale generati, ad esempio, evitando potenziali controversie sulla proprietà intellettuale. Anthropic si impegna inoltre a difendere i clienti da rivendicazioni di copyright su qualsiasi contenuto illecito prodotto da Claude.

La politica è in linea con La missione di Anthropic affermazione secondo cui l’intelligenza artificiale dovrebbe essere benefica, innocua e onesta. Mentre cresce lo scetticismo del pubblico sull’etica dell’intelligenza artificiale generativa, l’impegno dell’azienda nell’affrontare preoccupazioni come la privacy dei dati potrebbe darle un vantaggio competitivo.

Dati degli Utenti: Vital Food dei LLM

I Large Language Models (LLM) come GPT-4, LlaMa o Anthropic’s Claude sono sistemi di intelligenza artificiale avanzati che comprendono e generano il linguaggio umano addestrandosi su ampi dati di testo. Questi modelli sfruttano tecniche di deep learning e reti neurali per prevedere sequenze di parole, comprendere il contesto e cogliere le sottigliezze del linguaggio. Durante la formazione, perfezionano continuamente le loro previsioni, migliorando la loro capacità di conversare, comporre testi o fornire informazioni pertinenti. L'efficacia dei LLM dipende in larga misura dalla diversità e dal volume dei dati su cui vengono formati, rendendoli più accurati e consapevoli del contesto mentre apprendono da vari modelli linguistici, stili e nuove informazioni.

Ed è per questo che i dati degli utenti sono così preziosi nella formazione dei LLM. In primo luogo, garantisce che i modelli siano aggiornati con le ultime tendenze linguistiche e le preferenze degli utenti (ad esempio, la comprensione dei nuovi slang). In secondo luogo, consente la personalizzazione e un migliore coinvolgimento degli utenti adattandosi alle interazioni e agli stili dei singoli utenti. Tuttavia, ciò genera un dibattito etico perché le aziende di intelligenza artificiale non pagano gli utenti per queste informazioni cruciali che vengono utilizzate per addestrare modelli che fruttano milioni di dollari.

Come riportato da decrypt, Meta recentemente rivelato che sta addestrando il suo prossimo LLM LlaMA-3 sulla base dei dati degli utenti e anche i suoi nuovi modelli EMU (che generano foto e video da istruzioni di testo) sono stati addestrati utilizzando dati disponibili pubblicamente caricati dai suoi utenti sui social media.

Oltre a ciò, Amazon ha anche rivelato che il suo prossimo LLM, che alimenterebbe una versione aggiornata di Alexa, viene addestrato anche sulle conversazioni e interazioni degli utenti, tuttavia, gli utenti possono disattivare i dati di addestramento che per impostazione predefinita sono impostati per presupporre che gli utenti siano d'accordo per condividere queste informazioni. "[Amazon] ha sempre creduto che addestrare Alexa con le richieste del mondo reale sia essenziale per offrire ai clienti un'esperienza accurata e personalizzata e in costante miglioramento", un portavoce di Amazon detto decrypt. "Ma allo stesso tempo, diamo ai clienti il ​​controllo sull'utilizzo delle loro registrazioni vocali Alexa per migliorare il servizio e rispettiamo sempre le preferenze dei nostri clienti quando addestriamo i nostri modelli."

Con i giganti della tecnologia che corrono per rilasciare i servizi di intelligenza artificiale più avanzati, le pratiche responsabili sui dati sono fondamentali per guadagnare la fiducia del pubblico. Anthropic mira a dare l’esempio in questo senso. Il dibattito etico sull’acquisizione di modelli più potenti e convenienti a scapito della cessione di informazioni personali è prevalente oggi come lo era decenni fa, quando i social media resero popolare il concetto di utente. diventando il prodotto in cambio di servizi gratuiti.

A cura di Ryan Ozawa.

Rimani aggiornato sulle notizie crittografiche, ricevi aggiornamenti quotidiani nella tua casella di posta.

Timestamp:

Di più da decrypt