Anthropic ha creato un chatbot AI democratico consentendo agli utenti di scegliere i suoi principi.

Anthropic ha creato un chatbot AI democratico consentendo agli utenti di scegliere i suoi principi.

Anthropic ha creato un chatbot AI democratico consentendo agli utenti di scegliere i suoi principi. Intelligenza dei dati PlatoBlockchain. Ricerca verticale. Ai.
<!–
Tutorial HTML
->

In un’esplorazione innovativa delle capacità dell’intelligenza artificiale, Anthropic, una società di intelligenza artificiale (AI), ha adattato un modello linguistico di grandi dimensioni (LLM) per riflettere i valori definiti dall’utente. Questo studio unico ha coinvolto la raccolta di input da 1,000 partecipanti per mettere a punto le risposte del LLM in base ai loro giudizi collettivi.

A differenza dei LLM convenzionali dotati di guardrail predefiniti per limitare determinati output, l'approccio di Anthropic abbraccia l'agenzia degli utenti. Modelli come Claude di Anthropic e ChatGPT di OpenAI spesso aderiscono a risposte di sicurezza preimpostate, soprattutto per quanto riguarda argomenti delicati. Tuttavia, i critici sostengono che tali interventi potrebbero compromettere l’autonomia dell’utente, poiché la definizione di accettabilità varia ed è soggettiva a seconda delle culture e dei periodi di tempo.

Una potenziale soluzione a questa complessa sfida è consentire agli utenti di modellare l’allineamento dei valori dei modelli di intelligenza artificiale. Anthropic ha intrapreso l’esperimento “Collective Constitutional AI” in collaborazione con Polis e il Collective Intelligence Project. Coinvolgendo 1,000 utenti provenienti da contesti diversi, hanno posto una serie di domande attraverso sondaggi per raccogliere informazioni preziose.

L'esperimento ruota attorno alla concessione agli utenti dell'autorità di determinare l'adeguatezza senza esporli a risultati indesiderati. Questo processo prevedeva l'estrazione dei valori degli utenti e la loro incorporazione in un modello pre-addestrato. Anthropic utilizza una tecnica nota come “AI costituzionale”, in cui al modello viene fornita una serie di regole da seguire, simile a una costituzione che guida la governance nelle nazioni.

Nell'esperimento Collective Constitutional AI, Anthropic mirava a integrare il feedback dei gruppi di utenti nella costituzione del modello. Secondo il post sul blog di Anthropic, i risultati suggeriscono un successo scientifico, facendo luce sulle sfide associate al consentire agli utenti di definire collettivamente i valori di un prodotto LLM.

Un notevole ostacolo affrontato dal team è stato lo sviluppo di un nuovo processo di benchmarking. Data la natura pionieristica dell’esperimento e la dipendenza dalla metodologia Constitutional AI di Anthropic, non esiste un test stabilito per confrontare i modelli di base con quelli perfezionati utilizzando valori di crowdsourcing.

Alla fine, sembra che il modello che incorpora i dati derivati ​​dal feedback dei sondaggi degli utenti abbia mostrato un “leggero” miglioramento rispetto al modello base nel mitigare i risultati distorti. Anthropic esprime entusiasmo non solo per il modello risultante ma, cosa ancora più importante, per il processo rivoluzionario stesso. Questo esperimento rappresenta uno dei primi casi in cui il pubblico, come collettivo, ha intenzionalmente influenzato il comportamento di un ampio modello linguistico. La speranza è che le comunità a livello globale si basino su tali tecniche per sviluppare modelli in linea con le loro specifiche esigenze culturali e contestuali.

Notizie

Il protocollo Ethereum per DeFi Hope Lend è esaurito in seguito

Notizie

Le richieste dei creditori di FTX superano i 50 centesimi

Notizie

Secondo una recente indagine, il pioniere del Bitcoin Hal Finney

Notizie

Gli avvocati stimano che la SEC abbia una percentuale compresa tra il 3% e il 14%

Notizie

La Tailandia ritarda la distribuzione della valuta digitale; chiedono i critici

Timestamp:

Di più da Bitcoin World