Se Joe Biden vuole un chatbot AI intelligente e semplice che risponda alle sue domande, il team della sua campagna non sarà in grado di utilizzare Claude, il concorrente ChatGPT di Anthropic, ha annunciato oggi la società.
"Non permettiamo ai candidati di utilizzare Claude per costruire chatbot che possano fingere di essere loro, e non permettiamo a nessuno di utilizzare Claude per campagne politiche mirate", ha affermato la società. ha annunciato. Le violazioni di questa politica verranno gestite con avvertimenti e, infine, con la sospensione dell'accesso ai servizi di Anthropic.
L'articolazione pubblica da parte di Anthropic della sua politica di "abuso elettorale" arriva quando il potenziale dell'intelligenza artificiale di generare in massa informazioni, immagini e video falsi e fuorvianti è ormai diventato realtà. facendo scattare campanelli d’allarme in tutto il mondo.
Regole meta implementate rlimitare l’uso dei suoi strumenti di intelligenza artificiale in politica lo scorso autunno e OpenAI ha politiche simili.
Anthropic ha affermato che le sue protezioni politiche rientrano in tre categorie principali: sviluppo e applicazione di politiche relative a questioni elettorali, valutazione e test di modelli contro potenziali abusi e indirizzamento degli utenti a informazioni di voto accurate.
di Antropico politica di utilizzo accettabile- a cui tutti gli utenti apparentemente accettano prima di accedere a Claude - vieta l'utilizzo dei suoi strumenti di intelligenza artificiale per campagne politiche e attività di lobbying. La società ha affermato che ci saranno avvertimenti e sospensioni del servizio per i trasgressori, con un processo di revisione umana in atto.
L'azienda conduce anche un rigoroso "red-teaming" dei suoi sistemi: tentativi aggressivi e coordinati da parte di partner noti di "jailbreak" o di utilizzare in altro modo Claude per scopi nefasti.
"Testiamo il modo in cui il nostro sistema risponde ai messaggi che violano la nostra politica di utilizzo accettabile, [ad esempio] messaggi che richiedono informazioni sulle tattiche per la repressione degli elettori", spiega Anthropic. Inoltre, la società ha affermato di aver sviluppato una serie di test per garantire la “parità politica”, ovvero una rappresentanza comparativa tra candidati e argomenti.
Negli Stati Uniti, Anthropic ha collaborato con TurboVote per aiutare gli elettori con informazioni affidabili invece di utilizzare il suo strumento di intelligenza artificiale generativa.
"Se un utente con sede negli Stati Uniti chiede informazioni sul voto, un pop-up offrirà all'utente la possibilità di essere reindirizzato a TurboVote, una risorsa dell'organizzazione apartitica Democracy Works", ha spiegato Anthropic, una soluzione che verrà implementata "nel corso del tempo". nelle prossime settimane”, con l’intenzione di aggiungere misure simili in altri paesi in seguito.
As decrypt precedentemente riportato, OpenAI, la società dietro ChatGPT, sta adottando misure simili, reindirizzando gli utenti al sito web indipendente CanIVote.org.
Gli sforzi di Anthropic si allineano con un movimento più ampio all’interno del settore tecnologico per affrontare le sfide che l’intelligenza artificiale pone ai processi democratici. Ad esempio, la Federal Communications Commission degli Stati Uniti ha recentemente vietato l’uso dell’intelligenza artificiale voci deepfake nelle chiamate robotizzate, una decisione che sottolinea l'urgenza di regolamentare l'applicazione dell'IA nella sfera politica.
Come Facebook, Microsoft ha iniziative annunciate per combattere gli annunci politici fuorvianti generati dall’intelligenza artificiale, introducendo “credenziali di contenuto come servizio” e lanciando un hub di comunicazione elettorale.
Per quanto riguarda i candidati che creano versioni AI di se stessi, OpenAI ha già dovuto affrontare il caso d’uso specifico. L'azienda sospeso l'account di uno sviluppatore dopo aver scoperto di aver creato un bot che imitava il promettente candidato presidenziale Dean Phillips. La mossa è avvenuta dopo che l’organizzazione no-profit Public Citizen ha presentato una petizione contro l’uso improprio dell’intelligenza artificiale nelle campagne politiche, chiedendo al regolatore di vietare l’intelligenza artificiale generativa nelle campagne politiche.
Anthropic ha rifiutato ulteriori commenti e OpenAI non ha risposto a una richiesta di informazioni da parte di decrypt.
Rimani aggiornato sulle notizie crittografiche, ricevi aggiornamenti quotidiani nella tua casella di posta.
- Distribuzione di contenuti basati su SEO e PR. Ricevi amplificazione oggi.
- PlatoData.Network Generativo verticale Ai. Potenzia te stesso. Accedi qui.
- PlatoAiStream. Intelligenza Web3. Conoscenza amplificata. Accedi qui.
- PlatoneESG. Carbonio, Tecnologia pulita, Energia, Ambiente, Solare, Gestione dei rifiuti. Accedi qui.
- Platone Salute. Intelligence sulle biotecnologie e sulle sperimentazioni cliniche. Accedi qui.
- Fonte: https://decrypt.co/217937/anthropic-claude-ai-chatbot-politics-elections-campaign-deepfake-rules