FTC indaga su ChatGPT per problemi di protezione dei consumatori

FTC indaga su ChatGPT per problemi di protezione dei consumatori

La FTC indaga su ChatGPT sulle preoccupazioni relative alla protezione dei consumatori di PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

La Federal Trade Commission (FTC) degli Stati Uniti ha iniziato un controllo approfondito su OpenAI, la società di San Francisco che ha creato il noto chatbot AI, ChatGPT. Il 13 luglio 2023 il Washington Post ha riferito che questo controllo serve a verificare se OpenAI è andato contro le leggi che proteggono i clienti, mettendo a rischio la loro reputazione personale e i loro dati.

La FTC ha inviato una richiesta di record di 20 pagine a OpenAI, cercando di saperne di più su come l'azienda gestisce i possibili problemi relativi ai propri modelli di intelligenza artificiale. Questa agenzia governativa sta controllando in particolare se OpenAI sia stato ingiusto o fuorviante, causando danni alla reputazione delle persone.

L'inchiesta della FTC si estende a un incidente di sicurezza che OpenAI ha rivelato nel marzo 2023. Un bug nei sistemi di OpenAI aveva consentito ad alcuni utenti di visualizzare informazioni relative ai pagamenti e alcuni dati dalla cronologia chat di altri utenti. La FTC sta verificando se le pratiche di sicurezza dei dati di OpenAI in questo incidente abbiano violato le leggi sulla protezione dei consumatori.

La FTC sta inoltre cercando informazioni su qualsiasi ricerca, test o sondaggio condotto da OpenAI che valuti quanto bene i consumatori comprendano "l'accuratezza o l'affidabilità dei risultati" generati dai suoi strumenti di intelligenza artificiale. Inoltre, la FTC ha richiesto dettagli su come OpenAI concede in licenza i suoi modelli ad altre società.

Questa indagine arriva sulla scia di precedenti preoccupazioni sollevate sulle pratiche di OpenAI. Nel marzo 2023, il Center for AI and Digital Policy (CAIDP) chiesto la FTC per indagare su OpenAI per presunte violazioni delle norme sulla protezione dei consumatori, citando che il lancio di strumenti di generazione di testo AI è stato "di parte, ingannevole e un rischio per la sicurezza pubblica", come riportato da The Verge.

Il CAIDP aveva evidenziato potenziali minacce dal modello di testo generativo GPT-4 di OpenAI, inclusa la produzione di codice dannoso, propaganda altamente personalizzata e la possibilità che dati di formazione distorti si traducano in preferenze di razza e genere ingiuste in aree come le assunzioni.

L'indagine della FTC su OpenAI rappresenta un passo significativo nel continuo interesse dell'agenzia nella regolamentazione degli strumenti di intelligenza artificiale. In precedenza ha avvertito che i sistemi di intelligenza artificiale distorti potrebbero richiedere azioni di contrasto. Un'indagine su OpenAI, uno dei principali attori nel campo dell'IA generativa, segna un'importante escalation negli sforzi della FTC.

Timestamp:

Di più da News di Blockchain