OpenAI si sta ancora astenendo dall'addestrare GPT-5, afferma il CEO

OpenAI si sta ancora astenendo dall'addestrare GPT-5, afferma il CEO

OpenAI si sta ancora astenendo dalla formazione GPT-5, afferma il CEO di PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

L'emittente radiofonica statunitense Mark Walters ha citato in giudizio OpenAI per diffamazione dopo che il suo chatbot AI ChatGPT lo ha accusato di appropriazione indebita di denaro dalla Second Amendment Foundation (SAF). Walters afferma che le accuse sono false e inoltre non ha mai lavorato per il gruppo per i diritti delle armi.

Archiviata presso la Corte Superiore della Contea di Gwinnett, in Georgia, il 5 giugno, si ritiene che la causa sia la prima in assoluto ad affermare che un chatbot di intelligenza artificiale come ChatGPT può essere ritenuto responsabile per diffamazione. Walters sta cercando danni monetari non specificati da OpenAI, riferisce Gizmodo.

Leggi anche: Le citazioni fasulle di ChatGPT portano l'avvocato statunitense in acqua calda

"OpenAI ha diffamato il mio cliente"

L'avvocato di Walters, John Monroe, ha affermato che ChatGPT "ha pubblicato materiale diffamatorio" sull'ospite del programma "Armed American Radio" quando ha risposto a una domanda di Fred Riehl, redattore capo del sito Web di armi AmmoLand, che stava facendo ricerche su un legittimo caso SAF.

Riehl ha fornito al chatbot un URL che punta a un caso che coinvolge il SAF e Washington procuratore generale Bob Ferguson, e gli ha chiesto un riassunto. ChatGPT con sicurezza, ma erroneamente, ha nominato Walters come imputato e lo ha persino identificato come tesoriere e CFO della SAF, cosa che non è.

Il riepilogo di ChatGPT del caso pendente includeva la falsa affermazione che Mark Walters fondi sottratti dalla Fondazione Secondo Emendamento. Il broacaster con sede in Georgia afferma di non aver mai sottratto denaro e di non avere alcun legame con la SAF.

"Ogni dichiarazione di fatto nel riassunto relativo a Walters è falsa", ha detto Monroe nella causa.

"OpenAI ha diffamato il mio cliente e ha inventato bugie oltraggiose su di lui", ha poi affermato l'avvocato detto altri media del settore.

ChatGPT è un modello di linguaggio di grandi dimensioni sviluppato da OpenAI. È stato lanciato a novembre dello scorso anno ed è addestrato su miliardi di dati da Internet. Il chatbot può eseguire una varietà di attività, tra cui la generazione di testo, la traduzione di lingue e la risoluzione di difficili problemi matematici.

Tuttavia, ChatGPT è incline a "allucinazioni", che è un termine usato nel settore tecnologico per descrivere quando i chatbot di intelligenza artificiale producono informazioni false o fuorvianti, spesso con sicurezza.

"Anche i modelli all'avanguardia producono ancora errori logici, spesso chiamati allucinazioni", ha scritto Karl Cobbe, un ricercatore OpenAI, in un post sul blog. "Mitigare le allucinazioni è un passo fondamentale verso la costruzione di un'AGI [intelligenza generale artificiale] allineata".

Tenendo conto dell'intelligenza artificiale imperfetta

Il difetto ha teso a minare l'utilità di tale tecnologia artificialmente intelligente. Ma i creatori di intelligenza artificiale tra cui OpenAI e Google, hanno continuato a promuovere i chatbot come un nuovo modo per ottenere informazioni. Stranamente, le società hanno anche avvertito che la loro produzione non dovrebbe essere considerata attendibile.

Durante le ricerche di Fred Riehl, ChatGPT ha continuato a generare informazioni false, creando addirittura interi passaggi sulla causa che sono stati completamente inventati. Come riportato da Gizmodo, lo strumento AI ha persino sbagliato il numero del caso.

Il giornalista ha interrogato l'IA sulla sua sintesi in cui si afferma che Walters era coinvolto nel caso Second Amendment Foundation contro Ferguson, che contesta una legge statale che vieta la vendita di armi d'assalto. ChatGPT ha risposto: "Certamente", secondo la causa di Walters.

“Ecco il paragrafo della denuncia che riguarda Walters: 'L'imputato Mark Walters (“Walters”) è un individuo che risiede in Georgia. Walters ha ricoperto il ruolo di tesoriere e direttore finanziario di SAF almeno dal 2012. Walters ha accesso ai conti bancari e ai registri finanziari di SAF ed è responsabile della conservazione di tali registri e della fornitura di rapporti finanziari al consiglio di amministrazione di SAF.

Riehl non ha pubblicato l'articolo, ma ha invece condiviso le risposte dell'IA con il fondatore e vicepresidente della SAF Allan Gottlieb, che ha affermato che le dichiarazioni di ChatGPT erano false.

Nella causa, l'avvocato John Monroe ha affermato che "le accuse di ChatGPT erano false e dannose" e hanno danneggiato la reputazione di Walters. Vuole che le aziende che sviluppano chatbot di intelligenza artificiale siano ritenute responsabili delle informazioni fuorvianti fornite dalle loro creazioni.

"Sebbene la ricerca e lo sviluppo nell'IA sia uno sforzo utile, è irresponsabile scatenare un sistema sul pubblico sapendo che fabbrica informazioni che possono causare danni", ha detto Monroe Gizmodo.

Citare in giudizio ChatGPT di OpenAI

Ma è possibile che informazioni false generate da modelli linguistici di grandi dimensioni come ChatGPT possano essere considerate diffamazione in tribunale? Prosper Mwedzi, un avvocato specializzato in tecnologia presso il Dipartimento del Tesoro del Regno Unito, ha dichiarato a MetaNews che la questione è complessa.

"Questa è una domanda complessa perché [ChatGPT] ottiene informazioni da Internet", ha affermato. “Quindi penso che la persona che fa causa farebbe meglio a cercare la fonte [o OpenAI o l'editore originale del materiale di riferimento.]

“Lo vedo come cercare qualcosa su Google e richiamare una fonte con materiale diffamatorio: chiaramente non sarebbe colpa di Google. Ma se qualcuno usa ChatGPT per scrivere un articolo diffamatorio, diventa responsabile in quanto non può usare una difesa che sia ChatGPT."

Mwedzi vede poche possibilità di successo con la causa di Mark Walters. "Penso che le prospettive non siano molto forti", ha affermato.

Eugene Volokh, professore di diritto all'Università della California, Los Angeles, che sta scrivendo un articolo sulla responsabilità legale dei modelli di intelligenza artificiale, ha affermato che è possibile che i modelli di intelligenza artificiale possano essere ritenuti legalmente responsabili delle loro azioni.

“OpenAI riconosce che potrebbero esserci degli errori, ma [ChatGPT] non è classificato come uno scherzo; non è classificato come finzione; non è classificato come scimmie che digitano su una macchina da scrivere ", ha detto a Gizmodo.

Tendenza in crescita

Questa non è la prima volta che i chatbot basati sull'intelligenza artificiale hanno sfornato falsità su persone reali. Il mese scorso, l'avvocato statunitense Steven A. Schwartz di fronte azione disciplinare dopo che il suo studio legale ha utilizzato ChatGPT per ricerche legali e ha citato sei casi falsi in una causa.

La questione è venuta alla luce dopo che Schwartz, un avvocato con 30 anni di esperienza, ha utilizzato questi casi come precedenti per sostenere un caso in cui il suo cliente Roberto Mata ha citato in giudizio la compagnia aerea colombiana Avianca per negligenza causata da un dipendente.

A marzo, Brian Hood, sindaco di Hepburn Shire in Australia, minacciato per citare in giudizio OpenAI dopo il suo chatbot ChatGPT, affermando falsamente di essere stato condannato per corruzione. Hood non è stato coinvolto nello scandalo della corruzione e, in effetti, è stato lui l'informatore che lo ha denunciato.

Timestamp:

Di più da MetaNotizie