Un'organizzazione no-profit crea un sito per tenere traccia dei crescenti incidenti legati all'intelligenza artificiale

Un'organizzazione no-profit crea un sito per tenere traccia dei crescenti incidenti legati all'intelligenza artificiale

Un'organizzazione no-profit crea un sito per tenere traccia dei crescenti incidenti legati all'intelligenza artificiale PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Colloquio Falso immagini di Donald Trump sostenuto da elettori neri inventati, studenti delle scuole medie che creano deepfake pornografici delle loro compagne di classe e il chatbot Gemini di Google in mancanza di per generare immagini di persone bianche in modo accurato.

Questi sono alcuni degli ultimi disastri elencati sul Database degli incidenti di intelligenza artificiale – un sito web che tiene sotto controllo tutti i diversi modi in cui la tecnologia va storta.

Lanciato inizialmente come progetto sotto gli auspici della Partnership On AI, un gruppo che cerca di garantire che l'intelligenza artificiale avvantaggi la società, l'AI Incident Database è ora un'organizzazione no-profit finanziata da Underwriters Laboratories, il più grande e antico (fondato nel 1894) indipendente laboratorio di analisi negli Stati Uniti. Testa tutti i tipi di prodotti, dai mobili ai mouse dei computer, e il suo sito web ha catalogato finora oltre 600 incidenti unici legati all'automazione e all'intelligenza artificiale.

"C'è un'enorme asimmetria informativa tra i creatori di sistemi di intelligenza artificiale e i consumatori pubblici - e questo non è giusto", ha affermato Patrick Hall, un assistente professore presso la George Washington University School of Business, che attualmente fa parte del consiglio di amministrazione dell'AI Incident Database. . Disse Il registro: "Abbiamo bisogno di maggiore trasparenza e riteniamo che sia nostro compito condividere tali informazioni."

Il database degli incidenti AI è modellato sul programma CVE istituito dall'organizzazione no-profit MITRAo Amministrazione nazionale per la sicurezza dei trasporti stradali sito web che segnala vulnerabilità della sicurezza informatica e incidenti stradali resi pubblici. "Ogni volta che si verifica un incidente aereo, un incidente ferroviario o un grave incidente di sicurezza informatica, è diventata pratica comune da decenni registrare ciò che è accaduto in modo da poter cercare di capire cosa è andato storto e quindi non ripeterlo."

Il sito web è attualmente gestito da una decina di persone, oltre a una manciata di volontari e appaltatori che esaminano e pubblicano online gli incidenti legati all’intelligenza artificiale. Heather Frase, una studentessa senior della Georgetown Centro per la sicurezza e la tecnologia emergente incentrato sulla valutazione dell’intelligenza artificiale e un direttore del database degli incidenti sull’intelligenza artificiale, ha affermato che il sito Web è unico in quanto si concentra sugli impatti nel mondo reale derivanti dai rischi e dai danni dell’intelligenza artificiale, non solo sulle vulnerabilità e sui bug nel software.

L'organizzazione attualmente raccoglie gli incidenti dalla copertura mediatica ed esamina i problemi segnalati dalle persone su Twitter. Il database degli incidenti AI ha registrato 250 incidenti unici prima del rilascio di ChatGPT nel novembre 2022 e ora elenca oltre 600 incidenti unici.

Il monitoraggio dei problemi legati all’intelligenza artificiale nel tempo rivela tendenze interessanti e potrebbe consentire alle persone di comprendere i danni reali e attuali della tecnologia.

La Hall della George Washington University ha rivelato che circa la metà dei rapporti nel database sono legati all’intelligenza artificiale generativa. Alcuni di loro sono "cose ​​divertenti e sciocche". prodotti poco affidabili venduto su Amazon con il titolo: “Non posso soddisfare quella richiesta” – un chiaro segno che il venditore ha utilizzato un modello linguistico di grandi dimensioni per scrivere le descrizioni – o altri casi di spam generato dall’intelligenza artificiale. Ma alcuni sono “davvero deprimenti e seri” – come un robotaxi Cruise che investe e trascina una donna sotto le ruote in un incidente a San Francisco.

"L'intelligenza artificiale è per lo più un selvaggio west in questo momento, e l'atteggiamento è quello di andare veloci e rompere le cose", ha lamentato. Non è chiaro come la tecnologia stia plasmando la società e il team spera che il database degli incidenti di intelligenza artificiale possa fornire approfondimenti sui modi in cui viene utilizzata in modo improprio ed evidenziare conseguenze indesiderate, nella speranza che sviluppatori e responsabili politici siano meglio informati in modo da poter migliorare i loro modelli o regolamentare i rischi più urgenti.

“C'è molta pubblicità in giro. Si parla di rischio esistenziale. Sono sicuro che l'intelligenza artificiale possa comportare rischi molto gravi per la civiltà umana, ma mi è chiaro che alcuni di questi rischi sono più reali nel mondo, come molti infortuni associati alle auto a guida autonoma o, sai, perpetuare pregiudizi attraverso gli algoritmi utilizzati nel credito al consumo o nell’occupazione. Questo è ciò che vediamo.”

“So che ci stiamo perdendo molto, vero? Non tutto viene riportato o catturato dai media. Molte volte le persone potrebbero non rendersi nemmeno conto che il danno che stanno subendo proviene da un’intelligenza artificiale”, ha osservato Frase. “Mi aspetto che i danni fisici aumenteranno molto. Stiamo assistendo [soprattutto] a danni psicologici e altri danni immateriali che si verificano a causa di modelli linguistici di grandi dimensioni – ma una volta che avremo la robotica generativa, penso che i danni fisici aumenteranno notevolmente”.

Frase è molto preoccupato per i modi in cui l’intelligenza artificiale potrebbe erodere i diritti umani e le libertà civili. Lei ritiene che la raccolta degli incidenti legati all’intelligenza artificiale mostrerà se le politiche hanno reso la tecnologia più sicura nel tempo.

"Devi misurare le cose per aggiustarle", ha aggiunto Hall.

L'organizzazione è sempre alla ricerca di volontari e attualmente è impegnata a catturare più incidenti e ad aumentare la consapevolezza. Frase ha sottolineato che i membri del gruppo non sono dei fanatici dell'IA: “Probabilmente sembriamo piuttosto anti-IA, ma non lo siamo. In realtà vogliamo usarlo. Vogliamo solo le cose buone”.

Sala acconsentì. "Per far avanzare la tecnologia, qualcuno deve semplicemente fare il lavoro per renderla più sicura", ha detto. ®

Timestamp:

Di più da Il registro