Come DARPA vuole ripensare i fondamenti dell'intelligenza artificiale per includere la fiducia

Come DARPA vuole ripensare i fondamenti dell'intelligenza artificiale per includere la fiducia

Come DARPA vuole ripensare i fondamenti dell'intelligenza artificiale per includere la fiducia PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Commento Affideresti la tua vita a un'intelligenza artificiale?

Lo stato attuale dell'intelligenza artificiale è impressionante, ma vederlo al limite del generalmente intelligente è un'esagerazione. Se vuoi capire come sta andando il boom dell'IA, rispondi a questa domanda: ti fidi dell'IA?

Bard di Google e modelli di linguaggio Bing basati su ChatGPT di Microsoft entrambi fatto errori ossessivi durante le loro presentazioni di lancio che avrebbero potuto essere evitati con una rapida ricerca sul web. Sono stati individuati anche LLM sbagliare i fatti e spingendo fuori citazioni errate.

Una cosa è quando quelle IA sono solo responsabili, diciamo, di intrattenere gli utenti di Bing o Bard, ci dice Matt Turek della DARPA, vicedirettore dell'Information Innovation Office. È un'altra cosa quando le vite sono in pericolo, motivo per cui l'agenzia di Turek ha lanciato un'iniziativa chiamata AI Forward per provare a rispondere alla domanda su cosa significhi esattamente costruire un sistema di intelligenza artificiale di cui ci si possa fidare.

La fiducia è...?

In un'intervista con Il registro, Turek ha detto che gli piace pensare di costruire un'IA affidabile con una metafora dell'ingegneria civile che implica anche riporre molta fiducia nella tecnologia: costruire ponti.

"Non costruiamo più ponti per tentativi ed errori", afferma Turek. "Comprendiamo la fisica fondamentale, la scienza dei materiali di base, l'ingegneria dei sistemi per dire, devo essere in grado di coprire questa distanza e devo portare questo tipo di peso", aggiunge.

Armato di questa conoscenza, dice Turek, il settore dell'ingegneria è stato in grado di sviluppare standard che rendono la costruzione di ponti semplice e prevedibile, ma al momento non ce l'abbiamo con l'intelligenza artificiale. In effetti, siamo in una posizione ancora peggiore rispetto alla semplice mancanza di standard: i modelli di intelligenza artificiale che stiamo costruendo a volte ci sorprendono, e questo è un male, afferma Turek. 

“Non comprendiamo appieno i modelli. Non capiamo cosa fanno bene, non capiamo i casi limite, le modalità di fallimento... quello che potrebbe portare è che le cose vanno male a una velocità e una scala che non abbiamo mai visto prima. 

Reg i lettori non hanno bisogno di immaginare scenari apocalittici in cui un'intelligenza generale artificiale (AGI) inizia a uccidere gli umani e a fare la guerra per ottenere il punto di vista di Turek. "Non abbiamo bisogno dell'AGI perché le cose vadano molto male", afferma Turek. Cita crolli del mercato lampo, come il calo del 2016 della sterlina britannica, attribuito a pessimo processo decisionale algoritmico, ad esempio. 

Poi c'è un software come il pilota automatico di Tesla, apparentemente un'intelligenza artificiale progettata per guidare un'auto a cui è stata presumibilmente collegata 70 per cento di incidenti che coinvolgono la tecnologia di assistenza alla guida automatizzata. Quando si verificano tali incidenti, Tesla non incolpa l'intelligenza artificiale, ci dice Turek, afferma che i conducenti sono responsabili di ciò che fa il pilota automatico. 

Con questa linea di ragionamento, è giusto dire che anche Tesla non si fida della propria IA. 

Come DARPA vuole spostare l'IA... Avanti

"La velocità con cui i sistemi software su larga scala possono operare può creare sfide per la supervisione umana", afferma Turek, motivo per cui DARPA ha dato il via alla sua ultima iniziativa AI, AI Forward, all'inizio di quest'anno.

In un presentazione a febbraio, il capo di Turek, la dottoressa Kathleen Fisher, ha spiegato cosa DARPA vuole ottenere con AI Forward, vale a dire costruire quella base di comprensione per lo sviluppo dell'IA simile a ciò che gli ingegneri hanno sviluppato con i propri set di standard.

Fisher ha spiegato nella sua presentazione che DARPA vede la fiducia nell'IA come un elemento integrativo e che qualsiasi intelligenza artificiale in cui vale la pena riporre la propria fiducia dovrebbe essere in grado di fare tre cose:

  • Operare con competenza, che noi decisamente non ho ancora capito,
  • Interagire in modo appropriato con gli umani, inclusa la comunicazione del motivo per cui fa quello che fa (vedi il punto precedente per quanto bene sta andando),
  • Comportarsi eticamente e moralmente, che secondo Fisher includerebbe la possibilità di determinare se le istruzioni sono etiche o meno e reagire di conseguenza. 

Articolare ciò che definisce un'IA affidabile è una cosa. Arrivarci richiede un po' più di lavoro. A tal fine, DARPA ha dichiarato di voler investire energia, tempo e denaro tre aree: Costruire teorie fondamentali, articolare adeguate pratiche di ingegneria dell'IA e sviluppare standard per il teaming e le interazioni uomo-IA. 

AI Forward, che Turek descrive meno come un programma e più come un'iniziativa di sensibilizzazione della comunità, prende il via con un paio di seminari estivi a giugno e alla fine di luglio per riunire persone del settore pubblico e privato per aiutare a concretizzare questi tre investimenti nell'IA le zone. 

DARPA, dice Turek, ha una capacità unica di “riunire [insieme] una vasta gamma di ricercatori in più comunità, dare uno sguardo olistico al problema, identificare … modi convincenti da seguire, e poi seguirlo con investimenti che secondo DARPA potrebbero portare verso tecnologie di trasformazione”.

Per chiunque speri di gettare il cappello sul ring per partecipare ai primi due workshop di AI Forward - scusate - sono già al completo. Turek non ha rivelato alcun dettaglio su chi ci sarebbe stato, dicendo solo che sono attese diverse centinaia di partecipanti con "una varietà di background tecnici [e] prospettive".

Che aspetto ha un'IA di difesa affidabile?

Se e quando DARPA riuscirà ad arricchire il suo modello di fiducia nell'IA, come utilizzerà esattamente quella tecnologia? 

Le applicazioni di sicurezza informatica sono ovvie, afferma Turek, poiché si può fare affidamento su un'intelligenza artificiale affidabile per prendere le giuste decisioni su una scala e una velocità su cui gli esseri umani non possono agire. Dal lato del modello di linguaggio di grandi dimensioni, c'è la costruzione di un'IA di cui ci si può fidare per gestire correttamente le informazioni classificate o digerire e riassumere i rapporti in modo accurato "se riusciamo a rimuovere quelle allucinazioni", aggiunge Turek.

E poi c'è il campo di battaglia. Lungi dall'essere solo uno strumento utilizzato per nuocere, l'intelligenza artificiale potrebbe essere trasformata in applicazioni salvavita attraverso iniziative di ricerca come Nel momento, un progetto di ricerca condotto da Turek per supportare un rapido processo decisionale in situazioni difficili. 

L'obiettivo di In The Moment è identificare "gli attributi chiave alla base del processo decisionale umano fidato in contesti dinamici e rappresentare computazionalmente tali attributi", come DARPA lo descrive nella pagina del progetto. 

"[In The Moment] è davvero un programma di ricerca fondamentale su come modellare e quantificare la fiducia e su come costruire quegli attributi che portano alla fiducia e ai sistemi", afferma Turek.

L'intelligenza artificiale dotata di queste capacità potrebbe essere utilizzata per prendere decisioni di triage medico sul campo di battaglia o in scenari di disastro.

DARPA vuole che i white paper seguano entrambi i suoi incontri AI Forward quest'estate, ma da lì si tratta di superare la fase di definizione e verso l'attualizzazione, il che potrebbe richiedere del tempo. 

"Ci saranno investimenti dalla DARPA che usciranno dagli incontri", ci dice Turek. "Il numero o la dimensione di tali investimenti dipenderà da ciò che sentiremo", aggiunge. ®

Timestamp:

Di più da Il registro