Questa intelligenza artificiale di DeepMind apprende rapidamente nuove abilità semplicemente osservando gli esseri umani

Questa intelligenza artificiale di DeepMind apprende rapidamente nuove abilità semplicemente osservando gli esseri umani

Questa intelligenza artificiale di DeepMind apprende rapidamente nuove competenze semplicemente osservando gli esseri umani PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Insegnare agli algoritmi a imitare gli esseri umani richiede in genere centinaia o migliaia di esempi. Ma una nuova intelligenza artificiale di Google DeepMind può acquisire al volo nuove competenze dai dimostratori umani.

Uno dei più grandi trucchi dell'umanità è la nostra capacità di acquisire conoscenza in modo rapido ed efficiente gli uni dagli altri. Questo tipo di apprendimento sociale, spesso definito trasmissione culturale, è ciò che ci permette di mostrare a un collega come utilizzare un nuovo strumento o di insegnare ai nostri figli le filastrocche.

Non sorprende che i ricercatori abbiano cercato di replicare il processo nelle macchine. L’apprendimento per imitazione, in cui l’intelligenza artificiale osserva un essere umano completare un compito e quindi cerca di imitarne il comportamento, è da tempo un approccio popolare per l’addestramento dei robot. Ma anche gli algoritmi di deep learning più avanzati di oggi in genere hanno bisogno di vedere molti esempi prima di poter copiare con successo i loro trainer.

Quando gli esseri umani imparano attraverso l’imitazione, spesso riescono ad apprendere nuovi compiti dopo solo una manciata di dimostrazioni. Ora, i ricercatori di Google DeepMind hanno fatto un passo avanti verso un rapido apprendimento sociale nell’intelligenza artificiale con agenti che imparano a navigare in un mondo virtuale dagli esseri umani in tempo reale.

"I nostri agenti riescono a imitare in tempo reale un essere umano in contesti nuovi senza utilizzare dati umani preraccolti", scrivono i ricercatori in un articolo carta dentro Nature Communications. "Identifichiamo un insieme sorprendentemente semplice di ingredienti sufficienti per generare trasmissione culturale”.

I ricercatori hanno addestrato i loro agenti in un simulatore appositamente progettato chiamato GoalCycle3D. Il simulatore utilizza un algoritmo per generare un numero quasi infinito di ambienti diversi in base a regole su come dovrebbe funzionare la simulazione e quali aspetti dovrebbero variare.

In ogni ambiente, piccole macchie Agenti AI deve attraversare terreni irregolari e vari ostacoli per passare attraverso una serie di sfere colorate in un ordine specifico. Le irregolarità del terreno, la densità degli ostacoli e la configurazione delle sfere variano da un ambiente all'altro.

Gli agenti sono addestrati a navigare utilizzando insegnamento rafforzativo. Guadagnano una ricompensa per aver attraversato le sfere nell'ordine corretto e usano questo segnale per migliorare le loro prestazioni in molte prove. Ma in più, gli ambienti dispongono anche di un agente esperto, codificato o controllato da un essere umano, che conosce già il percorso corretto attraverso il percorso.

Nel corso di numerosi corsi di formazione, gli agenti dell'IA apprendono non solo i fondamenti del funzionamento degli ambienti, ma anche che il modo più rapido per risolvere ogni problema è imitare l'esperto. Per garantire che gli agenti imparassero a imitare anziché limitarsi a memorizzare i corsi, il team li ha addestrati in una serie di ambienti e poi li ha testati in un altro. Fondamentalmente, dopo l'addestramento, il team ha dimostrato che i suoi agenti potevano imitare un esperto e continuare a seguire il percorso anche senza l'esperto.

Ciò ha richiesto alcune modifiche agli approcci standard di apprendimento per rinforzo.

I ricercatori hanno focalizzato l’algoritmo sull’esperto facendogli prevedere la posizione dell’altro agente. Gli hanno anche dato un modulo di memoria. Durante l'addestramento, l'esperto entrava e usciva dagli ambienti, costringendo l'agente a memorizzare le sue azioni per quando non fosse più presente. L’intelligenza artificiale si è inoltre addestrata su un’ampia gamma di ambienti, il che ha assicurato che vedesse un’ampia gamma di possibili compiti.

Tuttavia potrebbe essere difficile tradurre l’approccio in ambiti più pratici. Una limitazione fondamentale è che quando i ricercatori hanno testato se l’intelligenza artificiale potesse apprendere dalle dimostrazioni umane, l’agente esperto è stato controllato da una persona durante tutte le fasi di addestramento. Ciò rende difficile sapere se gli agenti potrebbero imparare da una varietà di persone.

Ancora più urgente, la capacità di alterare casualmente l’ambiente di allenamento sarebbe difficile da ricreare nel mondo reale. E il compito sottostante era semplice, non richiedeva alcun controllo motorio e si svolgeva in ambienti virtuali altamente controllati.

Tuttavia, i progressi nell’apprendimento sociale nell’intelligenza artificiale sono benvenuti. Se vogliamo vivere in un mondo con macchine intelligenti, sarà fondamentale trovare modi efficienti e intuitivi per condividere con loro la nostra esperienza e competenza.

Immagine di credito: Juliana e Mariana Amorim / Unsplash

Timestamp:

Di più da Hub di singolarità