L'esperienza infantile insegna all'intelligenza artificiale a comprendere e parlare la lingua

L'esperienza infantile insegna all'intelligenza artificiale a comprendere e parlare la lingua

L'esperienza infantile insegna all'intelligenza artificiale a comprendere e parlare il linguaggio PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

I ricercatori hanno addestrato un'intelligenza artificiale sulle riprese della videocamera dal punto di vista di un bambino, consentendole di apprendere parole e concetti dall'ambiente del bambino. 

I bambini imparano meglio anche dei migliori modelli linguistici di grandi dimensioni. ChatGPT è stato addestrato su enormi set di dati contenenti milioni o addirittura un trilione di parole da scrivere in un inglese passabile. 

Quando i bambini hanno tre anni, possono comunicare in modi sofisticati pur avendo accesso solo a una piccola parte di tali dati.

Un gruppo di accademici della New York University, tuttavia, si è chiesto se intelligenza artificiale (AI) può imparare come un bambino. Lago di Branden, autore dello studio e scienziato cognitivo computazionale presso la New York University, ha affermato che il modello di intelligenza artificiale è riuscito ad abbinare le parole agli oggetti che rappresentano. Secondo lui, ci sono dati sufficienti, anche in questo piccolo episodio dell'esperienza del bambino, per consentire un vero apprendimento delle parole.

L'esperimento

Per questa indagine i ricercatori hanno utilizzato 61 ore di riprese riprese dalla telecamera del casco di un bambino australiano. Per un anno e mezzo, da quando aveva sei mesi fino a poco dopo il suo secondo compleanno, quel bambino, Sam, ha indossato la macchina fotografica a intermittenza. 

Circa l'1% delle ore di veglia di Sam è stato trascorso guardando e prestando attenzione a ciò che veniva catturato nel video. I due gatti di Sam, i genitori, i giocattoli, la culla, la casa, il cibo e altre cose erano tutti documentati. Lake ha spiegato che questo set di dati era unico. Secondo lui, questa è la visione più chiara che abbiano mai avuto di ciò che è a disposizione di un singolo bambino.

Per addestrare il modello, Lake e i suoi colleghi hanno utilizzato 600,000 fotogrammi video e 37,500 "espressioni", frasi pronunciate dai genitori di Sam o da altre persone nella stanza quando è stata scattata la foto. Occasionalmente, gli elementi e le parole corrispondevano. Non sempre lo facevano. Ad esempio, un genitore osserva: "Ti piace la stringa", mentre Sam esamina un selezionatore di moduli in un'immagine. "Anche tu vuoi i blocchi", aggiunge un genitore, indicando la mano di un altro adulto che copre alcuni blocchi.

Spunti dati dalla squadra

Il team ha fornito due spunti al modello. Parole e oggetti che appaiono insieme potrebbero indicare che potrebbero essere collegati. Tuttavia, è un segnale che non sono una coppia quando non accadono insieme.

Wai Keen Vong, autore dello studio e cognitivo computazionale scienziato alla New York University, hanno detto che hanno questo tipo di avvicinamento e allontanamento che avviene all'interno del modello. Ha continuato dicendo che la speranza è che ci siano abbastanza casi nei dati in cui, quando il genitore dice la parola "palla", il bambino vede una palla.

Anche se può sembrare semplice, abbinare le parole all'oggetto che rappresentano richiede lavoro. Per avere un'idea della questione, immaginiamo il soggiorno di una famiglia con bambini piccoli. Oltre ai tipici mobili del soggiorno, ha molto disordine. I giocattoli sono sparsi sul pavimento. Ci sono pastelli dappertutto sul tavolino. Sul davanzale è posizionata una tazza per lo spuntino e su una sedia è posizionata la biancheria. Un bambino può associare la parola “palla” a una palla se la sente. Tuttavia, potrebbe anche riferirsi a qualsiasi altro giocattolo, al divano, ai pantaloni o alla forma, al colore o all'ora del giorno di un oggetto. Secondo Lake ogni parola può avere un numero infinito di significati.

Timestamp:

Di più da MetaNotizie