La prossima mossa dell'IA di Meta? Si dice che Llama 3 uscirà all'inizio del 2024 - Decripta

La prossima mossa dell'IA di Meta? Llama 3 si dice che uscirà all'inizio del 2024 – Decripta

La curiosità sulla prossima grande mossa di Meta sta raggiungendo il culmine nella corsa per dominare il panorama dell'intelligenza artificiale. Con il suo modello di testo generativo Llama 2, rilasciato a luglio, ben consolidato sul mercato, gli osservatori dell'intelligenza artificiale sono alla ricerca avidamente di segni di Llama 3.

Se si deve credere alle voci del settore, il seguito del titano della tecnologia dopo il suo successo open source potrebbe arrivare all’inizio del 2024.

Meta non ha confermato ufficialmente le voci, ma Mark Zuckerberg ha recentemente fatto luce su quello che potrebbe essere il futuro dei LLM (modelli linguistici di grandi dimensioni) di Meta, iniziando con l'ammissione che Llama 3 è in lavorazione. Ma, ha detto, il nuovo modello fondamentale di intelligenza artificiale è ancora nel dimenticatoio, mentre la priorità rimane la messa a punto di Llama 2 per renderlo più user friendly.

"Voglio dire, c'è sempre un altro modello che stiamo formando", ha detto in un'intervista podcast su cui si è concentrato l'intersezione tra AI e il metaverso, "Abbiamo addestrato Llama 2 e lo abbiamo rilasciato come modello open source, e in questo momento la priorità è integrarlo in una serie di prodotti di consumo...

"Ma sì, stiamo lavorando anche sui futuri modelli di fondazione, e non ho nulla di nuovo o di novità a riguardo", ha continuato. "Non so esattamente quando sarà pronto."

Sebbene Meta non abbia confermato ufficialmente le voci, i modelli nei cicli di sviluppo e gli ingenti investimenti hardware suggeriscono un lancio imminente. Llama 1 e Llama 2 hanno avuto intervalli di addestramento di sei mesi e, se questa cadenza dovesse reggere, il nuovo Llama 3, che si ipotizza sarà alla pari con GPT-4 di OpenAI, potrebbe essere lanciato nella prima metà del 2024.

Aggiungendo profondità alla speculazione, utente Reddit lamaShill ha presentato un'analisi completa dei cicli di sviluppo del modello storico di Meta.

L'addestramento di Lama 1 è durato da luglio 2022 a gennaio 2023, seguito da Lama 2 fino a luglio 2023, ha proposto l'utente, creando uno scenario plausibile per l'addestramento di Lama 3 da luglio 2023 a gennaio 2024. Queste intuizioni si integrano con la narrazione di un Meta che è perseguendo incessantemente l'eccellenza nell'intelligenza artificiale, desideroso di mostrare il suo prossimo progresso che potrebbe stare al passo con le capacità di GPT-4.

Nel frattempo, forum tecnologici e Social Media sono in fermento con discussioni su come questa nuova iterazione potrebbe ristabilire il vantaggio competitivo di Meta. La comunità tecnologica ha anche messo insieme una probabile sequenza temporale dalle briciole di informazioni disponibili.

Aggiungete a ciò un po' di Twitter qui: una conversazione, secondo quanto riferito, ascoltata su un social "Meta GenAI", successivamente twittata dal ricercatore OpenAI Jason Wei. "Abbiamo il computer per addestrare Llama 3 e 4", ha detto una fonte non identificata, secondo Wei, affermando poi che anche il sistema sarebbe open source.

Nel frattempo, la partnership dell'azienda con Dell, che offre Llama 2 on-premise per gli utenti aziendali, sottolinea il suo impegno per il controllo e la sicurezza dei dati personali, una mossa che è allo stesso tempo strategica e indicativa dei tempi. Mentre Meta si prepara a confrontarsi con giganti come OpenAI e Google, questo impegno è fondamentale.

Meta sta anche infondendo l’intelligenza artificiale in molti dei suoi prodotti, quindi è logico che l’azienda aumenti la propria posta in gioco per non rimanere indietro. Llama 2 potenzia Meta AI e altri servizi come i chatbot di Meta, i servizi generativi di Meta e gli occhiali AI di Meta, solo per citarne alcuni.

In mezzo a questo vortice di speculazioni, le riflessioni di Mark Zuckerberg sull'open source di Llama 3 sono servite solo a incuriosire e sconcertare. "Avremmo bisogno di un processo per risolvere questo problema e renderlo sicuro", ha condiviso Zuckerberg durante un recente podcast con l'informatico Lex Fridman.

Llama 2 vanta un'architettura multilivello con versioni che offrono 7 miliardi, 13 miliardi e ben 70 miliardi di parametri, ciascuno adatto a diversi livelli di complessità e potenza di calcolo. I parametri negli LLM fungono da elementi costitutivi neurali che definiscono la capacità del modello di comprendere e generare linguaggio, con il numero di parametri spesso correlati alla sofisticazione e alla potenziale qualità dell'output del modello.

La centrale elettrica dell'intelligenza artificiale è stata addestrata su un vasto corpus di 2 trilioni di token, rafforzando la sua capacità di navigare e generare testo simile a quello umano in un'ampia gamma di argomenti e contesti.

Immagine per gentile concessione di Meta

Sullo sfondo vengono gettate anche le basi dell'hardware. COME segnalati by decrypt, Meta sta rifornindo un data center con Nvidia H100, uno dei componenti hardware più potenti per l'addestramento all'intelligenza artificiale, un chiaro segno che le ruote sono ben in movimento.

Eppure, nonostante tutto l’entusiasmo e le speculazioni, la verità rimane avvolta nel segreto aziendale.

Le intenzioni di Meta di competere nello spazio dell'intelligenza artificiale sono in gran parte determinate dai tempi di formazione richiesti, dagli investimenti in hardware e dalla questione dell'open source. Nel frattempo, l'attesa è palpabile poiché è probabile l'uscita di Llama 2024 nel 3.

A cura di Ryan Ozawa.

Rimani aggiornato sulle notizie crittografiche, ricevi aggiornamenti quotidiani nella tua casella di posta.

Timestamp:

Di più da decrypt