Meta svela il modello di segmentazione delle immagini AI, SAM

Meta svela il modello di segmentazione delle immagini AI, SAM

Meta svela il modello di segmentazione delle immagini AI, SAM PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Alphabet Inc's Google ha condiviso informazioni sui supercomputer che utilizza per addestrare i modelli di intelligenza artificiale, sostenendo che sono efficienti dal punto di vista energetico e più veloci di Nvidia's Chip A100. Google ha prodotto il suo chip personalizzato chiamato Tensor Processing Unit (TPU), che è alla sua quarta generazione.

Secondo il gigante della tecnologia, l'azienda utilizza i chip per oltre il 90% del lavoro di formazione dell'IA dell'azienda. Google aggiunge il chip alimenta i dati attraverso i modelli per renderli pratici in attività come testi umani o per generare immagini.

Idealmente, I TPU sono progettati per accelerare la fase di inferenza delle reti neurali profonde (DNN), utilizzate in molte applicazioni di apprendimento automatico come il riconoscimento di immagini, il riconoscimento vocale, l'elaborazione del linguaggio naturale e altro ancora. Le TPU vengono utilizzate anche per l'addestramento dei DNN.

Leggi anche: Twitter in acqua calda legale mentre la Germania minaccia multa

Martedì Google pubblicato un articolo scientifico spiegando come ha messo insieme più di 4 chips. Secondo l'azienda, ha utilizzato interruttori ottici sviluppati su misura per portare le singole macchine in un unico posto.

Nel documento scientifico, Google ha affermato che per sistemi di dimensioni comparabili, i suoi chip sono fino a 1.7 volte più veloci e 1.9 volte più efficienti dal punto di vista energetico rispetto a un sistema basato sul chip A100 di Nvidia che era sul mercato contemporaneamente alla quarta generazione di TPU.

Sono necessari ulteriori miglioramenti

Gli analisti sono del parere che il mercato dei chip di inferenza dei dati crescerà rapidamente man mano che le aziende lo affermano Tecnologie AI nei loro prodotti. Aziende come Google, tuttavia, stanno già lavorando su come tenere sotto controllo i costi aggiuntivi che così facendo si aggiungeranno, e uno dei costi è l'elettricità.

Modelli linguistici di grandi dimensioni che guidano prodotti come Google Bard o OpenAI ChatGPT sono notevolmente cresciute di dimensioni. In effetti sono troppo grandi per essere archiviati su un singolo chip.

Pertanto, il miglioramento di queste connessioni è diventato un punto chiave per la concorrenza tra le aziende che costruiscono supercomputer IA.

Inoltre, questi modelli sono suddivisi su migliaia di chip e lavorano insieme per settimane o più per addestrare il modello.

Il modello linguistico più significativo finora divulgato pubblicamente da Google, PaLM, è stato addestrato suddividendolo in due dei 4 supercomputer con chip in 000 giorni.

Secondo l'azienda, i suoi supercomputer semplificano la configurazione al volo delle connessioni tra i chip.

"La commutazione dei circuiti semplifica l'instradamento dei componenti guasti", hanno affermato il Google Fellow Norm Jouppi e il Google Distinguished Engineer David Patterson in un post sul blog sul sistema

"Questa flessibilità ci consente persino di modificare la topologia dell'interconnessione del supercomputer per accelerare le prestazioni di un modello ML (machine learning)".

Non c'è paragone secondo Google

Nvidia domina il mercato dell'addestramento di modelli di intelligenza artificiale con enormi quantità di dati. Tuttavia, dopo che questi modelli sono stati addestrati, vengono utilizzati in modo più ampio in quella che viene chiamata "inferenza" svolgendo attività come generare risposte di testo ai prompt e decidere se un'immagine contiene un gatto.

Software principale gli studi stanno attualmente utilizzando i processori A100 di Nvidia. I chip A100 sono i chip più comunemente utilizzati dagli studi di sviluppo per i carichi di lavoro di machine learning AI.

Il A100 è adatto per i modelli di machine learning che alimentano strumenti come ChatGPT, BingAI, o Diffusione Stabile. È in grado di eseguire molti semplici calcoli contemporaneamente, il che è importante per l'addestramento e l'utilizzo di modelli di reti neurali.

Mentre Nvidia ha rifiutato le richieste di commento di Reuters, Google ha affermato di non aver confrontato la loro quarta generazione con l'attuale chip H100 di punta di Nvidia perché è arrivato sul mercato dopo il chip di Google ed è realizzato con una tecnologia più recente.

Google ha anche affermato che la società ha "una buona pipeline di suggerimenti futuri", senza fornire dettagli più fini, ma ha lasciato intendere che potrebbe lavorare su un nuovo TPU che competerà con Nvidia H100.

Sebbene Google stia rilasciando solo ora dettagli sul suo supercomputer, è online all'interno dell'azienda dal 2020 in un data center nella contea di Mayes, in Oklahoma.

Google ha affermato che la startup Midjourney ha utilizzato il sistema per addestrare il suo modello, che genera nuove immagini dopo aver ricevuto alcune parole di testo.

Timestamp:

Di più da MetaNotizie