L'intelligenza artificiale open source rende i PC moderni rilevanti e gli abbonamenti sembrano squallidi

L'intelligenza artificiale open source rende i PC moderni rilevanti e gli abbonamenti sembrano squallidi

L'intelligenza artificiale open source rende rilevanti i PC moderni e gli abbonamenti a PlatoBlockchain Data Intelligence sembrano squallidi. Ricerca verticale. Ai.

Colonna In questo periodo dell'anno scorso l'ultima tendenza nel campo dell'informatica è diventata impossibile da ignorare: enormi lastre di silicio con centinaia di miliardi di transistor, l'inevitabile conseguenza di un'altra serie di soluzioni alternative che hanno salvato la legge di Moore dall'oblio.

Ma il crollo delle vendite di PC suggerisce che non abbiamo bisogno di questi computer mostruosi, e non solo a causa dell'ombra delle vendite proiettata da COVID.

Nella prima metà del 2022, l'informatica aziendale sembrava praticamente la stessa dell'ultimo decennio: app per ufficio di base, app per la comunicazione di gruppo e, per la classe creativa, alcuni strumenti multimediali avanzati. Certo, i giocatori troverebbero sempre un modo per far funzionare quei transistor, ma la stragrande maggioranza dell'hardware era già sopraffatta e poco lavorata. Perché sprecare transistor per problemi risolti?

Poi il mondo è cambiato. Un anno fa, OpenAI ha lanciato DALL-E, il primo degli strumenti di intelligenza artificiale generativa ampiamente disponibili: un "diffusore" che converte il rumore, un prompt di testo e un enorme database di ponderazioni in immagini. Sembrava quasi una magia. Non molto tempo dopo, Midjourney ha offerto più o meno lo stesso, anche se sintonizzato su un'estetica di copertina dell'album Prog Rock decisamente anni '70. Sembrava che la domanda di cloud computing sarebbe salita alle stelle quando questi strumenti si sono fatti strada nei prodotti Microsoft, Canva, Adobe e altri.

Poi il mondo è cambiato di nuovo. Ad agosto, Stability AI ha introdotto un database open source di ponderazioni dei diffusori. All'inizio, Stable Diffusion richiedeva una GPU all'avanguardia, ma la comunità open source ha presto scoperto che poteva ottimizzare il diffusore per funzionare praticamente su qualsiasi cosa. Non sarebbe necessariamente veloce, ma funzionerebbe e si adatterebbe al tuo hardware.

Invece di richiedere enormi risorse cloud, questi nuovi strumenti di intelligenza artificiale vengono eseguiti localmente. E se hai acquistato un computer mostruoso, funzionerebbero almeno con la stessa velocità di qualsiasi cosa offerta da OpenAI o Midjourney, senza abbonamento.

La comunità open source sempre entusiasta che guida Stable Diffusion ha creato una serie impressionante di nuove ponderazioni dei diffusori, ciascuna mirata a un'estetica specifica. Stable Diffusion non è semplicemente veloce come qualsiasi cosa offerta da un'azienda commerciale di intelligenza artificiale: è sia più utile che più estensibile.

E poi - sì, hai indovinato - il mondo è cambiato di nuovo. All'inizio di dicembre, OpenAI's ChatGPT ha completamente riscritto le nostre aspettative per l'intelligenza artificiale, diventando la web app più veloce a raggiungere 100 milioni di utenti. Un modello di linguaggio di grandi dimensioni (LLM) alimentato da un "trasformatore generativo pre-addestrato": quanti di noi hanno dimenticato che è ciò che rappresenta GPT? – che ha addestrato i suoi pesi sulle vaste raccolte di testi disponibili su Internet.

Si stima che lo sforzo di formazione sia costato milioni (forse decine di milioni) in risorse di cloud computing di Azure. Ci si aspettava che quel costo di ingresso fosse sufficiente per tenere a bada i concorrenti, tranne forse per Google e Meta.

Fino a quando, ancora una volta, il mondo è cambiato. A marzo Meta rilasciato LLaMA – un modello linguistico molto più compatto ed efficiente, con un database relativamente piccolo di ponderazioni, ma con una qualità di risposta che si avvicina al GPT-4 di OpenAI.

Con un modello di soli trenta miliardi di parametri, LLaMA può stare comodamente su un PC con 32GB di RAM. Qualcosa di molto simile a ChatGPT, che viene eseguito su Azure Cloud a causa del suo enorme database di ponderazioni, può essere eseguito praticamente ovunque.

I ricercatori di Meta hanno offerto le loro ponderazioni ai loro colleghi accademici, scaricabili gratuitamente. Poiché LLaMA poteva funzionare sui loro computer di laboratorio, i ricercatori di Stanford hanno immediatamente migliorato LLaMA attraverso la loro nuova tecnica di allenamento chiamata Alpaca-Lora, che ha ridotto il costo dell'addestramento di una serie esistente di ponderazioni da centinaia di migliaia di dollari a poche centinaia di dollari. Hanno anche condiviso il loro codice.

Proprio come DALL-E ha perso contro Stable Diffusion per usabilità ed estensibilità, ChatGPT sembra perdere un'altra gara, poiché i ricercatori producono una gamma di modelli, come Alpaca, Vigogna, Koala, e un serraglio di altri - che si addestrano e si riqualificano in modo rapido ed economico.

Stanno migliorando molto più rapidamente di quanto ci si aspettasse. In parte perché si stanno allenando su molte "conversazioni" ChatGPT che sono state condivise su siti come Reddit e possono funzionare bene sulla maggior parte dei PC. Se hai un computer mostruoso, funzionano davvero molto bene.

Le macchine per le quali non potevamo immaginare un utilizzo solo un anno fa hanno trovato il loro scopo: stanno diventando i cavalli di battaglia di tutte le nostre attività di intelligenza artificiale generativa. Ci aiutano a codificare, pianificare, scrivere, disegnare, modellare e molto altro ancora.

E non saremo obbligati agli abbonamenti per far funzionare questi nuovi strumenti. Sembra che l'open source abbia già superato lo sviluppo commerciale sia dei diffusori che dei trasformatori.

L'intelligenza artificiale open source ci ha anche ricordato perché il PC è proliferato: consentendo di portare a casa strumenti che una volta erano disponibili solo in ufficio.

Questo non chiuderà la porta al commercio. Semmai, significa che c'è più spazio per gli imprenditori per creare nuovi prodotti, senza preoccuparsi se violano i modelli di business alla base di Google, Microsoft, Meta o chiunque altro. Ci stiamo dirigendo verso un periodo di sconvolgimento pervasivo della tecnologia e le dimensioni non sembrano conferire molti vantaggi.

I mostri sono in libertà. Penso che sia una buona cosa. ®

Timestamp:

Di più da Il registro