Il rapporto di Stanford sull’intelligenza artificiale trova l’industria in forte espansione a un bivio

Il rapporto di Stanford sull’intelligenza artificiale trova l’industria in forte espansione a un bivio

Il rapporto di Stanford sull'intelligenza artificiale trova l'industria in forte espansione a un bivio PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Lo Stanford Institute for Human-Centered Artificial Intelligence (HAI) ha pubblicato il suo settimo rapporto annuale sull’indice AI, che segnala un settore fiorente che deve affrontare costi, normative e preoccupazioni crescenti.

La pagina 502 rapporto [PDF] proviene dal mondo accademico e industriale – il comitato direttivo dell'HAI è guidato dal co-fondatore di Anthropic Jack Clark e da Ray Perrault, uno scienziato informatico del Centro di intelligenza artificiale di SRI International – e quindi non si sofferma troppo sul burn-it- argomenti con il fuoco.

A quel punto, il rapporto definisce la privacy in modo tale che gli individui abbiano il diritto di acconsentire a modelli linguistici di grandi dimensioni (LLM) che utilizzano i loro dati. Tuttavia, non propone che le aziende di intelligenza artificiale abbandonino i modelli esistenti perché sono stati costruiti senza permesso. Suggerisce trasparenza, piuttosto che penitenza.

“Ottenere un consenso autentico e informato per la raccolta dei dati di formazione è particolarmente impegnativo con gli LLM, che fanno affidamento su enormi quantità di dati”, afferma il rapporto. “In molti casi, gli utenti non sono consapevoli di come vengono utilizzati i loro dati o della portata della loro raccolta. Pertanto, è importante garantire la trasparenza sulle pratiche di raccolta dei dati”.

L'esito di diverse cause legali pendenti, come il caso contro Copilot di GitHub, potrebbe significare che la trasparenza non è sufficiente, che i dati di addestramento dell’IA richiedono un permesso esplicito e forse pagamenti proibitivi.

Ma partendo dal presupposto che l’intelligenza artificiale è qui per restare e deve essere presa in considerazione nella sua forma attuale, il rapporto riesce a evidenziare la promessa e il pericolo del processo decisionale automatizzato.

“La nostra missione è fornire dati imparziali, rigorosamente controllati e di ampia provenienza affinché politici, ricercatori, dirigenti, giornalisti e il pubblico in generale possano sviluppare una comprensione più approfondita e articolata del complesso campo dell’intelligenza artificiale”, spiega il rapporto.

Alcuni dei principali risultati del rapporto non sono particolarmente sorprendenti, come “L’intelligenza artificiale batte gli esseri umani in alcuni compiti, ma non in tutti” e “L’industria continua a dominare la ricerca di frontiera sull’intelligenza artificiale”.

Riguardo a quest’ultimo punto, il rapporto afferma che l’industria ha prodotto 51 modelli di machine learning degni di nota, rispetto ai 15 provenienti dal mondo accademico e ai 21 provenienti da collaborazioni tra industria e università.

Mentre i modelli chiusi (ad esempio GPT-4, Gemini) hanno sovraperformato i modelli open source su una serie di 10 benchmark AI, i modelli open source stanno diventando più comuni. Dei 149 modelli di fondazione rilasciati nel 2023, il 65.7% era open source, rispetto al 44.4% nel 2022 e al 33.3% nel 2021.

Il fatto che questa tendenza continui potrebbe essere correlato a un’altra scoperta importante: “I modelli di frontiera diventano molto più costosi”. Vale a dire che è improbabile che i modelli open source diventino più competitivi con i loro rivali closed source se il costo per addestrare un modello di intelligenza artificiale all’avanguardia diventa qualcosa che solo le persone ben finanziate possono contemplare.

“Secondo le stime dell’AI Index, i costi medi per la formazione dei modelli di intelligenza artificiale di frontiera sono quasi raddoppiati nell’ultimo anno”, afferma il rapporto. “In particolare, i costi di formazione dei modelli più moderni hanno raggiunto livelli senza precedenti. Ad esempio, GPT-4 di OpenAI ha utilizzato un valore stimato di 78 milioni di dollari di calcolo per l'addestramento, mentre Gemini Ultra di Google è costato 191 milioni di dollari per il calcolo."

C'è già qualche dubbio che l'intelligenza artificiale valga i soldi spesi. Uno studio di gennaio del MIT CSAIL, del MIT Sloan, del Productivity Institute e dell'IBM Institute for Business Value essere trovato che “è economicamente sensato sostituire il lavoro umano con l’intelligenza artificiale in circa un quarto dei lavori in cui la visione è una componente chiave del lavoro”. E un recente Wall Street Journal rapporto indica che le aziende tecnologiche non hanno necessariamente trovato un modo per far fruttare gli investimenti nell’intelligenza artificiale.

Quindi tutto il costi aggiuntivi per servizi potenziati con l’intelligenza artificiale.

Se considerati insieme ad altri risultati del rapporto HAI come “Negli Stati Uniti, le normative sull’intelligenza artificiale aumentano notevolmente”, è probabile che la formazione dei modelli di intelligenza artificiale diventi ancora più ad alta intensità di capitale. Negli Stati Uniti l’anno scorso, afferma il rapporto, sono state introdotte 25 normative relative all’intelligenza artificiale – rispetto a una nel 2016 – e queste comporteranno costi aggiuntivi.

Un’altra scoperta che potrebbe portare a più normative, e quindi a costi di conformità, è il modo in cui le persone percepiscono l’intelligenza artificiale. “Le persone in tutto il mondo sono più consapevoli del potenziale impatto dell’intelligenza artificiale – e più nervose”, afferma il rapporto. Si cita un aumento del numero di persone che pensano che l’IA avrà un impatto sulle loro vite nei prossimi tre-cinque anni (66%, in aumento di sei punti percentuali) e del numero di persone che sono nervose nei confronti dell’IA (52%, in aumento del 13%). punti).

Un’ulteriore potenziale fonte di problemi per le aziende di intelligenza artificiale deriva dalla mancanza di standard di valutazione per gli LLM, una situazione che consente alle aziende di intelligenza artificiale di selezionare i propri parametri di riferimento per i test. “Questa pratica complica gli sforzi volti a confrontare sistematicamente i rischi e i limiti dei principali modelli di intelligenza artificiale”, afferma il rapporto.

Il rapporto HAI presuppone che l’intelligenza artificiale migliori la produttività dei lavoratori e acceleri il progresso scientifico, citando GNoME di DeepMind, “che facilita il processo di scoperta dei materiali”.

Sebbene sia stato dimostrato che l’automazione dell’intelligenza artificiale migliora la produttività in compiti specifici, la sua utilità come fonte di idee rimane oggetto di dibattito. Come noi segnalati di recente, ad esempio, c'è ancora un certo scetticismo sul valore delle previsioni assistite dall'intelligenza artificiale per nuovi materiali utilizzabili.

Comunque sia, si stanno facendo grandi scommesse sull’intelligenza artificiale. Gli investimenti in IA generativa sono aumentati di otto volte, da 3 miliardi di dollari nel 2022 a 25.2 miliardi di dollari nel 2023. E gli Stati Uniti sono attualmente la principale fonte di sistemi di IA, con 61 modelli di IA degni di nota nel 2023, rispetto ai 21 dell’Unione Europea e ai 15 della Cina.

“L’intelligenza artificiale si trova di fronte a due futuri interconnessi”, scrivono Clark e Perrault. “In primo luogo, la tecnologia continua a migliorare ed è sempre più utilizzata, con conseguenze importanti sulla produttività e sull’occupazione. Può essere utilizzato sia nel bene che nel male. Nel secondo futuro, l’adozione dell’intelligenza artificiale sarà vincolata dai limiti della tecnologia”.

Nei prossimi anni dovremmo vedere quale di questi due futuri prevarrà. ®

Timestamp:

Di più da Il registro