Holly Elmore guida la protesta sulla sicurezza dell'open source

Holly Elmore guida la protesta sulla sicurezza dell'open source

Holly Elmore guida la protesta sulla sicurezza open source PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Con una mossa coraggiosa contro la recente posizione di Meta sull'intelligenza artificiale (AI) open source, Holly Elmore, sostenitrice della sicurezza dell'IA, ha guidato una manifestazione fuori dalla base di Meta a San Francisco.

Il cuore della controversia risiede nei potenziali pericoli derivanti dal rilascio gratuito di potenti pesi di modelli di intelligenza artificiale, che secondo Elmore e i suoi sostenitori potrebbero portare a rischi di “proliferazione irreversibile”.

Meta ha agitato le acque tecnologiche all'inizio di quest'anno rilascio il peso della sua famiglia di modelli LLaMA per i ricercatori di intelligenza artificiale, una decisione che diverge in modo significativo dalle politiche di altri giganti della tecnologia. Questi pesi, vitali per il funzionamento del modello, possono essere manipolati e modificati una volta nelle mani di esperti, sollevando preoccupazioni per un uso improprio. In effetti, non ci volle molto perché questi pesi lo fossero trapelato online, intensificando le critiche all'approccio open source di Meta.

I rischi del rilascio dei pesi

Elmore, una volta associata al think tank Rethink Priorities, ha espresso le sue preoccupazioni:

“Lo sblocco dei pesi è una politica pericolosa perché i modelli possono essere modificati da chiunque e non possono essere ritirati”.

Ha sottolineato la crescente minaccia man mano che i modelli diventano più avanzati e potenti. Quando i pesi dei modelli sono apertamente disponibili, possono essere potenzialmente utilizzati per attività dannose, che vanno dalla creazione di schemi di phishing alla pianificazione attacchi informatici. Una volta che i pesi sono in mano, avverte Elmore, c'è una facilità inquietante nel superare i guardrail di sicurezza.

Peter S. Park del MIT fa eco a questi sentimenti. Egli avverte dei pericoli se l’attuale approccio open source venisse trasferito a un’intelligenza artificiale più avanzata, che potrebbe operare con maggiore autonomia, consentendo così un uso improprio su scala più ampia e dannosa.

Una controargomentazione: la difesa open source

Stella Bidermann di EleutherAI, tuttavia, offre una prospettiva diversa. Biderman mette in dubbio il presupposto immediato secondo cui il rilascio dei pesi del modello è direttamente correlato a un potenziale uso improprio. Ritiene che il termine “proliferazione” associato alle armi di distruzione di massa sia fuorviante nel contesto dell’intelligenza artificiale. Sostenendo che gli elementi di base per costruire grandi modelli linguistici sono già allo scoperto, Biderman ritiene che la segretezza potrebbe non essere la panacea per potenziali abusi.

Aggiunge che sollecitare le aziende a mantenere il segreto sui loro modelli potrebbe avere “gravi conseguenze a valle per la trasparenza, la consapevolezza pubblica e la scienza”. Una tale politica potrebbe inavvertitamente danneggiare i ricercatori e gli appassionati indipendenti più di quanto non protegga da potenziali minacce.

Navigare in acque open source nell'intelligenza artificiale

Il termine 'open-source' nel regno dell'intelligenza artificiale è confuso. Come sottolinea Stefano Maffulli dell’Open Source Initiative (OSI), diverse organizzazioni hanno cooptato il termine, portando a una comprensione ambigua di ciò che significa veramente nell’intelligenza artificiale. Affinché il software sia veramente open source, tutti i suoi componenti, dal codice sorgente ai dati di addestramento, devono essere accessibili pubblicamente e riutilizzabili.

Il futuro dell’intelligenza artificiale open source è ancora in fase di definizione, con l’OSI che cerca attivamente di definirne i parametri. Maffulli rimane irremovibile sull’importanza di un approccio aperto, sottolineando che l’intelligenza artificiale può essere “affidabile, responsabile e affidabile” solo se si allinea ai principi open source.

Sebbene il dibattito sull’intelligenza artificiale open source sia lungi dall’essere risolto, una cosa è chiara: il rapido progresso della tecnologia richiede un attento equilibrio tra accessibilità e sicurezza. Mentre aziende come Meta vanno avanti con le loro politiche, la comunità tecnologica e il pubblico continueranno a confrontarsi con le sfide e le implicazioni dell’intelligenza artificiale open source.

Timestamp:

Di più da MetaNotizie