Trasformato, non terminato: i ricercatori sull'intelligenza artificiale valutano il futuro - Decrypt

Trasformato, non terminato: i ricercatori sull'intelligenza artificiale valutano il futuro – Decrittografa

Nonostante il colpo di avvertimento sentito in tutto il mondo – una lettera aperta firmata da centinaia di leader del settore che dichiarano l’intelligenza artificiale una minaccia esistenziale per l’umanità – un nuovo sondaggio condotto su oltre 2,700 esperti di intelligenza artificiale dipinge un quadro meno terribile del futuro.

Gli impatti completi dell’IA sondaggio, condotto con l'aiuto di ricercatori delle Università di Oxford, Berkeley e Bonn, ha chiesto ai ricercatori di intelligenza artificiale il ritmo dei progressi nel campo e il potenziale impatto dei sistemi avanzati di intelligenza artificiale. Sebbene sia stata raccolta un’ampia gamma di prospettive, solo il 5% circa ritiene che vi sia un’alta probabilità di estinzione umana a causa dell’intelligenza artificiale.

Ciò contrasta nettamente con i sentimenti del grande pubblico.

Un 2023 agosto sondaggio ha scoperto che il 61% degli americani vede l’intelligenza artificiale come una minaccia per l’umanità. La preoccupazione è stata condivisa dai leader del settore che hanno firmato un Centro per la sicurezza dell’intelligenza artificiale lettera affermando che “mitigare il rischio di estinzione dell’intelligenza artificiale dovrebbe essere una priorità globale”.

Paul Christiano, ex capo dell'allineamento di OpenAI, stimato una probabilità del 50% che l’IA finisca in una “catastrofe”. Molti hanno dichiarato che l’intelligenza artificiale è una minaccia alla pari di una guerra nucleare o di una pandemia globale.

Nonostante queste previsioni pessimistiche ampiamente diffuse, l’intelligenza artificiale continua ad evolversi. Le aziende stanno correndo per sviluppare sistemi più avanzati, con il CEO di OpenAI Sam Altman che sostiene le normative insieme a una spinta per testare i confini della tecnologia.

Per quanto riguarda le capacità dell’intelligenza artificiale, molti intervistati prevedevano che l’intelligenza artificiale avrebbe raggiunto importanti traguardi creativi entro 10 anni: codificare da zero un intero sito di pagamento, ad esempio, o creare canzoni indistinguibili dai successi di oggi. Ma i tempi si allungavano più a lungo per sfide come la dimostrazione di teoremi matematici.

Trasformata, non terminata: i ricercatori sull'intelligenza artificiale valutano il futuro: decrittografano la data intelligence di PlatoBlockchain. Ricerca verticale. Ai.

Più specificamente, la possibilità che l’High-Level Machine Intelligence (HLMI) diventi realtà è stata avvicinata di 13 anni, con una probabilità di successo prevista del 50% entro il 2047. Allo stesso modo, Completa automazione del lavoro (FAOL), una delle controverse previsioni di Elon Musk, si è spostato 48 anni prima al 2116.

Alla domanda sulla capacità dell’intelligenza artificiale di eguagliare tutte le capacità umane, i ricercatori hanno previsto una probabilità del 50% entro il 2047. Si tratta di 13 anni prima rispetto a quella di un sondaggio simile nel 2022.

Gli intervistati erano divisi sulla questione se un progresso più rapido o più lento avrebbe apportato maggiori benefici all’umanità.

È interessante notare che, mentre si prevede che i sistemi di intelligenza artificiale del 2043 saranno in grado di trovare modi inaspettati per raggiungere obiettivi, c’è meno fiducia tra i ricercatori nella capacità umana di spiegare tali azioni. Questa ambiguità nel modo in cui funziona il processo decisionale sull’IA evidenzia la necessità di dare priorità alla ricerca sulla sicurezza dell’IA, un sentimento condiviso dal 70% degli intervistati.

Le opinioni differivano sulla questione se si potesse fidarsi dell’IA nel 2028 per spiegare il proprio ragionamento.

Esiste anche una notevole preoccupazione riguardo a rischi come la disinformazione, la disuguaglianza e la sorveglianza di massa consentita dall’intelligenza artificiale.

Sebbene i ricercatori siano nel complesso cautamente ottimisti, circa il 40% ritiene che esista una possibilità minima (non zero) di estinzione umana a causa dell’intelligenza artificiale avanzata. Quindi, anche se i robot killer non sono imminenti, lo studio dell’etica e della sicurezza dell’IA rimane fondamentale.

A cura di Ryan Ozawa.

Rimani aggiornato sulle notizie crittografiche, ricevi aggiornamenti quotidiani nella tua casella di posta.

Timestamp:

Di più da decrypt