Dimentica il disastro e l'hype sull'intelligenza artificiale, rendiamo i computer utili

Dimentica il disastro e l'hype sull'intelligenza artificiale, rendiamo i computer utili

Dimentica il disastro e l'hype dell'IA, rendiamo i computer utili PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Approccio sistemico Divulgazione completa: ho una storia con l'intelligenza artificiale, avendo flirtato con essa negli anni '1980 (ricordate i sistemi esperti?) e poi avendo evitato in modo sicuro l'inverno dell'intelligenza artificiale della fine degli anni '1980 virando verso la verifica formale prima di approdare finalmente al networking come mia specialità in 1988.

E proprio come il mio collega di approccio sistemico Larry Peterson ha classici come il manuale di Pascal nella sua libreria, ho ancora un paio di libri sull'intelligenza artificiale degli anni Ottanta sul mio, in particolare quello di PH Winston Intelligenza Artificiale (1984). Sfogliare quel libro è davvero emozionante, nel senso che in gran parte sembra essere stato scritto ieri. Ad esempio, la prefazione inizia così:

Il campo dell’Intelligenza Artificiale è cambiato enormemente da quando è stata pubblicata la prima edizione di questo libro. Le materie relative all'Intelligenza Artificiale sono di rigore per gli studenti universitari in informatica e gli articoli sull'Intelligenza Artificiale compaiono regolarmente nella maggior parte delle rinomate riviste di notizie. Parte della ragione del cambiamento è che si sono accumulati risultati solidi.

Mi ha anche incuriosito vedere alcuni esempi del 1984 di “cosa possono fare i computer”. Un esempio è stato la risoluzione di problemi di calcolo molto difficili, degno di nota perché l'aritmetica accurata sembra essere oltre le capacità degli odierni sistemi basati su LLM.

Se il calcolo infinitesimale era già risolvibile dai computer nel 1984, mentre l’aritmetica di base ostacola i sistemi che consideriamo oggi lo stato dell’arte, forse la quantità di progressi nell’intelligenza artificiale negli ultimi 40 anni non è così grande come sembra a prima vista. (Detto questo, ci sono anche better sistemi di calcolo odierni, semplicemente non sono basati su LLM e non è chiaro se qualcuno si riferisca a loro come AI.)

Uno dei motivi per cui ho preso la mia vecchia copia di Winston è stato vedere cosa aveva da dire sulla definizione di intelligenza artificiale, perché anche questo è un argomento controverso. La sua prima opinione a riguardo non è molto incoraggiante:

L’intelligenza artificiale è lo studio delle idee che consentono ai computer di essere intelligenti.

Bene, OK, è piuttosto circolare, dal momento che devi definire l'intelligenza in qualche modo, come ammette Winston. Ma poi prosegue affermando due obiettivi dell’intelligenza artificiale:

  1. Per rendere i computer più utili
  2. Comprendere i principi che rendono possibile l’intelligenza.

In altre parole, è difficile definire l'intelligenza, ma forse lo studio dell'intelligenza artificiale ci aiuterà a comprendere meglio di cosa si tratta. Oserei dire che, 40 anni dopo, il dibattito su cosa costituisca intelligenza è ancora in corso. Il primo obiettivo sembra lodevole ma si applica chiaramente a gran parte della tecnologia non basata sull’intelligenza artificiale.

Questo dibattito sul significato di “AI” continua a incombere sul settore. Mi sono imbattuto in molte lamentele secondo cui non avremmo bisogno del termine Intelligenza Generale Artificiale, alias AGI, se solo il termine AI non fosse stato così inquinato da persone che commercializzano modelli statistici come AI. Non lo compro davvero. Per quanto ne so, l'intelligenza artificiale ha sempre coperto un'ampia gamma di tecniche informatiche, la maggior parte delle quali non ingannerebbe nessuno facendogli credere che il computer mostri livelli di intelligenza umana.

Quando ho iniziato a impegnarmi nuovamente nel campo dell’intelligenza artificiale circa otto anni fa, le reti neurali – che alcuni miei colleghi utilizzavano nel 1988 prima che cadessero in disgrazia – avevano fatto un sorprendente ritorno, al punto in cui il riconoscimento delle immagini mediante metodi profondi le reti neurali avevano superato la velocità e la precisione degli esseri umani, anche se con alcuni avvertimenti. Questa crescita dell'intelligenza artificiale ha portato a un certo livello di ansia tra i miei colleghi ingegneri di VMware, i quali sentivano che era in corso un importante cambiamento tecnologico che (a) la maggior parte di noi non capiva (b) il nostro datore di lavoro non era nella posizione di trarne vantaggio .

Mentre mi lanciavo nel compito di imparare come funzionano le reti neurali (con a grande aiuto da Rodney Brooks) Mi sono reso conto che il linguaggio che usiamo per parlare dei sistemi di intelligenza artificiale ha un impatto significativo sul modo in cui li pensiamo. Ad esempio, nel 2017 si sentiva parlare molto di “deep learning” e “reti neurali profonde”, e l’uso della parola “deep” ha un interessante doppio significato. Se dico che ho “pensieri profondi” potresti immaginare che sto pensando al significato della vita o a qualcosa di altrettanto importante, e “apprendimento profondo” sembra implicare qualcosa di simile.

Ma in realtà il “profondo” in “deep learning” è un riferimento alla profondità, misurata in numero di strati, della rete neurale che supporta l’apprendimento. Quindi non è “profondo” nel senso di significativo, ma semplicemente profondo nello stesso modo in cui una piscina ha un'estremità profonda – quella con più acqua al suo interno. Questo doppio significato contribuisce all’illusione che le reti neurali “pensino”.

Una confusione simile si applica all'"apprendimento", che è l'ambito in cui Brooks è stato di grande aiuto: una rete neurale profonda (DNN) migliora in un compito quanto più dati di addestramento è esposta, quindi in questo senso "impara" dall'esperienza, ma il modo in cui apprende non assomiglia al modo in cui un essere umano apprende le cose.

Come esempio di come apprendono i DNN, considera AlphaGo, il sistema di gioco che utilizzava le reti neurali per sconfitta grandi maestri umani. Secondo gli sviluppatori del sistema, mentre un essere umano gestirebbe facilmente un cambiamento delle dimensioni della scheda (normalmente una griglia 19×19), un piccolo cambiamento renderebbe AlphaGo impotente finché non avesse il tempo di addestrarsi sui nuovi dati dalla scheda ridimensionata.

Per me questo illustra chiaramente come l’”apprendimento” dei DNN sia fondamentalmente diverso dall’apprendimento umano, anche se usiamo la stessa parola. La rete neurale non è in grado di generalizzare ciò che ha “imparato”. E sottolineando questo punto, AlphaGo è stato recentemente sconfitto da un avversario umano che ha utilizzato ripetutamente uno stile di gioco che non era presente nei dati di allenamento. Questa incapacità di gestire nuove situazioni sembra essere un segno distintivo dei sistemi di intelligenza artificiale.

La lingua conta

Il linguaggio utilizzato per descrivere i sistemi di intelligenza artificiale continua a influenzare il modo in cui li pensiamo. Sfortunatamente, data la ragionevole opposizione alla recente campagna pubblicitaria sull’intelligenza artificiale e alcuni notevoli fallimenti con i sistemi di intelligenza artificiale, ora potrebbero esserci tante persone convinte che l’intelligenza artificiale sia completamente inutile quanti sono i membri del campo che afferma che l’intelligenza artificiale sta per raggiungere un’intelligenza simile a quella umana. .

Sono molto scettico nei confronti di quest’ultimo campo, come sottolineato sopra, ma penso anche che sarebbe un peccato perdere di vista l’impatto positivo che i sistemi di intelligenza artificiale – o, se preferisci, i sistemi di apprendimento automatico – possono avere.

Attualmente sto aiutando un paio di colleghi a scrivere un libro sulle applicazioni di apprendimento automatico per le reti e non dovrebbe sorprendere nessuno sapere che ci sono molti problemi di rete che possono essere affrontati con soluzioni basate su ML. In particolare, le tracce del traffico di rete sono fantastiche fonti di dati e i dati di addestramento sono il cibo su cui prosperano i sistemi di apprendimento automatico.

Le applicazioni che vanno dalla prevenzione della negazione del servizio al rilevamento di malware fino alla geolocalizzazione possono tutte fare uso di algoritmi ML e l'obiettivo di questo libro è aiutare gli utenti della rete a capire che il ML non è una polvere magica da spargere sui dati per ottenere risposte, ma un insieme di strumenti ingegneristici che possono essere applicati selettivamente per produrre soluzioni a problemi reali. In altre parole, né una panacea né un placebo troppo pubblicizzato. Lo scopo del libro è aiutare i lettori a capire quali strumenti ML sono adatti alle diverse classi di problemi di rete.

Una storia che ha attirato la mia attenzione qualche tempo fa è stata l’uso dell’intelligenza artificiale per aiutare Network Rail nel Regno Unito gestire la vegetazione che cresce lungo le linee ferroviarie britanniche. La tecnologia chiave dell’intelligenza artificiale in questo caso è il riconoscimento delle immagini (per identificare le specie vegetali), sfruttando il tipo di tecnologia fornita dalle DNN negli ultimi dieci anni. Forse non così entusiasmante come i sistemi di intelligenza artificiale generativa che hanno catturato l’attenzione del mondo nel 2023, ma una buona applicazione pratica di una tecnica che rientra nell’ambito dell’intelligenza artificiale.

La mia tendenza in questi giorni è quella di provare a usare il termine "apprendimento automatico" piuttosto che intelligenza artificiale quando è appropriato, sperando di evitare sia il clamore pubblicitario che le reazioni allergiche che l'"intelligenza artificiale" ora produce. E con le parole di Patrick Winston fresche nella mia mente, potrei iniziare a parlare di “rendere utili i computer”. ®

Timestamp:

Di più da Il registro