Meta sta costruendo un'intelligenza artificiale per verificare i fatti su Wikipedia: tutti i 6.5 milioni di articoli PlatoBlockchain Data Intelligence. Ricerca verticale. Ai.

Meta sta costruendo un'intelligenza artificiale per verificare i fatti su Wikipedia: tutti i 6.5 milioni di articoli

Immagine

La maggior parte delle persone di età superiore ai 30 anni probabilmente ricorda di aver fatto ricerche con buone enciclopedie vecchio stile. Prenderesti un grosso volume dallo scaffale, controlleresti l'indice per il tuo argomento di interesse, quindi scorri alla pagina appropriata e inizi a leggere. Non è stato facile come digitare qualche parola nella barra di ricerca di Google, ma il lato positivo è che sapevi che le informazioni che hai trovato nelle pagine del Britannica oppure Libro del mondo era preciso e veritiero.

Non è così con la ricerca su Internet oggi. La schiacciante moltitudine di fonti era abbastanza confusa, ma aggiungi la proliferazione della disinformazione ed è sorprendente che qualcuno di noi creda a una parola che leggiamo online.

Wikipedia è un esempio calzante. All'inizio del 2020, la versione inglese del sito era in media 255 milioni visualizzazioni di pagina al giorno, rendendolo l'ottavo sito Web più visitato su Internet. A partire dal mese scorso, si era spostato in posizione numero settee la versione inglese è attualmente finita 6.5 milioni articoli.

Ma per quanto possa essere ad alto traffico questa fonte di informazioni, la sua precisione lascia a desiderare; il pagina sull'affidabilità del sito afferma: "L'enciclopedia online non si considera una fonte affidabile e scoraggia i lettori dall'usarla in contesti accademici o di ricerca".

Meta, dell'ex Facebook, vuole cambiare questo. In un post sul blog pubblicato il mese scorso, i dipendenti dell'azienda descrivono come l'IA potrebbe aiutare a rendere Wikipedia più accurata.

Sebbene decine di migliaia di persone partecipino alla modifica del sito, i fatti che aggiungono non sono necessariamente corretti; anche quando le citazioni sono presenti, non sono sempre accurate e nemmeno rilevanti.

Meta sta sviluppando un modello di apprendimento automatico che scansiona queste citazioni e incrocia il loro contenuto con gli articoli di Wikipedia per verificare che non solo gli argomenti siano allineati, ma anche le cifre specifiche citate siano accurate.

Non si tratta solo di scegliere i numeri e assicurarsi che corrispondano; L'IA di Meta dovrà "capire" il contenuto delle fonti citate (sebbene "capire" sia un termine improprio, poiché la ricercatrice di teoria della complessità Melanie Mitchell te lo direi, perché l'IA è ancora nella fase "stretta", il che significa che è uno strumento per il riconoscimento di schemi altamente sofisticati, mentre "comprensione" è una parola usata per la cognizione umana, che è ancora una cosa molto diversa).

Il modello di Meta "capirà" il contenuto non confrontando stringhe di testo e assicurandosi che contengano le stesse parole, ma confrontando rappresentazioni matematiche di blocchi di testo, a cui arriva utilizzando tecniche di comprensione del linguaggio naturale (NLU).

"Quello che abbiamo fatto è costruire un indice di tutte queste pagine web suddividendole in passaggi e fornendo una rappresentazione accurata di ogni passaggio", Fabio Petroni, responsabile tecnico della ricerca fondamentale sull'intelligenza artificiale di Meta, detto Digital Trends. “Questo non è rappresentare parola per parola il passaggio, ma il significato del passaggio. Ciò significa che due porzioni di testo con significati simili saranno rappresentate in una posizione molto ravvicinata nello spazio n-dimensionale risultante in cui sono archiviati tutti questi passaggi".

L'IA è stata addestrata su un set di quattro milioni di citazioni di Wikipedia e, oltre a individuare le citazioni errate sul sito, i suoi creatori vorrebbero che alla fine fosse in grado di suggerire fonti accurate al loro posto, attingendo da un enorme indice di dati che è in continuo aggiornamento.

Un grosso problema rimasto da risolvere è lavorare in un sistema di classificazione per l'affidabilità delle fonti. Un articolo di una rivista scientifica, ad esempio, riceverebbe un voto più alto rispetto a un post di un blog. La quantità di contenuti online è così vasta e varia che puoi trovare "fonti" per supportare qualsiasi affermazione, ma analizzando la disinformazione dalla disinformazione (la prima significa errata, mentre la seconda significa deliberatamente ingannevole) e il peer-reviewed dal non peer-reviewed, dal fact-checked dal frettolosamente schiaffeggiato, non è un compito da poco, ma molto importante quando si tratta di fiducia.

Meta ha reso open source il suo modello e chi è curioso può vedere a dimostrazione dello strumento di verifica. Il post sul blog di Meta ha notato che la società non sta collaborando con Wikimedia su questo progetto, e che è ancora nella fase di ricerca e non viene attualmente utilizzato per aggiornare i contenuti su Wikipedia.

Se immagini un futuro non troppo lontano in cui tutto ciò che leggi su Wikipedia è accurato e affidabile, non renderebbe un po' troppo facile fare qualsiasi tipo di ricerca? C'è qualcosa di prezioso nel controllare e confrontare noi stessi varie fonti, vero? È stato un grande salto passare dal sfogliare libri pesanti alla digitazione di alcune parole in un motore di ricerca e premere "Invio"; vogliamo davvero che Wikipedia si sposti da un punto di partenza per la ricerca a una fonte che ottiene l'ultima parola?

In ogni caso, il team di ricerca sull'intelligenza artificiale di Meta continuerà a lavorare per uno strumento per migliorare l'enciclopedia online. "Penso che siamo stati spinti dalla curiosità alla fine della giornata", Petroni disse. “Volevamo vedere qual era il limite di questa tecnologia. Non eravamo assolutamente sicuri se [questa IA] potesse fare qualcosa di significativo in questo contesto. Nessuno aveva mai provato a fare qualcosa di simile".

Immagine di credito: Gerd Altmann da Pixabay

Timestamp:

Di più da Hub di singolarità