Notizie false: perché la gente ci crede? Intelligenza dei dati PlatoBlockchain. Ricerca verticale. Ai.

Notizie false: perché la gente ci crede?

Nell’era del ciclo perpetuo delle notizie e dei media digitali, i rischi derivanti dal problema delle fake news sono fin troppo reali

Ogni giorno porta con sé un diluvio di contenuti di notizie che competono per la nostra attenzione e spaziano dalla politica, alla salute, allo sport e al cambiamento climatico fino al guerra in Ucraina. La quantità infinita e l'ampiezza delle informazioni, immediatamente disponibili come articoli di notizie, videoclip, foto o altri media siti web di notizie, piattaforme di social media, televisione, radio e altre fonti – può, e spesso lo fa, sembrare opprimente. C'è da meravigliarsi che così tanti di noi facciano fatica a far fronte al sovraccarico di informazioni e persino a distinguere i fatti dalla narrativa online?

Recentemente, gran parte del ciclo di notizie globali si è giustamente concentrato sul conflitto in Ucraina. Tutto è iniziato con le immagini satellitari dei movimenti dell’esercito che allertavano sul rischio di una possibile invasione russa. Poi, nelle prime ore del 24 febbraioth, dall'Ucraina hanno cominciato ad arrivare filmati raccapriccianti mentre i cittadini si sono rivolti ai social media per pubblicare video e foto di carri armati che rotolano nelle strade e razzi che cadono dal cielo, lasciando dietro di sé distruzione.

Da allora, abbiamo tutti potuto osservare lo svolgersi della guerra sui nostri telefoni con dettagli mai visti prima; non per niente la guerra è stata soprannominata la “prima guerra di TikTok”. Il popolo ucraino può sfruttare la portata di piattaforme come TikTok, Twitter e Instagram per mostrare al mondo quello che sta attraversando. Infatti, da un giorno all’altro, alcune di queste app sono passate dalla presentazione di video di danza alla visualizzazione di scene di guerra e appelli per il sostegno umanitario, attirando nel processo innumerevoli visualizzazioni e condivisioni. Ma entrambe le parti in guerra hanno accesso a queste piattaforme, che poi diventano un campo di battaglia digitale per influenzare milioni di persone in tutto il mondo.

Ma sappiamo sempre cosa stiamo realmente guardando?

Nel 2008, dopo la copertura di successo della Coppa del Mondo FIFA 2006 che includeva video e foto scattate dai tifosi di calcio, la CNN ha lanciato iReport, un sito web di “giornalista cittadino”. Chiunque ora può caricare i propri contenuti online per un vasto pubblico. All'epoca, il vicepresidente esecutivo del servizio notizie della CNN Susan Grant garantito che da quel momento “sarà la comunità a decidere quali saranno le notizie”, chiarendo che le pubblicazioni saranno “totalmente non controllate”.

La convinzione della CNN si basava sull'idea che il giornalismo partecipativo sia “emotivo e reale”. Di 2012, sono state pubblicate 100,000 storie e 10,789 sono state "controllate per la CNN, il che significa che sono state verificate e approvate per essere trasmesse". Ma questo significa che gli altri 89,211 erano reali? CNN iReport è stato chiuso nel 2015. Avanti veloce fino al 2022 e la disinformazione è uno dei problemi più grandi affrontare la società in tutto il mondo.

Ciò in cui crediamo non è necessariamente reale

Secondo ricerca MIT che è stato pubblicato nel 2018 e analizzava le notizie condivise su Twitter, "la falsità si diffonde molto più lontano, più velocemente, più in profondità e in modo più ampio della verità", anche dopo che i bot sono stati rimossi e sono state prese in considerazione solo le interazioni umane reali. I risultati sono sorprendenti al punto che si è concluso che “le falsità avevano il 70% in più di probabilità di essere ritwittate rispetto alla verità”.

Una manciata di ragioni spiegano la nostra complessa realtà sociale. In effetti, alla fine dei conti, il problema di fondo potrebbe essere qualcosa di cui tutti siamo vittime: pregiudizio cognitivo. Sebbene possa essere utile per la nostra vita quotidiana, se non altro permettendoci di ricordare processi appresi in precedenza e riconoscere situazioni familiari, può lasciarci suscettibili a scorciatoie mentali e punti ciechi. Una conversazione tra due persone su entrambi i lati della guerra in Ucraina è un chiaro esempio: entrambe le parti credono di agire in modo razionale e si accusano a vicenda di essere di parte e di non cogliere la complessità della realtà. Da questo momento in poi, ognuno sarà più aperto a consumare notizie che confermino la propria prospettiva, anche se le notizie sono false.

Anche se generalmente ci circondiamo di persone con cui condividiamo la stessa visione del mondo, sui social media questa tendenza è ancora più pronunciata e ci rende molto più propensi a prendere parte a una discussione. Online ci viene presentata una realtà filtrata, costruita da un algoritmo che modella la nostra circostanza virtuale e ci nutre di conferme, qualunque sia l'idea che abbiamo. Sui social media siamo all’interno della nostra bolla, il luogo in cui abbiamo sempre ragione. Un informatore di Facebook Frances Haugen ha ha detto al Parlamento britannico che “la rabbia e l’odio sono il modo più semplice per crescere su Facebook”.

L’enorme quantità di disinformazione, però, non è un 21st tendenza del secolo. La propaganda, la disinformazione e le fake news hanno polarizzato l’opinione pubblica nel corso della storia. Al giorno d’oggi, tuttavia, è immediato e facilmente condivisibile.

A recente articolo su Nature ha riflettuto sull’esperienza della pandemia del 1918 e sui rischi che potrebbe comportare una futura epidemia. L’autrice, Heidi Larson, professoressa di antropologia alla London School of Hygiene and Tropical Medicine, ha previsto che “la prossima grande epidemia non sarà dovuta alla mancanza di tecnologie preventive”, ma “al diluvio di informazioni contrastanti, disinformazione e manipolazioni informazioni sui social media”.

Troll e robot aprono la strada

Quando nel 2018 Larson scrisse sulla diffusione della disinformazione, usò un termine che tutti abbiamo conosciuto di recente: super-diffusori, proprio come con i virus. Un'immagine che spiega come i troll di Internet “fomentano il caos pubblicando deliberatamente commenti controversi e provocatori”.

Ma mentre alcuni di loro sono giusti individui annoiati altri, sfruttando il mantello dell'invisibilità di internet, lo fanno di mestiere, infiammando l'opinione pubblica e disturbando i processi sociali e politici. Questa è stata anche una delle conclusioni di due Oxford ricercatori che hanno scoperto diversi esempi di come sia il governo che le aziende private gestiscono le “truppe informatiche organizzate”. Questi battaglioni di troll e bot utilizzare i social media per modellare le menti delle persone e amplificare “voci e idee marginali gonfiando il numero di Mi piace, condivisioni e retweet”.

Allora come affrontano questo problema i social media?

Più difficile che conoscere le persone dietro le fake news è capire cosa possiamo fare per gestire i contenuti pubblicati sulle piattaforme online. Negli ultimi dieci anni, The New Yorker ha scritto nel 2019, Facebook aveva rifiutato l’idea che fosse responsabile del filtraggio dei contenuti, trattando invece il sito come uno spazio vuoto in cui le persone possono condividere informazioni. Da allora, le notizie false non hanno solo influenzato i risultati elettorali, ma hanno anche causato danni alle persone nella vita reale.

TwitterAnche , Telegram e YouTube sono stati pesantemente criticati per il loro approccio ai contenuti fuorvianti, con alcuni governi che richiedono maggiori responsabilità e stanno addirittura considerando di spingere la regolamentazione su questi servizi per la diffusione di contenuti vietati o di idee false ed estremiste.

Nel gennaio 2022, i siti Web di verifica dei fatti di tutto il mondo si sono rivolti a YouTube con un lettera aperta, avvisando la più grande piattaforma video del mondo della necessità di intraprendere un'azione decisiva, principalmente "fornendo contesti e offrendo debunk", piuttosto che limitarsi a eliminare i contenuti video. La lettera affronta anche la necessità di “agire contro i recidivi” e di applicare questi sforzi “in lingue diverse dall’inglese”.

Cosa si può fare?

Larson afferma che “nessuna strategia funziona”, suggerendo un mix tra campagne educative e dialogo. E mentre alcuni paesi ottengono buoni risultati in termini di alfabetizzazione e istruzione digitale, altri no. La disparità è grande, ma convergiamo tutti nello stesso spazio virtuale condiviso dove nessuno vuole veramente dialogare, ascoltare o impegnarsi.

Ma se le persone digitalmente alfabetizzate hanno “maggiori probabilità di distinguere con successo la differenza tra notizie vere e false”, tutti hanno la stessa probabilità di condividere notizie false a causa di quanto sia semplice e immediato “un clic”. Questa è stata la conclusione di un altro recente Studio del MIT, rendendo il caso di altri tipi di strumenti.

È qui che entrano in gioco le piattaforme di fact-checking, che ricercano e valutano la qualità delle informazioni incluse in una notizia o in un post virale sui social media. Tuttavia, anche queste risorse hanno i propri limiti. Poiché la realtà non è sempre semplice, la maggior parte di questi siti web segue un indicatore simile a un barometro che va da “falso” a “per lo più falso”, “per lo più vero” a “vero”. Allo stesso modo, la validità di questa ricerca può essere screditata anche da chi non vede confermate le proprie idee, dando ai falsi una durata di vita pressoché infinita.

Ma noi hanno anche un ruolo da svolgere quando si tratta di discernere il reale dal falso, e nel contesto di una guerra, questo "lavoro individuale" assume un'importanza ancora maggiore. Guarda il video di Tony Anscombe, Chief Security Evangelist di ESET, per apprendere alcuni suggerimenti su come distinguere i fatti dalla finzione.



Timestamp:

Di più da Viviamo la sicurezza