Nepnieuws - waarom geloven mensen het? PlatoBlockchain-gegevensintelligentie. Verticaal zoeken. Ai.

Nepnieuws - waarom geloven mensen het?

In het tijdperk van de eeuwigdurende nieuwscyclus en digitale media zijn de risico's die voortvloeien uit het nepnieuwsprobleem maar al te reëel

Elke dag brengt een stortvloed aan nieuwsinhoud met zich mee die om onze aandacht concurreert en die alles omvat, van politiek, gezondheid, sport en klimaatverandering tot de oorlog in Oekraïne. De eindeloze hoeveelheid en breedte aan informatie – die direct beschikbaar is als nieuwsartikelen, videoclips, foto’s of andere media op nieuwswebsites, social media platformen, televisie, radio en andere bronnen - kan en voelt vaak overweldigend. Is het een wonder dat zovelen van ons worstelen met het omgaan met een overdaad aan informatie en zelfs met het onderscheiden van feiten en fictie online?

De laatste tijd is een groot deel van de wereldwijde nieuwscyclus terecht gericht geweest op het conflict in Oekraïne. Het begon met satellietbeelden van legerbewegingen die alarmeerden over het risico van een mogelijke Russische invasie. Dan, in de kleine uurtjes van 24 februarith, begonnen gruwelijke beelden uit Oekraïne binnen te stromen toen burgers naar sociale media gingen om video's en foto's te posten van tanks die de straten binnenreden en raketten die uit de lucht vielen en verwoesting achterlieten.

Sindsdien hebben we allemaal de oorlog op onze telefoons kunnen zien spelen in nooit eerder vertoonde details; de oorlog wordt niet voor niets de “eerste TikTok-oorlog”. De inwoners van Oekraïne kunnen het bereik van platforms als TikTok, Twitter en Instagram gebruiken om de wereld te laten zien wat ze doormaken. Sterker nog, bijna van de ene op de andere dag gingen sommige van deze apps van het tonen van dansvideo's naar het tonen van oorlogsscènes en oproepen voor humanitaire hulp, wat talloze views en shares in het proces trok. Maar beide kanten van de oorlog hebben toegang tot deze platforms, die vervolgens een digitaal slagveld worden om miljoenen mensen wereldwijd te beïnvloeden.

Maar weten we altijd waar we echt naar kijken?

In 2008 lanceerde CNN, na de succesvolle berichtgeving over het WK voetbal van 2006, met video's en foto's gemaakt door voetbalfans, iReport, een website voor 'burgerjournalisten'. Iedereen kon nu zijn eigen inhoud online uploaden voor het grote publiek. Destijds executive vice-president van CNN News Service Susan Grant gegarandeerde dat vanaf dat moment "de gemeenschap zal beslissen wat het nieuws is", wat verduidelijkt dat de publicaties "volledig ongecontroleerd" zouden zijn.

Het geloof van CNN was gebaseerd op het idee dat burgerjournalistiek "emotioneel en echt" is. Door 2012, 100,000 verhalen waren gepubliceerd en 10,789 waren "doorgelicht voor CNN, wat betekent dat ze op feiten zijn gecontroleerd en goedgekeurd voor uitzending". Maar betekent dat dat de andere 89,211 echt waren? CNN iReport werd in 2015 gesloten. Snel vooruit naar 2022, en verkeerde informatie is een van de grootste problemen waarmee de samenleving wereldwijd wordt geconfronteerd.

Wat we geloven is niet noodzakelijkerwijs echt

Think MIT onderzoek dat in 2018 werd gepubliceerd en op Twitter gedeeld nieuws analyseerde, "valsheid verspreidt zich aanzienlijk verder, sneller, dieper en breder dan de waarheid", zelfs nadat bots zijn verwijderd en alleen echte menselijke interacties worden overwogen. De resultaten zijn zo opvallend dat het concludeerde dat "onwaarheden 70% meer kans hadden om te worden geretweet dan de waarheid".

Een handvol redenen verklaren onze complexe sociale realiteit. Uiteindelijk kan het onderliggende probleem inderdaad iets zijn waar we allemaal het slachtoffer van zijn: cognitieve vertekening. Hoewel het nuttig kan zijn voor ons dagelijks leven, kan het ons vatbaar maken voor mentale snelkoppelingen en blinde vlekken. Een gesprek tussen twee mensen aan beide kanten van de oorlog in Oekraïne is een duidelijk voorbeeld: beide partijen denken dat ze rationeel handelen en beschuldigen elkaar ervan bevooroordeeld te zijn en de complexiteit van de realiteit niet te begrijpen. Vanaf dit punt zullen ze allemaal meer open staan ​​voor nieuws dat hun perspectief bevestigt – zelfs als het nieuws nep is.

Hoewel we ons over het algemeen omringen met mensen met wie we dezelfde wereldbeelden delen, is deze tendens op sociale media nog meer uitgesproken en maakt het veel waarschijnlijker dat we deelnemen aan een discussie. Online krijgen we een gefilterde realiteit voorgeschoteld, gebouwd door een algoritme dat onze virtuele omstandigheden vormgeeft en ons voedt met validatie, welke ideeën we ook hebben. Op sociale media zitten we in onze eigen bubbel, de plek waar we altijd gelijk hebben. Een Facebook-klokkenluider Frances Haugen heeft zei in het Britse parlement dat "woede en haat de gemakkelijkste manier is om te groeien op Facebook".

De enorme hoeveelheid desinformatie is echter geen 21st eeuw trend. Propaganda, desinformatie en nepnieuws hebben door de geschiedenis heen de publieke opinie gepolariseerd. Tegenwoordig is het echter direct en gemakkelijk te delen.

A recent artikel in Nature gereflecteerd op de ervaring van de pandemie van 1918 en welke risico's een toekomstige uitbraak zou kunnen hebben. De auteur, Heidi Larson, hoogleraar antropologie aan de London School of Hygiene and Tropical Medicine, voorspelde dat “de volgende grote uitbraak niet te wijten zal zijn aan een gebrek aan preventieve technologieën”, maar aan “de stortvloed aan tegenstrijdige informatie, verkeerde informatie en gemanipuleerde informatie op sociale media".

Trollen en bots wijzen de weg

Toen Larson in 2018 schreef over het verspreiden van desinformatie, gebruikte ze een term die we de laatste tijd allemaal kennen: superverspreiders, net als bij virussen. Een afbeelding die uitlegt hoe de internettrollen "verwoesting veroorzaken door opzettelijk controversiële en opruiende opmerkingen te plaatsen".

Maar terwijl sommigen van hen gewoon zijn verveelde individuen terwijl anderen de onzichtbaarheidsmantel van internet gebruiken, doen anderen dit als een baan, waardoor de publieke opinie wordt aangewakkerd en sociale en politieke processen worden verstoord. Dit was ook een van de conclusies van twee Oxford onderzoekers die verschillende voorbeelden ontdekten van hoe zowel de overheid als particuliere bedrijven "georganiseerde cybertroepen" beheren. Deze bataljons van trollen en bots gebruik sociale media om de geest van mensen vorm te geven en "marginale stemmen en ideeën te versterken door het aantal likes, shares en retweets op te blazen".

Hoe gaat social media hiermee om?

Moeilijker dan de mensen achter nepnieuws kennen, is begrijpen wat we kunnen doen om de inhoud die op online platforms wordt gepubliceerd, te beheren. Het afgelopen decennium, The New Yorker schreef in 2019, had Facebook het idee verworpen dat het verantwoordelijk was voor het filteren van inhoud, in plaats daarvan de site te behandelen als een lege ruimte waar mensen informatie kunnen delen. Sindsdien heeft nepnieuws niet alleen de verkiezingsuitslag beïnvloed, maar ook schade toegebracht aan mensen in het echte leven.

Twitter, Telegram en YouTube zijn ook zwaar bekritiseerd vanwege hun aanpak van misleidende inhoud, waarbij sommige regeringen meer verantwoordelijkheid eisen en zelfs overwegen om regelgeving voor deze diensten op te leggen voor de verspreiding van verboden inhoud of valse en extremistische ideeën.

In januari 2022 spraken factcheckende websites van over de hele wereld YouTube aan met een open brief, het waarschuwen van 's werelds grootste videoplatform voor de noodzaak om doortastende actie te ondernemen, voornamelijk door "contexten te bieden en debunks aan te bieden", in plaats van alleen video-inhoud te verwijderen. De brief ging ook in op de noodzaak om "op te treden tegen recidivisten" en deze inspanningen toe te passen "in andere talen dan het Engels".

Wat gedaan kan worden?

Larson zegt dat “geen enkele strategie werkt”, wat duidt op een mix tussen educatieve campagnes en dialoog. En hoewel sommige landen het goed doen op het gebied van digitale geletterdheid en onderwijs, doen andere dat niet. De ongelijkheid is groot, maar we komen allemaal samen in dezelfde gedeelde virtuele ruimte waar niemand echt wil dialogeren, luisteren of meedoen.

Maar als digitaal geletterde mensen "meer kans hebben om met succes het verschil te zien tussen waar en onwaar nieuws", zal iedereen even waarschijnlijk nepnieuws delen vanwege hoe eenvoudig en onmiddellijk "een klik" is. Dit was de conclusie van een ander recent MIT studie, wat pleit voor andere soorten gereedschap.

Dit is waar platforms voor factchecking van pas komen, die de kwaliteit van informatie in een nieuwsbericht of een viraal bericht op sociale media onderzoeken en evalueren. Maar zelfs deze bronnen hebben hun eigen beperkingen. Omdat de werkelijkheid niet altijd duidelijk is, volgen de meeste van deze websites een barometerachtige wijzer die loopt van "onwaar" tot "grotendeels onwaar", "grotendeels waar" tot "waar". Evenzo kan de validiteit van dit onderzoek ook in diskrediet worden gebracht door degenen die hun ideeën niet bevestigd zien, waardoor vervalsingen een bijna eindeloze levensduur krijgen.

Maar wij hebben ook een rol als het gaat om het onderscheiden van echt van nep, en in de context van een oorlog, krijgt dit 'individuele werk' een nog groter belang. Bekijk de video van ESET Chief Security Evangelist Tony Anscombe voor een paar tips om feit van fictie te onderscheiden.



Tijdstempel:

Meer van We leven veiligheid