Anche questa tornata elettorale ha dimostrato che la disinformazione ha sempre più il potere di influenzare le elezioni. Durante l’ultima campagna elettorale, circa il 73% degli americani riferisce di essere incappato in notizie elettorali fuorvianti e circa la metà ha ammesso difficoltà a distinguere il vero dal falso. Dalle elezioni presidenziali del 2016, vinte guarda caso da Donald Trump, la disinformazione è cresciuta in complessità e portata: teorie del complotto sulla “manipolazione climatica”, fake news sugli immigrati che mangiano animali domestici (che incitano alla violenza contro la comunità haitiana), teorie del complotto elettorali amplificate da Elon Musk, l’uomo più ricco del mondo, sono solo alcune distorsioni informative a cui abbiamo dovuto assistere durante la recente campagna presidenziale.
Recenti studi hanno fatto emergere una stretta analogia tra la diffusione delle fake news e quella dei virus: quello che è emerso è che il modo in cui la disinformazione si propaga può essere efficacemente descritto utilizzando modelli matematici progettati per simulare la moltiplicazione dei patogeni.
Una classe di modelli epidemiologici che si adatta bene a descrivere l’andamento delle fake news è quella dei modelli SIR (“susceptible-infectious-recovered”), che simulano le dinamiche dell’infezione tra individui suscettibili (S), infetti (I) e “rimossi” (R), ossia guariti o deceduti.
Questi modelli sono generati da una serie di equazioni differenziali (che rappresentano i tassi di “cambiamento”) e si applicano facilmente alla diffusione della disinformazione.
Per esempio, sui social media, le informazioni false vengono propagate da individuo a individuo: alcuni diventano infetti, altri rimangono immuni, altri ancora fungono da vettori asintomatici, diffondendo disinformazione senza saperlo o senza esserne colpiti.
Questi modelli sono molto utili perché permettono di prevedere e simulare le dinamiche della popolazione e di arrivare a misure come il numero di riproduzione di base (R0), ossia il numero medio di casi generati da un individuo “infetto”. La maggior parte delle piattaforme social ha un R0 stimato superiore a 1, il che significa che i social hanno effettivamente il potenziale per una diffusione epidemica della disinformazione.
Figure importanti sui social media con un ampio seguito possono diventare “super-diffusori” di disinformazione elettorale, per esempio, irrorando di falsità centinaia di milioni di persone. Uno scenario che riflette bene la situazione attuale, in cui i funzionari elettorali sovente hanno dichiarato di essere “sopraffatti” nei loro tentativi di verificare le informazioni.
In un modello SIR scelto come esempio, ipotizzando in modo conservativo che le persone abbiano solo il 10% di probabilità di essere “infettate” dopo l’esposizione, lo smascheramento della disinformazione riesce a sortire solo un piccolo effetto, secondo alcuni studi. In uno scenario di infezione al 10%, la popolazione infettata dalla disinformazione elettorale cresce dunque rapidamente.
Grazie a questi modelli matematici si riescono anche a esplorare le contromisure possibili, ossia interventi che riescano a ridurre la diffusione della disinformazione sulle reti sociali. Una delle tecniche per contrastare la diffusione della disinformazione potrebbe ricordare, continuando l’analogia dell’infezione virale, il metodo del vaccino. Parliamo de cosiddetto “prebunking“, un approccio anche chiamato “inoculazione psicologica” in cui i ricercatori introducono preventivamente una falsa informazione per poi smentirla, in modo che le persone acquisiscano immunità alla disinformazione futura.
Per esempio, uno studio recente ha utilizzato chatbot basati su IA per elaborare prebunking contro i miti comuni sulle frodi elettorali, per esempio avvertendo in anticipo le persone che gli attori politici avrebbero potuto manipolare la loro opinione con storie sensazionali (come la fake news secondo cui “massicci carichi di voti notturni stanno ribaltando l’elezione”) e fornendo loro consigli su come individuare queste voci fuorvianti. Questi “inoculazioni” possono essere integrate nei modelli di popolazione della diffusione della disinformazione. Se il prebunking non viene utilizzato, ci vuole molto più tempo per le persone per sviluppare l’immunità alla disinformazione, ma se viene invece implementato su vasta scala, è possibile contenere il numero di persone “infettate” dalla disinformazione.
Anche se pensare alle persone in questa ottica potrebbe risultare psicologicamente inopportuno per alcuni, la maggior parte della disinformazione è diffusa da un piccolo numero di super-diffusori influenti, proprio come avviene per i virus e adottare un approccio epidemiologico allo studio delle fake news ci permette di prevederne la diffusione e di modellare l’efficacia di interventi come il prebunking.
Alcuni lavori recenti hanno confermato la validità dell’approccio virale alle dinamiche dei social media durante le elezioni presidenziali statunitensi del 2020, rivelando che una combinazione di interventi come il prebunking può essere efficace nel ridurre la diffusione della disinformazione.
[articolo basato sull’originale pubblicato su The Conversation]