I motivi per cui la disinformazione su Facebook e Twitter agisce incontrastata
Disinformazione su Facebook: gli shock Covid-19 e Black Lives Matter
I social media sono un veicolo ottimale per la disinformazione. L’effetto più visibile della disinformazione su Facebook e Twitter è la maggiore litigiosità che crea. Altri effetti evidenti, soprattutto sul lungo termine, sono la maggiore polarizzazione di opinioni, le divisioni quotidiane su argomenti pretestuosi e l’attivismo politico degradato a bieca tifoseria da stadio.
In particolare, la disinformazione su Facebook e Twitter beneficia infatti delle logiche algoritmiche delle gigantesche società di tecnologia che premiano le polemiche e le visioni estreme.
BigTech ha sempre mantenuto un segreto estremo e una totale mancanza di trasparenza sul funzionamento dei suoi algoritmi, gestendo le sue azioni di moderazione dei contenuti in modo altrettanto poco chiaro.
Gli effetti di questo ecosistema malato sono emersi a livello globale in modo evidente con i due shock del 2020: le proteste legate al COVID-19 e quelle per Black Lives Matter (BLM).
Per entrambe le crisi, c’è stata un’ondata enorme di disinformazione su Facebook e Twitter soprattutto gli Stati Uniti ma anche nella maggior parte delle nazioni occidentali.
Alcune delle disinformazioni su Facebook e Twitter più comuni riguardo al virus sono state:
- indossare una maschera possa causare malattie
- il virus è un’arma biologica dei governi cinese o americano
- il virus può essere curato bevendo disinfettanti.
Riguardo le proteste BLM, la disinformazione ha invece portato a esagerare la diffusiome delle violenze affermando che i manifestanti stavano addirittura cercando di trascinare gli USA nella guerra civile.
La mancanza di trasparenza di Facebook e Twitter
Per questo motivo, sono in molti in Usa a chiedere la riforma del Communications Decency Act (CDA) e in particolare della Sezione 230 della legge, secondo cui le società di social media non sono legalmente responsabili per il contenuto pubblicato sulle loro piattaforme.
La Sezione 230 ha finora fornito alle piattaforme uno scudo dalle responsabilità ma le società Big Tech non hanno mai mostrato sufficiente trasparenza nei loro processi di moderazione dei contenuti. Di conseguenza, tutti i tipi di discorsi di odio, notizie false, frodi e attività illegali prosperano su queste piattaforme vagamente regolate.
Mark Zuckerberg, CEO di Facebook, ha affermato durante la Conferenza di sicurezza di Monaco che non pensa che dovrebbe spettare alle aziende private dettare le regole per la moderazione dei contenuti.
Tuttavia, dopo che Twitter e Facebook hanno messo etichette di avvertimento sui suoi post, il 28 maggio 2020 Trump ha firmato un Ordine esecutivo che minaccia di limitare la portata della Sezione 230.
In particolare, sotto accusa sono gli algoritmi dei social media che decidono quali post mostrare in evidenza e quali utenti o pagine raccomandare.
Queste raccomandazioni sono basate sul fatto che le società di social media traggono profitto proprio dalle maggiori interazioni degli utenti e quindi mostrano i contenuti più controversi e più di parte che sono quelli che generano il maggior numero di clic.
Il problema di Facebook e Twitter è nel loro modello di business
Il modello di business di Big Tech si basa sul fatto che tutti cerchiamo naturalmente informazioni che confermino le nostre convinzioni. Pertanto, le piattaforme raccomandano quasi esclusivamente punti di vista che confermino queste idee, via via procedendo ad estremizzarle, spingendo gli utenti in una tana di coniglio o in una filter bubble di visioni sempre più radicali, nel frattemo nascondendogli i punti di vista opposti. Poiché le notizie false e le visioni estreme sono più accattivanti, le piattaforme tendono anche a raccomandare storie più radicali e controverse.
Secondo uno studio di Witness Hany Farid, professore dell’università di Berkeley: “Il dieci percento dei video consigliati da YouTube sono di natura cospirazionistica“.
Mancanza di trasparenza e irresponsabilità
La mancanza di trasparenza dei meccanismi di moderazione di Facebook e di Twitter sono chiaramente un problema. A causa di questa mancanza di trasparenza, viene messa sotto accusa la neutralità politica delle diverse piattaforme. Il rischio concreto è che Facebook e Twitter abusino del loro potere di regolare il discorso per propri fini politici o economici.
L’altra preoccupazione principale è che le piattaforme social non si preoccupino abbastanza di controllare i contenuti di incitamento all’odio.
Con tutti i profitti, quasi esentasse, Big Tech ha tutto il capitale, i dati e le tecnologie disponibili per fare un lavoro migliore riguardo la moderazione dei contenuti e la loro trasparenza nel farlo.
Leggi altri articoli nella sezione Algoritmi, Big Data e Data Science
Commenti