Le 3 caratteristiche che legano machine learning e propaganda politica
Gli algoritmi di machine learning sono alla base dei meccanismi che regolano la diffusione dei contenuti delle piattaforme social media.
Quali sono le caratteristiche di questi algoritmi di machine learning che sono rilevanti per quanto riguarda la propaganda politica e la disinformazione online?
Le caratteristiche sono numerose ma le più importanti riguardano tre ambiti:
Microtargeting degli utenti
Abbiamo già parlato di microtargeting e politica in Come usare il microtargeting nella propaganda: il caso Trump.
E’ noto che la propaganda e la disinformazione sfruttano le difficoltà degli esseri umani di sintetizzare o assorbire informazioni complesse e contraddittorie.
Questa debolezza induce gli individui a credere a messaggi semplici, in particolare se negativi e se ripetuti con frequenza, e a preferire inconsciamente informazioni conformi con le proprie opinioni consolidate o con quelle che rafforzano l’appartenenza a gruppi identitari. Tuttavia, per essere sfruttare efficacemente queste debolezze, le campagne di propaganda devono mirare il loro contenuto con grande precisione, indirizzando i “giusti” messaggi alle “giuste” persone. Questa tecnica di microtargeting viene utilizzata frequentemente per campagne di tipo pubblicitario ma risulta essere particolarmente efficace per campagne di tipo politico.
Gli strumenti di apprendimento automatico, o machine learning, sono ideali per eseguire questo targeting. Gli algoritmi di machine learning vengono infatti realizzati per offrire agli utenti pubblicità personalizzate basandosi su dati relativi ad interessi, abitudini di navigazione sul web, cronologia delle posizioni e un gran numero di altri attributi. Ed è evidente che questi strumenti di machine learning possono essere particolarmente efficaci proprio sfruttando dati relativi a idee politiche, pregiudizi personali o anche alla propensione che un utente può avere nel seguire le cospirazioni sui social media. Questi dati comportamentali caratterizzano gli utenti e consentono alle campagne di disinformazione e di propaganda politica di prevedere quali gruppi di utenti potranno essere maggiormente ricettivi e per quali messaggi.
Questo è esattamente quanto le piattaforme di social media eseguono, da sempre, automaticamente a favore dei propri inserzionisti pubblicitari.
Queste capacità di targeting stanno migliorando con l’aumentare della complessità degli algoritmi di machine learning e della quantità di dati personali disponibili online.
Le società big tech proprietarie dei social media hanno tuttavia il potere di limitare l’efficacia del targeting della disinformazione basato sul machine learning. Infatti, per eseguire un targeting efficace, gli algoritmi di machine learning richiedono dati molto granulari sui singoli utenti, dati che la maggior parte delle piattaforme di social media non fornisce direttamente agli inserzionisti.
Le piattaforme potrebbero quindi limitare ulteriormente la disponibilità di questi strumenti di targeting per campagne di propaganda politica, limitandosi a fornire solo un numero ridotto di metriche aggregate delle interazioni dell’utente.
Propaganda generata automaticamente
Nonostante le fantasie di molti che parlano, anche in Italia, di fantomatiche “bestie” che gestirebbero in modo automatico la propaganda, oggi la maggior parte della disinformazione è prodotta da esseri umani. Tra questi i più famosi sono l’Internet Research Agency russa e l’ “esercito da 50 centesimi” cinese che creano e diffondono manualmente disinformazione sulla base di linee guida generali.
Questo tipo di operazioni richiedono tuttavia una grande forza lavoro che deve essere bene informata sulla lingua e sulla cultura straniera target delle operazioni di intelligence e questo limita la portata potenziale della disinformazione “personalizzata”.
Il machine learning può superare questa limitazione automatizzando la creazione dei contenuti di propaganda. I recenti progressi nell’elaborazione del linguaggio naturale (NLP) stanno consentendo di produrre automaticamente articoli che un utente medio ha difficoltà a distinguere da articoli scritti da persone reali.
Gli attuali modelli di generazione di testo, tuttavia, hanno ancora forti limitazioni tecniche che, al momento, li rendono poco utilizzabili per la creazione di contenuti disinformativi. Il motivo è che le strutture di apprendimento supervisionato utilizzate da questi modelli non “apprendono” allo stesso modo degli esseri umani. Essi possono generare contenuti che sembrano generati da un essere umano ma restano incapaci di comprendere i concetti. Pertanto, nonostante i sistemi di generazione del linguaggio più avanzati oggi disponibili possano generare contenuti fabbricati di alta qualità rispetto ad un argomento specifico, essi non possono ancora generare in modo affidabile un testo convincente utilizzabile per fare propaganda.
Molti degli strumenti utilizzati per generare propaganda computazionale sono simili a quelli usati per generare altri tipi di media fabbricati (ad esempio, i cosiddetti deepfake). Come per i deepfake possiamo aspettarci che la qualità dei media fabbricati automaticamente continui a migliorare e poiché questi strumenti, una volta sviluppati, richiedono relativamente poche competenze tecniche da parte di chi li utilizza, possiamo aspettarci una rapida diffusione nel loro utilizzo.
Il punto di forza di questi strumenti di machine learning è la loro capacità di minare la fede nell’esistenza di un’unica verità oggettiva. Questo è un aspetto chiave dell’approccio russo alle operazioni di informazione interna dai tempi della guerra fredda. Questo tipo di confusione rende più facile per gli individui giustificare convinzioni errate in presenza di prove contrarie, rendendoli più vulnerabili alla disinformazione e minando lo scambio democratico di idee.
Visualizzazione selettiva e contenuti personalizzati
Sulle principali piattaforme social media sono gli algoritmi di machine learning a determinare quali informazioni vengono presentate agli utenti. Gli algoritmi sono implementati con l’obiettivo di massimizzare il coinvolgimento degli utenti e per riuscirci selezionano contenuti semplicistici e negativi, facendo appello all’emozione rispetto ai fatti e consolidando convinzioni preesistenti. Questo è esattamente uno dei tratti tipici di una disinformazione efficace e di moltissima propaganda politica.
Come noto, anche in assenza di selezione automatica dei contenuti, le piattaforme social media da sempre incoraggiano l’interazione con utenti che la pensano esclusivamente allo stesso modo (filter bubble) e questo tende a creare verità condivise all’interno di un gruppo che tuttavia divergono da altre e creano un terreno fertile per le campagne di disinformazione.
Le aziende big tech, a meno di regolamentazioni governative, non hanno interesse a intervenire per mitigare questi problemi perché, oltre ai costi di implementazione, questo potrebbe ridurre le loro entrate pubblicitarie e ridurrebbe la quantità di interazioni tra utenti.
Pertanto è proprio la segretezza degli algoritmi utilizzati dalle piattaforme social media e l’assenza di etica nei confronti degli utenti, evidenziatasi molte volte negli anni, ad offrire enormi possibilità di manipolazione e propaganda da parte di organizzazioni e partiti politici nazionali o stranieri.
Commenti