L’intelligenza artificiale sta rivoluzionando il modo in cui la propaganda politica si diffonde, rendendo ancora più semplice manipolare la realtà e creare contenuti che catturano l’attenzione e si diffondono viralmente. L’articolo di Giulio Cavalli, pubblicato su Left1, denuncia come alcune forze politiche, in particolare la destra italiana, stiano utilizzando immagini generate dall’IA per alimentare paure e pregiudizi, sfruttando una strategia precisa di manipolazione sociale.
Ma perché questi contenuti funzionano così bene? Il sociologo e esperto di marketing Jonah Berger, nel suo libro Contagioso. Perché un’idea e un prodotto hanno successo e si diffondono2, individua sei principi che spiegano perché certi contenuti si diffondono rapidamente. Analizzando la strategia descritta nell’articolo attraverso il lavoro di Berger, emergono alcune dinamiche chiave:
- Valuta sociale: Condividere immagini “scandalose” o “allarmanti” fa sentire gli utenti informati e rilevanti, rafforzando la propria identità politica.
- Stimoli: Le immagini si legano a temi sempre presenti nel dibattito pubblico, come immigrazione e identità culturale, funzionando come “promemoria” che spingono alla condivisione.
- Emozioni: Contenuti che suscitano rabbia o paura generano maggiore engagement, spingendo le persone ad agire e condividere.
- Visibilità pubblica: La standardizzazione estetica della propaganda (colori cupi, toni apocalittici) crea un marchio visivo riconoscibile, facilitando la diffusione.
- Valore pratico: Anche le fake news appaiono utili per chi le condivide, spesso come “avvertimenti” contro presunte minacce.
- Storie: Le immagini e i messaggi sono inseriti in narrazioni coinvolgenti che rafforzano una visione polarizzata del mondo.
La combinazione di questi fattori rende i contenuti generati dall’IA strumenti potentissimi di propaganda, capaci di sfruttare le vulnerabilità psicologiche e sociali degli utenti. Il risultato? Una realtà distorta, creata ad arte, che si sovrappone alla realtà vera, offuscandola.
Cosa possiamo fare?
Diventa essenziale promuovere strumenti di educazione digitale, incentivare il fact-checking e soprattutto sviluppare una consapevolezza critica sui meccanismi che rendono certi contenuti irresistibili. Solo comprendendo perché le fake news “attaccano” possiamo iniziare a difenderci.
Conclusione
L’IA può essere un megafono per la disinformazione, ma comprendere le strategie di viralità che la alimentano è il primo passo per smascherarne i pericoli. Come comunità, dobbiamo impegnarci a riconoscere e combattere queste dinamiche, costruendo un dialogo informato e basato su dati reali.
- Giulio Cavalli, L’intelligenza artificiale, il nuovo megafono della destra italiana, left.it, <https://left.it/2024/11/26/lintelligenza-artificiale-il-nuovo-megafono-della-destra-italiana/> ↩︎
- Jonah Berger, Contagioso. Perché un’idea e un prodotto hanno successo e si diffondono, ROI Edizioni, 2022 ↩︎