Intelligenza artificiale e propaganda: perché le fake news diventano virali?

L’intelligenza artificiale sta rivoluzionando il modo in cui la propaganda politica si diffonde, rendendo ancora più semplice manipolare la realtà e creare contenuti che catturano l’attenzione e si diffondono viralmente. L’articolo di Giulio Cavalli, pubblicato su Left1, denuncia come alcune forze politiche, in particolare la destra italiana, stiano utilizzando immagini generate dall’IA per alimentare paure e pregiudizi, sfruttando una strategia precisa di manipolazione sociale.

Ma perché questi contenuti funzionano così bene? Il sociologo e esperto di marketing Jonah Berger, nel suo libro Contagioso. Perché un’idea e un prodotto hanno successo e si diffondono2, individua sei principi che spiegano perché certi contenuti si diffondono rapidamente. Analizzando la strategia descritta nell’articolo attraverso il lavoro di Berger, emergono alcune dinamiche chiave:

  1. Valuta sociale: Condividere immagini “scandalose” o “allarmanti” fa sentire gli utenti informati e rilevanti, rafforzando la propria identità politica.
  2. Stimoli: Le immagini si legano a temi sempre presenti nel dibattito pubblico, come immigrazione e identità culturale, funzionando come “promemoria” che spingono alla condivisione.
  3. Emozioni: Contenuti che suscitano rabbia o paura generano maggiore engagement, spingendo le persone ad agire e condividere.
  4. Visibilità pubblica: La standardizzazione estetica della propaganda (colori cupi, toni apocalittici) crea un marchio visivo riconoscibile, facilitando la diffusione.
  5. Valore pratico: Anche le fake news appaiono utili per chi le condivide, spesso come “avvertimenti” contro presunte minacce.
  6. Storie: Le immagini e i messaggi sono inseriti in narrazioni coinvolgenti che rafforzano una visione polarizzata del mondo.

La combinazione di questi fattori rende i contenuti generati dall’IA strumenti potentissimi di propaganda, capaci di sfruttare le vulnerabilità psicologiche e sociali degli utenti. Il risultato? Una realtà distorta, creata ad arte, che si sovrappone alla realtà vera, offuscandola.

Cosa possiamo fare?
Diventa essenziale promuovere strumenti di educazione digitale, incentivare il fact-checking e soprattutto sviluppare una consapevolezza critica sui meccanismi che rendono certi contenuti irresistibili. Solo comprendendo perché le fake news “attaccano” possiamo iniziare a difenderci.


Conclusione

L’IA può essere un megafono per la disinformazione, ma comprendere le strategie di viralità che la alimentano è il primo passo per smascherarne i pericoli. Come comunità, dobbiamo impegnarci a riconoscere e combattere queste dinamiche, costruendo un dialogo informato e basato su dati reali.

  1. Giulio Cavalli, L’intelligenza artificiale, il nuovo megafono della destra italiana, left.it, <https://left.it/2024/11/26/lintelligenza-artificiale-il-nuovo-megafono-della-destra-italiana/> ↩︎
  2. Jonah Berger, Contagioso. Perché un’idea e un prodotto hanno successo e si diffondono, ROI Edizioni, 2022 ↩︎

IA come reti sociali e/o mercati

Secondo Michael I. Jordan, la visione corrente dell’intelligenza artificiale, concentrata prevalentemente sull’IA generativa e i chatbot, è limitata. Jordan propone di vedere l’IA come un sistema complesso di agenti autonomi che collaborano e competono in modo dinamico, come in un mercato globale. Questo sistema di intelligenza si basa su interazioni continue, in cui ogni agente si adatta e negozia con gli altri, proprio come fanno gli attori nei mercati economici.

La teoria statistica dei contratti: Intelligenza distribuita

Jordan utilizza la “teoria statistica dei contratti” come base per la sua visione. L’idea è di creare sistemi di IA che non si limitano a fare previsioni singole ma che interagiscono e apprendono costantemente, adattandosi alle condizioni mutevoli. Gli algoritmi diventano agenti autonomi che lavorano insieme seguendo regole contrattuali, proprio come farebbero le persone all’interno di una negoziazione o di un mercato finanziario.

Un approccio iterativo: Interazione continua tra agenti

Jordan sostiene che l’apprendimento automatico tradizionale, che si basa su previsioni singole, è limitato. Egli propone invece un approccio iterativo, in cui gli agenti intelligenti si adattano e interagiscono costantemente, creando un sistema in cui il cambiamento è continuo e dinamico. Questo modello riflette il comportamento dei mercati economici, dove ogni decisione è influenzata dalle scelte degli altri partecipanti.

 L’intelligenza come interazione sociale: Un nuovo paradigma

Il concetto chiave della visione di Jordan è che l’intelligenza non deve essere vista solo come una capacità individuale, ma come un sistema sociale e contrattuale. L’IA, in questo senso, diventa un insieme di agenti che interagiscono tra loro, scambiando dati e decisioni, proprio come avviene nei mercati finanziari. Non si tratta di creare “menti artificiali”, ma di studiare le relazioni tra agenti in un sistema complesso.

 Una nuova traiettoria per l’IA: Oltre i chatbot

 Jordan si distingue dalle tendenze attuali dell’IA, rappresentate principalmente da chatbot e modelli come ChatGPT, che si basano su previsioni e risposte preimpostate. La sua visione è quella di un’IA capace di creare dinamiche complesse attraverso le interazioni tra agenti, un modello più vicino a come funzionano le reti sociali e i mercati. L’intelligenza, in questo contesto, è sociale e contrattuale, non meramente predittiva.

Michael I. Jordan, An Alternative View on AI: Collaborative Learning, Incentives, and Social Welfare, <https://www.youtube.com/watch?v=3zlDHdtSXt4>

Antonio Dini, Intelligenza artificiale, perché ha senso immaginarla come fosse un mercato, <https://www.wired.it/article/intelligenza-artificiale-michael-i-jordan-agenti-mercato/>

L’ IA potrebbe superare l’intelligenza umana?

Negli ultimi anni, l’idea che l’intelligenza artificiale (IA) possa superare l’intelligenza umana è diventata sempre più discussa, generando entusiasmo, preoccupazione e una serie di fraintendimenti. Tuttavia, quando parliamo di “superamento”, è importante capire che ci sono molti aspetti e sfumature da considerare.

Intelligenza: una definizione complessa

Il concetto di “intelligenza” è di per sé problematico e ambiguo. Anche tra filosofi e scienziati, non esiste un accordo univoco su cosa significhi veramente. Tradizionalmente, l’intelligenza umana è stata misurata in base a una serie di abilità cognitive come il problem solving, il ragionamento logico e la capacità di apprendere. Ma questa misurazione ha sempre incontrato difficoltà, poiché l’intelligenza non è un concetto unidimensionale. È influenzata da fattori emotivi, sociali, e creativi, e si manifesta in modi diversi a seconda del contesto.

IA supera l'intelligenza umana

Quando si parla di IA che potrebbe superare l’intelligenza umana, si fa solitamente riferimento alla capacità delle macchine di elaborare grandi quantità di dati e svolgere compiti specifici meglio e più velocemente degli esseri umani. Già oggi, le IA superano gli esseri umani in ambiti specifici, come il riconoscimento di immagini, la traduzione di testi e il calcolo numerico. Ma si tratta davvero di “intelligenza” nel senso umano del termine?

Superamento quantitativo o qualitativo?

Uno degli equivoci più diffusi riguarda la natura del superamento. Molte delle affermazioni sulla superiorità dell’IA si concentrano sul superamento quantitativo, cioè la capacità delle macchine di svolgere certe attività in modo più efficiente rispetto agli esseri umani. Ma un superamento qualitativo, cioè la capacità di pensare in modo critico, avere intuizioni creative o affrontare dilemmi morali, è tutt’altro discorso.

Attualmente, le IA sono molto potenti nel risolvere problemi complessi all’interno di confini ben definiti. Tuttavia, non sono in grado di gestire situazioni ambigue o sconosciute senza essere guidate da dati precedenti. La loro “intelligenza” è limitata da ciò che possono apprendere dai set di dati su cui vengono addestrate.

Il problema dei conflitti di interesse

Nel dibattito sull’IA, è inevitabile che entrino in gioco interessi economici e politici. Grandi figure come Elon Musk e Sam Altman, insieme ad altre personalità della tecnologia, spesso amplificano l’idea di un’IA in grado di superare l’intelligenza umana. Ma questo discorso non è sempre imparziale. Il rischio è che tali previsioni non siano solo speculative, ma anche finalizzate a ottenere maggiori investimenti e regolamentazioni più favorevoli per le grandi aziende tecnologiche.

Spesso, l’enfasi sui rischi a lungo termine e su scenari futuristici serve a costruire una narrativa che posiziona queste aziende come attori chiave nell’affrontare tali sfide. Il risultato è che la percezione pubblica tende a vedere l’IA come una forza inarrestabile e inevitabile, quando in realtà siamo ancora lontani da un’intelligenza artificiale generale (AGI), cioè un’IA capace di fare tutto ciò che un essere umano è in grado di fare.

Fraintendimenti sul ruolo dell’IA

Infine, il dibattito spesso trascura un punto cruciale: anche se le IA dovessero “superare” gli esseri umani in certe capacità, questo non significherebbe necessariamente che le macchine possiedano coscienza o pensiero indipendente. Il pensiero umano è influenzato da esperienze soggettive, emozioni e un senso di identità che le IA, per ora, non possono emulare. Quindi, parlare di un superamento dell’intelligenza umana da parte dell’IA implica una ridefinizione di cosa intendiamo per “intelligenza”.

Conclusioni

In sintesi, il superamento dell’intelligenza umana da parte di quella artificiale è una questione complessa, che dipende da come definiamo il concetto di “intelligenza” e da quali ambiti consideriamo rilevanti. Se parliamo di pura potenza computazionale, le IA ci hanno già superato. Ma se guardiamo alle capacità critiche che rendono l’essere umano unico – creatività, empatia e intuizione – il discorso cambia radicalmente. L’intelligenza umana non è solo una questione di prestazioni tecniche, ma di esperienze e valori che le macchine, per ora, non possono replicare.

Confronta l’articolo su <ilpost.it> “In che senso l’intelligenza artificiale potrebbe superare quella umana?