Intelligenza artificiale e propaganda: perché le fake news diventano virali?

L’intelligenza artificiale sta rivoluzionando il modo in cui la propaganda politica si diffonde, rendendo ancora più semplice manipolare la realtà e creare contenuti che catturano l’attenzione e si diffondono viralmente. L’articolo di Giulio Cavalli, pubblicato su Left1, denuncia come alcune forze politiche, in particolare la destra italiana, stiano utilizzando immagini generate dall’IA per alimentare paure e pregiudizi, sfruttando una strategia precisa di manipolazione sociale.

Ma perché questi contenuti funzionano così bene? Il sociologo e esperto di marketing Jonah Berger, nel suo libro Contagioso. Perché un’idea e un prodotto hanno successo e si diffondono2, individua sei principi che spiegano perché certi contenuti si diffondono rapidamente. Analizzando la strategia descritta nell’articolo attraverso il lavoro di Berger, emergono alcune dinamiche chiave:

  1. Valuta sociale: Condividere immagini “scandalose” o “allarmanti” fa sentire gli utenti informati e rilevanti, rafforzando la propria identità politica.
  2. Stimoli: Le immagini si legano a temi sempre presenti nel dibattito pubblico, come immigrazione e identità culturale, funzionando come “promemoria” che spingono alla condivisione.
  3. Emozioni: Contenuti che suscitano rabbia o paura generano maggiore engagement, spingendo le persone ad agire e condividere.
  4. Visibilità pubblica: La standardizzazione estetica della propaganda (colori cupi, toni apocalittici) crea un marchio visivo riconoscibile, facilitando la diffusione.
  5. Valore pratico: Anche le fake news appaiono utili per chi le condivide, spesso come “avvertimenti” contro presunte minacce.
  6. Storie: Le immagini e i messaggi sono inseriti in narrazioni coinvolgenti che rafforzano una visione polarizzata del mondo.

La combinazione di questi fattori rende i contenuti generati dall’IA strumenti potentissimi di propaganda, capaci di sfruttare le vulnerabilità psicologiche e sociali degli utenti. Il risultato? Una realtà distorta, creata ad arte, che si sovrappone alla realtà vera, offuscandola.

Cosa possiamo fare?
Diventa essenziale promuovere strumenti di educazione digitale, incentivare il fact-checking e soprattutto sviluppare una consapevolezza critica sui meccanismi che rendono certi contenuti irresistibili. Solo comprendendo perché le fake news “attaccano” possiamo iniziare a difenderci.


Conclusione

L’IA può essere un megafono per la disinformazione, ma comprendere le strategie di viralità che la alimentano è il primo passo per smascherarne i pericoli. Come comunità, dobbiamo impegnarci a riconoscere e combattere queste dinamiche, costruendo un dialogo informato e basato su dati reali.

  1. Giulio Cavalli, L’intelligenza artificiale, il nuovo megafono della destra italiana, left.it, <https://left.it/2024/11/26/lintelligenza-artificiale-il-nuovo-megafono-della-destra-italiana/> ↩︎
  2. Jonah Berger, Contagioso. Perché un’idea e un prodotto hanno successo e si diffondono, ROI Edizioni, 2022 ↩︎

Fragilità, Robustezza, Antifragilità

“Se non sei esposto a conseguenze negative delle tue decisioni, sei separato dalla realtà. Gli esseri umani devono avere ‘skin in the game’ affinché i loro comportamenti siano etici e le loro scelte razionali.” Nicholas Taleb

Nassim Nicholas Taleb nel libro “Antifragile, prosperare nel disordine” il Saggiatore, 2012, introduce un nuovo modo di categorizzare i sistemi, superando la semplice dicotomia tra fragilità e robustezza. Mentre i sistemi fragili sono danneggiati o distrutti dagli shock (come un vaso di vetro che si rompe se scosso), quelli robusti resistono agli shock ma non ne traggono alcun beneficio (come una pietra che rimane intatta sotto pressione).

L’antifragile, invece, non solo sopravvive agli shock e al disordine, ma ne trae beneficio. Un esempio concreto è il corpo umano: l’esercizio fisico stressa i muscoli, che però diventano più forti grazie a questo stress. L’antifragilità è una caratteristica fondamentale per tutto ciò che ha la possibilità di migliorare attraverso la volatilità, l’incertezza e gli eventi imprevedibili.

Critica alla tecnocrazia e alla sovraingegnerizzazione

Definisce la tecnocrazia come il tentativo di risolvere problemi complessi attraverso l’eccessiva regolamentazione, la pianificazione centralizzata o il controllo tecnologico. Ritiene che i sistemi sovraingegnerizzati siano spesso fragili perché non possono adattarsi rapidamente a cambiamenti imprevisti. Il fallimento di questi sistemi, di solito molto complessi e rigidi, si manifesta drammaticamente durante eventi estremi. Un esempio di sovraingegnerizzazione è la crisi finanziaria del 2008, in cui sistemi finanziari complessi e rigidi sono collassati di fronte a eventi imprevisti.

In alternativa, promuove la decentralizzazione e la riduzione della complessità come mezzi per creare sistemi più flessibili e adattabili. Sistemi semplici, meno centralizzati e più “organici” sono maggiormente in grado di adattarsi e prosperare nel disordine.

L’etica del rischio: “Skin in the game”

Taleb introduce il concetto di “skin in the game” (letteralmente “pelle in gioco”), che riflette un’etica del rischio. Chi prende decisioni che impattano su altri dovrebbe essere personalmente esposto alle conseguenze di tali decisioni. Non deve giocare con la pelle degli altri, ma mettere la sua “pelle  in gioco”. Questo è un principio fondamentale dell’antifragilità: chi è responsabile di un rischio dovrebbe anche subirne il peso, il che riduce la tendenza a fare scelte azzardate senza considerare gli effetti negativi su altri.

Sono fortemente criticabili i leader politici, economici e manageriali che non mettono la “pelle in gioco”, ossia non subiscono le conseguenze negative delle proprie decisioni. Ad esempio, molti banchieri responsabili della crisi finanziaria non hanno pagato personalmente per i danni che hanno causato, poiché il sistema ha socializzato le perdite mentre privatizzava i guadagni. Questo è un esempio di fragilità nel sistema, poiché chi prende rischi non è incentivato a gestirli in modo avveduto.

In un sistema antifragile, la responsabilità e il rischio sono condivisi, creando incentivi per decisioni migliori e una maggiore resilienza. Suggerisce che la vera responsabilità si ottiene solo quando chi è al potere è esposto direttamente agli stessi rischi di coloro che è chiamato a rappresentare o guidare.

L’idea centrale di Taleb è che non si può eliminare il rischio dalla vita, ma si può trovare un modo per far sì che il rischio porti a una crescita e a un miglioramento, anziché alla distruzione. L’antifragilità è quindi una strategia per affrontare il mondo moderno, caratterizzato da complessità, incertezza e volatilità.

IA come reti sociali e/o mercati

Secondo Michael I. Jordan, la visione corrente dell’intelligenza artificiale, concentrata prevalentemente sull’IA generativa e i chatbot, è limitata. Jordan propone di vedere l’IA come un sistema complesso di agenti autonomi che collaborano e competono in modo dinamico, come in un mercato globale. Questo sistema di intelligenza si basa su interazioni continue, in cui ogni agente si adatta e negozia con gli altri, proprio come fanno gli attori nei mercati economici.

La teoria statistica dei contratti: Intelligenza distribuita

Jordan utilizza la “teoria statistica dei contratti” come base per la sua visione. L’idea è di creare sistemi di IA che non si limitano a fare previsioni singole ma che interagiscono e apprendono costantemente, adattandosi alle condizioni mutevoli. Gli algoritmi diventano agenti autonomi che lavorano insieme seguendo regole contrattuali, proprio come farebbero le persone all’interno di una negoziazione o di un mercato finanziario.

Un approccio iterativo: Interazione continua tra agenti

Jordan sostiene che l’apprendimento automatico tradizionale, che si basa su previsioni singole, è limitato. Egli propone invece un approccio iterativo, in cui gli agenti intelligenti si adattano e interagiscono costantemente, creando un sistema in cui il cambiamento è continuo e dinamico. Questo modello riflette il comportamento dei mercati economici, dove ogni decisione è influenzata dalle scelte degli altri partecipanti.

 L’intelligenza come interazione sociale: Un nuovo paradigma

Il concetto chiave della visione di Jordan è che l’intelligenza non deve essere vista solo come una capacità individuale, ma come un sistema sociale e contrattuale. L’IA, in questo senso, diventa un insieme di agenti che interagiscono tra loro, scambiando dati e decisioni, proprio come avviene nei mercati finanziari. Non si tratta di creare “menti artificiali”, ma di studiare le relazioni tra agenti in un sistema complesso.

 Una nuova traiettoria per l’IA: Oltre i chatbot

 Jordan si distingue dalle tendenze attuali dell’IA, rappresentate principalmente da chatbot e modelli come ChatGPT, che si basano su previsioni e risposte preimpostate. La sua visione è quella di un’IA capace di creare dinamiche complesse attraverso le interazioni tra agenti, un modello più vicino a come funzionano le reti sociali e i mercati. L’intelligenza, in questo contesto, è sociale e contrattuale, non meramente predittiva.

Michael I. Jordan, An Alternative View on AI: Collaborative Learning, Incentives, and Social Welfare, <https://www.youtube.com/watch?v=3zlDHdtSXt4>

Antonio Dini, Intelligenza artificiale, perché ha senso immaginarla come fosse un mercato, <https://www.wired.it/article/intelligenza-artificiale-michael-i-jordan-agenti-mercato/>

L’ IA potrebbe superare l’intelligenza umana?

Negli ultimi anni, l’idea che l’intelligenza artificiale (IA) possa superare l’intelligenza umana è diventata sempre più discussa, generando entusiasmo, preoccupazione e una serie di fraintendimenti. Tuttavia, quando parliamo di “superamento”, è importante capire che ci sono molti aspetti e sfumature da considerare.

Intelligenza: una definizione complessa

Il concetto di “intelligenza” è di per sé problematico e ambiguo. Anche tra filosofi e scienziati, non esiste un accordo univoco su cosa significhi veramente. Tradizionalmente, l’intelligenza umana è stata misurata in base a una serie di abilità cognitive come il problem solving, il ragionamento logico e la capacità di apprendere. Ma questa misurazione ha sempre incontrato difficoltà, poiché l’intelligenza non è un concetto unidimensionale. È influenzata da fattori emotivi, sociali, e creativi, e si manifesta in modi diversi a seconda del contesto.

IA supera l'intelligenza umana

Quando si parla di IA che potrebbe superare l’intelligenza umana, si fa solitamente riferimento alla capacità delle macchine di elaborare grandi quantità di dati e svolgere compiti specifici meglio e più velocemente degli esseri umani. Già oggi, le IA superano gli esseri umani in ambiti specifici, come il riconoscimento di immagini, la traduzione di testi e il calcolo numerico. Ma si tratta davvero di “intelligenza” nel senso umano del termine?

Superamento quantitativo o qualitativo?

Uno degli equivoci più diffusi riguarda la natura del superamento. Molte delle affermazioni sulla superiorità dell’IA si concentrano sul superamento quantitativo, cioè la capacità delle macchine di svolgere certe attività in modo più efficiente rispetto agli esseri umani. Ma un superamento qualitativo, cioè la capacità di pensare in modo critico, avere intuizioni creative o affrontare dilemmi morali, è tutt’altro discorso.

Attualmente, le IA sono molto potenti nel risolvere problemi complessi all’interno di confini ben definiti. Tuttavia, non sono in grado di gestire situazioni ambigue o sconosciute senza essere guidate da dati precedenti. La loro “intelligenza” è limitata da ciò che possono apprendere dai set di dati su cui vengono addestrate.

Il problema dei conflitti di interesse

Nel dibattito sull’IA, è inevitabile che entrino in gioco interessi economici e politici. Grandi figure come Elon Musk e Sam Altman, insieme ad altre personalità della tecnologia, spesso amplificano l’idea di un’IA in grado di superare l’intelligenza umana. Ma questo discorso non è sempre imparziale. Il rischio è che tali previsioni non siano solo speculative, ma anche finalizzate a ottenere maggiori investimenti e regolamentazioni più favorevoli per le grandi aziende tecnologiche.

Spesso, l’enfasi sui rischi a lungo termine e su scenari futuristici serve a costruire una narrativa che posiziona queste aziende come attori chiave nell’affrontare tali sfide. Il risultato è che la percezione pubblica tende a vedere l’IA come una forza inarrestabile e inevitabile, quando in realtà siamo ancora lontani da un’intelligenza artificiale generale (AGI), cioè un’IA capace di fare tutto ciò che un essere umano è in grado di fare.

Fraintendimenti sul ruolo dell’IA

Infine, il dibattito spesso trascura un punto cruciale: anche se le IA dovessero “superare” gli esseri umani in certe capacità, questo non significherebbe necessariamente che le macchine possiedano coscienza o pensiero indipendente. Il pensiero umano è influenzato da esperienze soggettive, emozioni e un senso di identità che le IA, per ora, non possono emulare. Quindi, parlare di un superamento dell’intelligenza umana da parte dell’IA implica una ridefinizione di cosa intendiamo per “intelligenza”.

Conclusioni

In sintesi, il superamento dell’intelligenza umana da parte di quella artificiale è una questione complessa, che dipende da come definiamo il concetto di “intelligenza” e da quali ambiti consideriamo rilevanti. Se parliamo di pura potenza computazionale, le IA ci hanno già superato. Ma se guardiamo alle capacità critiche che rendono l’essere umano unico – creatività, empatia e intuizione – il discorso cambia radicalmente. L’intelligenza umana non è solo una questione di prestazioni tecniche, ma di esperienze e valori che le macchine, per ora, non possono replicare.

Confronta l’articolo su <ilpost.it> “In che senso l’intelligenza artificiale potrebbe superare quella umana?