Per decenni, i progressi tecnologici hanno eroso la fiducia negli esperti, polarizzato il dibattito pubblico e spinto gli individui verso realtà sempre più personalizzate. Sebbene i social media abbiano accelerato questa tendenza, l’intelligenza artificiale può offrire una sorprendente controforza, ripristinando potenzialmente un certo consenso sulla realtà fattuale. Questo cambiamento non è garantito, ma gli incentivi economici e le capacità intrinseche dell’intelligenza artificiale suggeriscono una possibile inversione delle peggiori conseguenze dei social media.
L’erosione della realtà condivisa
A metà del XX secolo, opzioni di trasmissione limitate – ABC, NBC e CBS – controllavano efficacemente il flusso delle notizie. Questo ambiente ha favorito un ampio consenso sui fatti fondamentali, ma ha anche consentito l’inganno del governo. Gli alti costi di produzione e i severi controlli normativi hanno fatto sì che meno voci dominassero la sfera pubblica. Questa non fu necessariamente un’età dell’oro della verità, ma creò una linea di base condivisa di comprensione.
L’ascesa della TV via cavo e poi di Internet ha mandato in frantumi questo modello. Cable ha introdotto reti di nicchia come Fox News e MSNBC, soddisfacendo punti di vista precedentemente marginalizzati. Ma Internet ha veramente democratizzato l’informazione, tagliando i costi di pubblicazione e distribuzione. Chiunque potrebbe raggiungere un pubblico di massa, aggirando i tradizionali guardiani. Sebbene ciò promettesse maggiore responsabilità e accesso alla conoscenza, scatenò anche un’ondata di disinformazione, teorie del complotto e contenuti estremisti. Gli algoritmi dei social media hanno poi amplificato questa frammentazione, fornendo agli utenti flussi personalizzati progettati per il massimo coinvolgimento, indipendentemente dalla precisione.
L’intelligenza artificiale come potenziale correttivo
Nonostante i timori dei deepfake e della propaganda generata dall’intelligenza artificiale, ci sono prove crescenti che i modelli linguistici di grandi dimensioni (LLM) possano effettivamente aumentare il consenso sulla realtà fattuale. A differenza delle società di social media incentivate dal coinvolgimento, i laboratori di intelligenza artificiale hanno una forte ragione economica per dare priorità all’accuratezza. Studi legali, banche di investimento e altri settori dell'”economia della conoscenza” non pagheranno per risultati inaffidabili, costringendo gli sviluppatori di intelligenza artificiale a dare priorità alla veridicità.
Considera X di Elon Musk (ex Twitter). Alla domanda su una sparatoria contestata, Musk ha falsamente affermato che la vittima aveva tentato di investire le persone. Il chatbot AI della piattaforma, Grok, lo ha prontamente corretto, allineandosi al consenso giornalistico tradizionale. Questo non è un incidente isolato. Gli studi dimostrano che LLM come Grok e Perplexity sono costantemente d’accordo tra loro e con i verificatori di fatti professionisti il più delle volte.
Inoltre, l’intelligenza artificiale non è solo accurata: è anche persuasiva. La ricerca indica che interagire con gli LLM su argomenti come il cambiamento climatico o la sicurezza dei vaccini può ridurre lo scetticismo e spingere gli utenti verso un consenso scientifico consolidato. Ciò è probabilmente dovuto all’infinita pazienza e capacità dell’intelligenza artificiale di adattare le spiegazioni alla comprensione individuale senza bagaglio emotivo. Gli esperti umani possono essere sprezzanti o condiscendenti, innescando un atteggiamento difensivo. Gli LLM, privi di ego sociale, possono fornire risposte enciclopediche senza giudizio, rendendo più facile per le persone ammettere convinzioni errate.
Rimangono avvertenze e rischi
Questo potenziale di convergenza non è esente da avvertimenti. Gli LLM possono essere manipolati per rafforzare i pregiudizi esistenti. Se un fornitore di intelligenza artificiale dà priorità al coinvolgimento piuttosto che all’accuratezza, potrebbe facilmente soddisfare il sensazionalismo e le camere di risonanza. Anche la propaganda generata dall’intelligenza artificiale rappresenta una minaccia crescente, poiché consente agli “sciami di bot” di diffondere disinformazione su larga scala.
La chiave è se gli incentivi economici si allineeranno alla veridicità. Se l’intelligenza artificiale rimane uno strumento per industrie specializzate che necessitano di informazioni affidabili, è probabile che promuova il consenso. Tuttavia, se l’intelligenza artificiale diventasse principalmente un prodotto di intrattenimento rivolto al consumatore, la sua tendenza al servilismo e alla personalizzazione potrebbe esacerbare i problemi esistenti.
In definitiva, l’intelligenza artificiale rappresenta un’opportunità unica per contrastare gli effetti di fratturazione dei social media. Ma la realizzazione di questo potenziale dipende dal dare priorità all’accuratezza rispetto al coinvolgimento e dalla garanzia che il futuro dell’intelligenza artificiale sia guidato dall’utilità, non solo dall’intrattenimento.
L’ascesa dell’intelligenza artificiale non garantisce il ritorno a una realtà condivisa, ma offre una rara opportunità di ricostruire la fiducia nelle competenze e promuovere un discorso pubblico più informato.






























