Le potentiel de l’IA pour inverser l’effet de fracture des médias sociaux sur la vérité

8

Pendant des décennies, les progrès technologiques ont érodé la confiance dans les experts, polarisé le débat public et poussé les individus vers des réalités de plus en plus personnalisées. Alors que les médias sociaux ont accéléré cette tendance, l’intelligence artificielle pourrait offrir un contre-pouvoir surprenant, rétablissant potentiellement un certain consensus autour de la réalité factuelle. Ce changement n’est pas garanti, mais les incitations économiques et les capacités inhérentes à l’IA suggèrent une possible inversion des pires conséquences des médias sociaux.

L’érosion de la réalité partagée

Au milieu du XXe siècle, les options de diffusion limitées (ABC, NBC et CBS) contrôlaient efficacement le flux de l’information. Cet environnement a favorisé un large consensus sur les faits fondamentaux, mais il a également permis la tromperie du gouvernement. Le coût de production élevé et les contrôles réglementaires stricts signifiaient que moins de voix dominaient la sphère publique. Ce n’était pas nécessairement un âge d’or de la vérité, mais cela a créé une base de compréhension commune.

L’essor de la télévision par câble puis d’Internet a brisé ce modèle. Cable a introduit des réseaux de niche comme Fox News et MSNBC, répondant à des points de vue auparavant marginalisés. Mais Internet a véritablement démocratisé l’information, réduisant considérablement les coûts de publication et de distribution. N’importe qui pouvait atteindre un public de masse, en contournant les gardiens traditionnels. Si cela promettait une plus grande responsabilisation et un meilleur accès au savoir, cela a également déclenché un flot de désinformation, de théories du complot et de contenus extrémistes. Les algorithmes des réseaux sociaux ont ensuite amplifié cette fragmentation, alimentant les utilisateurs en flux personnalisés conçus pour un engagement maximal, quelle que soit leur précision.

L’IA comme correctif potentiel

Malgré les craintes des deepfakes et de la propagande générée par l’IA, il existe de plus en plus de preuves que les grands modèles linguistiques (LLM) peuvent en fait augmenter le consensus autour de la réalité factuelle. Contrairement aux sociétés de médias sociaux encouragées par l’engagement, les laboratoires d’IA ont de fortes raisons économiques de donner la priorité à l’exactitude. Les cabinets d’avocats, les banques d’investissement et d’autres secteurs de « l’économie de la connaissance » ne paieront pas pour des résultats peu fiables, obligeant les développeurs d’IA à donner la priorité à la véracité.

Considérez X d’Elon Musk (anciennement Twitter). Interrogé sur une fusillade controversée, Musk a faussement affirmé que la victime avait tenté d’écraser des gens. Grok, le chatbot IA de la plateforme, l’a rapidement corrigé, s’alignant ainsi sur le consensus journalistique dominant. Ce n’est pas un incident isolé. Des études montrent que les LLM comme Grok et Perplexity sont systématiquement d’accord entre eux et avec les vérificateurs de faits professionnels le plus souvent.

De plus, l’IA n’est pas seulement précise, elle est persuasive. La recherche indique qu’interagir avec les LLM sur des sujets tels que le changement climatique ou la sécurité des vaccins peut réduire le scepticisme et pousser les utilisateurs vers un consensus scientifique établi. Cela est probablement dû à la patience infinie de l’IA et à sa capacité à adapter les explications à la compréhension individuelle sans bagage émotionnel. Les experts humains peuvent se montrer dédaigneux ou condescendants, déclenchant une attitude défensive. Les LLM, dépourvus d’ego social, peuvent fournir des réponses encyclopédiques sans jugement, permettant ainsi aux gens d’admettre plus facilement des croyances incorrectes.

Des mises en garde et des risques subsistent

Ce potentiel de convergence n’est pas sans réserves. Les LLM peuvent être manipulés pour renforcer les préjugés existants. Si un fournisseur d’IA donne la priorité à l’engagement plutôt qu’à la précision, il pourrait facilement répondre au sensationnalisme et aux chambres d’écho. La propagande générée par l’IA constitue également une menace croissante, permettant aux « essaims de robots » de propager la désinformation à grande échelle.

La clé est de savoir si les incitations économiques s’aligneront sur la véracité. Si l’IA reste un outil destiné aux industries spécialisées nécessitant des informations fiables, elle est susceptible de favoriser le consensus. Cependant, si l’IA devient avant tout un produit de divertissement destiné au consommateur, sa tendance à la flagornerie et à la personnalisation pourrait exacerber les problèmes existants.

En fin de compte, l’IA offre une opportunité unique de contrecarrer les effets de fracture des médias sociaux. Mais pour réaliser ce potentiel, il faut donner la priorité à la précision plutôt qu’à l’engagement et veiller à ce que l’avenir de l’IA soit axé sur l’utilité, et pas seulement sur le divertissement.

L’essor de l’IA ne garantit pas un retour à une réalité partagée, mais elle offre une rare chance de rétablir la confiance dans l’expertise et de favoriser un discours public plus informé.