Durante décadas, los avances tecnológicos han erosionado la confianza en los expertos, polarizado el debate público y empujado a las personas hacia realidades cada vez más personalizadas. Si bien las redes sociales aceleraron esta tendencia, la inteligencia artificial puede ofrecer una fuerza contraria sorprendente, que podría restaurar cierto consenso en torno a la realidad fáctica. Este cambio no está garantizado, pero los incentivos económicos y las capacidades inherentes de la IA sugieren una posible reversión de las peores consecuencias de las redes sociales.
La erosión de la realidad compartida
A mediados del siglo XX, las opciones de transmisión limitadas (ABC, NBC y CBS) controlaban efectivamente el flujo de noticias. Este entorno fomentó un amplio acuerdo sobre hechos básicos, aunque también permitió el engaño del gobierno. El alto costo de producción y los estrictos controles regulatorios significaron que menos voces dominaban la esfera pública. Esta no fue necesariamente una época dorada de la verdad, pero sí creó una base compartida de comprensión.
El auge de la televisión por cable y luego de Internet destrozó este modelo. El cable introdujo redes de nicho como Fox News y MSNBC, atendiendo a puntos de vista previamente marginados. Pero Internet realmente democratizó la información, reduciendo drásticamente el costo de publicación y distribución. Cualquiera podría llegar a una audiencia masiva, evitando a los guardianes tradicionales. Si bien esto prometió una mayor rendición de cuentas y acceso al conocimiento, también desató una avalancha de desinformación, teorías de conspiración y contenido extremista. Luego, los algoritmos de las redes sociales amplificaron esta fragmentación, alimentando a los usuarios con transmisiones personalizadas diseñadas para lograr la máxima participación, independientemente de su precisión.
La IA como posible correctivo
A pesar de los temores a los deepfakes y la propaganda generada por la IA, cada vez hay más pruebas de que los grandes modelos lingüísticos (LLM, por sus siglas en inglés) pueden en realidad aumentar el consenso en torno a la realidad fáctica. A diferencia de las empresas de redes sociales incentivadas por la participación, los laboratorios de IA tienen una fuerte razón económica para priorizar la precisión. Los bufetes de abogados, los bancos de inversión y otros sectores de la “economía del conocimiento” no pagarán por resultados poco fiables, lo que obligará a los desarrolladores de IA a priorizar la veracidad.
Consideremos la X de Elon Musk (anteriormente Twitter). Cuando se le preguntó sobre un tiroteo en disputa, Musk afirmó falsamente que la víctima intentó atropellar a la gente. El chatbot de inteligencia artificial de la plataforma, Grok, lo corrigió rápidamente, alineándose con el consenso periodístico dominante. Este no es un incidente aislado. Los estudios muestran que los LLM como Grok y Perplexity coinciden constantemente entre sí y con los verificadores de datos profesionales la mayoría de las veces.
Además, la IA no sólo es precisa: es persuasiva. Las investigaciones indican que interactuar con los LLM sobre temas como el cambio climático o la seguridad de las vacunas puede reducir el escepticismo y empujar a los usuarios hacia un consenso científico establecido. Es probable que esto se deba a la infinita paciencia y capacidad de la IA para adaptar las explicaciones a la comprensión individual sin carga emocional. Los expertos humanos pueden ser desdeñosos o condescendientes, lo que provoca una actitud defensiva. Los LLM, al carecer de ego social, pueden proporcionar respuestas enciclopédicas sin juzgar, lo que facilita que las personas admitan creencias incorrectas.
Las advertencias y los riesgos persisten
Este potencial de convergencia no está exento de salvedades. Los LLM pueden manipularse para reforzar los sesgos existentes. Si un proveedor de IA prioriza el compromiso sobre la precisión, fácilmente podría satisfacer el sensacionalismo y las cámaras de eco. La propaganda generada por IA también es una amenaza creciente, ya que permite que “enjambres de robots” difundan desinformación a gran escala.
La clave es si los incentivos económicos se alinearán con la veracidad. Si la IA sigue siendo una herramienta para industrias especializadas que requieren información confiable, es probable que promueva el consenso. Sin embargo, si la IA se convierte principalmente en un producto de entretenimiento orientado al consumidor, su tendencia hacia la adulación y la personalización podría exacerbar los problemas existentes.
En última instancia, la IA presenta una oportunidad única para contrarrestar los efectos fracturantes de las redes sociales. Pero hacer realidad este potencial depende de priorizar la precisión sobre el compromiso y garantizar que el futuro de la IA esté impulsado por la utilidad, no solo por el entretenimiento.
El auge de la IA no garantiza el retorno a una realidad compartida, pero ofrece una rara oportunidad de reconstruir la confianza en la experiencia y fomentar un discurso público más informado.





























