La web de análisis NewsGuard informó que la tasa a la que las plataformas de inteligencia artificial difunden informaciones falsas en sus respuestas casi se ha duplicado en un año: del 18 % en agosto de 2024 al 35 % en agosto de 2025.
El estudio evaluó las 10 principales herramientas de IA y concluyó que los modelos suelen tratar fuentes poco fiables como creíbles, repitiendo narrativas creadas por redes de propaganda, incluidas operaciones de desinformación vinculadas a Rusia.
Según el informe, los sistemas con mayor índice de errores son Inflection (56,67 %) y Perplexity (46,67 %). En un nivel intermedio se ubican Mistral y Copilot (36,67 %), así como Grok y You.com (33,33 %).
En el otro extremo, los más precisos son Claude (10 %) y Gemini (16,67 %). Sin embargo, los líderes de mercado como ChatGPT y Meta muestran un 40 % de información falsa en sus respuestas.
En julio de 2024, NewsGuard ya había detectado que el 32 % de los modelos analizados replicaron narrativas de propaganda extranjera, especialmente de la operación rusa Storm-1516.
Los investigadores advierten que los actores maliciosos aprovechan la debilidad de los chatbots para “inundar el ecosistema informativo con falsedades”, justo en momentos de eventos de última hora, cuando más usuarios recurren a estas plataformas.
Un cambio destacado es que las tasas de “no respuesta” bajaron del 31 % en 2024 al 0 % en 2025. Pero este avance vino acompañado de un aumento en la amplificación de falsedades debido al acceso en tiempo real a la web.
NewsGuard advierte que, si no se corrige esta dinámica, la propaganda extranjera y otras falsedades podrían normalizarse en el ecosistema informativo, validándose a través de las mismas herramientas en las que los ciudadanos confían para informarse.