Sí, la IA se equivoca
Y lo hace con tanta seguridad que cuesta no creerla
El nuevo informe conjunto de la BBC y la Unión Europea de Radiodifusión (EBU), titulado 'News Integrity in AI Assistants '(2025), ofrece una radiografía inquietante ... del estado actual de la inteligencia artificial aplicada al periodismo y al acceso a la información.
El estudio, realizado por 22 medios públicos de 18 países, evaluó a cuatro de los principales asistentes de IA, como ChatGPT, Copilot, Gemini y Perplexity, a través de más de 2.700 respuestas a preguntas reales de actualidad.
El resultado es demoledor: el 45% de las respuestas contenía errores significativos, y el 81 % presentaba algún tipo de fallo. Dicho de otra forma, ocho de cada diez veces, la IA patina.
Los fallos no son menores. El informe detalla errores de precisión, citas inventadas, fuentes falsas o irrelevantes, y una peligrosa tendencia a presentar opiniones como hechos. En el caso de Gemini, el asistente de Google, la cifra se dispara: el 76 % de sus respuestas tiene problemas graves, y en el 72% de los casos el fallo está en la fuente.
La máquina no solo se equivoca, sino que lo hace con una seguridad pasmosa, citando medios que nunca dijeron lo que ella afirma o inventando enlaces a páginas que no existen.
Uno de los ejemplos más llamativos se produjo cuando se le preguntó a Gemini si Elon Musk había hecho un saludo nazi. El asistente citó a Radio France y a Wikipedia, pero el supuesto enlace a la emisora pública redirigía en realidad a un vídeo de The Telegraph. Además, el contenido de Radio France era un segmento humorístico, que el modelo trató como una fuente informativa seria. Resultado: una sátira convertida en «hecho noticioso», bajo el nombre de un medio público.
El problema, sin embargo, no es solo técnico, sino cultural. Los investigadores subrayan el fenómeno de la «sobreconfianza»: los asistentes responden con tono autoritario incluso cuando no saben. No dicen «no lo sé». Rellenan el vacío con conjeturas. La mayoría de los modelos actuales, optimizados para sonar seguros, prefieren adivinar antes que reconocer la duda.
En ese contexto, la confianza del público se convierte en un arma de doble filo. El estudio señala que un tercio de los adultos británicos, y casi la mitad de los menores de 35 años, confía plenamente en que la IA ofrezca resúmenes informativos precisos. Al mismo tiempo, el 42% de los encuestados afirma que perdería confianza en un medio de comunicación si una IA le atribuyese errores. Es decir, los daños colaterales de los fallos de la IA recaen sobre los propios medios, incluso cuando el error es ajeno.
Mientras tanto, los llamados «entornos de respuesta directa», como Google Gemini o Perplexity, están desplazando el tráfico desde los buscadores hacia los asistentes. El Financial Times calcula que su tráfico proveniente de búsquedas ha caído entre un 25% y un 30% desde que Google empezó a integrar respuestas generadas por IA en los resultados. El círculo se cierra: menos visitas a los medios, más dependencia de sistemas opacos, más errores circulando.
El informe plantea una paradoja inquietante. Por un lado, los grandes modelos de lenguaje son cada vez más sofisticados; por otro, el nivel de fiabilidad en el terreno del periodismo sigue siendo alarmantemente bajo. Las mejoras respecto a estudios anteriores existen, pero son parciales. La proporción de respuestas con «problemas significativos» bajó del 51% al 37% en el caso de la BBC. Es una mejora, sí, pero sigue significando que uno de cada tres textos generados sobre noticias contiene errores importantes.
Y los errores no son triviales. ChatGPT, Copilot y Gemini se equivocaron, por ejemplo, al identificar al Papa vigente, afirmando que Francisco seguía vivo y al mando en mayo de 2025, un mes después de su muerte, o citando leyes inexistentes, como una supuesta prohibición de la gestación subrogada en Chequia. En otras ocasiones, los modelos tergiversaron cronologías o fusionaron fuentes incompatibles, creando narrativas falsas pero coherentes.
A todo ello se suma un patrón de manipulación semántica: la IA altera citas o inventa frases que no aparecen en los textos originales. En un caso, ChatGPT atribuyó a Justin Trudeau la expresión «estúpida guerra comercial», cuando en realidad había dicho «es una estupidez hacerlo». Una pequeña alteración, pero suficiente para cambiar el tono político de la declaración. En otro, Perplexity elaboró tres citas ficticias sobre una huelga de recogida de basura en Birmingham. Las puso entre comillas, citó fuentes reales… y se las inventó.
Los asistentes también editorializan, es decir, añaden juicios de valor no presentes en las fuentes. Copilot, por ejemplo, aseguró que «la pertenencia a la OTAN ofrece las mejores garantías de seguridad de la historia moderna». Lo presentaba como un hecho, cuando en realidad era una opinión de un político. La IA, convertida en tertuliano.
¿Quién debe actuar? El informe es claro: los desarrolladores de IA tienen que tomarse el problema en serio y publicar resultados transparentes, por idioma y por mercado. Los medios deben recuperar el control sobre cómo se usa su contenido y exigir atribuciones correctas. Y los reguladores, dicen los autores, deberían intervenir si las soluciones de la industria no son suficientes.
Pero también hay un deber del público. La alfabetización mediática, saber cómo se construye la información, de dónde procede y cómo verificarla, se ha vuelto una necesidad democrática. La BBC ha lanzado ya una Guía de IA para jóvenes. La cuestión es si la sociedad adulta, más confiada y expuesta, hará el mismo esfuerzo por aprender a desconfiar.
En el fondo, el problema no es que la inteligencia artificial se equivoque. El problema es que nosotros queremos creer que no lo hace. Nos tranquiliza la voz monocorde, la gramática perfecta, la respuesta inmediata. Pero detrás de ese orden aparente sigue habiendo un sistema estadístico, no un juicio humano. Y es que la IA no entiende el contexto, no distingue el matiz y no se hace responsable.
¿Tienes una suscripción? Inicia sesión