¿Y ahora qué hacemos? Una investigación descubre que la IA se equivoca hasta 45% en noticias
Un estudio europeo encendió las alarmas sobre la precisión de la inteligencia artificial en la generación de noticias, revelando errores graves en los principales chatbots del mercado.
Un nuevo estudio europeo alerta sobre los errores de la inteligencia artificial en la generación de noticias.
shutterstockUna nueva investigación de la Unión Europea de Radiodifusión (UER) expuso un dato preocupante: la inteligencia artificial comete errores en casi la mitad de las noticias que genera o interpreta. Y lo más inquietante es que ocurre sin importar el idioma, la región o la plataforma de IA utilizada.
El informe, realizado junto a 22 medios públicos de 18 países y en 14 idiomas, evaluó 3.000 respuestas de asistentes como ChatGPT de OpenAI, Microsoft Copilot, Google Gemini y Perplexity. Los investigadores analizaron su precisión, fuentes, diferenciación entre hechos y opiniones, y capacidad de ofrecer contexto. El resultado: una lluvia de inconsistencias y errores.
Los chatbots de IA como ChatGPT, Gemini y Copilot fueron puestos a prueba en una investigación sobre noticias.
Cuando la IA se equivoca… y mucho
Los datos son contundentes. El 45% de las respuestas analizadas contenía al menos un problema grave, mientras que el 81% presentaba fallas menores. El principal motivo de estos errores fue el abastecimiento de fuentes. Un 31% de las respuestas mostró atribuciones incorrectas o directamente falsas.
En segundo lugar, aparecieron los problemas de precisión: un 30% de las respuestas incluía información desactualizada o inventada. ¿Un ejemplo? En un caso, ChatGPT afirmó que el Papa Francisco había muerto y había sido reemplazado por el Papa León XIV. En otro, Copilot mencionó un ensayo de vacuna contra la gripe aviar en Oxford… pero citaba un artículo de la BBC de 2006.
Te podría interesar
La inteligencia artificial mostró un 45% de errores graves al procesar información periodística.
Gemini, el peor alumno en noticias
Entre los modelos probados, Gemini de Google fue el que mostró más errores: presentó problemas en el 76% de sus respuestas, más del doble que sus competidores. Le siguieron Copilot (37%), ChatGPT (36%) y Perplexity (30%).
Gemini, el modelo de Google, lideró el ranking de fallas en noticias generadas por IA.
¿Podemos confiar en la inteligencia artificial para informarnos?
El estudio llega justo cuando el uso de asistentes de IA para consumir noticias está creciendo. Según el Instituto Reuters y la Universidad de Oxford, aunque sigue siendo una práctica minoritaria, su adopción se duplicó en el último año. Argentina y Estados Unidos lideran el ranking de países con más usuarios que consultan a la inteligencia artificial para informarse.
El informe también revela que el 48% de los jóvenes de 18 a 24 años utiliza la IA para entender mejor una historia, y un 27% de los mayores de 55 años hace lo mismo. Sin embargo, los investigadores advierten: “Si los asistentes de IA aún no son una forma confiable de acceder a las noticias, pero muchos consumidores confían en que sean precisos, tenemos un problema”.
Además, subrayan que estos asistentes reducen el tráfico hacia medios confiables, un efecto colateral que podría redefinir la relación entre plataformas y periodismo.
FUENTE: Información extraída de Digital Trends





