Al menos decenas de miles de las publicaciones científicas de 2025, incluyendo artículos de revistas, libros y actas de congresos, probablemente contengan referencias falsas generadas por inteligencia artificial (IA), de acuerdo con un análisis hecho por el equipo de noticias de la revista Nature.
El estudio de Nature no está solo. Otro análisis de casi 18 mil artículos aceptados en tres congresos de informática reveló que han aumentado notablemente "las referencias que no pueden atribuirse a publicaciones académicas reales".
De acuerdo con un artículo periodístico publicado este miércoles en Nature, ese análisis encontró que "el 2.6% de los artículos de 2025 contenían al menos una cita potencialmente fraudulenta, frente al 0.3% de 2024".
Te podría interesar
La revista también cita otro análisis que estima que "entre el 2% y el 6% de los artículos de otros cuatro congresos de informática de 2025 incluían referencias con títulos reformulados o citas de publicaciones que no se pudieron verificar mediante búsquedas en bases de datos y archivos de revistas", señala Nature.
Alison Johnston, politóloga de la Universidad Estatal de Oregón en Corvallis y coeditora principal de la revista Review of International Political Economy (RIPE), afirma que rechazó el 25% de alrededor de 100 artículos en enero "debido a referencias falsas", algo que no le ocurría antes de 2025.
De acuerdo con Nature, el problema ocurre porque los investigadores utilizan cada vez más los grandes modelos de lenguaje (LLM por el inglés) para realizar búsquedas bibliográficas, redactar manuscritos y formatear bibliografías, "y en ocasiones, estos modelos generan referencias académicas inexistentes", o alucinan.
Alucinaciones de IA en el análisis de Nature
El análisis de Nature fue hecho en colaboración con Grounded AI, una empresa con sede en Stevenage (Reino Unido) que, entre otras, ofrece a las editoriales herramientas para detectar referencias problemáticas en sus manuscritos. Varias editoriales comentaron a Nature que han estado explorando ese tipo de herramientas o desarrollando sus propias versiones.
Los errores de citación no son nuevos en las publicaciones académicas, incluso antes de la IA generativa, ya teníamos muchas imprecisiones en las citas", comentó a Nature Mohammad Hosseini, quien estudia la ética y la integridad de la investigación en la Universidad Northwestern en Chicago, Illinois.
Pero los problemas han cambiado, antes eran, por ejemplo, errores ortográficos en los nombres de los autores, en el año de publicación, el título de la revista o el DOI. También había discrepancias entre la información de la obra citada y los detalles proporcionados por el artículo que la citaba.
"Ahora el problema no es sólo la inexactitud, sino las citas falsas. Se trata de citas inventadas, lo cual es un problema completamente distinto", dijo Hosseini.
20% de alucinaciones
En los experimentos que se han hecho con chatbots de IA para generar artículos científicos, se ha visto que las alucinaciones no sólo son comunes y aparentemente inevitables, sino que se producen con bastante frecuencia.
Uno de esos estudios pidió al LLM GPT-4o de OpenAI que generara seis revisiones bibliográficas sobre tres trastornos de salud mental, y el equipo humano de investigación analizo las 176 referencias de dichas revisiones sintéticas. Descubrieron que "casi el 20% eran referencias inventadas que no podían vincularse a investigaciones reales".
"Además, el 45% de las referencias restantes, que correspondían a publicaciones auténticas, contenían errores". En algunos casos, todos los componentes son inventados, le dijo a Nature Kathryn Weber-Boer, directora de cienciometría de la empresa Digital Science.
Para algunos investigadores, el problema está próximo a descontrolarse. "Vamos a ver una avalancha de referencias falsas", dice Alison Johnston.