Una infografía de una rata con un pene ridículamente grande. Otra que muestra piernas humanas con demasiados huesos. Una introducción que comienza: “Sin duda, aquí hay una posible introducción para tu tema”.
Estos son algunos de los ejemplos más atroces de inteligencia artificial que han llegado recientemente a… revistas científicasarrojando luz sobre la ola de textos e imágenes generados por IA que invade la industria editorial académica.
Varios expertos que rastrean los problemas en los estudios dijeron a la AFP que el auge de la IA ha agravado los problemas existentes en el sector multimillonario.
Todos los expertos destacaron que los programas de IA como ChatGPT pueden ser una herramienta útil para escribir o traducir artículos, si se revisan y divulgan exhaustivamente.
Pero ese no fue el caso de varios casos recientes que de alguna manera lograron escapar de la revisión por pares.
A principios de este año, un gráfico claramente generado por inteligencia artificial de una rata con genitales increíblemente grandes se compartió ampliamente en las redes sociales.
Se publicó en una revista del gigante académico Frontiers, que luego se retractó del estudio.
El mes pasado se retiró otro estudio debido a un gráfico de inteligencia artificial que mostraba piernas con extraños huesos multiarticulares que se parecían a manos.
Si bien estos ejemplos eran imágenes, se cree que es ChatGPT, un chatbot lanzado en noviembre de 2022, el que más ha cambiado la forma en que los investigadores del mundo presentan sus hallazgos.
Un estudio publicado por Elsevier se volvió viral en marzo por su introducción, que claramente era un mensaje de ChatGPT que decía: “Ciertamente, aquí hay una posible introducción para su tema”.
Ejemplos tan embarazosos son raros y es poco probable que pasen el proceso de revisión por pares de las revistas más prestigiosas, dijeron varios expertos a la AFP.
Inclinación en las fábricas de papel
No siempre es tan fácil detectar el uso de la IA, pero una pista es que ChatGPT tiende a favorecer ciertas palabras.
Andrew Gray, bibliotecario del University College de Londres, revisó millones de documentos en busca del uso excesivo de palabras como meticuloso, intrincado o loable.
Determinó que al menos 60.000 artículos involucraron el uso de IA en 2023, más del uno por ciento del total anual.
“En 2024 veremos un aumento muy significativo de las cifras”, dijo Gray a la AFP.
Mientras tanto, más de 13.000 artículos fueron retractados el año pasado, con diferencia la mayor cantidad en la historia, según el grupo estadounidense Retraction Watch.
La inteligencia artificial ha permitido a los malos actores del mundo académico y de las publicaciones científicas “industrializar el exceso” de artículos “basura”, dijo a la AFP el cofundador de Retraction Watch, Ivan Oransky.
Entre estos malos actores se incluyen los conocidos como papel molinos.
Estos “estafadores” venden la autoría a los investigadores, publicando enormes cantidades de artículos de muy mala calidad, plagiados o falsos, dijo Elisabeth Bik, una investigadora holandesa que detecta la manipulación de imágenes científicas.
Se cree que el dos por ciento de todos los estudios son publicados por editoriales, pero la tasa está “explotando” a medida que la IA abre las compuertas, dijo Bik a la AFP.
Este problema se puso de relieve cuando el gigante editorial académico Wiley compró la editorial Hindawi en problemas en 2021.
Desde entonces, la firma estadounidense ha retirado más de 11.300 artículos relacionados con números especiales de Hindawi, dijo a la AFP un portavoz de Wiley.
Wiley ha presentado ahora un “servicio de detección de fábricas de papel” para detectar el uso indebido de la IA, que a su vez está impulsado por IA.
'Círculo vicioso'
Oransky enfatizó que el problema no son sólo las fábricas de artículos, sino una cultura académica más amplia que empuja a los investigadores a “publicar o perecer”.
“Los editores han creado márgenes de beneficio del 30 al 40 por ciento y miles de millones de dólares en ganancias al crear estos sistemas que exigen volumen”, dijo.
La demanda insaciable de cada vez más artículos aumenta la presión sobre los académicos, que son clasificados según su producción, lo que crea un “círculo vicioso”, dijo.
Muchos han recurrido a ChatGPT para ahorrar tiempo, lo que no es necesariamente algo malo.
Debido a que casi todos los artículos se publican en inglés, Bik dijo que las herramientas de traducción de IA pueden ser invaluables para los investigadores, incluida ella misma, para quienes el inglés no es su primera lengua.
Pero también existe el temor de que los errores, las invenciones y los plagios involuntarios de la IA puedan erosionar cada vez más la confianza de la sociedad en la ciencia.
Otro ejemplo de mal uso de la IA se produjo la semana pasada, cuando un investigador descubrió que lo que parecía ser una versión reescrita en ChatGPT de uno de sus propios estudios había sido publicado en una revista académica.
Samuel Payne, profesor de bioinformática en la Universidad Brigham Young de Estados Unidos, dijo a AFP que le habían pedido que revisara el estudio en marzo.
Tras darse cuenta de que era “100 por ciento plagio” de su propio estudio (pero con el texto aparentemente reformulado por un programa de inteligencia artificial), rechazó el artículo.
Payne dijo que estaba “sorprendido” al descubrir que el trabajo plagiado simplemente había sido publicado en otro lugar, en una nueva revista de Wiley llamada Proteómica.
No se ha retractado.
© 2024 AFP
Citación:Inundación de 'basura': cómo la IA está cambiando la publicación científica (10 de agosto de 2024) recuperado el 10 de agosto de 2024 de https://phys.org/news/2024-08-junk-ai-scientific-publishing.html
Este documento está sujeto a derechos de autor. Salvo que se haga un uso legítimo con fines de estudio o investigación privados, no se podrá reproducir ninguna parte del mismo sin autorización por escrito. El contenido se ofrece únicamente con fines informativos.