metricas
covid
Buscar en
Revista Española de Cirugía Ortopédica y Traumatología
Toda la web
Inicio Revista Española de Cirugía Ortopédica y Traumatología ¿Crisis de identidad en la investigación científica? Más de 10.000 artículo...
Journal Information
Vol. 68. Issue 2.
Pages 89-90 (March - April 2024)
Share
Share
Download PDF
More article options
Vol. 68. Issue 2.
Pages 89-90 (March - April 2024)
EDITORIAL
Full text access
¿Crisis de identidad en la investigación científica? Más de 10.000 artículos científicos retirados en 2023: un triste récord
Identity crisis in scientific research? More than 10,000 scientific articles withdrawn in 2023: A sad record
Visits
1065
J. Vaquero Martína,b
a Servicio de COT, Hospital General Universitario Gregorio Marañón, Madrid, España
b Universidad Complutense de Madrid, Madrid, España
Related content
J. Vaquero Martín
This item has received
Article information
Full Text
Bibliography
Download PDF
Statistics
Full Text

En la revista Nature, una de las más reputadas y prestigiosas publicaciones en el campo de la ciencia y tecnología, que alcanza más de 164 millones de descargas anuales en su web, se publicó en diciembre una noticia sobre el sorprendente número de trabajos de investigación retirados («retracted»), que ha dejado a la comunidad científica atónita1.

El autor de la noticia expresa su preocupación por este incremento llamativo, que hasta principios de diciembre duplica ampliamente la cifra de todo el año 2022.

Destaca el hecho de que casi 8.000 de estos artículos pertenecen a revistas de la editorial Hindawi, una filial de Wiley, editorial especializada en publicaciones de acceso abierto. La razón alegada para su retirada es la «manipulación sistemática de la revisión por pares y el proceso editorial». El escándalo provocado por esta eliminación masiva, que incluso ha llevado al cierre de algunas cabeceras, ha obligado a Wiley a absorber las casi 200 revistas de Hindawi e integrarlas en su cartera.

El análisis realizado por el autor señala, entre otros factores, las incoherencias en el texto, así como las referencias superfluas como las causas más frecuentes de retirada. Estos artículos fraudulentos suelen aparecer en números monográficos, con editores invitados, donde el proceso editorial y a veces la ética, son más laxos. También distribuye los trabajos fraudulentos por regiones, encabezando la clasificación Arabia Saudí, país en el que se incentiva económicamente a los investigadores por publicar, seguida de Paquistán, Rusia y China.

Aunque algunos textos retirados implican el reconocimiento honesto del autor de su error, la mayoría corresponden a fraudes buscados conscientemente por ellos y lamentablemente solo son la punta del iceberg de todos los artículos que deberían haberse eliminado. Por desgracia, el engaño en los trabajos científicos se hace cada vez más habitual y la llegada de la inteligencia artificial (IA) a través del conocido chat Generative Pre-Trained Transformer (ChatGPT, San Francisco, California, EE. UU.) tiene parte de la culpa. Por un lado, los autores plagian otros documentos y las herramientas de las que disponen las grandes empresas editoriales como Crossref (Lynnfield, Massachussetts, EE. UU.), empleada en nuestra revista, son burladas mediante frases retorcidas y palabras inusuales para así evadir a los detectores de plagio. Por otro lado, han surgido organizaciones ilegales que actúan como verdaderas «fábricas» de trabajos científicos («paper-mills») que ofrecen puestos de autoría en investigaciones legales, cuando no artículos falsos elaborados «a medida» a través de la IA, con datos inventados y que se asemejan a análisis científicos, a cambio de importantes sumas de dinero2. Son cientos los anuncios que se pueden encontrar en internet y los investigadores que se ven presionados a publicar, bien sea por exigencias de su carrera profesional o universitaria o bien para obtener becas oficiales («publish or perish»), caen en la tentación de recurrir a estos servicios ¡El negocio crece y el fraude se consolida contribuyendo al crecimiento de «ciencia-basura»!

Se deberían tomar medidas urgentes por parte de las editoriales, siendo más rigurosas en la revisión de los artículos, haciendo públicas y compartiendo con otras editoriales las listas de los autores identificados por «malas prácticas» e incluso planteando acciones legales contra ellos. Asimismo, se debe asegurar que todas las copias son retiradas de los repositorios y bases de datos para evitar sus consecuencias potencialmente graves. Si bien los programas basados en IA (ChatGPT u otros) pueden ser de ayuda en las publicaciones científicas, señalándonos la bibliografía de referencia o realizando una traducción casi perfecta de nuestros artículos en pocos segundos (lo cual es de agradecer en un ámbito no anglosajón como el nuestro), hay que empezar a poner en práctica medidas para evitar el engaño de forma urgente. Las editoriales tendrán que implementar en su proceso no solo los programas antiplagio ya en vigor, sino también aquellas herramientas que puedan detectar la ayuda fraudulenta de IA y que ya están disponibles en el mercado con una fiabilidad creciente cada día (ZeroGPT, Hamburgo, Alemania; DetectorGPT, Universidad de Stanford, California, EE. UU.etc.). Desgraciadamente estos programas no alcanzan una fiabilidad absoluta, pueden ser burlados, y además la experiencia nos demuestra que la IA va por delante de los detectores. La propia empresa OpenAI, creadora de ChatGPT, está proyectando la inclusión de una especie de «marca de agua» digital invisible que permita identificar de forma segura el contenido elaborado por IA en los escritos. Finalmente, las editoriales tendrán que unirse para luchar eficazmente contra la amenaza para la ciencia que encarnan las «fábricas» de trabajos. Tanto el Committee on Publication Ethics como el International Committee of Medical Journal Editors ya han aconsejado no solo la revisión de los autores y sus tareas en la elaboración de los manuscritos, sino que se exija una justificación firmada por cada uno de ellos ante cualquier nueva inclusión de firmantes una vez enviado el trabajo.

Pero las editoriales no pueden unilateralmente acabar con este problema cada vez más extendido. Entre todos debemos poner coto a estas prácticas que conllevan una competencia desleal. Se trata de un problema de ética e integridad de la investigación que pone en peligro no solo el valor de las publicaciones, sino también el conocimiento científico en sí. ChatGPT (o cualquier otro chatbot similar) no pueden aún reemplazar a la creatividad, al juicio humano, a la reflexión ni tampoco al filtrado y la crítica de los conocimientos existentes3. Esta tarea singular que únicamente es capaz de llevar a cabo la mente humana, es la única garantía de que la publicación académica, su autenticidad y credibilidad, no han llegado a su fin.

La investigación científica no puede ser erosionada por la sombra del engaño, la deshonestidad y las malas conductas. Es tarea de todos preservar su autenticidad ya que es la base para la toma de decisiones que pueden tener consecuencias graves para la salud.

Bibliografía
[1]
R. Van Noorden.
More than 10,000 research papers were retracted in 2023; a new record.
Nature., 624 (2023), pp. 479-481
[2]
D.S. Chawla.
How a site peddles autor slots in reputable publishers’ journal.
Science., 376 (2022), pp. 231-232
[3]
M. Salvagno, F.S. Taccone, A.G. Gerli.
Can artificial intelligence help for scientific writing?.
Copyright © 2024. SECOT
Download PDF
Article options
es en pt

¿Es usted profesional sanitario apto para prescribir o dispensar medicamentos?

Are you a health professional able to prescribe or dispense drugs?

Você é um profissional de saúde habilitado a prescrever ou dispensar medicamentos