La ciencia apenas existe hasta que se publica1. Es sólo entonces cuando la información trasciende los límites del propio autor y la comunidad científica la puede compartir. En el área de ciencias de la salud, en concreto, uno de los ítems que se valoran es la capacidad investigadora del profesional y, dentro de ésta y como consecuencia directa de ésta, su producto final: la publicación científica. La evaluación de un autor tiene pleno sentido en un sistema competitivo, en el que la puntuación más elevada tiene efectos en la carrera del investigador o en el acceso a la financiación. Por tanto, la instauración de sistemas de evaluación de la actividad científica es hoy en día una necesidad ineludible, ya que es la única forma de optimizar los recursos, siempre limitados, que se destinan a la investigación2.
El dogma central de la evaluación es que ningún parámetro sencillo puede igualar a la revisión «por pares», pero ésta es una evaluación compleja que conlleva notables dificultades3. Los indicadores bibliométricos son una valiosa herramienta para el estudio de la actividad científica, siempre y cuando se utilicen de forma adecuada, para lo que es necesario conocer sus condiciones óptimas de aplicación y sus limitaciones2. La ciencia es una actividad multidimensional, en la que participan simultáneamente elementos científicos, económicos y sociales. Esta realidad multidimensional complica enormemente los procesos de evaluación de la actividad científica, para los que se requiere el uso combinado de diversos indicadores2.
Como gráficamente señalan Imperial y Rodríguez-Navarro, hace tiempo que la ciencia busca el número áureo, un método cuantitativo, un único indicador, sencillo, que sea válido para todas las ramas de la ciencia y para todas las disciplinas, capaz de representar el valor de un autor y sus aportaciones4–6. Sin embargo, al menos por el momento, ninguno de los indicadores bibliométricos puede considerarse en sí mismo determinante, ya que cada uno de éstos presenta sólo una faceta de la realidad —siempre en forma imperfecta—, de manera que sólo tienen verdadera utilidad cuando se consideran en conjunto.
El principal papel de los indicadores bibliométricos no es reemplazar a los expertos, sino facilitar sus decisiones y aportar objetividad y transparencia a los procesos de evaluación. No cabe duda de que a pesar de las objeciones que se pueden y se deben hacer a los indicadores bibliométricos, éstos son en la actualidad una herramienta útil y objetiva que facilita una mejor comprensión y evaluación de la actividad investigadora2. No obstante, por ejemplo, el simple recuento de publicaciones de cada investigador es un indicador poco fiable para medir la aportación que ha hecho al progreso de la ciencia. Por otra parte, la capacidad de que otros autores lo citen traduce un determinado reconocimiento o crédito que la comunidad científica otorga a un trabajo–impacto, ergo sum7. Sin embargo, la utilización del número de citas que reciben los trabajos como indicador bibliométrico tiene también algunas limitaciones, y hace posible que los éxitos fulgurantes pero aislados, las colaboraciones afortunadas pero casuales y hasta los «pelotazos» científicos inusitados puedan primar sobre el valor de una carrera seria y sostenida en el tiempo.
De entre los diversos indicadores de impacto, el más conocido es el denominado «factor de impacto» (de Thomson Scientific). El «factor de impacto» de una revista en un año es el cociente entre el número de citas que han recibido en ese año los documentos publicados en los 2 años anteriores y el número de documentos publicados por la revista en esos 2 años. Lamentablemente, como brillantemente ha expresado Camí en un artículo titulado «Impactolatría: diagnóstico y tratamiento», algunos colegas profesan un culto o una adoración incontinente al «factor de impacto», como si se tratara de la panacea de la evaluación en ciencia7. La impactolatría conlleva una práctica simplista, en la que se presupone que el «factor de impacto» de la revista de publicación es indicativo de la calidad o la importancia de una investigación científica concreta y, por extensión, de los autores de ésta. Sin embargo, y a pesar del extendido uso de este índice, se ha demostrado repetidamente que el «factor de impacto» de una revista no predice la calidad de cada uno de los trabajos publicados. Por tanto, publicar en una revista de impacto no es necesariamente un indicador de la calidad del manuscrito. Rodríguez-Navarro e Imperial3 señalaban cómo llama poderosamente la atención que un tema tan complejo como es la evaluación científica sea resuelto por muchas agencias de evaluación con un método tan falto de soporte empírico y teórico como es el de los «factores de impacto» de las revistas. Por el contrario, y sobre la base de las relevantes limitaciones de este indicador, podríamos concluir que el «factor de impacto» debería desterrarse de las evaluaciones científicas o, al menos, debería complementarse con otros índices3,5,6.
Como queda patente por lo expuesto hasta aquí, para evaluar a un investigador de forma objetiva y a la vez sencilla, sería preciso disponer de algún tipo de indicador que aglutinara y simplificara la amplia gama de medidas disponibles (como el número de trabajos publicados, las citas totales recibidas, el número de citas por trabajo, el «factor de impacto» de la revista, etc.). En este contexto de sobreabundancia y caos de índices bibliométricos, en el año 2005 se publicó un trabajo de Jorge Hirsch, un profesor de física de la Universidad de California en San Diego, en el que se proponía un indicador denominado índice h8. La idea que propone Hirsch consiste en tomar cada uno de los trabajos de un autor y ordenarlos en forma descendente en función de las citas recibidas. Cada trabajo tiene, por tanto, además de una cantidad de citas, un número de orden en el ranking, al que denominamos simplemente rango. De esta forma, construimos 2 listas de números: una ascendente (los rangos) y una descendente (el número de citas). Cuando los valores de ambas se cruzan, tenemos el índice h9,10. Por tanto, un investigador tiene un índice h de x cuando x de sus documentos han recibido al menos x citas cada uno. Por ejemplo, un h=20 significa que un autor tiene 20 publicaciones que se han citado cada una de éstas al menos 20 veces (pero no tiene 21 publicaciones que se hayan citado 21 veces cada una de éstas).
El índice h tiene una serie de ventajas que lo hacen muy útil y atractivo, entre las que se encuentran las siguientes: a) su cálculo es muy sencillo; b) combina, en un mismo índice bibliométrico, el efecto de la «cantidad» (número de publicaciones) y la «calidad» (tasa de citas) de un modo equilibrado, lo que supera los recuentos brutos de documentos y citas; c) se ha evidenciado una buena correlación entre la puntuación del índice h y los resultados de la evaluación por revisores (revisión «por pares»)3,8,11; d) valora un esfuerzo científico prolongado durante toda la vida profesional o académica frente a verdaderos «pelotazos» —éxitos fulgurantes pero aislados— que pueden tener un impacto muy alto pero claramente acotado9,10. El factor h aspira a ser el indicador que exprese mejor el valor medio de visibilidad internacional de todos los trabajos de un autor, por lo que su creador lo ha llamado «indicador de carrera». Así, el valor del número h representa la biografía científica de un autor, pues no mide inmediatez, sino grandes períodos de tiempo4, y e) el índice h ha demostrado ser capaz de predecir con más precisión que otros indicadores bibliométricos la progresión de la carrera científica y los logros futuros de los autores12.
Como no podía ser de otro modo, no todo son ventajas, ya que el índice h tiene también sus inconvenientes, entre los que se encuentran los siguientes: a) no tiene en cuenta la calidad de las revistas donde se publican los artículos, por lo que se ha indicado que el índice h podría, al menos teóricamente, ser artificialmente inflado con citas provenientes de revistas «mediocres y de bajo nivel»11; b) tiende a favorecer a los que cuentan con carreras científicas más dilatadas y tiene menos validez en los más jóvenes debido a que el índice h depende del número total de citas de los investigadores3,11,13; c) no tiene en cuenta el número de autores ni el orden de éstos en el artículo en cuestión; d) podría permitir a un investigador «dormirse en los laureles» y dejar que sus artículos «hagan el trabajo por él», ya que el número de citaciones recibidas puede seguir incrementándose, incluso si no se publican nuevos artículos8, y e) es inadecuado para comparar investigadores de diferentes áreas científicas3,13,14. En el caso de la Medicina, son claras las diferencias de acuerdo con el carácter básico o clínico de la actividad: las áreas clínicas con frecuencia presentan una menor productividad, ya que sus profesionales suelen primar la asistencia sanitaria frente a la investigación y a la publicación de resultados2. El problema fundamental es que incluso dentro de una misma especialidad (por ejemplo médica) puede haber también diferencias que impidan la correcta comparación entre 2 autores debido a que los temas de investigación más «populares» o más «de moda» tendrán, teóricamente, más posibilidad de ser citados5,6,13.
Con respecto a los posibles valores del índice h, ¿cuánto es mucho? Hirsch indica, con cautela, los valores de h que, de forma automática, deberían de conducir a obtener una plaza permanente en la universidad y a progresar en la carrera científica, incluido el nombramiento de miembro de la National Academy of Sciences de EE. UU. (que para los físicos sería de h=45). En el caso de las ciencias físicas, Hirsch concluye que un factor h=20 después de 20 años de actividad científica es característico de una carrera coronada por el éxito, factores h=35–45 después de 20 años sólo se dan entre los mejores científicos, y un factor h=60 caracterizaría a un individuo singular, excepcionalmente dotado para la ciencia8.
En resumen, el índice h, propuesto recientemente por Hirsch, ha revolucionado el mundo de la evaluación de la investigación científica al representar un balance entre el número de publicaciones y las citas a éstas; dicho de otro modo, la principal ventaja del índice h es que combina en un sólo indicador una medida de cantidad y otra del impacto de la producción. No obstante, la creciente popularidad del índice h conlleva el riesgo de pretender reducir la evaluación a un solo indicador, a pesar de que, como se ha mencionado, la investigación es un proceso multifactorial que difícilmente se puede reducir a una dimensión única11,13,15. Evidentemente, no se puede resumir el trabajo de toda una vida en un simple número —el número h—. Como ya señaló el mismo Hirsch, un número único sólo puede dar una aproximación al perfil multifacético de un investigador y debe considerarse en combinación con otros factores al evaluar a este científico. Todavía desconocemos cuál será el alcance, la validez y la futura aplicación del índice h, pero, si resiste el escrutinio de la comunidad científica, este índice debería ser un elemento por considerar en el proceso de selección y evaluación de los científicos1.