Señor Editor:
Luego de haber realizado la lectura de la Carta al Editor: “A propósito del artículo “Ciencia a la medida. Estudios bibliométricos y cienciométricos en una nueva sección”,1 publicada recientemente en la Revista Habanera de Ciencias Médicas, nos motivamos a ampliar algunas consideraciones específicas sobre el tema. En ella su autor expone resumidamente las ciertas ventajas que ofrecen los indicadores bibliométricos “como forma para medir el “impacto” y la “calidad” de una revista”. Sin embargo hay una frase en la citada fuente que no deja de llamarnos la atención: “los estudios bibliométricos…nos permiten discernir cuál información nos es útil y necesaria al conocer los indicadores generados por la producción de una fuente...”.
En este sentido y en cuanto a la utilidad de este tipo de estudios, cabe entonces preguntarnos: ¿son los estudios bibliométricos la mejor vía para medir indicadores de calidad de una revista o para medir las de las investigaciones en sí mismas? De forma independiente, cuales sean los diversos criterios generados a responder esta interrogante, los autores de la presente misiva nos mostramos positivos respecto a la primera parte de la incógnita.
La Bibliometría y los estudios bibliométricos han logrado un auge en los últimos años como una herramienta de usos prácticos, pues devienen instrumento de apoyo importante que contribuyen a la divulgación de elementos que forman o pueden formar parte de la evaluación de los profesionales y las instituciones, así como de las formas organizadas de Educación Superior y su sistema de acreditación.2 Seleccionemos como referencia una de sus principales herramientas; el llamado factor de impacto (FI); este indica la cantidad de citas anuales que en promedio recibirá un artículo a partir de los 2 años después de publicado, por lo que describe la medición de la cantidad y no de la calidad de los resultados de los trabajos publicados.
Variadas son las críticas que se han hecho al FI como indicador de calidad de una revista y sus artículos científicos; algunas de ellas las citan Fernanda Sarthou3) y Peralta González,4) en recientes revisiones sobre el tema, donde las más importantes se refieren a que no refleja toda la actividad científica de un contexto determinado, los sesgos lingüísticos y la preferencia idiomática hacia el inglés, y sobre todo que diferentes campos científicos poseen diferentes prácticas de citación. Sumado a ello, estudios han mostrado cómo los indicadores bibliométricos son fácilmente manipulables por intereses ajenos a la verdad científica.5 Esto demuestra que, en ocasiones, resulta erróneo dar por sentado que los artículos cuanto más citados sean y mayores indicadores cienciométricos generen, la información que contengan sea arbitrariamente de calidad o útil en la práctica.
La evaluación de la calidad de un estudio no constituye una tarea fácil. Todos los empeños generados en función de esta deben ser fragmentados, desde una correcta revisión por pares, hasta la aplicación del estudio en la práctica: “finalidad más importante de la comunicación científica”,6 y por qué no también a través de las métricas generadas por el mismo, lejos de pretender dictar en cuanto a términos de utilidad a su absoluta merced. En este sentido, nos mostramos a favor de que “cantidad no es igual a calidad, pero ambas pueden complementarse según los propósitos y alcances de un estudio bibliométrico”.4