Los indicadores que usa actualmente la comunidad científica para calificar su trabajo son el número de artículos publicados en revistas arbitradas, el número de citas en artículos de otros investigadores y el promedio de citas por artículo, entre otros, pero en opinión del doctor José Antonio de la Peña, director del Centro de Investigación en Matemáticas (CIMAT), son parámetros con los que se pueden contar, pero lo que realmente se debe medir es la calidad del trabajo científico, un aspecto que se escapa porque es muy difícil de evaluar.
El ex presidente de la Academia Mexicana de Ciencias propuso que “en lugar de evaluar todos los artículos arbitrados, podrían evaluarse sólo algunos productos del trabajo científico, pero esta propuesta enfrenta la resistencia de las comisiones. La otra posibilidad sería evaluar con menor frecuencia, pero tampoco le gusta a la burocracia, y otra alternativa sería usar otros indicadores pero es más caro”.
Evaluación entre pares
Cuando Albert Einstein publicó sus trabajos en Annalen der Physik en 1905 nunca fueron arbitrados, ni la doble hélice de Watson, y ambos resultaron revolucionarios para el conocimiento, señaló De la Peña. La evaluación por pares data de los años 50 del siglo pasado cuando las fundaciones filantrópicas en Estados Unidos querían financiar una investigación, para ello propusieron que el trabajo de un científico fuera calificado por otro científico.
Actualmente existen bases de datos como Journal Citation Reports donde están registradas más de 16 mil revistas arbitradas por pares de cada área de investigación, Scopus, de Elsevier: SCImago y el Índice de Citas en el que se puede contar la cantidad de citas de un investigador. Sin embargo, gana la cantidad y no la calidad.
“Contar el número de artículos científicos que publica un investigador tiene grandes deficiencias porque hay gente que sólo publicó dos trabajos en su vida, que fueron trascendentes, pero se perdieron”, comentó el matemático.
El número de citas tampoco es un buen indicador. De la Peña citó una de las conclusiones a las que llegó la Unión Internacional de Matemáticas en ese sentido: “Destacó que se trataba de una ´cultura de los números´ donde los tomadores de decisiones reemplazan la calidad del trabajo por números cuantificables. Y no es que no tengan valor esas estadísticas pero deben tomarse con cautela porque son parte del proceso”.
Las comisiones evalúan el factor de impacto de las revistas arbitradas donde publican sus investigadores. De acuerdo con el director del Cimat, “hacen una suma y un promedio general de los artículos, lo cual resulta una tontería porque éstos no tienen el mismo número de citas por el hecho de ser publicados en Nature; se estima que el 90% de citas de Nature se las lleva el 25% de los artículos. El resto se queda con el 10% de las citas”. Es decir, un artículo no pasa a ser bueno en automático por haber sido publicado en una revista de prestigio.
El especialista en álgebra habló de otros factores como el índice que todavía no se entiende bien a bien cómo funciona y la medición de acuerdo con el orden alfabético del autor, es decir, se mide que es más importante el artículo de un autor cuyo apellido comienza con “A” que uno que empieza con “B”, otra medición que De la Peña consideró absurda.
El ex director del Instituto de Matemáticas de la UNAM explicó lo anterior durante la charla “¿Cómo evaluar el trabajo de un científico?” impartida en el 2° Taller sobre Indicadores de Ciencia, Tecnología e Innovación organizado por el Foro Consultivo Científico y Tecnológico, el Instituto Nacional de Estadística y Geografía y el Consejo Nacional de Ciencia y Tecnología.