Sr. Editor,
Se ha leído el estudio, recientemente publicado por Hernández-Yépez PJ y otros,1) el cual destaca la influencia del tipo de universidad en la frecuencia de cursos relacionados con la docencia e investigación. Aunque estos hallazgos ofrecen una perspectiva valiosa en el contexto nacional de mejora educativa, se discuten ciertos aspectos relacionados con este tema.
En primer lugar, desde el año 2015 y, más específicamente, desde el 2018, se ha implementado un cambio significativo en la educación e investigación universitaria en Perú, gracias a las contribuciones de la Superintendencia Nacional de Educación Universitaria (SUNEDU) y el Consejo Nacional de Ciencia y Tecnología (CONCyTec).2 Este cambio ha llevado a la calificación y clasificación de los investigadores según su producción científica en diversas categorías, registradas en el Registro Nacional de Investigadores en Ciencia y Tecnología (REGINA) y en el Registro Nacional Científico, Tecnológico y de Innovación Tecnológica (RENACyT).3 A pesar de que las universidades están actualmente integrando investigadores RENACYT, lo cual fomenta un aumento en la producción científica, aún persisten desafíos relacionados con la calidad y cantidad de documentos publicados, el sistema de evaluación de la competencia institucional, los incentivos para la publicación y el impacto, y la responsabilidad social de las investigaciones generadas.
El estudio de Hernández-Yépez PJ y otros,1 no ha explorado estas problemáticas, ya que la mera clasificación de un docente como RENACYT, no garantiza automáticamente la producción científica, ni la eficaz planificación de cursos de investigación. Muchos docentes que no ostentan la categoría RENACYT también contribuyen a la producción mensual de investigación en sus instituciones.4 Además, muchos cursos de investigación son coordinados por docentes sin esta categoría; o en otros casos, como los docentes RENACYT, solo cumplen una jornada mínima de horas lectivas por semestre, y no son involucrados en la creación y mejora de cursos de investigación. Estos factores podrían tener un impacto significativo en la interpretación de los resultados.
En segundo lugar, el hecho de que en universidades privadas se impartan más cursos de investigación, no necesariamente indica que los cursos se realicen de manera efectiva, ya que hay cursos de investigación en los cuales no se exige publicar; se redactan protocolos de investigación que luego no se ejecutan, o cursos de investigación en que solo se revisan monografías o artículos publicados, sin profundizar en los diseños metodológicos, ni proporcionar pautas o herramientas para iniciar un proyecto de investigación y evaluar sus resultados finales. Un ejemplo de esta tendencia, es la creciente práctica en universidades peruanas de exigir la redacción de cartas editoriales como trabajos finales de cursos de investigación. Pero las cartas editoriales, si bien son un ejercicio válido para sumergir al estudiante en investigación,5 son documentos poco viables en términos de citas, impacto y de profundización de la metodología de investigación, ya que no abordan el diseño completo del protocolo, el muestreo, la definición de instrumentos de medición, la validación y el plan de análisis de datos. Adicionalmente, muchas revistas no someten las cartas editoriales a revisión por pares, lo que implica que su publicación no necesariamente refleje un rigor científico, idoneidad en la discusión de un tema en particular, ni éxito en un curso de investigación, a pesar de contribuir al incremento de las publicaciones anuales de la universidad. Esta práctica, aunque común, es riesgosa, ya que busca principalmente elevar el número de publicaciones universitarias anuales, para mejorar el posicionamiento en rankings regionales y mundiales, sin considerar la calidad y el impacto de los documentos publicados.6
Además, la universidad que más publica por año en Perú es de carácter nacional, y entre las cinco principales universidades, tres son de alcance nacional.7 En este contexto, la evidencia contradice lo que plantean Hernández-Yépez PJ y otros,1 ya que el predominio de cursos de investigación, no parece desempeñar un papel significativo en la publicación, ni en el posicionamiento regional de las universidades. Además, se desconoce la calidad de la educación impartida en estos cursos.
Puede que haya muchos cursos, pero quizás no se traduzcan en un interés significativo por parte de los estudiantes de pregrado y posgrado, ni en una mayor cantidad y calidad de publicaciones. Otro aspecto contraproducente es la posibilidad de sesgo de selección de las bases de datos consultadas. Los autores usaron SIRs, que, si bien es un ranking importante para la comparación de indicadores de investigación en América Latina,8 solo el 8 % de universidades de la región se encuentran disponibles en SIRs, frente a otros rankings, como Webometrics o QS. Esto podría reducir el número de unidades de análisis en el estudio.9
Finalmente, los resultados parecen carecer de profundidad, ya que no se presenta una tabla con las posiciones de las universidades según los cursos de investigación que ofrecen. Además, los metadatos del estudio no están disponibles como material suplementario ni en algún repositorio externo, y no se encuentra registrado en el comité de ética. La falta de estos datos dificulta la comprensión de las competencias de las universidades, la cantidad y el tipo de cursos de investigación ofrecidos, y, por lo tanto, los resultados podrían ser no concluyentes.