En el volumen 18(4) de la revista Educación Médica, Zavaleta-Reyes y Tresierra-Ayala1 publicaron una investigación relacionada con la calidad metodológica del trabajo de grado de bachiller en la Facultad de Medicina de la Universidad Nacional de Trujillo. Si bien es una investigación importante, presenta debilidades metodológicas que afectan significativamente a los resultados obtenidos.
Los autores no han cumplido con los criterios metodológicos que la ciencia exige al formular los objetivos2, porque no se refieren a lo abordado en el estudio: adaptar y validar un instrumento para evaluar la calidad metodológica del trabajo de bachiller.
Los investigadores homologan el trabajo de grado y el artículo científico. Ambos aportan a la ciencia, pero no son lo mismo; el primero es más amplio y se realiza para optar a un grado o título3; mientras que el segundo es más breve y se efectúa para aportar un hallazgo a la comunidad científica a través de una revista, entre otras consideraciones.
Señalan que el trabajo de bachiller tiene como exigencia mínima el cumplimiento rígido del método científico en cada una de sus etapas; sin embargo, ello dependerá del tipo de estudio que se realice: cuantitativo, cualitativo o mixto, ya que según el diseño metodológico, el estudio puede ser más rígido o más flexible4.
En el material y método han omitido especificar cuál fue el diseño de investigación empleado, a través del cual se responden los problemas de investigación2, dicha omisión tiene graves implicancias al evaluar un artículo.
Asimismo, reportan que para utilizar el instrumento consultaron la opinión de expertos; en este caso, surgen las siguientes preguntas: ¿a cuántos expertos consultaron?, ¿los jueces validaron la nueva versión?, ¿qué coeficiente de validez utilizaron para procesar los datos? Se presupone que, al haber consultado a jueces, significa que han buscado evidencias para realizar la validez de contenido del nuevo instrumento; sin embargo, no presentan datos al respecto. La validez de contenido se caracteriza porque, independiente del análisis cualitativo de los expertos, es fundamental la valoración cuantitativa de los ítems; ya que solamente la opinión sobre la calidad y pertinencia de los ítems no aporta información para el proceso de validación, por lo que se exige la aplicación de métodos empíricos para cuantificar este grado de acuerdo5.
También consideran que, para verificar el uso correcto del instrumento oficial, se compararon las mediciones de los autores con los resultados de 2 expertos a través del índice kappa de Cohen, lo que daría validez a sus resultados. Sin embargo, desde un punto de vista estadístico y metodológico el índice mencionado no aporta información alguna sobre la cualidad de la medición realizada por los observadores, pues está diseñado únicamente para estimar la magnitud de la concordancia entre ambos, se pueden presentar una alta concordancia, no obstante, ambos pueden estar «concordantemente equivocados» respecto a la realidad6, por lo que se deberían utilizar otros estadísticos más potentes.
Finalmente, en el instrumento, le han conferido el mismo puntaje a la discusión y a las referencias; la primera implica mayor relevancia dado que comunica los aspectos nuevos e importantes del estudio y su colocación en el contexto de la totalidad de hallazgos, las limitaciones e implicancias de las conclusiones7; además demanda mayor dedicación, incluso algunos investigadores consideran que es la parte más difícil de escribir8, por lo que los autores han debido otorgarle una puntuación diferente.
A pesar de haber identificado debilidades metodológicas en el reporte, es importante destacar que el estudio representa una aproximación preliminar valiosa para abordar un tema trascendental: la calidad metodológica de los trabajos de grado que reflejan el nivel de enseñanza en las universidades.
Conflicto de interesesLos autores declaran no tener ningún conflicto de intereses.