Por Paulo Villalobos |28 de agosto de 2025, 9:35 AM

La crisis educativa en Costa Rica derivada del “apagón” se profundizó y ahora es persistente. Esto ocurre de la mano de evaluaciones cada vez más pobres, que inciden en el aprendizaje.

Esa es una de las principales conclusiones a las que llega el décimo informe del Estado de la Educación, publicado la mañana de este jueves.

Para esta edición se realizó un análisis de las Pruebas Nacionales Estandarizadas aplicadas en 2023, del cual se determinaron deficiencias que han limitado la capacidad del país para responder a la crisis educativa y la toma de decisiones asociadas con el desempeño de los alumnos.

"Lo que nosotros logramos hacer es fundamentar por qué estas pruebas están mal, por qué tienen esta baja calidad, y apuntar a un conjunto de elementos que deberían cumplir estas pruebas para ser de alta calidad", destacó en conversación con Teletica.com la investigadora Jennyfer Léon.

Es así como el informe introduce el concepto de “pobreza de las evaluaciones”, como complemento al de “pobreza de los aprendizajes”, en su oportunidad indicado por el Banco Mundial y la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) para evidenciar la brecha entre el acceso a la educación y sus resultados reales en aprendizaje.

La revisión encontró que estas herramientas evalúan menos del 25% de las habilidades establecidas en los programas de estudio, utilizan ítems de baja dificultad correspondientes a grados anteriores, y así impiden distinguir niveles de desempeño.

Sobre esto último, la experta acotó que, de un análisis de las preguntas, se determinó que no hay sustento suficiente para determinar si un estudiante es básico, intermedio o avanzado.

"Por ejemplo, en Español solo un ítem es de dificultad alta y es de marcar con X. Entonces imagínese que usted sea muy bueno bateando: marca, marca bien la respuesta y básicamente entra en nivel avanzado, con solo una pregunta. Entonces ahí es donde el informe dice de alguna manera estamos engañando", acotó León.

En esa línea se refirió también la coordinadora del informe, Isabel Román, quien agregó que, a pesar de lo simple de la prueba, hay muchos estudiantes que, aunque la superan, salen con bajas calificaciones en los exámenes.

"Ahí hay un tema de si efectivamente, como país, nos estamos vendiendo mentiras piadosas. Y eso es lo que el informe dice, que hay que revisar con detalle. Porque, al final, en las pruebas internacionales, seguimos pegados, con niveles insuficientes, y ese es un problema.

"Entonces, bueno, cuando tratamos de explicar por qué salimos mal en las pruebas PISA, ahí es donde vamos y profundizamos, por un lado, el tema de los aprendizajes en término de qué es lo que está ocurriendo en las aulas, especialmente primaria con los problemas de mediación pedagógica; y también este tema de unas pruebas que no nos están diciendo realmente qué saben y qué no saben los estudiantes", subrayó Román en conversación con este medio.

León mencionó, por su parte, que ha habido evaluaciones a nivel universitario sobre lectura, las cuales identificaron estudiantes con niveles de primariaPara la experta, ese tipo de hallazgos son “inauditos”.

Valga recordar que las Pruebas Nacionales Estandarizadas se implementaron en 2023, luego de que el Consejo Superior de Educación (CSE) acordara la eliminación de las Pruebas de Fortalecimiento de Aprendizajes para la Renovación de Oportunidades (FARO). Sin embargo, el actual ministro de Educación Pública, Leonardo Sánchez, contempla sustituir la evaluación actual a partir de 2026.

Ruta trazada

El Estado de la Educación establece tres posibles causas del fenómeno de “pobreza de las evaluaciones”.

Para empezar, cuestiona el doble papel que tiene el Ministerio de Educación Pública (MEP), como responsable del sistema de enseñanza y como ente evaluador.

"El informe retoma una de las soluciones propuestas en su edición anterior (2023), que era apuntar a una agencia de macroevaluación, porque ahorita el departamento que hace las pruebas está dentro del ministerio y es juez y parte: tiene que hacer las pruebas, tiene que devolverle la información a los centros, pero además tiene que informar al despacho y al Poder Ejecutivo.

"De alguna manera lo técnico y lo político están muy mezclados. El informe lo que dice es que saquemos esta agencia, separemos el componente técnico de realización de pruebas para que además no dependan del gobierno turno, que es lo que nos ha pasado en los últimos años, que quitamos pruebas sin tener la siguiente lista", explicó Jennyfer León.

Esta solución, no obstante, parece lejana. Por ello es que, mientras tanto, se proponen otras medidas menores.

"Son 16 criterios los que debería tener una prueba de certificación muy bien hecha, como por ejemplo, pruebas piloto, que además, los resultados de estas sean transparentes. También se tiene una cosa que se llama como muestreo de matrices, que es básicamente que usted no puede evaluar a todas las personas todo el currículum, porque sería un examen, no sé, de 200 preguntas; pero entonces lo que hace es que lo va aleatorizando. Hay que incluir, por ejemplo, los instrumentos o formularios de factores asociados para poder analizar las pruebas, porque nosotros estas pruebas casi que las analizamos en el aire, porque solo tienen creo que el sexo de la persona y ya, no tienen nada más de información para nosotros entender por qué la gente está saliendo mal", explicó la investigadora.

La experta insistió en que las pruebas deben arrojar resultados que le permitan a los decentes dónde deben nivelar.

Como complemento de lo anterior, el Estado de la Educación requiere la creación de un sistema nacional de evaluación robustomejor diseño de pruebas, transparencia en la interpretación de resultados y garantizar una devolución efectiva para docentes, directores y padres de familia.

YouTubeTeleticacom