Las 7 razones por las que los resultados de Avanzo no son académicamente confiables

El investigador y académico Óscar Picardo valoró los motivos que llevan a desconfiar de esta prueba digital hecha entre estudiantes de educación media

descripción de la imagen
A los alumnos se les dio la opción de hacer la prueba desde sus casas o llegar al centro de estudios según su necesidad. Fotos EDH/ Francisco Rubio

Por Carlos López Vides

2020-12-11 2:57:22

La prueba digital Avanzo, realizada por el Ministerio de Educación entre 65,010 estudiantes de segundo año de bachillerato general y tercero de bachillerato técnico del 1 al 4 de diciembre pasados, arrojó resultados que las autoridades gubernamentales han considerado exitosos, a la luz que el 60.60 % de los alumnos obtuvo un nivel intermedio y el 17.90% un escalón avanzado; el 21.50% firmó un rendimiento básico.

Lea también: el 78.4% obtuvo nivel intermedio o avanzado en la prueba Avanzo, según Educación

Como catedrático, académico e investigador en temas de educación, salud y ciencias sociales, el doctor Óscar Picardo hizo un análisis preliminar sobre esta prueba Avanzo, y concluyó en siete argumentos que debilitan la confianza en los resultados hechos públicos por Educación este viernes.

Los enumeramos a continuación, en palabras del doctor Picardo.

1. No había controles para evitar copia entre estudiantes
“En la Paes normal había un docente a cargo, y a pesar de eso había cipotes que iban al baño, se pasaban items por WhatsApp… existe una cultura de hacerle truco a la prueba; y en estas condiciones (prueba en línea), imagino que fue mucho más generalizado, y por lo tanto los resultados serán superiores” a comparación con años anteriores. La última Paes de 2019, como referencia, arrojó nota global de 5.52.

2. Avanzo careció de discusión y apertura para con la comunidad educativa
“Para la comunidad académica se nos hace muy difícil opinar, dado que nunca hubo un proceso de diálogo, o discusión técnica”, dijo Picardo, quien lamentó que el Ministerio de Educación no haya abierto una conversación amplia con distintos sectores del ramo en el país, para poder aportar sobre esta prueba virtual y su implementación.

3. No había medidas para frenar ayuda con buscadores
Picardo remarcó que este “es uno de los temas críticos. Pese a que supuestamente tenía conocimiento facial, para garantizar que la persona que está haciendo la prueba es la que la tenía que hacer, al tener los medios tecnológicos y en ambientes alternativos, las personas podían estar haciendo verificaciones en Google. Es una probabilidad muy alta de consulta, que le resta controles de seguridad a la prueba. Yo me imagino, siendo estudiante en una computadora, sería muy fácil abrir una pestaña de Google para ir verificando algunas preguntas, lo cual daría un sesgo a los resultados de la prueba”.

Según datos del mismo Ministerio de Educación, 43,613 estudiantes hicieron la prueba en teléfonos celulares, y 21,280 en computadoras. Las autoridades de la cartera de Estado no detallaron si hubo algún tipo de control para impedir que los estudiantes abrieran buscadores digitales para verificar respuestas.

El académico e investigador Óscar Picardo Joao. Foto EDH

4. La prueba no midió conocimiento impartido en 2020 y es poco útil
“No evaluaron contenidos de Segundo Año de Bachillerato, o sea lo enseñado en 2020; solo evaluaron contenidos de 2019. Además, disminuyeron el porcentaje de nota de promoción, de 25% a 15%. Son algunas condiciones en función de pandemia, para ayudar al estudiante. Sin embargo, eso no ayuda para saber realmente qué sucedió en el año de pandemia. De esta prueba, lo más valioso es su carácter diagnóstico, no la nota”, analizó Picardo.

Para el profesional, “no me interesa saber si alguien pasó o no pasó, con qué nota pasó, o si se le va a dar beca. La función esencial de esta prueba es tener un diagnóstico del sistema educativo, y lo que interesaba saber es qué había sucedido en el año de pandemia para tomar decisiones, y es justo eso lo que no se midió. Como valor agregado, (esta prueba) no tiene ninguno para saber qué sucedió en el año, y cuál es la situación real del estudiante”.

El académico matizó también las palabras de la ministra Carla Hananía de Varela, quien dijo que Educación entregará los resultados de Avanzo a las universidades. “No nos sirve de mucho saber qué pasó en 2019. Nos interesa saber, por ejemplo para las ingenierías, con qué nivel de matemáticas vienen los estudiantes, a partir de los contenidos 2020, no los de 2019”.

5. Las autoridades no dieron información técnica sobre la prueba
“Sabemos muy poco de la prueba, en cuanto a su enfoque psicométrico, su diseño, el banco de ítems, si hubo o no tabla de especificaciones, si fue validada o no la prueba… No sabemos de su seguridad académica como prueba. Fueron 60 ítems, normalmente son 100 en total”, explicó el profesional.

6. La Avanzo careció de certificación tecnológica
Para Picardo, a esta prueba debió aplicársele un programa llamado Iteman. “Es un software mediante el cual se procesa los resultados de validación, y permite calibrar el ítem en función del resultado, en dos variables: el índice de dificultad (si es difícil, intermedio o fácil), y el nivel de discriminación, si el ítem es capaz de discriminar el estudiante que sabe del que no sabe”.

Con base en su experiencia profesional, Picardo remarcó que este programa debió aplicar a Avanzo. “Son herramientas técnicas para calibrar las pruebas. La prueba es como un termómetro, es un instrumento para recoger información, y medir lo que sabe realmente el estudiante, para comparar también lo que saben otros estudiantes” entre los 65,010 que la completaron.

7. El resultado en ciencias naturales no concuerda con el histórico
“Nos llama la atención el resultado de ciencias naturales, que está por encima de lenguaje y literatura. Siempre ciencias naturales y matemáticas han sido dos áreas con resultados más bajos que sociales y lenguaje. Y en esta edición de la prueba, mejora resultados ciencias naturales, con química, física y biología”, valoró.