Resultados
de la Evaluación Universal: ¿risa o llanto?
EDUARDO ANDERE
Por fin la SEP dio a conocer el 22 de octubre los
resultados de la controvertida evaluación universal. Uno no sabe ¡qué decir! No
sabe uno si doblarse de risa o sumirse en la desesperanza. Risa, porque el
cinismo de la SEP no tiene límites. No hay forma de saber cómo realmente
salieron los maestros. Con tal de evitarse el conflicto de las comparaciones y
mediciones hicieron un nudo gordiano. No se entiende, no se lee, no se
articula, no da ni la más remota idea de los niveles de preparación,
aprendizaje o erudición de los maestros y menos para medirlos con fines de
recompensa.
Se necesita un doctorado para navegar e interpretar
los resultados de la primera ronda de la evaluación universal. Claro, debemos
dar crédito al esfuerzo monumental por parte de la atribulada Dirección General
de Evaluación de Políticas de diseñar, aplicar y coordinar la interpretación de
resultados para muchos efectos, en poco tiempo y con las inmensas cargas de
trabajo que imponen las pruebas ENLACE y Concurso de Plazas.
Se detecta en la información de la SEP que parte de
su intención, válida, es no medir cuantitativamente a los maestros para evitar
comparaciones denigrantes e incorrectas, no herir susceptibilidades, no ofender
sensibilidades y dar una faceta de transparencia. Sin embargo, aún quitando lo
puntos válidos, nos quedamos con una simulación estratégica.
Ni por dónde empezar. No tiene ni pies ni cabeza. Y
el discurso del Secretario de Educación Pública en turno durante la
presentación de resultados confunde y e impide hallar el hilo que devane la
madeja.
La SEP omite mencionar la palabra resultados. Es
entonces una prueba sin resultados, sólo diagnósticos y trayectos.
Nadie, prima facie, entiende lo que sucede en los
polígonos y líneas de las cuatro aristas de los diagnósticos y trayectos.
Para entender las gráficas de diagnósticos y
trayectos uno debe leer un documento que se acompaña en otra sección del
portal. No sólo es lo extenso de este documento, 34 cuartillas, sino la jerga
técnica y el enfoque esotérico de su presentación, lo que complica el panorama.
Y después de leer y entender el esquema, ningún maestro sabrá realmente cuál
fue su desempeño. No hay medias ni desviaciones estándar; no hay medianas; ni
máximos ni mínimos. Uno como maestro o director de escuela nunca sabría qué es
lo que realmente sabe y no sabe. Lo único a lo que un participante podría aspirar
es a una descripción ambigua y vaga de trayectos educativos que harían falta
fortalecer.
No hay resultados, sólo una lista de cinco columnas
con supuestos trayectos a seguir.
Ni la sociedad, ni la escuela, ni el maestro, ni
los expertos pueden saber a ciencia cierta cuál es el nivel de desempeño de los
participantes. Si esto no lo pudo hacer la prueba de la Evaluación Universal
con una medición directa, cómo esperamos calificar al maestro con una
ponderación del 50 por ciento con ENLACE que es una evaluación indirecta,
dirigida al alumno y no al maestro.
Para complicar las cosas, la evaluación universal
es una prueba que se realiza cada tres años, y ENLACE es otra prueba que se
realiza cada año. ¿Cómo van a ponderar las autoridades la diferencia de
tiempos?
Ahora bien, dada la forma tan escurridiza y obtusa
en que la SEP presenta resultados a lo único que uno realmente puede aspirar es
a dividir a los maestros entre los que necesitan formación urgente y los que
no.
De los 264,379 docentes y directivos que
presentaron la prueba un total de 98,853, es decir, el 37.4 por ciento, son de
Prioridad I, o sea, necesitan trayecto formativo urgente.
Otro dato interesante para medir el éxito o fracaso
de la política pública es el contraste de la cifra entre los participantes
programados y los realmente evaluados. A nivel nacional los programados fueron
503,170; los evaluados, 264,369; es decir, el 52.5%. La entidad con mayor
participación de evaluados en relación a programados es Oaxaca, con 91.9% pero,
fueron programados sólo 123 participantes. Entonces no cuenta. Buenos ejemplos
serían Puebla, San Luis Potosí y Tamaulipas con porcentajes elevados de
participación del 70 por ciento o más y números elevados de participantes, 12
mil o más. Casi la mitad de las entidades del país tienen muchos programados y
pocos participantes por debajo del 50%. La pregunta es: ¿Qué tienen en común
aquéllas tres entidades con alta participación que no tenga el resto?
Un punto negativo adicional es para los maestros
que realmente pensaban que participaban en una evaluación con resultados
definidos y útiles para una reflexión personal a profundidad. Estos maestros o
directivos, terminarán desmotivados y decepcionados con el ejercicio.
En resumen: no me opongo a la evaluación de maestros,
me opongo a la política pública de la evaluación universal. Con la evaluación
universal la SEP hace complicado lo que de por sí es complejo. http://eduardoandere.org.mx
No hay comentarios:
Publicar un comentario