Después que se entregan los datos de la PSU, aparecen en los medios negligentes y alevosos rankings de establecimientos basados en los puntajes de estudiantes que se entregan sin información contextual. Intentan engañar a la audiencia y alimentar el mito de supremacía de la educación privada. ¿Quiénes están detrás de estos misteriosos rankings mal intencionados?
Los rankings PSU han aparecido en diversos medios. En algunos sin fuentes y en otros con una fuente vaga. Por ejemplo, en la publicación en la web de 24 horas noticias, se menciona que los datos fueron “facilitados por la Universidad de Los Andes”. En la publicación en la web de La Tercera, se dice que el análisis fue realizado por “la Pontificia Universidad Católica”. En EMOL se dice que la fuente es la “Pontifica Universidad Católica de Valparaíso”. No se dan detalles, pero sin duda ambas instituciones son muy grandes y tienen muchos miembros y facultades. ¿Qué tienen en común? Que son universidades de administración privadas, y en el caso de la Pontificia de Valparaiso es miembro del G9, una red estratégica de defensa de intereses que agrupa a algunas universidades privadas chilenas que reciben dinero público. En otros medios como Tele13, como BioBio, no se menciona la fuente y pareciera que los datos florecieron espontáneamente con el calor del verano. [En BioBio el ranking fue modificado, se incorporó la fuente, después de interponer un reclamo vía web] Estos indicios nos alertan, nuevamente, de que la red política-académica, parapetada también en las Universidades Privadas, continúa usando los datos generados por las pruebas estandarizadas y utiliza sus medios de comunicación para alimentar el mito de supremacía de la educación privada.
Por qué el ranking es una estrategia para engañar a la audiencia
Los datos se muestran de manera negligente: se esconde la información contextual que permitiría que la comparación, para quienes les gusta esta perspectiva competitiva que no comparto, fuese un poco más justa. Se esconde, por ejemplo, los principales factores que explican los puntajes en pruebas de papel y lapiz: el nivel de escolaridad del padre o la madre, y los recursos económicos. También se omiten las malas prácticas de los establecimientos para elevar puntajes sin mejorar sus procesos: la selección selección visible o oculta, la repitencia, las expulsiones, etc. También omiten presentar la desigualdad interna en los establecimientos, fruto del modelo de escuelas fábrica chileno, en donde los tratamientos no son personalizados. Solo publican los promedios. La PSU no recoge datos contextuales pues no fue diseñada para evaluar el desempeño de los establecimientos ni de los docentes, sino para excluir e incluir a estudiantes del sistema de educación superior. También se usa para negar el acceso a determinadas Universidades consideradas solo para estudiantes con recursos. Sin embargo, el DEMRE tolera este uso negligente y se hace cómplice con su silencio.
Sin duda, ante tamaño y vulgar intento de manipulación de la información para favorecer a determinado grupo de interés, la educación privada, o modelos de educación pública segregacionista como los liceos Bicentenario o algunos emblemáticamente segregadores, es conveniente y sano ignorarlos.
¿Por qué Chile no compara liceos en serio y aplica modelos de valor agregado?
Sin embargo, este nuevo evento nos alerta de que hay una red, bastante torpe, trabajando por alimentar el mito de supremacía de la educación privada a través de sistemas de medición obsoletos, las pruebas estandarizadas como el SIMCE y la PSU. Si bien en el plano internacional ya se han propuestos modelos de valor agregado para una medición y comparación más justa de los logros cognitivos de los establecimientos, estos en Chile no se implementan. ¿Por qué, habría que preguntarse? Mi interpretación de esta falta de interés por implementar modelos de valor agregado es que tal sistema haría trizas el mito de la supremacía de la educación privada, pues los puntajes que se obtienen en las obsoletas mediciones estandarizadas a la chilena se explican más por los factores contextuales (escolaridad de padres, madres, nivel de ingresos económicos, apoyo académico fuera de la escuela) que por factores controlables por los establecimientos o las-los docentes (exceptuando la selección visible y la selección oculta de estudiantes). En Chile, por ejemplo, la red política-académica ha utilizado el SIMCE principalmente como input de un dispositivo de control social que opera mediante presiones (incentivos y sanciones) para direccionar los cuerpos de estudiantes, padres, madres y profesionales y las prácticas educativas. Y hasta hace un tiempo atrás se seguían publicando rankings SIMCE para alimentar este mito.
Para quienes deseen profundizar sobre modelos de valor agregado aplicados a la medición del aprendizaje de estudiantes, que la red política académica no tiene prisa en implementar, recomiendo la lectura de La Medición del Aprendizaje de los Alumnos. Mejores Prácticas para Evaluar el Valor Agregado de las Escuelas, publicado por la editorial de la OCDE.
Comentarios