Creo que uno de los grandes problemas de nuestro sistema educativo es la falta de datos fiables, y en general me inclino por que necesitamos más datos en casi todas partes. Pero lo único peor que no dar datos es dar datos que puedan generar incentivos perversos, y eso es lo que puede estar haciendo la Comunidad de Madrid con los datos de los institutos y la PAU (selectividad).
Ya de por sí puede ser cuestionable que los datos se publiquen sin ningún tipo de información sobre las características sociológicas del alumnado, que me parece imprescindible para poder hacerse una idea del valor añadido del centro, pero en el caso de la información sobre la PAU la cosa es bastante peor. Lo que se puede ver sobre un centro es un diagrama como el de la figura, donde se muestran las notas obtenidas en la PAU por los alumnos del centro y las notas medias de la comunidad (o los porcentajes de aprobados, o alguna otra variante).
No hace falta ser un experto en gestión educativa para darse cuenta de que estos datos pueden generar incentivos perversos. Si un centro está interesado en mejorar sus resultados, la tentación de subir el nivel de exigencia en 2º de Bachillerato, y que se presenten menos alumnos, pero mejor preparados, es muy, muy real. No tengo idea de si esto está pasando, pero lo frustrante es que sería realmente fácil de evitar: bastaría con presentar los datos completos, de alumnos matriculados en el centro, alumnos que superan 2º de Bachillerato, y luego los resultados de la PAU. Algunas veces, hacer las cosas mejor es realmente sencillo!
No de las PAU, pero sí muchos datos sobre indicadores los tienes aquí:
http://www.mecd.gob.es/inee/sistema-indicadores.html
(No dudes que, al menos en concertada, se va podando para evitar malos resultados en PAU. Al cartel de «99% aprobados» siempre le falta decir a cuántos dejaron en el camino.)
Sobre los indicadores: el problema es cuando pasamos a indicadores por centro …
Y sobre las PAU: por supuesto, que en muchos centros de la no pública se han venido dando esas prácticas es «folklore», pero lo que resulta incomprensible es que cuando se empiezan a dar datos de forma institucional no sólo no se dificulte esa práctica, sino que se den facilidades! Como siempre, nos enfrentamos a la duda de por qué ocurre esto: ¿simple falta de profesionalidad, o intenciones ocultas?
Preguntas que nada tienen que ver con la entrada:
1.- ¿Qué opinión os merece un programa informático como Smartick del que se empieza a hablar bastante en los medios?
y, más importante,
2.- ¿Cuándo y dónde sale tu prometido material de 1º de primaria :-))
Gracias
1 – sí, conozco smartick. Me registré y tuve la paciencia de hacer el test inicial completo, para evaluarlo. Digo tuve la paciencia porque parece que está diseñado midiendo tiempo, de manera que llegué a hacer cosas de calculista. Tiene un montón de trabajo, y desde luego es la mejor herramienta de aprendizaje on-line que conozco. El problema es que esto no es decir mucho: cálculos repetitivos y aunque tratan el cálculo natural (o mental), no me convence el enfoque. En cuanto a los problemas, en una sesión podía hacer 20, pero todos respondían a los mismos 2 patrones.
2 – ya tengo una parte lista para enseñar, y espero que la entrada en cuestión esté lista pronto, pronto.
En general el modo de comunicar los datos de las evaluaciones externas es perverso: la normalización de datos, sin dar a conocer en ningún momento el resultado absoluto, solo tiene el objetivo (y la utilidad) de crear las condiciones para la competencia entre entidades, ya sean centros, ya sean comunidades o estados.
Bueno, yo no creo que la competencia sea mala en sí, pero desde luego los detalles son importantes. Tanto el exceso de competencia como su ausencia completa me parece que generan efectos perversos, y la pregunta es desde luego como conseguir ese equilibrio donde la competencia estimula sin aplastar. .
Mi duda esencial es: ¿cuál es el propósito de dar (solamente) los datos normalizados? Si evalúo a mis alumnos, pretendo conocer qué saben y qué no saben, cosa que intento plasmar en una escala del 0 al 10. Si establezco la media en 5, automáticamente paso a suspender a aproximadamente la mitad de los alumnos (suponiendo normalidad). Este modo de comunicar los resultados tiene objetivos economicistas, pero escaso interés didáctico.
Bueno, no lo tengo tan claro. No me parece que el «grading to the curve» sea tan claramente inferior a lo que estamos acostumbrados. Me parece que lo presentas de forma poco neutral. Es un tema importante, y nada sencillo; aquí va una primera reflexión. No hay porqué simplificarlo tanto, y poner la mediana en 5. ¿Qué ocurriría si en el reglamento correspondiente se pidiera que el número de sobresalientes fuera de, al menos, el 10%, la suma de notables y sobresalientes al menos el 30 % (los números los estoy improvisando, por supuesto que habría que pensarlos con cuidado) y así por el estilo? Yo no pondría cota inferior al número de suspensos, pero seguramente sí cota superior. ¿Está tan claro que ese sistema de evaluación es peor que el actual por aquí? Hay una crítica evidente, por supuesto, y es que evalúas a un alumno en función de sus compañeros. Y es verdad. Pero eso no se puede comparar con el ideal de un profesor inmaterial, que evalúa los conocimientos y competencias de sus alumnos, sino con la realidad: todos los profesores tenemos nuestras manías, y unos las sobrellevan mejor que otros … No creeremos de verdad que un 7 puesto por el profesor X en el centro A es siempre comparable al 7 del profesor Y del centro B, ¿verdad? Y la estadística elemental nos enseña que la variación en los individuos (los profesores) tiende a ser mayor que la variación en los grupos de alumnos. En resumen: no estoy defendiendo el «grading to the curve», pero sí creo que es una alternativa que merece una reflexión.
Muchísimas gracias, Pedro