CLC#1 | Evaluación competencial, errores endiablados y funciones LAMBDA

Lo que sigue es tan solo la transcripción de las reflexiones en la sección inicial del vídeo anterior, por si prefieres consumirla en formato texto.


Hoy os quiero contar algo que me ha sucedido hace unos días y que me ha dado que pensar a varios niveles.

A finales de septiembre recibí un correo electrónico de Alfredo, un profesor de Informática y Tecnología de Valencia, que me alertaba de un problema en una plantilla para el cálculo de calificaciones, basada cómo no en una de esas benditas hojas de cálculo de Google que nos gustan tanto, que publiqué en mi antiguo blog hace ya ¡3 años!

Una plantilla para el cálculo de calificaciones.

Y aquí hay varias partes, como en todas las historias. No es que piense que esta en concreto vaya a ser el Naruto o la Rueda del Tiempo de las hojas de cálculo (ya os lo advierto por adelantado para que no haya reclamaciones tras ver el vídeo), pero sí me apetece iniciar esta serie de “Conversaciones a la luz de las celdas” (cuya continuidad no puedo asegurar en absoluto en este momento, francamente) charlando un rato acerca de evaluación y calificación, de errores tontos pero puñeteros en las fórmulas de las hojas de cálculo (seguro que ya lo sabes, el diablo está en los detalles), y de cómo la sintaxis LAMBDA llegó a Sheets el año pasado para cambiarnos la vida a los frikis de las hojas de cálculo.

Sí, ya lo sé, a la luz no de las celdas sino de lo que está pasando ahí fuera, todas, o al menos dos de esas tres cosas que he mencionado, son poco más que problemas del primer mundo, pero creo firmemente que hay que seguir buscando #subalegrías para que la realidad no resulte insoportable. Y para mí hablar de estas cosas sigue constituyendo, por suerte, una de esas subalegrías.

Os cuento en un momento de ese error fantasmal del que me hablaba Alfredo, pero lo cierto es que lo primero que pensé cuando recibí su correo fue:

¿Sigue teniendo sentido mi calculadora de calificaciones?

En esencia, esta plantilla permite definir una serie de actividades evaluables (o quizás debería decir calificables), agruparlas de manera opcional y establecer de un modo razonablemente personalizable los valores de ponderación de actividades y grupos para calcular la calificación final. Todo ello salpicado con unos cuantos minigráficos de barras —esas nunca suficientemente bien ponderadas SPARKLINEs— para proporcionar información de resumen de manera rápida y efectiva.

Además, la plantilla dispone de una pestaña adicional en la que se preparan los datos de la hoja de calificaciones para que puedan ser enviados fácilmente con Autocrat.

En la publicación original encontraréis un vídeo de 30 minutazos en el que explico cómo funciona la plantilla y cuáles fueron sus criterios de diseño, así que pasopalabra.

Pero eso de calificar numéricamente (sobre 10 o sobre 100, tanto da) distintas actividades y limitarse a ponderarlas para obtener una calificación final cada vez me chirría más.

Sí, creo que todos los docentes tenemos a estas alturas muy claro que evaluar es una cosa muy diferente a calificar. Se evalúa a lo largo y ancho del proceso formativo. Muchas veces. De diferentes maneras. Pero sobre todo, procurando que esa evaluación contribuya a la mejora del aprendizaje.

Y solo al final del proceso nos vemos en la obligación legal de resumir y condensar el resultado de todo ese esfuerzo, el del discente aprendiendo y el del docente enseñando, acompañando y evaluando, en un maldito número sin decimales entre 1 y 10.

Sí, el número natural que la administración educativa naturalmente me pide que estampe en los boletines de cada evaluación. Aclaro que estoy hablando desde la perspectiva de un profesor de FP en la Comunidad Valenciana, pero la cosa no debe ser muy distinta en otras partes del reino.

Es lo que hay.

Y ante este baño de realidad , ¿qué se supone que deberíamos hacer?

Veamos:

  1. Identificar las consabidas competencias, resultados de aprendizaje y criterios de evaluación asociados a las materias que cursan nuestros alumnos y alumnas. Para eso están los correspondientes decretos (reales o no) que regulan el currículum de cada especialidad. Algunos un poco viejunos y desactualizados ya, para que nos vamos a engañar… pero ese es otro tema.

    Está chupado, solo hay que empollarse la normativa, claro.

  2. Diseñar un conjunto de actividades alineadas con los objetivos de aprendizaje que permitan, a lo largo del desarrollo del curso y del modo más objetivo posible, valorar el grado de consecución de todos y cada uno de esos resultados y criterios.

    Y esto, amigos y amigas, esto es mucho más complicado. Yo diría que pura artesanía, aunque los forofos de la IA parecen empeñados en convertirlo en metódica producción industrial (aquí iría un emoticono de carita lanzando un beso).

Todo bien. Vamos con la parte polémica.

⚠️ Exención de responsabilidad:
Lo que viene a continuación no son certezas, solo pensamientos intermitentes. Cualquier parecido con la realidad posiblemente solo esté en mi cabeza.

Para valorar esas actividades, y los productos tangibles que a menudo resultarán de ellas, existe una variedad de instrumentos. Creo que estaremos de acuerdo en que una de las herramientas que goza de mayor reconocimiento y popularidad son las rúbricas, con su tranquilizadora estructura tabular de criterios, niveles de desempeño y descriptores de logro.

Y su complejidad fractal 🪆, debería añadir.

Porque para diseñar una buena rúbrica se necesita un proceso de refinamiento iterativo (del que a menudo se cae la iteración) que lleva tiempo, salvo a la hora de evaluar actividades muy simples y trilladas.

Porque hay rúbricas que solo sirven para acallar la conciencia del docente que las utiliza dado que carecen de la suficiente capacidad de discernimiento.

Lo tenemos claro, una buena rúbrica debería identificar los diversos aspectos que evidencian el desempeño de un alumno en un contexto determinado y permitir la caracterización de su grado de cumplimiento. Pero hacerlo de modo exhaustivo y totalmente inequívoco, incluyendo todos los criterios y descriptores de logro pertinentes con la suficiente granularidad y precisión probablemente arrojará una tabla larga como un día sin hojas de cálculo.

¿Y sabes qué? Que seguro que nos habremos dejado algo. Y los descriptores seguirán siendo interpretables en mayor o menor medida. Como diría Roy Batty si esto fuera la escena final de Blade Runner, he visto rúbricas que no creeríais.

I've seen rubrics you wouldn't believe (Roy Batty dixit).

Como ya dije una vez en un lejano pasado, no hace falta liberar bajo la lluvia una paloma antes de morir para ser consciente de que incluso las más detalladas (hablo ahora de rúbricas, no de palomas) suelen ser difícilmente objetivables para cualquiera que no sea su creador. Y quizás también para él, pasado un tiempo.

¿Y qué suele pasar cuando estamos usando una rúbrica y el trabajo de un alumno o alumna no se puede encajar perfectamente en la intersección de cierta fila y columna? Pues que se toman atajos, decisiones “a ojímetro” que en el mejor de los casos tendrán en cuenta factores externos a la rúbrica, para decidir las coordenadas de esa evaluación particular. Y ya si eso dejamos para el curso que viene el darle una vuelta a la rúbrica (lo de la iteración), que “ahora tengo mucho lío y no me da la vida”.

No, no estoy llamando al levantamiento contra el reinado de las rúbricas analíticas, solo digo que tal vez no constituyan la panacea de la evaluación y haya que contemplar también el uso de otras herramientas de carácter más holístico.

Pero esa no es la cuestión ahora.

Supongamos que lo intentamos hacer bien. Usamos siempre “buenas” rúbricas, dondequiera que estén, y no nos limitamos a calificar con ellas (o no lo hacemos en absoluto) y ofrecemos en su lugar una retroacción significativa a nuestros estudiantes que favorezca su progreso a lo largo del proceso de aprendizaje .

Pero en algún momento, alguien (la Administración, tal vez el propio estudiante o incluso la familia) te dice eso de “no me vengas con historias y dame mi nota, que es lo que necesito para saber si tengo opciones de matricularme en el grado que me interesa”.

¿Y cómo la calculamos entonces a partir de todas esas rúbricas? ¿Cómo ponderamos cada criterio y nivel de desempeño? ¿Y cómo ponderamos las rúbricas entre sí? Porque digo yo que habrá que hacerlo de alguna manera. ¿De dónde sacamos los pesos de esas ponderaciones?

¿No sería preferible en su lugar agrupar por competencias o resultados de aprendizaje los criterios que forman parte del conjunto de rúbricas utilizadas y ponderarlos entre sí?

¿Y qué ocurre cuando un mismo criterio se evalúa en diferentes puntos de la secuencia de aprendizaje, algo que por otra parte me parece muy razonable? ¿Debemos tener entonces en cuenta en esa ponderación los distintos descriptores de logro evidenciados en el trabajo del estudiante a lo largo del tiempo para cada criterio? ¿O por contra nos  centramos en el desempeño demostrado al final del proceso, castigando un posible “mal momento” del estudiante?

Preguntas que conducen a otras preguntas. Complejidad fractal.

Mi yo escéptico —permítete que siga en modo cuñado un poco más— me dice que, como consecuencia de toda esa complejidad, en ciertos momentos se van a tomar decisiones poco objetivas que puedan anular la eficacia de un proceso de cálculo en cuyo diseño intervienen criterios que pueden ser tremendamente cuestionables.

Y todo esto requiere tiempo, tiempo que podría utilizar para crear mejores materiales y brindar una atención más personalizada a mi alumnado. Mi yo escéptico me recuerda persistentemente que el esfuerzo invertido en diseñar y ejecutar un sistema de evaluación y calificación debe estar razonablemente equilibrado con el dedicado a impulsar el propio proceso de aprendizaje.

El eterno dilema de pesar la vaca o darle de comer. Menos mal que tenemos a todas esas IAs parlanchinas entre nosotros para rescatarnos del naufragio.

¿Pesamos la vaca o le damos de comer? Yo no dibujo ni medio bien, todo el mérito fue de AutoDraw.

Por cierto, ¿alguno de vosotros jugáis a predecir las calificaciones finales de vuestro alumnado —me refiero a las de junio—  tras el primer trimestre del curso? Tirando solo de vuestra experiencia e intuición, quiero decir. Y no solo en las asignaturas que impartís, para evitar aquello de la profecía autocumplida.

Es un ejercicio interesante.

En resumen, y volviendo a la pregunta inicial, no tengo absolutamente claro que esta calculadora de calificaciones sea aún irrelevante, pero me encantará leer vuestros comentarios.

Hecho, guardo ya al cuñado que llevo en mí, que hoy me parece que ha estado tomando vinos en la barra demasiado tiempo 😅.

Y ahora, vamos por fin con las hojas de cálculo.