CLC#1 | Evaluación competencial, errores endiablados y funciones LAMBDA

Lo que sigue es tan solo la transcripción de las reflexiones en la sección inicial del vídeo anterior, por si prefieres consumirla en formato texto.


Hoy os quiero contar algo que me ha sucedido hace unos días y que me ha dado qué pensar a varios niveles.

A finales de septiembre recibí un correo electrónico de Alfredo, un profesor de Informática y Tecnología de Valencia, que me alertaba de un problema en una plantilla para el cálculo de calificaciones, basada cómo no en una de esas benditas hojas de cálculo de Google que nos gustan tanto, que publiqué en mi antiguo blog hace ya ¡3 años!

Una plantilla para el cálculo de calificaciones.

Y aquí hay varias partes, como en todas las historias. No es que piense que esta en concreto vaya a ser el Naruto o La Rueda del Tiempo de las hojas de cálculo (ya os lo advierto por adelantado para que no haya reclamaciones tras ver el vídeo), pero sí me apetece iniciar esta serie de “Conversaciones a la luz de las celdas” (cuya continuidad no puedo asegurar en absoluto en este momento, francamente) charlando un rato acerca de evaluación y calificación, de errores tontos pero puñeteros en las fórmulas de las hojas de cálculo (seguro que ya lo sabes, el diablo está en los detalles), y de cómo la sintaxis LAMBDA llegó a Sheets el año pasado para cambiarnos la vida a los frikis de las hojas de cálculo.

Sí, ya lo sé, a la luz no de las celdas sino de lo que está pasando ahí fuera, todas, o al menos dos de esas tres cosas que he mencionado, son poco más que problemas del primer mundo, pero creo firmemente que hay que seguir buscando #subalegrías para que la realidad no resulte insoportable. Y para mí hablar de estas cosas sigue constituyendo, por suerte, una de esas subalegrías.

Os cuento en un momento de ese error fantasmal del que me hablaba Alfredo, pero lo cierto es que lo primero que pensé cuando recibí su correo fue:

¿Sigue teniendo sentido mi calculadora de calificaciones?

En esencia, esta plantilla permite definir una serie de actividades evaluables (o quizás debería decir calificables), agruparlas de manera opcional y establecer de un modo razonablemente personalizable los valores de ponderación de actividades y grupos para calcular la calificación final. Todo ello salpicado con unos cuantos minigráficos de barras (esas nunca suficientemente bien ponderadas SPARKLINEs) para proporcionar información de resumen de manera rápida y efectiva.

Además, la plantilla dispone de una pestaña adicional en la que se preparan los datos de la hoja de calificaciones para que puedan ser enviados fácilmente con Autocrat.

Pero bueno, en la publicación original encontraréis un vídeo de 30 minutazos en el que explico cómo funciona la plantilla y cuáles fueron sus criterios de diseño, así que pasopalabra.

Lo que pasa es que eso de calificar numéricamente (sobre 10 o sobre 100, tanto da) distintas actividades y limitarse a ponderarlas para obtener una calificación final cada vez me chirría más.

Sí, creo que todos los docentes tenemos a estas alturas muy claro que evaluar es una cosa muy diferente a calificar. Se evalúa a lo largo y ancho del proceso formativo. Muchas veces. De diferentes maneras. Pero sobre todo, procurando que esa evaluación contribuya a la mejora del aprendizaje. Y solo al final y probablemente por imperativo legal, se resume el resultado de todo ese esfuerzo (del estudiante aprendiendo y del docente enseñando, acompañando y evaluando) en un maldito número sin decimales entre 1 y 10.

Sí, el número natural que la administración educativa me pide que estampe en los boletines de cada evaluación. Aclaro que estoy hablando desde la perspectiva de un profesor de FP en la Comunidad Valenciana, pero la cosa no debe ser muy distinta en otras partes del reino.

Es lo que hay.

¿Y entonces qué deberíamos hacer?

Veamos:

  1. Identificar las consabidas competencias, resultados de aprendizaje y criterios de evaluación asociados a las materias que cursan nuestros alumnos y alumnas. Para eso están los correspondientes decretos (reales o no) que regulan el currículum de cada especialidad. Algunos un poco viejunos y desactualizados ya, para que nos vamos a engañar… pero ese es otro tema.

    Está chupado. Solo hay que empollarse la normativa.

  2. Diseñar un conjunto de actividades alineadas con los objetivos de aprendizaje que permitan, a lo largo del desarrollo del curso y del modo más objetivo posible, valorar el grado de consecución de todos y cada uno de esos resultados y criterios.

    Y esto, amigos y amigas, esto es mucho, mucho más complicado. Yo diría que pura artesanía, aunque los forofos de la IA parecen empeñados en convertirlo en metódica producción industrial (aquí iría un smiley de carita lanzando un beso).

Todo bien. Pero aquí viene la parte polémica.

⚠️ Exención de responsabilidad:
Lo que viene a continuación no son certezas, solo pensamientos intermitentes. Cualquier parecido con la realidad posiblemente solo esté en mi cabeza.

Para valorar esas actividades, y los productos tangibles que a menudo resultarán de ellas, existe una variedad de instrumentos. Creo que estaremos de acuerdo en que una de las herramientas que goza de mayor reconocimiento y popularidad son las rúbricas, con su tranquilizadora estructura tabular de criterios, niveles de desempeño y descriptores de logro.

Y su complejidad fractal, debería añadir 🪆.

Porque diseñar una buena rúbrica es un proceso iterativo (que no siempre se itera) que lleva tiempo, salvo a la hora de evaluar actividades muy simples y trilladas.

Porque hay rúbricas que solo sirven para acallar la conciencia del docente que las utiliza dado que carecen de la suficiente capacidad de discernimiento.

Lo tenemos claro, una buena rúbrica debería identificar los diversos aspectos que evidencian el desempeño de un alumno en un contexto determinado y permitir la caracterización de su grado de cumplimiento. Pero hacerlo de modo exhaustivo y totalmente inequívoco, incluyendo todos los criterios y descriptores de logro pertinentes con la suficiente granularidad y precisión probablemente arrojará una tabla larga como un día sin hojas de cálculo.

¿Y sabes qué? Que seguro que nos habremos dejado algo. Y los descriptores seguirán siendo interpretables en mayor o menor medida. Como diría Roy Batty si esto fuera la escena final de Blade Runner, he visto rúbricas que no creeríais.

I've seen rubrics you wouldn't believe (Roy Batty dixit).

Como ya dije una vez en un lejano pasado, no hace falta liberar bajo la lluvia una paloma antes de morir para ser consciente de que incluso las más detalladas (hablo ahora de rúbricas, no de palomas) suelen ser difícilmente objetivables para cualquiera que no sea su creador. Y quizás también para él, pasado un tiempo.

¿Y qué suele pasar cuando estamos usando una rúbrica y el trabajo de un alumno o alumna no se puede encajar perfectamente en la intersección de cierta fila y columna? Pues que se toman atajos, decisiones “a ojímetro” que en el mejor de los casos tendrán en cuenta factores externos a la rúbrica, para decidir las coordenadas de esa evaluación particular. Y ya si eso dejamos para el curso que viene el darle una vuelta a la rúbrica, que “ahora tengo mucho lío y no me da la vida”.

No, no estoy llamando al levantamiento para acabar con el reinado de las rúbricas analíticas, solo digo que tal vez no constituyan la panacea de la evaluación y haya que contemplar también el uso de otras herramientas de carácter más holístico.

Pero esa no es la cuestión ahora.

Supongamos que lo intentamos hacer bien. Usamos siempre “buenas” rúbricas y no nos limitamos a calificar con ellas (o no lo hacemos en absoluto) y ofrecemos en su lugar una retroacción significativa al alumnado que favorezca su progreso a lo largo del proceso de aprendizaje .

Pero en algún momento, alguien (la administración, tal vez el propio estudiante o incluso la familia) te dice eso de “no me vengas con historias y dame mi nota, que es lo que necesito para saber si tengo opciones de matricularme en el grado que me interesa”.

¿Y cómo la calculamos a partir de todas esas rúbricas? ¿Cómo ponderamos cada criterio y nivel de desempeño? ¿Y cómo ponderamos las rúbricas entre sí? Porque digo yo que habrá que hacerlo de alguna manera. ¿De dónde sacamos los pesos de esas ponderaciones?

¿No sería preferible en su lugar agrupar los criterios que forman parte del conjunto de rúbricas empleadas por competencias o resultados de aprendizaje y ponderarlos entre sí?

¿Y qué ocurre cuando un mismo criterio se evalúa en diferentes puntos de la secuencia de aprendizaje, algo que me parece muy razonable, por otra parte? ¿Tenemos entonces en cuenta en esa ponderación los distintos descriptores de logro evidenciados a lo largo del tiempo para cada criterio o solo nos quedamos con el desempeño demostrado al final del proceso, castigando un posible “mal momento” del estudiante?

Preguntas que llevan a tomar decisiones que a su vez abren otras incógnitas. Complejidad fractal.

Mi yo escéptico (sigo en modo cuñado) me dice que como consecuencia de toda esa complejidad en ciertos momentos se van a tomar decisiones poco objetivas que puedan anular la eficacia de un proceso de cálculo en cuyo diseño intervienen criterios que pueden ser muy cuestionables.

Y todo esto lleva tiempo. Tiempo que podría dedicar a preparar mejores materiales, a atender a mi alumnado de un modo más personalizado. Mi yo esceṕtico me insiste una vez más en que el esfuerzo empleado en diseñar y ejecutar un sistema de evaluación / calificación debe estar proporcionado con el destinado a propulsar el propio proceso de aprendizaje.

El eterno dilema de pesar la vaca o darle de comer. Menos mal que tenemos a todas esas IAs parlanchinas entre nosotros para rescatarnos del naufragio.

¿Pesamos la vaca o le damos de comer? Yo no dibujo ni medio bien, todo el mérito fue de AutoDraw.

Por cierto, ¿alguno de vosotros jugáis a predecir las calificaciones finales de vuestro alumnado —me refiero a las de junio—  tras el primer trimestre del curso? Tirando solo de vuestra experiencia e intuición, quiero decir. Y no solo en las asignaturas que impartís, para evitar aquello de la profecía autocumplida.

Es un ejercicio interesante.

En resumen, volviendo a la pregunta inicial, no tengo absolutamente claro que esta calculadora de calificaciones sea aún irrelevante, pero me encantará leer vuestros comentarios.

Y guardo ya al cuñado que llevo en mí, que hoy me parece que ha estado tomando vinos en la barra demasiado tiempo.

Y ahora, vamos con las hojas de cálculo.


Comentarios