miércoles, 11 de diciembre de 2013

Síntesis final

Lo difícil de hacer una síntesis, es que en cierta forma, siento que es una tarea que ya hice alguna que vez a lo largo del curso; de modo que esta sería una “síntesis de las síntesis”. Es decir, tendría que decir algo que ya dije, pero con “algo más”.
Entonces me hice la siguiente pregunta: supongamos que alguien me dijera: “Respondé lo más rápido posible sin detenerte a pensar y sin usar términos técnicos: de las herramientas aprendidas en el curso ¿cuál aplicarías ya mismo y por qué?
Lo primero que me vino a la mente fue “Formularios”. Armar formularios sencillos y enviarlos con frecuencia me proporciona una retroalimentación muy rápida y sencilla.
¿Y por qué querría eso? Para evaluar. Mi propia respuesta me dice poco, y además, es técnica; debería poder decir eso con mis propias palabras. Entonces, la frase que me vino a la mente fue “Conocer más a los alumnos”.
Y ahí me di cuenta de que lo que busco con evaluar, más allá del contenido, es conocerlos un poco más. La realidad es que de mis alumnos conozco lo que ellos “dicen” en los exámenes, y algo de quienes alguna vez se animan a hablar un poco, que es poco y nada: A veces creemos saber algo de ellos pero también hay mucho de prejuicio o sacamos conclusiones con muy poca base. Lo cierto es que ignoro sus ideas previas, qué es lo que más le cuesta/no les cuesta; les gusta/no les gusta. Si en la clase la pasan bien o se aburren. Si hay temas que los entienden y hay otros que piensan que no los van a entender en su vida. Es decir, lo mismo que nos pasaba a nosotros cuando éramos estudiantes.
Quizá muchos no se animen a responder ese tipo de preguntas por temor (“¿Cómo le voy a decir al docente que un tema me aburre?”, se dirá más de uno) pero mi esperanza es que si se hacen encuestas frecuentes, estas se convertirán en rutinarias y los alumnos se soltarán más y perderán el miedo).
Para cerrar, resumo esta síntesis diciendo que me interesa lograr una retroalimentación fuerte para conocer mejor a los alumnos; para mejorar la enseñanza.




viernes, 6 de diciembre de 2013

Opiniones sobre la rúbrica de evaluación del portafolio

Como señalé en una entrada anterior, confieso que cuando conocí una rúbrica (sin saber que era una rúbrica) en el Plan de acción del curso, al ver tantas categorías y tanto texto en cada casillero, le tuve cierta aversión y me dije: “esto es para más adelante, ya se verá luego”.

Ahora reconozco que las rúbricas son útiles, y sin embargo, la primera reacción espontánea que tuve al volver a dirigirme a la del curso, es que si la leo en detalle para ver “qué debo hacer”, me quedaría paralizado y no sabría por dónde arrancar.

Es cierto que puede haber parámetros de la rúbrica que no se entienda a qué apuntan, y sin embargo, uno los esté realizando correctamente sin darse cuenta. También hay algunos puntos que no me convencen, por ejemplo, si el alumno “utiliza algunas herramientas” o “todas” o “en toda su complejidad” y “explora algunas no solicitadas”, me pregunto si está "mal" que uno use una herramienta para lo estrictamente necesario según sus objetivos, o debe encontrarle otros usos porque la rúbrica “lo dice”, aunque esos usos no sean relevantes para sus objetivos.

Quizá me esté complicando y estas cuestiones no tengan que ver necesariamente con la rúbrica en sí, sino que son inherentes a la difícil tarea de evaluar. Y que no hay que mirar a la rúbrica como un documento que dictamina qué está bien y qué está mal, sino como una forma de evaluar el abordaje de un alumno.


Creo que lo más sano, o al menos lo que yo me propuse hacer, es leer la rúbrica, tener en cuenta ciertas pautas, y lanzarme a trabajar sin obsesionarme tanto con ella; confiando en que durante el trabajo iré comprendiendo los puntos que no me quedaban claros.

jueves, 28 de noviembre de 2013

Autoevaluación


Confieso que cuando conocí una rúbrica (sin saber que era una rúbrica) en el Plan de acción del curso (el primer documento que nos dieron) al ver tantas categorías y tanto texto en cada casillero, mi reacción inicial fue que evaluar a un alumno así, es una tarea titánica cargada de subjetividades y zonas grises tales como el alumno “sabe”, “identifica”, “tiene dificultad”, “algunos”, “la mayor parte”, etc., que me hizo acordar cuando dos docentes estamos media hora para poner una nota, discutiendo si el alumno “sabe” o “no sabe”.

Sin embargo, ahora me parecen útiles para poner ciertas cosas en claro. Por ejemplo, a veces escuchamos una exposición oral y salimos pensando “fue mala” o “fue buena”, y no sabemos bien por qué. O cuando corregimos un examen y lo leemos y releemos y nos decimos “No puedo decir que esté mal, y sin embargo no termina de convencerme”. Bueno, las rúbricas nos ayudan a enfocarnos y/o explicitar, cuáles son esas pocas básicas para distinguir lo “bueno” de lo “malo”.


Pero pienso que las rúbricas deben ser relativamente breves y acotadas, sin pretender abarcar una inmensidad de cosas para no enredarnos, y usando bastante el sentido común. Por ejemplo, poniéndonos en el lugar de un alumno ¿qué requisitos tiene una clase para que nos resulte “aceptable”?: que se escuche bien, que el docente no sea monótono, que no se vaya de tema, es decir, a veces no mucho más que eso.

miércoles, 27 de noviembre de 2013

Comparación de rúbricas

.
Comparé mi rúbrica con la de Emilia Inés Cortina

Categorías compartidas:
Hubo categorías que utilizamos ambos, aunque le hayamos puestos distintos nombres (menciono primero la de ella y luego la mía):
 “Expresión oral” / “Actitud”, para referirnos a la postura y el contacto visual.
 “Claridad y organización” / “Orden lógico del relato”, para referirnos a si la exposición de los temas es ordenada.
 “Tiempo de presentación” / “Manejo del tiempo”, para aludir a la duración de la presentación.
“Apoyo visual” / “Material visual”.

Las categorías empleadas por Emilia exclusivamente fueron:
 “Contenido”, para evaluar si los expositores comprenden bien el tema que desarrollan.
 “Comprensión”, para determinar si los expositores saben contestar preguntas del público
 “División de tareas”, para referirse a la forma en que los expositores se reparten las tareas.
 “Fluidez”, para evaluar si la exposición fue preparada/ensayada o no.
 “Escucha otras presentaciones”, para evaluar el comportamiento del grupo ante las exposiciones de sus compañeros

Las categorías empleadas por mí exclusivamente fueron:
 “Volumen”, para evaluar si todo el auditorio escucha bien la exposición
 “Velocidad/Entonación”, para evaluar si el expositor habla demasiado rápido y no se le entiende.
 “Cantidad de información”, para evaluar si hay información excesiva para el tiempo disponible o si fue bien seleccionada.




domingo, 24 de noviembre de 2013

Criterios de evaluación

Cuando corrijo, para considerar si la respuesta de un alumno es “correcta”, tengo como referente, un listado de los conceptos que tienen que estar en esa respuesta.

Por ejemplo, supongamos que pregunto: “Realice una comparación entre perros y gatos”. Antes de corregir hago una lista de qué características tienen que estar en la respuesta.

De manera similar, si pido “Explicar un proceso”, primero hago un cuadro resumido de los pasos principales del proceso.

Si hay una respuesta muy larga, la considero medianamente errónea cuando hay mucho texto que se aparta de lo preguntado, porque entiendo que la respuesta debe estar acotada a la pregunta; y a veces me queda la duda de si la respondió bien “de casualidad”, porque si uno escribe mucho sobre un tema, en cierta forma la respuesta “va a estar” en alguna parte.

Si hay una pregunta de “Verdadero” o “Falso” con justificación, acá es más complicado porque las cosas se pueden justificar de varias maneras, pero me fijo si hay conectores del tipo “es falso/verdadero porque”, que apunten a lo concreto.

En síntesis: como referente, tengo un listado de qué contenidos tiene que tener la respuesta, porque de lo contrario, a medida que leo varias respuestas, corro el riesgo de ir cambiando los criterios.

Sin embargo, también considero otras cosas como referencia:
* Me pregunto: lo que se pretende que conteste el alumno: ¿se dio en clase?
* Y si se dio en clase: ¿se desarrolló mucho/poco/o se mencionó por encima?
* ¿Les dí oportunidad de preguntar dudas y/o ejercitar sobre el tema?
* Si aparece una respuesta no prevista, incluso insólita, que no apunta a lo que yo pregunté pero tiene sentido, la considero válida.

Por último, yo trabajo mucho con la escritura y le recalco a los alumnos que uno piensa/explica con palabras, de modo que cuando uno quiere pensar/explicar bien, debe poner bien las palabras. De modo que tengo como referente un listado de los errores gramaticales/sintácticos más comunes para prestar atención y señalarlos:
* Construcción mínima de sujeto, verbo y predicado.
* Que esté claro cuando en una oración se hace referencia a “esto”, “aquello”, “lo otro”, etc.
* Si pregunto “¿Qué es un perro?”, en la respuesta deberá aparecer “Un perro es…”.
* Conectores de causa efecto: “si pasa esto, entonces pasa esto otro”
* No empezar con plural y terminar en singular
* No empezar en masculino y terminar en femenino
* Puntuación


jueves, 21 de noviembre de 2013

Síntesis

Haciendo una síntesis de lo aprendido hasta el momento, distingo por un lado, al formulario como herramienta; y por otro lado, las cuestiones referentes a la evaluación. 

Con evaluación no me refiero a un examen, sino a un seguimiento de los alumnos. Esto ya fue tratado en una entrada anterior del blog, pero a modo de recordatorio, rescato la diferencia entre el examen para poner una nota, y la evaluación como seguimiento del aprendizaje para mejorar la enseñanza.

Personalmente, vislumbro el uso de formularios para hacer “miniencuestas” semanales de seguimiento, tanto para evaluar el conocimiento del contenido, como cualquier otra inquietud que surja; es decir, con el objetivo de evaluar el aprendizaje y no para poner una nota.


Tradicionalmente, hacer encuestas es trabajoso: requiere fotocopiar pilas de formularios y luego pasarse horas analizando las respuestas. Con esta herramienta, los tiempos y el esfuerzo se acortan de manera impresionante.

miércoles, 20 de noviembre de 2013

Reflexiones sobre el uso de formularios

a) Cómo usar "formularios"
El ejercicio me entusiasmó y hasta me dieron ganas de aplicarlo ya mismo en mi curso, pero ya terminen las clases. De todas formas, aún me cuesta familiarizarme con la forma de presentación de las respuestas en el formulario: por ejemplo, si me conviene pasar la planilla a Excel, o a pdf, o a otro formato; e indagar otras modalidades de recepción de respuestas (que todas se vuelquen en una sola planilla, o en varias). Acá tengo que seguir practicando.

b) Propósitos de la evaluación
No logré distinguir que hubiera diferentes propósitos de evaluación: todos los exámenes (incluso el mío) me parecieron un examen “clásico” donde un alumno debe responder preguntas sobre un texto para ver si lo “sabe”: cuando lo respondí me sentí como cuando era alumno, y cuando lo diseñé, como docente, independientemente de que fuera una nueva modalidad. Luego de la actividad, me pregunté, por lo que yo en realidad estaba haciendo, si en el propósito de la evaluación no debería haber declarado: “aprender a evaluar utilizando un formulario de Google doc, para ver las diferencias y/o similitudes con una evaluación convencional”.

c) Formas variadas de organizar las preguntas
Los formularios son bastante amplios en cuanto a los tipos de preguntas que permiten hacer. Si bien a uno se le puede ocurrir otro tipo de tipo de preguntas que estos no ofrecen, considero que son los suficientemente amplios como para poder realizar una evaluación más que aceptable.

d) Como un mismo “objeto de estudio” puede ser utilizado por diferentes profesores con propósitos y modalidades distintas
Si bien el texto nos habrá costado más a unos que a otros según la especialidad de cada docente, los tipos de preguntas fueron similares en todos los exámenes (inclusive el mío): algunas se atuvieron estrictamente al contenido y otras propusieron respuestas que se acercan más a reflexiones, apelando a conocimientos del alumno sobre la realidad económica mundial y/o argentina. Lo cual me parece lógico, ya que todos los docentes formamos una "comunidad" en la que nos parecemos y manejamos criterios similares, independientemente de la especialidad de cada uno.


Un comentario aparte, es que me costó “incorporar” la taxonomía de Bloom a la evaluación. Al principio pensé que a medida que uno sube de habilidad en el nivel de pensamiento, debería diseñar preguntas más complejas. Pero ahora creo que a veces uno hace una pregunta “tonta”, y en realidad esta encubre un pensamiento complejo; o una que considera sofisticada, y su respuesta requiere de habilidades más sencillas. Y en consecuencias las evaluaciones terminan siendo una mezcla de preguntas rebuscadas y/o sencillas, donde creemos evaluar una capacidad, cuando en realidad estamos evaluando otra sin darnos cuenta.