Home / Educación / López Mendiola, María Elena. – “Tecnología en la innovación educativa (parte II)”

López Mendiola, María Elena. – “Tecnología en la innovación educativa (parte II)”

CENTRO DE ESTUDIOS AVANZADOS DE LAS AMERICAS
DOCTORADO EN: EDUCACION
ASIGNATURA: Procesos y Herramientas de la Innovación Educativa
CUATRIMESTRE: 2do
TAREA No: 8

TÍTULO: Tecnología en la Innovación Educativa (parte II)
NOMBRE DEL ALUMNO: MARIA ELENA LOPEZ MENDIOLA
MATRÍCULA: M19020701209
ASESOR: MARGARITA MORENO MURILLO
FECHA: 1° de julio 2019

“Diseño centrado en evidencias”

En 2do año de secundaria, la maestra de biología solicitaba que todos nuestros apuntes fueran ilustrados, el mío era un primor; cada vez que iniciaba una clase hacia preguntas de la clase anterior y yo siempre era la de la manita en alto para contestar. Pero horror cuando llegaba el examen mensual, siempre los reprobé, menos el semestral donde fui la más alta calificación de todos los segundo. Gracias a mi cuaderno y a responder cada día la pregunta de la maestra fui una alumna de 10. Entonces ¿sólo me calificaban o me evaluaban?

Sin duda este es el gran problema de la educación calificar o evaluar, como medimos si el alumno en verdad aprendió o sólo tuvo momentáneamente un conocimiento que en su constructo educativo, no pudo sistematizar.

“Lo que todas las evaluaciones educativas tienen en común es el deseo de la razón de las cosas particulares estudiantes dicen, hacen o hacen, a inferencias más amplias acerca de sus conocimientos y habilidades. Durante el siglo pasado, una serie de métodos de evaluación han evolucionado para hacer frente a este problema de una manera sistemática y de principios. Los modelos de medición de la teoría clásica de los tests y, más recientemente, la teoría de respuesta al ítem (IRT) y el análisis de clase latente, han demostrado ser bastante satisfactoria para los ensayos a gran escala y cuestionarios de clase con la que cada lector es por ahora muy familiar.

Pero fuera de la plataforma de las evaluaciones y los exámenes estandarizados son cada vez más insatisfactoria para guiar el aprendizaje y la evaluación del progreso de los estudiantes. Los avances en las ciencias cognitivas y de instrucción estirar las expectativas sobre los tipos de conocimientos y habilidades que queremos desarrollar en los estudiantes y los tipos de observaciones que necesitamos a la evidencia de ellos (Glaser, Lesgold, y Lajoie, 1987).

Los avances en la tecnología hacen posible para evocar evidencia de un conocimiento más amplio concebido para capturar y actuaciones más complejas. Uno de los obstáculos más graves que enfrentamos, sin embargo, está haciendo sentido de datos complejos que resultan”. (Mislevy.2003.p9)

Se han buscado diferentes diseños para evaluar el aprendizaje del alumno y desde esa posición en donde tomemos en cuenta la evaluación formativa y la sumativa, analicemos los aprendizajes obtenidos.

Se va incursionando en los sistemas evaluativos los entornos digitales, que permiten elaborar actividades, tareas, exámenes que a través de plantillas señalan los avances del alumno.

“la evaluación educativa se está moviendo cada vez más de un antiguamente árido “digital del desierto” a un aumento continuo “océano digital” Evaluaciones dentro del desierto digitales se caracterizan por pruebas independientes de forma fija con formatos de respuesta seleccionada o cortos administrados en formato papel y lápiz mientras que la evaluación en el océano digital se caracteriza por suites de evaluación de adaptación que incluyen tareas basadas en el rendimiento administrados individualmente o en colaboración en entornos digitales de aprendizaje”.(Rupp.2012.P2)

El avance de esos entornos y su involucramiento en la educación nos lleva a una cultura cada vez más digital.

Ahora se busca promover que a través de evidencias confirmemos el avance académico del alumno, se utilizan diversos modelos en los cuáles el protagonista siga siendo el alumno y verificar las competencias adquiridas.

Modelo del estudiante. En este modelo se especifica lo que se quiere evaluar: conocimientos, habilidades, estrategias o competencias. Estos componentes están ligados estrechamente con el propósito de la evaluación. Es decir, qué tipo de afirmaciones quiero hacer con base en los resultados de la evaluación: ¿Qué saben los estudiantes? ¿Qué pueden hacer? ¿Qué objetivos de aprendizaje han alcanzado?

Modelo de evidencias. En este modelo se describen los desempeños o los comportamientos observables que dan cuenta o que son evidencia de los componentes descritos en el modelo del estudiante. A medida que se usa la evaluación y se recogen evidencias de las respuestas de los estudiantes, se van revisando los componentes de los modelos.

Es decir, se especifican las posibles acciones que uno puede observar que serían evidencia del aprendizaje de los conocimientos, las habilidades y las competencias descritas en el modelo del estudiante. Este modelo también ayuda a pensar en la forma como se calificarían e interpretarían los resultados

Modelo de tareas. Finalmente, en este modelo se definen las características de la(s) actividad(es) de evaluación, incluyendo las condiciones en que se va a ejecutar la tarea, los materiales requeridos, y las características de las respuestas generadas por los estudiantes. Es decir, se determina el tipo de actividades o tareas que permitirían que el estudiante demostrara esos conocimientos, habilidades o competencias. La pregunta clave en este mo-delo es la siguiente ¿Qué tipo de actividad de evaluación estimularía este tipo de evidencia?.

“El proyecto de diseño de pruebas centrado (ECD) en el Educational Testing Service (ETS) proporciona un marco de diseño conceptual de los elementos de una evaluación coherente, a un nivel de generalidad que es compatible con una amplia gama de tipos de evaluación, a partir de las pruebas estandarizadas familiares y cuestionarios en el aula, ha entrenado sistemas de prácticas y evaluaciones basadas en la simulación, a las carteras y la interacción estudiante-tutor. El marco de diseño se basa en los principios del razonamiento probatorio (Mislevy, Steinberg, y Almond, 2003) y las exigencias de la producción de evaluación y la entrega”. (Mislevy.2003.p10)

Los entornos digitales han permitido hacer una serie de capturas y pruebas más complejas en los entornos de evaluación: por ejemplo se pueden hacer simulaciones de exámenes, sesiones interactivas y de colaboración como las que te da Drive de google. Lo importante es saber qué es lo que queremos que el alumno realice con ese nuevo conocimiento y como lo aplique a la realidad.

Un trabajo reciente sobre la validez de la evaluación pone la base conceptual para tal esquema. El punto de vista actual se centra en el apoyo conceptual, sustantivo y estadística que la evaluación de datos proporcionan para las inferencias o acciones (Messick, 1989). Desde este punto de vista, una evaluación es un caso especial de razonamiento probatorio. Messick (1994) establece su forma general en la siguiente cita: Un enfoque centrado en el constructo-[a diseño de la evaluación] podría empezar por preguntar lo que debe evaluarse complejo de conocimientos, habilidades, u otro atributo, presumiblemente debido a que están vinculados a los objetivos explícitos o implícitos de instrucción o de lo contrario se valoran por la sociedad. A continuación, qué comportamientos o actuaciones deben revelar esas construcciones, y qué tareas o situaciones deben provocar esos comportamientos? Por lo tanto, la naturaleza de la construcción guía la selección o construcción de las tareas pertinentes, así como el desarrollo racional de criterios y rúbricas de puntuación basados en constructos. (Mislevy.2003.p11)

Desde esta perspectiva podemos organizar los pensamientos acerca del propósito que perseguimos con las evaluaciones, los tipos de tareas y trabajos que se solicitan para revisar las habilidades y conocimientos que nos interesa revisar.

Se deben destacar que las evidencias que se obtengan de las evaluaciones proporcionarán información acerca de lo que realmente está aprendiendo el alumno y que no se quede solamente en acumulación de conocimiento sin saber cómo aplicarlo.

CONCLUSIONES

La tecnología nos permite diseñar nuevos modelos estadísticos en base a tareas, cuestionarios, trabajos en equipo, presentaciones, etc.; los cuáles a su vez nos muestran si el alumno aplica lo que aprende o sólo acumula el conocimiento, que al final de cuentas es lo que se busca.

Las evidencias al final sirven para demostrar la aplicación si los modelos cognitivos que se utilizan son los adecuados en la enseñanza

FUENTES BIBLIOGRAFICAS

Mislevy, Robert J., Almona, Russell G. (2003) «A Brief Introduction to Evidence-Centered Design». Research Report, Educational Testing Service, Princeton.
Rupp, Andre A, Rugartt, Rebecca (2012) «Evidence-centered design for diagnostic assessment with digital learning environments: Integrating modern psychometrics and educational data mining». Journal of educational data mining, vol. 4, No. 1.

Fuentes Bibliográficas Extras
Ahumada A., Pedro (2005). La Evaluación Auténtica: Un Sistema Para La Obtención De Evidencias Y Vivencias De Los Aprendizajes Perspectiva Educacional, Formación de Profesores, núm. 45, 2005, pp. 11-24 Pontificia Universidad Católica de Valparaíso Viña del Mar, Chile
Barrón T., Ma. Concepción (2005). Criterios Para La Evaluación De Competencias En El Aula. Una Experiencia Mexicana Perspectiva Educacional, Formación De Profesores, Núm. 45, 2005, Pp. 104-121 Pontificia Universidad Católica De Valparaíso Viña Del Mar, Chile
Cardona Torres, Sergio Augusto; Jaramillo Valbuena, Sonia ; Navarro Rangel, Yadira. (2016) Evaluación de competencias con apoyo de un sistema de gestión de aprendizaje Praxis & Saber, vol. 7, núm. 14, Universidad Pedagógica y Tecnológica de Colombia
Kane, M. (1992). An argument-based approach to validity. Psychological Bulletin, 112, 527-535
López Mendoza Alexis (2014) La evaluación como herramienta para el aprendizaje. Conceptos, estrategias y recomendaciones , editorial Magisterio, Bogotá Colombia. p 144
Martínez Arias, Rosario (2010). LA EVALUACIÓN DEL DESEMPEÑO Papeles del Psicólogo, vol. 31, núm. 1, enero-abril, pp. 85-96 Consejo General de Colegios Oficiales de Psicólogos Madrid, España
Messick, S. (1989). Validity. En R. L. Linn (ed.), Educational measurement, (pp. 13-103). New York: Macmillan. 139
Mislevy, R. J. (1994). Evidence and inference in educational assessment. Psychometrika, 59, 439-483. Mislevy, R. J., Steinberg, L. S. y Almond, R. G. (2003). Design and analysis in task-based language assessment. Language Testing. Special Issue: Interpretations, intended uses, and designs in task-based language, 19(4), 477-496.

Check Also

Restricciones

Barbosa Guzmán, Carlos Marx. Restricciones y ambigüedades en la libertad religiosa en México.

RESTRICCIONES Y AMBIGÜEDADES EN LA LIBERTAD RELIGIOSA EN MÉXICO.                                      Autor: Mtro. y Dr. H. …

Powered by keepvid themefull earn money