SciELO - Scientific Electronic Library Online

 
vol.36 número2El proceso de inclusión social desde la socioformación: Análisis de concepciones sobre discapacidad y necesidades Educativas EspecialesConcepciones sobre participación social que poseen los actores educativos y sus implicaciones índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Compartir


Paradígma

versión impresa ISSN 1011-2251

Paradígma vol.36 no.2 Maracay dic. 2015

 

Proyectos formativos y evaluación con rúbricas1

Sergio Cardona (*) Jeimy Vélez (**) Sergio Tobón (***)

(*) Universidad del Quindío, Armenia, Quindío sergio_cardona@uniquindio.edu.co

(**) Grupo ITEM, Universidad Pontificia Bolivariana, Montería, Colombia jeimy.velez@upb.edu.co

(***) Centro Universitario CIFE, Cuernavaca, México. stobon@cife.ws

Resumen

Los proyectos formativos cada vez más se aplican en la educación, pero falta mayor claridad del proceso de evaluación y en la implementación de esta metodología en programas de educación en línea. Con estudio se pretendió determinar la utilidad de la evaluación con rúbricas por competencias que se da en los proyectos formativos y establecer su relación con el desempeño académico. Para ello se realizó un estudio descriptivo correlacional entre una serie de variables de la evaluación socioformativa en el marco de la aplicación de la metodología de los proyectos formativos en un curso en línea de una universidad. Se realizó seguimiento académico a 36 estudiantes que cursaban la asignatura bajo esta metodología. Resultados: se encontró que los estudiantes consideran que la metodología de proyectos formativos contribuye al desarrollo de las competencias del curso. Esto tiene una correlación con la identificación de las actividades de evaluación y la participación de los criterios definidos para las evidencias del proyecto formativo. También se identificaron avances en la convergencia entre la evaluación del docente y la evaluación de los estudiantes mediante el empleo de rúbricas por competencias. Conclusión: la evaluación mediante rúbricas por competencias en los proyectos formativos es útil en la formación integral y en la educación en línea.

Palabras clave: evaluación, socioformación, proyectos formativos, competencias

Formative projects and assessment with rubrics

Abstract

The formative projects are being increasingly applied in education, but the implementation of this methodology into online education programs still lacks of clarity in the assessment process. Purpose: To determine the advantage is achieved by implementing rubrics made by competences in formative projects and their relationship with the academic performance. Methodology: A correlational descriptive study was conducted in the framework of the implementation of the methodology of formative projects considering a number of variables in the mark of socioformative assessment, in an online course of a university. For monitoring consider 36 students who enrolled in a course under this methodology. Results: The analysis reflect that students consider that the methodology of formative projects helps develop the competences of the course. This is correlated with the identification of the assessment activities and the participation of the criteria defined for the evidence of the formative project. Also there was an advance in the convergence between teacher assessment and student assessment at the use of rubrics made by competences. The assessment with rubrics made by competences applied in the formative projects is useful for the integral formation and for online education.

Keywords: assessment, competences, formative projects, socioformative approach.

Recibido: 04/02/2015 Aceptado: 11/05/2015

Introducción

Durante las últimas décadas se identifican en diferentes países políticas de calidad educativa orientadas a la formación por competencias (Arguelles & Gonczi, 2000; Biemans, Nieuwenhuis, Poell, Mulder, & Wesselink, 2005; Kim, 2004). Estas políticas se soportan en diversos enfoques pedagógicos, a través de los cuales se busca el desarrollo y evaluación de competencias en los estudiantes (Gómez, 2005; Mulder, Weigel, & Collins, 2006; Urquiza, 2009). Uno de estos enfoques es el socioformativo (Tobón, 2001, 2002), el cual se basa en la metodología de proyectos formativos, a través de los cuales se busca identificar, interpretar, argumentar y resolver problemas del contexto, con el fin de que los estudiantes tengan una formación integral y sean competentes para afrontar los retos de la sociedad del conocimiento.

Los proyectos formativos son una metodología para el desarrollo y evaluación de competencias. La metodología tiene sus antecedentes en el método de proyectos de Kilpatrick (1918), quien la abordó como un proceso dinámico de organizar la enseñanza mediante fases (propuesta, planificación, ejecución y evaluación) y actividades formativas articuladas, en las cuales se involucra de forma activa a los estudiantes en contextos de desempeño. El enfoque socioformativo retoma estos antecedentes y da origen a la estrategia de los proyectos formativos integrándole nuevos elementos metodológicos como el énfasis en el abordaje de problemas del contexto, el trabajo colaborativo y la gestión del conocimiento. Desde este enfoque, los proyectos formativos se conceptualizan como un conjunto de acciones articuladas para resolver un problema del contexto buscando un beneficio o servicio, con base en la colaboración y co-creación de saberes (Tobón, 2013a, 2014a).

La evaluación está en el núcleo del proceso educativo y tiene un impacto directo sobre el proceso de formación del estudiante (Brahim, Mohammed, & Samir, 2010; Keppell, Au, Ma, & Chan, 2007). Contempla métodos sistemáticos usados para reunir información sobre las características del estudiante, basado en un producto o evidencia, para el diagnóstico o la acreditación en contextos formativos (Joosten-ten Brinke et al., 2007, Tobón, 2013a). Es por lo tanto una actividad constante basada en criterios fundamentados para valorar los resultados de aprendizaje de los estudiantes, con el propósito de tomar decisiones en función de los resultados de la evaluación.

En los proyectos formativos se da un proceso de evaluación continua, la cual trasciende la evaluación tradicional centrada en determinar el grado de apropiación de contenidos y desarrollo de destrezas aisladas (Villardón, 2006). La evaluación tradicional se enfoca en la memorización, responde a las necesidades del juicio sumativo (Ćukušić, Garača, & Jadrić, 2014) y se concentra más sobre el registro y la medición, que sobre la retroalimentación de los logros y aspectos por mejorar (Mcdonald, Boud, Francis, & Gonnczi, 2000).

En los diferentes momentos de la evaluación (diagnóstica, formativa, acreditación), el profesor debe diseñar y aplicar instrumentos de evaluación para identificar los avances y dificultades en el desarrollo de las competencias de los estudiantes, lo cual exige el empleo de instrumentos (Biemans et al., 2005; De la Orden, 2011; Gikandi, Morrow, & Davis, 2011). Del lado del estudiante, cada vez más se promueve su participación activa en la evaluación (Ćukušić et al., 2014; Villardón, 2006), situación que es evidente en los denominados nuevos tipos de evaluación centrados en el desempeño (Florián, Baldiris, & Fabregat, 2009; Hagan, Konopaske, Bernardin, & Tyler, 2006; Joosten-ten Brinke et al., 2007; Van den Bergh et al., 2006). Estos nuevos tipos de evaluación intentan superar la evaluación tradicional (Mcdonald et al., 2000).

En un proyecto formativo se puede evaluar a los estudiantes con tres fines: evaluación de diagnóstico (para determinar cómo se encuentra el estudiante frente a una determinada meta); evaluación continua (para asegurar el logro de las metas) y evaluación sumativa (para acreditar el desempeño logrado). El propósito de cada una de estas evaluaciones ha sido expuesto en (Aguilar & Kaijiri, 2007; Olmos, 2008; Tobón, 2013a, 2013b, 2014a, 2014b). Así mismo, en un proyecto formativo es posible aplicar tres tipos diferentes de evaluación de de acuerdo con los agentes que en ella intervienen, siendo estos tipos: la autoevaluación (Griffee, 1995; Hassmen, Sams, & Hunt, 1996; Ćukušić et al., 2014), la coevaluación (Barbosa, 2010; Rodríguez, Ibarra, & García, 2013) y la heteroevaluación (Tobón, 2013b). La autoevaluación es la evaluación en la cual el mismo estudiante determina sus logros y aspectos por mejorar con base en unos indicadores (Florián, Baldiris, & Fabregat, 2010). La coevaluación es la valoración que se hace entre pares o equipos de un mismo nivel a partir de unos indicadores. La heteroevaluación consiste en la valoración de las competencias de los estudiantes por personas formadas para ello como los docentes.

La evaluación en los proyectos formativos está basada en evidencias, las cuales son valoradas mediante instrumentos tales como las rúbricas. Las rúbricas son tablas de doble entrada que buscan determinar el nivel de dominio que posee un estudiante respecto a la resolución de un problema e identificar las acciones de apoyo para lograr el mayor desempeño posible. El nivel de dominio puede ser: receptivo, resolutivo, autónomo y estratégico (Tobón, 2013a). El uso de las rúbricas en el proceso de evaluación de evidencias facilita la retroalimentación de los estudiantes y permite mejorar continuamente hasta lograr las metas esperadas (Panadero & Jonsson, 2013).

En la incorporación del proceso de evaluación se han identificado dificultades como la dependencia de los estudiantes para tomar decisiones respecto a la forma en la que deben autoevaluarse (Mcdonald et al., 2000), el temor de los profesores para compartir la responsabilidad de la evaluación con sus estudiantes (Álvarez, 2008), la imprecisión de los estudiantes para autoevaluarse (Dochy, Segers, & Sluijsmans, 1999) y la complejidad de compilar y analizar los resultados de aprendizaje para proporcionar una retroalimentación a los estudiantes (Sung, Chang, Chiou, & Hou, 2005). Con base en estas problemáticas, se identifica la necesidad de analizar el nivel de apropiación de la metodología de evaluación de las competencias que permita al estudiante ser partícipe del proceso de valoración de sus evidencias, a partir de lo cual se pueda establecer la utilidad para su formación y permita establecer una comparación entre las valoraciones de los estudiantes y los profesores.

El propósito del presente estudio consistió en evaluar la relevancia de los diferentes tipos de evaluación socioformativa en el marco de la ejecución de un proyecto formativo en línea, en estudios de pregrado. Concretamente se buscaron las siguientes metas: 1) determinar si la autoevaluación y coevaluación de los estudiantes se corresponde con la heteroevaluación del docente; 2) identificar la utilidad del empleo de las rúbricas elaboradas desde la socioformación en el proceso de valoración; 3) establecer la relevancia de la evaluación continua en el proceso formativo. Se trata de un estudio preliminar que hace parte de una investigación centrada en valorar el impacto de los proyectos formativos y la evaluación socioformativa mediante plataformas en línea.

Metodología

Tipo de Estudio

La investigación que se realizó es de tipo correlacional porque se buscó determinar las relaciones significativas entre un conjunto de variables relacionadas con la evaluación y el desempeño académico durante la ejecución de un proyecto formativo en línea. Además, se establecieron algunas diferencias significativas entre tipos de evaluación.

Participantes

El estudio se realizó con 36 estudiantes del curso en línea "Lógica Formal" del programa de Ingeniería de Sistemas y Computación de la Universidad del Quindío. La distribución por genero de los estudiantes es de 13,8% mujeres y el 86,2% hombres. La edad promedio de los estudiantes es de 20,4 años y el nivel socioeconómico es medio-bajo.

Contexto del Estudio

La asignatura en línea duró 144 horas (3 créditos académicos) y fue de naturaleza teórica-práctica. El curso tuvo como propósito desarrollar competencias orientadas al planteamiento y solución de problemas lógicos, mediante el uso de métodos de razonamientos y de deducción automática. En la Figura 1 se presenta la estructura del curso, con la relación entre el proyecto formativo, las fases del proyecto, los tipos de evaluación y las rúbricas como instrumento de evaluación. El proyecto formativo consistió en el diseño e implementación de una herramienta informática para la comprobación automática de fórmulas proposicionales, aplicando el método de los Tableros Semánticos o de Tableaux, el cual es un método de resolución automática que realiza una búsqueda semántica de modelos basados en la estructura de una formula proposicional. El problema por resolver era la construcción de una herramienta de deducción automática de fórmulas proposicionales que representará mediante un árbol su proceso de decisión.

Una vez definido el proyecto formativo, se establecieron las competencias por desarrollar en el proyecto. Las competencias genéricas fueron: (1) Trabajo en equipo y (2) Comunicación oral y escrita, mientras que las competencias específicas consistieron en: (1) Vinculación de los elementos conceptuales de la lógica formal con la resolución de problemas y (2) Argumentación de las propiedades de las fórmulas proposicionales.

Para cada fase del proyecto formativo (direccionamiento, planeación, ejecución y socialización), se establecieron las evidencias para la evaluación. El direccionamiento es la fase en la cual se acuerda entre el profesor y los estudiantes la ruta del proyecto formativo y se establece el problema por resolver y las evidencias. En la planeación los estudiantes planifican con el docente las actividades por realizar en el proyecto, de acuerdo con el problema planteado en la fase de direccionamiento. Para la fase de ejecución los estudiantes implementan el proyecto diseñado con la mediación del docente, buscando el logro de las competencias planteadas y la resolución del problema. Finalmente, en la socialización los estudiantes presentan los resultados del proyecto formativo y los comparten con la comunidad. Estas fases están fundamentadas en trabajos previos (J. Hernández, 2013; Tobón, 2013b), en los cuales se ha realizado un análisis metodológico de los proyectos formativos.

Extensión de Moodle para los Proyectos Formativos

Debido a que Moodle no tiene como tal una estructura que soporte la metodología de proyectos formativos, se construyó un módulo adicional para soportar el proceso de formación y evaluación de competencias. Se trabajó con la versión de Moodle 2.8.3. y el componente desarrollado se basó en el sistema de infraestructura WAMP (Windows, Apache 5.6.3, MySQL 5.6.21 and PHP 5.6.3). Para orientar el desarrollo e integración de los componentes desarrollados se definió una arquitectura de alto nivel, la cual se compone de tres capas: capa de presentación, capa de componentes de lógica de negocio y la capa de datos. En la arquitectura se evidencia la extensión de un bloque a nivel de lógica de negocio y la extensión a nivel de los datos. El bloque de lógica de negocio se comunica mediante un controlador AJAX con la base de datos de Moodle. La extensión a nivel de los datos permite el almacenamiento de colecciones de proyectos formativos, competencias y evidencias, las cuales se asocian a un curso específico de Moodle.

El conjunto de componentes presentados permite a un profesor estructurar un curso por competencias soportado en proyectos formativos, criterios y evidencias. Cada una de estas herramientas constituye un aporte a la formación y evaluación de competencias en Moodle, debido a que hasta el momento no se contaba con herramientas informáticas de este tipo bajo los principios de la socioformación.

Instrumento

Se aplicó un instrumento con 10 preguntas en una escala de likert de 1 a 5 (ver anexo 1). Este instrumento tuvo dos finalidades: 1) determinar el grado de valoración de la metodología de los proyectos formativos; y 2) establecer la relevancia de la evaluación continua en un proyecto formativo.

Aspectos Éticos

La participación de los estudiantes en el estudio se solicitó de manera voluntaria mediante consentimiento informado. Se les recalcó a los participantes que la información recolectada y el análisis de los datos sería usada únicamente para efectos de carácter investigativo, respetando el carácter confidencial de sus datos personales, de acuerdo con la ley colombiana estatutaria 1581 de 2012 y al decreto 1377 de 2013 del régimen general para la protección de datos personales en Colombia.

Proceso de Evaluación

Las evidencias definidas para cada fase del proyecto formativo y el tipo de evaluación se presentan en la Tabla 1.

Para cada evidencia se definieron los tipos de evaluación (autoevaluación, coevaluación y heteroevaluación). Cada una de las evidencias fue valorada mediante rúbricas por niveles de dominio. Estas rúbricas son los instrumentos de evaluación utilizados para aplicar la autoevaluación, coevaluación y heteroevaluación. El proceso de evaluación continua estuvo determinado por las actividades de valoración de las evidencias definidas en cada una de las fases del proyecto formativo. Para la evaluación se utilizaron rúbricas por niveles (anexo 2), las cuales estuvieron disponibles para los estudiantes en la plataforma Moodle. La descripción de las rubricas fueron revisadas por profesores del programa de ingeniería de sistemas y computación, con experiencia en la metodología de proyectos.

La autoevaluación se realizó de forma individual y de forma voluntaria. Para realizar la autoevaluación se creó un foro en Moodle en el cual cada estudiante debía agregar un nuevo tema, donde valorara de forma cuantitativa las evidencias que había generado. Para esa evaluación cuantitativa los estudiantes se basaron en la rúbrica por niveles de dominio, los cuales correspondían a la siguiente escala numérica: receptivo (0.0 - 2.9), resolutivo (3.0 – 3.7), Autónomo (3.8 - 4,4) y Estratégico (4.5 - 5.0). Los resultados de la autoevaluación fueron visibles para el resto de los compañeros del curso, por medio de la plataforma Moodle.

Para la coevaluación se creó un foro para que cada equipo de trabajo coevaluara el trabajo de solo otro equipo de trabajo, teniendo nuevamente como referencia la rúbrica para atribuir la calificación de acuerdo a la misma escala definida para la autoevaluación. Las notas de la coevaluación también fueron visibles para todos los integrantes del curso.

El profesor realizó la heteroevaluación de la evidencia a través de un componente adicional desarrollado para Moodle, el cual permite tanto la evaluación cuantitativa como la cualitativa de acuerdo a los niveles de dominio. A través de este componente el profesor estableció la retroalimentación que se dio a cada estudiante de acuerdo a la evidencia que este entregó. La retroalimentación es recibida por medio electrónico y es otorgada de forma solo visible para los integrantes del equipo.

Resultados

Contribución de los Proyectos Formativos

Con el propósito de contrastar si la intervención con la metodología de proyectos formativos fue exitosa, en la primera semana de clase se aplicó a los estudiantes un pretest y última semana de clase se aplicó un postest, con el instrumento de 10 preguntas. En el postest se verificó si para cada una de las preguntas del instrumento se conservaba la propiedad de homogeneidad con el pretest. Para cada pregunta se aplicaron los supuestos de aleatoriedad, homogeneidad de varianzas y la distribución normal de residuos. Como estos supuestos no se cumplieron, entonces se aplicó la prueba no paramétrica de Kruskal-Wallis, con el propósito de identificar si hubo una diferencia estadísticamente significativa en la intervención a los estudiantes mediante el proyecto formativo, para cada una de las preguntas de la encuesta. En la Tabla 2 se presentan los resultados estadísticos.

De acuerdo al p_valor obtenido en la prueba de Kruskal-Wallis para cada una de las preguntas, se puede afirmar que existe diferencia significativa entre las medianas del pretest y postest. La Figura 2 muestra un gráfico de cajas y bigotes con la diferencia entre el pretest y el postest, para la pregunta 3 en la cual se evidencia diferencia significativa con relación a la apreciación que tienen sobre la contribución de los proyectos formativos en su formación, mostrando que los estudiantes valoran el impacto de los proyectos formativos.

En la Figura 3 se presenta la diferencia significativa entre el pretest y el postest con relación a la participación de los estudiantes en el proceso de coevaluación.

Para un análisis descriptivo de los resultados de cada pregunta, en la Tabla 3, se muestra la distribución de frecuencias de la primera parte del cuestionario. La última columna representa el número de estudiantes que han contestado a dicha pregunta con un valor mayor o igual a 4, esto para identificar a la cantidad de estudiantes que están de acuerdo y totalmente de acuerdo. En esta distribución se muestra que el 75% de los estudiantes comprenden las competencias y las evidencias definidas en el proyecto formativo. El 83,4% identifica las diferentes actividades de evaluación por realizar y considera que la metodología de proyectos formativos contribuye a su formación.

La Tabla 4 muestra la distribución de frecuencias de la segunda parte del cuestionario. En esta distribución se muestra que el 83,3% comprenden las competencias a desarrollar en un proyecto formativo. El 77,8% afirmó participar en la definición de los niveles de desempeño de las evidencias. El 61,1% de los estudiantes afirmó realizar autoevaluación y el 58,3% coevaluación de evidencias.

El 83,3% considera útil para su formación coevaluar las evidencias de los compañeros y el 97,2% considera que hacer coevaluación es de utilidad para su formación. El 91,7% de los estudiantes comprende los instrumentos de evaluación para evaluar evidencias. Finalmente, el 88,9% de los estudiantes consideran que la rúbrica es adecuada para evaluar evidencias.

Para complementar los resultados descriptivos se realizó un análisis de correlaciones de los datos del cuestionario, a partir de los cuales se revela información interesante para el análisis de los resultados. En la Tabla 5, se presenta la matriz de correlación en la cual la celda marcada con rojo indica que las variables están correlacionadas y que las relaciones entre estas son directamente proporcionales. Para verificar la correlación entre las variables se determina el coeficiente de correlación y el p_valor. Por ejemplo, entre las variables p1 y p3, existe una relación directamente proporcional, pues la correlación 0,5011 es significativa y el p_valor es de 0,0018.

De las 10 variables analizadas, se identificó que la variable p8 no tiene relación con las otras variables. A continuación se destacan las correlaciones más relevantes:

  • Considerar que la metodología de proyectos formativos contribuye al desarrollo de las competencias del curso (p3), está directamente relacionado con comprender las competencias (p1), identificar las actividades de evaluación de evidencias (p2) y participar en la definición de los criterios de desempeño de las evidencias definidas en el proyecto formativo (p4).

  • Realizar coevaluación de evidencias (p6), corresponde directamente con considerar que la coevaluacion es útil para el proceso formativo (p7) y que las rúbricas son un instrumento adecuado para la evaluación de las evidencias del curso (p10).

  • Comprender los instrumentos de evaluación para la valoración de evidencias (p9) tiene relación directa con identificar las actividades de evaluación dentro del proyecto formativo (p2) y con la participación de la definición de los criterios de desempeño de las evidencias (p4).

  • El considerar la rúbrica un instrumento adecuado para la evaluación de evidencias (p10) tiene concordancia directa con la participación en la definición de los criterios de desempeño de las evidencias (p4) y con comprender los instrumentos de evaluación para la valoración de evidencias (p9).

Relación entre la Contribución del Proyecto a las Competencias y el Rendimiento Académico

Uno de los propósitos del artículo era identificar si la metodología de proyectos formativos contribuye a la formación de competencias de los estudiantes. Para ello se hizo un análisis correlacional entre la pregunta 3 y el rendimiento académico de los estudiantes. La matriz de correlaciones entre las variables se presenta en la Tabla 6. El valor de p<0,05 indica que existe una correlación directamente significativa entre la contribución al desarrollo de competencias del curso y el rendimiento académico de los estudiantes. De esto se puede inferir que la contribución a la formación de competencias está directamente relacionada con el rendimiento académico de los estudiantes.

Comparación entre la Heteroevaluación, la Autoevaluación y la Coevaluación

Para cada una de las tres evidencias de desempeño del proyecto formativo se compararon los resultados de la autoevaluación, coevaluación y heteroevaluación. Se aplicó la prueba ANOVA. Los supuestos de homogeneidad de varianzas y distribución normal de residuos solo se cumplieron para la evidencia 3; por tanto, su análisis esta diferenciado de la evidencia 1 y 2 que se hicieron por medio de la prueba de Kruskal-Wallis.

Evidencia 1 y Evidencia 2. No hubo diferencias estadísticamente significativas en las notas de la autoevaluación y la heteroevaluación en las evidencias 1 y 2. Sí hubo diferencias significativas entre las notas de coevaluación y heteroevaluación en estas evidencias. Esto se muestra en la Tabla 7.

Evidencia 3. La prueba de rangos múltiples de la Tabla 8 muestra que no hay diferencia significativa entre la nota promedio de la heteroevaluación y la nota promedio de la coevaluación. Sí hubo una diferencia estadística significativa entre los promedios de calificaciones de la heteroevaluación y la autoevaluación, como también entre los promedios de calificación de la coevaluación y la autoevaluación. El mayor promedio de calificación lo tuvo autoevaluación.

Discusión

El presente estudio aporta evidencia respecto a que la estrategia de los proyectos formativos es beneficiosa para los estudiantes por cuanto ellos valoran sus contribuciones en el desarrollo de competencias. Se pudo determinar que la valoración de esta estrategia está relacionada con un mejor rendimiento académico. En este proceso ayuda el proceso de direccionamiento donde se acuerda el problema por resolver y las evidencias que se deben entregar. Sin embargo, es necesario implementar nuevos estudios que ayuden a verificar esta relación en otros contextos educativos y sociales.

Los resultados obtenidos confirman los hallazgos obtenidos en investigaciones previas (Álvarez, 2008; Dochy et al., 1999), en los cuales los estudiantes valoran positivamente su participación dentro de un proceso de evaluación. Se encontró que hubo correspondencia entre la autoevaluación de los estudiantes y la heteroevaluación del docente (dos primeras evidencias); y entre la coevaluación de los pares y la evaluación del docente (tercera evidencia), lo cual muestra que las rúbricas ayudan a establecer criterios comunes para lograr una evaluación más objetiva, en correspondencia con unos determinados indicadores y niveles de desempeño. Esto es muy significativo si se tiene en cuenta que es la primera vez que se emplea este instrumento en un curso con los estudiantes participantes. El uso de las rúbricas está en correspondencia con lo planteado por Torres & Perera (2010) y Panadero & Jonsson (2013), lo cual permitió clarificar el proceso de valoración.

Por otra parte, el desarrollo de este trabajo confirma algunas de las dificultades manifestadas para incorporar nuevas formas de evaluación. Se evidenció que a pesar de los avances con las rúbricas, todavía es necesario seguir mejorando el proceso de evaluación para lograr una mayor objetividad tanto en la autoevaluación como en la coevaluación, lo cual está acorde con lo planteado por Dochy, Segers, & Sluijsmans (1999a). Es necesario realizar nuevos estudios en los cuales se implementen acciones para apoyar a los estudiantes en la autoevaluación y coevaluación a partir de las rúbricas, buscando que sigan con mayor rigurosidad los indicadores y descriptores para establecer los logros, los aspectos por mejorar y el nivel de desempeño logrado en una determinada evidencia.

Los estudiantes durante el desarrollo del proyecto formativo promovieron procesos de autorregulación y toma de decisiones en función del proceso de formación, lo cual contradice lo expresado por Mcdonald et al. (2000), en donde se manifestó que los estudiantes tienen dependencia para tomar decisiones respecto a la forma en la que deben autoevaluarse. El temor de los profesores para compartir la responsabilidad de la evaluación con sus estudiantes (Álvarez, 2008) no se evidenció en este trabajo, pues la metodología de proyectos formativos establece fases de participación mutua entre profesores y estudiantes.

Nota:

1 Agradecimiento. Los integrantes del presente trabajo agradecemos al Departamento Administrativo de Ciencia Tecnología e Innovación Colciencias, convocatoria 569 de 2012, por el apoyo financiero del proyecto de investigación: Entorno de aprendizaje adaptativo basado en un modelo de estudiante multidimensional, código 142556935016.

Referencias

1. Aguilar, G., & Kaijiri, K. (2007). Design Overview of an Adaptive Computer-based Assessment System. Interactive Educational Multimedia, 14, 116–130.         [ Links ]

2. Álvarez, I. (2008). La coevaluación como alternativa para mejorar la calidad del aprendizaje de los estudiantes universitarios. Revista Universitaria Para La Formación de Profesorado, 22(3), 127–140.         [ Links ]

3. Arguelles, A., & Gonczi, A. (2000). Competency based education training: a world perspective. Journal of Workplace Learning (Vol. 16). Mexico: Editorial Limusa.         [ Links ]

4. Barbosa, H. (2010). Generados de pruebas objetivas adaptadas a las preferencias de presentación de los usuarios. Universidad de Salamanca.         [ Links ]

5. Biemans, H., Nieuwenhuis, L., Poell, R., Mulder, M., & Wesselink, R. (2005). Competence-based VET in the Netherlands : background and pitfalls. Vocational Education and Training, 56(4), 523–538.         [ Links ]

6. Brahim, E. F., Mohammed, K. I., & Samir, B. (2010). A formative assessment model within the competency-based-approach for an individualized e-learning path. World Academy of Science, Engineering and Technology, 40, 208–212.         [ Links ]

7. Ćukušić, M., Garača, Ž., & Jadrić, M. (2014). Online self-assessment and students’ success in higher education institutions. Computers & Education, 72, 100–109. doi:10.1016/j.compedu.2013.10.         [ Links ]018

8. Curtis, S. M. (2011). Formative assessment in accounting education and some initial evidence on its use for instructional sequencing. Journal of Accounting Education, 29(4), 191–211. doi:10.1016/j.jaccedu.2012.06.002        [ Links ]

9. De la Orden, A. (2011). Reflections on competency based assessment in education. Revista Electrónica de Investigación Educativa, 13(2), 1–21.         [ Links ]

10. Dochy, F., Segers, M., & Sluijsmans, D. (1999). The use of self-, peer and co-assessment in higher education: A review. Studies in Higher Education, 24(3), 331–350. doi:10.1080/03075079912331379935        [ Links ]

11. Florián, B., Baldiris, S., & Fabregat, R. (2009). Adaptive evaluation based on competencies. In CEUR workshop proceeding (pp. 54–63). Brighton.         [ Links ]

12. Florián, B., Baldiris, S., & Fabregat, R. (2010). A new competency-based e-assessment data model. In Education Engineering (EDUCON) (pp. 473–480). Madrid: Ieee.         [ Links ]

13. Gikandi, J. W., Morrow, D., & Davis, N. E. (2011). Online formative assessment in higher education: A review of the literature. Computers and Education, 57(4), 2333–2351. doi:10.1016/j.compedu.2011.06.004        [ Links ]

14. Gómez, I. (2005). Competencias profesionales: una propuesta de evaluación para Las facultades de ciencias administrativas. Educación Y Educadores, 8, 45–66.         [ Links ]

15. Graf, S. (2007). Adaptivity in Learning Management Systems Focussing on Learning Styles by. Vienna University of Technology.         [ Links ]

16. Griffee, D. (1995). A Longitudinal Study of Student Feedback: self-assessment.         [ Links ]

17. Guzmán, E. (2005). Un modelo de evaluación cognitiva basado en Tests Adaptativos para el diagnóstico en Sistemas Tutores Inteligentes. Universidad de Málaga.         [ Links ]

18. Hagan, C., Konopaske, R., Bernardin, J., & Tyler, C. (2006). Predicting assessment center performance with 360-degree, top-down, and customer-based competency assessments. Human Resource Management, 45(3), 357–390. doi:10.1002/hrm        [ Links ]

19. Hassmen, P., Sams, M., & Hunt, D. (1996). Self-assessment responding and testing methods: effects on performers and observers. Perceptual and Motor Skills, 83, 1091–1104.         [ Links ]

20. Hernández, J. (2013). Procesos de evaluación de las competencias desde la socioformación. RA XIMHAI, 9(4), 11–19.         [ Links ]

21. Joosten-ten Brinke, D., van Bruggen, J., Hermans, H., Burgers, J., Giesbers, B., Koper, R., & Latour, I. (2007). Modeling assessment for re-use of traditional and new types of assessment. Computers in Human Behavior, 23(6), 2721–2741. doi:10.1016/j.chb.2006.08.009        [ Links ]

22. Keppell, M., Au, E., Ma, A., & Chan, C. (2007). Peer learning and learning-oriented assessment in technology-enhanced environments. Assessment & Evaluation in Higher Education, 31(4), 453–464. doi:10.1080/02602930600679159        [ Links ]

23. Kilpatrick, W. H. (1918). The Project Method. Teachers College, 19, 319–335.         [ Links ]

24. Kim, J. (2004). Education reform policies and classroom teaching in South Korea. International Studies in Sociology of Education, 14, 125–145.         [ Links ]

25. Macías, J. (2012). Enhancing Project-Based Learning in Software Engineering Lab Teaching Through an E-Portfolio Approach. IEEE Transactions on Education, 55(4), 502 – 507.         [ Links ]

26. Mcdonald, R., Boud, D., Francis, J., & Gonnczi, A. (2000). Nuevas perspectivas sobre la evaluación. Nuevas Perspectivas Sobre Evaluación, Unesco, Noletín de Cintefor, 149, 41–72.         [ Links ]

27. Mulder, M., Weigel, T., & Collins, K. (2006). The concept of competence in the development of vocational education and training in selected EU member states – a critical analysis. Journal of Vocational Education and Training, 59(1), 65–85.         [ Links ]

28. Olmos, S. (2008). Evaluación Formativa y Sumativa de estudiantes universitarios: Aplicación de las Tecnologías a la Evaluación Educativa. Universidad de Salamanca.         [ Links ]

29. Panadero, E., & Jonsson, A. (2013). The use of scoring rubrics for formative assessment purposes revisited: A review. Educational Research Review, 9, 129–144. doi:10.1016/j.edurev.2013.01.002        [ Links ]

30. Rodríguez, G., Ibarra, S., & García, E. (2013). Autoevaluación , evaluación entre iguales y coevaluación : conceptualización y práctica en las universidades españolas. Revista de Investigación en Educación, 11(2), 198–210.         [ Links ]

31. Hernández, R., Fernández, C., & Baptista, M. P. (2010). Metodología de la investigación (Quinta edición). México: Mcgraw-Hill.         [ Links ]

32. Sung, Y., Chang, K.-E., Chiou, S.-K., & Hou, H.-T. (2005). The design and application of a web-based self- and peer-assessment system. Computers & Education, 45, 187–202. doi:10.1016/j.compedu.2004.07.002         [ Links ]

33. Tobón, S. (2001). Aprender a emprender: un enfoque curricular. Colombia: Funorie.         [ Links ]

34. Tobón, S. (2002). Modelo pedagógico basado en competencias. Medellín: Funorie.         [ Links ]

35. Tobón, S., Pimienta, J.H., & García F., J.A. (2010). Secuencias didácticas: aprendizaje y evaluación de competencias. México: Pearson.         [ Links ]

36. Tobón, S. (2013a). Formación integral y competencias (4ta. Ed.). Bogotá: ECOE.         [ Links ]

37. Tobón, S. (2013b). La evaluación de las competencias en la educación básica (2da. Ed.). México: Santillana.         [ Links ]

38. Tobón, S. (2014a). Evaluación de competencias mediante rúbricas. México: CIFE.         [ Links ]

39. Tobón, S. (2014b). Proyectos formativos: teoría y metodología. México: Pearson.         [ Links ]

40. Torres, J., & Perera, V. (2010). La rúbrica como instrumento pedagógico para la evaluación de los aprendizajes. Revista de Medios Y Educación, 36, 141–149.         [ Links ]

41. Urquiza, A. (2009). Creación de un marco de competencias para la evaluación del rendimiento de los gestores de sistemas de información en las grandes organizaciones. Universidad de Alcalá.         [ Links ]

42. Vaca, J. M., Agudo, J. E., & Rico, M. (2013). Evaluando competencias en ingeniería : un eportfolio basado en Moodle. In XV Simposio Internacional de Tecnologías de la Información y las Comunicaciones en la Educación (SINTICE 2013) (pp. 67–74). Madrid.         [ Links ]

43. Van den Bergh, V., Mortelmans, D., Spooren, P., Van Petegem, P., Gijbels, D., & Vanthournout, G. (2006). New assessment modes within project-based education - the stakeholders. Studies in Educational Evaluation, 32(4), 345–368. doi:10.1016/j.stueduc.2006.10.005        [ Links ]

44. Villardón, L. (2006). Evaluación del aprendizaje para promover el desarrollo de competencias. Educatio Siglo XXI, 24, 57–76.         [ Links ]

45. Zabalza, M. (2007). Competencias docentes del profesorado universitario (Narcea.). Madrid.         [ Links ]

Autores:

Sergio Cardona

Ingeniero de sistemas de la Universidad del Valle (Cali), Magister en Ingeniería de la Universidad EAFIT (Medellín), estudiante de Doctorado en ingeniería UPB Medellín. Profesor asociado del programa de Ingeniería de Sistemas y Computación de la Universidad del Quindío – Colombia. Miembro del grupo de investigación Informática y Tecnologías Emergentes (ITEM). Trabaja en las líneas de investigación Enseñanza asistida por computador, sistemas adaptativos educativos, formación por competencias

Jeimy Vélez

Ingeniera de Sistemas de la Universidad Industrial de Santander, Especialista en Ingeniería de Software y Doctora de la Universidad de Girona, España. Profesora titular de la Universidad Pontificia Bolivariana Seccional Montería. Directora del grupo de Investigación ITEM. Trabaja en las líneas de investigación Enseñanza asistida por computador, sistemas adaptativos educativos, formación por competencias, objetos virtuales de aprendizaje y Gestión del Conocimiento.

Sergio Tobón

Posdoctorado en competencias docentes. Doctor en Modelos Educativos. Docente e investigador en el Centro Universitario CIFE, Cuernavaca, México. Coordinador del doctorado en Socioformación y Sociedad del Conocimiento. Sus principales líneas de investigación son: 1) socioformación y desarrollo del talento; 2) cultura, tecnología y sociedad del conocimiento; 3) diseño y gestión curricular desde la socioformación; 4) mediación socioformativa; y 5) diseño y validación de instrumentos para evaluar competencias.

Anexo 1. Instrumento aplicado a los estudiantes (pretest y postest)

Se realiza una encuesta a estudiantes del curso de Lógica Matemática, para que compartan sus opiniones sobre la experiencia de trabajar bajo la metodología de Proyectos Formativos. La información que se recolecte será para efectos de investigación y tendrá carácter confidencial.

Entiendo que estas experiencias forman parte de las actividades programadas para el curso y complementan mi formación en el campo de la Lógica Matemática. Entiendo que este ejercicio será tomado para propósitos de investigación y por lo tanto el (los) investigador(es) realizarán la recopilación, análisis y reporte de datos de los ejercicios. Entiendo también que cuando los datos se recogen y analizan, mi nombre será eliminado y que esta información no será utilizada en cualquier momento durante el análisis o cuando se presenten los resultados. Entiendo que participo de esta actividad de manera voluntaria reconociendo que hace un aporte a mi formación profesional.

ANEXO 2. Rúbricas de evaluación

Evidencias de la fase de ejecución