Servicios
Servicios
Buscar
Idiomas
P. Completa
Diseño y validación de un instrumento para evaluar la retroalimentación asertiva en educación normal
Ma. de la Luz Berlanga Ramírez; Luis Gibran Juárez Hernández
Ma. de la Luz Berlanga Ramírez; Luis Gibran Juárez Hernández
Diseño y validación de un instrumento para evaluar la retroalimentación asertiva en educación normal
Design and validation of an instrument to evaluate assertive feedback in Normal Education
IE Revista de Investigación Educativa de la REDIECH, vol. 11, pp. 1-23, 2020
Red de Investigadores Educativos Chihuahua A. C.
resúmenes
secciones
referencias
imágenes

Resumen: La retroalimentación asertiva es el proceso de evaluación en el cual el docente brinda, de forma respetuosa y cordial, datos al discente acerca de su nivel de dominio de aprendizaje. A pesar de su relevancia, no existe una propuesta instrumental para su evaluación. Por lo anterior, se diseñó un dispositivo como rúbrica analítica, la cual se organizó en una sola dimensión (ejecución de la retroalimentación). Para su validación se sometió a revisión de expertos y juicio de expertos. Posteriormente se efectuó una prueba piloto a dos grupos con el objetivo de evaluar la asequibilidad. Como resultados principales, los expertos efectuaron sugerencias de pertinencia y redacción; por su parte, en el juicio, la totalidad de ítems mostraron su validez de contenido en los criterios de pertinencia y redacción (V>0.75; LI>0.60). En la aplicación de la prueba piloto se determinó un tiempo promedio de resolución aceptable (8 y 15 minutos) y la comprensión de instrucciones e ítems fue de un nivel excelente a aceptable. Finalmente, para el segundo grupo se obtuvo un valor óptimo de confiabilidad (Alfa de Cronbach: 0.906; IC al 95%: 0.818 . 0.963). Se concluye que los aspectos que constituyen al instrumento son pertenecientes y representativos del concepto a evaluar.

Palabras clave:evaluación formativaevaluación formativa,evaluación socioformativaevaluación socioformativa,retroalimentación asertivaretroalimentación asertiva,rúbrica socioformativarúbrica socioformativa,validación de instrumentovalidación de instrumento.

Abstract: Assertive feedback is the evaluation process in which the teacher, respectfully, and cordially, provides data to the student about their level of learning proficiency. Despite its relevance, there is no instrumental proposal for its evaluation. Therefore, a device was designed as an analytical tool, which was organized in a single dimension (execution of feedback). For validation, it was subjected to expert review. Subsequently, a pilot test was carried out on two groups to evaluate affordability. As main results, the experts made suggestions; accordingly, for their part in the trial, all the items showed their content validity in the relevance and wording criteria (V> 0.75; LI> 0.60). In the application of the pilot test, an acceptable average resolution time (8 and 15 minutes) was determined and the understanding of instructions and items was of an excellent to an acceptable level. Finally, for the second group, an optimum reliability value was obtained (Cronbach’s Alpha: 0.906; 95% CI: 0.818 + 0.963). We concluded that the aspects that constitute the instrument belong to and represent the concept to be evaluated.

Keywords: formative evaluation, socioformative evaluation, assertive feedback, socioformative rubric, instrument validation.

Carátula del artículo

Diseño y validación de un instrumento para evaluar la retroalimentación asertiva en educación normal

Design and validation of an instrument to evaluate assertive feedback in Normal Education

Ma. de la Luz Berlanga Ramírez*
Escuela Normal Superior del Estado de Coahuila, México
Luis Gibran Juárez Hernández**
Centro Universitario CIFE, México
IE Revista de Investigación Educativa de la REDIECH, vol. 11, pp. 1-23, 2020
Red de Investigadores Educativos Chihuahua A. C.

Recepción: 08 Noviembre 2019

Aprobación: 23 Abril 2020

Publicación: 01 Junio 2020

Introducción

La retroalimentación ha sido concebida como la información brindada acerca de la actuación de los individuos; en otras palabras, sobre lo que hace y cómo lo efectúa (von Bertalanffy, 1940). En el ámbito educativo aparece cuando la evaluación permite la comprobación de los progresos del discente desde el inicio y hasta el final del proceso de aprendizaje, con el propósito de rectificar oportunamente aquellos fallos u obstáculos presentados. Es fundamental subrayar que la relevancia de la retroalimentación en los procesos de evaluación es incrustada bajo el enfoque constructivista y, en épocas más recientes, en la evaluación formativa (Scriven, 1967) y en la evaluación orientada al aprendizaje (Carless, 2007). Los enfoques que sustentan la evaluación formativa son (citados por Bizarro, Sucari y Quispe-Coaquira, 2019): la evaluación de desempeños (Breckler y Wiggins, 1989; Resnick y Collins 1996; Resnick y Resnick, 1992; Wiggins, 1992; Frederiksen y Collins, 1989), evaluación auténtica (McTighe y Wiggins, 2012; Condemarín y Medina, 2000; Wiggins, 1989), evaluación para el aprendizaje (Stiggins, 2002; Black y Wiliam, 1998), corriente francófona (Allal y Mottier, 2005; Allal y Pelgrims, 2000; Perrenoud, 2007; Anijovich, 2010) y evaluación de desarrollo (Forster y Masters, 1996).

En relación con la evaluación formativa, sus preceptos han estado planteados en las reformas educativas en México (SEP, 2013; 2018) y, desde esta perspectiva, la retroalimentación consiste en la información acerca de los contenidos, el desempeño y la comprensión del discente a partir de la experiencia del aprendizaje (García, Lozano y Gallardo, 2017; Hattie y Timperley, 2007). En el marco de la evaluación orientada al aprendizaje, la retroalimentación constituye el proceso de orientación interactiva en el cual el docente y el discente toman el papel de evaluadores para consolidar la evaluación de los aprendizajes, de acuerdo con lo señalado por Carless (2015). En este sentido, Carless (2007) expone que la retroalimentación se facilita en momentos oportunos para asegurar que el discente mejore su desempeño en el proceso de aprendizaje, puesto que si ocurre hasta el final la evaluación pierde sentido y resulta inefectiva.

Cabe mencionar que la evaluación orientada al aprendizaje (Carless, 2007) tiene sus cimientos en la evaluación formativa (Scriven, 1967), por ende, converge en diversos aspectos con la retroalimentación: la importancia que le otorgan durante el proceso de evaluación; que sea pertinente, inmediata, efectiva y relevante (Black y Wiliam, 2004; Gibbs y Simpson, 2004; Hebles, Alonso, Alvarez y Villardon, 2017; Osorio y López, 2014; Melmer, Burmaster y James, 2008), y que el objetivo central sea proporcionar oportunidades al discente para mejorar sus evidencias de aprendizaje y en tareas futuras (Irons, 2007; Knight, 2006).

Villegas, González y Gallardo (2018) afirman que si bien el enfoque por competencias es actualmente promovido en el ámbito educativo, y en este la evaluación formativa, persisten debilidades en su praxis, sobre todo al momento de ejecutar la retroalimentación. Por otro lado, Contreras y Zúñiga (2019), Anijovich (2010) y Martínez (2013) detallan los diferentes códigos que los docentes emplean para retroalimentar, siendo los más comunes marcar errores, anotar la respuesta correcta, realizar comentarios generales, formular frases con pocos datos relevantes y sin trascendencia, información que justifique la calificación otorgada; también señalan que la retroalimentación no siempre se genera bajo un clima de confianza. De igual forma, Bizarro, Sucari y Quispe-Coaquira (2019) coinciden con la Secretaría de Educación Pública (2013) al mencionar que emitir elogios falsos o comunicar la retroalimentación de modo negativo son otras maneras recurrentes en las prácticas docentes.

Ante ello emerge una nueva forma de retroalimentar, propuesta por el enfoque socioformativo. Al respecto, Tobón (2017) apunta que la evaluación socioformativa es un proceso continuo de diagnóstico, de retroalimentación y de apoyo para resolver problemas de contexto y desarrollar el talento del individuo con la finalidad de involucrarse en la sociedad del conocimiento. De manera específica, este autor precisa que la evaluación socioformativa se constituye de autoevaluación, coevaluación y heteroevaluación, teniendo como base la elaboración de productos (evidencias) e indicadores (instrumentos) que posibiliten la metacognición, a través del trabajo colaborativo y el pensamiento complejo. Asimismo lo plantean Bizarro, Sucari, Quispe-Coaquira (2019) en otras palabras, pero desde la evaluación formativa basada en competencias. Por tal razón se advierte que la retroalimentación suscrita en el enfoque socioformativo coincide con la formativa.

El enfoque socioformativo prospecta la retroalimentación asertiva, a la que se comprende como la evaluación consciente, respetuosa y cordial de las competencias del discente durante el proceso de aprendizaje (Tobón, 2013). Resulta primordial subrayar que este modelo de retroalimentación incorpora algunas características ya indicadas, por ejemplo, ser inmediata, continua y relevante (López, 2010); factible, frecuente, descriptiva, que se ejecute en breve lapso (Hattie y Timperley, 2007); cualitativa, auténtica y lúcida (Tillema, Leenknecht y Segers, 2011).

Tobón (2013) plantea las particularidades de la retroalimentación asertiva e indica que se efectúa oportunamente, inicia destacando logros y aspectos positivos, es imparcial, los errores se valoran a modo de oportunidad de mejora, se conforma de una sólida argumentación y explicación, es ecuánime, brinda el espacio para realizar las mejoras pertinentes; además se genera en un clima de cordialidad y respeto. Por otro lado se advierte la relación entre la retroalimentación socioformativa con algunos de los derechos asertivos expuestos por Aguilar (2007): el derecho a ser tratado con respeto y dignidad, el derecho a equivocarse y a responsabilizarse de ello. También se identificaron algunos de los derechos asertivos en varios de los rasgos del docente que implementa la retroalimentación asertiva, informa cordialmente los aspectos a mejorar, escucha activamente al discente, respeta sus sentimientos y pensamientos, los comprende cuando narran sus experiencias obtenidas de la evaluación, no busca intimidarlos partiendo de la evaluación sino pretende que se asuma en calidad de un proceso de crecimiento (Tobón, 2013).

Aunque se han reconocido los diferentes tipos de retroalimentación, las propuestas instrumentales para su evaluación se inclinan a la formativa (Asún, Fraile, Aparicio y Romero, 2020; García, Gil-Mediavilla, Álvarez y Casares, 2020; De la Torre-Laso, 2019; Aguilar y Sánchez, 2018; Canabal y Margalef, 2017; García, Lozano y Gallardo, 2017; Aguilar, Rodríguez, Baeza y Méndez, 2016; López y Osorio 2016; Hernández, González, Guzmán y Tobón, 2015; Martínez y Mercado, 2015; Lozano y Tamez, 2014; Coll, Rochera, Gipsert y Díaz, 2013; Ion, Silva y Cano 2013; Alirio y Zambrano 2011; Bitran, Beltrán, Riquelme, Padilla, Sánchez y Moreno, 2010), Paoloni, Rinaudo y González-Fernández, 2010). En la siguiente tabla se expone la instrumentación empleada en los hallazgos localizados acerca de la retroalimentación (ver tabla 1).

Tabla 1.
Instrumentos para evaluar la retroalimentación.

Fuente: Construcción propia.

Entre las propuestas instrumentales se aprecian dos perspectivas, la del discente y la del docente. Tocante a la del discente para evaluar la retroalimentación que el docente realiza, se encontraron las contribuciones de Bitran et al. (2010), Paoloni, Rinaudo y González-Fernández (2010), Alirio y Zambrano (2011), Hebles, Alonso, Alvarez y Villardon (2017), López y Osorio (2016), Aguilar y Sánchez (2018), De la Torre-Laso (2019), Asún, Fraile, Aparicio y Romero (2020), e igualmente las de García, Gil-Mediavilla, Álvarez y Casares (2020). En cambio, las aportaciones de García y Cabrero (2011), Lozano y Tamez (2014), así como también las de Martínez y Mercado (2015), giraron alrededor de la visión del docente. Equivalentemente, se contemplaron aquellas que incluían los dos enfoques (Contreras y Zúñiga, 2019; Sánchez y Manrique, 2018; Canabal y Margalef, 2017; García, Lozano y Gallardo, 2017; Villegas, González y Gallardo, 2018; Ion, Silva y Cano, 2013). Cabe aclarar que no se localizaron propuestas instrumentales que evaluaran la retroalimentación asertiva, no obstante, algunas propuestas abordaron aspectos de asertividad (Acosta, Tobón y Loya, 2015; Triana y Velásquez, 2014; León y Vargas, 2009; Monje, Camacho, Rodríguez y Carvajal, 2009).

Acorde a esto último surge la necesidad de crear un instrumento para la evaluación de la retroalimentación asertiva efectuada por los docentes durante el proceso de evaluación. Por ende, las metas que se pretendieron alcanzar mediante el presente estudio fueron: 1) delinear un instrumento pertinente y práctico a fin de evaluar la retroalimentación asertiva en educación normalista con base en la evaluación socioformativa; 2) efectuar la validación de contenido del instrumento con un grupo de jueces para determinar su grado de relevancia y coherencia teórica, y por último 3) aplicación de una prueba piloto a dos grupos con el propósito de analizar la adecuación y compresión del instrumento y su confiabilidad.

Metodología
Tipo de estudio

La investigación se inscribe en el estudio instrumental, el cual consiste en el desarrollo de pruebas/instrumentos, en la exploración y análisis de sus propiedades psicométricas (Ato, López y Benavente, 2013; Montero y León, 2007); de manera específica, en el presente se analizó la validez de facie y contenido, así como la confiabilidad.

Procedimiento

El estudio comprendió cuatro fases: 1) diseño del instrumento, 2) revisión por expertos, 3) análisis de la validez de contenido y 4) aplicación de una prueba piloto con grupos, con el objetivo de determinar la adecuación del instrumento y efectuar un análisis inicial de confiabilidad del instrumento.

Diseño del instrumento

Se procedió a atender tres atributos en su confección: a quiénes va dirigido, el marco teórico que integró a los elementos de los ítems para lograr la pertinencia y la congruencia con el constructo que se desea medir, e igualmente el formato que posibilitara la evaluación de la retroalimentación asertiva generada por el docente. El instrumento está dirigido a discentes normalistas con la intención de conocer su perspectiva en relación con la retroalimentación brindada por los docentes del semestre en curso. Cabe señalar que el instrumento se organizó en una sola dimensión, ejecución de la retroalimentación.

Los primeros ítems corresponden al enfoque de la retroalimentación, por lo que se consideraron las contribuciones de García y Cabrero (2011) que referían a dos orientaciones centrales, la sumativa y la formativa, pero se añadió otra, la socioformativa (Tobón, 2013), por promover la retroalimentación asertiva. En los demás ítems se consideraron diversas tipificaciones de la retroalimentación (Contreras y Zúñiga, 2019; Sánchez y Manrique, 2018; Canabal y Margalef, 2017; García, 2015; Martínez-Rizo, 2013; Farahman y Masoud, 2011; Wiggins, 2011; Hattie y Timperley, 2007; Torrance y Pryor, 1998; Tunstall y Gipps, 1996) y también se contemplaron varios criterios que se pretenden analizar: el tiempo en el que se otorga la retroalimentación, la frecuencia, el nivel de información, el papel del docente, el proceso en sí, rasgos de la retroalimentación asertiva (Tobón, 2013), rasgos de la retroalimentación efectiva (García, 2015; Valdivia, 2014) y de la proalimentación (García, 2015). Asimismo se incluyeron las características del docente que emplea la retroalimentación asertiva (Tobón, 2013) y la clasificación de conductas asertivas y no asertivas del docente propuesta por Townend (2007).

Los últimos ítems atienden aspectos como el papel del discente durante el proceso de retroalimentación (García et al., 2020; Valdivia, 2014; Tobón, 2013), la utilidad que le da (Villegas, González y Gallardo, 2018; López y Osorio, 2016; Tobón, 2013), la relevancia que le otorga (Valdivia, 2014) y su trascendencia en la formación de docentes (Contreras y Zúñiga, 2019; Alirio y Zambrano, 2011).

Por lo que concierne al tipo de instrumento, se eligió la rúbrica socioformativa debido a que constituye un dispositivo de evaluación con criterios cualitativos que permiten la caracterización de la retroalimentación realizada por el docente durante el proceso de la evaluación del aprendizaje (Tobón, 2017). Hernández, Tobón y Guerrero-Rosas (2016) aseveran que las rúbricas socioformativas posibilitan la precisión del nivel de desempeño en la solución de conflictos o problemas a resolver. La elaboración del instrumento se basó en los elementos de la rúbrica analítica, dado que establece criterios concretos con descriptores detallados y cualitativos para un diagnóstico con perspectiva multidimensional (Fraile, Pardo y Panadero, 2016; Murga-Menoyo, 2015). En atención a ello, la rúbrica socioformativa diseñada se compone de 16 ítems secuenciados y para cada uno se consideraron los niveles de desempeño propuestos por la evaluación socioformativa: preformal, receptivo, resolutivo, autónomo y estratégico. Correlativamente, la construcción de los descriptores se apoya en la taxonomía del mismo enfoque (Tobón, 2017) (ver tabla 2).

Tabla 2.
Dimensión y preguntas del instrumento.

Fuente: Construcción propia.

Revisión por expertos

El instrumento se sometió a la revisión de expertos con la finalidad de realizar las mejoras pertinentes con base en sus observaciones. A esta fase se le domina “validación de facie”, “validez de presentación” o “validez aparente”, y tiene por objetivo la verificación de los ítems pertenecientes al fenómeno o constructo, su relevancia, su redacción y si son comprensibles (Carrillo-Sierra, Forgiony-Santos, Rivera-Porras, Bonilla-Cruz, Montánchez-Torres y Alarcón-Carvajal, 2018; Salas-Razo y Juárez-Hernández, 2019; Lagunes, 2017; Carvajal, Centeno, Watson, Martínez y Sanz Rubiales, 2011; Buela-Casal y Sierra, 1997). Con relación a la selección de los expertos, se consideraron datos acerca de su experiencia significativa en el área, conocimiento del enfoque socioformativo, grado académico mínimo de maestría y contar con experiencia en el diseño y/o validación de un instrumento de investigación. A partir de este proceso se seleccionó a cinco expertos (ver tabla 3).

Tabla 3.
Perfil de los expertos.

Fuente: Construcción propia.

Juicio de expertos y análisis de validez de contenido

El análisis de la validez de contenido se efectuó mediante el juicio de expertos (Ford, 2018; Carrion, Soler y Aymerich, 2015). A este aspecto, Ding y Hershberger (2002) exponen que la validez de contenido corresponde al grado en que el instrumento manifiesta el dominio del fenómeno a medir. Es primordial considerar que la validación de contenido de un instrumento mediante el juicio de expertos articula una serie de elementos que requieren de una atención especial. En este sentido, los aspectos de mayor importancia son la selección de expertos que integrarán el juicio, el empleo de una escala que acceda la evaluación cuantitativa y el análisis de los resultados de esta evaluación mediante coeficientes pertinentes para tal efecto (Ford, 2018; Sireci, 1998; Yaghmaie, 2003). Al atender estos aspectos, la selección de los jueces se ejecutó bajo criterios formales: experiencia relevante en el área, grado académico y práctica en el diseño y/o validación de un instrumento de investigación, el enfoque de la evaluación (cualitativo-cuantitativo) y el empleo de un índice de relevancia (V de Aiken).

Acorde a estos puntos, para el juicio de expertos se establecieron criterios, los cuales se eligieron en concordancia con los datos signalíticos considerados para la elección de los expertos. De la selección se eligió a 15 jueces expertos (ver tabla 4). El juicio de expertos tuvo un enfoque de evaluación cuali-cuantitativo. Para la evaluación se empleó el instrumento “Escala de juicio de expertos” (CIFE, 2018), en el cual se incluye una sección donde los expertos expresaron sugerencias oportunas a la pertinencia y redacción de los descriptores e ítems y la eliminación, unión o creación de ítems; mientras que para la evaluación cuantitativa se suscribe una escala Likert con una longitud de 1 a 4, donde 4 equivale a la evaluación más alta para pertinencia y redacción. Mediante esta evaluación se calculó el coeficiente de validez de contenido V de Aiken y el intervalo de confianza al 95% (Penfield y Giacobbi, 2004). Para considerar a un ítem como válido el valor de la V de Aiken debe ser superior a 0.75 (Bulger y Housner, 2007; Penfield y Giacobbi, 2004) y el valor en el límite inferior del intervalo de confianza no debería de ser menor de 0.60. Ítems con valores menores a los indicados fueron sujetos a una revisión a detalle, optando por su eliminación o su mejora de acuerdo con las recomendaciones de los jueces.

Tabla 4.
Perfil de jueces expertos.

Fuente: Construcción propia.

Aplicación de la prueba piloto

La rúbrica analítica se aplicó a dos grupos, el primero compuesto por seis discentes normalistas y el segundo por 15 discentes normalistas (ver tabla 5). Para ambos grupos se identificó el grado de comprensión y satisfacción en torno a los elementos que integran el instrumento (instrucciones, ítems, niveles de desempeño, descriptores) y se determinó el tiempo de resolución a través de la encuesta de satisfacción con el instrumento (CIFE, 2018); mientras que para el segundo grupo se determinó la confiabilidad por medio del coeficiente Alfa de Cronbach (Cronbach, 1951) teniendo en cuenta los criterios para el valor del coeficiente (Taber, 2018; Quero-Virla, 2010; Cervantes, 2005). Al respecto, ante la premisa de que el coeficiente estimado presenta inestabilidad con muestras pequeñas (Charter, 2003) se calculó el intervalo de confianza al 95%, de acuerdo con lo estipulado por Koning y Franses (2003), contrastando el valor obtenido del intervalo inferior con los valores mencionados como permisibles.

Tabla 5.
Datos sociodemográficos de los grupos.

Fuente: Construcción propia.

Resultados
Revisión de expertos

La revisión de expertos contribuyó a la realización de mejoras al instrumento. Los ajustes se guiaron bajo los criterios de pertinencia y redacción de los ítems. En relación con la pertinencia, se consideró el enfoque del programa de estudios en el segundo ítem y se agregaron los rasgos del perfil de egreso en el último cuestionamiento. Además de ejecutar esas modificaciones, se sustituyó el vocablo “error” por “áreas de oportunidad”, con la finalidad de asegurar la congruencia con el constructo a evaluar. Otro cambio fue evitar la ausencia de una acción en los descriptores de los niveles preformal y receptivo, en virtud de lo propuesto por la taxonomía socioformativa (Tobón, 2013), que plantea la existencia de una noción o algo mínimo de una acción, en el grado más básico. Concerniente a la redacción, se agregaron las palabras “asignatura” y “curso” en algunos de los ítems debido a que no en todos los programas educativos se organizan por módulo. De igual manera se atendió la recomendación de no precisar el tiempo para otorgar la retroalimentación referido en el cuarto ítem, dado que varía según las normas internas de evaluación de los planteles educativos.

Juicio de expertos y análisis de validez de contenido

En la evaluación cualitativa solamente un juez efectuó sugerencias de mejora, correspondientes a la redacción de algunos descriptores. Las sugerencias del juez se especificaron en corregir errores de omisión de letras y eliminar la preposición “en” al iniciar los descriptores; ante ello, recomendó comenzar con el verbo operador. Conexo al análisis de la evaluación cuantitativa, se indica que todos los ítems fueron validados en los criterios evaluados (V>0.75; LI>0.60) (ver figuras 1 y 2).


Figura 1.
Resultados del análisis cuantitativo mediante la V de Aiken y sus intervalos de confianza al 95% por ítem para el criterio de pertinencia.


Figura 2.
Resultados del análisis cuantitativo mediante la V de Aiken y sus intervalos de confianza al 95% por ítem para el criterio de redacción.

Resulta fundamental destacar que los ítems en pertinencia presentaron valores satisfactorios (V>0.80; LI>0.70) (ver figura 1). En cuanto a la redacción, la totalidad de ítems presentó valores satisfactorios (V>0.80; LI>0.60) (ver figura 2), sin embargo el segundo ítem presentó un valor cercano al mínimo aceptado (V: 0.77), pero el valor inferior del intervalo de confianza fue superior al mínimo aceptado (LI: 0.63) (ver figura 2). Las mejoras realizadas al segundo ítem radicaron en cambiarlo de lugar y pasar a ser el primero, replantearlo para conocer la percepción del discente, evitar la negación o ausencia de una acción en el descriptor del nivel resolutivo y sintetizar el descriptor del nivel receptivo. Si bien todos los ítems fueron validados, las sugerencias para mejorar la redacción y compresión de los ítems y descriptores se consideraron al concretar la versión final del instrumento (ver tabla 6).

Tabla 6.
Recomendaciones emitidas por jueces.

Fuente: Construcción propia.

Aplicación de la prueba piloto

Para el primer grupo el tiempo promedio de resolución del instrumento fue de ocho minutos, mientras que para el segundo grupo fue de 15 minutos. En lo que atañe a la comprensión, aceptación y satisfacción del instrumento e ítems, el primer grupo lo valoró de excelente grado (ver tabla 7), sin embargo el segundo grupo valoró la comprensión de los ítems en un grado aceptable. Frente a esta valoración, el instrumento fue revisado con el afán de mejorar la compresión de los ítems y los descriptores de los niveles de desempeño. En lo que atañe a la confiabilidad, se obtuvo un valor óptimo (Alfa de Cronbach: 0.906; IC al 95%: 0.818 + 0.963).

Tabla 7.
Resultados de la encuesta de satisfacción de los dos grupos.

Fuente: Construcción propia.

Posterior al proceso de revisión, juicio de expertos y aplicación de la prueba piloto se presenta la versión final del instrumento “Rúbrica socioformativa para evaluar la retroalimentación asertiva en educación Normal” (ver figura 3).


Figura 3.
Versión final del instrumento “Rúbrica socioformativa para evaluar la retroalimentación asertiva en educación Normal”.

Discusión

La retroalimentación es considerada aspecto fundamental de la evaluación y del proceso formativo por sus múltiples beneficios y trascendencia en aras de la construcción de aprendizajes del discente, igual que en su formación integral en dos ámbitos, el emocional y el aprendizaje (Canabal y Margalef, 2017). De los diferentes modelos de la retroalimentación destaca la asertiva, ya que sugiere elementos teóricos y metodológicos de mayor precisión que posibilitan la ejecución de la retroalimentación con notable claridad en las prácticas evaluativas (las características del docente, ejes centrales que orienten su praxis y las pautas para realizarla).

Para su conceptualización se consideraron diversos aportes (Bizarro, Sucari, Quispe-Coaquira, 2019; Sánchez y Manrique, 2018; Villegas, González y Gallardo 2018; Canabal y Margalef, 2017, García, Lozano y Gallardo, 2017; López y Osorio, 2016; Martínez y Mercado, 2015; Valdivia, 2014; Ion, Silva y Cano, 2013; Tobón, 2013, Alirio y Zambrano, 2011). De igual manera se tomaron en cuenta otros de índole teórica-metodológica que fueron complementándose unos con otros; por ejemplo, la pertinencia de la retroalimentación, si se origina con base en un instrumento de evaluación, el planteamiento de metas y normas, la comunicación entre docente y discente durante la retroalimentación (Tobón, 2013). Un aspecto conveniente de subrayar es detectar aquellos rasgos que no pertenecen a la retroalimentación asertiva; se contemplaron los comportamientos de conductas no-asertivas del docente propuestos por Townend (2007).

Tobón (2013) asienta que la retroalimentación asertiva conforma uno de los ejes esenciales en la evaluación de las competencias de cualquier nivel educativo. Es relevante indicar que la unión de la retroalimentación asertiva con la proalimentación (García, 2015) representa un proceso más específico que serviría, a modo de guía, al docente y al discente para efectuar una retroalimentación efectiva, por lo que se pudiera considerar en calidad de una vía óptima para llevar a cabo la evaluación de los aprendizajes. Asimismo estos autores apuntan que la importancia de la retroalimentación asertiva reside en garantizar la calidad de la información que a través de ella se obtiene con los propósitos de facilitar las mejoras correspondientes en las evidencias de aprendizaje, así como brindar elementos que propicien la autorregularización en el discente para ser autodidacta. Todo lo anterior es posible bajo un clima de confianza y de respeto (Tobón, 2013). De forma similar lo marca la SEP (2013) al requerir que se establezcan normas de respeto a fin de propiciar la crítica constructiva entre los alumnos, pauta en la que coincide con Tobón (2013).

A pesar de la importancia que tiene la retroalimentación asertiva en los procesos de evaluación, hasta el momento no existía una propuesta instrumental a través de la cual se evaluara su ejecución, así como tampoco se localizaron investigaciones en educación normalista. En respuesta a ello, el diseño del instrumento “Rúbrica socioformativa para evaluar la retroalimentación asertiva en educación Normal” que se presenta constituye un aporte al área. El instrumento incorpora lo propuesto por Tobón (2013) y por Berlanga-Ramírez y Juárez-Hernández (2020) mediante la atención en la retroalimentación asertiva: su ejecución. Se buscó identificar en qué hacen énfasis los docentes normalistas al retroalimentar, por lo que se fundamentó en las contribuciones de Canabal y Margalef (2017), López y Osorio (2016) y Martínez y Mercado (2015). Además se contemplaron los elementos y las condiciones necesarias para efectuarla, verbigracia, la frecuencia, calidad y el proceso (Contreras y Zúñiga, 2019). Por otra parte se atendió la fusión entre la retroalimentación asertiva (Tobón, 2017) con la proalimentación (García, 2015) en los niveles de mayor ponderación, autónomo y estratégico, dado que conforman el cumplimiento de lo deseable.

Referente a la elección del instrumento, se optó por la rúbrica analítica socioformativa porque facilita la valoración de las metas de desempeño, se centra en el planteamiento de problemas de contexto así como en su resolución, comprende la evaluación cualitativa y cuantitativa, involucra distintos tipos de evaluación y aporta elementos que facilitan la mejora de la praxis educativa (Hernández, Tobón y Guerrero-Rosas, 2016), lo cual es altamente pertinente para el contexto normalista. En torno al planteamiento de los ítems, fueron formulados de tal modo que contribuyeran al cumplimiento de las metas del instrumento, siendo la identificación el grado de asertividad en la retroalimentación y su trascendencia en educación normal, e igualmente se propone la retroalimentación asertiva en las prácticas docentes con la finalidad de ejecutar la evaluación formativa basada en el enfoque socioformativo y su importancia en la formación de docentes.

Otro aspecto relevante a señalar fue el empleo de la taxonomía socioformativa, ya que mediante esta se atendieron los niveles de desempeño y la elaboración de los descriptores en cada uno de estos. Las bondades de los niveles de desempeño (preformal, receptivo, resolutivo, autónomo y estratégico) y los descriptores de la rúbrica socioformativa radican en que permite la orientación a los discentes normalistas para que reconozcan la gradualidad de la actuación del docente en la evaluación para así asegurar que estos respondan con mayor conciencia y no irreflexivamente.

Respecto al proceso de revisión y validación en contenido, se especifica que tuvo el objetivo de presentar un instrumento con calidad científica, ya que, como lo refieren Carvajal et al. (2011), un criterio esencial para determinar la calidad de medición de un instrumento es mediante la evaluación de sus propiedades psicométricas. A este respecto, la revisión de expertos tuvo una alta significatividad porque se verificó la pertenencia al constructo de los ítems, su relevancia, redacción y comprensibilidad (Carvajal et al., 2011; Buela-Casal y Sierra, 1997). Es sustancial indicar que de esta se realizaron las siguientes especificaciones: contemplar el enfoque del programa de estudios y los rasgos del perfil de egreso, reemplazar el término “error” por “áreas de oportunidad”, añadir los vocablos “asignatura” y “curso” en algunos ítems, evitar la ausencia de una acción en los descriptores en el nivel preformal en atención a la taxonomía socioformativa (Tobón, 2013).

No obstante, Cruz y Martínez (2012), Sireci (1998) y Haynes, Richard y Kubany (1995) coinciden en que, aún cuando es fundamental este proceso (revisión por expertos), se debe implementar el procedimiento de juicio de expertos para demostrar que el instrumento posee validez de contenido. En este orden, el análisis cualitativo por los jueces expertos posibilitó la mejora en la redacción y en la comprensión de los ítems e instrucciones. De las más significativas fueron: centrarse en un solo aspecto en cada uno, replantearlos de tal forma que se obtenga la percepción del discente y reformular algunos otros para establecer la progresión de los niveles.

Concerniente al análisis de la evaluación cuantitativa mediante el coeficiente V de Aiken, se pudo demostrar que todos los ítems presentaron validez de contenido (V>0.75; LI>0.60) en los criterios evaluados (pertinencia y redacción). A este aspecto solamente el ítem 2 presentó un valor cercano al mínimo permisible (V de Aiken: 0.77). Si bien el ítem fue validado, se analizó y se realizaron las mejoras pertinentes como cambiarlo de orden, reformularlo para conocerlo desde la perspectiva del discente, evitar la ausencia o negación de una acción en uno de los niveles y sintetizar algunos descriptores. La atención a estos aspectos permitió afirmar la validez de contenido de los ítems del instrumento en los criterios analizados (pertinencia y redacción) e identificar áreas de mejora.

Cabe subrayar el empleo del intervalo de confianza de este coeficiente, ya que para su cálculo considera el número de jueces expertos participante y brinda certidumbre sobre el valor y la estabilidad del mismo. Se precisa que, acorde a los resultados, el instrumento propuesto posee validez de contenido, revelando la representatividad en la definición del constructo abordado, pertenencia y representatividad del grupo de ítems, e igualmente logra claridad en aspectos gramaticales de estos y en las indicaciones (Koller, Levenson y Glück, 2017). Un aspecto considerable por señalar es acerca de las propuestas instrumentales indicadas en la tabla 1, si bien no se suscriben de forma explícita dentro de la retroalimentación asertiva, solo cuatro fueron sometidas a la validación de contenido mediante el juicio de expertos (Aguilar y Sánchez, 2018; Hebles, Alonso, Alvarez y Villardon, 2017; Ion, Silva, y Cano, 2013; García y Cabero, 2011; Bitran et al., 2010).

Por otro lado, Corral (2009) precisa que es fundamental probar el instrumento sobre un grupo pequeño (de 14 a 30 personas) de la población objetivo, ya que mediante este ejercicio se pueden verificar y prever los aspectos relacionados con su aplicación, estimación de su adecuación y evaluación de la confiabilidad. La significatividad de su aplicación se pudo observar debido a que se llevó a cabo una prueba piloto a dos grupos y facilitó la ejecución de mejoras con vista a potencializar la comprensión de los ítems y descriptores de los niveles de desempeño. Por ejemplo, se sintetizaron las indicaciones y se precisaron aún más los datos signalíticos. Estos aspectos son relevantes dado que se mencionan como factores que pueden afectar las propiedades psicométricas de un instrumento (Koller, Levenson y Glück, 2017; Carvajal et al., 2011; Corral, 2009; Meliá, 2001; Haynes, Richard y Kubany, 1995).

Tocante al análisis de confiabilidad efectuado al segundo grupo, se denotó un valor óptimo en el coeficiente (Taber, 2018; Quero-Virla, 2010), relevando la correlación entre ítems y representación del concepto abordado (Carvajal et al., 2011; Corral, 2009). Sin embargo, al ser una muestra pequeña (n = 15), el valor que toma el coeficiente tiende a ser inestable (Corral, 2009; Charter, 2003). Por lo anterior, se calculó el intervalo de confianza al 95% del valor obtenido acorde al método de Koning y Franses (2003), presentando una variación relativa y en donde el valor inferior del mismo se considera óptimo (Taber, 2018; Quero-Virla, 2010; Cervantes, 2005; Nunnaly y Berstein, 1999). Resulta necesario puntualizar que si bien el valor obtenido en el coeficiente es óptimo, para el presente trabajo únicamente deberá considerarse como inicial (por el tamaño de muestra), lo cual motiva a la aplicación a una muestra poblacional representativa para confirmar la confiabilidad del instrumento, su factibilidad, y efectuar el análisis de validez del constructo.

Se concluye que la importancia de diseñar un instrumento para evaluar la retroalimentación en educación superior radica en que conocer el grado de asertividad en ella permitirá saber la reducción de la brecha entre lo que comprendieron y lo que no (Hattie y Timperley, 2007). Asimismo se podrá identificar qué otro tipo de retroalimentación se efectúa, si tiene rasgos en común con la retroalimentación asertiva y si esta resulta ser efectiva, a fin de ayudar al discente a potencializar sus aprendizajes. Por su parte, el proceso metodológico realizado al instrumento (revisión de expertos, juicio de expertos y prueba piloto) permite asegurar su validez de facie y de contenido.

Material suplementario
Referencias
Acosta, H. P., Tobón, S., y Loya, J. L. (2015) Docencia socioformativa y desempeño académico en la educación superior. Paradigma, 36(1), 42-55. Recuperado de: https://goo.gl/Vr6exR.
Aguilar, C., y Sánchez, G. (2018). Construcción y validación de un instrumento para valorar desempeños pedagógicos de estudiantes en formación inicial. Revista Educación, 42(1), 1-23. doi: 10.15517/revedu.v42i1.22728.
Aguilar, E. (2007). Asertividad. Cómo hacer tú mismo sin culpas. México: Pax.
Aguilar, E., Rodríguez, A., Baeza, L., y Méndez, N. (2016). La retroalimentación constructiva en el desarrollo de habilidades comunicativas escritas e investigativas en dos generaciones de alumnos de Medicina en Yucatán, México. Anales de la Facultad de Medicina, 137-142. doi.org/10.15381/anales.v77i2.11818.
Aiken, L. R. (1985). Three coefficients for analyzing the reliability and validity of ratings. Educational and Psychological Measurement, 45(1), 131-142. doi.org/10.1177/0013164485451012.
Allal L., y Mottier L. (2005). Formative assessment of learning: A review of publications in French. French Literature Review, 241-264. Recuperado de: https://bit.ly/3geGV8X.
Allal, L., y Pelgrims, G. (2000). Assessment of or in the zone of proximal development. Learning and Instruction, 10(2), 137-152. doi: 10.1016/s0959-4752(99)00025-0.
Alirio, E., y Zambrano, L. (2011). Caracterización de los procesos de retroalimentación en la práctica docente. Artículo de investigación. Entornos, (24), 73-85. Recuperado de: https://goo.gl/7KsHfz.
Anijovich, R. (2010). La retroalimentación en la evaluación. En R. Anijovich (comp.), La evaluación significativa. Buenos Aires: Paidós.
Ato, M., López, J., y Benavente, A. (2013). Un sistema de clasificación de los diseños de investigación en psicología. Anales de Psicología, 29(3), 1038-1059. Recuperado de: https://bit.ly/2U3IjzM.
Asún, S., Fraile, A., Aparicio, J., y Romero Martín, M. (2020). Dificultades en el uso del feedback en la formación del profesorado de Educación Física. Retos, (37), 85-92. Recuperado de: https://bit.ly/3adnDNA.
Berlanga-Ramírez, M. L., y Juárez-Hernández, L. G. (2020). Paradigmas de evaluación: del tradicional al socioformativo. Diálogos sobre educación. Temas actuales en investigación educativa, 21(11), 1-14. doi: 10.32870/dse.v0i21.646.
Bitran, M., Beltrán, M., Riquelme, A., Padilla, O., Sánchez, I., y Moreno, R. (2010). Desarrollo y validación de un instrumento en español para evaluar el desempeño de docentes clínicos a través de las percepciones de sus estudiantes. Revista Médica de Chile, 138(6), 685-693. doi: 10.4067/S0034-98872010000600004.
Bizarro, W., Sucari, W., y Quispe-Coaquira, A. (2019). Evaluación formativa en el marco del enfoque por competencias. Revista Innova Educación, 1(3), 374-390. doi.org/10.35622/j.rie.2019.03.r001.
Black, P., y Wiliam, D. (1998). Assessment and classroom. Learning Assessment in Education: Principles, Policy and Practice, 5(1), 7-74, doi 10.1080/0969595980050102.
Black, P., y Wiliam, D. (2004). The formative purpose: Assessment must first promote learning. En M. Wilson (ed.), Towards coherence between classroom assessment and accountability. Chicago, IL: University of Chicago Press.
Breckler, S. J., y Wiggins, E. C. (1989). Affect versus evaluation in the structure of attitudes. Journal of Experimental Social Psychology, 25(3), 253-271. doi: 10.1016/0022-1031(89)90022-X.
Buela-Casal, G., y Sierra, J. C. (1997). Manual de evaluación psicológica: fundamentos, técnicas y aplicaciones. Madrid, España: Siglo XXI.
Bulger, S. M., y Housner, L. D. (2007). Modified Delphi investigation of exercise science in Physical Education teacher education. Journal of Teaching in Physical Education, 26, 57-80. doi: 10.1080/02701367.2014.930087.
Canabal, C., y Margalef, L. (2017). La retroalimentación: la clave para una evaluación orientada al aprendizaje. Profesorado. Revista de Currículum y Formación de Profesorado, 2(2), 149-170. Recuperado de: https://goo.gl/KrrohR.
Carless, D. (2007). Learning-oriented assessment: Conceptual bases and practical implications. Innovations in Education and Teaching International, 44(1), 57-66. doi: 10.1080/14703290601081332.
Carless, D. (2015). Exploring learning-oriented assessment processes. Higher Education, 69(6), 963-976. doi: 10.1007/s10734-014-9816-z.
Carrillo-Sierra, S. M., Forgiony-Santos, J. O., Rivera-Porras, D. A., Bonilla-Cruz, N. J., Montánchez-Torres, M. L., y Alarcón-Carvajal, M. F. (2018). Propiedades psicométricas del Cuestionario de Inclusión Educativa (CIE) en contextos escolares colombianos. Espacios, 39(17), 15-32. Recuperado de: https://bit.ly/2LUn2JQ.
Carrion, C., Soler, M., y Aymerich, M. (2015). Análisis de la validez de contenido de un cuestionario de evaluación del aprendizaje basado en problemas. Un enfoque cualitativo. Formación Universitaria, 8(1), 13-22. doi: 10.4067/S0718-50062015000100003.
Carvajal, A., Centeno, C., Watson, R., Martínez, M., y Sanz Rubiales, A. (2011). ¿Cómo validar un instrumento de medida de la salud? Anales del sistema sanitario de Navarra, 34(1), 63-72. Recuperado de: https://bit.ly/2ZbH4Sa.
Charter, R. A. (2003). A breakdown of reliability coefficients by test type and reliability method and the clinical implications of low reliability. The Journal of General Psychology, 130(3), 290-304. doi: 10.1080/00221300309601160.
Cervantes, V. H. (2005). Interpretaciones del coeficiente alpha de Cronbach. Avances en medición, 3(1), 9-28. Recuperado de: https://bit.ly/2rkUb1V.
CIFE (2018). Instrumento “Escala Jueces Expertos”. México: Centro Universitario CIFE.
Coll, C., Rochera M., Gispert, I. D., y Díaz Barriga, F. (2013). Distribution of feedback among teacher and students in online collaborative learning in small groups. Digital Education, (23), 27-46. Recuperado de: https://goo.gl/C3dHsQ.
Condemarín, M., y Medina, A. (2000). Evaluación de los aprendizajes. Un medio para mejorar las competencias lingüísticas. Santiago de Chile: Ministerio de Educación República de Chile.
Contreras, G., y Zúñiga, C. G. (2019). Prácticas y concepciones de retroalimentación en formación inicial docente. Educação e Pesquisa, 45, 1-22. doi.org/10.1590/s1678-4634201945192953.
Corral, Y. (2009). Validez y confiabilidad de los instrumentos de investigación para la recolección de datos. Revista Ciencias de la Educación, 19(33), 228-247. Recuperado de:: https://bit.ly/1T1z0ct.
Cronbach, L. J. (1951). Coefficient alpha and the internal structure of tests. Psychometrika, 16(3), 297-334. Recuperado de: https://bit.ly/2YJNWZr.
Cruz-Ramírez, M., y Martínez-Cepena, M. C. (2012). Perfeccionamiento de un instrumento para la selección de expertos en las investigaciones educativas. Revista Electrónica de Investigación Educativa, 14, 167-179. Recuperado de: https://bit.ly/2DyrVRp.
De la Torre-Laso, J. (2019). La retroalimentación evaluativa o feedback para los trabajos en grupo como estrategia de acción tutorial en la Universidad. Revista Educación, 43(1), 1-18. doi.org/10.15517/revedu.v43i1.30062.
Ding, C., y Hershberger, S. (2002). Assessing content validity and content equivalence using structural equation modeling. Structural Equation Modeling: A Multidisciplinary Journal, 9(2), 283-297. doi: 10.1207/S15328007SEM0902_7.
Farahman, F., y Masoud, Z. (2011). A comparative study of EFL teachers’ and intermediate High School students’ perceptions of written corrective feedback on grammatical errors. English Language Teaching, 4(4), 36-48. doi:10.5539/elt.v4n4p36.
Fraile, J., Pardo, R., y Panadero, E. (2016). ¿Cómo emplear las rúbricas para implementar una verdadera evaluación formativa? Revista Complutense de Educación, 28(4), 1321-1334. doi: 10.5209/RCED.51915.
Ford, C. (2018). Effective practice instructional strategies: Design of an instrument to assess teachers’ perception of implementation. Studies in Educational Evaluation, 56(0), 154-163. doi: 10.1016/j.stueduc.2017.12.004.
Forster, M., y Masters, G. (1996). Developmental Assessment. Assessment Resource Kit (ARK). Australia: ACER.
Frederiksen, J. R., y Collins, A. (1989). A systems approach to educational testing. Educational Researcher, 18(9), 27–32. doi: 10.3102/0013189X018009027.
García, A. C., Gil-Mediavilla, M., Álvarez, I., y Casares, M. (2020). Evaluación entre iguales en entornos de educación superior online mediante el taller de Moodle. Estudio de caso. Formación universitaria, 13(2), 119-126. dx.doi.org/10.4067/S0718-50062020000200119.
García, E. (2015). La evaluación del aprendizaje: de la retroalimentación a la autorregulación. El papel de las tecnologías. Relieve: Revista Electrónica de Investigación y Evaluación Educativa, 21(2), 1-24. doi: 10.7203/relieve.21.2.7546.
García E., y Cabero, J. (2011). Diseño y validación de un cuestionario dirigido a describir la evaluación en procesos de educación a distancia. Edutec. Revista Electrónica de Tecnología Educativa, (35), 1-26. doi: 10.21556/edutec.2011.35.412.
García, L., Lozano, F., y Gallardo, K. (2017). Percepción de profesores y estudiantes universitarios sobre la retroalimentación y su incidencia en el rendimiento académico a partir del uso de un modelo de retroalimentación. Revista de Investigación Educativa del Tecnológico de Monterrey, 7(14), 2-11. doi: 10.13140/RG.2.2.17585.99688.
Gibbs, G., y Simpson, C. (2004). Conditions under which assessment supports students’ learning. Learning and Teaching in Higher Education (LATHE), 1, 3-31. Recuperado de: https://bit.ly/2VwpjNN.
Hattie, J., y Timperley, H. (2007). The power of feddback. Review of Educational Research, 77(1), 81-112. doi: 10.3102/003465430298487.
Hebles, M., Alonso, M., Alvarez, C., y Villardon, L. (2017). Diseño y validación de la escala evaluación de los aprendizajes (EEA). Profesorado. Revista de Currículum y Formación de Profesorado, 21(2), 107-126. Recuperado de: https://goo.gl/pM9sBP.
Hernández, J. S., González, L., Guzmán, C., y Tobón, S. (2015). Evaluación socioformativa y rendimiento académico en un programa de posgrado en línea. Paradigma, (1), 30-41. Recuperado de: https://goo.gl/7meiGd.
Hernández, J. S., Tobón, S., y Guerrero-Rosas, G. (2016). Hacia una evaluación integral del desempeño: las rúbricas socioformativas. Ra Ximhai, 12(6), 359-376. Recuperado de: https://bit.ly/2KKNsZH.
Haynes, S., Richard, D., y Kubany, E. (1995). Content validity in psychological assessment: A functional approach to concepts and methods. Psychological Assessment, 7(3), 238-247. doi: 10.1037/1040-3590.7.3.238.
Ion, G., Silva, P., y Cano, E. (2013). El feedback y el feedforward en la evaluación de las competencias de estudiantes universitarios. Profesorado. Revista de Currículum y Formación de Profesorado, 17(2), 283-301. Recuperado de: https://goo.gl/hRnpTa.
Irons, A. (2007). Enhancing learning through formative assessment and feedback. Nueva York: Routledge.
Knight, P. (2006). The local practices of assessment. Assessment & Evaluation in Higher Education.
Koller, I., Levenson, M. R., y Glück, J. (2017). What do you think you are measuring? A mixed-methods procedure for assessing the content validity of test items and theory-based scaling. Frontiers in Psychology, 8, 126. doi: 10.3389/fpsyg.2017.00126.
Koning, A. J., y Franses, P. H. (2003). Confidence intervals for Cronbach’s Coefficient Alpha values. ERIM Report Series Reference No. ERS-2003-041-MKT. Recuperado de: https://bit.ly/2G9bttl.
Lagunes-Córdoba, R. (2017). Recomendaciones sobre los procedimientos de construcción y validación de instrumentos y escalas de medición en psicología de la salud. Psicología y Salud, 27, 5-18. Recuperado de: https://bit.ly/2VDTPCq.
León, M., y Vargas, T. (2009). Validación y estandarización de la Escala de Asertividad de Rathus (R.A.S.) en una muestra de adultos costarricenses. Revista Costarricense de Psicología, 28(41-42), 187-207. Recuperado de https://bit.ly/31xHlTB.
López, A. A. (2010). La evaluación formativa en la enseñanza y aprendizaje del inglés. Voces y Silencios: Revista Latinoamericana de Educación, 1(2), 111-124. Recuperado de: https://bit.ly/2NDsRJR.
López, A., y Osorio, K. (2016). Percepciones de estudiantes sobre la retroalimentación formativa en el proceso de evaluación. Actualidades Pedagógicas, (68), 43-64. doi: http://dx.doi.org/10.19052/ap.2829.
Lozano, F., y Tamez, L. (2014). Retroalimentación formativa para estudiantes de educación a distancia. RIED. Revista Iberoamericana de Educación a Distancia, 17(2), 197-221. Recuperado de: https://bit.ly/2pwefzW.
Martínez-Rizo, F. (2013). Dificultades para implementar la evaluación formativa: revisión de literatura. Perfiles educativos, 35(139), 128-150. Recuperado de: https://goo.gl/VY2p2H.
Martínez-Rizo, F., y Mercado, A. (2015). Estudios sobre prácticas de evaluación en el aula: revisión de la literatura. Revista Electrónica de Investigación Educativa, 17(1), 17-32. Recuperado de: https://goo.gl/8EC5Qo.
McTighe, J., y Wiggins, G. (2012). What is UBD framework? Understanding by design. Recuperado de: shorturl.at/egDHJ.
Meliá, J. L. (2001). Teoría de la fiabilidad y la validez. Valencia, España: Universidad de Valencia.
Melmer, R., Burmaster, E., y James, T.K. (2008). Attributes of effective formative assessment. Washington, D.C.: Council of Chief State School Officers. Recuperado de: https://bit.ly/3ihrmii.
Monje, V., Camacho, M., Rodríguez, E., y Carvajal, L. (2009). Influencia de los estilos de comunicación asertiva de los docentes en el aprendizaje escolar. Psicogente, 12(21), 78-95. Recuperado de: https://goo.gl/33r9m9.
Montero, I., y León, O. (2007). A guide for naming research studies in psychology. International Journal of Clinical and Health Psychology, 7, 847-862. Recuperado de: https://bit.ly/2NRVKRk.
Murga-Menoyo, M. A. (2015). Competencias para el desarrollo sostenible: las capacidades, actitudes y valores meta de la educación en el marco de la Agenda global post-2015. Foro de Educación, 13(19), 55-83. doi: 10.14516/fde.2015.013.019.004.
Nunnally, J. C., y Bernstein, I. H. (1999). Teoría psicométrica. México: McGraw-Hill Interamericana.
Osorio Sánchez, K., y López Mendoza, A. (2014). La retroalimentación formativa en el proceso de enseñanza-aprendizaje de estudiantes en edad preescolar. Revista Iberoamericana de Evaluación Educativa, 7(1). Recuperado de: https://bit.ly/2REYrsV.
Paoloni, P., Rinaudo, C., y González-Fernández, A. (2010). Procesos de retroalimentación en la autorregulación de recursos de aprendizaje. Explorando su potencial en el contexto de la universidad. Revista de Educación a Distancia, (3), 1-18. Recuperado de: https://bit.ly/2K8wjui.
Penfield, R. D., y Giacobbi, Jr, P. R. (2004). Applying a score confidence interval to Aiken’s item content-relevance index. Measurement in Physical Education and Exercise Science, 8, 213-225. doi:10.1207/s15327841mpee0804_3.
Perrenoud, P. (2007). From formative evaluation to a controlled regulation of learning processes. Towards a wider conceptual field. Assessment in Education: Principles, Policy & Practice, 5(1), 85-102. doi: 10.1080/0969595980050105.
Quero-Virla, M. (2010). Confiabilidad y coeficiente Alpha de Cronbach. Telos, 12(2), 248-252. Recuperado de: https://bit.ly/2WeZVJL.
Resnick, L. B., y Collins, A. (1996). Cognición y aprendizaje. Anuario de Psicología, 69(69), 187-197. Recuperado de: shorturl.at/cdtX4.
Resnick, L. B., y Resnick, D. P. (1992). Assessing the thinking curriculum: New tools for education reform. En B. R. Gifford y M. C. O’Connor (eds.), Changing assessments: Alternative views of aptitude, achievement, and instruction, pp. 37-75. Boston: Kluwer Academic.
Salas-Razo, G., y Juárez-Hernández, L. G. (2019). Rúbrica analítica para el diagnóstico integral del nivel de desarrollo de una comunidad rural. Revista de Estudios sobre Despoblación y Desarrollo Rural, 27,1-28. doi: 10.4422/ager.2019.01.
Sánchez L., y Manrique, M. S. (2018). La retroalimentación más allá de la evaluación. Revista Latinoamericana de Educación Comparada, 9(14), pp 89-104. Recuperado de: https://bit.ly/3ehZokN.
Scriven, M. (1967). The methodology of evaluation. En B. R. Worthen y James, R. Sanders (eds.), Educational evaluation: Theory and practice. Belmont, California: Wadsworth Publishing Company.
Secretaría de Educación Pública (2013). El enfoque formativo de la evaluación. Serie Herramientas para la Evaluación en Educación Básica. México: SEP.
Secretaría de Educación Pública (2018). Aprendizajes clave. Español. Plan y programas de estudio, orientaciones didácticas y sugerencias de evaluación. México: SEP.
Sireci, S. G. (1998). The construct of content validity. Social Indicators Research, 45, 83-117. Recuperado de: https://goo.gl/erf2Nb.
Stiggins, R. J. (2002). Assessment crisis: The absence of assessment for learning. Phi Delta Kappan, 83(10), 758–765. doi: 10.1177/003172170208301010.
Taber, K. S. (2018). The use of Cronbach’s alpha when developing and reporting research instruments in science education. Research in Science Education, 48(6), 1273-1296.
Tillema, H., Leenknecht, M., y Segers, M. (2011). Assessing assessment quality: Criteria for quality assurance in design of (peer) assessment for learning - A review of research studies. Studies in Educational Evaluation, 37, 25-34. doi: 10.1016/j.stueduc.2011.03.004.
Tobón, S. (2013). Evaluación de las competencias en la edcación básica. Ciudad de México, México: Santillana.
Tobón, S. (2017). Evaluación socioformativa. Estrategias e instrumentos. Recuperado de: https://goo.gl/VT4M5y.
Torrance, H., y Pryor, J. (1998). Investigating formative assessment. Teaching, learning and assessment in the classroom. Buckingham: Open University Press.
Townend, A. (2007). Assertiveness and diversity. Nueva York: Palgrave Macmillan.
Triana, A., y Velásquez, A. (2014). Comunicación asertiva de los docentes y clima emocional del aula en preescolar. Voces y Silencios: Revista Latinoamericana de Educación, 5(1), 23-41. Recuperado de: https://goo.gl/3t4Lwc.
Tunstall, P., y Gipps, C. (1996). Teacher feedback to young children in formative assessment: A typology. British Educational Journal, 22 (4), 389-404. doi: 10.1080/0141192960220402.
Valdivia, S. (2014). Retroalimentación efectiva en la enseñanza universitaria. En Blanco y Negro, 5(2), 20-24. Recuperado de: https://goo.gl/iK7De9.
Villegas, M., González, G., y Gallardo, K. (2018). Aplicación de un modelo de retroalimentación como estrategia de evaluación formativa en educación superior. Revista de Investigación Educativa, 8(16), 88-94. Recuperado de: https://bit.ly/2P1FZIE.
von Bertalanffy, L. (1940). Der Organismus als physikalisches System betrachtet. Naturwissenschaften, 28(33), 521-531.
Wiggins, G. (1989). The futility of trying to teach everything of importance. Educational Leadership, 47(3), 44-48,57-59. Recuperado de: https://bit.ly/31sjuEL.
Wiggins, G. (1992). Creating tests worth taking. Educational Leadership, 49, 26-33. Recuperado de: shorturl.at/gjDX1.
Wiggins, G. (2011). Giving students a voice: The power of feedback to improve teaching. Educational Horizons, 89(3), 23-26. doi: 0.1177/0013175X1108900406.
Yaghmaie, F. (2003). Content validity and its estimation. Journal of Medical Education, 3(1), 25-27. doi 10.22037/jme.v3i1.870.
Notas
Notas de autor
* Es doctorando del Centro Universitario CIFE y cuenta con maestría en Educación basada en Competencias por la Universidad del Valle de México. Su actividad de investigación actual se desarrolla en el campo de la evaluación normalista.
** Doctor en Ciencias Biológicas y de la Salud por la Universidad Autónoma de Metropolitana con especialidad en el área de Ecología, Diagnóstico y Gestión Ambiental. Integrante del Sistema Nacional de Investigadores (SNI).
Tabla 1.
Instrumentos para evaluar la retroalimentación.

Fuente: Construcción propia.
Tabla 2.
Dimensión y preguntas del instrumento.

Fuente: Construcción propia.
Tabla 3.
Perfil de los expertos.

Fuente: Construcción propia.
Tabla 4.
Perfil de jueces expertos.

Fuente: Construcción propia.
Tabla 5.
Datos sociodemográficos de los grupos.

Fuente: Construcción propia.

Figura 1.
Resultados del análisis cuantitativo mediante la V de Aiken y sus intervalos de confianza al 95% por ítem para el criterio de pertinencia.

Figura 2.
Resultados del análisis cuantitativo mediante la V de Aiken y sus intervalos de confianza al 95% por ítem para el criterio de redacción.
Tabla 6.
Recomendaciones emitidas por jueces.

Fuente: Construcción propia.
Tabla 7.
Resultados de la encuesta de satisfacción de los dos grupos.

Fuente: Construcción propia.

Figura 3.
Versión final del instrumento “Rúbrica socioformativa para evaluar la retroalimentación asertiva en educación Normal”.
Buscar:
Contexto
Descargar
Todas
Imágenes
Visor de artículos científicos generados a partir de XML-JATS4R por Redalyc