Desarrollado en el marco de los Proyectos de Innovación y Mejora de la Calidad de la Docencia -PIMCD 268/2010-2011 y PIMCD 236/2011- 2012. Esta herramienta de evaluación está dirigida a docentes, estudiantes e investigadores usuarios y creativos de recursos digitales aplicados a la educación. Es un modelo de fácil uso, sencillo de llevar a la práctica con conocimientos informáticos, así como recursos didácticos básicos.

La metodología que se pone en practica en este modelo es: La selección de un RED, a este recurso se le aplica la rubrica o el instrumento de evaluación propios de CODA, se asignan puntajes, juicios valorativos; se analizan los resultados para así identificar falencias y fortalezas y finalmente con base a lo anterior se toman decisiones que mejoren la calidad del recurso, por lo tanto la calidad de la formación.

  • Objetivos y coherencia didáctica: Valora que los objetivos didácticos y las destrezas a desarrollar sean coherentes con quienes los reciben.
  • Calidad de los contenidos: evalúa específicamente el contenido del OA.
  • Capacidad de generar reflexión, crítica e innovación: Propende por el desarrollo de la capacidad crítica del destinatario, es decir los estudiantes, que estos partan de conocimientos adquiridos y a partir de allí construyan nuevo conocimiento.
  • Interactividad y adaptabilidad: Presentación del contenido de fácil uso y provecho del estudiante. 
  • Motivación: verifica si el OA es capaz de que la motivación en el estudiante se mantenga en el proceso de aprendizaje.
  • Formato y Diseño: esta categoría determina si el diseño es claro y organizado, si es visualmente comprensible y de calidad. 
  • Usabilidad: Determina la facilidad con la que una persona puede interactuar con el OA. 
  • Accesibilidad: Verifica que todas las personas puedan acceder al OA, incluso aquellas personas que presentan alguna discapacidad, de modo  que pueda ser utilizado por todos con ayuda de dispositivos asistenciales especiales.

Para cada uno de los criterios propuestos se evaluará la calidad con una puntuación de 1a 5, siendo 1 el mínimo y 5 el máximo. Si se considera que alguno de los criterios no es relevante para el OA evaluado, o si el revisor no se considera cualificado para juzgar ese criterio, siempre se puede evitar seleccionando la opción "No Aplicable" (NA)." (Fernández-Pampillón Cesteros, Domínguez Romero y de Armas Ranero, 2012, p. 3)

El modelo McCall, desarrollado en el año 1977 por McCall Richar y Walters, es uno de los primeros modelos de calidad de productos de software y a pesar de haber sido creado hace mucho tiempo y que existen otros mas recientes, se mantiene con vigencia de uso hasta la fecha. Este modelo se interesa por evaluar el producto desde tres perspectivas: La operación, revisión y transición del producto; a su vez estas se subdividen en otros factores de calidad más específicos medibles a partir de métricas establecidas.

Este modelo es un modelo de calidad fijo y para realizar la evaluación de la calidad de un producto utilizándolo, se selecciona un subconjunto de factores y métricas aceptando que solo están disponibles las que propone el modelo. Las métricas representan medidas indirectas, es decir, permiten medir la calidad pero no de manera directa sino a través de una manifestación visible de ella. 

Los tres criterios o categorías de evaluación del modelo Mccall, con sus respectivos factores de calidad son:

  • Operación: Corrección, fiabilidad, eficiencia, integridad, facilidad de uso.
  • Revisión: Facilidad de mantenimiento, flexibilidad, facilidad de prueba.
  • Transición: Portabilidad, reusabilidad, interoperabilidad. 

Se fundamenta en los siguientes criterios:

Auto documentación, Capacidad de expansión, Compleción de las funciones, Complejidad, Concisión, Consistencia, Eficiencia de ejecución, Estandarización de comunicaciones, Estandarización de datos y estructuras, Exactitud de cálculo y de control, Facilidad de auditoría, Independencia del hardware, Independencia del software, Instrumentación, Modularidad, Operatividad, Seguridad, Simplicidad, Tolerancia a errores y Trazabilidad

LORI (Learning Object Review Instrument) es un modelo de evaluación que permite analizar la calidad de un objeto de aprendizaje digital tales como videos educativos, simulaciones, presentaciones, guías interactivas, etc. a través de nueve criterios clave. Este modelo fue desarrollado para asegurar que los materiales educativos digitales cumplan con estándares pedagógicos, técnicos y de accesibilidad. 

Evaluación ocurre mediante revisión, asignando puntajes a cada criterio y calculando un puntaje total promedio. La herramienta LORI puede utilizarse individualmente o a través de paneles de revisión. Si se opta por esto último, recomendamos el "modelo convergente de participación para la evaluación colaborativa" (Nesbit, Belfer y Vargo, 2002). 

Esta herramienta que permite evaluar los objetos de aprendizaje en función de nueve variables o criterios:

1. Calidad de los contenidos: veracidad, exactitud, presentación equilibrada de ideas y nivel adecuado de detalle.

2. Adecuación de los objetivos de aprendizaje: coherencia entre los objetivos, actividades, evaluaciones, y el perfil del alumnado.

3. Feedback (retroalimentación) y adaptabilidad: contenido adaptativo o feedback dirigido en función de la respuesta de cada alumno/a y su estilo de aprendizaje.

4. Motivación: capacidad de motivar y generar interés en un grupo concreto de alumno/as.

5. Diseño y presentación: el diseño de la información audiovisual favorece el adecuado procesamiento de la información.

6. Usabilidad: facilidad de navegación, interfaz predictiva para el usuario y calidad de los recursos de ayuda de la interfaz.

7. Accesibilidad: el diseño de los controles y la presentación de la información está adaptada para discapacitados y dispositivos móviles.

8. Reusabilidad: capacidad para usarse en distintos escenarios de aprendizaje y con alumno/as de distintos bagajes. 

9. Cumplimiento de estándares: Adecuación a los estándares y especificaciones internacionales.

La escala que se establece en este modelo es de 5 estrellas de valoración en la que para cada criterio se indica 1 estrella si la valoración es baja y 5 si se considera en nivel alto.

Desarrollada por el grupo de trabajo GT12 "Calidad de los materiales educativos digitales", perteneciente al Comité Técnico de Normalización CTN 71/SC36 "Tecnologías de la Información para el Aprendizaje". Esta norma plantea un modelo de calidad para poder evaluar los Materiales educativos digitales y tiene como objetivo principal facilitar la creación, mejora, selección y además la evaluación del material educativo en aras de garantizar su accesibilidad a toda la población. 

La metodología que se aplica es mixta, ya que se da una Evaluación cuantitativa y cualitativa mediante la aplicación de los 15 criterios, con puntuaciones asignadas a cada uno, además de las preguntas abiertas. 

Este modelo establece 15 criterios y los divide en tres categorías que son: categoría de eficacia didáctica, categoría de eficacia tecnológica y categoría de accesibilidad.

La norma define 15 criterios agrupados en tres áreas principales:

1. Eficacia Didáctica

  • Descripción didáctica: se interesa por el Valor y coherencia didáctica del material educativo.
  • Calidad de los contenidos: Que sean adecuados, precisos y conformes a la actualidad.
  • Capacidad para generar aprendizaje: Propende por que se facilite el aprendizaje autónomo y significativo
  • Adaptabilidad: Que el Material educativo pueda personalizarse o adaptarse según la necesidad de quien se beneficia.
  • Interactividad: Que el usuario sea un participante activo constante
  • Motivación: Capacidad que brinda el material educativo de captar y mantener el interés por parte del usuario.

2. Eficacia Tecnológica

  • Formato y diseño: Indica la presentación visual del material
  • Reusabilidad: La posibilidad de que el material pueda ser usado en diferentes contextos.
  • Portabilidad: La facilidad de uso en diferentes plataformas y dispositivos.
  • Robustez y estabilidad técnica: Que pueda ser resistente a fallas técnicas

3. Accesibilidad

  • Estructura del escenario de aprendizaje: orden en la navegación del contenido
  • Navegación: Que resulte fácil desplazarse y explorar el material.
  • Operabilidad: El usuario pueda usarlo de manera sencilla sin mayor dificultad.
  • Accesibilidad del contenido audiovisual: La disponibilidad para que todos los usuarios, incluidos aquellos que tiene discapacidad puedan explorarlo.
  • Accesibilidad del contenido textual: Que le Material este disponible de distintas maneras de modo que usuarios con usuarios con discapacidades visuales o cognitivas puedan acceder a este.

Este modelo plantea una escala valorativa que se divide en dos perfiles, el del docente y el del alumno, para cada uno de estos se indican criterios de valoración, que al ser evaluados se maneja un rango que va de 0 a 10 puntos, donde 0 es el peor valor y 10 el mejor. Sumado a esto cada perfil contiene dos preguntas abiertas.

Modelo de calidad propuesto por Robert Grady y Hewlett Packard Co (HP) en 1987. Esta propuesta contempla, por un lado 5 características de las cuales se deriva su nombre (Funcionalidad, Facilidad de Uso, Confiabilidad, Performance y Facilidad de Soporte), y por otro, que los requisitos se clasifiquen en dos categorías: requisitos funcionales (F), que son los que especifican funciones que el sistema debe ser capaz de realizar sin tener en cuenta las restricciones físicas; y requerimientos no funcionales (URPS) Este modelo permite estructurar la evaluación integralmente, el hecho de que considere las categorías funcionales y no funcionales hace que se genere una base solida para la toma de decisiones durante el proceso, el desarrollo, la prueba y el mantenimiento del software.

La metodología de FURPS establece una serie de prioridades, primeramente definir objetivos o propósitos específicos, seleccionar los indicadores adecuados para cada uno de los atributos; Recopilar los datos, analizarlos y posteriormente general los hallazgos.

La metodología de evaluación FURPS consta de las siguientes etapas:

  • Definición de objetivos de evaluación: Establecer los propósitos específicos del análisis (por ejemplo, mejorar la experiencia de usuario o reducir errores).
  • Identificación de métricas: Seleccionar indicadores cuantitativos y cualitativos adecuados para cada uno de los atributos FURPS.
  • Recolección de datos: Aplicar técnicas como pruebas de software, encuestas, entrevistas, análisis de logs, pruebas de carga, etc.
  • Evaluación y análisis: Procesar los datos recopilados, comparar con los objetivos y estándares de calidad definidos.
  • Informe de resultados: Documentar hallazgos, sugerencias de mejora y recomendaciones para iteraciones futuras.

A partir de su mismo nombre se desprenden los criterios de evaluación:

Funcionalidad (Functionality):

  • Precisión de los resultados.
  • Integridad del sistema.
  • Seguridad (mecanismos de autenticación y autorización).
  • Interoperabilidad (capacidad de interactuar con otros sistemas).

Usabilidad (Usability):

  • Facilidad de aprendizaje.
  • Facilidad de uso.
  • Diseño de la interfaz de usuario.
  • Documentación y ayuda al usuario.

Fiabilidad (Reliability):

  • Tolerancia a fallos.
  • Recuperación ante errores.
  • Disponibilidad del sistema.
  • Frecuencia de fallos.

Rendimiento (Performance):

  • Tiempo de respuesta.
  • Uso eficiente de recursos (CPU, memoria).
  • Capacidad de carga (número de usuarios concurrentes).
  • Velocidad de procesamiento.

Soportabilidad (Supportability):

  • Facilidad de mantenimiento.
  • Facilidad de prueba.
  • Portabilidad (entre plataformas).
  • Escalabilidad.
  • Extensibilidad (capacidad de adaptación o crecimiento).

FURPS establece una puntuación en tres niveles, el primer nivel (high) de cumplimiento va desde un 95% al 100%, en donde el software es altamente recomendado, el segundo nivel (moderate) desde el 80% al 95%, aquí el software debe corregir ciertos factores y el riesgo es controlable, el ultimo nivel (low) posee un cumplimiento menor al 80% por lo que el producto de software no cumple con los factores evaluados y el riesgo al ser utilizado es alto.

Galvis (2000) propone un modelo de evaluación de los materiales educativos computarizados (MEC), el cual será descrito por sus componentes y criterios. Este autor establece la evaluación como actividad necesaria para la elaboración de información requerida en la toma de decisiones, siendo aplicable a cualquier sistema.

Este modelo propone una metodología de evaluación de MEC como herramienta básica para la toma de decisiones, siendo aplicable a cualquier sistema. Se consideran los aspectos de calidad educativa, calidad computacional y calidad de uso del recurso informático; la evaluación se realiza con pruebas piloto y de campo, a través del juicio de expertos y la participación de usuarios en general.

Atiende criterios como: 

  • Calidad educativa 
  • Calidad computacional 
  • Probabilidad de uso del recurso informático.

En cuanto a los tipos de evaluaciones de los recursos educativos computarizados, se propone: 

  • Valoración comprensiva del MEC por juicio de expertos y la prueba con estudiantes. 

Cada ítem puede ser evaluado con cinco opciones de respuesta (excelente, bueno, regular, malo, no aplica).  

¡Crea tu página web gratis! Esta página web fue creada con Webnode. Crea tu propia web gratis hoy mismo! Comenzar