En la sesión del viernes 17 de octubre, la doctora Mariela Camargo Román presentó los avances de Sapiencio, una plataforma de coevaluación que combina el juicio docente con el consenso de múltiples modelos de IA para mejorar la calidad y equidad de las evaluaciones. La propuesta desplaza el esquema “uno a uno” (un docente o un solo modelo) hacia un “segundo jurado” algorítmico que compara resultados entre modelos y entrega retroalimentación detallada, manteniendo la validación final en manos del profesor.
La plataforma integra más de sesenta modelos especializados para distintas tareas y tipos de pregunta (selección múltiple, respuesta abierta y casos), permitiendo al docente elegir qué modelos usar para generar ítems y cuáles para evaluar. Además, admite rúbricas y pruebas personalizadas; el flujo prevé la revisión docente del feedback antes de liberar notas. En pruebas internas, el equipo reporta reducción significativa de tiempos administrativos y retroalimentación más consistente.
En la práctica, la evaluación se ejecuta con varios modelos en paralelo, cuyos informes permiten contrastar criterios y aislar “outliers” antes de promediar. Este mecanismo —descrito por Camargo como una forma de “inteligencia colectiva”— busca atenuar imprecisiones y sesgos, sin sustituir el criterio pedagógico. El docente puede enviar directamente el promedio sugerido o ajustar calificaciones y comentarios.
Los resultados preliminares indican hasta 70% de ahorro de tiempo en la corrección y una mejora en la trazabilidad de decisiones, con beneficios percibidos por estudiantes y profesores en rapidez y calidad del feedback; la iniciativa permanece en fase de testeo abierto. La sesión también subrayó que la IA no reemplaza la reflexión docente y que su aporte es liberar tiempo para acompañar el aprendizaje.
El diálogo posterior abordó desafíos éticos: imprecisión e inclusión. Se discutió que el trabajo con múltiples modelos y la detección de respuestas alejadas del promedio ayuda a mitigar errores, aunque aún quedan pendientes de desarrollo funcionalidades de accesibilidad lingüística. Asimismo, se planteó extender el alcance a evaluaciones orales mediante análisis de audio.
Finalmente, se propuso avanzar hacia una ingeniería inversa de la evaluación: partir del examen (y de las competencias) para reorganizar contenidos y generar planes de mejora personalizados, cerrando el ciclo evaluación–retroalimentación–recuperación. Esta línea conecta con la elaboración de exámenes equivalentes y el análisis de resultados para identificar brechas de aprendizaje individuales.
¿Te gustaría participar activamente en la Comunidad IA en Educación?
Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS
Mira el video completo de la sesión: