En la sesión virtual de la Comunidad IA (viernes 20 de febrero de 2026) analizaron hallazgos de la encuesta sobre IA en la educación del Digital Education Council (DEC) con la participación de Alessandro de Lullo (CEO del DEC) como invitado. La conversación, conducida por Jorge Bossio, puso énfasis en cómo docentes y estudiantes están incorporando estas herramientas, así como en las tensiones que esta adopción abre para la evaluación, la ética y el diseño institucional.  

Uno de los puntos recurrentes fue el crecimiento de la adopción: frente a estudios globales previos, el DEC observa tasas de uso docente elevadas en la región y una disposición relativamente pro-innovación. En términos de prácticas, el uso se concentra todavía en tareas como creación de materiales y automatización de trabajo preparatorio; no obstante, se planteó que el siguiente paso relevante es pasar de la experimentación instrumental a la integración orientada por resultados de aprendizaje, junto con la capacidad de identificar tendencias y comprender cómo aprenden los estudiantes.  

La sesión dedicó un bloque importante al tema de evaluación. Se distinguieron respuestas “reactivas” (ajustar evaluaciones vulnerables a la generación automática de textos, por ejemplo) y respuestas “proactivas” (redefinir qué se entiende por evaluación auténtica en un contexto donde cambia lo que se espera que una persona sepa hacer). En esa línea, se resaltó la necesidad de avanzar hacia diseños resilientes a la IA, apoyados en metodologías emergentes y en decisiones institucionales que hagan explícito qué habilidades humanas se buscan preservar y cuáles deben transformarse.  

En cuanto a perfiles docentes, el invitado señaló que no se observaron correlaciones claras entre seniority y resistencia, ni diferencias significativas por disciplina; la variación más visible se relaciona con la familiaridad técnica en áreas STEM, que no siempre se traduce en capacidad para aplicar la IA con sentido pedagógico. A partir de ello, se propuso que un modelo compartido de integración debería incluir, al menos, comprensión básica de qué puede y qué no puede hacer la IA (incluyendo diferencias entre herramientas conversacionales y agentes), competencias para guiar conversaciones éticas, y habilidades para evaluar críticamente la calidad de los outputs en el aula.  

Desde la perspectiva estudiantil, se reconoció el uso extendido y cotidiano de estas herramientas, y se discutió la dificultad de distinguir entre uso frecuente e integración educativa valiosa. Como riesgo, se mencionó la posible dependencia cognitiva, frente a la cual se recomendaron estrategias de diseño didáctico: uso deliberado de IA con discusión estructurada en clase, incorporación de checkpoints y entregables parciales (notas, bitácoras, comentarios), y evaluaciones centradas en procesos que permitan observar comprensión, toma de decisiones y revisión crítica.  

Finalmente, el intercambio abordó una ética ampliada que incluye infraestructura, soberanía tecnológica, opacidad de datos y costos ambientales. Se describió un escenario de trade-offs entre acceso (a menudo “gratuito” pero con menor control sobre datos) y entornos institucionales internos (más controlables pero costosos). Como cierre, se priorizaron tres decisiones institucionales: fortalecer alfabetización y entrenamiento (docentes y estudiantes), rediseñar enseñanza y evaluación hacia la resiliencia, y articular con la industria para anticipar habilidades demandadas, además de impulsar investigación sobre el impacto de la IA en aprender y pensar. 

¿Te gustaría participar activamente en la Comunidad IA en Educación?    

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS 

Mira el video completo de la sesión:

La sesión del viernes 13 de febrero se centró en conocer los resultados del estudio latinoamericano sobre el uso de inteligencia artificial en la educación superior, presentado por Jorge Bossio. El informe, elaborado por el Digital Education Council con la participación de 29 instituciones de la región, analiza más de 30,000 respuestas de estudiantes y docentes y revela cómo están cambiando las percepciones, usos y expectativas frente a estas tecnologías. 

Los estudiantes muestran una adopción masiva: el 92% afirma utilizar herramientas de IA, principalmente desde dispositivos móviles. Aunque reconocen su utilidad para buscar información, redactar ideas o apoyar el aprendizaje, también expresan una fuerte preocupación por la superficialidad del aprendizaje, la dependencia tecnológica y la falta de claridad sobre cómo proteger sus datos personales. Para ellos, las universidades aún no logran ofrecer lineamientos claros ni un acompañamiento adecuado, lo que genera incertidumbre y desconfianza. 

En el caso del profesorado, el 72% tiene una visión positiva sobre la IA y reconoce su futuro impacto en la docencia. Sin embargo, su uso sigue siendo limitado y se concentra en la generación de materiales educativos y recursos multimedia. Los docentes también coinciden en la necesidad de desarrollar tareas más sólidas, que permitan mantener el logro de aprendizajes incluso cuando los estudiantes utilizan IA, y demandan con urgencia orientación institucional, formación continua y acceso a mejores prácticas pedagógicas. 

El estudio evidencia además importantes brechas en alfabetización en IA. Tanto estudiantes como docentes muestran avances en el dominio básico de herramientas, pero rezagos en pensamiento crítico, uso ético, creatividad y comprensión profunda del funcionamiento de estas tecnologías. Esto abre un reto para las instituciones de educación superior, que deben fortalecer sus estrategias formativas y evitar que el uso de IA se limite a acciones superficiales que no transforman la experiencia de aprendizaje. 

La sesión culminó con un espacio de diálogo entre los participantes, quienes coincidieron en que el informe ofrece una fotografía necesaria para orientar decisiones pedagógicas, institucionales y de política educativa. La comunidad acordó continuar el análisis en la siguiente sesión, destacando la importancia de abrir espacios colaborativos donde se discutan buenas prácticas, desafíos reales y estrategias para integrar la IA en la educación de manera responsable y significativa. 

¿Te gustaría participar activamente en la Comunidad IA en Educación?     

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS  

Mira el video completo de la sesión: 

La primera sesión del ciclo 2026 del espacio de conversaciones sobre inteligencia artificial en educación reunió a la comunidad docente para reflexionar sobre la relación entre programación, exploración tecnológica y desarrollo profesional. El invitado fue Andy García Peña, docente de la UPC y la Universidad Continental, emprendedor y consultor de innovación, quien compartió su experiencia aprendiendo programación desde cero y utilizando herramientas de IA para transformar su práctica docente. 

Durante la sesión, el expositor expuso el dilema que enfrentan muchos profesores: si aprender a programar es realmente un recurso potenciador o una inversión innecesaria en tiempos en que la inteligencia artificial genera código de manera automática. Para él, la respuesta no es absoluta. Mostró cómo distinguir entre el “by coding” orientado a prototipado rápido y el desarrollo asistido por IA responsable, que implica comprender la estructura del código y revisar lo generado por los modelos. Según comentó, dominar las bases del pensamiento computacional le permitió integrar herramientas de manera más sólida y creativa en sus cursos. 

El docente relató cómo la curiosidad lo llevó a experimentar con diversas plataformas, desde Google Sheets y Notion hasta entornos más complejos como Google Antigravity. Explicó su proceso para instalar, configurar y evaluar esta herramienta de desarrollo con agentes, así como las estrategias que aplicó para manejar riesgos, probar modelos y automatizar partes de su flujo de trabajo docente. Detalló también cómo utiliza Notebook LM junto con Antigravity para generar contenidos, sintetizar clases y optimizar la creación de materiales semanales. 

A partir de su experiencia, García Peña compartió ejemplos de cómo la programación había fortalecido su capacidad para diseñar actividades, integrar APIs, crear prototipos y combinar herramientas con metodologías como el design thinking y la gamificación. Este proceso, según indicó, contribuyó a que varias de sus propuestas fueran reconocidas como innovaciones educativas en instituciones donde enseña. Insistió en que aprender programación no implica volverse desarrollador, sino adquirir una lógica que permita entender, validar y guiar mejor el uso de la IA. 

La sesión concluyó con un intercambio entre docentes sobre evaluación, ética y la necesidad de elevar el nivel de curiosidad en el aula. Los participantes coincidieron en que la IA obliga a repensar las estrategias pedagógicas, promover procesos más reflexivos y fomentar experiencias donde los estudiantes produzcan, contrasten y expliquen, más allá de lo que un modelo generativo puede resolver. La conversación dejó claro que la exploración tecnológica sigue abriendo caminos para renovar la enseñanza en educación superior. 

¿Te gustaría participar activamente en la Comunidad IA en Educación?    

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS 

Mira el video completo de la sesión:

El 7 de noviembre de 2025, la Comunidad IA recibió a Nicolás Núñez (CENTRUM PUCP), quien presentó resultados de un cuasi-experimento sobre el uso de IA generativa en cursos de innovación y diseño de modelos de negocio. La sesión planteó una hipótesis provocadora: aunque los modelos de lenguaje aumentan la productividad y facilitan la personalización, su uso grupal podría conducir a soluciones más homogéneas y menos originales. 

El marco conceptual fue el “groupthink”, fenómeno de toma de decisiones que privilegia consensos rápidos y minimiza la disidencia. Núñez lo conectó con la “convergencia algorítmica” propia de los LLM: respuestas similares ante preguntas similares, lo que puede estandarizar ideas y reducir la fricción creativa necesaria para la innovación. 

La investigación comparó dos configuraciones. En el Grupo A, cuatro estudiantes interactuaron de forma conjunta —una sola computadora— con la IA para diseñar un producto digital. En el Grupo B, cada integrante trabajó primero en solitario con IA y luego, en equipo, debatieron y consolidaron la propuesta. Así se observaron diferencias tanto en tiempos como en la diversidad de resultados. 

Los hallazgos son claros. La co-creación simultánea con IA fue más veloz, especialmente en el desarrollo de prototipos. No obstante, la ruta individual-primero generó más debate, más iteraciones con el modelo y mayor disposición a defender ideas propias informadas por la IA. Además, quienes se autopercibían “menos creativos” reportaron un incremento en su autoeficacia creativa al trabajar inicialmente de manera individual. 

Las implicancias para la docencia y el diseño instruccional son matizadas. Cuando el objetivo es cumplir plazos ajustados (por ejemplo, hackatones), la co-creación puede ser conveniente. Si se busca calidad creativa y diversidad de soluciones, es preferible exigir ideación individual previa y posponer la convergencia grupal. Complementariamente, conviene nivelar competencias de prompting, exigir trazabilidad (borradores y prompts) y equilibrar la responsabilidad individual con la discusión crítica del equipo. 

En suma, el estudio sugiere que combinar fases individuales y colectivas con IA mitiga la homogeneidad y favorece resultados más robustos. La agenda futura apunta a explorar sesgos en las interacciones humano-máquina y estrategias para evitar la “aversión al algoritmo”, manteniendo la creatividad como eje del aprendizaje. 

¿Te gustaría participar activamente en la Comunidad IA en Educación?    

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS 

Mira el video completo de la sesión:

La sesión del 14 de noviembre presentó la experiencia del Dr. Luis Manuel Valdez Fernández-Baca (infectología) al integrar chatbots como simuladores en “Clínica Médica I”, capítulo de enfermedades infecciosas, con 79 estudiantes y tiempo no lectivo para actividades autónomas. La motivación pedagógica fue explícita: desplazar el énfasis en memorización hacia niveles superiores de la taxonomía de Bloom (aplicar, analizar, evaluar, crear) y cultivar razonamiento clínico con retroalimentación inmediata y segura.  

Se diseñaron cuatro chatbots centrados en problemas frecuentes: fiebre sin foco, síndrome febril focal en pacientes con VIH, infecciones graves con bacterias resistentes (antibioterapia empírica y desescalamiento) y sepsis (casos simple y complejo). Cada bot establecía un diálogo escalonado para recojo de historia, examen, hipótesis, elección de pruebas, plan terapéutico y feedback detallado, incluyendo fortalezas, oportunidades de mejora y referencias. El enfoque habilitó práctica deliberada repetible y variación de escenarios, también útil para metacognición y reflexión clínica.  

Durante la implementación se recomendaron buenas prácticas de diseño: limitar la búsqueda abierta para reducir alucinaciones, nutrir el bot con fuentes curadas y ajustar el prompt con herramientas de apoyo (p. ej., Notebook LM). La dinámica mostró además un componente ético: aclarar usos apropiados, desincentivar atajos y fomentar trazabilidad del razonamiento más que respuestas “correctas” aisladas. El docente subrayó que los bots complementan—no sustituyen—la enseñanza junto al paciente, núcleo insustituible de la formación clínica.  

Los indicadores de aceptación fueron favorables. Según encuestas y comentarios, más del 60% valoró la actividad como bastante o extremadamente importante; alrededor del 93% la percibió útil para aprender y más del 90% la recomendaría en otros cursos. Hubo apropiación estudiantil: algunos organizaron acceso a versiones de pago y un estudiante creó bots propios para guías de estudio. Estas evidencias corresponden a niveles iniciales de evaluación (p. ej., Kirkpatrick 1–2) y abren una agenda para medir impacto en desempeño clínico posterior.  

Operativamente, la experiencia combinó interacción sincrónica (encuestas en vivo, demostraciones) y trabajo autónomo, ajustando aspectos técnicos de la videoconferencia y del flujo de uso en LMS. En paralelo, se insistió en formación docente en educación médica y en ética de IA, con miras a escalar la adopción en facultades y sociedades científicas. La propuesta es clara: usar chatbots como andamiajes que estructuren el pensamiento clínico, promuevan decisiones justificadas y habiliten ciclos de práctica-retroalimentación con evidencia.  

En síntesis, la intervención muestra que los simuladores conversacionales pueden articular contenidos infecciosos, razonamiento y evaluación formativa en un entorno controlado. Su valor radica en hacer visible el proceso—qué se pregunta, por qué se decide—más que en acelerar respuestas; y en crear condiciones para que el estudiante transite de recordar a deliberar sobre la atención del paciente. 

¿Te gustaría participar activamente en la Comunidad IA en Educación?    

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS 

Mira el video completo de la sesión:

En la sesión del 21 de noviembre, Gianfranco Mejía (UPC) analizó el proyecto de Estrategia Nacional de Inteligencia Artificial y el proyecto de Estrategia Nacional de Gobierno de Datos, destacando su interdependencia: sin gestión y calidad de datos, la IA difícilmente escalará con impacto. Subrayó que el documento de datos ofrece lineamientos más concretos (plataformas de analítica, capacitación regular, ecosistemas colaborativos), mientras que la estrategia de IA aún es parca en detalles para el sector educativo.  

En educación, el diagnóstico oficial alude a pilotos de personalización del aprendizaje, monitoreo de progreso y asistencia pedagógica, y a la capacitación de ~85–87 mil docentes en 2024, equivalente a algo más del 20% del total en escuelas públicas; avance inicial que revela una brecha sustantiva en alfabetización digital docente. Mejía resaltó dos prioridades: promover estrategias educativas en IA desde etapas tempranas y fortalecer capacidades en ETP e institutos, con enfoque territorial e inclusión.  

El intercambio con los asistentes enfatizó la alineación con el Plan Estratégico de Desarrollo Nacional al 2050: formar talento avanzado hoy es condición para productividad e innovación futuras. Para que las estrategias trasciendan el papel, se identificaron tres retos: financiamientogobernanza multisectorial (MINEDU, PCM/SGTD, MTC, PRODUCE y academia) y continuidad institucional más allá de los ciclos políticos.  

Como riesgo transversal, se advirtió la ausencia de líneas de base y métricas unificadas: sin datos comparables y depurados, será difícil medir éxito o corregir rumbo. La recomendación práctica fue sincronizar la agenda de IA con la de gobierno de datos (alfabetización, microcredenciales, currículos por niveles y roles) y publicar avances verificables para escrutinio académico y ciudadano. 

¿Te gustaría participar activamente en la Comunidad IA en Educación?    

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS 

Mira el video completo de la sesión: 

La sesión del viernes 31 de octubre estuvo a cargo de Marianela López de Empujón Educativo, quien presentó una propuesta integral para personalizar el aprendizaje desde la inclusión, apoyada en neurociencias, ciencias del comportamiento e inteligencia artificial responsable. El punto de partida es un problema regional: las escuelas siguen operando con ritmos y evaluaciones únicas para grupos diversos, lo que deja fuera a gran parte del alumnado neurodivergente y reproduce brechas de aprendizaje. Empujón Educativo busca “no bajar expectativas, sino cambiar el acceso”, colocando a la persona en el centro de cada decisión tecnológica.  

El equipo ha desarrollado microaplicativos que miden con alta precisión la fluidez y la comprensión lectora. En la prueba de fluidez, la plataforma captura 420 puntos del rostro y analiza procesos oculomotores (progresiones, regresiones, fijaciones) y la conversión fonema–grafema para estimar la entrada a la comprensión. Los reportes detallan palabras por minuto, tipos de error (omisiones, sustituciones, adiciones) y ubican el desempeño frente a estándares por grado. Con base en ello, se propone un plan de entrenamiento automatizado (p. ej., 7 semanas, 5 días por semana, sesiones de 16 minutos), con entrenadores de fluidez, reducción de retrosacádicos y memoria icónica.  

Los primeros pilotos reportan metas operativas de mejora en 4–8 semanas: +20% en palabras por minuto, +4 puntos en precisión y ?35% en errores, acompañadas de recomendaciones para aula y familia. La solución se despliega en paralelo a un “historia educativa” interoperable (analógica a la historia clínica), que integra datos cuantitativos y cualitativos (observaciones docentes, asistencia, notas) y sirve como lago de datos para agentes de IA responsables que asisten a docentes y estudiantes sin reemplazarlos. La arquitectura usa RAG con conocimiento del marco legal (país, provincia, escuela) y principios de Diseño Universal para el Aprendizaje.  

En la práctica docente, la plataforma permite cargar la planificación y generar materiales adecuados por estudiante (resúmenes, mapas, evaluaciones), incorporando multimodalidad (podcasts, videos) y guías para familias. También avanza en rúbricas inclusivas (p. ej., no penalizar ortografía en dislexia; ajustes razonables y anticipación del material). Un objetivo adicional es reducir la carga de tiempo: adecuar manualmente puede tomar ~4 horas por estudiante/semana; automatizar tipografía, tamaño y formato ya representa inclusión efectiva.  

De cara a la región, el proyecto subraya desafíos estructurales: carencia de formación docente en neurodiversidad, conectividad y dispositivos escasos, y la necesidad de modelos y datasets locales (equidad dialectal y lenguas originarias) porque transcriptores comerciales no capturan particularidades del español regional. La estrategia incluye pilotos en escuelas estatales y bilingües (1000+ estudiantes), alianzas (p. ej., con una plataforma de gestión en San Luis para 20 000 estudiantes), colaboración académica y futuras experiencias en educación superior (UPC; U. Autónoma de Chihuahua). La consigna ética del equipo: elegir métricas que amplifiquen humanidad; no escalar desigualdades bajo una “falsa modernidad”.  

Finalmente, se presentaron usos de tecnologías asistivas para estudiantes que no han automatizado lectura/escritura (dictado y transcripción con validación por parte del estudiante) y el enfoque metacognitivo del entrenamiento: el sistema comunica metas, registra causas de detención (fisiológicas, emocionales, lingüísticas) y combina evidencia cuantitativa y cualitativa para orientar decisiones pedagógicas en tiempo real.  

¿Te gustaría participar activamente en la Comunidad IA en Educación?    

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS 

Mira el video completo de la sesión: 

La sesión de la Comunidad IA del viernes 24 de octubre estuvo dedicada a una conversación sobre ética e inteligencia artificial, a cargo de Jorge Ramírez con el tema “Entre la máquina y la moral: los dilemas éticos de la IA”. 

El expositor propuso partir de una premisa: la IA dejó de ser promesa futura y opera hoy en decisiones cotidianas y de alto impacto (recomendaciones, filtrado de información, detección de fraude, incluso apoyos en ámbitos judiciales y médicos). Por ello, sus efectos no son neutros y arrastran sesgos, errores y consecuencias no previstas, lo que obliga a un examen ético sistemático.  

Desde una perspectiva formativa, se precisó que la ética aplicada a la IA no pretende “máquinas éticas”, sino personas y organizaciones que diseñen, implementen y usen tecnologías con criterios de justicia, no maleficencia, transparencia y responsabilidad. Se revisaron niveles de análisis (metaética, ética normativa y ética aplicada) y se situó el trabajo docente en preguntas prácticas: ¿enseñamos mejor con IA?, ¿evaluamos con justicia?, ¿respetamos la privacidad estudiantil?  

El diálogo aterrizó en educación con casos conocidos: evaluación automatizada y sus posibles errores; generación de contenido y dependencia estudiantil; y sistemas de vigilancia académica (plagio, suplantación) con potenciales invasiones a la privacidad y zonas difusas de responsabilidad institucional y tecnológica. Aquí se subrayó el tránsito de “qué puede hacer” a “qué debe hacer” la IA.  

Para ejercitar el juicio moral, la audiencia resolvió el experimento “Moral Machine” (MIT) con 13 escenarios sobre vehículos autónomos, diseñado para revelar preferencias sociales ante dilemas extremos. La actividad generó debate sobre valor de la vida, legalidad y sesgos culturales; y permitió contrastar hallazgos agregados con decisiones individuales.  

Finalmente, se introdujo una lectura crítica: convertir dilemas humanos en una “encuesta masiva” es cuestionado por autores como John Harris (Cambridge), quien objeta que ningún algoritmo debería decidir quién vive o muere y que la tarea ética exige deliberación racional para proteger dignidad y vida. La discusión cerró recordando que los valores (instrumentales e intrínsecos) y las normas (morales, sociales y legales) pueden entrar en tensión, por lo que urge construir criterio colectivo desde casos y preguntas, no desde respuestas prefabricadas. 

¿Te gustaría participar activamente en la Comunidad IA en Educación?    

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS 

Mira el video completo de la sesión: 

En la sesión del viernes 17 de octubre, la doctora Mariela Camargo Román presentó los avances de Sapiencio, una plataforma de coevaluación que combina el juicio docente con el consenso de múltiples modelos de IA para mejorar la calidad y equidad de las evaluaciones. La propuesta desplaza el esquema “uno a uno” (un docente o un solo modelo) hacia un “segundo jurado” algorítmico que compara resultados entre modelos y entrega retroalimentación detallada, manteniendo la validación final en manos del profesor.  

La plataforma integra más de sesenta modelos especializados para distintas tareas y tipos de pregunta (selección múltiple, respuesta abierta y casos), permitiendo al docente elegir qué modelos usar para generar ítems y cuáles para evaluar. Además, admite rúbricas y pruebas personalizadas; el flujo prevé la revisión docente del feedback antes de liberar notas. En pruebas internas, el equipo reporta reducción significativa de tiempos administrativos y retroalimentación más consistente.  

En la práctica, la evaluación se ejecuta con varios modelos en paralelo, cuyos informes permiten contrastar criterios y aislar “outliers” antes de promediar. Este mecanismo —descrito por Camargo como una forma de “inteligencia colectiva”— busca atenuar imprecisiones y sesgos, sin sustituir el criterio pedagógico. El docente puede enviar directamente el promedio sugerido o ajustar calificaciones y comentarios.  

Los resultados preliminares indican hasta 70% de ahorro de tiempo en la corrección y una mejora en la trazabilidad de decisiones, con beneficios percibidos por estudiantes y profesores en rapidez y calidad del feedback; la iniciativa permanece en fase de testeo abierto. La sesión también subrayó que la IA no reemplaza la reflexión docente y que su aporte es liberar tiempo para acompañar el aprendizaje.  

El diálogo posterior abordó desafíos éticos: imprecisión e inclusión. Se discutió que el trabajo con múltiples modelos y la detección de respuestas alejadas del promedio ayuda a mitigar errores, aunque aún quedan pendientes de desarrollo funcionalidades de accesibilidad lingüística. Asimismo, se planteó extender el alcance a evaluaciones orales mediante análisis de audio.  

Finalmente, se propuso avanzar hacia una ingeniería inversa de la evaluación: partir del examen (y de las competencias) para reorganizar contenidos y generar planes de mejora personalizados, cerrando el ciclo evaluación–retroalimentación–recuperación. Esta línea conecta con la elaboración de exámenes equivalentes y el análisis de resultados para identificar brechas de aprendizaje individuales. 

¿Te gustaría participar activamente en la Comunidad IA en Educación?    

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS 

Mira el video completo de la sesión: