La sesión del viernes 31 de octubre estuvo a cargo de Marianela López de Empujón Educativo, quien presentó una propuesta integral para personalizar el aprendizaje desde la inclusión, apoyada en neurociencias, ciencias del comportamiento e inteligencia artificial responsable. El punto de partida es un problema regional: las escuelas siguen operando con ritmos y evaluaciones únicas para grupos diversos, lo que deja fuera a gran parte del alumnado neurodivergente y reproduce brechas de aprendizaje. Empujón Educativo busca “no bajar expectativas, sino cambiar el acceso”, colocando a la persona en el centro de cada decisión tecnológica.  

El equipo ha desarrollado microaplicativos que miden con alta precisión la fluidez y la comprensión lectora. En la prueba de fluidez, la plataforma captura 420 puntos del rostro y analiza procesos oculomotores (progresiones, regresiones, fijaciones) y la conversión fonema–grafema para estimar la entrada a la comprensión. Los reportes detallan palabras por minuto, tipos de error (omisiones, sustituciones, adiciones) y ubican el desempeño frente a estándares por grado. Con base en ello, se propone un plan de entrenamiento automatizado (p. ej., 7 semanas, 5 días por semana, sesiones de 16 minutos), con entrenadores de fluidez, reducción de retrosacádicos y memoria icónica.  

Los primeros pilotos reportan metas operativas de mejora en 4–8 semanas: +20% en palabras por minuto, +4 puntos en precisión y ?35% en errores, acompañadas de recomendaciones para aula y familia. La solución se despliega en paralelo a un “historia educativa” interoperable (analógica a la historia clínica), que integra datos cuantitativos y cualitativos (observaciones docentes, asistencia, notas) y sirve como lago de datos para agentes de IA responsables que asisten a docentes y estudiantes sin reemplazarlos. La arquitectura usa RAG con conocimiento del marco legal (país, provincia, escuela) y principios de Diseño Universal para el Aprendizaje.  

En la práctica docente, la plataforma permite cargar la planificación y generar materiales adecuados por estudiante (resúmenes, mapas, evaluaciones), incorporando multimodalidad (podcasts, videos) y guías para familias. También avanza en rúbricas inclusivas (p. ej., no penalizar ortografía en dislexia; ajustes razonables y anticipación del material). Un objetivo adicional es reducir la carga de tiempo: adecuar manualmente puede tomar ~4 horas por estudiante/semana; automatizar tipografía, tamaño y formato ya representa inclusión efectiva.  

De cara a la región, el proyecto subraya desafíos estructurales: carencia de formación docente en neurodiversidad, conectividad y dispositivos escasos, y la necesidad de modelos y datasets locales (equidad dialectal y lenguas originarias) porque transcriptores comerciales no capturan particularidades del español regional. La estrategia incluye pilotos en escuelas estatales y bilingües (1000+ estudiantes), alianzas (p. ej., con una plataforma de gestión en San Luis para 20 000 estudiantes), colaboración académica y futuras experiencias en educación superior (UPC; U. Autónoma de Chihuahua). La consigna ética del equipo: elegir métricas que amplifiquen humanidad; no escalar desigualdades bajo una “falsa modernidad”.  

Finalmente, se presentaron usos de tecnologías asistivas para estudiantes que no han automatizado lectura/escritura (dictado y transcripción con validación por parte del estudiante) y el enfoque metacognitivo del entrenamiento: el sistema comunica metas, registra causas de detención (fisiológicas, emocionales, lingüísticas) y combina evidencia cuantitativa y cualitativa para orientar decisiones pedagógicas en tiempo real.  

¿Te gustaría participar activamente en la Comunidad IA en Educación?    

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS 

Mira el video completo de la sesión: 

Durante este año, el curso “Fundamentos de Inteligencia Artificial Generativa en la Educación” volvió a abrir sus puertas con gran acogida. En total, se desarrollaron tres grupos, cada uno con más de 100 docentes inscritos provenientes de diversas carreras y niveles de experiencia en el uso de la inteligencia artificial. Esta variedad de perfiles reafirma el carácter inclusivo del curso, diseñado para acompañar a cualquier docente, sin importar su nivel de conocimiento previo, en la incorporación responsable y efectiva de herramientas de IA en la enseñanza.

El programa, ofrecido de manera virtual y síncrona, constó de cuatro sesiones de dos horas cada una. A lo largo de estas jornadas, los participantes exploraron los conceptos esenciales de la inteligencia artificial generativa y sus aplicaciones educativas.

El curso se estructuró en cuatro módulos temáticos:

  1. Introducción a la inteligencia artificial generativa
  2. Exploración y mejora de la interacción con modelos de lenguaje
  3. Integración de la IA generativa en el proceso de enseñanza y aprendizaje
  4. Herramientas de IA generativa complementarias

Cada edición del curso se actualiza antes de su inicio, con el fin de incorporar los avances más recientes en herramientas y prácticas de IA, lo que le otorga un valor añadido al mantener sus contenidos alineados con el ritmo acelerado de esta tecnología.

La metodología combinó sesiones síncronas con trabajo autónomo, promoviendo el análisis, la reflexión y la aplicación práctica. Al finalizar, los participantes desarrollaron un proyecto aplicativo, donde propusieron una forma pedagógica de integrar la IA generativa en sus cursos o sesiones.

image

Tras la culminación del curso, el equipo de Innovación Educativa se comunicó con los docentes que aprobaron el programa para acompañarlos en la implementación de sus propuestas. Este proceso incluyó reuniones personalizadas para profundizar en las ideas presentadas, ajustar los enfoques pedagógicos y apoyar su puesta en práctica.

Actualmente, el equipo trabaja en la documentación de estas experiencias para compartirlas con la comunidad académica a través del Catálogo de Experiencias de Aprendizaje, donde se presentarán las iniciativas y los resultados obtenidos por los docentes con sus estudiantes.

De acuerdo con los resultados de la encuesta de satisfacción aplicada al finalizar cada grupo, el 77.42% de los participantes manifestó estar muy satisfecho y el 22.58% satisfecho con la experiencia. En cuanto a la valoración del contenido del curso, el 64.52% lo calificó como muy bueno y el 35.48% como bueno, destacando la pertinencia y actualidad de los temas abordados. Además, el 71% indicó que es muy probable que recomiende el curso y el 29% que probablemente lo haría, lo que evidencia el alto nivel de valoración y el impacto positivo que esta formación mantiene entre los docentes de la universidad.

qué tan satisfecho...

El curso “Fundamentos de IA Generativa en la Educación” se ha consolidado como un espacio de formación, exploración y acompañamiento docente que promueve el uso responsable y pedagógico de la inteligencia artificial en la enseñanza. Su impacto trasciende la capacitación técnica: representa un paso importante en la alfabetización digital de la comunidad académica, preparando a los docentes para incorporar nuevas herramientas de manera crítica y con sentido educativo.

El proceso de acompañamiento posterior —en el que los docentes reciben apoyo para implementar sus propuestas en el aula— refuerza el compromiso institucional con una transformación educativa sostenible, centrada en la experimentación, la colaboración y la mejora continua.

De esta manera, la experiencia se convierte no solo en un curso, sino en un espacio de formación y experimentación pedagógica, que impulsa el uso responsable de la inteligencia artificial en la enseñanza y promueve el aprendizaje continuo en una comunidad docente cada vez más innovadora.

La sesión de la Comunidad IA del viernes 24 de octubre estuvo dedicada a una conversación sobre ética e inteligencia artificial, a cargo de Jorge Ramírez con el tema “Entre la máquina y la moral: los dilemas éticos de la IA”. 

El expositor propuso partir de una premisa: la IA dejó de ser promesa futura y opera hoy en decisiones cotidianas y de alto impacto (recomendaciones, filtrado de información, detección de fraude, incluso apoyos en ámbitos judiciales y médicos). Por ello, sus efectos no son neutros y arrastran sesgos, errores y consecuencias no previstas, lo que obliga a un examen ético sistemático.  

Desde una perspectiva formativa, se precisó que la ética aplicada a la IA no pretende “máquinas éticas”, sino personas y organizaciones que diseñen, implementen y usen tecnologías con criterios de justicia, no maleficencia, transparencia y responsabilidad. Se revisaron niveles de análisis (metaética, ética normativa y ética aplicada) y se situó el trabajo docente en preguntas prácticas: ¿enseñamos mejor con IA?, ¿evaluamos con justicia?, ¿respetamos la privacidad estudiantil?  

El diálogo aterrizó en educación con casos conocidos: evaluación automatizada y sus posibles errores; generación de contenido y dependencia estudiantil; y sistemas de vigilancia académica (plagio, suplantación) con potenciales invasiones a la privacidad y zonas difusas de responsabilidad institucional y tecnológica. Aquí se subrayó el tránsito de “qué puede hacer” a “qué debe hacer” la IA.  

Para ejercitar el juicio moral, la audiencia resolvió el experimento “Moral Machine” (MIT) con 13 escenarios sobre vehículos autónomos, diseñado para revelar preferencias sociales ante dilemas extremos. La actividad generó debate sobre valor de la vida, legalidad y sesgos culturales; y permitió contrastar hallazgos agregados con decisiones individuales.  

Finalmente, se introdujo una lectura crítica: convertir dilemas humanos en una “encuesta masiva” es cuestionado por autores como John Harris (Cambridge), quien objeta que ningún algoritmo debería decidir quién vive o muere y que la tarea ética exige deliberación racional para proteger dignidad y vida. La discusión cerró recordando que los valores (instrumentales e intrínsecos) y las normas (morales, sociales y legales) pueden entrar en tensión, por lo que urge construir criterio colectivo desde casos y preguntas, no desde respuestas prefabricadas. 

¿Te gustaría participar activamente en la Comunidad IA en Educación?    

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS 

Mira el video completo de la sesión: 

En la sesión del viernes 17 de octubre, la doctora Mariela Camargo Román presentó los avances de Sapiencio, una plataforma de coevaluación que combina el juicio docente con el consenso de múltiples modelos de IA para mejorar la calidad y equidad de las evaluaciones. La propuesta desplaza el esquema “uno a uno” (un docente o un solo modelo) hacia un “segundo jurado” algorítmico que compara resultados entre modelos y entrega retroalimentación detallada, manteniendo la validación final en manos del profesor.  

La plataforma integra más de sesenta modelos especializados para distintas tareas y tipos de pregunta (selección múltiple, respuesta abierta y casos), permitiendo al docente elegir qué modelos usar para generar ítems y cuáles para evaluar. Además, admite rúbricas y pruebas personalizadas; el flujo prevé la revisión docente del feedback antes de liberar notas. En pruebas internas, el equipo reporta reducción significativa de tiempos administrativos y retroalimentación más consistente.  

En la práctica, la evaluación se ejecuta con varios modelos en paralelo, cuyos informes permiten contrastar criterios y aislar “outliers” antes de promediar. Este mecanismo —descrito por Camargo como una forma de “inteligencia colectiva”— busca atenuar imprecisiones y sesgos, sin sustituir el criterio pedagógico. El docente puede enviar directamente el promedio sugerido o ajustar calificaciones y comentarios.  

Los resultados preliminares indican hasta 70% de ahorro de tiempo en la corrección y una mejora en la trazabilidad de decisiones, con beneficios percibidos por estudiantes y profesores en rapidez y calidad del feedback; la iniciativa permanece en fase de testeo abierto. La sesión también subrayó que la IA no reemplaza la reflexión docente y que su aporte es liberar tiempo para acompañar el aprendizaje.  

El diálogo posterior abordó desafíos éticos: imprecisión e inclusión. Se discutió que el trabajo con múltiples modelos y la detección de respuestas alejadas del promedio ayuda a mitigar errores, aunque aún quedan pendientes de desarrollo funcionalidades de accesibilidad lingüística. Asimismo, se planteó extender el alcance a evaluaciones orales mediante análisis de audio.  

Finalmente, se propuso avanzar hacia una ingeniería inversa de la evaluación: partir del examen (y de las competencias) para reorganizar contenidos y generar planes de mejora personalizados, cerrando el ciclo evaluación–retroalimentación–recuperación. Esta línea conecta con la elaboración de exámenes equivalentes y el análisis de resultados para identificar brechas de aprendizaje individuales. 

¿Te gustaría participar activamente en la Comunidad IA en Educación?    

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS 

Mira el video completo de la sesión: 

La sesión, del viernes 10 de octubre, estuvo a cargo de Diego Castrillón (director de desarrollo de negocios y alianzas de uDocz), quien presentó hallazgos de un estudio sobre uso de IA en la educación superior peruana y mostró “Doc”, un tutor con contexto institucional. uDocz reporta una comunidad de 4 millones de estudiantes y 200 mil docentes en la región, y 18 meses de trabajo continuo desarrollando el tutor para acompañar el aprendizaje en universidades latinoamericanas.  

Desde la mirada estudiantil, 95% usa alguna herramienta de IA, aunque con bajo dominio para fines académicos. Tres de cada cinco perciben que, usada correctamente, la IA eleva la calidad, y 97% la considera clave para su futuro profesional. Sin embargo, dos de cada tres estudiantes se muestran insatisfechos con la integración institucional y temen sanciones por uso indebido, lo que exige reglas claras de evaluación y acompañamiento.  

En la perspectiva docente, solo 8% declara integrar formalmente la IA en su estrategia pedagógica y 74% demanda formación continua. Identifican beneficios en preparación de clases, evaluación/retroalimentación y personalización; no obstante, citan barreras como falta de tiempo (52%), dificultad para ubicar información (23%) y nula integración a sus plataformas (16%). La mayoría la usa entre 1 y 4 veces por semana, con niveles de dominio divididos entre neutral (43,3%) y alto/muy alto (47%). Se subraya la necesidad de gobernanza institucional y lineamientos éticos.  

El tutor “Doc” se despliega con materiales, sílabos y rúbricas de cada curso y sección, y ofrece cuatro modos: estudiar para un examen, aprender un tema, resolver un problema y “ponte a prueba” por niveles. Incorpora andamiaje socrático y genera un tablero para la institución con reportes semanales de “verbatim”, errores recurrentes y brechas para acciones remediales. Están en desarrollo funciones de “estatus” para el estudiante y reportes de riesgo por sección y por alumno para el docente.  

Como marco de decisión para las instituciones, Castrillón citó indicadores sectoriales: 40% de implementaciones se orienta al “student engagement”; el retorno sobre la inversión alcanza 3,4x en un promedio de 15 meses; y para 2028 más del 70% de los recursos de enseñanza se desarrollará con IA. Estas cifras refuerzan la urgencia de estrategias de adopción con gobernanza y formación docente.  

En síntesis, la evidencia sugiere una alta adopción espontánea del estudiantado, una demanda fuerte de desarrollo profesional docente y el valor de tutores con contexto institucional para personalización, evaluación formativa y retención. El desafío inmediato pasa por reglas claras, integración en el LMS y monitoreo pedagógico continuo. 

¿Te gustaría participar activamente en la Comunidad IA en Educación?    

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS 

Mira el video completo de la sesión: 

En la sesión del viernes 3 de octubre, la Comunidad IA, Jesús L. Vivanco presentó avances de una investigación en curso sobre la relación entre ciencia de datos y procesamiento de imágenes, con foco en cómo trasladar estos conceptos al aula. El punto de partida fue una preocupación compartida: el despliegue acelerado de herramientas de IA desborda los tiempos de actualización docente, en especial en lo relativo al diseño de evaluaciones y sesiones de aprendizaje. 

El ponente describió, con ejemplos, el funcionamiento de sistemas que detectan y clasifican objetos a partir de imágenes, enfatizando la transformación de lo visual en representaciones numéricas (vectores, matrices, patrones). A partir de ello, propuso una ruta didáctica que vincula geometría y estadística para aproximar a las y los estudiantes a los principios de estos algoritmos sin exigir una axiomatización exhaustiva, privilegiando actividades que hagan visible el paso del dato a la imagen y viceversa. 

Desde su experiencia, Vivanco narró la transición de entornos como R hacia Python y el trabajo con bases de datos, así como el uso de generadores de imágenes en clase para abrir discusiones sobre “cómo” se produce el resultado y no solo “que” el resultado exista. Advirtió que el énfasis exclusivo en la operación de las herramientas puede consolidar sesgos y empobrecer procesos cognitivos, por lo que planteó la necesidad de cultivar explicaciones, justificaciones y lectura crítica de salidas algorítmicas. 

Un eje central fue el ejercicio de reconstrucción de imágenes: tratar una imagen como conjunto de puntos, estudiar su tratamiento estadístico y luego reconstruirla para comprender nociones como representación, compresión y error. Este “viaje de ida y vuelta” permite diseñar tareas evaluables donde el estudiantado argumenta decisiones, documenta procesos y reflexiona sobre trazabilidad y calidad del dato. 

En cuanto a su investigación, el ponente indicó que ya completó la revisión de literatura y el diseño del instrumento, y que la siguiente etapa será validar la propuesta en una clase piloto, observando si mejora la confianza explicativa del alumnado respecto al funcionamiento de estos sistemas.

¿Te gustaría participar activamente en la Comunidad IA en Educación?    

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS 

Mira el video completo de la sesión: 

Por: Jorge Ramírez Aguilar

En un contexto donde la inteligencia artificial transforma de manera acelerada la enseñanza, la investigación y la gestión universitaria, surge una pregunta esencial: ¿cómo garantizar que su uso respete los valores humanos y educativos que sustentan nuestras instituciones? La ética de la IA no es solo un campo de estudio técnico, sino un pilar que define el futuro de la educación superior: formar profesionales capaces de comprender, evaluar y aplicar tecnologías con responsabilidad social, transparencia y justicia.

Con esa convicción, se ofreció en agosto el curso “Ética de la Inteligencia Artificial”, dirigido a docentes de la UPC. La iniciativa combinó marcos teóricos con análisis de casos reales, buscando promover una reflexión profunda sobre los dilemas éticos que surgen al integrar la IA en la práctica educativa.

Durante cuatro sesiones sincrónicas se abordaron temas como la responsabilidad algorítmica, la justicia y transparencia en los sistemas automatizados, los riesgos de sesgos y vigilancia, y el impacto de la IA en la integridad académica y la autoría en la era digital.

El curso también introdujo el concepto de postplagio, un cambio de paradigma que propone pasar de la vigilancia a la formación ética, promoviendo comunidades de aprendizaje basadas en la confianza, la autorregulación y la reflexión crítica sobre la coautoría humano-máquina.

La experiencia generó un alto nivel de satisfacción entre los participantes, quienes destacaron la pertinencia del tema y la oportunidad de debatir sobre dilemas reales que ya enfrentan en sus aulas. Las discusiones fueron dinámicas y enriquecedoras, impulsando el intercambio de perspectivas entre docentes de distintas disciplinas y fortaleciendo el sentido de comunidad académica frente a los desafíos de la era digital.

Para la UPC, esta experiencia reafirma su compromiso con una transformación educativa centrada en el pensamiento crítico, la integridad y el uso responsable de la tecnología, pilares indispensables para afrontar los desafíos éticos y pedagógicos de la inteligencia artificial.

En la sesión del viernes 26 de septiembre, Lea Sulmont e Ysabel Rosales, docentes de la Facultad de Educación de la UPC presentaron una experiencia de aula donde estudiantes de séptimo ciclo diseñaron asistentes conversacionales para apoyar la planificación por competencias en educación inicial y primaria. El punto de partida fue un diagnóstico claro: planificar bajo enfoque de competencias demanda tiempo y genera sobrecarga documental; por ello, se optó por explorar usos pedagógicos de la IA generativa con base de conocimiento alineada al Currículo Nacional.  

El trabajo se desarrolló durante seis semanas, en modalidad presencial y con metodología de aprendizaje por retos. Los equipos integraron pensamiento computacional para comprender el funcionamiento de los modelos, cuidaron la curaduría de contenidos y siguieron un proceso en cinco fases con enfoques ágiles; cada estudiante construyó su propio asistente y luego se seleccionó la mejor versión mediante una dinámica de evaluación comparativa.  

El producto final fue una colección de siete asistentes “EduIA”, uno por cada grado desde inicial hasta sexto, accesibles en una interfaz unificada mediante Poe; se eligió esta plataforma por su facilidad de compartir y se combinaron otros modelos en el flujo de trabajo. Los prototipos se ajustaron al contexto de cada institución (p. ej., enfoques artísticos o humanistas) y operaron con requisitos explícitos de entrada (contexto, logro, evidencias) para generar propuestas de sesiones.  

La experiencia se alineó con el Currículo Nacional (31 competencias) y puso énfasis en la competencia 28, que promueve el desempeño en entornos virtuales. El asistente se concibió como apoyo para transversalizar competencias, adaptar estándares por grado y articular enfoques transversales, reduciendo tiempo en búsqueda y organización de insumos para el diseño de experiencias.  

Entre los resultados reportados se señaló un ahorro significativo de tiempo y mayor claridad en la planificación, junto con el desarrollo de una ciudadanía digital responsable y discusiones éticas sobre el rol docente frente a la IA. La implementación incluyó políticas de protección de datos en el ecosistema digital propuesto, y se buscó la transferibilidad de los asistentes a escuelas públicas utilizando herramientas de acceso gratuito.  

Como proyección, el curso situó los asistentes dentro de un ecosistema digital escolar más amplio (tipo intranet) y promovió la comunicación efectiva de las propuestas mediante “elevator pitches”, abriendo posibilidades de incubación y escalamiento con criterios técnicos y pedagógicos. 

¿Te gustaría participar activamente en la Comunidad IA en Educación?    

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS 

Mira el video completo de la sesión: 

En la sesión del viernes 19 de septiembre, la Comunidad IA en la educación recibió a Manuel Sotomayor, psicólogo educativo y responsable de estrategia de IA educativa en Centrum PUCP. Su ponencia abordó la “paradoja cognitiva de la IA”: una tecnología capaz de amplificar las capacidades intelectuales, pero que, al mismo tiempo, puede erosionar habilidades cruciales para el aprendizaje, como el pensamiento crítico y la autorregulación. 

Sotomayor ilustró el dilema con un caso típico: dos estudiantes resuelven un estudio de negocios; quien usa IA produce más rápido análisis sólidos, pero puede no haber internalizado el razonamiento que sustenta sus respuestas. El foco en “productos” por encima de procesos cognitivos y afectivos —advirtió— pone en riesgo el desarrollo de competencias analíticas. De ahí su llamado a replantear el diseño pedagógico y las evidencias de aprendizaje en entornos con IA. 

Desde la teoría, articuló tres marcos. Primero, la teoría de la carga cognitiva: reducir carga extrínseca (presentaciones y materiales mal diseñados) para favorecer la carga germinal, donde ocurre la construcción de esquemas y el aprendizaje profundo. La “trampa” aparece cuando la IA no solo quita lo extrínseco sino también sustituye esfuerzo germinal, desplazando el “sweet spot” de dificultad deseable. El segundo y tercer marco vinculan taxonomías de Bloom con los sistemas 1 y 2 de Kahneman: si la IA se apropia tanto de las habilidades de orden inferior como de las superiores, el andamiaje evolutivo del aprendizaje se resiente. 

A nivel empírico, el expositor reseñó hallazgos recientes. En tareas aplicadas, estudiantes con IA y orientación docente mejoran su desempeño; sin orientación, la variabilidad aumenta y el promedio cae frente a quienes trabajan sin IA. No obstante, emerge un dato incómodo: 50% declara fuerte dependencia de la IA y 16,7% teme perder capacidad de resolución autónoma. Este debate se enlaza con el modelo FACT (Fundamento–Aplicación–Crítica–Transferencia), propuesto como guía para decidir en qué tipos de habilidades conviene o no integrar IA, siempre con cautela contextual. 

El ángulo neurocognitivo refuerza la paradoja: estudios comparando “cerebro solo”, búsqueda en Google y uso de modelos generativos reportan menor conectividad y patrones menos complejos con IA, con efectos que persistirían aun después de dejar de usarla (“deuda cognitiva”). La implicación didáctica es concreta: sostener prácticas espaciadas, generación activa de respuestas y exposición a dificultades deseables para asegurar aprendizaje significativo en tiempos de IA. 

El diálogo posterior conectó estas ideas con experiencias de aula y gestión del curso: se subrayó que rediseñar flujos de trabajo y secuencias de actividades puede ayudar a “surfear” la tensión entre apoyo y atrofia, evitando la “ficción” de enseñar, producir y evaluar todo con IA. La invitación final fue explícita: educar para navegar esa tensión de forma productiva, con criterios éticos y de evaluación auténtica. 

¿Te gustaría participar activamente en la Comunidad IA en Educación?    

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS 

Mira el video completo de la sesión: