En la sesión del 17 de abril de la Comunidad IA, César Velázquez presentó una experiencia pedagógica desarrollada en el curso Decision Making by Data Driven Design, en la que exploró el uso de agentes virtuales como apoyo en procesos de investigación aplicados al diseño industrial. La propuesta partió de una pregunta concreta: hasta qué punto un sistema de inteligencia artificial puede complementar la comprensión de una comunidad usuaria sin sustituir el trabajo de campo ni el juicio académico de los estudiantes. 

La experiencia se construyó a partir de una metodología exploratoria que combinó técnicas tradicionales —como entrevistas y encuestas— con la creación de un agente virtual caracterizado según el perfil del usuario investigado. Para ello, se utilizó Google AI Studio con Gemini Flash, en una versión accesible para el trabajo en aula y sin requerimientos de programación. El propósito no fue entrenar modelos complejos, sino construir una representación digital suficientemente detallada como para contrastar las respuestas del usuario real con las del usuario simulado. 

Uno de los hallazgos más relevantes de la sesión fue la similitud que, en varios casos, existió entre la información obtenida mediante interacción humana y la generada por el agente virtual. Este resultado permitió discutir el potencial de la IA para ampliar o acelerar ciertas fases de la investigación, sobre todo en contextos donde el tiempo académico es limitado o el acceso a determinadas comunidades resulta difícil. La experiencia involucró a 28 estudiantes organizados en siete grupos, que trabajaron con comunidades específicas y cercanas al contexto local. 

Sin embargo, la presentación insistió en que el valor pedagógico de la experiencia no radica solo en la eficiencia de la herramienta, sino en su capacidad para hacer visibles los límites de los datos. César Velázquez subrayó que los agentes también produjeron respuestas sesgadas o alejadas de la realidad, lo que permitió discutir con los estudiantes temas como alucinaciones, calidad de fuentes, sobrecaracterización de perfiles y pérdida de matices emocionales o conductuales. En ese sentido, la IA no fue presentada como una instancia que resuelve, sino como un recurso que abre nuevas preguntas sobre cómo se produce, interpreta y valida la información. 

La sesión puso especial énfasis en la validación humana como principio irrenunciable. Aunque los agentes virtuales pueden ofrecer una línea de base útil para la exploración de datos y la generación de insights, las decisiones de diseño continúan dependiendo de la interpretación crítica de los estudiantes y docentes. Esta idea atraviesa la propuesta presentada: la inteligencia artificial puede ampliar capacidades, pero no reemplaza la responsabilidad humana en la comprensión del contexto, la lectura de sesgos y la toma de decisiones. 

Durante el diálogo posterior, los participantes plantearon posibilidades de ampliación de la experiencia hacia metodologías de investigación más estructuradas y hacia el uso de otras herramientas como ClaudePerplexity o Copilot. La conversación dejó abierta una línea de trabajo relevante para la educación superior: integrar la IA en los cursos no como un atajo, sino como una oportunidad para enseñar a experimentar, contrastar, equivocarse y volver a evaluar. Desde esa perspectiva, la sesión ofreció una reflexión pertinente sobre el lugar que pueden ocupar los agentes virtuales en procesos formativos que buscan articular innovación, pensamiento crítico y criterio profesional. 

¿Te gustaría participar activamente en la Comunidad IA en Educación?     

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS  

Mira el video completo de la sesión: 

En la sesión de la Comunidad IA del viernes 20 de marzo, Jorge Rivera, fundador de Univertia y consultor en tecnología con experiencia en diseño de experiencias de aprendizaje, presentó una aproximación al uso de inteligencia artificial para construir escenarios conversacionales aplicados a la educación. La exposición se centró en el role play como recurso para diseñar interacciones simuladas entre estudiantes y agentes configurados con perfiles, conocimientos, actitudes y protocolos específicos. Desde esta perspectiva, la IA no se plantea como sustituto del docente, sino como un soporte que amplía las oportunidades de práctica, retroalimentación y acompañamiento académico.  

Uno de los ejes de la sesión fue la necesidad de reducir dos dificultades frecuentes en la incorporación de IA en contextos formativos: la complejidad técnica de implementar soluciones útiles y el riesgo de respuestas imprecisas o alucinaciones. Frente a ello, se explicó que estos entornos pueden diseñarse a partir de fuentes delimitadas de conocimiento y reglas de interacción previamente definidas. De ese modo, los personajes virtuales actúan dentro de un marco acotado, con acceso a documentos y materiales seleccionados por la institución o por el equipo docente, lo que permite orientar mejor las respuestas hacia fines pedagógicos concretos.  

Para mostrar su potencial, Rivera presentó el caso de un “gimnasio de tesis”, en el que un estudiante sustenta su investigación ante un jurado simulado compuesto por varios evaluadores con distintos perfiles. La demostración evidenció cómo la IA puede formular preguntas, sostener un protocolo de evaluación, deliberar entre personajes y ofrecer una devolución final sobre debilidades metodológicas, marco teórico, conclusiones y recomendaciones. Este tipo de práctica permite que el estudiante ensaye situaciones de alta exigencia académica antes de una evaluación real y que, además, reciba una retroalimentación estructurada basada en rúbricas y criterios observables.  

La segunda aplicación presentada fue la del asistente digital para clases, concebido como un apoyo disponible antes y después de la sesión docente. En este escenario, el estudiante puede repasar contenidos, conversar sobre presentaciones, formular preguntas y recibir observaciones sobre su participación y desempeño. La propuesta resulta relevante porque desplaza la interacción desde la consulta puntual hacia una experiencia más continua de preparación, refuerzo y seguimiento. A ello se suma la posibilidad de registrar avances, revisar reportes y analizar progresos individuales o grupales, lo que abre opciones para una enseñanza más personalizada.  

Durante el diálogo con los participantes, también se abordaron aspectos de implementación. Se señaló que estas experiencias pueden nutrirse con materiales propios de la universidad, integrarse a entornos virtuales de aprendizaje y adaptarse a distintas rutas formativas. Asimismo, se subrayó que, aunque la tecnología puede operar con altos niveles de automatización en la ejecución, su uso en educación requiere una definición pedagógica y ética clara: la IA funciona como copiloto o coasistente, mientras que la conducción del proceso formativo continúa en manos del docente. Esta precisión resultó clave para situar la discusión en términos de fortalecimiento institucional y no de reemplazo profesional.  

La sesión dejó como balance una reflexión útil para la educación superior: las simulaciones conversacionales con IA pueden contribuir al desarrollo de competencias, a la práctica guiada y al análisis del desempeño, siempre que su diseño parta de objetivos pedagógicos, fuentes confiables y criterios explícitos de evaluación. Más que una solución cerrada, lo presentado abrió una agenda de exploración para cursos, procesos de sustentación, entrenamiento en habilidades comunicativas y experiencias de aprendizaje activas, con especial interés para contextos donde se requiere práctica reiterada, feedback oportuno y disponibilidad extendida. 

¿Te gustaría participar activamente en la Comunidad IA en Educación?     

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS  

Mira el video completo de la sesión: 

En la sesión del viernes 13 de marzo de la Comunidad IA, Luis Valdivia Humareda, docente de la UPC y especialista en desarrollo de software, inteligencia artificial y arquitectura cloud, presentó una experiencia pedagógica centrada en la enseñanza de programación para estudiantes de ciclos superiores vinculados al desarrollo de videojuegos. Su propuesta, titulada Aprender reparando: debugging profesional en motores de juegos como Unity y Phaser, parte de una observación concreta: muchos estudiantes logran implementar funcionalidades, pero todavía dependen en exceso del docente cuando aparecen errores en el código.  

A partir de ese diagnóstico, la experiencia replantea el lugar del error dentro del proceso de aprendizaje. En vez de entenderlo como un obstáculo que debe evitarse, Valdivia lo convierte en recurso pedagógico. La metodología consiste en exponer al estudiante a errores intencionales, tanto técnicos como lógicos, para que aprenda a leer mensajes del sistema, identificar causas, proponer soluciones y documentar el proceso de corrección. De este modo, el aula se aproxima a escenarios reales de trabajo, donde no siempre se construye desde cero, sino que con frecuencia se debe intervenir sobre productos ya desarrollados, incompletos o defectuosos.  

La propuesta se organizó en dos momentos. En un primer tramo, el docente modeló con los estudiantes la identificación y resolución de errores dentro de motores como Unity y Phaser, mostrando cómo pequeñas omisiones o decisiones incorrectas afectan el funcionamiento del proyecto. En un segundo momento, cambió la lógica de la evaluación: en lugar de pedir la creación de un producto desde cero, entregó proyectos funcionales previamente alterados para que los estudiantes diagnosticaran y repararan fallas. Esta variación permitió evaluar no solo el resultado final, sino también la comprensión del problema, la capacidad de depuración y la argumentación técnica del proceso seguido.  

Los resultados presentados fueron relevantes. Según lo expuesto en la sesión, se redujo de manera considerable la solicitud constante de ayuda al docente, disminuyó el tiempo que los estudiantes dedicaban a la depuración de errores y mejoró la estabilidad de los proyectos entregados. A ello se sumaron logros formativos de mayor alcance: incremento de la autonomía, fortalecimiento del pensamiento computacional, mejor documentación de los procesos y mayor confianza para afrontar problemas similares en contextos profesionales. La experiencia mostró, además, que enseñar a corregir errores no implica bajar la exigencia, sino desplazarla hacia competencias más cercanas a las demandas del campo laboral.  

Uno de los puntos más valiosos de la conversación fue la reflexión sobre la evaluación en contextos atravesados por inteligencia artificial generativa. Frente a la facilidad con la que hoy un estudiante puede obtener código funcional mediante herramientas como ChatGPT, la experiencia presentada propone una evaluación más auténtica: resolver errores complejos, especialmente aquellos de lógica, exige comprensión de fundamentos y no solo capacidad de pedir respuestas a una herramienta. En ese sentido, la IA aparece como apoyo para optimizar tareas, pero no sustituye la necesidad de comprender cómo funcionan los sistemas ni de desarrollar criterios para intervenir sobre ellos.  

Finalmente, la sesión abrió una discusión sobre la transferencia de esta metodología a otras disciplinas. El ponente sugirió que la lógica de “aprender reparando” puede adaptarse a áreas como marketing, matemática, estadística, psicología, finanzas o ingeniería industrial, mediante actividades en las que los estudiantes deban analizar campañas mal diseñadas, procedimientos erróneos, datos defectuosos o procesos mal secuenciados. Desde esta perspectiva, el debugging deja de ser una práctica exclusiva de la programación y se convierte en una forma de aprendizaje basada en el análisis crítico, la corrección argumentada y la preparación para contextos profesionales donde identificar y resolver errores forma parte del ejercicio cotidiano. 

¿Te gustaría participar activamente en la Comunidad IA en Educación?     

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS  

Mira el video completo de la sesión:

En la sesión virtual de la Comunidad IA (27 de febrero de 2026) se presentó la experiencia de Adam Sánchez, investigador e ingeniero de IA en UNESS (Francia), sobre la automatización de bancos de preguntas en educación superior mediante modelos de lenguaje, con un caso de uso particularmente exigente: la preparación de estudiantes de medicina para exámenes nacionales de alta exigencia. La conversación situó el problema en un contexto realista: la necesidad de producir preguntas nuevas con criterios estrictos, pese a la limitada disponibilidad de especialistas para redactarlas manualmente.  

A partir de ese punto, la exposición abordó el desafío central de esta automatización: cómo sostener la calidad y reducir errores propios de los modelos (incluidas las “alucinaciones”, es decir, respuestas plausibles pero incorrectas). Se planteó una estrategia técnica y pedagógica que combina: uso de fuentes externas (PDF, documentos del curso) para anclar la generación, diseño de un prompt profesional construido en coordinación entre expertos del dominio (médicos) e ingenieros de modelos de lenguaje, y una premisa no negociable: la validación humana de preguntas y respuestas. En medicina, se insistió, la automatización no reemplaza el criterio experto; lo reubica hacia la curaduría.  

Un aspecto relevante fue la tipología de preguntas que se emplea en la formación médica y cómo esa diversidad condiciona la generación automática. Se describieron preguntas de respuesta única y múltiple, respuestas abiertas cortas (limitadas por normativa), formatos proporcionales para casos progresivos y “mini-dossiers” que encadenan ítems de distinta naturaleza. Además, se resaltó la importancia de los comentarios justificativos (“por qué” una opción es correcta o no), considerados parte del estándar de calidad en evaluación médica. Esta estructura compleja tensiona las capacidades del modelo: no solo debe formular, sino también justificar y ajustarse a reglas de redacción y dificultad.  

En términos de implementación, se compartió un enfoque de ingeniería que traslada la configuración al experto: un software donde el docente define parámetros (tipo de pregunta, nivel de dificultad, restricciones, fuentes y objetivos), y el sistema construye el prompt con controles para evitar desviaciones. Luego, se explicó un proceso de selección y evaluación de modelos open source (y pruebas controladas con modelos propietarios solo cuando el contenido era público), incluyendo experimentación con versiones cuantizadas y pruebas en diversos entornos de hardware (CPU, GPU, clústeres universitarios). Dos desarrollos ilustraron el avance: una herramienta para generar y evaluar preguntas desde documentos (con métricas de calidad por modelo) y otra para mapear objetivos de aprendizaje entre sistemas curriculares antiguos y nuevos mediante consenso entre modelos.  

La discusión final conectó la automatización con retos académicos actuales: integración con LMS (se mencionó el desarrollo de un plugin para Moodle que permite generar ítems desde un PDF y cargarlos al banco de preguntas), límites de la evaluación automatizada (especialmente en respuestas abiertas) y la necesidad de complementar lo digital con instancias presenciales u orales para sostener el rigor. También emergieron dos consideraciones transversales: la relación entre tipos de ítems y niveles cognitivos (alusión a la taxonomía de Bloom) y el peso del contexto clínico local en la validez de una respuesta (lo correcto puede variar según el país o sistema). Finalmente, el caso francés se vinculó con un tema estratégico: la soberanía tecnológica y las restricciones de privacidad en Europa, que impulsan a universidades a desplegar modelos propios para garantizar acceso y reducir brechas. 

¿Te gustaría participar activamente en la Comunidad IA en Educación?    

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS 

Mira el video completo de la sesión: 

La transformación digital en la educación superior ha dejado de ser una proyección futura para convertirse en una realidad cotidiana. En este escenario, la competencia digital docente no se limita al manejo instrumental de herramientas tecnológicas, sino que implica pensamiento crítico, criterio pedagógico y uso ético de la inteligencia artificial en los procesos de enseñanza y evaluación

Fortalecer la competencia digital significa garantizar calidad académica en entornos mediados por tecnología. Supone comprender cómo integrar la IA de manera pedagógicamente pertinente, cómo rediseñar evaluaciones y cómo formar estudiantes capaces de interactuar críticamente con sistemas inteligentes. No se trata de adoptar tecnología por tendencia, sino de ejercer liderazgo profesional en contextos digitales complejos.

El informe Encuesta sobre la IA en la Educación Superior en América Latina 2026 del Digital Education Council aporta datos relevantes sobre el estado actual de las competencias vinculadas a la IA en el profesorado universitario latinoamericano, evidenciando avances importantes, pero también brechas críticas que requieren atención institucional.

Datos clave del informe

  • Más de la mitad del profesorado muestra débil juicio crítico sobre la IA.
  • El 55% del profesorado aún debe mejorar el uso responsable de la IA.
  • El 55% demuestra experiencia práctica en el uso de la IA en educación.
  • 80% del profesorado con alta alfabetización en IA considera que la IA puede mejorar la calidad de la enseñanza.
    Encuesta sobre la IA en la Educación Superior en América Latina 2026

En su conjunto, la evidencia muestra un escenario de avances significativos, pero también de brechas críticas: existe experiencia práctica creciente en el uso de IA, pero persisten desafíos en juicio crítico y uso responsable. Esto confirma que la competencia digital docente no se reduce al acceso o familiaridad tecnológica, sino que requiere profundización en dimensiones éticas, analíticas y pedagógicas.

Desarrollar la competencia digital docente es una decisión profesional estratégica. Implica asumir el liderazgo de la transformación educativa, fortalecer la capacidad de evaluación crítica y asegurar que la tecnología esté al servicio del aprendizaje y no al revés. La innovación educativa no depende únicamente de las herramientas disponibles, sino del compromiso del docente por formarse, cuestionar y evolucionar junto con su entorno digital.

Texto realizado con el apoyo de Chat GPT.

En un contexto donde la inteligencia artificial acelera procesos, automatiza tareas y genera soluciones en segundos, prototipar se vuelve una competencia estratégica. Ya no se trata solo de diseñar antes de producir, sino de aprender a experimentar, validar y mejorar en entornos digitales accesibles y colaborativos.

En educación, este enfoque resulta especialmente relevante: formar estudiantes que prototipen es formar profesionales capaces de transformar ideas en soluciones concretas, utilizando tecnología con criterio y propósito.

Durante el siglo XX, el diseño industrial y posteriormente el diseño centrado en el usuario consolidaron el prototipado como una etapa formal dentro del proceso creativo. El objetivo no era alcanzar la perfección inmediata, sino iterar: construir, probar, mejorar y volver a intentar.

Esa lógica sigue vigente hoy. La diferencia es que el entorno ha cambiado radicalmente.

La evolución del prototipado: del modelo físico al entorno digital

Con la transformación digital, el prototipo dejó de ser exclusivamente tangible. Aparecieron los wireframes, mockups, simulaciones, pruebas de experiencia de usuario y entornos interactivos. El costo de experimentar disminuyó y la velocidad de desarrollo aumentó.

En este nuevo escenario, los eventos de innovación, como las hackatones, se han convertido en espacios clave de prototipado acelerado. En jornadas intensivas, equipos multidisciplinarios identifican un problema, diseñan una solución y construyen un prototipo funcional en cuestión de horas o días. Más que el producto final, lo que se valora es la capacidad de iterar y aprender rápidamente.

Hoy, la inteligencia artificial amplifica este proceso. Es posible generar código, interfaces, contenidos visuales o simulaciones mediante prompts. Las herramientas de IA permiten pasar de la idea al primer modelo en minutos. Esto democratiza el acceso a la creación tecnológica: ya no es indispensable tener conocimientos avanzados de programación para construir una solución inicial.

Sin embargo, esta aceleración también plantea un desafío: no se trata solo de producir más rápido, sino de pensar mejor qué estamos construyendo y para qué.

Prototipar en el aula como parte de la innovación educativa

En el ámbito educativo, prototipar no debería limitarse a carreras tecnológicas. Es una metodología transversal que puede integrarse en diversas disciplinas: comunicación, negocios, educación, ciencias sociales o salud.

Cuando un estudiante prototipa:

  • Convierte ideas abstractas en soluciones visibles.
  • Aprende mediante la experimentación.
  • Desarrolla pensamiento crítico y creativo.
  • Integra herramientas digitales con propósito.
  • Mejora su capacidad de resolver problemas reales.

Incorporar el prototipado en el aula implica cambiar la lógica tradicional centrada únicamente en el producto final. En lugar de evaluar solo el resultado, se valora el proceso: las versiones intermedias, la retroalimentación recibida y la capacidad de mejora.

Además, en un entorno donde la IA puede asistir en la generación de contenidos o estructuras, el rol docente se vuelve aún más relevante. El docente orienta, cuestiona, contextualiza y promueve el uso ético de la tecnología. La herramienta puede acelerar la producción, pero la reflexión pedagógica sigue siendo insustituible.

Prototipar, entonces, no es solo diseñar algo nuevo. Es desarrollar competencias digitales, pensamiento iterativo y una cultura de mejora continua.

Cinco herramientas digitales para prototipar hoy

Actualmente existen múltiples plataformas que permiten crear prototipos de forma accesible. A continuación, cinco herramientas útiles para contextos educativos y de innovación:

herramientas para prototipar

Estas plataformas, muchas con planes gratuitos o freemium, permiten que estudiantes y docentes experimenten sin necesidad de grandes inversiones. La clave no está en la herramienta en sí, sino en cómo se integra dentro de un proceso pedagógico intencional.

Prototipar como competencia del presente y del futuro

En tiempos de inteligencia artificial, la capacidad de generar contenido o código ya no es exclusiva de expertos técnicos. Sin embargo, la capacidad de formular buenas preguntas, identificar problemas relevantes y evaluar soluciones sigue siendo profundamente humana.

Prototipar es una forma de pensar: implica aceptar que la primera versión no es la definitiva, que el error es parte del aprendizaje y que la mejora continua es esencial en cualquier proceso de innovación.

Incorporar el prototipado en la educación no solo fortalece la competencia digital, sino que promueve autonomía, colaboración y pensamiento crítico. En un entorno donde la tecnología evoluciona rápidamente, formar estudiantes capaces de experimentar y adaptar sus ideas es más importante que enseñar herramientas específicas que podrían cambiar en pocos años.

Prototipar hoy es preparar a los estudiantes para un mundo donde las ideas deben convertirse en soluciones con rapidez, pero también con responsabilidad.

En la sesión virtual de la Comunidad IA (viernes 20 de febrero de 2026) analizaron hallazgos de la encuesta sobre IA en la educación del Digital Education Council (DEC) con la participación de Alessandro de Lullo (CEO del DEC) como invitado. La conversación, conducida por Jorge Bossio, puso énfasis en cómo docentes y estudiantes están incorporando estas herramientas, así como en las tensiones que esta adopción abre para la evaluación, la ética y el diseño institucional.  

Uno de los puntos recurrentes fue el crecimiento de la adopción: frente a estudios globales previos, el DEC observa tasas de uso docente elevadas en la región y una disposición relativamente pro-innovación. En términos de prácticas, el uso se concentra todavía en tareas como creación de materiales y automatización de trabajo preparatorio; no obstante, se planteó que el siguiente paso relevante es pasar de la experimentación instrumental a la integración orientada por resultados de aprendizaje, junto con la capacidad de identificar tendencias y comprender cómo aprenden los estudiantes.  

La sesión dedicó un bloque importante al tema de evaluación. Se distinguieron respuestas “reactivas” (ajustar evaluaciones vulnerables a la generación automática de textos, por ejemplo) y respuestas “proactivas” (redefinir qué se entiende por evaluación auténtica en un contexto donde cambia lo que se espera que una persona sepa hacer). En esa línea, se resaltó la necesidad de avanzar hacia diseños resilientes a la IA, apoyados en metodologías emergentes y en decisiones institucionales que hagan explícito qué habilidades humanas se buscan preservar y cuáles deben transformarse.  

En cuanto a perfiles docentes, el invitado señaló que no se observaron correlaciones claras entre seniority y resistencia, ni diferencias significativas por disciplina; la variación más visible se relaciona con la familiaridad técnica en áreas STEM, que no siempre se traduce en capacidad para aplicar la IA con sentido pedagógico. A partir de ello, se propuso que un modelo compartido de integración debería incluir, al menos, comprensión básica de qué puede y qué no puede hacer la IA (incluyendo diferencias entre herramientas conversacionales y agentes), competencias para guiar conversaciones éticas, y habilidades para evaluar críticamente la calidad de los outputs en el aula.  

Desde la perspectiva estudiantil, se reconoció el uso extendido y cotidiano de estas herramientas, y se discutió la dificultad de distinguir entre uso frecuente e integración educativa valiosa. Como riesgo, se mencionó la posible dependencia cognitiva, frente a la cual se recomendaron estrategias de diseño didáctico: uso deliberado de IA con discusión estructurada en clase, incorporación de checkpoints y entregables parciales (notas, bitácoras, comentarios), y evaluaciones centradas en procesos que permitan observar comprensión, toma de decisiones y revisión crítica.  

Finalmente, el intercambio abordó una ética ampliada que incluye infraestructura, soberanía tecnológica, opacidad de datos y costos ambientales. Se describió un escenario de trade-offs entre acceso (a menudo “gratuito” pero con menor control sobre datos) y entornos institucionales internos (más controlables pero costosos). Como cierre, se priorizaron tres decisiones institucionales: fortalecer alfabetización y entrenamiento (docentes y estudiantes), rediseñar enseñanza y evaluación hacia la resiliencia, y articular con la industria para anticipar habilidades demandadas, además de impulsar investigación sobre el impacto de la IA en aprender y pensar. 

¿Te gustaría participar activamente en la Comunidad IA en Educación?    

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS 

Mira el video completo de la sesión:

La sesión del viernes 13 de febrero se centró en conocer los resultados del estudio latinoamericano sobre el uso de inteligencia artificial en la educación superior, presentado por Jorge Bossio. El informe, elaborado por el Digital Education Council con la participación de 29 instituciones de la región, analiza más de 30,000 respuestas de estudiantes y docentes y revela cómo están cambiando las percepciones, usos y expectativas frente a estas tecnologías. 

Los estudiantes muestran una adopción masiva: el 92% afirma utilizar herramientas de IA, principalmente desde dispositivos móviles. Aunque reconocen su utilidad para buscar información, redactar ideas o apoyar el aprendizaje, también expresan una fuerte preocupación por la superficialidad del aprendizaje, la dependencia tecnológica y la falta de claridad sobre cómo proteger sus datos personales. Para ellos, las universidades aún no logran ofrecer lineamientos claros ni un acompañamiento adecuado, lo que genera incertidumbre y desconfianza. 

En el caso del profesorado, el 72% tiene una visión positiva sobre la IA y reconoce su futuro impacto en la docencia. Sin embargo, su uso sigue siendo limitado y se concentra en la generación de materiales educativos y recursos multimedia. Los docentes también coinciden en la necesidad de desarrollar tareas más sólidas, que permitan mantener el logro de aprendizajes incluso cuando los estudiantes utilizan IA, y demandan con urgencia orientación institucional, formación continua y acceso a mejores prácticas pedagógicas. 

El estudio evidencia además importantes brechas en alfabetización en IA. Tanto estudiantes como docentes muestran avances en el dominio básico de herramientas, pero rezagos en pensamiento crítico, uso ético, creatividad y comprensión profunda del funcionamiento de estas tecnologías. Esto abre un reto para las instituciones de educación superior, que deben fortalecer sus estrategias formativas y evitar que el uso de IA se limite a acciones superficiales que no transforman la experiencia de aprendizaje. 

La sesión culminó con un espacio de diálogo entre los participantes, quienes coincidieron en que el informe ofrece una fotografía necesaria para orientar decisiones pedagógicas, institucionales y de política educativa. La comunidad acordó continuar el análisis en la siguiente sesión, destacando la importancia de abrir espacios colaborativos donde se discutan buenas prácticas, desafíos reales y estrategias para integrar la IA en la educación de manera responsable y significativa. 

¿Te gustaría participar activamente en la Comunidad IA en Educación?     

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS  

Mira el video completo de la sesión: 

La primera sesión del ciclo 2026 del espacio de conversaciones sobre inteligencia artificial en educación reunió a la comunidad docente para reflexionar sobre la relación entre programación, exploración tecnológica y desarrollo profesional. El invitado fue Andy García Peña, docente de la UPC y la Universidad Continental, emprendedor y consultor de innovación, quien compartió su experiencia aprendiendo programación desde cero y utilizando herramientas de IA para transformar su práctica docente. 

Durante la sesión, el expositor expuso el dilema que enfrentan muchos profesores: si aprender a programar es realmente un recurso potenciador o una inversión innecesaria en tiempos en que la inteligencia artificial genera código de manera automática. Para él, la respuesta no es absoluta. Mostró cómo distinguir entre el “by coding” orientado a prototipado rápido y el desarrollo asistido por IA responsable, que implica comprender la estructura del código y revisar lo generado por los modelos. Según comentó, dominar las bases del pensamiento computacional le permitió integrar herramientas de manera más sólida y creativa en sus cursos. 

El docente relató cómo la curiosidad lo llevó a experimentar con diversas plataformas, desde Google Sheets y Notion hasta entornos más complejos como Google Antigravity. Explicó su proceso para instalar, configurar y evaluar esta herramienta de desarrollo con agentes, así como las estrategias que aplicó para manejar riesgos, probar modelos y automatizar partes de su flujo de trabajo docente. Detalló también cómo utiliza Notebook LM junto con Antigravity para generar contenidos, sintetizar clases y optimizar la creación de materiales semanales. 

A partir de su experiencia, García Peña compartió ejemplos de cómo la programación había fortalecido su capacidad para diseñar actividades, integrar APIs, crear prototipos y combinar herramientas con metodologías como el design thinking y la gamificación. Este proceso, según indicó, contribuyó a que varias de sus propuestas fueran reconocidas como innovaciones educativas en instituciones donde enseña. Insistió en que aprender programación no implica volverse desarrollador, sino adquirir una lógica que permita entender, validar y guiar mejor el uso de la IA. 

La sesión concluyó con un intercambio entre docentes sobre evaluación, ética y la necesidad de elevar el nivel de curiosidad en el aula. Los participantes coincidieron en que la IA obliga a repensar las estrategias pedagógicas, promover procesos más reflexivos y fomentar experiencias donde los estudiantes produzcan, contrasten y expliquen, más allá de lo que un modelo generativo puede resolver. La conversación dejó claro que la exploración tecnológica sigue abriendo caminos para renovar la enseñanza en educación superior. 

¿Te gustaría participar activamente en la Comunidad IA en Educación?    

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS 

Mira el video completo de la sesión: