En el segundo semestre académico, un grupo de 75 estudiantes de la UPC decidió enfrentarse a un reto poco habitual: convertir sus propias dificultades académicas en oportunidades para innovar. Bajo el título “Tú experiencia + IA = soluciones con impacto”, 15 equipos trabajaron durante varias semanas en el diseño de agentes conversacionales orientados a mejorar la organización, el bienestar digital y los hábitos de estudio de la comunidad universitaria.

Más allá del despliegue técnico, lo interesante del desafío fue su punto de partida. Los estudiantes no debían imaginar un problema abstracto, sino tomar uno que ellos mismos hubieran vivido: distracciones digitales, sobrecarga académica, desorden en sus agendas o falta de tiempos de descanso. Desde allí, cada equipo comenzó a construir un asistente capaz de guiar, motivar y acompañar a otros alumnos que enfrentan situaciones similares.

Los prototipos abarcaron funciones variadas: desde chatbots que crean planes de estudio equilibrados hasta asistentes que bloquean distracciones y sugieren pausas activas cuando detectan periodos prolongados de concentración. También surgieron propuestas orientadas a ordenar pendientes, priorizar tareas y manejar fechas límite sin caer en el estrés acumulado. Si algo quedó claro, es que la IA puede ofrecer soluciones prácticas cuando se la piensa desde la experiencia cotidiana.

Una generación que ya no ve a la IA como un accesorio

Uno de los aspectos más comentados por los evaluadores fue el nivel de madurez con el que los estudiantes usaron la inteligencia artificial. En lugar de buscar respuestas automáticas, muchos equipos reflexionaron sobre cómo un agente conversacional puede aportar a la vida académica sin reemplazar decisiones humanas. Varios prototipos incorporaron recordatorios conscientes, recomendaciones para reducir el tiempo frente a pantallas y alertas para promover pausas saludables.

El ejercicio evidenció algo que está cambiando silenciosamente en las aulas: la IA ya no se percibe como una herramienta futurista, sino como un acompañante de aprendizaje. Diseñarla obliga a pensar en ética, bienestar digital y límites razonables, tres temas que se están volviendo esenciales en la formación universitaria actual.

Un jurado con miradas complementarias

Las propuestas fueron evaluadas por un jurado compuesto por especialistas en experiencia estudiantil, educación superior y psicología:

  • Jose Castillo Coila, Gerente de Experiencia al Estudiante – Laureate Perú
  • Valery Ochoa Perdomo, docente e investigadora
  • Flor Barrenechea Obregón, psicóloga y docente
  • Silvana Balarezo Perea, Gerente de Experiencias de Aprendizaje Digital

Su participación permitió observar las iniciativas desde ángulos distintos: pertinencia pedagógica, impacto emocional, calidad de la interacción y potencial de implementación.

jurado 2025 club apptitud

Los equipos ganadores

Tras la ronda de presentaciones, tres equipos destacaron por su claridad conceptual y su capacidad de traducir problemas personales en soluciones concretas:

Primer lugar – Equipo 15
Arbirio Piscoya, Danna
Huamanchaqui Tuesta, Kiara Daniela
Sánchez Salcedo, Estefany Nicol
Solano Rondinel, Rodrigo

Segundo lugar – Equipo 21
Felipe D’alessandro Meza Cajavilca
Brando Jeanpiere Guevara Gamonal
Joaquin Alexander Gutierrez Cabrejos

Tercer lugar – Equipo 10
Adrian Enrique Palomino Arguedas
Filio Meza, Mirella Heiceld
Christian Alonso Mendez Sandoval
Diego Moises Herrera Garcia
Luz Clarita Aguila Arone

Una mirada final: pequeños problemas, grandes ideas

Al observar el conjunto del reto, queda una impresión clara: los estudiantes no solo aprendieron a crear agentes de IA, sino a mirarse a sí mismos con más atención. La mayoría de proyectos responde a inquietudes que muchas veces pasan desapercibidas en la vida universitaria: agotamiento digital, mala gestión del tiempo o dificultad para priorizar. Traducir esas experiencias en soluciones tecnológicas es, en cierto modo, una forma de cuidado mutuo. Desde afuera, este tipo de iniciativas muestra el potencial de una generación que combina creatividad con sensibilidad. No buscan “hacer tecnología por hacerla”, sino herramientas que tengan sentido en su vida real. Y quizá allí, entre agendas, recordatorios y pausas activas, esté el verdadero aporte del reto: recordar que la IA puede ser útil cuando ayuda a vivir y estudiar con un poco más de equilibrio.

En la reunión de este viernes, Víctor Omar Vite León (UPC) presentó la evolución de un proyecto que comenzó como tesis y hoy reorienta su foco para comprender cómo integrar la IA en la enseñanza de la investigación, a partir de evidencias recogidas con estudiantes de Comunicación Audiovisual y Medios Interactivos. El punto de partida contrastó percepciones: 88% del profesorado que usa IA en docencia declara un uso mínimo-moderado, mientras 80% del alumnado considera que la IA universitaria no satisface sus expectativas; este desajuste motivó el estudio sobre satisfacción y uso de IA en tareas de investigación.  

El equipo trabajó con un curso (“Taller de Televisión Interactiva”) y un diseño cualitativo de corte etnográfico durante cuatro meses, con 17 estudiantes y entrevistas en profundidad a ocho voluntarios; los datos se analizaron temáticamente con apoyo de herramientas de IA. Se emplearon ChatGPT, SciSpace y Pinpoint para apoyar fases como revisión de literatura, delimitación del problema y análisis. El marco teórico se centró en autoeficacia (Bandura), compromiso académico (Ochoa) y participación (Carpentier) para observar el impacto de la IA en la experiencia estudiantil.  

Desde el rediseño pedagógico, Vite articula el modelo TPACK con un énfasis tecnológico muy concreto: ingeniería de prompts como competencia instrumental para operar con LLM en investigación cualitativa. Se sistematizaron fases del proceso investigativo (del problema a la redacción) y se modelaron actividades de andamiaje (p. ej., lluvia de ideas por emisor-medio-mensaje-receptor) para avanzar de problemas próximos a problemas disciplinares complejos.  

Los resultados reportados indican que la IA funcionó como fuente de motivación, aumentó la confianza y la eficacia para abordar tareas, organizó información y liberó tiempo para dimensiones creativas; también emergieron preocupaciones por dependencia, barreras idiomáticas, costos y curva de aprendizaje. Con todo, el equipo reconoce límites del estudio (muestra pequeña) y propone ampliar contextos y métodos.  

La discusión enfatizó crear “espacios seguros” donde el uso de IA sea transparente y declarativo, evitando lógicas punitivas y aprovechando la herramienta como objeto de reflexión sobre calidad, atribución y ética. Para materializar el pensamiento crítico en prácticas verificables, se propusieron cuatro verbos operativos (Codina): verificar, evaluar, atribuir y editar; además, se sugirió adoptar el decálogo de transparencia de Daniel Craig y concebir la alfabetización como multimodal (texto, imagen, código).  

Como proyección, el piloto ya escala hacia cursos de investigación de la carrera, manteniendo la combinación TPACK-prompts y abriendo posibilidades interdisciplinarias (p. ej., uso de videojuegos o entornos como Minecraft/Roblox para estudiar autoeficacia, compromiso y participación).  

¿Te gustaría participar activamente en la Comunidad IA en Educación?    

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS 

Mira el video completo de la sesión: 

La sesión de cierre 2025 de la Comunidad IA en la Educación, del viernes 5 de diciembre, se dedicó a la presentación del libro-guía El Director Libre del Banco Mundial, orientado a aliviar la carga administrativa de los directores para devolver tiempo al liderazgo pedagógico. El equipo autor —Ezequiel Molina, Carolina López — y María Andreina Cantele abrió la jornada explicando el propósito de la guía y su público objetivo, directores y directoras de la región. También se reconoció la presencia de autoridades universitarias y de la red MetaRedTIC Perú que acompañaron el encuentro. 

El marco del problema quedó definido con datos recientes: de acuerdo con la evidencia discutida, los directores dedican más del 76% de su tiempo a tareas administrativas y solo el 24% a liderazgo pedagógico, con costos personales y efectos sobre el aprendizaje; de ahí la necesidad de un método práctico. La propuesta L-I-B-R-E surge del trabajo con 100+ directores de 8 países, y plantea acciones concretas para transformar rutinas y recuperar horas de acompañamiento docente. 

A continuación, se mostró la metodología de trabajo con prompts y el diálogo iterativo con la IA para preservar privacidad y mejorar resultados. Se compartieron herramientas abiertas creadas ad hoc: un GPT que guía la redacción de prompts con la estructura “tú-quién-qué-cómo” y una versión en Google para quienes trabajan en ese ecosistema. 

La exposición se ilustró con casos prácticos. “Patricia” redujo el tiempo de su informe mensual al partir de un borrador generado por IA y ajustado a su estilo; “Ricardo”, director en Lima, usó IA para contrastar currículo, clases observadas y evaluación, detectando desalineaciones que explicaban resultados mediocres en matemáticas. Estas experiencias evidenciaron el paso de la página en blanco a ciclos de revisión informados por datos. 

La sesión incorporó testimonios de uso en escuelas: María Andreina Cantele subrayó que la IA no reemplaza personas ni cargos, sino que potencia funciones —especialmente en análisis de datos para identificar estudiantes, efectos de asistencia y desarrollo profesional—, recomendando la lectura y aplicación de El Director Libre. En el diálogo final se adelantó el trabajo en capítulos complementarios (Administrador LibreDocente Libre) para unidades ejecutoras y docentes, con casos de uso que van desde asignación de recursos hasta comunicación de resultados. 

milagros morgan rectora upc 2025

El cierre estuvo a cargo de Milagros Morgan, rectora de la UPC y presidenta de Metared TIC Perú, quien felicitó a la Comunidad por sus avances, llamó a integrar pedagogía, tecnología y formación ciudadana, y ratificó el trabajo colaborativo nacional e internacional. Con su mensaje culminó un ciclo que, desde 2023, ha sostenido 128 sesiones cada viernes a las 10:00 a. m. y ha convocado a más de 4,000 participantes de distintos países. La Comunidad continuará en 2026

ia en la educación 5 de diciembre

¿Te gustaría participar activamente en la Comunidad IA en Educación?    

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS 

Mira el video completo de la sesión: 

El 7 de noviembre de 2025, la Comunidad IA recibió a Nicolás Núñez (CENTRUM PUCP), quien presentó resultados de un cuasi-experimento sobre el uso de IA generativa en cursos de innovación y diseño de modelos de negocio. La sesión planteó una hipótesis provocadora: aunque los modelos de lenguaje aumentan la productividad y facilitan la personalización, su uso grupal podría conducir a soluciones más homogéneas y menos originales. 

El marco conceptual fue el “groupthink”, fenómeno de toma de decisiones que privilegia consensos rápidos y minimiza la disidencia. Núñez lo conectó con la “convergencia algorítmica” propia de los LLM: respuestas similares ante preguntas similares, lo que puede estandarizar ideas y reducir la fricción creativa necesaria para la innovación. 

La investigación comparó dos configuraciones. En el Grupo A, cuatro estudiantes interactuaron de forma conjunta —una sola computadora— con la IA para diseñar un producto digital. En el Grupo B, cada integrante trabajó primero en solitario con IA y luego, en equipo, debatieron y consolidaron la propuesta. Así se observaron diferencias tanto en tiempos como en la diversidad de resultados. 

Los hallazgos son claros. La co-creación simultánea con IA fue más veloz, especialmente en el desarrollo de prototipos. No obstante, la ruta individual-primero generó más debate, más iteraciones con el modelo y mayor disposición a defender ideas propias informadas por la IA. Además, quienes se autopercibían “menos creativos” reportaron un incremento en su autoeficacia creativa al trabajar inicialmente de manera individual. 

Las implicancias para la docencia y el diseño instruccional son matizadas. Cuando el objetivo es cumplir plazos ajustados (por ejemplo, hackatones), la co-creación puede ser conveniente. Si se busca calidad creativa y diversidad de soluciones, es preferible exigir ideación individual previa y posponer la convergencia grupal. Complementariamente, conviene nivelar competencias de prompting, exigir trazabilidad (borradores y prompts) y equilibrar la responsabilidad individual con la discusión crítica del equipo. 

En suma, el estudio sugiere que combinar fases individuales y colectivas con IA mitiga la homogeneidad y favorece resultados más robustos. La agenda futura apunta a explorar sesgos en las interacciones humano-máquina y estrategias para evitar la “aversión al algoritmo”, manteniendo la creatividad como eje del aprendizaje. 

¿Te gustaría participar activamente en la Comunidad IA en Educación?    

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS 

Mira el video completo de la sesión:

La sesión del 14 de noviembre presentó la experiencia del Dr. Luis Manuel Valdez Fernández-Baca (infectología) al integrar chatbots como simuladores en “Clínica Médica I”, capítulo de enfermedades infecciosas, con 79 estudiantes y tiempo no lectivo para actividades autónomas. La motivación pedagógica fue explícita: desplazar el énfasis en memorización hacia niveles superiores de la taxonomía de Bloom (aplicar, analizar, evaluar, crear) y cultivar razonamiento clínico con retroalimentación inmediata y segura.  

Se diseñaron cuatro chatbots centrados en problemas frecuentes: fiebre sin foco, síndrome febril focal en pacientes con VIH, infecciones graves con bacterias resistentes (antibioterapia empírica y desescalamiento) y sepsis (casos simple y complejo). Cada bot establecía un diálogo escalonado para recojo de historia, examen, hipótesis, elección de pruebas, plan terapéutico y feedback detallado, incluyendo fortalezas, oportunidades de mejora y referencias. El enfoque habilitó práctica deliberada repetible y variación de escenarios, también útil para metacognición y reflexión clínica.  

Durante la implementación se recomendaron buenas prácticas de diseño: limitar la búsqueda abierta para reducir alucinaciones, nutrir el bot con fuentes curadas y ajustar el prompt con herramientas de apoyo (p. ej., Notebook LM). La dinámica mostró además un componente ético: aclarar usos apropiados, desincentivar atajos y fomentar trazabilidad del razonamiento más que respuestas “correctas” aisladas. El docente subrayó que los bots complementan—no sustituyen—la enseñanza junto al paciente, núcleo insustituible de la formación clínica.  

Los indicadores de aceptación fueron favorables. Según encuestas y comentarios, más del 60% valoró la actividad como bastante o extremadamente importante; alrededor del 93% la percibió útil para aprender y más del 90% la recomendaría en otros cursos. Hubo apropiación estudiantil: algunos organizaron acceso a versiones de pago y un estudiante creó bots propios para guías de estudio. Estas evidencias corresponden a niveles iniciales de evaluación (p. ej., Kirkpatrick 1–2) y abren una agenda para medir impacto en desempeño clínico posterior.  

Operativamente, la experiencia combinó interacción sincrónica (encuestas en vivo, demostraciones) y trabajo autónomo, ajustando aspectos técnicos de la videoconferencia y del flujo de uso en LMS. En paralelo, se insistió en formación docente en educación médica y en ética de IA, con miras a escalar la adopción en facultades y sociedades científicas. La propuesta es clara: usar chatbots como andamiajes que estructuren el pensamiento clínico, promuevan decisiones justificadas y habiliten ciclos de práctica-retroalimentación con evidencia.  

En síntesis, la intervención muestra que los simuladores conversacionales pueden articular contenidos infecciosos, razonamiento y evaluación formativa en un entorno controlado. Su valor radica en hacer visible el proceso—qué se pregunta, por qué se decide—más que en acelerar respuestas; y en crear condiciones para que el estudiante transite de recordar a deliberar sobre la atención del paciente. 

¿Te gustaría participar activamente en la Comunidad IA en Educación?    

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS 

Mira el video completo de la sesión:

En la sesión del 21 de noviembre, Gianfranco Mejía (UPC) analizó el proyecto de Estrategia Nacional de Inteligencia Artificial y el proyecto de Estrategia Nacional de Gobierno de Datos, destacando su interdependencia: sin gestión y calidad de datos, la IA difícilmente escalará con impacto. Subrayó que el documento de datos ofrece lineamientos más concretos (plataformas de analítica, capacitación regular, ecosistemas colaborativos), mientras que la estrategia de IA aún es parca en detalles para el sector educativo.  

En educación, el diagnóstico oficial alude a pilotos de personalización del aprendizaje, monitoreo de progreso y asistencia pedagógica, y a la capacitación de ~85–87 mil docentes en 2024, equivalente a algo más del 20% del total en escuelas públicas; avance inicial que revela una brecha sustantiva en alfabetización digital docente. Mejía resaltó dos prioridades: promover estrategias educativas en IA desde etapas tempranas y fortalecer capacidades en ETP e institutos, con enfoque territorial e inclusión.  

El intercambio con los asistentes enfatizó la alineación con el Plan Estratégico de Desarrollo Nacional al 2050: formar talento avanzado hoy es condición para productividad e innovación futuras. Para que las estrategias trasciendan el papel, se identificaron tres retos: financiamientogobernanza multisectorial (MINEDU, PCM/SGTD, MTC, PRODUCE y academia) y continuidad institucional más allá de los ciclos políticos.  

Como riesgo transversal, se advirtió la ausencia de líneas de base y métricas unificadas: sin datos comparables y depurados, será difícil medir éxito o corregir rumbo. La recomendación práctica fue sincronizar la agenda de IA con la de gobierno de datos (alfabetización, microcredenciales, currículos por niveles y roles) y publicar avances verificables para escrutinio académico y ciudadano. 

¿Te gustaría participar activamente en la Comunidad IA en Educación?    

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS 

Mira el video completo de la sesión: 

La sesión del viernes 31 de octubre estuvo a cargo de Marianela López de Empujón Educativo, quien presentó una propuesta integral para personalizar el aprendizaje desde la inclusión, apoyada en neurociencias, ciencias del comportamiento e inteligencia artificial responsable. El punto de partida es un problema regional: las escuelas siguen operando con ritmos y evaluaciones únicas para grupos diversos, lo que deja fuera a gran parte del alumnado neurodivergente y reproduce brechas de aprendizaje. Empujón Educativo busca “no bajar expectativas, sino cambiar el acceso”, colocando a la persona en el centro de cada decisión tecnológica.  

El equipo ha desarrollado microaplicativos que miden con alta precisión la fluidez y la comprensión lectora. En la prueba de fluidez, la plataforma captura 420 puntos del rostro y analiza procesos oculomotores (progresiones, regresiones, fijaciones) y la conversión fonema–grafema para estimar la entrada a la comprensión. Los reportes detallan palabras por minuto, tipos de error (omisiones, sustituciones, adiciones) y ubican el desempeño frente a estándares por grado. Con base en ello, se propone un plan de entrenamiento automatizado (p. ej., 7 semanas, 5 días por semana, sesiones de 16 minutos), con entrenadores de fluidez, reducción de retrosacádicos y memoria icónica.  

Los primeros pilotos reportan metas operativas de mejora en 4–8 semanas: +20% en palabras por minuto, +4 puntos en precisión y ?35% en errores, acompañadas de recomendaciones para aula y familia. La solución se despliega en paralelo a un “historia educativa” interoperable (analógica a la historia clínica), que integra datos cuantitativos y cualitativos (observaciones docentes, asistencia, notas) y sirve como lago de datos para agentes de IA responsables que asisten a docentes y estudiantes sin reemplazarlos. La arquitectura usa RAG con conocimiento del marco legal (país, provincia, escuela) y principios de Diseño Universal para el Aprendizaje.  

En la práctica docente, la plataforma permite cargar la planificación y generar materiales adecuados por estudiante (resúmenes, mapas, evaluaciones), incorporando multimodalidad (podcasts, videos) y guías para familias. También avanza en rúbricas inclusivas (p. ej., no penalizar ortografía en dislexia; ajustes razonables y anticipación del material). Un objetivo adicional es reducir la carga de tiempo: adecuar manualmente puede tomar ~4 horas por estudiante/semana; automatizar tipografía, tamaño y formato ya representa inclusión efectiva.  

De cara a la región, el proyecto subraya desafíos estructurales: carencia de formación docente en neurodiversidad, conectividad y dispositivos escasos, y la necesidad de modelos y datasets locales (equidad dialectal y lenguas originarias) porque transcriptores comerciales no capturan particularidades del español regional. La estrategia incluye pilotos en escuelas estatales y bilingües (1000+ estudiantes), alianzas (p. ej., con una plataforma de gestión en San Luis para 20 000 estudiantes), colaboración académica y futuras experiencias en educación superior (UPC; U. Autónoma de Chihuahua). La consigna ética del equipo: elegir métricas que amplifiquen humanidad; no escalar desigualdades bajo una “falsa modernidad”.  

Finalmente, se presentaron usos de tecnologías asistivas para estudiantes que no han automatizado lectura/escritura (dictado y transcripción con validación por parte del estudiante) y el enfoque metacognitivo del entrenamiento: el sistema comunica metas, registra causas de detención (fisiológicas, emocionales, lingüísticas) y combina evidencia cuantitativa y cualitativa para orientar decisiones pedagógicas en tiempo real.  

¿Te gustaría participar activamente en la Comunidad IA en Educación?    

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS 

Mira el video completo de la sesión: 

Durante este año, el curso “Fundamentos de Inteligencia Artificial Generativa en la Educación” volvió a abrir sus puertas con gran acogida. En total, se desarrollaron tres grupos, cada uno con más de 100 docentes inscritos provenientes de diversas carreras y niveles de experiencia en el uso de la inteligencia artificial. Esta variedad de perfiles reafirma el carácter inclusivo del curso, diseñado para acompañar a cualquier docente, sin importar su nivel de conocimiento previo, en la incorporación responsable y efectiva de herramientas de IA en la enseñanza.

El programa, ofrecido de manera virtual y síncrona, constó de cuatro sesiones de dos horas cada una. A lo largo de estas jornadas, los participantes exploraron los conceptos esenciales de la inteligencia artificial generativa y sus aplicaciones educativas.

El curso se estructuró en cuatro módulos temáticos:

  1. Introducción a la inteligencia artificial generativa
  2. Exploración y mejora de la interacción con modelos de lenguaje
  3. Integración de la IA generativa en el proceso de enseñanza y aprendizaje
  4. Herramientas de IA generativa complementarias

Cada edición del curso se actualiza antes de su inicio, con el fin de incorporar los avances más recientes en herramientas y prácticas de IA, lo que le otorga un valor añadido al mantener sus contenidos alineados con el ritmo acelerado de esta tecnología.

La metodología combinó sesiones síncronas con trabajo autónomo, promoviendo el análisis, la reflexión y la aplicación práctica. Al finalizar, los participantes desarrollaron un proyecto aplicativo, donde propusieron una forma pedagógica de integrar la IA generativa en sus cursos o sesiones.

image

Tras la culminación del curso, el equipo de Innovación Educativa se comunicó con los docentes que aprobaron el programa para acompañarlos en la implementación de sus propuestas. Este proceso incluyó reuniones personalizadas para profundizar en las ideas presentadas, ajustar los enfoques pedagógicos y apoyar su puesta en práctica.

Actualmente, el equipo trabaja en la documentación de estas experiencias para compartirlas con la comunidad académica a través del Catálogo de Experiencias de Aprendizaje, donde se presentarán las iniciativas y los resultados obtenidos por los docentes con sus estudiantes.

De acuerdo con los resultados de la encuesta de satisfacción aplicada al finalizar cada grupo, el 77.42% de los participantes manifestó estar muy satisfecho y el 22.58% satisfecho con la experiencia. En cuanto a la valoración del contenido del curso, el 64.52% lo calificó como muy bueno y el 35.48% como bueno, destacando la pertinencia y actualidad de los temas abordados. Además, el 71% indicó que es muy probable que recomiende el curso y el 29% que probablemente lo haría, lo que evidencia el alto nivel de valoración y el impacto positivo que esta formación mantiene entre los docentes de la universidad.

qué tan satisfecho...

El curso “Fundamentos de IA Generativa en la Educación” se ha consolidado como un espacio de formación, exploración y acompañamiento docente que promueve el uso responsable y pedagógico de la inteligencia artificial en la enseñanza. Su impacto trasciende la capacitación técnica: representa un paso importante en la alfabetización digital de la comunidad académica, preparando a los docentes para incorporar nuevas herramientas de manera crítica y con sentido educativo.

El proceso de acompañamiento posterior —en el que los docentes reciben apoyo para implementar sus propuestas en el aula— refuerza el compromiso institucional con una transformación educativa sostenible, centrada en la experimentación, la colaboración y la mejora continua.

De esta manera, la experiencia se convierte no solo en un curso, sino en un espacio de formación y experimentación pedagógica, que impulsa el uso responsable de la inteligencia artificial en la enseñanza y promueve el aprendizaje continuo en una comunidad docente cada vez más innovadora.

La sesión de la Comunidad IA del viernes 24 de octubre estuvo dedicada a una conversación sobre ética e inteligencia artificial, a cargo de Jorge Ramírez con el tema “Entre la máquina y la moral: los dilemas éticos de la IA”. 

El expositor propuso partir de una premisa: la IA dejó de ser promesa futura y opera hoy en decisiones cotidianas y de alto impacto (recomendaciones, filtrado de información, detección de fraude, incluso apoyos en ámbitos judiciales y médicos). Por ello, sus efectos no son neutros y arrastran sesgos, errores y consecuencias no previstas, lo que obliga a un examen ético sistemático.  

Desde una perspectiva formativa, se precisó que la ética aplicada a la IA no pretende “máquinas éticas”, sino personas y organizaciones que diseñen, implementen y usen tecnologías con criterios de justicia, no maleficencia, transparencia y responsabilidad. Se revisaron niveles de análisis (metaética, ética normativa y ética aplicada) y se situó el trabajo docente en preguntas prácticas: ¿enseñamos mejor con IA?, ¿evaluamos con justicia?, ¿respetamos la privacidad estudiantil?  

El diálogo aterrizó en educación con casos conocidos: evaluación automatizada y sus posibles errores; generación de contenido y dependencia estudiantil; y sistemas de vigilancia académica (plagio, suplantación) con potenciales invasiones a la privacidad y zonas difusas de responsabilidad institucional y tecnológica. Aquí se subrayó el tránsito de “qué puede hacer” a “qué debe hacer” la IA.  

Para ejercitar el juicio moral, la audiencia resolvió el experimento “Moral Machine” (MIT) con 13 escenarios sobre vehículos autónomos, diseñado para revelar preferencias sociales ante dilemas extremos. La actividad generó debate sobre valor de la vida, legalidad y sesgos culturales; y permitió contrastar hallazgos agregados con decisiones individuales.  

Finalmente, se introdujo una lectura crítica: convertir dilemas humanos en una “encuesta masiva” es cuestionado por autores como John Harris (Cambridge), quien objeta que ningún algoritmo debería decidir quién vive o muere y que la tarea ética exige deliberación racional para proteger dignidad y vida. La discusión cerró recordando que los valores (instrumentales e intrínsecos) y las normas (morales, sociales y legales) pueden entrar en tensión, por lo que urge construir criterio colectivo desde casos y preguntas, no desde respuestas prefabricadas. 

¿Te gustaría participar activamente en la Comunidad IA en Educación?    

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS 

Mira el video completo de la sesión: