En la sesión del 17 de abril de la Comunidad IA, César Velázquez presentó una experiencia pedagógica desarrollada en el curso Decision Making by Data Driven Design, en la que exploró el uso de agentes virtuales como apoyo en procesos de investigación aplicados al diseño industrial. La propuesta partió de una pregunta concreta: hasta qué punto un sistema de inteligencia artificial puede complementar la comprensión de una comunidad usuaria sin sustituir el trabajo de campo ni el juicio académico de los estudiantes.
La experiencia se construyó a partir de una metodología exploratoria que combinó técnicas tradicionales —como entrevistas y encuestas— con la creación de un agente virtual caracterizado según el perfil del usuario investigado. Para ello, se utilizó Google AI Studio con Gemini Flash, en una versión accesible para el trabajo en aula y sin requerimientos de programación. El propósito no fue entrenar modelos complejos, sino construir una representación digital suficientemente detallada como para contrastar las respuestas del usuario real con las del usuario simulado.
Uno de los hallazgos más relevantes de la sesión fue la similitud que, en varios casos, existió entre la información obtenida mediante interacción humana y la generada por el agente virtual. Este resultado permitió discutir el potencial de la IA para ampliar o acelerar ciertas fases de la investigación, sobre todo en contextos donde el tiempo académico es limitado o el acceso a determinadas comunidades resulta difícil. La experiencia involucró a 28 estudiantes organizados en siete grupos, que trabajaron con comunidades específicas y cercanas al contexto local.
Sin embargo, la presentación insistió en que el valor pedagógico de la experiencia no radica solo en la eficiencia de la herramienta, sino en su capacidad para hacer visibles los límites de los datos. César Velázquez subrayó que los agentes también produjeron respuestas sesgadas o alejadas de la realidad, lo que permitió discutir con los estudiantes temas como alucinaciones, calidad de fuentes, sobrecaracterización de perfiles y pérdida de matices emocionales o conductuales. En ese sentido, la IA no fue presentada como una instancia que resuelve, sino como un recurso que abre nuevas preguntas sobre cómo se produce, interpreta y valida la información.
La sesión puso especial énfasis en la validación humana como principio irrenunciable. Aunque los agentes virtuales pueden ofrecer una línea de base útil para la exploración de datos y la generación de insights, las decisiones de diseño continúan dependiendo de la interpretación crítica de los estudiantes y docentes. Esta idea atraviesa la propuesta presentada: la inteligencia artificial puede ampliar capacidades, pero no reemplaza la responsabilidad humana en la comprensión del contexto, la lectura de sesgos y la toma de decisiones.
Durante el diálogo posterior, los participantes plantearon posibilidades de ampliación de la experiencia hacia metodologías de investigación más estructuradas y hacia el uso de otras herramientas como Claude, Perplexity o Copilot. La conversación dejó abierta una línea de trabajo relevante para la educación superior: integrar la IA en los cursos no como un atajo, sino como una oportunidad para enseñar a experimentar, contrastar, equivocarse y volver a evaluar. Desde esa perspectiva, la sesión ofreció una reflexión pertinente sobre el lugar que pueden ocupar los agentes virtuales en procesos formativos que buscan articular innovación, pensamiento crítico y criterio profesional.
¿Te gustaría participar activamente en la Comunidad IA en Educación?
Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS
Mira el video completo de la sesión:
