La sesión de la Comunidad IA del viernes 24 de octubre estuvo dedicada a una conversación sobre ética e inteligencia artificial, a cargo de Jorge Ramírez con el tema “Entre la máquina y la moral: los dilemas éticos de la IA”. 

El expositor propuso partir de una premisa: la IA dejó de ser promesa futura y opera hoy en decisiones cotidianas y de alto impacto (recomendaciones, filtrado de información, detección de fraude, incluso apoyos en ámbitos judiciales y médicos). Por ello, sus efectos no son neutros y arrastran sesgos, errores y consecuencias no previstas, lo que obliga a un examen ético sistemático.  

Desde una perspectiva formativa, se precisó que la ética aplicada a la IA no pretende “máquinas éticas”, sino personas y organizaciones que diseñen, implementen y usen tecnologías con criterios de justicia, no maleficencia, transparencia y responsabilidad. Se revisaron niveles de análisis (metaética, ética normativa y ética aplicada) y se situó el trabajo docente en preguntas prácticas: ¿enseñamos mejor con IA?, ¿evaluamos con justicia?, ¿respetamos la privacidad estudiantil?  

El diálogo aterrizó en educación con casos conocidos: evaluación automatizada y sus posibles errores; generación de contenido y dependencia estudiantil; y sistemas de vigilancia académica (plagio, suplantación) con potenciales invasiones a la privacidad y zonas difusas de responsabilidad institucional y tecnológica. Aquí se subrayó el tránsito de “qué puede hacer” a “qué debe hacer” la IA.  

Para ejercitar el juicio moral, la audiencia resolvió el experimento “Moral Machine” (MIT) con 13 escenarios sobre vehículos autónomos, diseñado para revelar preferencias sociales ante dilemas extremos. La actividad generó debate sobre valor de la vida, legalidad y sesgos culturales; y permitió contrastar hallazgos agregados con decisiones individuales.  

Finalmente, se introdujo una lectura crítica: convertir dilemas humanos en una “encuesta masiva” es cuestionado por autores como John Harris (Cambridge), quien objeta que ningún algoritmo debería decidir quién vive o muere y que la tarea ética exige deliberación racional para proteger dignidad y vida. La discusión cerró recordando que los valores (instrumentales e intrínsecos) y las normas (morales, sociales y legales) pueden entrar en tensión, por lo que urge construir criterio colectivo desde casos y preguntas, no desde respuestas prefabricadas. 

¿Te gustaría participar activamente en la Comunidad IA en Educación?    

Si quieres ser parte de nuestras sesiones virtuales y contribuir a este espacio de aprendizaje e intercambio, completa el siguiente formulario. Así podremos conocerte mejor y enviarte el enlace para unirte a las reuniones en vivo: https://forms.office.com/r/6nCJ4wtVaS 

Mira el video completo de la sesión: