La relación entre tecnología, datos y justicia social se ha vuelto central en el debate global: los sistemas de inteligencia artificial pueden amplificar desigualdades existentes cuando se entrenan con datos sesgados o se implementan sin controles, pero también pueden reducir brechas si se diseñan con criterios éticos basados en derechos humanos, equidad y rendición de cuentas. En este contexto, la Recomendación sobre la Ética de la Inteligencia Artificial de la UNESCO (2021) —adoptada por sus Estados Miembros— establece principios como la no discriminación, la transparencia y la supervisión humana, subrayando que la IA debe contribuir explícitamente al bienestar social y a la justicia. Este enfoque se alinea directamente con el ODS 10: Reducción de las desigualdades, que llama a disminuir brechas estructurales dentro y entre los países.
De forma complementaria, los Principios de IA de la OCDE promueven una inteligencia artificial innovadora pero respetuosa de los derechos fundamentales y de los valores democráticos, orientada a la inclusión y al beneficio social. Estos marcos internacionales han desplazado la conversación desde la mera eficiencia tecnológica hacia preguntas más profundas: quién se beneficia de los sistemas algorítmicos, qué grupos podrían verse perjudicados y cómo garantizar que la automatización no reproduzca exclusiones históricas por razones socioeconómicas, culturales o de género.
En el plano operativo, iniciativas como el AI Risk Management Framework del NIST proponen gestionar riesgos durante todo el ciclo de vida de la IA, incorporando prácticas concretas como auditorías de sesgo, evaluación de impacto en distintos grupos poblacionales, documentación transparente de datos y modelos, y monitoreo continuo tras el despliegue. Estas acciones muestran que la ética aplicada no es solo una declaración de principios, sino un conjunto de decisiones técnicas y organizacionales capaces de modificar resultados reales, previniendo daños y fortaleciendo la confianza pública en la tecnología.
A nivel regulatorio, la Unión Europea ha avanzado con un enfoque basado en riesgo mediante su AI Act, que establece límites a usos considerados inaceptables —como ciertas formas de vigilancia masiva o manipulación de vulnerabilidades— y exige salvaguardas estrictas en contextos sensibles, incluidos el laboral y el educativo. Aunque estas normas surgen en Europa, están influyendo en debates legislativos y académicos en América Latina, donde crece la necesidad de marcos propios que combinen innovación tecnológica con protección de derechos y justicia social.
Para la comunidad académica, estos desarrollos representan una oportunidad estratégica para integrar la ética de los datos y de la inteligencia artificial en la docencia, la investigación y la gestión institucional como parte de una agenda más amplia de equidad y desarrollo sostenible. En el marco del Día Mundial de la Justicia Social, que se conmemora cada 20 de febrero, la reflexión cobra aún más sentido: si la tecnología ya está moldeando nuestras sociedades, la cuestión de fondo no es solo cuánto innovamos, sino para quién y con qué consecuencias. En ese escenario, cabe preguntarnos si estamos formando profesionales y generando conocimiento que realmente contribuya a reducir desigualdades, o si corremos el riesgo de reproducirlas en versión digital.