Desde las primeras definiciones de la razón, ésta era atribuida al género humano y vinculada no solo al conocimiento teórico sino también a la experiencia ganada en la vida.  Con el advenimiento de la modernidad, la razón prevalece sobre las creencias o designios divinos, se inicia también la emergencia de modelos normativos que, valiéndose de las matemáticas, buscaron explicar los procesos de toma de decisiones a partir métodos de cálculo de resultados o valor esperado de una decisión.

Uno de los primeros en plantear una alternativa para observar el resultado de las decisiones fue el matemático suizo Daniel Bernoulli al establecer la diferencia entre el valor esperado y la utilidad esperada de una decisión. Al realizar esta diferenciación Bernoulli introduce un elemento subjetivo en la evaluación racional de alternativas, generando, a partir de entonces, una separación entre los modelos normativos y los modelos descriptivos (Paez 2015)

Los modelos normativos buscan entender la naturaleza formal de las decisiones, identificando los procesos que deberían realizarse para una óptima toma de decisiones desde la óptica de los resultados o beneficios. Los modelos normativos consideran la toma de decisiones como un proceso estructurado de selección de alternativas a partir de la clasificación de estas según criterios de valoración, asignando a cada alternativa un valor según la utilidad esperada. Al utilizarse los mismos criterios para evaluar todas las alternativas, el modelo busca ser consistente y coherente.

En la actualidad, los modelos normativos han sido criticados desde diversos puntos de vista. Uno ellos corresponde al trabajo de Daniel Kahnemann y Amos Tversky, quienes señalan la existencia de sesgos y uso de heurísticos en el proceso de toma de decisiones; el segundo corresponde a Herbert Simon y su planteamiento sobre la racionalidad limitada que señala que “la capacidad racional del ser humano es limitada en amplitud y potencia y, por lo tanto, se aleja del modelo ideal propuesto por las teorías normativas de una capacidad total de análisis de todos los factores y atributos de las alternativas de decisión” (citado por Paez 2015: 860).

Por otro lado, Mario Bunge (citado por Bonatti 2019) señala que esperar que el decisor cuente con todas las alternativas accionables y que pueda seleccionar aquella que genere la mayor utilidad es un supuesto muy fuerte, especialmente porque no se está tomando en cuenta que el decisor es un ser humano con percepciones y emociones, y que tiene debilidades que le impiden establecer con absoluta claridad sus metas, objetivos y escalas de preferencia que le permitan hacer dicha selección de manera estrictamente racional como lo haría una máquina.

“Es la idea del robot decisor, sin creencias previas, sin emoción, sin subjetividad y plenamente racional en sus preferencias y en su elección” Bonatti (2019)

Pero, ¿y si el decisor fuera una máquina?

Observando las tendencias actuales hacia la inclusión de la inteligencia artificial y el aprendizaje de las máquinas en procesos de toma de decisiones asistidos por computadoras, cabe preguntarse: ¿Puede la inteligencia artificial tener acceso a toda la información disponible sobre todos los cursos de acción viables? ¿Pueden las máquinas inteligentes evitar los sesgos y eliminar la interferencia de las emociones en las decisiones? ¿Hasta dónde la inteligencia artificial podrá extender los límites de la racionalidad? ¿Puede la “racionalidad de las máquinas” incorporarse en procesos de acción comunicativa y formación de consenso? ¿Impondrá la inteligencia artificial los valores de un grupo dominante a millones de personas que solo obedecen, impresionados por la inalcanzable capacidad de las máquinas inteligentes?

Algoritmos en la toma de decisiones

Los algoritmos de toma de decisiones se utilizan en una variedad de dominios, los ejemplos incluyen agentes virtuales utilizados por proveedores de servicios en línea para llevar a cabo operaciones estandarizadas (como compras y registros), solución de conflictos, recomendación y sistemas de selección que comparan y agrupan usuarios para proporcionar contenido personalizado, sistemas de soporte a la toma de decisiones clínicas, y sistemas de vigilancia predictiva que predicen los puntos de actividad criminal. (Pomerol 1996)

La disciplina de análisis de datos es un ejemplo destacado que intenta demostrar que los algoritmos pueden desafiar la toma de decisiones y comprensión humanas. Al tomar una decisión (por ejemplo, el riesgo de una persona asegurada), los algoritmos trabajan con datos complejos para determinar cuáles características son relevantes para determinar el nivel de riesgo.

La Inteligencia Artificial replica el proceso de razonamiento humano, pero a una escala mucho mayor incorporando no solo los criterios que han sido ingresados al sistema por el creador del mismo sino también la información y variables que el propio sistema ha obtenido en cada uno de los procesos de análisis realizado y, potencialmente, gracias a la conexión entre sistemas distribuidos, también podría incorporar información sobre procesos realizados por otros sistemas similares en otros lugares del mundo. Son máquinas con capacidad de aprender de ellas mismas y de otras máquinas, en tiempo real.

Visto de esta forma, las capacidades de aprendizaje automático otorgan a los algoritmos cierto grado de autonomía, permitiéndole adaptarse. Por ello, las tareas realizadas por el aprendizaje automático serían difíciles de predecir de antemano, con lo que se constituye en una fuente de incertidumbre que genera preocupación y desafíos éticos en el diseño y uso de algoritmos.

Los algoritmos son un desafío ético no solo por la escala de análisis y la complejidad de la toma de decisiones. La incertidumbre y la opacidad del trabajo que realizan los algoritmos y su impacto cada vez mayor también son fuente de situaciones cada vez más relevantes para la economía y la sociedad.

El análisis predictivo que realiza la Inteligencia Artificial se sustenta en información accesible por el sistema o generada a partir de la experiencia de este en el análisis de datos. Es por ello una herramienta de predicción muy acertada en la práctica si la comparamos con otros métodos predictivos basados en modelos teóricos, como las regresiones múltiples.

Aún con ello, es necesario resaltar que las predicciones que se realizan con el aprendizaje automático implican la construcción de escenarios futuros a partir de información del pasado, y allí encontramos una de las principales limitaciones para el proceso de decisión: las máquinas no tienen intuición, no pueden tenerla y es por ello que no pueden realizar juicios.

De esta forma la Inteligencia Artificial  no constituye un reemplazo de la capacidad humana para tomar decisiones, pero sí una herramienta que permite ampliar la capacidad humana de manejar cantidades enormes de información y brindar mayor sustento al decisor.

Podemos contar con el apoyo de la Inteligencia Artificial pero siempre considerando la necesaria observación del comportamiento de los algoritmos para que no introduzcan distorsiones en el proceso de toma de decisiones.

Para ello es necesario transparentar los procesos incluidos en los algoritmos y empoderar al las personas a cargo de la toma de decisiones partiendo de desarrollar el pensamiento crítico y la capacidad de juicio.

Bibliografía consultada

AGRAWAL A., GANS J. & GOLDFARB A. 2018a. Exploring the Impact of Artificial Intelligence: Prediction Versus Judgment. TPI Conference, Washington DC. Disponible en: https://techpolicyinstitute.org/wp-content/uploads/2018/02/Gans-et-al-prediction-vs-judgment.pdf

AGRAWAL A., GANS J., GOLDFARB A. 2018b. Prediction Machines: The Simple Economics of Artificial Intelligence. Boston: Harvard Business Review Press

ALARCÓN O. 2017. Explicaciones a través de mecanismos: una propuesta alterna a los fallos de la teoría estándar de la elección racional desde la perspectiva de Jon Elster.  EN: Cuestiones de filosofía Vol. 3 (20): 26-40

ÁLVAREZ DE MON, S. 2009. Incertidumbre, hábitat natural del directivo: testimonios personales de una paradoja vital. EN: IESEInsight No. 1, segundo trimestre 2009.

BETTIS R. & HU S. 2018 Heuristics, Computational Complexity, and Artificial Intelligence. En: Behavioral Strategy in Perspective. Londres: Emerald publishing. p. 139-150

BENCKLER, Y. 2004. Sharing nicely: On shareable goods and the emergence of sharing as a modality of economic production. EN: Yale Law Journal Vol 114 : 273-358.

BRINJOLFSSON, E. & MCAFEE, A. 2012. Winning the race with ever-smarter machines. EN: MIT Sloan Management Review Vol. 53 (2): 53-60

BRINJOLFSSON, E. & MCAFEE, A. 2013. La Carrera contra la máquina. Barcelona: Antoni Bosch, Casa Editora.

BRINJOLFSSON, E & MCAFEE, A. 2015. Will human go the way of horses? EN: Foreign Affairs Vol 94 (4): 8-14.

BONATTI, P. 2019. Las Meta decisiones y la teoría de la racionalidad instrumental mínima EN: Ciencias Administrativas 7(13). Enero – Junio 2019.

BOTSMAN, R. & ROGERS, R. 2010. What’s mine is yours: How Collaborative Consumption is changing the way we live. New York: Harper Collins.

COBO, C. 2016. La innovación pendiente. Montevideo: Editorial Sudamericana Uruguaya – Penguin Ramdom House.

CANALS, J. 2009. Redescubrir el papel de las escuelas de dirección. EN: Revista de antiguos alumnos del IEEM. Diciembre 2009.

CHERNIAK, C. 1981. Minimal Rationality. Mind, 90(358): 161-183

DHANRAJANI, S. 2018. Reimaginig enterprise decision-making with artificial intelligence. EN: Cognitive World.

DRUCKER, P. 2001. The Next Society, The Economist, 1 de noviembre, p. 16.  Disponible en: http://www.economist.com/node/770819

ELSTER, J. 1983. Sour Grapes: Studies in the Subversion of Rationality. Cambridge: Cambridge University Press. doi:10.1017/CBO9781139171694

FREY, C. & OSBORNE, M. 2013. The fufute of employment: how susceptible are Jobs to computerisation? Oxford, Reino Unido: Oxford Martin School. Disponible en: https://www.oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of_Employment.pdf

FRIEDMAN, G. 2014. Workers without employers: shadow corporations and the rise of the gig economy. EN: Review of Keynesian Economics Vol. 2 (2): 171-188.

GREENE, D., HOFFMAN, L. & STARK, L. 2019. Better, Nicer, Clearer, Fairer: A Critical Assessment of the Movement for Ethical Artificial Intelligence and Machine Learning. EN: Proceedings of the Hawaii International Conference on System Sciences 2019

HABERMAS, J. 1981. “Conocimiento e interés”. Madrid: Taurus.

HABERMAS, J. 1987. Teoría de la acción comunicativa : Crítica de la razón funcionalista. Buenos Aires: Taurus.

GÓMEZ PALACIO, G. 2014. ¿Por qué? la filosofía no debe ceder la tematizacio?n de los conceptos de organización y gerencia a las ciencias de la gestión y la economía? EN: Realitas. Revista de Ciencias Sociales, Humanas y Artes. Vol. 2 No. 2 jul-dic 2014.

KATZ, R. 2009. El papel de las TIC en el desarrollo: Propuesta de América Latina a los retos económicos actuales. Barcelona: Ariel.

KELLY, K. 2009. The new socialism: global collectivist society is coming online. EN: Wired [online] Disponible en: https://www.wired.com/2009/05/nep-newsocialism/

KENNEY, M & ZYSMAN, J. 2016. The rise of the platform economy. EN: Issues in Science and Technology Vol 32 (3): 61-69.

MEJÍA, C. 2016. El trabajo en las sociedades modernas-industriales. Un recorrido de su centralidad sociocultural. Xihmai, Vol 11 (22): 55-87

NEWMAN, J. 2012. Computer and the brain. Yale University Press, 2012

MANYIKA, J; CHUI, M; MIREMADI,M; BUGHIN, J; GEORGE, K; WILLMOTT, P. & DEWHURST M. 2017. A future that works: Automation, employment and productivity. New York: McKinsey Global Institute.

MARTINEZ, R. 2004. El puesto de la racionalidad en la cisncias sociales desde la prespectiva de Jon Elster. EN: A parte rei: revista de filosofía. No. 31

MITTELSTADT, B., ALLO, P., TADDEO, M., WACHTER, S., & FLORIDI, L. 2016. The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2), Big Data & Society, November 2016, Vol.3(2).

MONROY, S. 2005. Enfoque y conceptos de una administración renovada: el aporte de Aktouf. EN: Innovar: revista de ciencias administrativas y sociales. Vol. 15 (26): 134-137.

OECD. 2014. Automation and Independent Work in a Digital Economy. Paris:  OECD Publishing.

OSOBA, A. & WELSTER, W. 2017.  An Intelligence in Our Image: The Risks of Bias and Errors in Artificial Intelligence. Santa Monica, CA: RAND Corporation, 2017. Disponible en: https://www.rand.org/pubs/research_reports/RR1744.html .

PAEZ, J. 2015. Teorías normativas y descriptivas de la toma de decisiones: un modelo integrador. EN: Opción, Año 31, No. Especial 2 (2015): 854-865

POMEROL, J. (1997). Artificial intelligence and human decision making. European Journal of Operational Research, 99(1), 3-25.

SHWAB, K. 2016. La cuarta revolución industrial. Buenos Aires: Debate.

WORLD ECONOMIC FORUM (2016). The future of jobs: employment, skills and workforce strategy for the fourth industrial revolution. Ginebra, WEF. Disponible en: http://www3.weforum.org/docs/WEF_Future_of_Jobs.pdf (Consultado el 24 de enero de 2017).

WORLD ECONOMIC FORUM (2017) Realizing human potential in the fourth industrial revolution: an agenda for leaders to shape the future of education, Gender and Work. Ginebra, WEF. Disponible en: http://www3.weforum.org/docs/WEF_EGW_Whitepaper.pdf   (Consultado el 24 de enero de 2017).

Leave a Reply

Your email address will not be published. Required fields are marked *
You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>