La ética de la ética en la inteligencia artificial: palabras huecas

by Julen

No hay duda de que uno de los grandes avances de los últimos años es todo lo que tiene que ver con la inteligencia artificial. A partir de un incremento exponencial en las capacidades para tratar con datos y de nuevos enfoques como los que provienen de las redes neuronales, el campo que se abre ante nuestra humanidad es abrumador. No es de extrañar que los gurús del momento dediquen páginas y páginas al asunto. La entremezcla de realidad y ciencia ficción es apasionante. Y como quiera que se está tensando la cuerda respecto a lo que somos como humanos, individual y colectivamente, no queda sino introducir la ética. Es momento de grandes preguntas; más si cabe con la pandemia de la COVID-19 encima.

Las grandes corporaciones, con las GAFAM a la cabeza, nos proveen de distinguidas cavilaciones respecto a la ética. Escribí de ello en el artículo Ethicswashing: la inteligencia artificial a los pies de los GAFAM. Entre otras cosas, citaba al final del post un artículo académico que me parece de lo mejor para entender cómo está construido este castillo de naipes denominado «ética de la inteligencia artificial»:

A una conclusión similar llega Thilo Hagendorff, del International Center for Ethics in the Science and Humanities de la Universidad de Tubinga en Alemania, cuando en un artículo en el que repasa 21 propuestas en torno a la ética en la inteligencia artificial nos dice que no parece haber compromiso alguno con la acción. Sólo uno de los 21 modelos analizados incluye una leve mención a la parte práctica. Pero de este artículo, muy interesante por lo panorámico que resulta, nos ocuparemos específicamente en otro post. Tiempo al tiempo. Me temo, por tanto, que hay que aplicar un poco más de ética a la ética relacionada con los datos masivos y la inteligencia artificial.

La referencia de este artículo: Hagendorff, T. (2020). The ethics of Ai ethics: An evaluation of guidelines. Minds and Machines, 1-22. Si sigues lo que se publica en torno a la ética en la inteligencia artificial y big data, vas a ir bien provista de lecturas para estos tiempos de confinamiento. No hay día en el que no aparezca en la prensa algo relacionado con el asunto. Hace unos días, por ejemplo, en El País: Cómo aunar ética e inteligencia artificial. Es un artículo de Javier Labiano Elcano sobre Everis en El País. Me vale como botón de muestra. Si te pones con una sencilla búsqueda en Internet, creo que no quedará empresa multinacional que no haya realizado su declaración al respecto. Eso sí, grandes palabras; pero si lees a Hagendorff llegas a la conclusión de que nada de nada. Las palabras se las lleva el viento.

Currently, AI ethics is failing in many cases. Ethics lacks a reinforcement mechanism. Deviations from the various codes of ethics have no consequences. And in cases where ethics is integrated into institutions, it mainly serves as a marketing strategy. Furthermore, empirical experiments show that reading ethics guidelines has no significant influence on the decisionmaking of software developers. In practice, AI ethics is often considered as extraneous, as surplus or some kind of “add-on” to technical concerns, as unbinding framework that is imposed from institutions “outside” of the technical community.

Supongo que cada vez habrá más presión para pasar del dicho al hecho. No obstante, por supuesto que la batalla es complicada porque quienes están implicados son los que mandan en el capitalismo global. Parecería lógico que fueran las Administraciones Públicas las que se metieran de por medio y exigieran. Pero ya sabemos que, llenas de buenas intenciones, su capacidad real primero para dar ejemplo y luego para controlar es la que es. Perdonad mi pesimismo, pero a estas alturas de partido, esa capacidad es mínima.

Una de las administraciones que ha dado un paso al frente es el Gobierno de Navarra. ¿Qué ha publicado? Pues el típico manifiesto, que no ley: Manifiesto ético del uso de datos y algoritmos. Quiero pensar que lo primero es lo primero y que por algún lado hay que empezar. Pero, insisto, me parece que el campo de la ética aplicada a la inteligencia artificial y el análisis de datos masivos está lleno de buenas palabras que apenas conducen a nada concreto a día de hoy. Como señala Hagendorff, business versus ethics.

Leading, of course, is the military use of AI in cyber warfare or regarding weaponized unmanned vehicles or drones (Ernest and Carroll 2016; Anderson, K. and Waxman 2013). According to media reports, the US government alone intends to invest two billion dollars in military AI projects over the next five years (Fryer-Biggs 2018). Moreover, governments can use AI applications for automated propaganda and disinformation campaigns (Lazer et al. 2018), social control (Engelmann et al. 2019), surveillance (Helbing 2019), face recognition or sentiment analysis (Introna and Wood 2004), social sorting (Lyon 2003), or improved interrogation techniques (McAllister 2017). Notwithstanding the above, companies can cause massive job losses due to AI implementation (Frey and Osborne 2013), conduct unmonitored forms of AI experiments on society without informed consent (Kramer, Guillory, and Hancock 2014), suffer from data breaches (Schneier 2018), use unfair, biased algorithms (Eubanks 2018), provide unsafe AI products (Sitawarin et al. 2018), use trade secrets to disguise harmful or flawed AI functionalities (Whittaker et al. 2018), rush to integrate and put immature AI applications on the market and many more.

La lista podría continuar y, valga la redundancia, datos son datos. Los ejemplos de usos inadecuados de los algoritmos y, en general, la ciencia de los datos van a seguir creciendo. Hagendorff cita un estudio previo, de 2018, de McNamara, Smith, y MurphyHill y la conclusión es deprimente:

Do ethical guidelines bring about a change in individual decision-making regardless of the larger social context? In a recent controlled study, researchers critically reviewed the idea that ethical guidelines serve as a basis for ethical decision-making for software engineers (McNamara, Smith, and MurphyHill 2018). In brief, their main finding was that the effectiveness of guidelines or ethical codes is almost zero and that they do not change the behavior of professionals from the tech community.

Pues en estas estamos. Efectividad casi cero cuando hablamos de los códigos éticos en la inteligencia artificial. ¿Acaso tenías dudas? Por cierto, si quieres leer sobre algunas iniciativas de la Administración Pública te recomiendo este artículo de Mª Concepción Marcos Acuña publicado en la Revista Vasca de Gestión de Personas y Organizaciones Públicas del IVAP: InteligencIa artificial e Innovación en la Administración Pública: (In)necesarias regulaciones para la garantía del servicio público.

Imagen de Free-Photos en Pixabay.

Artículos relacionados

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.