Cuando el algoritmo ayuda al suicidio

by Julen

Estoy leyendo con estupor el artículo que Marcos Merino ha publicado en Genbeta: El algoritmo de Amazon detectó un producto muy usado por suicidas… y ahora lo recomienda junto a otros que facilitan el suicidio. No es que el titular me deje tiritando, sino que, tras una iniciativa que ha llegado hasta la Cámara de Representantes de Estados Unidos para detener este estropicio, leo lo siguiente:

Brian Huseman, vicepresidente de cobertura pública de Amazon, respondió el jueves a estos legisladores defendiendo las prácticas de Amazon: «Al igual que muchos productos de compradores ampliamente disponibles, [este] lamentablemente puede ser mal utilizado».

Pues sí, yo es que pasaba por aquí. No es mi culpa si la gente hace un mal uso del sistema de recomendación que tenemos implementado. Eres libre de no hacerle caso. Algo así, ¿no? Pues bien, este ejemplo nos debe hacer dudar —otra vez, y no sé cuántas van— del lamentable comportamiento de los GAFAM de turno.

Desde que doy clases en la universidad sobre ética en el Grado de Business Data Analytics, hago seguimiento de lo que se publica en torno al asunto. Tengo activas varias suscripciones a fuentes RSS que cada vez me entregan un mayor volumen de contenido. Por ejemplo, si activáis una alerta en Google sobre «AIEthics» es muy probable que os sorprendáis por el actual torrente de publicaciones al respecto. Sí, el tema está de moda. Lamentablemente, este de moda a lo mejor oculta un enorme fenómeno de ethicswashing.

Ya seguiremos el recorrido de la noticia que nos acerca Marcos Merino, pero me da que va a ser otro ejemplo de que seguimos en las de siempre: aquí lo que importa es vender. Cuanto más, mejor. Y los sistemas de recomendaciónAmazon es de los mejores ejemplosutilizan nuestros sesgos cognitivos hasta donde haga falta. Todo sea por la venta. 

Qué triste, pero ya tengo otro caso para compartir en clase. Los sistemas de recomendación, sin intervención humana que los filtre, pueden ser asesinos en potencia. Esta vez de trata de ayudar o de inducir al suicidio facilitando medios para ello. Poca broma. ¿Hasta dónde vamos a deshumanizar al algoritmo y la toma de decisiones va a quedar en manos de quienes lo único que pretenden es vender más y más?

El tema, según parece, viene ¡desde 2019! O sea, que ya ha habido tiempo de reconsideraciones. Como os decía, cada vez se publica más y más sobre ética referida a algoritmos, big data e inteligencia artificial. Está bien. Hasta en una reciente encuesta global de McKinsey a 1.700 líderes de empresa aparecía entre los seis grandes elementos que consideraban relevantes bajo este epígrafe: Ethical decision-making and proactive governance. Ahí se decía sobre los participantes en la investigación:

Participants acknowledged that ethical dilemmas will arise, but that leaders must go beyond “do no harm” and establish the processes, habits, and talent that serve as the company’s compass and guardrails.

Pues ya veis, mucho hablar y poco hacer.

La imagen es de HASTYWORDS en Pixabay.

Artículos relacionados

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.