¿Cómo trabajar con ética en Big Data? Esto dicen nuestras alumnas y alumnos

by Julen

Llevaba tiempo con ganas de estructurar algún tipo de ejercicio que nos permitiera conocer la opinión de las chicas y chicos que tenemos en primer curso del grado de Business Data Analytics en la universidad. Como consecuencia de ir leyendo aquí y allá diversas iniciativas vinculadas con los principios éticos en Big Data e Inteligencia Artificial se me ocurrió confeccionar un primer listado que someter a su opinión. Finalmente les propuse 14 aspectos que podían contribuir a trabajar los datos con ética. De lo que surgió en clase va este post. Eso sí, primero dos advertencias.

La primera tiene que ver con mi particular recopilación de aspectos a evaluar. Ni es la mejor ni la más completa. Ya la iremos limando con el tiempo. El objetivo de las clases es introducir elementos que les ayuden a pensar y a hacerse preguntas respecto al trabajo que llevan a cabo con los datos. Desde ese punto de vista, con humildad, seguro que la propuesta de aspectos que les propuse contiene sesgos y defectos. Insisto, me interesa «hacer» y aprender poco a poco.

El segundo aspecto a comentar tiene que ver con una conversación que mantuve con Amalio Rey ayer miércoles. Yo compartía dudas con él respecto a la capacidad real de nuestras alumnas y alumnos para profundizar en estas cuestiones. Amalio argumentaba que quizá el tempo no es el adecuado para conversar de estos asuntos tan serios con quienes están todavía en primer curso. Es cierto que a veces me siento como el tipo este que viene en plan cascarrabias a refunfuñar de todo. ¡¡¡Si lo que nos gusta es jugar con los datos!!! Amalio, con buen criterio, comentaba que a lo mejor estas cuestiones hay que plantearlas en un segundo momento y no desde el principio. Tomo nota.

Por centrar el post en el ejercicio que llevamos a cabo, la dinámica era la siguiente:

  • Repasamos los 14 elementos que proponíamos, aclarando dudas e intentando que quedara claro qué queríamos decir con cada uno de ellos.
  • Les pedimos que eligieran individualmente los 7 que consideraban más relevantes y que los ordenaran de mayor a menor.
  • Después, en equipo, tal como están organizados en clase y como desarrollan los retos que trabajan, tenían que llegar a un consenso: cada equipo proponía los 7 más relevantes y los ordenaba.
  • A continuación cada equipo elegía una persona como portavoz para llevar a cabo una discusión en grupo de la que debía surgir la propuesta final que representaba la opinión de toda la clase.
  • Por último, les encargamos una tarea personal: cada cual tenía que elegir los dos aspectos que consideraba más relevantes y debía argumentar por qué en un pequeño escrito que debían subir a Moodle.

A continuación aparecen los 7 elementos más relevantes, de mayor a menor, y luego los 7 que quedaron descartados. Hay que decir que los que quedaron relegados como conclusión de la clase al completo no quiere decir que no hubieran sido tenidos en cuenta como importantes por alguno de los equipos o por alguna persona en particular. Queda claro que todo es opinable y que no parece que vayamos a encontrar una «verdad» universal para aplicar un enfoque ético al trabajo con datos masivos e inteligencia artificial. Insisto, el ejercicio persigue hacer pensar. Es nuestra responsabilidad y en ello andamos empeñados.

Elementos más relevantes para trabajar la ética en el análisis másivo de datos y en la inteligencia artificial

  1. Ante cualquier señal de riesgo o peligro para las personas, se detiene su aplicación.
  2. La forma en que el dato original se ha recabado es fiable.
  3. La muestra de los datos es fiable y no contiene sesgos.
  4. Conocemos para qué se va a usar el algoritmo y lo vemos adecuado (contraste ODS o derechos humanos).
  5. El diseño del algoritmo es transparente: se ha documentado.
  6. El algoritmo es diferente en función de las culturas y contextos en que se aplica.
  7. Se crean leyes de obligado cumplimiento que limitan lo que se puede o no hacer en Big Data.

Elementos descartados

  1. Quienes diseñan el algoritmo son personas equilibradas emocionalmente.
  2. Existe un equipo que evalúa y «controla» el algoritmo desde un punto de vista ético.
  3. Se conforma un equipo de diseño del algoritmo con diversidad (edad, género, raza, religión…).
  4. El algoritmo no va a eliminar puestos de trabajo actualmente ocupados por personas.
  5. Se planifican y llevan a cabo acciones para explicar a las personas afectadas cómo funciona el algoritmo.
  6. Las visualizaciones de datos se ajustan a principios éticos.
  7. El algoritmo es capaz de aprender por sí mismo, al margen de las personas que lo diseñaron.

Dejo solo los resultados. De momento. Más adelante espero ir extrayendo algunas reflexiones a partir de lo que hicimos ayer en clase. Claroscuros por todas partes 😉

Imagen de Andreas Breitling en Pixabay.

Artículos relacionados

4 comentarios

amalio rey 23/01/2020 - 16:03

Gracias, colegui, por dar algún valor a mi comentario. Fue, como sabes, un reflexión hecha de prisa y sin mucha intención.
El ejercicio que describes está muy bien. Es genial ponerlos a pensar y empezar a tomar sus primeras decisiones.
Por cierto, me ha llamado la atención que el punto 2: «La forma en que el dato original se ha recabado es fiable» se considere un elemento clave para la «ética». Me pregunto, insisto, solo me pregunto, si la «fiabilidad» es un atributo que debe ser ponderado desde la ética. A mí me suena como algo más técnico-estadístico, incluso puede ser neutral desde el punto de vista ético, a menos que esa falta de fiabilidad sea deliberada para conseguir unos fines menos éticos. No sé cómo lo ves…

Responder
Julen 24/01/2020 - 07:50

El asunto tienes que enfocarlo desde lo último que comentas, Amalio. Muchas veces damos por sentado que los datos que se proporcionan para el análisis masivo son «los que son». El problema ético tiene que ver con que si vas a tomar por «justos» los resultados derivados de ese análisis, tienes que asegurarte de que no hay sesgo en el comienzo de todo el proceso. Ese sesgo puede provenir de que la muestra no es correcta o de que los datos no han sido recabados con métodos científicos contrastados. Ha podido ocurrir intencionalmente o no, pero hay que tenerlo en cuenta para no dar por sentada una «verdad» construida con cimientos de barro.
En este proceso inicial suelen producirse varios sesgos:
– Arrastre: como los demás no se cuestionan los datos originales, yo tampoco.
– Disponibilidad: como no tengo otros datos, los doy por buenos.
– Confirmación: me tengo que creer que los datos son buenos porque es mi profesión (científico de datos) la que podría cuestionarse
– Anclaje: los primeros datos que me dan tienen que ser buenos, no puede ser que no los hayan recogido bien
Por eso incluyo este punto en la lista. No obstante, como decía, los iré puliendo poco a poco, añadiendo algunos, eliminando otros o modificando la redacción. Gracias por el pensamiento crítico 🙂

Responder
Comenzamos de nuevo las clases de Éticas y Datos en la uni – Consultoría artesana en red 22/10/2020 - 06:28

[…] del grado de Business Data Analytics en la sede de Bilbao Berrikuntza Faktoria. Contamos con la experiencia del año pasado y lo que aprendimos de trabajar con un modelo que planteaba diversos estímulos de aprendizaje: […]

Responder
La necesidad de la ética aplicada al data - KOEN The School 18/12/2020 - 13:19

[…] informes, como el de Julen Iturbe-Ormaetxe, incidían en los siete elementos más relevantes –de mayor a menor importancia– para trabajar […]

Responder

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.