Warning: Undefined variable $post_id in /home/consult2/public_html/wp-content/themes/soledad-child/header.php on line 50
Nuevo curso en la universidad: a vueltas con la ética en el grado de Business Data Analytics – Consultoría artesana en red

Nuevo curso en la universidad: a vueltas con la ética en el grado de Business Data Analytics

by Julen

Arrancamos curso nuevo en la uni. Este próximo lunes día 21 nos han convocado al equipo docente para presentarnos ante nuestras alumnas y alumnos. Como nos decía Aitor Bediaga, uno de los coordinadores del grado, se trata de explicarles quiénes somos, qué materia vamos a impartir y qué aporta al grado y por qué debería gustarles. Empiezo por el final: ¿la ética es plato de buen gusto para quien está descubriendo una cierta vocación como científica/o de datos? La respuesta no es sencilla, pero supongo que mi responsabilidad tiene mucho que ver con que sean capaces de hacerse preguntas que no siempre son obvias cuando se trata de trabajar con datos.

Quizá el mayor problema tenga que ver con la idea preconcebida respecto al poder aséptico del dato. Por todas partes se vende el mantra de que las buenas decisiones se basan en buenos datos. No seré yo quien niegue la mayor. En realidad me lo creo a pies juntillas. Lo que pasa es que los datos siempre cargan ideología y esto es algo que demasiadas veces se obvia. Cualquier recogida de datos es esclava de la intención de quien los recoge y no suele ser nada raro encontrar sesgos incluso en el origen de los datos.

Quizá convenga repasar las explicaciones de Daniel Kahneman en su conocido libro Pensar rápido, pensar despacio. Allí repasa mil y un sesgos de estos humanos que poblamos el planeta. Experimento tras experimento vamos descubriendo un universo lleno de imperfecciones. Sí, parece que no somos buenas máquinas de decidir, aunque lo llevemos haciendo miles de años. Ya lo conté en un post anterior: De sesgos e imperfecciones humanas. Kahneman explica cómo el sistema uno, ese que privilegia la inmediatez en la respuesta, nos suele jugar bastantes malas pasadas. El sistema dos, más sesudo, lento y perfeccionista, no siempre es capaz de detectar las trampas que a veces encierran los datos que se nos presentan. ¿Por qué? Porque el diseño del contexto provoca que el sistema uno le gane la partida al sistema dos.

Siempre digo, por tanto, que el objetivo final de las clases de ética que organizamos en el grado es ser capaces de hacernos las preguntas adecuadas para que las decisiones que se derivarán de los datos no encierren sesgos. Sí, ya sé que la ética trata de lo que está bien y lo que está mal; pero antes tenemos que ver si los presupuestos de los que partimos para decidir son correctos. Y, claro, somos humanos y cada cual arrastramos mucho sistema uno porque así es nuestra naturaleza y porque las grandes compañías que están ahí para vender y ganar dinero: juegan con nosotras como si fuéramos ratas de laboratorio. El uso de sesgos para que hagamos lo que quieren que hagamos es más que evidente. Puedes empezar por Amazon.

¿Cómo hacemos que les guste la ética a nuestras alumnas y alumnos? En primer lugar, no me queda otra que «jugar» a plantear situaciones reales en las que tenemos que decidir y para ello tenemos que asegurarnos de que nuestros datos no nos van a engañar. Es algo así como jugar a encontrar qué no encaja en un dibujo que normalmente se nos presenta casi como ideal. Tenemos la suerte de que el grado emplea la metodología de retos por lo que existe una interacción con datos reales de organizaciones reales que están buscando respuestas de verdad a sus problemas. Así pues, aunque de vez en cuando tengamos que tirar de teoría, nuestro trabajo en torno a la ética es aplicado.

Como consecuencia de lo que ya hemos trabajado este curso anterior, suelo utilizar una lista de 14 elementos para ayudarles a hacerse las preguntas adecuadas.Son los que podéis leer a continuación.

  1. La forma en que el dato original se ha recabado es fiable.
  2. Conocemos para qué se va a usar el algoritmo y lo vemos adecuado (contraste ODS o derechos humanos).
  3. La muestra de los datos es fiable y no contiene sesgos.
  4. Quienes diseñan el algoritmo son personas con garantías en cuanto a su ética profesional.
  5. Existe un equipo que evalúa y «controla» el algoritmo desde un punto de vista ético.
  6. El diseño del algoritmo es transparente: se ha documentado.
  7. El algoritmo es diferente en función de las culturas y contextos en que se aplica.
  8. Se conforma un equipo de diseño del algoritmo con diversidad (edad, género, raza, religión…).
  9. El algoritmo no va a eliminar puestos de trabajo actualmente ocupados por personas y si lo hace va a plantear alternativas de empleo.
  10. Se planifican y llevan a cabo acciones para explicar a las personas afectadas cómo funciona el algoritmo.
  11. Las visualizaciones de datos se ajustan a principios éticos.
  12. El algoritmo es capaz de aprender por sí mismo, al margen de las personas que lo diseñaron, pero existe un control final desde instancias humanas.
  13. Ante cualquier señal de riesgo o peligro para las personas, se detiene su aplicación.
  14. Se crean leyes de obligado cumplimiento que limitan lo que se puede o no hacer en Big Data.

Este año, con el grupo de segundo vamos a trabajar con un modelo concreto del que ya he hablado aquí: el Data Ethics Canvas. Si bien existen unas cuantas propuestas respecto a las herramientas para abordar el análisis ético de la inteligencia artificial y del trabajo con datos masivos, es evidente que por alguna teníamos que apostar. Así pues, con el grupo de segundo vamos a intentar destripar lo que ofrece este canvas. Como ya comenté en su día, detrás de él está el Open Data Institute, cofundado en 2012 por Tim Berners-Lee y Nigel Shadbolt para promover el uso innovador de los datos abiertos de cara a impactar de forma positiva en la sociedad.

Bueno, ya iré contando de vez en cuando qué tal este año en la universidad con las chicas y chicos tanto de primer curso como de segundo. Espero que seamos capaces de hacerles para que relativicen el poder con que sienten a partir de sus datos masivos y de la capacidad de procesamiento de que disponen. Como suele decir Álvaro Fierro, impulsor de Cultumetría y que ya colaboró en nuestras clases, «medir no es contar, es tener en cuenta». Por ahí va nuestra reflexión.

Imagen de AJS1 en Pixabay.

Artículos relacionados

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.