Llegarán las regulaciones a la barra libre de la algoritmización

by Julen

Si estás un poco atenta, te das cuenta enseguida de que los algoritmos están muy cerca de convertirse en algortimos. Con solo alterar el orden de un par de letras se nos abre una puerta inquietante. La Unión Europea lleva tiempo hurgando en la forma en que deberíamos prevenirnos frente a un uso inadecuado de la inteligencia artificial. Yo no me canso de insistirles a mis chicas y chicos en las clases de ética que impartimos en el grado de Business Data Analytics en la universidad. Lo quieran o no, su trabajo va a quedar fiscalizado más pronto que tarde por instituciones que auditarán su trabajo.

No hace mucho escribía aquí mismo un artículo que titulaba: ¿Quién debe auditar los algoritmos? Es decir, la pregunta no es si hay o no que auditarlos, sino quién debe hacerlo. En ese artículo defendía un triple enfoque siguiendo el habitaul trabajo de las auditorías de sistemas de gestión. Debe haber auditorías desde tres ámbitos diferentes:

  1. Auditorías de primera parte. Los equipos de diseño de los algortimos deben contar con mecanismos internos en sus organizaciones para que, de forma obligatoria, el trabajo de diseño pase por un análisis riguroso y sistemático. No hay que olvidar que ya hay modelos para analizar la ética en los datos, como es el caso del Data Ethic Canvas, por ejemplo.
  2. Auditorías de segunda parte. Las organizaciones para las que trabajan los equipos de diseño de algoritmos deben incorporar en sus prácticas auditorías que revisen la ética en toda la cadena de valor del dato, desde la forma en que se recogen hasta las consecuencias de decisiones tomadas en base a los algoritmos.
  3. Auditorías de tercerca parte. Aquí caben dos modelos: el de empresas certificadas para llevar a cabo auditorías (del estilo, por ejemplo, de Eticas Consulting) y el de la propia Administración Pública a través de organismos especializados, como es el caso que nos trae hasta este artículo de hoy.

Pues bien, Bárbara Bécares publicaba este sábado pasado Una agencia pública que supervise el uso de los algoritmos y de la IA en España: esto es lo que plantea el gobierno, un artículo en Genbeta en el que nos contaba lo siguiente:

El gobierno de España ha pactado la creación de una Agencia Española de Supervisión de la Inteligencia Artificial, tras la propuesta de Más País-Equo que ha puesto sobre la mesa la necesidad de una entidad que pueda controlar los algoritmos de las redes sociales y supervisar cómo estos se aplican.

La formación que lidera Íñigo Errejón puso esta condición, entre otras varias propuestas y enmiendas, para apoyar los Presupuestos Generales del Estado de 2022 (en los que la tecnología ha estado muy presente) y el gobierno de coalición aceptó la propuesta.

Como digo, no debe extrañarnos. En Europa este tipo de iniciativas llevan sobra la mesa un tiempo y hay trabajo ya realizado. Se trata de analizar hasta qué punto decisiones basadas en algoritmos pueden impactar en la salud mental o si pueden ser discriminatorias. En concreto, se propone crear un organismo que «quedará encargado de auditar de forma periódica los algoritmos de las redes sociales para estudiar sus efectos sobre la extensión de discursos de odio, contra la salud pública o la salud mental de la población publicando informes periódicos sobre el mismo».

La autora del artículo fija su atención, sobre todo, en cuestiones de transparencia. Al habitual modelo de «caja negra» con el que operan muchas veces las compañías, se quiere enfrentar un enfoque que nos permite saber por qué deciden lo que deciden. Aquí entra en juego esa diferente lógica en la toma de decisiones: los humanos siempre hemos necesitado causas, pero los algoritmos solo necesitan correlaciones. Para mí este es el gran salto: ¿podemos aceptar una decisión no basada en el raciocinio? Es decir, ¿una decisión que no entendemos puede ser una buena decisión?, ¿es una decisión aceptable?

Lo dicho, llegarán las regulaciones. Y, detrás, claro, las trampas. Tiempo al tiempo. Por si acaso, puedes ir echando un vistazo a este documento de Deloitte en el que nos explican en qué consiste el trabajo de auditor/a de algoritmos. A lo mejor puedes sacar plaza de funcionaria/o 😉

Algorithm auditors have knowledge of ethics and fairness, along with a practical understanding of how today’s algorithms can impact citizens’ daily lives. They work with data science teams and external vendors to review algorithms, ensuring they are transparent, fair, and explainable.

Artículos relacionados

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.