Warning: Undefined variable $post_id in /home/consult2/public_html/wp-content/themes/soledad-child/header.php on line 50
13 citas de Ética de la inteligencia artificial, de Mark Coeckelbergh – Consultoría artesana en red

13 citas de Ética de la inteligencia artificial, de Mark Coeckelbergh

by Julen

Ya veis que sigo con lecturas en el ámbito de la ética aplicada a la inteligencia artificial y la analítica de datos masivos. Hace ya tiempo que, debido a las clases que imparto en el grado de Business Data Analytics, esta es una cuestión que me mantiene, la verdad, muy entretenido. Y (pre)ocupado, muy preocupado, para qué negarlo. A veces tengo la sensación de que ni de lejos entendemos la relevancia de lo que está sucediendo. Quizá en estos días ha podido ganar cuota de pantalla al aparecer en los medios la disputa por la que OpenAI ha reintegrado a Sam Altman en su puesto de CEO de ChatGPT. Un asunto de ida y vuelta. De repente, el concepto de inteligencia artificial general, fuerte o superinteligencia ocupa espacio en la prensa generalista. De fondo, un auténtico problema de dimensiones planetarias. ¿Exagero? El tiempo lo dirá.

Mark Coeckelbergh es un filósofo belga de cierto prestigio que lleva tiempo con la mira puesta en la tecnología. Publicó este libro, Ética de la Inteligencia Artificial, en 2020 y Cátedra nos lo ha traducido en 2021. No hay duda de que sirve para hacerse una composición de lugar en torno a la cuestión. A mí, no obstante, me gustó más el de Erik J. Larson que reseñé hace unos días. Este de Coeckelbergh es más «plano». De todas formas, me parecen dos lecturas complementarias. Y, por cierto, algo de agradecer: es un libro relativamente corto. No se anda por las ramas. Quizá me anime con otros dos que tiene también publicados en Cátedra: Filosofía política de la inteligencia artificial y La ética de los robots.

Bueno, vamos con las citas. En esta ocasión he buscado también alguna que otra fase lapidaria.

La idea de una explosión de inteligencia está estrechamente relacionada con la de la singularidad tecnológica: un momento en la historia humana en el que el progreso tecnológico exponencial traería consigo cambios tan drásticos que dejaríamos de comprender lo que ocurre y en el que «los asuntos humanos, entendidos como se entienden hoy día, llegarían a su fin»

Cabe mirar más allá de la cultura occidental para encontrar diferentes tipos de narrativas no frankensteinianas en torno a la tecnología y formas no platónicas de pensamiento. Por ejemplo, en Japón, donde la cultura tecnológica está más influenciada por una religión de la naturaleza que en Occidente, en particular por el shinto, y donde la cultura popular ha retratado a las máquinas como agentes que ayudan, es habitual encontrar una actitud más amistosa hacia los robots y la IA.

La batalla no es solo contra las vidas y la sociedad humanas, es contra el ser humano mismo: mejorarlo o no mejorarlo, esa es la cuestión.

En lugar de plantearse la tecnología como una amenaza, subrayan [se refiere a la autores alineados con la postfenomenología] que los seres humanos somos tecnológicos; esto es: siempre hemos usado la tecnología, es parte de nuestra existencia más que una cuestión externa que amenaza nuestra existencia; y esta tecnología, naturalmente, media en nuestra involucración en el mundo.

La IA está en todas partes. La línea entre IA propiamente dicha y otras formas de tecnología puede ser borrosa.
En cierto sentido, no existe una «IA» en sí misma: la IA siempre se basa en otras tecnologías y está integrada en prácticas y procedimientos científicos y tecnológicos más amplios.

En el aprendizaje automático, la abstracción mediante métodos estadísticos crea un modelo de la realidad: no es la realidad.

…convierta en ganado de smartphones al que se ordeña para obtener datos [se refiere, claro está a nosotras como personas en manos de las grandes tecnológicas].

Los algoritmos y las máquinas son arresponsables.

Si un sistema es eficiente a costa de la transparencia, ¿deberíamos usarlo?

Además, también está el problema relativo al poder: reflexionar sobre la ética en el mundo real significa reflexionar no solo sobre qué se necesita hacer en relación con la IA, sino también quién debería hacerlo y quién decidirá en la práctica sobre su futuro y, en consecuencia, sobre el futuro de nuestra sociedad.

Winfield y Jirotka han pedido implementar una «caja negra ética» en robots y sistemas autónomos, que grabe lo que el robot hace (datos provenientes de los sensores y del estado «interno» del sistema), como sucede con las cajas negras instaladas en los aviones.
la ética integrada en el diseño.

Un homo deus (Harari 2015) es sustituido por un IA deus, que controle tanto nuestro sistema de apoyo vital como a nosotros mismos. […] No solo el cuerpo, sino también la Tierra, son vistos como una prisión de la que hay que escapar. […] Un peligro de la IA, desde este punto de vista, es que facilita este tipo de pensamiento y se convierte en una máquina de alienación: un instrumento para abandonar la Tierra y rechazar nuestra condición vulnerable, corpórea, terrestre y existencialmente dependiente.

La IA puede convertirse en una herramienta para la «supervivencia de los más ricos», como expresó Rushkoff.

Imagen de Gerd Altmann en Pixabay.

Artículos relacionados

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.