Hace unos días recogíamos unas ideas sobre la inteligencia social. Provenían de El Mito de la Inteligencia Artificial, un muy recomendable libro de Erik J. Larson, con un punto de vista muy crítico respecto a la inteligencia artificial. El autor repasa por qué el actual rumbo de la inteligencia artificial da síntomas de que, al menos en un plazo de tiempo prudencial, no alcanzará el grado de «inteligencia artificial general», esa que nos caracteriza a los humanos. Por supuesto que en todo esto se entremezclan muchos elementos y no es fácil sentirse con certezas. La potencia tecnológica disponible para tratar con enormes cantidades de datos abre un panorama en el que las máquinas parece que sabrán cada vez más, pero esto no quiere decir que sepan en la forma en que opera nuestra inteligencia. Hemos endiosado una estadística que, sin embargo, frente a las inferencias que los humanos somos capaces de hacer, fracasa. ¿Hasta cuándo?
Recogemos a continuación 25 citas del libro. Son de las que te llevan, seguro, al rincón de pensar. Por cierto, si queréis más colecciones de citas de libros que me han dicho algo: Libros a través de sus citas.
La ciencia de datos (la aplicación de la IA a los macrodatos) es, en el mejor de los casos, una prótesis del ingenio humano; en caso de usarla de manera correcta, nos ayudará a lidiar con el «diluvio de datos contempóraneo». Cuando se la usa para reemplazar la inteligencia individual, tiende a estropear la inversión sin ofrecer ningún resultado.
Y ahí está: la mayor muestra de genio por parte de Turing, y también su mayor error, consistió en pensar que la inteligencia humana se limitaba a resolver problemas.
Hay una correlación inversa entre el éxito de la máquina al aprender algo y que consiga aprender otra cosa. […] En parte, construir e implementar con éxito un sistema de aprendizaje automático lleva a que este no se encuentre libre de sesgo y no sea general, sino que se centre en un problema de aprendizaje particular. Visto así, la restricción se encuentra integrada hasta cierto punto en esos enfoques. El éxito y la restricción son las dos caras de una misma moneda.
La inteligencia general (no débil) del tipo que todos exhibimos a diario no se debe a ningún algoritmo que se esté ejecutando dentro de nuestras cabezas, sino que recurre a la totalidad del contexto cultural, histórico y social desde el que pensamos y actuamos en el mundo.
…la afirmación de Stuart Russell según la cual los superordenadores sin inteligencia real simplemente tardan menos en obtener las respuestas equivocadas.
Kurzweil etiquetó esa idea como “ley de rendimientos acelerados” (LOAR en sus siglas inglesas) y la usó como premisa en un debate cuya conclusión fue que la IA completamente humana llegaría en 2029 y a continuación, a través de una serie de procesos de carga automática hacia máquinas más inteligentes, la superinteligencia lo haría hacia el año 2045.
La superinteligencia marcaba el punto sin retorno, el lugar donde la senda del progreso desaparece en lo desconocido, en la singularidad.
Arendt apuntó hacia la comprensión clásica de los seres humanos como Homo sapiens –literalmente “hombre sabio”– y al foco histórico sobre la sabiduría y el conocimiento en vez de las aptitudes técnicas, y argumentó que abrazar la tecnociencia como cosmovisión implicaba redefinirse como Homo faber –”hombre constructor”–.
…”teoría computacional de la mente”, que afirma que la mente humana es un sistema de procesamiento de información, no deja de respaldar la confianza teórica en el triunfo futuro de la IA.
Aquí lo mejor es ser claros: equiparar la mente humana con un ordenador no es una actitud científica, sino filosófica.
Una posibilidad que ha surgido en el debate sobre la IA es que alcancemos la inteligencia general pero no podamos anotarla –es decir, programarla– porque en muchas áreas importantes será una caja negra para nosotros. Esto nos lleva a hablar de Michael Polanyi.
Ese “uso” del conocimiento es lo que lleva a que las inferencias sean tan difíciles. ¿Qué fragmento de conocimiento resulta relevante en el pajar de mi memoria para aplicarlo al mundo dinámico y cambiante que me rodea?
La capacidad de determinar los fragmentos de conocimiento con relevancia no es una aptitud informática.
El conocimiento cosechado por las observaciones es siempre provisional. ¿Por qué? Porque el mundo cambia. El futuro podría falsificar mis hipótesis deductivas. […] El mundo real es un entorno dinámico, lo que quiere decir que se encuentra en cambio constante de maneras tanto predecibles como impredecibles, y que no podemos acotarlo con un sistema de reglas.
El pensamiento del mundo real depende de la detección sensitiva de la anormalidad o de las excepciones. […] La IA estadística acaba así con un “problema de larga cola” donde los patrones habituales (en la cola gruesa de la curva de distribución) resultan sencillos, pero los raros (su cola larga) son difíciles.
La única crítica dañina de verdad que se le puede hacer al aprendizaje automático es que mire hacia atrás.
La IA llevaba décadas esforzándose por encontrar un significado en los datos; de repente, al añadirles más datos aún, ese significado parecía revelarse por todas partes.
Irónicamente, el valor de los macrodatos en el aprendizaje automático es en realidad una muestra de esa suposición: cuanto más, mejor. Los sistemas de aprendizaje automático son solo máquinas contadoras un poco más sofisticadas.
El aprendizaje automático y el big data presentan otro problema, conocido como “saturación”, que afecta la esperanza de obtener una inteligencia artificial general. La saturación se da cuando, al añadirle más datos –más ejemplos– a un algoritmo de aprendizaje (o técnica estadística), no se suma nada al rendimiento de los sistemas.
Pero las excepciones, las observaciones atípicas y todo tipo de sorpresas forman parte integral del mundo real. La estrategia de exponer los sistemas de aprendizaje supervisado a excepciones probables, tal y como se hace en el trabajo en curso con los coches sin conductor, es una tarea digna de Sísifo, porque, por su propia naturaleza, las excepciones no se pueden predecir por completo.
Los resultados “razonablemente buenos” de la IA contemporánea con en sí una especie de truco, de ilusión que enmascara la necesidad de una comprensión cuando se lee o se conversa.
…el carácter de sabio idiota que tiene la IA basada en datos.
Si tuviéramos que elegir el año en el que el “potencial humano” murió, como lo haría un meme, 2008 sería el favorito. El big data mismo entró en el diccionario. Chris Anderson, de Wired, publicó el provocativo artículo según el cual el big data iba a reemplazar la teoría científica -una sugerencia no demasiado sutil de que se podía externalizar la innovación humana y dejarla en manos de la informática.
La ciencia, antaño un triunfo de la inteligencia humana, parece ahora encaminarse hacia una ciénaga retórica sobre el poder del big data y de los nuevos métodos informáticos, donde el científico ha pasado a desempeñar el papel de un técnico que en esencia se dedica a comprobar teorías ya existentes en los superordenadores Blue Gene de IBM.
Michael Jordan, miembro del Instituto de Ingenieros Eléctricos y Electrónicos de Estados Unidos: “la sociedad está a punto de experimentar una epidemia de falsos positivos procedente de los proyectos de big data”.
La confusión y la mitología contemporáneas llevan a que sea la cola la que menea al perro. […] Ya hemos visto que la IA basada en big data no es compatible con la emergencia de teorías. Por el contrario, sin las teorías ya existentes, la IA basada en big data cae víctima en general del sobreajuste, la saturación y la ceguera de los métodos de inducción de datos.
Tenemos unos cerebros metidos en cráneos. Ahora los tenemos metidos en ordenadores. ¿Qué hemos aprendido?
Los sistemas, pese a ser idiotas, no han dejado de abrirse camino por las utilidades empresariales, de consumo y gubernamentales.
Imagen de Gerd Altmann en Pixabay.
1 comentario
[…] de que sirve para hacerse una composición de lugar en torno a la cuestión. A mí, no obstante, me gustó más el de Erik J. Larson que reseñé hace unos días. Este de Coeckelbergh es más «plano». De todas formas, me parecen dos lecturas complementarias. […]