18 citas para pensar de El filtro burbuja, de Eli Pariser

by Julen

Filtro burbujaNo sabemos exactamente cuándo, pero hubo un momento en que se produjo un giro en la manera en que utilizamos Internet: de considerar que «buscábamos en Internet» se pasó a «que Internet nos buscara». En la actualidad es evidente que somos objeto de rastreo de mil formas. Nada más aterrizar en una página web hay que aceptar la condición: acepta estas cookies para que podamos proporcionarte la mejor de las experiencias, adaptada a quien eres. Claro que llevado al extremo, vamos a terminar en un círculo vicioso en el que encontramos lo que queremos y solo eso. Con una salvedad: antes de que lo busquemos, ya nos lo están ofreciendo. ¿Te suena a Amazon? Pues multiplícalo por mil.

De esto, más o menos, va el libro que ha escrito Eli Pariser: El filtro burbuja, subtitulado Cómo la red decide lo que leemos y lo que pensamos. Hace pensar y eso está bien. Te recojo 18 citas de su libro por si te ayudan a mover neuronas, ¿vale? Que las disfrutes.

¿En qué se ha convertido la pantalla de nuestro ordenador?

Tu pantalla de ordenador es cada vez más una especie de espejo unidireccional que refleja tus propios intereses, mientras los analistas de los algoritmos observan todo lo que clicas.

A fin de cuentas, Google siempre quiso saberlo todo de ti y antes de que tú misma lo supieras.

Eric Schmidt, el director ejecutivo de Google, afirma entusiasmado que «el producto que siempre he querido desarrollar» es el código de Google que «adivinará lo que estoy intentando escribir». […] Schmidt cree que lo que los clientes quieren es que Google «les diga lo que deberían hacer a continuación».

¿De veras sabemos lo que hacen o dejan de hacer los algoritmos? Parece que cada vez menos.

Jonathan McPhie, el hombre clave de Google en la personalización de búsquedas, sugirió que resultaba casi imposible adivinar cómo los algoritmos determinarán la experiencia de un usuario. Simplemente, había demasiadas variables y datos que rastrear.

Y ya se sabe que los algoritmos son de quien paga a quienes los crean. Todo se puede comprar, no hay problema.

…como predijo Lanier, comprar algoritmos es fácil: págale lo suficiente a Amazon y tu libro será promocionado como si se tratara de una recomendación «objetiva» del software de Amazon.

En el atentado del 11S ya sabemos que cambiaron muchas cosas. Entre ellas parece que cayeron en la cuenta de quién tenía, en realidad, la información que importaba, en calidad y cantidad.

Acxiom sabía más sobre once de los diecinueve secuestradores que todo el Gobierno de Estados Unidos.

¿El modelo de televisión a la carta? YouTube, sin que tengas que hacer nada: el bucle sin fin.

YouTube es el desarrollo de un producto llamado LeanBack, que enlaza vídeos de forma consecutiva para proporcionar los beneficios del push y el pull. El asunto no consiste tanto en navegar por la red como en ver televisión: una experiencia personalizada que permite al usuario hacer cada vez menos.

Una reflexión sobre la esclavitud del clic en el periodismo actual. No importa la calidad de la noticia. Importa que te hagan clic en ella.

Los periodistas ya no tienen corazonadas, simplemente intentan escribir historias que lleguen a obtener clics.

¿La realidad? Vete tú a saber lo que es.

Al igual que una lente, el filtro burbuja transforma de forma invisible el mundo que experimentamos mediante el control de lo que vemos y lo que no vemos.

No importa que cuentes cosas en redes sociales. Las máquinas con que lo haces ya te delatan sin que tengas necesidad de decir nada.

En otras palabras, aunque estés utilizando una configuración con máximos estándares de privacidad en tu explorador, muy pronto tu hardware te delatará.

Del consumo de calidad al consumo de lo que entra fácil. No me metas en más líos que bastantes tengo.

Las películas que «debían verse» —como Una verdad incómoda o La lista de Schindler— solían añadirse a la lista de espera, en donde languidecían mientras los espectadores devoraban películas que «querían verse», como por ejemplo Algo para recordar. […] Sin embargo, la burbuja de filtros tiende a hacer lo contrario: como es nuestro yo presente el que hace clic, el conjunto de preferencias que refleja se decanta forzosamente más hacia el «quiero» que hacia el «debo».

La triste realidad a la que nos aboca el futuro predecible, eso que los algoritmos parecen saber hacer.

Popper planteó su problema de un modo un poco distinto: que solo hayas visto cisnes blancos no significa que todos los cisnes sean blancos. Lo que tienes que buscar es el cisne negro, el contraejemplo que refute la teoría. La «falsabilidad», sostuvo Popper, era clave en la búsqueda de la verdad: el objetivo de la ciencia era adelantar las mayores afirmaciones para las que no se pudiera encontrar ningún ejemplo contradictorio, ningún cisne negro […]. Esta humildad es la que no consiguen reflejar muchos métodos de predicción algorítmicos. Es cierto que de vez en cuando encuentran personas o comportamientos que no siguen el patrón, pero estas anormalidades no comprometen en esencia sus algoritmos. Los anunciantes cuyo dinero promueve estos sistemas no necesitan que los modelos sean perfectos.

Borra tu historial del navegador. Pariser te da una buena razón:

No merece la pena vivir una existencia totalmente predecible. Sin embargo, la inducción algorítmica puede conducirnos a una especie de determinismo informativo en el que nuestro pasado rastro de clics decida nuestro futuro por completo. En otras palabras, si no borramos nuestro historial en la red, podemos estar condenados a repetirlo.

Del producto al servicio y de ahí a la persona. Todo gira en torno a la personalización. Pero hoy, con la huella digital, parece que se traspasan fronteras peligrosas. Las marcas están ahí.

cuando las marcas se convirtieron en vehículos de expresión de la identidad de sus clientes, estas tuvieron que dirigirse de manera más íntima a diferentes grupos de consumidores, cada uno de ellos con identidades divergentes que deseaban expresarse.

Necesitamos ética, no hay duda 😉

La mayoría de las veces, como afirma la cita de Jargon File, los ingenieros se resisten a la idea de que su trabajo conlleva consecuencias morales o políticas. Muchos se consideran a sí mismos personas más interesadas en la eficiencia y el diseño, en la construcción de cosas chulas, que en controversias ideológicas y valores imperfectos.

Programadores como sacerdotes, curiosa comparación.

El tecnodeterminismo es atractivo y conveniente para los nuevos y poderosos emprendedores porque les libera de toda responsabilidad relativa a lo que hacen. Al igual que los sacerdotes en el altar, son meros utensilios de una fuerza mucho mayor que ellos a la que sería inútil resistirse.

Pariser rescata la primera ley de las 6 leyes de de la tecnología de Melvin Kranzberg.

«La tecnología no es ni buena, ni mala, ni neutral».

La personalización cabalga a lomos del coste cero.

El futuro de la personalización obedece a un simple cálculo económico. Cada vez es más barato adquirir las señales relativas a nuestro comportamiento social, así como la capacidad informática necesaria para investigarlas.

Sobre la asimetría informacional en que vivimos respecto a quienes nos vigilan.

Saber qué información relativa a nosotros tienen los personalizadores no es suficiente. Deben explicar mejor cómo utilizan dichos datos: qué fragmentos de información están personalizados, hasta qué punto y sobre qué base.

Imagen destacada: By Kris Krug – https://www.flickr.com/photos/poptech/5107602045, CC BY-SA 2.0, Link

Artículos relacionados

1 comentario

Iván 23/11/2019 - 17:32

Lo tengo pendiente. Parece evidente lo que dice cada vez más gente, que Internet se ha ido torciendo y ha ido girando a terrenos oscuros.

Responder

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.