Este artículo fue publicado por primera vez en La Vanguardia el día 13 de enero de 2018
Vivimos rodeados de algoritmos que afectan a nuestro comportamiento. Las noticias que nos llegan a Facebook, los vídeos que vemos en YouTube, la serie que miramos en Netflix, el apartamento de Airbnb que alquilamos en nuestras vacaciones o el restaurante donde vamos a cenar serían ejemplos de las decisiones que los algoritmos de recomendación toman por nosotros. En algunos casos somos conscientes, en otros ni nos lo imaginamos, a menudo preferimos ignorarlo, pero en todos los casos no tenemos ni la más remota idea de cómo funcionan.
El pasado miércoles en el programa de radio «El Món a RAC1», coincidí con Paula Gonu. Supongo que no saben de quién estoy hablando. Yo no sabía quién era hasta que me dijeron que Jordi Basté la entrevistaría y busqué su nombre en Google. Resulta que Paula Gonu es una creadora de contenidos en la red. No le gusta el término YouTuber aunque lo es (tiene un canal con más de un millón seguidores, con vídeos con casi 5 millones de visualizaciones), es también una Instagrammer (1,6 millones de seguidores), una tweetstar (75.000 seguidores) y es una marca con tienda online. Y seguro que me dejo cosas. Pero el tema no es ella, soy yo.
Son omnipresentes, opacos e invisibles. No sabemos cómo funcionan pero controlan nuestra vida.
El momento mágico de la entrevista fue cuando se sorprendió que la conociéramos; tiene muy interiorizado que los que recordamos que el segundo canal de la tele de llamaba UHF, es imposible que sepamos quién es si no es por vía hijos adolescentes. Tuve que admitir que era porque me había preparado la entrevista y que lo primero que había hecho era buscarla en Google. Pero ¿cómo puede ser que alguien como yo que vive, trabaja y estudia en la red no conociera alguien con tanta presencia e influencia como la Paula? ¿Por qué no me ha llegado ni un solo retuit de un tuit suyo? ¿Cómo es que nunca me ha aparecido un vídeo suyo entre los recomendados? No soy yo, es el algoritmo.
Los sistemas de recomendación de los diferentes proveedores de contenidos en la red nos conocen muy bien —tanto a mí como a la Paula— y han decidido ponernos en burbujas separadas. Saben perfectamente que un vídeo que empiece por «Hola gente guapa» y donde salga una chica bailando reggaetón no es para mí. En cambio saben hacerlo llegar a los casi cinco millones de usuarios que lo han visto en YouTube. El mismo sistema funciona en el resto de plataformas y su éxito depende del grado de acierto de sus algoritmos. El 70% del contenido que consumimos en Netflix viene por las recomendaciones que nos hace de acuerdo con nuestro patrón de visionado y contrariamente a lo que podamos pensar, en nuestro muro de Facebook no está todo lo que publican nuestros «amigos» sino sólo una selección de lo que su algoritmo cree que nos puede interesar más.
En 2015, investigadores de la University of llinois, de la California State University y de la Michigan University realizaron un estudio con usuarios de Facebook y se sorprendieron al descubrir que el 62,5% de desconocía la existencia de un algoritmo de selección de noticias que decidía que se mostraba en su muro. Los investigadores desarrollaron otro algoritmo que, este sí, mostraba todo lo que sus contactos publicaban. Los participantes se sintieron molestos al saber que había mensajes y publicaciones de amigos cercanos y familiares que no aparecían normalmente en su muro. Hasta entonces, la percepción subjetiva de los participantes en estos casos era que sus contactos les habían excluido de sus actividades.
El algoritmo de Facebook utiliza más de 100.000 factores diferentes a la hora de escoger el mejor contenido entre la enorme cantidad de información que entre todos allí vertemos: tipo de contenido, reacciones de nuestros contactos, conversaciones más frecuentes, etc. Tenemos ideas de cómo lo hace pero nadie lo sabe a ciencia cierta, lo mismo que ocurre con el Page Rank (el algoritmo de clasificación de páginas web de Google), con el recomendador de vídeos de YouTube o con el motor de Netflix.
Este último algoritmo ha sido protagonista el mes pasado de dos noticias que podrían ser el guión de un episodio de Black Mirror. La primera fue por causa de un tuit donde Netflix decía: «A las 53 personas que han visto A Christmas Prince cada día de los últimos 18: que os duele?». Un tuit orwelliano que demuestra cuánto sabe el algoritmo de Netflix sobre nuestros hábitos de consumo. La otra la hacía pública en la web Reddit usuario anónimo KingSalamander, un estudiante que se pasó el verano pegado a Netflix. Explica que vio las nueve temporadas de la serie The Office en menos de diez días y cuál no fue su sorpresa al recibir un correo electrónico donde le decían que habían notado un patrón de visionado extraño y le preguntaban si estaba bien. Comenta que al principio se asustó, pero al final le hizo sentir bien que alguien se tomara la molestia de enviarle un correo preocupándose por su salud mental. Seguramente el correo de Netflix le hizo un favor.
El hecho de que los algoritmos controlen y condicionen nuestra vida no es nuevo: si ha pedido nunca un crédito o ha firmado un préstamo hipotecario, toda su vida ha pasado por un algoritmo financiero que finalmente ha decidido si se lo concedían y en qué condiciones, cada vez que vaya a va hay un algoritmo llamado ley de Hondt que transforma votos en escaños y lo que determina si un arroz es una paella valenciana o un arroz con cosas es un algoritmo al que llamamos receta de cocina. La diferencia es que actualmente los algoritmos aparte de ser omnipresentes y opacos son también invisibles a los ojos. Esenciales, que diría el Principito.
Este artículo fue publicado por primera vez en La Vanguardia el día 13 de enero de 2018