Inteligencia artificial, entre Sputnik e Hiroshima

Este artículo fue publicado por primera vez en La Vanguardia el día 24 de marzo de 2018

Stephen Hawking explicaba a la revista Wired que le daba miedo que la inteligencia artificial (IA) pudiera llegar a reemplazar totalmente a los seres humanos. En la misma entrevista, mostraba también su preocupación sobre los monopolios tecnológicos, Donald Trump y el destino de la humanidad. Hawking que en los años 80 puso la física del principio del tiempo en las sobremesas de todo el mundo -su libro «Una breve historia del tiempo» ha vendido más de diez millones de copias-, nos proponía la inteligencia artificial.

Él mismo, junto a Elon Musk, Bill Gates y otros expertos en IA -entre ellos el catalán Ramon López de Mántaras- firmaban en 2015 una carta abierta alertando sobre el impacto de la investigación en IA en la sociedad: “Existe ahora un amplio consenso sobre que la investigación en IA está progresando constantemente y es probable que aumente su impacto en la sociedad. (…) No podemos predecir qué podríamos conseguir con esta IA, pero la erradicación de las enfermedades y de la pobreza no es descartable».

La IA ha salido de los laboratorios y está entrando a la empresa en forma de tecnologías económicamente rentables. El desarrolo de una IA que pueda sustituir a los humanos debería ser un esfuerzo común de nuestra especie.

La carta iba acompañada de un documento más extenso donde se detallan las prioridades para la búsqueda de una «IA fuerte y buena» y las implicaciones económicas, éticas, sociales y legales que de ella se derivan. Por primera vez después de décadas de expectativas insatisfechas, la IA ha superado el umbral de los laboratorios y está entrando en la empresa en forma de tecnologías económicamente rentables, creando un círculo virtuoso donde pequeñas mejoras tecnológicas comportan grandes beneficios económicos que propician a su vez más inversiones en investigación.

EEUU, Rusia, China, Japón y Gran Bretaña lideran una carrera por la IA y similar a la que fue la carrera por el espacio de la década de los 60 o la de la energía nuclear de los 40. Sus gobiernos han declarado que la IA representa el futuro, no sólo para sus respectivas economías sino para el de la humanidad. De 2001 a 2015 en China se han publicado 41.000 artículos académicos, 25.500 en EE.UU., 11.700 en Japón y 11.100 en el Reino Unido (fuente Elsevier / Scopus).

EEUU, con empresas como Amazon, Google, Microsoft e IBM a la cabeza, lideran la inversión con 10 mil millones de dólares en capital riesgo para proyectos de IA, un sector que emplea a más de 850.000 trabajadores. China, con empresas como Tencent, Alibaba y Baidu, está invirtiendo 2.100 millones de dólares en la construcción de un parque tecnológico de IA en Beiging y el sector emplea a más de 50.000 trabajadores.

EEUU gana China en inversión pero China gana EEUU en datos: las empresas chinas tienen acceso a muchos más datos -a menudo datos reservados- de muchos más ciudadanos que permiten a sus algoritmos de IA de aprender más y más rápido. Dependiendo de cómo termine la carrera sabremos si el momento actual es un «momento Sputnik» o un «momento Hiroshima»; el primero nos debería llevar a un hito histórico colectivo como fue la llegada a la Luna, el segundo nos llevaría al escenario que preocupaba Hawking donde, como en Hiroshima, a los humanos nos iría bastante mal.

Para que esto ocurra alguna de estas economías debería llegar a desarrollar máquinas con una inteligencia similar a la humana. Definir inteligencia es complicado, pero nos podríamos poner de acuerdo en que la definición debería incluir las capacidades que tenemos que tomar decisiones, planificar y anticipar situaciones de acuerdo con el conocimiento que tenemos de nuestro entorno. No es exclusivo de los humanos; delfines y chimpancés entre otros, tienen también estas capacidades. La IA son el conjunto de ciencias y tecnologías encargadas de crear ordenadores capaces de realizar tareas que requieran inteligencia. En esto parece que vamos bien. Llevamos en el bolsillo ordenadores capaces de entendernos cuando les hablamos, que nos ganan en ajedrez o que nos sugieren la ruta menos congestionada para llegar a casa. Son tareas que requieren inteligencia. No quiere decir que el móvil sea inteligente, sino que muestra un comportamiento inteligente en un ámbito muy concreto. Es lo que los expertos llaman IA débil, la que está especializada en campos muy concretos del conocimiento humano y lejos de sustituirnos, nos ayuda a ser más eficientes.

Hawking, sin embargo, nos advertía del riesgo de la IA fuerte, la que nos debería permitir replicar la inteligencia humana con los ordenadores. La IA fuerte es una IA general como la que tenemos los seres humanos; un humano que sepa a jugar al ajedrez se puede defender razonablemente bien jugando a damas, el Deep Blue de IBM, que derrotó al gran maestro Garry Kasparov en 1997 no podría ni abrir una partida. Una IA fuerte no sólo simularía un comportamiento inteligente en cualquier campo del conocimiento humano, y por tanto sería generalista, sino que sería realmente inteligente, esto es, tendría conciencia de sí misma: deberíamos dejar de hablar de una inteligencia (artificial) para hablar de una mente.

Estamos cerca? Parece que estamos en camino. Los expertos sitúan el horizonte en la década de los 2040 y los planes de inversión de los países que dedican más recursos llegan hasta la de los 2030 (las predicciones siempre se hacen a 20 años vista por que son lo suficientemente cercanas para que nos parezcan relevantes y al mismo tiempo lo suficientemente lejanas como para que alguien nos las pueda recordar cuando no pasen).

Stephen Hawking, que nos explicó nuestro pasado desde el inicio del Universo se pasó los últimos años de su vida preocupado por nuestro futuro colectivo. Decía que sería bueno que la humanidad colonizara Marte como primer paso para colonizar la galaxia, no sólo por que sabemos que nuestra estancia en la Tierra tiene fecha de caducidad, sino porque eso nos daría una nueva perspectiva como especie, obligándonos a mirar hacia fuera en lugar de hacia dentro uniendo la humanidad en una causa común y secular. Lo mismo debería valer para la carrera para llegar a una IA fuerte. Viva el Sputnik.

Este artículo fue publicado por primera vez en La Vanguardia el día 24 de marzo de 2018