Hace casi dos años saqué a pasear por aquí el divertido asunto de la Singularidad: ese mítico momento del futuro en el que los cambios tecnológicos y sociales que hace un siglo llevaban décadas, hace una década, años y hace apenas un año, algún mes que otro tarden un tiempo arbitrariamente corto en suceder. O, dicho de otro modo, el instante a partir del cual nuestra capacidad predictiva a corto plazo del futuro se hunda como un castillo de naipes por la irrupción de un cambio de paradigma tan intenso que la vida tal y como la conocemos —figurada y literalmente— se haga inescrutable. En el fondo, esta “singularidad” no es más que poner palabras en boca del abuelo cuando dice aquello de “no sé a dónde vamos a llegar”, aunque tanto el evento o conjunto de eventos que disparen este cambio será un misterio quizá hasta unos días (u horas) antes de que suceda. Lo mismo puede decirse del resultado para nuestras cuitas cotidianas. ¿Qué será de nosotros, individualmente o como especie, el día después de que un ordenador más inteligente que el ser humano haya sido creado? ¿El día después de la liberación de unos nanobots de Von Neumann?
Enfrentados ante incertidumbres de este calibre, es comprensible que muchos de nosotros prefiramos negar la mayor. La Singularidad no puede ocurrir. Repasemos algunos de los argumentos que pueden invocarse con la sana intención de quitarse de encima una preocupación tan peregrina, en el remoto caso de que haya podido ser considerada:
- El argumento ad hominem
- El singularitario por antonomasia es un señor llamado Ray Kurzweil que se infla a pastillas para intentar llegar vivo como sea hasta que la tecnología le permita vivir para siempre y resucitar a su padre (¿qué tendrá este hombre contra su madre?). Por tanto, la Singularidad es un invento de un cantamañanas impulsado por su propio horror vacui, similar en origen al de Woody Allen cuando afirmó aquello de que “la muerte no me da miedo; sólo que no quiero estar allí cuando suceda”.
- El argumento de la Física
- La singularidad es físicamente imposible, porque nada puede adoptar un comportamiento asintótico en el mundo real™.
- El argumento de la inteligencia monolítica
- La inteligencia sobrehumana no es posible, porque o se es inteligente o no. Es decir, que en realidad toda la cantilena sobre la luz interior del ser humano es algo que no admite grados (lo siento por Binet y toda su escuela: lleváis más de un siglo midiendo humo).
- El argumento místico
- La inteligencia artificial es una entelequia y no podrá ser implementada porque el espíritu humano bla bla bla. Me creo esto tan poco que ni siquiera puedo desarrollarlo más, lo siento.
- El argumento negacionista o del avestruz
- La singularidad no ocurrirá en la práctica. Ni de coña. Ya está, es todo.
- El argumento del error de apreciación
- La singularidad está mucho más lejos de lo que creemos, incluso tal vez a una distancia temporal infinita, porque la métrica predictiva que usamos para anticiparla (la capacidad computacional, que parece crecer exponencialmente) no es correcta; es mejor buscar otro patrón de medida que dé resultados más halagüeños para la continuidad de nuestros desayunos con chocolate y porras de los domingos.
- El argumento fatalista o del vamos a morir todos
- Nos autodestruiremos como civilización tecnológica antes de alcanzar la Singularidad. Mejor vamos entrenando el lanzamiento de piedras con honda, si es que alguien recuerda cómo se construían las hondas —las de lanzar piedras, las motos casi seguro que no— para entonces.
- El argumento “crece de una vez, friki de las narices”
- La Singularidad es una tecnofantasía geek. El mundo funciona de otra forma, está lleno de incompetencia y de economistas (con perdón de los economistas). Sal de tu habitación a que te dé el polen en la cara.
En otro momento me contestaré a mí mismo (porque soy un singularitario descreído), pero si mientras alguien quiere añadir razones, quitarlas o confesar su afición a la poda del rosal por aquí, encantado de recibirle, amigo mío.