Aunque Corea del Norte parezca hoy capaz de lanzar una cabeza nuclear a casi cualquier punto del planeta, aparentemente el ciudadano del s. XXI no le tiene tanto miedo. Cada época tiene sus miedos colectivos. Y la nuestra, una época digital, va encontrando el suyo: la singularidad tecnológica.

La singularidad tecnológica es el momento en el que los ordenadores, las redes informáticas y/o los robots consigan superar la inteligencia humana. Esto parece factible a priori porque las máquinas pueden ya auto-programarse y, por tanto, mejorarse a sí mismas sin los límites que tenemos los seres humanos. Los seguidores de la singularidad sostienen que esta evolución es exponencial y que en pocos años llegaremos a una explosión de la inteligencia artificial (IA), que dará lugar a una nueva inteligencia posiblemente incontrolable para el ser humano.

Como siempre en la vida, a los que opinan sobre la singularidad podemos dividirlos en dos grupos: los optimistas y los pesimistas. Los optimistas piensan que la productividad crecerá hasta límites insospechados, y que ya no necesitaremos trabajar. Las máquinas estarán a nuestro servicio y nos pegaremos la vida padre. Otros opinan que, al menos en el medio plazo, la combinación del hombre con la máquina nos abrirá muchísimas puertas y permitirá un avance de la sociedad nunca visto hasta ahora.

Los pesimistas, por otro lado, temen que las máquinas nos quiten el trabajo y que, a largo plazo, tomen conciencia propia y dicten sus propias decisiones. Así, podrían llegar a construir ejércitos imposibles de controlar o bombas que no podamos comprender. Por primera vez en la historia el genio del ingeniero, del inventor, está amenazado por la propia máquina que él ha creado.

La primera vez que escuché hablar de la singularidad también sentí miedo. Pero miedo por otras razones. Si la mente humana puede ser superada por algoritmos que se autoprograman, si esa inteligencia artificial es capaz no ya de ganar al ajedrez, diseñar una fábrica, un ordenador, o resolver un problema matemático hasta entonces irresoluble, sino que es también capaz de inventar una nueva máquina que antes no existía, pintar un cuadro tan fabuloso como los de Picasso o Velázquez, escribir un nuevo Quijote, o sopesar dilemas éticos, ¿qué es entonces el ser humano? Teocentrismo y antropocentrismo se desmoronan.

Si unos cuantos kilos de hardware junto con miles de líneas de código pueden superar al humano más brillante, ¿qué papel tendremos en el futuro?¿Estamos llamados a vivir una eternidad dedicados enteramente al disfrute o, por el contrario, nos animalizaremos y seremos una criatura más al servicio de un ser superior, la máquina?

Los evolucionistas podrán preguntarse si llegará el momento en que la máquina nos mire como ellos miran al mono o al hombre de las cavernas.

Si aceptamos la teoría de la singularidad tecnológica urge preguntarnos qué es el hombre. Y, con ello, qué entendemos por inteligencia. ¿Acaso la atención de una madre a su hijo no tiene valor alguno, no es más que un reflejo del instinto? ¿Acaso el misionero que lo deja todo para dar de comer y educar a los pobres es un mero instrumento ineficaz y pueril? ¿Acaso el amor que un hombre siente por una mujer es solo un instinto sexual, una programación mental incorporada en nuestros cuerpos con el único propósito de asegurar la especie? ¿Acaso todo lo que sentimos y todo lo trascendente en lo que creemos es un espejismo de nuestra especie? ¿Acaso todo lo que nos diferencia de las bestias, que tan brillantemente estudiaron los filósofos griegos, es programable?

Si respondemos que sí a todo esto, entonces más nos valdría matar la IA ahora, pues es muy posible que esta supere a nuestra especie y sea imposible de dominar. Y, si esto ocurre, más nos vale que sea virtuosa y tenga piedad de nosotros.

Si respondemos que no, que el ser humano es mucho más que eso, entonces puede que respiremos aliviados. Entonces existirá la esperanza de que el hombre pueda seguir dominando a la máquina y que, aunque en el medio plazo esta pueda provocar conflictos o incluso revoluciones, en el largo podamos sacar lo mejor de nosotros mismos, lo que las máquinas nunca podrán hacer, por mucha IA y machine learning que llegue.

Quizá –por fin– podamos resolver la inquietud de C.S. Lewis cuando escribió “la industria moderna es un sistema sin esperanza. Puedes mejorar salarios, horas, condiciones laborales, etc., pero todo eso no cura el problema más profundo: i.e,., que muchas personas se pasan toda su vida haciendo un trabajo estúpidamente repetitivo, lo que impide que puedan usar de manera completa sus facultades.”

Peter Kreeft decía que ha surgido una nueva especie: una que no sabe distinguir entre inteligencia humana e inteligencia artificial. ¿Debemos tener miedo a la singularidad o, más bien, a haber olvidado lo que somos? Es posible que tengamos que tener miedo a estas dos realidades. El tiempo lo dirá.

Mientras tanto, volvamos a los clásicos, ya que, como decía Ítalo Calvino, “un clásico es un libro que nunca termina de decir lo que tenía que decir.” Quizá tengan algo nuevo que decirnos ahora.

 Julián Villanueva es Profesor del IESE Business School

Fuente: Cinco Días