¿Debemos temer a las máquinas?
Cuando la Revolución Industrial llevó las máquinas a las fábricas, muchos temieron que el fin de su mundo había llegado. Sin embargo, aquí seguimos. Ahora nos enfrentamos a una nueva revolución pendiente, la de la Inteligencia Artificial (IA). Y si escuchamos al físico teórico Stephen Hawking, en este caso las consecuencias podrían ir mucho más allá de que el operador humano al otro lado de la línea telefónica deje de ser humano. “El éxito en la creación de IA sería el mayor evento en la historia de la humanidad. Por desgracia, también podría ser el último”, escribían Hawking y otros tres científicos destacados en el diario británico The Independent.
En el mundo de la IA se llama singularidad a un hipotético momento futuro en que las máquinas nos superarán y escaparán a nuestro control, una idea manejada por autores como John von Neumann, Marvin Minsky o Ray Kurzweil. Hemos visto este día retratado una y otra vez en el cine, pero en pocas ocasiones de forma tan sutilmente sugerida como en la recién estrenada Ex Machina. En su primera película como director, el británico Alex Garland, conocido como novelista por La playa y como guionista por 28 días después, narra la historia del primer encuentro entre el ser humano y una entidad artificial que le supera en inteligencia. Las consecuencias de este cara a cara quedan reservadas a quienes se acerquen al cine; pero puede adelantarse que dan motivos para pensar.
PROFECÍAS APOCALÍPTICAS
Los temores relativos a la IA han cobrado mayor protagonismo desde que Hawking lanzara su vaticinio, que ha reiterado después en alguna entrevista. A su tono profético se sumó Elon Musk, el empresario tecnológico responsable de PayPal, SpaceX y Tesla Motors, que en una conferencia calificó la IA como “nuestra mayor amenaza existencial”, equiparando su desarrollo a “invocar al demonio”. Musk llegó a publicar en internet un comentario, que luego fue borrado, alertando de que “el riesgo de que ocurra algo seriamente peligroso está a cinco años vista, diez a lo sumo”.
En enero de este año el Future of Life Institute (FLI), una organización dedicada a la reflexión sobre la humanidad y sus desafíos tecnológicos, publicaba una carta abierta instando a que el desarrollo de la IA se oriente a buscar el máximo beneficio para la sociedad. La carta, que ha congregado ya más de 6.000 firmas, se limitaba a mencionar la necesidad de evitar los “posibles inconvenientes”. Pero siendo Hawking y Musk dos de los firmantes, y después de que el segundo donara 10 millones de dólares al FLI, no se necesitaba más para encontrar en los medios titulares como “La IA ha llegado, y esto realmente preocupa a las mentes más brillantes del mundo” (http://www.wired.com/2015/01/ai-arrived-really-worries-worlds-brightest-minds/). Por si fuera poco, a finales de enero el cofundador de Microsoft Bill Gates escribía en un chat en internet: “Estoy de acuerdo con Elon Musk y algunos otros en esto, y no entiendo por qué algunos no están preocupados”.
Pero ¿es realmente así? ¿La singularidad está próxima y debemos arrepentirnos y temblar? ¿Seremos víctimas del Skynet de Terminator? Está claro que los peligros de los que alertan Hawking, Musk y Gates no se refieren a superordenadores con una inconmensurable capacidad de procesamiento, sino a algo más; eso que llamamos voluntad, capacidad autónoma de decisión o, sencillamente, consciencia. En fin, lo que resume el título de la famosa obra de Isaac Asimov: Yo, robot. Sin embargo, ¿sabemos lo que es la consciencia como para dotar a una máquina de ello, o para fabricar una que se dote a sí misma?
¿YO, ROBOT?
“La consciencia humana es un gran misterio”, apunta a El Huffington Post el autor y realizador de documentales James Barrat, que en 2013 publicó Our Final Invention: Artificial Intelligence and the End of the Human Era (Nuestra invención final: Inteligencia Artificial y el fin de la era humana) (http://www.jamesbarrat.com/), un libro que recoge las reflexiones de diversos personajes sobre la IA. “No sabemos lo suficiente sobre la consciencia para programarla en una máquina”, agrega Barrat. El autor aventura que “los científicos crearán máquinas con una especie de autoconsciencia, pero esto puede ser tan simple como tener un modelo de alta resolución de sí mismas y del mundo en el que habitan”.
Barrat subraya que la consciencia es un concepto antropomórfico, y que la inteligencia de las máquinas tendría otros registros. De la misma opinión es el neurocientífico computacional Murray Shanahan, asesor científico de la película Ex Machina y profesor de Robótica Cognitiva en el Imperial College de Londres. “No debemos asumir que la IA de nivel humano sería similar a la humana”, señala Shanahan a este diario. Sin embargo, este experto considera viable dotar a las máquinas de una emulación de consciencia. “Mi visión es que en principio es posible fabricar una máquina consciente; incluso si no fuera posible de otro modo, podríamos simular el cerebro biológico en una computadora a un nivel muy fino de detalle físico y conectarlo con un cuerpo sintético”. En esto coincide también el otro asesor de Ex Machina, el genetista evolutivo y divulgador Adam Rutherford. “La consciencia es algo mecanístico, integrado en nuestros tejidos y por tanto comprensible”, valora. “Sí, seremos capaces de desarrollar IA y consciencia a un nivel similar al nuestro; no será humana, pero sí indistinguible”.
Esta posibilidad de imbuir consciencia a un robot puede sonar aterradora si pensamos que la máquina podría llegar a diseñar sus propios planes, muy diferentes de los nuestros e incluso incompatibles con nuestra existencia. “Esto es probablemente cierto”, afirma Shanahan. Pero hay un enfoque contrapuesto, y es que precisamente la consciencia, traducida en conciencia, es lo que podría conjurar un posible peligro. “Si supiéramos que la consciencia es la sede de la empatía y la moralidad, podría ser beneficioso recrearla en una máquina”, sugiere Barrat. Shanahan es de la misma opinión: “Tal vez una IA de nivel humano que también poseyera rasgos humanos, como la conciencia social y la empatía, retrocedería ante la posibilidad de hacernos daño, como haría un ser humano normal”.
Dicho de otro modo: quizá sería necesario asegurarnos de que las máquinas puedan distinguir el bien del mal para evitar encontrarnos ante lo que Barrat llama “psicópatas superinteligentes”, a los que se refería el teórico Eliezer Yudkowsky cuando decía: “La IA no te quiere, ni te odia, pero estás hecho de átomos que puede usar para otra cosa”. Un ejemplo memorable es el ordenador Joshua/WOPR de la película Juegos de guerra (1983), dispuesto a provocar un apocalipsis nuclear que para él era un simple juego de simulación.
"LA SINGULARIDAD ES UNA BROMA"
A pesar de todo lo anterior, otros expertos relevantes no ven ninguno de estos riesgos ni de lejos, como tampoco los logros que nos muestra la ciencia-ficción. Para el director del Instituto de Investigación en Inteligencia Artificial (IIIA) del CSIC, Ramón López de Mántaras, tanto las expectativas sobre el desarrollo de la IA como la percepción de sus riesgos están sobredimensionadas. Si los dos asesores de Ex Machina admiten que aún estamos muy lejos de la IA que nos muestra la película, la visión de López de Mántaras es aún más prudente.
Este científico fue uno de los primeros firmantes de la carta del FLI, y lo hizo en pro de la investigación en IA hacia fines socialmente responsables y beneficiosos. Pero no quiere ni oír hablar de la singularidad: “No, esto no va a ocurrir; es absolutamente impensable, al menos en el plazo de décadas del que hablan los optimistas tecnológicos”. López de Mántaras hace notar que, “exceptuando algún caso, ninguno de los que hablan de la singularidad es un experto en IA”.
Las razones del director del IIIA se basan en que hablar de consciencia en una máquina es “un salto al vacío brutal, una pura especulación”. Como ejemplo de lo que nunca veremos, cita la película Transcendence (2014), en la cual la mente del personaje interpretado por Johnny Depp se carga en una computadora. “Quienes creen que algo así es posible subestiman la complejidad del cerebro humano”; y añade que no solo lo dice él: “Neurocientíficos como Eric Kandel o Gerald Edelman [ambos ganadores del premio Nobel] han opinado que esto de la singularidad es una broma”.
López de Mántaras alega que también se han exagerado las predicciones de lo que la IA podría aportarnos en un futuro que lleguemos a ver. “Se habla de un progreso tecnológico exponencial, pero no hay indicaciones de que actualmente sea así; hubo un avance mucho mayor en la época de nuestros abuelos que en el último medio siglo”. El experto enumera ejemplos para demostrar que, por mucho que dispongamos de máquinas cada vez más capaces, no dejan de ser “sabios idiotas”. “El mejor software de ajedrez que existe no sabe jugar a las damas. El sistema de visión por ordenador más sofisticado del mundo no tiene la capacidad de reconocimiento de objetos de un niño de dos años. Solo recientemente hemos construido robots bípedos que caminan sin caerse continuamente”. Y concluye: “Todavía estamos en pañales”.
En todo caso, de lo que no cabe duda es de que las profecías apocalípticas sobre la singularidad animan el debate. Y tal vez se trate de eso. Porque para López de Mántaras, lo que están consiguiendo es “desviar la atención de la sociedad de los verdaderos problemas con la IA, como las aplicaciones militares o la privacidad. Sobre todo, la privacidad”. Y al hilo de esto, deja un argumento para la reflexión: “Muchos de los que hoy hablan de la singularidad trabajan para la empresa número uno del mundo en IA, que es Google”.