Un investigador cree que el fin del ser humano está cerca: "En 5 años antes que en 50"
El fundador del Instituto de Investigación de Inteligencia Artificial de California promueve que esta tecnología siga siendo amigable.
El experto en Inteligencia Artificial, Eliezer Yudkowsky ha declarado que "la IA no destruirá el mundo, solo a las personas que lo habitan". Estas son las últimas palabras polémicas del investigador en IA.
"Si me obligan a evaluar probabilidades, diría que a la humanidad le quedan cinco años en lugar de cincuenta. Podrían ser dos años, podrían ser diez", ha bromeado en una entrevista realizada por The Guardian.
Yudkowsky ha avanzado que la admiración que hoy levanta la Inteligencia Artificial "pronto terminará". El miedo del científico es que la IA avance demasiado rápido y los seres humanos no seamos capaces de controlarla.
"La IA no debe considerarse como un cerebro encerrado en una caja que hace lo que se le pide, porque una IA más avanzada que los humanos encontrará formas de salir de la caja", según Yudkowsky.
Para que nos pongamos en situación, el investigador ha propuesto que tratemos de imaginar "una civilización alienígena que piense mil veces más rápido que nosotros".
La carrera de Yudkowsky es larga, pues lleva especializándose en este sector desde el 2001. El científico fundó el Instituto de Investigación de Inteligencia Artificial de California y su objetivo se centra en que esta tecnología siga siendo amigable.