La alerta de los principales creadores de la IA: puede suponer un “riesgo de extinción” para la humanidad
Los líderes de OpenAI, Google, DeepMind y Anthropic comparan la tecnología con una guerra nuclear o una pandemia.
Un grupo de 350 ejecutivos, investigadores e ingenieros expertos en inteligencia artificial (IA) han publicado una carta abierta en la que alertan a la sociedad de los grandes peligros que supone esta tecnología.
El documento, muy breve, señala que “mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”.
Entre las personas que han firmado el comunicado destaca Sam Altman, cuya empresa OpenAI creó el robot conversacional ChatGPT el año pasado, el cual que permite crear obras de arte o literarias, ensayos y mantener un diálogo con un ser humano sobre cualquier tema.
Los principales críticos de la inteligencia artificial ya han alertado anteriormente de que, gracias a ella, es posible que un algoritmo pueda responsabilizarse de actividades esenciales para la sociedad. Asimismo, las diferentes aplicaciones de la IA podrían producir la pérdida de millones de puestos de trabajo a nivel global.
De hecho, en el mes de marzo, el fundador de Tesla y actual dueño de Twitter, Elon Musk, firmó otra carta junto a otros expertos en los que exigían que se pausara el desarrollo de la inteligencia artificial.