Se cumplen 80 años desde los bombardeos atómicos en Hiroshima y Nagasaki. No sabemos con certeza si el tiempo transcurrido desde ese horror ha servido para una mayor conciencia acerca de los límites que no deben ser sobrepasados en el uso y aplicación de los resultados de la investigación científica y tecnológica. La cadena de decisiones políticas que condujo al desarrollo, fabricación y empleo de la bomba atómica, debería ser un referente para evaluar lo que está sucediendo con la Inteligencia Artificial. Según ha declarado el Secretario General de la ONU ante el Consejo de Seguridad “la IA tiene un enorme potencial para el bien y el mal a gran escala. Sus propios creadores han advertido que se avecinan peligros mucho mayores, potencialmente catastróficos y existenciales”.
Un paralelismo entre energía nuclear e Inteligencia Artificial resulta inevitable, para sacar lecciones, si es que como comunidad internacional y sistema multilateral todavía somos capaces de aprender y rectificar.
Desde las dos fechas fatídicas de agosto de 1945, las armas nucleares no se han vuelto a usar, ni en el peor momento de la guerra fría, porque está claro que su empleo conduciría en lo inmediato a una masiva destrucción, y en el mediano plazo a la extinción de la humanidad. Pero seguimos viviendo en un equilibrio del terror, esta es una amenaza existencial cierta. Según la Federation of American Scientists, hay 12.500 ojivas o cabezas nucleares en manos de nueve países, empezando por Rusia y Estados Unidos, que acaparan casi el 90% del total, y el resto está entre Francia, el Reino Unido, Israel, India. Pakistán, China y Corea del Norte. Una guerra nuclear, sea con armas nucleares “tácticas” o “estratégicas”, entrañaría sin ninguna duda el fin de todas las formas de vida. Lo que hace completamente incomprensible que se sigan manteniendo arsenales nucleares, y haya países que procuren tenerlos.
Sabemos que todo descubrimiento científico tiene dos potencialidades, una que aportaría al progreso de la humanidad y otra que la perjudicaría. Es un terreno en el que el poder político, sea local o multilateral, debe tomar las mejores decisiones para la gobernanza de los resultados y la aplicación de la investigación científica, con toda la información, certezas y asesoramiento, escuchando a los científicos, los académicos y a la sociedad.
Por ejemplo, la energía nuclear tiene beneficiosas aplicaciones en generación eléctrica, medicina, agricultura, industria, imagenología, arqueología, ciencia de los materiales, conservación de alimentos, etc. Pero la bomba atómica y los desarrollos posteriores de la energía nuclear aplicada a la creación de armas de destrucción masiva, ponen en evidencia la difícil relación entre la ciencia y la política. O, dicho de otro modo, entre el avance científico y la gobernanza. Es el caso también de Internet, de la decodificación del genoma humano, la genética, la biología sintética, la computación cuántica y en general de la revolución científico-tecnológica. Todo ello de difícil regulación, de la que carecemos a nivel multilateral.
En materia nuclear existe la Organización Internacional de la Energía Atómica (OIEA), a la que pertenecen 176 estados miembros de la ONU, y si bien cumple una función muy importante, es un organismo de cooperación e información, que promueve el uso pacífico de la energía atómica, pero sin poder regulatorio. Pero para el desarrollo científico-tecnológico no existe ningún organismo multilateral que lo supervise, oriente y regule.
En cuanto a la Inteligencia Artificial, que ha evolucionado exponencialmente en los últimos dos años, podemos decir, sin exagerar, que tiene la potencialidad positiva y negativa de la energía nuclear. Puede ser la bomba atómica del siglo XXI, si no se adopta una decisión política a nivel multilateral para su regulación, evitando que se nos vaya de las manos, y que líderes entusiastas, megalómanos e irresponsables caigan en la tentación de emplearla con fines bélicos.
Las ventajas de la IA son indudables, y no corresponde frenar su desarrollo, sino orientarlo y regularlo. La Unión Europea, que cuenta ya con una ley regulatoria, estima que para el 2035 la productividad laboral podría crecer entre un 11 y un 37%. Por su parte la OCDE también considera los aspectos positivos de la IA en la economía y en la gestión pública. Y según Goldman Sachs, si bien a nivel mundial unos 300 millones de empleos podrían verse afectados por su introducción, no significaría necesariamente reemplazos masivos, sino un apoyo para potenciar la productividad y crearía en el largo plazo más empleos. Su introducción generalizada podría generar un aumento anual del 7% del PIB en los próximos diez años.
Pero hay que considerar que ya son muchas las voces de acreditadas personalidades e instituciones de todo el mundo, que de manera plausible advierten sobre los riesgos de esta nueva herramienta y claman por su gobernanza. En el caso de la energía nuclear, ya sabemos lo que pasó, por una decisión política adoptada sin tener claras las consecuencias, que además desató la competencia por desarrollar y almacenar armamento nuclear hasta nuestros días. Con la IA, estamos a tiempo de atender a las tempranas advertencias hechas por Stephen Hawking liderando un grupo de científicos, a las que se suman el informe de la Comisión de la ONU para los Derechos Humanos; la carta de científicos y expertos, entre ellos Bill Gates, Elon Musk, y las cabezas de las principales plataformas tecnológicas pidiendo una regulación y una moratoria; las declaraciones del creador de OpenAI, responsable de ChatGPT, Sam Altman en el Senado de Estados Unidos, cuyo subcomité ha celebrado ya dos audiencias sobre el tema. Se han realizado cuatro conferencias mundiales sobre seguridad de la IA (Bletchley, RU, 2023; Seúl 2024; Francia 2024; y Shanghái 2025), y la ONU ha aprobado una Resolución no vinculante que orienta a los estados miembros. El Consejo de Presidentes de la Asamblea General (UNCPGA) se ha pronunciado en favor de una Convención Marco y la creación de una Agencia de la ONU para su vigilancia. Lo mismo ha hecho China y el Consejo de Europa.
Según el Centro para la Seguridad de la Inteligencia Artificial, su desarrollo avanzado “podría invitar a una catástrofe, enraizada en cuatro riesgos clave: uso malicioso, carreras de IA, riesgos organizacionales e IA deshonestas, que interconectados pueden amplificar otros riesgos existenciales, como pandemias diseñadas, guerras nucleares, conflictos entre grandes potencias, totalitarismo y ataques cibernéticos a infraestructura crítica”.
En un intento de autoregulación, Google, Microsoft y OpenAI acaban de anunciar la formación del Frontier Model Forum, un nuevo organismo de la industria centrado en garantizar el desarrollo seguro y responsable de los modelos de IA de frontera, procurando buenas prácticas, cooperación con los gobiernos y la sociedad, y apoyar los esfuerzos para enfrentar los riesgos globales como el cambio climático y otros.
Pero sigue siendo necesario que los gobiernos y los organismos multilaterales generen sus marcos normativos.
El Secretario General de la ONU Antonio Guterres fue explícito al instar al Consejo de Seguridad a “abordar esta tecnología con un sentido de urgencia, una perspectiva global y una mentalidad de aprendizaje”, acogiendo en este sentido los llamados de algunos Estados miembros para la creación de una nueva entidad de la ONU “que apoye los esfuerzos colectivos para gobernar esta tecnología extraordinaria”.
En la Cumbre del Futuro se septiembre de 2024, la ONU aprobó el Pacto para el Futuro, y dentro del mismo, el Pacto Digital Mundial, que sería el marco para decidir en la próxima AG de septiembre 2025 de ir hacia una Convención y dotar a la organización de facultades, recursos y capacidades de vigilancia, supervisión y regulación global para la gobernanza de la Inteligencia Artificial, y en especial, de su evolución en marcha hacia una Inteligencia Artificial General, la que suscita las mayores preocupaciones.