El debate internacional sobre Inteligencia Artificial (IA) suele ser extremadamente confuso, ya que diferentes tipos de IA se fusionan bajo un único término general. Existen tres tipos de IA: IA limitada o estrecha (IAE), IA general (IAG) y super IA (SIA), con algunas zonas grises intermedias. Es fundamental aclarar estas distinciones, ya que cada tipo tiene impactos muy distintos y por lo tanto requerimientos regulatorios nacionales e internacionales también distintos.
Sin regulación nacional e internacional, es inevitable que la humanidad pierda el control de lo que se convertirá en una inteligencia no biológica más allá de nuestra comprensión, consciencia y control. La mitad de los investigadores de IA encuestados por el Centro para la Tecnología Humana cree que existe un 10 % o más de probabilidades de que los humanos se extingan por su incapacidad para controlar la IA. Sin embargo, si se gestiona adecuadamente, la inteligencia artificial general podría marcar el comienzo de grandes avances en la condición humana, desde la medicina, la educación, la longevidad y la reversión del calentamiento global hasta avances en la comprensión científica de la realidad y la creación de un mundo más pacífico. Entonces, ¿qué deberían saber y hacer ahora los responsables políticos para lograr los extraordinarios beneficios y evitar riesgos catastróficos, si no existenciales?
En primer lugar, es importante comprender los diferentes tipos de IA.
La inteligencia artificial estrecha (IAE) abarca desde herramientas con propósitos limitados, como diagnosticar el cáncer o conducir un automóvil, hasta la IA generativa, que avanza rápidamente y responde a numerosas preguntas, genera código de software, imágenes, películas y música, y resume informes. En la zona gris entre lo estrecho y lo general se encuentran los agentes de IA, y la IA de propósito general se popularizará en 2025. Por ejemplo, los agentes de IA pueden desglosar una pregunta en una serie de pasos lógicos. Luego, tras revisar el comportamiento previo del usuario, el agente de IA puede ajustar la respuesta a su estilo. Si las respuestas o acciones no se ajustan completamente a los requisitos, el agente de IA puede solicitar al usuario más información y comentarios según sea necesario. Una vez completada la tarea, las interacciones se pueden actualizar en la base de conocimiento de la IA para brindar un mejor servicio al usuario en el futuro.
La inteligencia artificial general (IAG) todavía no existe al momento de escribir este artículo. Muchos expertos en IAG creen que podría alcanzarse o emerger como un sistema autónomo dentro de cinco años. Podría aprender, editar su código para volverse recursivamente más inteligente, realizar razonamiento abstracto y actuar de forma autónoma para abordar numerosos problemas novedosos con soluciones novedosas, similares o superiores a las capacidades humanas. Por ejemplo, dado un objetivo, podría consultar fuentes de datos, llamar a humanos por teléfono y reescribir su propio código para crear capacidades que le permitan alcanzar el objetivo según sea necesario. Aunque algunos esperan que sea un ser consciente, no biológico y autoconsciente, al menos actuará como si lo fuera, y los humanos lo tratarán como tal.
La superinteligencia artificial (SIA) sería mucho más inteligente que la IAG y probablemente incluso más inteligente que toda la humanidad en su conjunto. Fijaría sus propios objetivos y actuaría independientemente del control humano, de maneras que escapan a la comprensión y la conciencia humanas. Esto es lo que Bill Gates, Elon Musk y el difunto Stephen Hawking nos han advertido, y lo que la ciencia ficción ha ilustrado durante años. La humanidad nunca se ha enfrentado a una inteligencia mayor que la suya.
En el pasado, los riesgos tecnológicos se debían principalmente al mal uso humano. La IAG es fundamentalmente diferente. Si bien presenta riesgos derivados del mal uso humano, también plantea amenazas potenciales causadas por la propia IAG. Por lo tanto, además del control del mal uso humano, también es necesario crear regulaciones para la acción independiente de la IAG. Sin regulaciones para la transición a la IAG, estamos a merced de futuras especies inteligentes no biológicas.
Hoy en día, existe una competencia feroz por desarrollar la IAG sin las medidas de seguridad adecuadas. Como advirtió el presidente ruso Vladimir Putin sobre el desarrollo de la IA: «Quien se convierta en líder en este ámbito dominará el mundo».
Hasta ahora, no hay nada que impida una creciente concentración de este poder, un poder como el mundo nunca antes ha conocido.
Las naciones y las corporaciones priorizan la velocidad sobre la seguridad, socavando los posibles marcos de gobierno nacionales y relegando los protocolos de seguridad a un segundo plano frente a las ventajas económicas o militares. También existe la opinión de que la Compañía A podría sentir la responsabilidad moral de alcanzar primero la IAG para prevenir a la Compañía B, porque la Compañía A cree tener mayor responsabilidad que la Compañía B. Si las Compañías B, C y D comparten las mismas creencias que la Compañía A, entonces cada una cree tener la responsabilidad moral de acelerar su carrera para alcanzar primero la IAG. Como resultado, todas podrían tomar atajos en el camino para ser las primeras en alcanzar este objetivo, lo que conduce a situaciones peligrosas. Lo mismo aplica al desarrollo militar nacional de la IAG.
Dado que se espera que surjan muchas formas de IAG de gobiernos y corporaciones antes de que termine esta década (y dado que establecer sistemas de gobernanza nacionales e internacionales llevará años), es urgente iniciar los procedimientos necesarios para prevenir los siguientes resultados de IAG no regulada, documentados para el Consejo de Presidentes de la Asamblea General de las Naciones Unidas:
- Consecuencias irreversibles. Una vez lograda la IAG, su impacto podría ser irreversible. Dado que muchas formas de IA de vanguardia ya muestran un comportamiento engañoso y de autopreservación, y con el impulso hacia IA más autónomas, interactivas y automejorables integradas con infraestructuras, es plausible que los impactos y la trayectoria de la IAG resulten incontrolables. Si esto ocurre, podría ser imposible volver a un estado de supervisión humana fiable. La gobernanza proactiva es esencial para garantizar que la IAG no cruce los límites, dando lugar a sistemas incontrolables sin una vía clara para volver al control humano.
- Armas de destrucción masiva. La IAG podría permitir a algunos Estados y a actores no estatales malintencionados construir armas químicas, biológicas, radiológicas y nucleares. Además, grandes enjambres de armas autónomas letales controladas por IAG podrían constituir, en sí mismos, una nueva categoría de armas de destrucción masiva.
- Vulnerabilidades de infraestructura crítica. Los sistemas nacionales críticos (por ejemplo, redes eléctricas, sistemas financieros, redes de transporte, infraestructura de comunicaciones y sistemas de salud) podrían ser objeto de ciberataques potentes lanzados por o con la ayuda de la IAG. Sin disuasión nacional ni coordinación internacional, actores no estatales maliciosos, desde terroristas hasta el crimen organizado transnacional, podrían perpetrar ataques a gran escala.
- Concentración de poder, desigualdad global e inestabilidad. El desarrollo y uso descontrolados de la IAG podrían exacerbar las disparidades de riqueza y poder a una escala sin precedentes. Si la IAG permanece en manos de unas pocas naciones, corporaciones o grupos de élite, podría consolidar el dominio económico y crear monopolios globales sobre la inteligencia, la innovación y la producción industrial. Esto podría conducir a un desempleo masivo, un des-empoderamiento generalizado que afecte las bases legales, la pérdida de privacidad y el colapso de la confianza en las instituciones, el conocimiento científico y la gobernanza. Podría socavar las instituciones democráticas mediante la persuasión, la manipulación y la propaganda generada por la IA, y aumentar la inestabilidad geopolítica de maneras que incrementen las vulnerabilidades sistémicas. La falta de coordinación podría resultar en conflictos por los recursos, las capacidades o el control de la IAG, potencialmente escalando hacia una guerra. La IAG pondrá a prueba los marcos legales existentes: muchas cuestiones nuevas y complejas de propiedad intelectual, responsabilidad, derechos humanos y soberanía podrían saturar los sistemas legales nacionales e internacionales.
- Riesgos existenciales. La IA general podría emplearse indebidamente para causar daños masivos o desarrollarse de maneras contrarias a los valores humanos. Además, podría incluso actuar de forma autónoma, sin supervisión humana, desarrollando sus propios objetivos según los objetivos de autopreservación ya observados en las IA de vanguardia actuales. La IA general también podría buscar el poder como medio para garantizar la ejecución de los objetivos que determine, independientemente de la intervención humana. Gobiernos nacionales, líderes expertos y las empresas que desarrollan IA general han declarado que estas tendencias podrían conducir a escenarios en los que los sistemas de IA general busquen dominar a los humanos. Estas no son hipótesis descabelladas sobre un futuro lejano; muchos líderes expertos temen que estos riesgos se materialicen en esta década, y sus precursores ya están ocurriendo. Además, los principales desarrolladores de IA no han presentado hasta la fecha propuestas viables para prevenir estos riesgos.
- Pérdida de extraordinarios beneficios futuros para toda la humanidad. Una IAG gestionada adecuadamente promete mejoras en todos los ámbitos, para todas las personas: desde la medicina personalizada, la cura del cáncer y la regeneración celular, hasta sistemas de aprendizaje individualizados, la erradicación de la pobreza, la lucha contra el cambio climático y la aceleración de los descubrimientos científicos con beneficios inimaginables. Garantizar un futuro tan magnífico para todos requiere una gobernanza global, que comienza con una mayor concienciación global tanto de los riesgos como de los beneficios. Las Naciones Unidas son fundamentales para esta misión.
Aunque no podamos controlar directamente cómo surge y actúa la SIA, sí podemos crear normas nacionales e internacionales que regulen la creación, la licencia, el uso y la gestión de la IAG antes de que acelere su aprendizaje y se convierta en SIA, algo que escaparía a nuestro control. Podemos explorar cómo gestionar la transición de la IAE a la IAG. La eficacia con la que gestionemos dicha transición probablemente también influirá en la transición de la IAG a la SIA.
Podemos pensar en la IAE como nuestros hijos pequeños, a quienes controlamos: qué ropa visten, cuándo duermen y qué comen. Podemos pensar en la AGI como nuestros adolescentes, sobre quienes tenemos cierto control, que no incluye qué ropa visten, qué comen ni cuándo duermen. Podemos pensar en la SIA como un adulto, sobre el cual ya no tenemos ningún control. Los padres saben que si quieren formar a sus hijos como adultos buenos y morales, deben centrarse en la transición de la infancia a la adolescencia. De igual manera, si queremos formar la SIA, debemos centrarnos en la transición de la IAE a la IAG. Y ese momento es ahora.
Las mayores inversiones en investigación y desarrollo de la historia ahora se centran en la creación de IAG.
Sin regulaciones nacionales e internacionales para la IAG, muchas IAG de muchos gobiernos y corporaciones podrían reescribir continuamente sus propios códigos, interactuar entre sí y dar origen a muchas nuevas formas de superinteligencias artificiales más allá de nuestro control, comprensión y conciencia.
Gobernar la IAG es el problema de gestión más complejo y difícil que la humanidad haya enfrentado jamás. Para comprender cómo lograr un desarrollo más seguro de la IAG, el Millennium Project, un centro de estudios participativo global, realizó una evaluación internacional de los problemas y los posibles enfoques de gobernanza para la transición de la IAG actual a las futuras. El estudio comenzó planteando una lista de 22 preguntas críticas sobre la IAG a 55 expertos y líderes de opinión de Estados Unidos, China, Reino Unido, Canadá, la UE y Rusia. A partir de sus respuestas, se creó una lista de posibles regulaciones y modelos de gobernanza global para el surgimiento y la gobernanza seguros de la IAG. Estos, a su vez, fueron evaluados por un panel internacional de 299 futuristas, diplomáticos, juristas internacionales, filósofos, científicos y otros expertos de 47 países. Los resultados están disponibles en State of the Future 20.0 en www.millennium-project.org .
Además de la necesidad de que los gobiernos creen sistemas nacionales de licencias para la IAG, las Naciones Unidas deben proporcionar coordinación internacional, fundamental para el desarrollo y uso seguro de la IAG en beneficio de toda la humanidad. La Asamblea General de la ONU ha adoptado dos resoluciones sobre IA: 1) la resolución iniciada por EE. UU. “Aprovechar las oportunidades que ofrecen los sistemas de inteligencia artificial seguros, protegidos y fiables para el desarrollo sostenible” ( A/78/L.49 ); y 2) la resolución iniciada por China “Mejorar la cooperación internacional para el desarrollo de capacidades en materia de inteligencia artificial” ( A/78/L.86 ). Ambas son buenos inicios, pero no abordan la gestión de la IAG. El Pacto para el Futuro de la ONU, el Pacto Digital Mundial y la Recomendación de la UNESCO sobre la Ética de la IA instan a la cooperación internacional para desarrollar una IA beneficiosa para toda la humanidad, gestionando al mismo tiempo de forma proactiva los riesgos globales. Estas iniciativas han atraído la atención mundial hacia las formas actuales de IA, pero no hacia la IAG. Para aumentar la conciencia de los líderes políticos mundiales sobre los próximos problemas de la IAG, debería celebrarse lo antes posible una sesión especial de la Asamblea General de la ONU específicamente sobre la IAG. Esto ayudará a generar conciencia y educar a los líderes mundiales sobre los riesgos y beneficios de la IAG y por qué se necesitan urgentemente acciones nacionales y mundiales.
Durante una sesión de la Asamblea General de las Naciones Unidas específicamente dedicada a la IAG se deberían considerar los siguientes temas:
Se necesita un observatorio global de la IA general para monitorear el progreso de la investigación y el desarrollo relacionados con la IA general y proporcionar alertas tempranas sobre seguridad de la IA a los Estados miembros de la ONU. Este observatorio debería aprovechar la experiencia de otras iniciativas de la ONU, como el Panel Científico Internacional Independiente sobre IA, creado por el Pacto Digital Mundial, y la Metodología de Evaluación de la Preparación de la UNESCO.
Se necesita un sistema internacional de buenas prácticas y certificación para una IAG segura y confiable a fin de identificar las estrategias más efectivas y certificar la seguridad, el desarrollo y el uso de la IAG. Verificar la alineación de la IAG con los valores humanos, el comportamiento controlado y no engañoso, y el desarrollo seguro es esencial para la confianza internacional.
Se necesita una Convención Marco de las Naciones Unidas sobre la IAG para establecer objetivos compartidos y protocolos flexibles que permitan gestionar los riesgos de la IAG y garantizar una distribución equitativa de los beneficios a nivel mundial. Debería definir niveles de riesgo claros que exijan una acción internacional proporcionada, desde el establecimiento de normas y regímenes de licencias hasta centros de investigación conjuntos para la IAG de mayor riesgo, así como líneas rojas o barreras para el desarrollo de la IAG. Una Convención de las Naciones Unidas proporcionaría la base institucional adaptable esencial para una gobernanza global legítima, inclusiva y eficaz de la IAG, minimizando los riesgos globales y maximizando la prosperidad global derivada de la IAG.
Otro paso necesario sería realizar un estudio de viabilidad sobre una agencia de la ONU dedicada a la IAG. Dada la amplitud de las medidas necesarias para prepararse para la IAG y la urgencia del asunto, es necesario investigar la viabilidad de una agencia de la ONU dedicada a la IAG, idealmente mediante un proceso acelerado. Se ha sugerido un modelo similar al Organismo Internacional de Energía Atómica (OIEA), entendiendo que la gobernanza de la IAG es mucho más compleja que la de la energía nuclear; por lo tanto, dicha agencia requerirá consideraciones únicas en dicho estudio de viabilidad. El uranio no puede reescribir su propio código atómico, no es más inteligente que los humanos, y comprendemos cómo ocurren las reacciones nucleares. Por lo tanto, la gestión de la energía atómica es mucho más sencilla que la de la IAG.
Algunos han argumentado que la gobernanza nacional y de la ONU sobre IA es prematura y que frenaría las innovaciones necesarias para aportar grandes beneficios a la humanidad. Argumentan que sería prematuro pedir el establecimiento de nuevos mecanismos de gobernanza de la ONU sin una comprensión y un consenso más claros sobre las posibles deficiencias en la capacidad de las agencias existentes de la ONU para abordar la IA; por lo tanto, cualquier propuesta de nuevos procesos, paneles, fondos, alianzas o mecanismos sería prematura. Esto demuestra falta de visión.
La creación e implementación de sistemas nacionales de licencias de IAG y de una agencia de la ONU para la IAG con múltiples partes interesadas puede llevar años. Mientras tanto, nada detiene las innovaciones y la gran carrera por la IAG. Si abordamos el establecimiento de la gobernanza nacional e internacional de la IAG de forma convencional, es posible que muchas formas futuras de IAG e SIA se dispersen por internet, haciendo irrelevantes los futuros intentos de regulación.
Los peligros inminentes del calentamiento global se conocen desde hace décadas, pero aún no existe un sistema internacional para revertir este desastre. Se necesitan años para diseñar, aceptar e implementar acuerdos internacionales. Dado que la gobernanza global de la IAG es tan compleja y difícil de lograr, cuanto antes empecemos a trabajar en ella, mejor.
Eric Schmidt, exdirector ejecutivo de Google, ha afirmado que el "Consenso de San Francisco" establece que la IA general (IAG) se alcanzará en un plazo de tres a cinco años. Elon Musk, quien normalmente se opone a la regulación gubernamental, ha afirmado que la IA del futuro es diferente y debe ser regulada. Señala que no permitimos que la gente vaya a un supermercado y compre un arma nuclear. Durante más de diez años, Musk ha abogado por la regulación nacional e internacional de las futuras formas de IA. Si es necesario establecer sistemas nacionales de licencias y una agencia de la ONU para la IA general antes de que la IA se publique en internet, los líderes políticos deberán actuar con una rapidez sin precedentes. Esto no puede ser un esfuerzo simplista. Geoffrey Hinton, uno de los padres de la IA, ha afirmado que dicha regulación puede ser imposible, pero debemos intentarlo. Durante la Guerra Fría, se creía ampliamente que la Tercera Guerra Mundial nuclear era inevitable e imposible de prevenir. El temor compartido a una carrera armamentística nuclear descontrolada condujo a acuerdos para gestionarla. De modo similar, el temor compartido a una carrera de IAG fuera de control debería conducir a acuerdos capaces de gestionar esa carrera.