Normas y Riesgos en la Inteligencia Artificial: El Marco Regulatorio Europeo

Normas y Riesgos en la IA: El Marco Regulatorio Europeo

Por Aline Beltrame de Moura, profesora de Derecho, Universidad Federal de Santa Catarina (Brasil). Directora de la Cátedra de Estudios de la Unión Europea, European Institute of International Studies (Suecia), Titular de la Cátedra Jean Monnet de Derecho de la Unión Europea y Co-coordinadora del Jean Monnet Network Policy Deabte – BRIDGE Watch (2023- 2026). Coordinadora del Latin American Center of European Studies (LACES) y Editora jefe del Latin American Journal of European Studies

La inteligencia artificial (IA) está transformando profundamente la sociedad, impulsando la innovación en diversos sectores, pero también planteando riesgos significativos que requieren un marco normativo sólido. En este contexto, la Unión Europea (UE) ha desarrollado la Ley  Europea de Inteligencia Artificial (AIA) [i] como una regulación clave para establecer normas claras y equilibradas que garanticen un uso seguro y ético de esta tecnología.

El AIA forma parte de un marco más amplio dentro de la Estrategia Digital de la UE[ii], cuyo objetivo es promover el desarrollo y la utilización responsable de la IA, asegurando su integración en la economía y los servicios públicos sin comprometer los derechos fundamentales. A través de esta regulación, la UE busca mitigar los riesgos asociados a la IA sin frenar su potencial innovador, sentando las bases para un modelo de gobernanza tecnológica que combine normas claras con una evaluación proporcional de los riesgos.

La regulación de la IA en la UE comenzó a tomar forma en 2017 con la emisión de diversas recomendaciones y la creación de un grupo de expertos en la materia. En 2019, se publicaron las Directrices Éticas para una IA Fiable[iii], destacando la importancia de un enfoque ético que garantice el respeto a los derechos humanos. Posteriormente, en abril de 2021, la Comisión Europea presentó la propuesta de Reglamento de Inteligencia Artificial, que fue adoptada formalmente por el Parlamento Europeo en marzo de 2024 y publicada en el Diario Oficial de la UE en julio del mismo año. Este marco regulatorio incluye 180 considerandos, 113 artículos y 13 anexos, estableciendo las bases para un uso seguro y responsable de la IA en el mercado europeo.

La Ley Europea de Inteligencia Artificial se estructura en torno a cuatro objetivos fundamentales:

  • Protección de la Seguridad y los Derechos Fundamentales: Garantizar que los sistemas de IA comercializados en la UE sean seguros y respeten la legislación vigente en materia de derechos fundamentales.
  • Seguridad Jurídica: Proporcionar un marco regulatorio claro que facilite la inversión y la innovación en el sector de la IA.
  • Mejora de la Gobernanza: Asegurar una aplicación efectiva de la normativa mediante una cooperación coordinada entre actores a nivel nacional y de la UE.
  • Desarrollo del Mercado Único: Promover un uso legal, seguro y confiable de la IA, evitando la fragmentación del mercado europeo.

Para alcanzar estos objetivos, el reglamento adopta un enfoque normativo horizontal, equilibrado y proporcionado, imponiendo requisitos mínimos necesarios para mitigar riesgos sin frenar el desarrollo tecnológico ni generar costos desproporcionados para el mercado. Se trata de un marco jurídico sólido y flexible, basado en principios que garantizan su durabilidad y capacidad de adaptación a la evolución de la tecnología.

La UE ha adoptado un enfoque basado en el riesgo para la regulación de la Inteligencia Artificial, lo que permite una evaluación diferenciada de los sistemas de IA. Este método garantiza que la normativa sea proporcional al nivel de riesgo que presentan, evitando restricciones innecesarias para sistemas de bajo riesgo y asegurando una regulación estricta para aquellos que pueden representar mayores amenazas.

Bajo este esquema, el AIA clasifica los sistemas de IA en cuatro niveles de riesgo: inaceptable, alto, limitado y mínimo. Esta categorización define el grado de supervisión y los requisitos que deben cumplir los desarrolladores y operadores.

Los usos de la IA que representan una amenaza clara y directa para los derechos fundamentales y la seguridad de los ciudadanos europeos son considerados de riesgo inaceptable y, por lo tanto, están prohibidos por el AIA. Esto se debe a que van en contra de los valores de la UE.

Entre las prácticas prohibidas se incluyen:

  • Puntuación social (evaluación de ciudadanos basada en su comportamiento o características personales).
  • Explotación de personas en situación de vulnerabilidad (como niños o personas con discapacidad).
  • Identificación biométrica remota en tiempo real en espacios públicos, excepto en casos excepcionales regulados por la ley.
  • Uso de técnicas subliminales manipulativas que puedan afectar el comportamiento de las personas de manera inconsciente.

Estas prohibiciones son fundamentales para preservar la confianza del público en las tecnologías emergentes, asegurando que su desarrollo y aplicación respeten los derechos fundamentales y promuevan el bienestar social.

Los sistemas de alto riesgo son aquellos que pueden afectar la salud, la seguridad o los derechos fundamentales de las personas. Dado su impacto potencial, están sujetos a requisitos estrictos, incluyendo evaluaciones de conformidad antes de su introducción en el mercado y monitoreo continuo a lo largo de su ciclo de vida. Además, los ciudadanos tendrán el derecho de presentar quejas sobre estos sistemas ante las autoridades competentes.

Ejemplos de sistemas de IA de alto riesgo incluyen:

  • Identificación biométrica remota y categorización basada en atributos sensibles.
  • Sistemas de seguridad en infraestructuras críticas (como redes de transporte o energía).
  • IA en educación (admisión y evaluación de estudiantes).
  • Sistemas de contratación y evaluación de desempeño en el ámbito laboral.
  • Herramientas para la concesión de servicios esenciales (salud, asistencia social, crédito financiero).
  • Sistemas de gestión migratoria y control fronterizo.
  • IA aplicada en la administración de justicia y en procesos democráticos.

Los sistemas de riesgo limitado, como chatbots y tecnologías de reconocimiento emocional, pueden generar riesgos específicos relacionados con la personificación, el engaño o la manipulación. Para estos casos, la regulación impone requisitos de transparencia.

Los proveedores deben:

  • Informar a los usuarios cuando estén interactuando con una IA.
  • Etiquetar claramente el contenido generado por IA (imágenes, música, textos, etc.) para evitar confusiones y proteger los derechos de autor.

Estas medidas son esenciales para proteger a los usuarios, fomentar la confianza en la tecnología y garantizar un uso ético y responsable de la IA.

Los sistemas de riesgo mínimo no presentan un peligro significativo y suelen utilizarse para tareas cotidianas sin impacto crítico. Algunos ejemplos incluyen:

  • Filtros de spam en correos electrónicos.
  • Sistemas de recomendación de música o películas.
  • Asistentes virtuales y chatbots de soporte técnico básico.

Aunque estos sistemas están sujetos a menos regulaciones, deben cumplir con principios básicos de transparencia y buenas prácticas, además de las normativas vigentes, como el Reglamento General de Protección de Datos (GDPR) [iv].

Es importante tener en cuenta que el AIA posee un alcance extraterritorial, aplicándose no solo a modelos de IA desarrollados y comercializados dentro de la UE, sino también a aquellos creados fuera de la UE (por ejemplo, en Chile, Brasil, EE. UU. o Singapur) cuando están destinados al mercado europeo o manejan datos de ciudadanos europeos. Esto evita que empresas externalicen el desarrollo de IA a regiones con regulaciones menos estrictas para eludir las normas del AIA.

Los efectos extraterritoriales del reglamento están definidos en el Considerando 22 y el Artículo 2, asegurando que los sistemas de IA cumplan con los estándares europeos incluso si su desarrollo y operación ocurren fuera del bloque. Por ejemplo, si una empresa europea subcontrata el desarrollo de IA en otro país, el sistema debe ajustarse a las regulaciones del AIA si se utiliza en la UE.

En definitiva, la regulación de la inteligencia artificial se ha convertido en una prioridad global, ya que su potencial transformador viene acompañado de desafíos significativos en materia de seguridad, ética y derechos fundamentales. En este contexto, el AIA se erige como un referente normativo clave, proporcionando un marco jurídico claro y adaptable que busca equilibrar la innovación tecnológica con la protección de la sociedad.

Al establecer normas proporcionales a los riesgos que presentan los distintos sistemas de IA, la UE no solo protege a sus ciudadanos, sino que también marca un precedente para la regulación internacional, fomentando un entorno tecnológico donde la IA se desarrolle de manera segura, confiable y alineada con valores fundamentales. En un mundo cada vez más digitalizado, el AIA representa un paso crucial hacia una gobernanza responsable de la inteligencia artificial, promoviendo su uso en beneficio del bienestar colectivo sin comprometer principios esenciales.

--------------------------------------------

[i] Resolución legislativa del Parlamento Europeo, de 13 de marzo de 2024, sobre la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas sobre la inteligencia artificial (Ley sobre la inteligencia artificial) y se modifican determinados actos legislativos de la Unión (COM(2021)0206 - C9-0146/2021 - 2021/0106(COD)). Pendiente de publicación en el Diario Oficial de la Unión Europea.

[ii] Decisión (UE) 2022/2481 del Parlamento Europeo y del Consejo de 14 de diciembre de 2022 por la que se establece el programa estratégico de la Década Digital para 2030.

[iii] Disponible en: https://digital-strategy.ec.europa.eu/es/library/ethics-guidelines-trustworthy-ai#:~:text=El%208%20de%20abril%20de,trav%C3%A9s%20de%20una%20consulta%20abierta.

[iv] Reglamento (UE) 2016/679 relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos.

 

Últimas noticias

¡Bienvenidos al IEI!

Ayer el Instituto de Estudios Internacionales de la Universidad de Chile recibió a la nueva generación de alumnos que a contar de este año se incorpora a sus Magíster. En tanto, esta mañana fue el turno de su nuevo programa: el Doctorado en Estudios Internacionales.

IEI inauguró “Book Corner” de ASEAN

El lanzamiento oficial de esta iniciativa se dio en el marco del inicio del curso de verano “Conociendo ASEAN: diplomacia, desarrollo y desafíos comunes”, organizado por el Programa de Estudios sobre Asia del Instituto y el Comité ASEAN Chile.