Recientemente los Estados miembro de la Unión Europea y el Parlamento Europeo han llegado a un acuerdo provisional para lo que será el futuro reglamento europeo sobre Inteligencia Artificial (en adelante, IA), que se convertirá en la primera norma de IA del mundo.

El texto acordado deberá ser adoptado formalmente por el Parlamento y el Consejo para convertirse en ley de la Unión Europea, cuya aprobación formal se espera para el primer trimestre de 2024, justo antes de las elecciones europeas.  Sin embargo, su aplicación formal y entrada en vigor no será antes del año 2026, por lo que todavía existe un largo camino por delante.

La presidencia española del Consejo de la Unión Europea ha declarado que “El reglamento tiene como objetivo garantizar que los sistemas de IA utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores europeos”.

La idea principal es regular la IA en función de su capacidad para causar daño a la sociedad siguiendo un enfoque basado en el riesgo, que distingue entre los usos de la IA que generan:

  • riesgo inaceptable
  • riesgo alto
  • riesgo bajo o mínimo

Es decir, a mayor riesgo, reglas más estrictas, llegando incluso a la prohibición de algunas de ellas.

Sistemas de IA de riesgo inaceptable

Los sistemas de IA de riesgo inaceptable serían aquellos que cuyo uso se considera inadmisible por ser contrario a los valores de la Unión, prohibiendo los mismos. Entre estos usos encontraríamos los siguientes:

  • Prácticas que tienen un gran potencial para manipular a las personas mediante técnicas subliminales que trasciendan su consciencia que provoque o sea probable que provoque perjuicios físicos o psicológicos a esa persona o a otra.
  • Aquellas que aprovechan las vulnerabilidades de grupos vulnerables concretos, como los menores o las personas con discapacidad, para alterar de manera sustancial su comportamiento de un modo que es probable que les provoque perjuicios físicos o psicológicos a ellos o a otras personas.
  • La elaboración de perfiles u otras prácticas que puedan afectar a la conducta de las personas, podría cubrir otras prácticas de manipulación o de explotación contra adultos que los sistemas de IA pueden facilitar.
  • Que las autoridades públicas realicen una calificación social basada en IA con fines de evaluar o clasificar la fiabilidad de personas físicas durante un período determinado de tiempo atendiendo a su conducta social o a características personales o de su personalidad conocidas o predicha, causando un trato perjudicial o desfavorable.
  • El uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público con fines de aplicación de la ley (salvo excepciones limitadas en cuanto a seguridad pública).

Sistemas de IA de alto riesgo

¿Cuáles serían los sistemas de IA de alto riesgo? Se trataría de aquellos que supongan un alto riesgo para la salud y la seguridad o los derechos fundamentales de las personas físicas, en función de su finalidad prevista, conforme a la legislación vigente relativa a la seguridad de los productos. Quedan definidas dos categorías principales de sistemas de IA de alto riesgo:

  • Los sistemas de IA diseñados para utilizarse como componentes de seguridad de productos sujetos a una evaluación de la conformidad ex ante realizada por terceros; y
  • Otros sistemas de IA independientes con implicaciones relacionadas principalmente con los derechos fundamentales, que se enumeran en el proyecto normativo de la siguiente manera:
  1. Identificación biométrica y categorización de personas físicas.
  2. Gestión y funcionamiento de infraestructuras esenciales.
  3. Educación y formación profesional.
  4. Empleo, gestión de los trabajadores y acceso al autoempleo.
  5. Acceso y disfrute de servicios públicos y privados esenciales y sus beneficios.
  6. Asuntos relacionados con la aplicación de la ley.
  7. Gestión de la migración, el asilo y el control fronterizo.
  8. Administración de justicia y procesos democráticos.

Por último, en la normativa se contemplan una serie de obligaciones de transparencia para determinados sistemas de IA de un riesgo bajo o mínimo. Esto vendría referido a aquellos sistemas que:

  • Interactúen con seres humanos
  • Se utilicen para detectar emociones o determinar la asociación a categorías (sociales) concretas a partir de datos biométricos, o
  • Generen o manipulen contenido (ultrafalsificaciones)

Para los dos primeros, cuando una persona interactúe con un sistema de IA o sus emociones o características sean reconocidas por medios automatizados, será preciso informarla de tal circunstancia.

En el tercer supuesto, si un sistema de IA se utiliza para generar o manipular imágenes, audios o vídeos que a simple vista parezcan contenido auténtico, será obligatorio informar de que dicho contenido se ha generado por medios automatizados, salvo excepciones que respondan a fines legítimos.

Todo ello a fin de que las personas pueden adoptar decisiones fundamentadas o evitar verse envueltos en una situación determinada no buscada.

De manera muy resumida, estas medidas serán las que se tomarán como base para futuras regulaciones, las cuales deberán aplicarse con cautela, ya que en un ámbito tan novedoso como éste hay que medir con mucha prudencia lo que podría ser un exceso de regulación frente a la innovación.

Esto podría provocar que ciertas pequeñas empresas o start ups pudieran verse sobrepasadas por esos requisitos legales, mientras que las grandes corporaciones sí que podrían hacer frente a las mismas, creando una desventaja competitiva y posiblemente asfixiando la innovación y el desarrollo.

Ya pueden, tanto el Parlamento Europeo como el resto de los operadores jurídicos, aligerar el paso, ya que la Inteligencia Artificial a día de hoy está corriendo a grandes zancadas y, como no sigamos su estela, podría llegar un momento en el que sea jurídicamente inalcanzable.