El Reglamento (UE) 2024/1689, conocido como AI Act, entró en vigor el 1 de agosto de 2024 con el fin de regular el desarrollo, la comercialización y el uso de los sistemas de inteligencia artificial (IA) en la Unión Europea. Este marco normativo clasifica los sistemas de IA en cuatro categorías de riesgo: inaceptable, alto, limitado y mínimo. El objetivo es equilibrar la innovación con la protección de los derechos fundamentales y la seguridad.
En este contexto, las nuevas Directrices publicadas por la Comisión Europea ofrecen claridad sobre cómo deben interpretarse y aplicarse las prohibiciones del artículo 5 del AI Act, que resultan de aplicación desde el 2 de febrero de 2025, tal y como contamos aquí, garantizando una implementación coherente en toda la UE y brindando seguridad jurídica tanto a desarrolladores como a usuarios. La publicación de las Directrices sobre las prácticas prohibidas de inteligencia artificial según el Reglamento (UE) 2024/1689 (AI Act), no vinculantes marca un antes y un después para quienes desarrollan o implementan IA en Europa.
1. ¿Por qué estas directrices son la pieza clave que todos los desarrolladores de IA deberían conocer?
Aunque no tienen fuerza legal, sirven como la interpretación oficial de la Comisión Europea sobre las prohibiciones del AI Act, proporcionando orientación clara y práctica sobre cómo cumplir con la normativa. Lo que hace especialmente interesantes estas directrices es su enfoque en ejemplos concretos que ilustran cuándo una práctica es considerada ilegal y cómo evitar sanciones millonarias. Por ejemplo:
- Manipulación subliminal: Las directrices explican que un sistema de IA que utilice mensajes visuales o auditivos imperceptibles puede estar infringiendo el artículo 5(1)(a) si logra distorsionar el comportamiento de un usuario y le causa daño significativo.
- Social scoring: Aunque muchos asocian esta práctica con el modelo de crédito social chino, las directrices advierten que incluso sistemas de evaluación más sutiles —como los utilizados para clasificar a consumidores o candidatos laborales— pueden ser ilegales si afectan de manera desproporcionada a los usuarios.
- El dilema del reconocimiento emocional: Las directrices detallan los límites precisos para este tipo de sistemas en el ámbito laboral o educativo y señalan que, salvo casos justificados médicamente o por seguridad, su uso está prohibido.
2. Prácticas de IA prohibidas
El artículo 5 del AI Act prohíbe el uso de ciertos sistemas de IA por su naturaleza dañina o contraria a los valores de la UE. Entre estas prácticas se incluyen:
- Manipulación perjudicial (art. 5(1)(a)): IA que emplea técnicas subliminales o manipulativas para distorsionar el comportamiento de las personas.
- Explotación de vulnerabilidades (art. 5(1)(b)): Sistemas que aprovechan la vulnerabilidad por edad, discapacidad o situación socioeconómica.
- Social scoring (art. 5(1)(c)): Evaluación basada en el comportamiento social que afecta injustificadamente a personas en otros contextos.
- Predicción de delitos (art. 5(1)(d)): IA que estima el riesgo de que una persona cometa un delito basándose únicamente en perfiles personales.
- Recopilación masiva de datos faciales (art. 5(1)(e)): Creación de bases de datos a partir de imágenes faciales recopiladas sin control.
- Reconocimiento emocional en el trabajo o escuelas (art. 5(1)(f)): Excepto en casos médicos o de seguridad.
- Categorización biométrica (art. 5(1)(g)): Inferencia de características sensibles (raza, orientación política, sexual, etc.).
- Identificación biométrica en tiempo real (art. 5(1)(h)): En espacios públicos, salvo excepciones específicas para la seguridad pública.
3. Ámbito de aplicación y excepciones
Si bien las prohibiciones son de aplicación general, tras las negociaciones llevadas a cabo en el proceso de elaboración de la AI Act se establecieron exclusiones para ciertos usos de la IA, incluyendo:
- Seguridad nacional y defensa.
- Cooperación judicial y de seguridad con terceros países.
- Actividades de investigación y desarrollo previas a la comercialización.
- Actividades personales no profesionales.
- Sistemas bajo licencias de código abierto, salvo que sean de alto riesgo o estén prohibidos.
4. Actores responsables
El reglamento distingue entre proveedores y usuarios (deployers) de IA. Los proveedores deben garantizar la conformidad del sistema antes de su comercialización, mientras que los usuarios son responsables de su uso correcto y conforme a la normativa.
5. Supervisión y sanciones
Las autoridades de vigilancia del mercado son responsables de la aplicación de estas normas. Las infracciones relacionadas con prácticas prohibidas pueden resultar en multas de hasta 35 millones de euros o el 7% de los ingresos globales anuales de la entidad infractora.
Un mapa de navegación imprescindible para evitar riesgos
Las empresas tecnológicas, universidades y organismos públicos tienen ahora una guía clara para evitar las trampas regulatorias, minimizando riesgos legales y optimizando sus inversiones en innovación. Este documento no solo protege a los usuarios, sino que también brinda seguridad jurídica a las empresas que operan en Europa.
¿El reto? Adaptar los procesos de desarrollo y monitoreo de IA para cumplir con los estándares más estrictos del mundo. ¿La oportunidad? Aquellos que logren innovar dentro de este marco se posicionarán como líderes éticos y tecnológicos en el mercado global.
NOTA: Téngase en cuenta que la Comisión ha aprobado el proyecto de directrices, pero aún no las ha adoptado formalmente.