La Agencia Española de Protección de Datos ha publicado su Política general para el uso de Inteligencia Artificial Generativa en sus procesos administrativos, un documento para analizar cómo una institución pública puede incorporar la IA de forma responsable, ética y alineada con la protección de derechos fundamentales .
Lejos de presentar la IA como una amenaza, la AEPD adopta una posición clara: la IA ya es una herramienta estructural en el funcionamiento de las administraciones y su incorporación debe hacerse con criterios de seguridad, trazabilidad y gobernanza.
Qué persigue esta política
El documento gira en torno a seis objetivos estratégicos:
- Mejorar la eficiencia y calidad de los servicios públicos.
- Garantizar la protección de los datos personales y derechos fundamentales.
- Salvaguardar la información sensible y confidencial.
- Proteger las condiciones laborales del personal público.
- Asegurar la continuidad de los procesos administrativos.
- Reforzar la confianza ciudadana en la Administración.
La innovación, según esta política, solo tiene sentido si es confiable, explicable y bajo control humano.
En qué procesos se aplicará la IA generativa
La AEPD identifica numerosos casos de uso reales en el desarrollo de la actividad administrativa, todos ellos orientados al apoyo a la función pública y no a la sustitución del criterio humano. Entre ellos destacan:
- Resumen y estructuración de documentos públicos.
- Traducción automática de textos.
- Redacción de borradores de informes, comunicaciones y resoluciones.
- Asistencia jurídica y normativa.
- Gestión de expedientes y clasificación de reclamaciones.
- Apoyo en evaluaciones de impacto en protección de datos.
- Generación de contenidos formativos y divulgativos.
Un principio clave es que no habrá decisiones automatizadas con impacto jurídico sin supervisión humana previa.
Análisis de riesgos: la IA también tiene límites
La política los identifica y clasifica los riesgos que conlleva el uso de la IA en los procesos administrativos, entre otros: riesgos para los derechos fundamentales; sesgos y discriminación algorítmica; filtración de información confidencial; dependencia tecnológica de proveedores; falta de explicabilidad de los sistemas; brechas de seguridad o pérdida de coherencia en la actuación administrativa. A efectos de su gestión establece que cada uso concreto de IA debe acompañarse de una evaluación de riesgos individualizada.
Gobernanza clara: asignación de responsabilidades y reglas de uso para el personal
La política ofrece una definición de una arquitectura de gobernanza, gestionando la IA como un sistema crítico más y estableciendo las reglas estrictas para el personal, al señalar que el personal de la AEPD deberá:
- Usar solo sistemas autorizados.
- No introducir datos personales o confidenciales en herramientas externas.
- Contrastar y validar siempre los resultados generados por IA.
- Informar si un contenido ha sido generado con sistemas de IA.
- Recibir formación continua obligatoria.
Además, todo sistema debe estar registrado, documentado y supervisado periódicamente.
Conclusión: La IA no es una moda tecnológica, sino una infraestructura pública del siglo XXI, y debemos garantizar su uso ético y responsable, mediante a la adopción de instrumentos que ofrezcan el marco organizativo y de funcionamiento adecuadlo a cada entidad, tal y como ha hecho la AEPD. Consulta la política en el siguiente enlace.


