Ai Act, 2 de agosto: arranca la cuenta atrás para los modelos de propósito general

El Reglamento Europeo de Inteligencia Artificial entra en escena:  2 de agosto de 2025.

Una fecha clave para el futuro de la IA en Europa, pues, continuando con la vigencia escalonada de sus previsiones, entran en vigor algunas de las primeras obligaciones del Reglamento de Inteligencia Artificial de la UE (AI Act), centradas en los modelos de propósito general de IA (GPAI, por sus siglas en inglés). Se trata de un hito normativo con importantes implicaciones para desarrolladores, proveedores y, especialmente, para el ecosistema LegalTech.

 ¿Qué cambia a partir del 2 de agosto 2025?

Desde este 2 de agosto, los proveedores de modelos GPAI deben cumplir obligaciones específicas* relacionadas con la transparencia y la seguridad, conforme al artículo 53 del Reglamento:

🔹 Elaboración y publicación de resúmenes sobre el uso de datos en el entrenamiento del modelo. Esta medida busca garantizar la trazabilidad y evitar sesgos o riesgos derivados de datos no representativos o ilícitos.

🔹 Evaluación de riesgos sistémicos. Los proveedores de modelos GPAI que puedan generar riesgos sistémicos (por ejemplo, los desarrollados por grandes actores del sector) deben implementar medidas técnicas y organizativas adecuadas para mitigar dichos riesgos, conforme al artículo 55.

🔹 Obligación de registrar ciertos modelos GPAI en la base de datos de la UE gestionada por la Comisión, en línea con el principio de rendición de cuentas y supervisión.

 ¿A quién afecta?

  • Desarrolladores de GPAI, como modelos fundacionales de lenguaje o multimodales (por ejemplo, GPT, LLaMA, Gemini, Claude, etc.).
  • Empresas que integran IA en sus productos o servicios, incluyendo muchas LegalTech.
  • Actores del ecosistema jurídico, que deben entender cómo estas nuevas obligaciones afectan a la diligencia debida en el uso de IA generativa.

¿Qué implica para el LegalTech?

El impacto en el ámbito LegalTech es directo y doble:

 1.Para proveedores LegalTech

Deben revisar qué tipo de modelos integran en sus plataformas y herramientas. Si incorporan modelos GPAI (por ejemplo, para generación de documentos, análisis predictivo, asistentes legales virtuales…), la trazabilidad, la documentación del modelo y la evaluación de riesgos se vuelven obligaciones críticas.

 2. Para clientes jurídicos

Los despachos de abogados, notarías, departamentos de compliance y asesorías jurídicas internas deberán exigir a sus proveedores evidencias de cumplimiento, especialmente si utilizan IA para tareas automatizadas que puedan afectar a derechos fundamentales.

 ¿Por qué es importante este paso?

Este es el primer gran paso del despliegue del AI Act, de tal modo que la entrada en vigor de estas obligaciones anticipadas refuerza:

✅ La confianza de los usuarios en la IA.
✅La transparencia en el desarrollo y entrenamiento de modelos.
✅La responsabilidad jurídica de los agentes del ecosistema IA.

¿Qué se espera a continuación?

👉 A partir de febrero de 2026, empezarán a aplicarse el resto de disposiciones del Reglamento, especialmente las que regulan los sistemas de alto riesgo y las prohibiciones absolutas.

👉 La Comisión Europea ha publicado una plantilla específica para el resumen de datos utilizados en el entrenamiento, lo que facilitará la armonización y la supervisión.

👉 Se están constituyendo autoridades nacionales competentes y un AI Office europeo para garantizar la correcta implementación.

Conclusión: ¿Estamos preparados?

El LegalTech debe asumir un rol activo en este nuevo escenario. No basta con “cumplir” el reglamento: es momento de **liderar con integridad, transparencia y diseño ético**. Quien desarrolle, integre o asesore en materia de inteligencia artificial debe estar ya tomando decisiones informadas.

> 🌐 Consulta la nota oficial aquí