10 de febrero de 2026. El Tribunal Superior de Justicia de Canarias dicta la primera multa económica a un abogado por uso negligente de inteligencia artificial. Los números son demoledores: 48 citas jurisprudenciales falsas de 52 totales. Un 92% de referencias inventadas.
¿Qué ocurrió?
Un letrado utilizó una “herramienta de IA generativa con suscripción de pago” para buscar jurisprudencia que respaldara su recurso de apelación. El problema no fue usar IA, sino lo que hizo después: copiar y pegar sin verificar.
Ejemplos reales de las “alucinaciones”:
- STS 494/2020: la IA dijo que hablaba de menores víctimas de abusos. En realidad, trata sobre tráfico de drogas.
- STS 104/2019: supuestamente contenía reflexiones sobre “la lógica del sufrimiento humano”. Es la sentencia del caso Caronte sobre terrorismo.
- Informe CGPJ sobre testimonio infantil (2019): directamente no existe.
Ninguna cita textual entrecomillada existía realmente. Todas fueron generadas por IA.
La documentalista que descubrió el fraude
Tras realizar un análisis exhaustivo, la conclusión fue lapidaria:
“Ninguna de las notas textuales transcritas ha resultado estar incluida en las sentencias citadas. La explicación más plausible es que han sido generadas mediante IA e incorporadas sin revisión.”
Las tres negligencias graves
El Tribunal identificó tres faltas imperdonables:
1. Usar una herramienta inadecuada
Empleó una IA generalista en lugar de una solución especializada en Derecho (disponibles desde 70€/mes).
2. Cero verificación
No comprobó ni una sola cita con el CENDOJ (gratuito y accesible). Confianza ciega en la máquina.
3. Vulneración de la buena fe procesal
Presentar 48 citas falsas constituye falta de respeto al Tribunal y transgresión del deber de veracidad.
¿Por qué multa esta vez?
Existían precedentes similares en 2023 y 2024 que terminaron solo en apercibimientos. Pero en 2025, la problemática de las “alucinaciones” de la IA ya no era desconocida. Ya existían:
- Alertas del Consejo de la Abogacía Europea
- Precedentes judiciales públicos
La multa: 420€ (de una horquilla legal de 180€ a 6.000€), calculada como la mitad del coste anual de una herramienta de IA jurídica especializada, rebajada por admitir los hechos y mostrar arrepentimiento.
Además: traslado al Colegio de Abogados para posibles medidas disciplinarias adicionales.
El precio real
La multa económica, por su importe, no deja de ser anecdótica. El verdadero coste:
- ✗ Reputación profesional dañada irreparablemente
- ✗ Exposición pública en medios y redes profesionales
- ✗ Pérdida de confianza de clientes
- ✗ Estigma profesional permanente
- ✗ Conversión en “caso de estudio” negativo
Cinco lecciones esenciales
1. La IA es tu asistente, no tu sustituto
Puede ayudarte a ser más eficiente, pero nunca reemplaza tu criterio profesional.
2. Verifica todo, siempre
Cada cita. Cada fecha. Cada referencia. El CENDOJ es gratuito y accesible. Sin excusas.
3. Usa herramientas especializadas
ChatGPT no es una herramienta jurídica. Invierte en soluciones específicas del sector legal.
4. Fórmate en competencias digitales
El Consejo de la Abogacía ofrece cursos sobre uso responsable de IA. No es opcional.
5. Tú respondes, no la máquina
Asumes plena responsabilidad cuando incorporas resultados de IA a tu trabajo. Siempre.
Lo que el Tribunal NO dice
Resulta importante la precisión de que esta sentencia no condena el uso de IA. El TSJ reconoce expresamente su potencial para las profesiones jurídicas. Lo que condena es la dependencia ciega, la delegación total del criterio profesional y la ausencia de verificación.
Reflexión final
La IA puede ayudarnos a ser mejores abogados. Pero solo si somos mejores profesionales primero.
En el Derecho, donde cada palabra importa y las consecuencias afectan a vidas reales, no podemos permitirnos la negligencia.
La tecnología debe estar al servicio del profesional, nunca al revés. Porque tal y como decíamos, cuando “La IA alucina, la diferencia la marca el profesional”.“La IA alucina, la diferencia la marca el profesional”.


