Séneca y la Inteligencia Artificial

Vivimos inmersos en una espiral continua de noticias sobre Inteligencia Artificial, positivas, negativas, tremendistas y medio pensionistas. En las rrss, internet, medios de comunicación convencionales. ¿Cómo debemos reaccionar? Frente a este exceso de información, todas las organizaciones necesitan tomar distancia y empezar a pensar cómo abordar los retos y desafíos que presenta la IA. Saber el rumbo que vamos a tomar y quién y cómo lo va a dirigir. Da igual que sea sector público o privado.

Y para ello, después de bastantes conferencias, investigaciones, análisis y charlas informales, creo haber llegado a un DECÁLOGO tipo para implantar la IA en el Sector público (pero fácilmente trasladable en su mayoría al sector privado), se trata un conjunto de recomendaciones basado en la experiencia y el conocimiento de la gestión pública en todos sus ámbitos de actuación, por supuesto, personalizable en función de cada entidad,  y que paso a desgranar sintéticamente a continuación.

1.- Establecer un modelo de gobernanza

¿Quién se ocupa? Esa es, para mí, la primera regla, no sólo en materia de IA,  en cualquier tarea. Identificar a las personas en la organización que, por su posición y conocimientos pueda liderar e impulsar el proceso de reflexión, primero, de planificación y acción, después. Estamos ante una auténtica transformación, la ya conocida como cuarta revolución industrial. Y sin una buena gobernanza no saldrá bien. Gobernanza que, en este caso, requiere del doble plano que caracteriza a las entidades del sector público: político y técnico.

Por una parte, el político, que debe ser consciente de las ventajas, internas y externas, que presenta la IA en su gestión, decisiones bien informadas, transparencia, eficacia, simplificación, eficiencia, rendición de cuentas, etc. Por otra, el técnico, si es posible a nivel de dirección, para enhebrar el hilo de la tecnología en la aguja de la burocracia, de la mentalidad administrativa. Será clave conformar equipos multidisciplinares, que comprendan el alcance de este escenario, y las nuevas realidades, liderado por aquéllos que tienen la capacidad de contribuir precisamente a construir las nuevas realidades y a guiar el camino con un propósito. No se trata de tecnología por tecnología.

2.- Reflexionar y planificar los posibles usos de la IA. Método RPA

Las Administraciones Públicas  son early adopters de las tendencias que generan más hype, y que, en consecuencia, pueden concentrar titulares de prensa (el primer ayuntamiento que, Comunidad Autónoma pionera, etc). Sin más reflexión. Un par de ejemplos, las smart cities, que resultaron no ser tan smart, y el Metaverso, que se ha quedado, salvo honrosas excepciones, en más espuma que solidez. Por eso debemos pensar, reflexionar y después poner las ideas en algún tipo de instrumento crítico y realista, en el que analizemos los riesgos y las oportunidades de uso de la IA nuestro ámbito de gestión.

Podemos llamarle Estrategia de IA, Plan de implantación de la IA, o cualquiera de las fórmulas con las que el Sector Público suele abordar los nuevos retos y desafíos. Pero debemos tener ese proceso de reflexión en el que nos planteemos el por qué y para qué queremos la tecnología, su misión en la organización y la visión que ésta tiene, y así definir la hoja de ruta, planificar. Ojo. No es necesario aprobar tediosos documentos de más de 100 páginas que generan mucha literatura y poca acción. Porque el propósito es la acción, es aplicar el método RPA (y no, no me refiero al acrónimo de Robotic Process Automation), sino a  Reflexionar, Planificar y Actuar. Y sobre todo, la triple A, actuar, actuar, y actuar.

3.- Reconfigurar los instrumentos de organización de RRHH

Plantillas, Relaciones de Puestos de Trabajo, Catálogos, etc. Quienes me han escuchado alguna vez hablar sobre liderazgo y dirección pública, sobre gestión de personas, saben que opino que los instrumentos de ordenación de RRHH en el sector público, en su configuración actual, son más un obstáculo al momento transformador y a la innovación, que una herramienta de gestión. Lo cual no quita que son los que son y debemos ajustar nuestra expectativa a lo que nos pueden ofrecer, pero intentando aplicar una mirada distinta al siempre se ha hecho así. Ya lo decía Darwin en el origen de las especies, la especie que sobrevive es la que mejor se adapta. Adaptemos los instrumentos organizativos a los retos y desafíos actuales. No estamos en los años 80.

4.- Crear puestos que aún no existen (y ya necesitamos)

Aunque parezca mentira, una visión al BOE nos permite comprobar que se siguen  convocando plazas y plazas de auxiliares administrativos, técnicos y demás al uso. Y, sin embargo, nos olvidamos de la parte técnica, de las nuevas dimensiones, del legaltech, de la gestión de datos, del diseño de servicios digitales. ¿Quién se va a ocupar de la IA, de la gestión del datos, de los nuevos (y viejos) problemas y las nuevas soluciones ? Hay que superar la típica aversión al riesgo de la función pública, al siempre se ha hecho así, o nunca se ha hecho así. ¿Qué nunca hemos tenido técnicos legaltech? ¿diseñadores de experiencia de usuarios? ¿gestores de datos éticos? Pues más bien pronto que tarde los necesitaremos. Empecemos ya, alguien tiene que ser el primero.

El momento actual de transición generacional, de jubilaciones masivas en el empleo público, se presenta como una oportunidad única para revisar en profundidad las necesidades de presente y de futuro. Pero no, persistimos en lo de siempre. En convocar ofertas de empleo público plagadas de auxiliares administrativos y solo tenemos en las RPTs puestos tradicionales, con una proyección temporal de 30 años. ¿Qué haremos con ellos en 10-20 años? (advierto no tengo nada en contra de los auxiliares, pero son el prototipo de puestos cuyas funciones se automatizarán). Toca pensar fuera de la caja.

5.- Evaluar las tareas que impone el marco legal, en especial, el RIA

Ya existe un marco legal. Escaso, pero existe. Unas (pocas) normas que se ocupan de este tema. De forma principal, en el sector público, el art. 41 LRJSP, con las Actuaciones Administrativas Automatizadas, y el art. 23 de la Ley 15/2022, que recoge la realización de evaluaciones de impacto que determinen el posible sesgo discriminatorio de los algoritmos. Pero el despliegue normativo europeo, con el RIA,  define ya una serie de tareas muy relevantes, tanto para diseñadores como para responsables del despliegue de los sistemas de IA.

Y es que el Sector Público será usuario y prestador de servicios de IA, responsables del despliegue de la IA y, por tanto, de los resultados de salida. El enfoque basado en riesgos del RIA nos obliga a cambiar la forma reactiva de actuar, pensemos, uso de datos biométricos por la policía, seguridad, transporte, gestión del agua, residuos, movilidad, educación, sanidad, etc. Pensemos por un instante en todos los ámbitos de actuación del sector público. La lista es infinita y, en consecuencia, queda mucho por hacer.

6.- Aprobar un código ético o de conducta en el uso de la IA

¿Cuántas personas en tu organización están usando ya la IA? O para ser más claros, ChatGPT. Para elaborar unas bases de subvenciones, unos pliegos de contratación, bases de selección de personal, pruebas selectivas, informes, estadísticas, y mucho más. Seguro que mucho más. El uso de la IA en sí mismo no es un peligro, y no debemos pensar en prohibirlo. El peligro es dejar que se produzca de manera anárquica, por personas sin competencias adecuadas, sin transparencia y haciendo que la institución asuma los grandes riesgos que esto supone. La IA solo tiene cabida en la gestión pública si es ética y confiable, si responde a los estándares de integridad establecidos.

La supervisión humana es clave. Los sesgos de la IA, la (des) protección de los derechos y libertades de las personas es un grave riesgo que el Sector público no puede afrontar, para ello será necesario fijar los criterios que deben guiar el uso de la IA. Alguien dirá que ya los contempla el RIA. Puede. Pero se trata de una  norma muy, muy extensa, pensada para una aplicación global. A cada entidad le toca la responsabilidad de fijar aquellos criterios que se adapten al tipo de organización, personal y servicios que presta. Siguiendo con el Compliance, se trata de una responsabilidad de la entidad, de asegurar el cumplimiento normativo, da igual que se llame código ético, de conducta, guía de buenas prácticas. Todo el mundo debe saber qué se puede y qué no se puede hacer.

7.- Analizar las opciones de adquisición de tecnología

Sí, hay vida más allá de ChatGPT, y por eso debemos plantearnos qué tecnología necesitamos (no la que queremos, la que necesitamos), y si estamos en condiciones para adquirirla en el marco de una buena decisión de gestión. Me explico. Quizás no tenemos el conocimiento interno para valorar la complejidad del tema, pero sí queremos la tecnología (o a lo mejor la quieren los responsables políticos que han visto tal o cual noticia y les ha fascinado). La falta de conocimiento experto y la necesidad de resolver el expediente nos llevará (quizás) a ir a internet, o incluso al propio ChatGPT, para buscar unos pliegos que nos permitan licitar. Por puro capricho o decisión de moda.

Pongamos que nos sale bien. Y que adjudicamos el contrato sin mayores contratiempos. ¿Quién controlará la ejecución? ¿Quién será el responsable del contrato? Alguien con conocimiento o nos veremos en lugares que ya hemos transitado en momentos anteriores. Contratos sin control, y en manos de las empresas, o lo que es peor, de empresas sin ningún tipo de ética. Para evitarlo, de nuevo, método RPA, reflexionar, planificar  y sólo si las previas lo aconsejan pasar a la acción (sobre este tema volveremos en una futura entrada). Y sino, esperar al momento oportuno.

8.- Formación, concienciación y comunicación

Directamente relacionado con todo lo anterior, la formación de las personas involucradas en los procesos es la base de cualquier avance en la gestión del cambio, de todas las transformaciones y novedades que atraviesan este S XXI. Todavía atragantadas algunas entidades en el proceso de transformación digital (en las que algunas personas siguen creyendo que el pdf es el colmo de la modernidad) el despliegue de los sistemas de IA, por muchas y variadas razones,  debe ser objeto de una intensa labor de evangelización, difusión, concienciación y divulgación. Desde no te van a robar el trabajo a cómo puede mejorar los servicios públicos.

Formación de verdad, que permita comprender el nuevo escenario, combinando la IA y las soft skills, asegurar que el uso de la tecnología se realizará con todas las garantías debidas, pero sobre todo que veamos cómo usarla. Y muy importante, que permita a la entidad gestionar los riesgos. Empleados públicos cargando en ChatGPT tablas de excel con datos personales de personas vulnerables…no digo que haya pasado, pero podría. En este contexto, la comunicación y divulgación de los estándares éticos o códigos de conducta será fundamental.

9.-  Garantizar la transparencia y rendición de cuentas

El marco legal y la realidad imponen transparencia algorítmica y rendición de cuentas, debemos ser conscientes de ello. Pensemos que el uso anárquico actual está impidiendo, en muchos casos, las debidas garantías, tanto a nivel interno como externo. La ciudadanía a la que se prestan los servicios y a las que debe garantizarse la protección de derechos y libertades debe saber en todo momento cuándo en su relación con la administración se han convertido en tres. Cuándo interviene la máquina. Cómo interviene. ¿Por qué me han denegado la ayuda?. Recordemos ya el precedente del art. 22 RGPD.

Partiendo de la premisa de la necesaria supervisión humana como un eje fundamental en el uso de la IA en la gestión pública, debemos recordar que la explicabilidad es uno de los principios clave, la transparencia algorítmica, con las herramientas de registros de algoritmos. La transparencia definida  por el Grupo de Expertos e incorporada en el RIA, exige que los sistemas de IA se desarrollen y utilicen de un modo que permita una trazabilidad y explicabilidad adecuadas. Que, al mismo tiempo, haga que las personas sean conscientes de que se comunican o interactúan con un sistema de IA e informe debidamente a los responsables del despliegue acerca de las capacidades y limitaciones de dicho sistema de IA y a las personas afectadas acerca de sus derechos. Casi nada.

10.- Poner a las personas en el centro

Podría parecer que hablamos de tecnología. Es verdad, pero no sólo hablamos de tecnología. En este decálogo estamos hablando en todo momento de personas, el verdadero centro de este proceso transformador. Las personas como alfa y omega del proceso. Así lo vengo diciendo desde hace tiempo, antes de la IA, y lo seguiré diciendo después. Esta expresión de poner a las personas en el centro, debe de ser algo más que una muletilla estándar (lo que nos gustan… “no dejar a nadie atrás” y “personas en el centro” son de las más populares en los últimos tiempos). Y cuando hablamos de personas hablamos de todas, las de dentro de la organización y las de fuera.

Más allá de la debida consideración al impacto de la brecha digital, debemos hacernos muchas preguntarnos, quiénes serán las personas afectadas por los sistemas de IA, a quién va destinado, qué pretendemos obtener, cómo mejorará la calidad del servicio, su eficiencia y eficacia. Para ello, será necesario abrir canales de comunicación permanentes con las personas usuarias que permitan identificar los problemas. No hay nada más frustrante que toparse con el escudo de la tecnología por parte de aquellos que deben defender el interés general. Reinvindiquemos el «derecho a una buena administración digital«.

En definitiva, el tamaño y otras circunstancias de la respectiva entidad determinarán cómo abordar cada uno de los puntos de esta propuesta de Decálogo. Algunos tendrán un buen modelo de gobernanza, pero no cuentan con la tecnología. Otros carecen de capital humano con el que abordarlo. En todo caso, lo más importante será la dimensión que el modelo de gobernanza debe adoptar, el tipo de instrumento interno que recoja la hoja de ruta y otras acciones para empezar. De nuevo, las personas.

Como decía Séneca, “Cuándo no sabes hacia donde navegas…, ningún viento es favorable”. Por eso, para facilitar el proceso de implantación de la IA en el Sector Público sigamos este decálogo y sobre todo contemos con un buen equipo en el puente de mando, una buena tripulación y una sólida y realista carta de navegación para guiarnos en la travesía  a través de las (a veces) oscuras aguas de la IA.

Bonus Track: Séneca y ChatGPT

Para finalizar, le he preguntado a ChatGPT qué opinaría Séneca de la IA y esto es lo que ha respondido:

Séneca, un filósofo estoico del Imperio Romano, vivió hace más de dos mil años, por lo que no tendría una opinión directa sobre la inteligencia artificial tal como la entendemos hoy en día. Sin embargo, podemos intentar imaginar cómo podría haber respondido a la idea de la inteligencia artificial basándonos en sus principios filosóficos.

Dado que Séneca estaba muy interesado en la ética y en el autocontrol emocional, es probable que habría abordado la inteligencia artificial desde una perspectiva ética y moral. Podría haber argumentado que la creación y el uso de la inteligencia artificial deben estar guiados por principios éticos, asegurando que no se utilice para infringir o dañar a otros seres conscientes.

Además, Séneca valoraba la virtud y la sabiduría, por lo que podría haber visto la inteligencia artificial como una herramienta para ampliar el conocimiento humano y promover el bienestar de la sociedad, siempre y cuando se utilice de manera sabia y ética.

Sin embargo, también podría haber expresado preocupaciones sobre el potencial de la inteligencia artificial para desplazar a los humanos en ciertos trabajos o para ser utilizada de manera injusta o abusiva por parte de quienes la controlan. En general, su enfoque probablemente habría sido uno de cautela y reflexión, buscando equilibrar los beneficios potenciales de la inteligencia artificial con sus posibles riesgos y desafíos éticos.

Es decir, el enfoque que nos tocará asumir, buscar el equilibrio. Gestionando los riesgos, sin bloquear la innovación. Todo un reto…