El espíritu ludita ha vuelto. En los últimos tiempos se habla (y mucho) de la Inteligencia Artificial (IA). De repente parece que todo el mundo se preocupa de lo que puede suceder, de los riesgos de esta tecnología. Distintos avisos, alertas, y augurios, unidos a fake news y a hechos como que la IA acaba de ganar el Sony World Photography Awards, aunque con trampa. Con trampa, porque la imagen presentada parecía proceder de la inteligencia humana, de un fotógrafo alemán que, tras ganar el premio, renunció al mismo confesando la falsa autoría.
¿Por qué hablo del espíritu ludita? Porque el ser humano reacciona habitualmente según el mismo patrón ante el cambio.Los luditas pertenecían a un movimiento del siglo XIX que promovía el rechazo de las máquinas y la automatización, la razón, la destrucción de empleo, la reacción, destruir la maquinaria. ¿Algún parecido con la realidad actual? Como suele ser habitual, la actitud frente al cambio pasa de una primera resistencia pasiva a utilizarlo a una pasiva de procurar su desaparición. Evidentemente no funcionó.
Frente a la técnica de la destrucción, parece que ahora hemos optado por la técnica del avestruz. Tampoco parece muy inteligente. Ni la una ni la otra han conseguido frenar los avances previos. Prohibirla tampoco será una solución. Frente a la aparición de ChatGPT, en Nueva York, por ejemplo, se ha prohibido su uso en la educación, quizás debería averiguar cómo integrarla. Italia opone razones de protección de datos personales, en España la Agencia de Protección de Datos está estudiando el tema.
Neoluditas, apocalipsis, augurios tenebrosos asoman por todas partes…
El detonante ha sido la generalización de ChatGPT y la alerta generada por un manifiesto de expertos que hace apenas unos meses apostaban por la tecnología y un par de fotografías fake de personajes famosos han causado un gran revuelo, incluso me atrevería a afirmar un revuelo populista. Toca hablar menos y actuar más. Reflexionar sobre ¿qué puede hacer por el sector público? Un ejemplo: el Tribunal de Cuentas de Países Bajos ha auditado 9 algoritmos utilizados por el gobierno, con el resultado de 6 de estos algoritmos suspendían la auditoría, tal y como contamos aquí. El desafío está en el control y corrección.
El planteamiento no debería ser temer a la IA, pero sí respetar el potencial que presenta y el uso que pueda hacerse de ella, gestionar los riesgos que conlleva. Cual cuchillo, que puede matar a alguien o simplemente cortar un buen jamón. todo dependerá del uso que se dé a esta tecnología. Pensemos en el ámbito de la medicina, y todas las oportunidades que se abren para la humanidad. Es necesario establecer herramientas y garantías, con sentido y sin alarmismos, conscientes del reto al que nos enfrentamos.
Porque a IA no va a desaparecer.
La IA no va a parar.
Debemos reflexionar sobre las opciones existentes ante esta disrupción tecnológica. Europa lleva ya unos cuantos años generando un marco de una IA robusta, ética y confiable, pronto tendremos un Reglamento aplicable en toda Europa. El problema está en que esta tecnología y todo su despliegue de innovación obedece a otra lógica geopolítica, la de China y a la de EEUU. Ésa debería ser nuestra preocupación, no la de poner puertas al campo.
PD: Una versión de esta entrada fue publicada en el Diario de Pontevedra de 20 de abril de 2023