Skip to main content

Josuan Eguiluz es abogado de empresa, especialista en IA y nuevas tecnologías. Es profesor en la Universidad de Deusto y en ESADE, y actualmente realiza un doctorado centrado en la relación entre IA y derechos fundamentales. Su trabajo combina el análisis jurídico con una mirada crítica sobre los desafíos sociales y éticos que plantea el desarrollo tecnológico. Hablamos con él sobre la regulación europea de la IA, los límites de la innovación, el papel del pensamiento crítico en la era digital y los riesgos de dejar el desarrollo tecnológico en manos de unos pocos.

Pregunta: ¿Cómo consigues sacar tiempo para todo lo que haces?

Josuan Eguiluz: Estoy en un momento de mi vida de verdadera ocupación, de muchísimas tareas, de muchísimos eventos que están ocurriendo. Y si pudiera responder a cómo hago para poder organizarme, te diría que al menos hay tres elementos que podría destacar.

El primero sería la generosidad de todas las personas que me ayudan, los cuidados que también me proveen y ese entendimiento de que no puedo estar a todo. En segundo lugar te diría que una pasión y una motivación absoluta que me mueve, que me despierta, que me hace tener ganas de continuar. Y esto, cuando no es suficiente, el tercer elemento sería la diligencia, el sacrificio. Me gusta recordar una frase de mi abuela: «contra la pereza, diligencia».

¿Crees que la IA puede hacer que nos volvamos más perezosos?

Sí, sin duda. Pero es una de las consecuencias de un mal uso de la IA. Creo que la IA es una de las herramientas, uno de los inventos más poderosos de la humanidad. Ahora mismo todavía es un bebé, podríamos decir.

Pero sí que creo que estamos ante un momento en el que tenemos que verdaderamente rebajar esa tensión y esa urgencia que exige la sociedad, que nos exige el mercado, y pensar dónde centrar nuestros esfuerzos para poder utilizarla de una manera correcta, adecuada, y que nos permita en ningún momento perder nuestra humanidad. Y sobre todo, que a mí me encanta este concepto y que hemos hablado más en más ocasiones, es el pensamiento crítico. El pensamiento crítico es esencial para nosotros como humanos.

«Tenemos que rebajar esa urgencia que exige la sociedad, y pensar dónde centrar los esfuerzos para poder utilizar la IA de manera correcta y que nos permita no perder nuestra humanidad»

¿Dirías que el pensamiento crítico es lo que nos permite guiar hacia dónde va la IA? 

El pensamiento crítico es un concepto muy complejo, y depende desde dónde lo podamos abordar. A mí me gusta cuando hablamos de pensamiento crítico desde la persona que está en el mundo de la filosofía. El otro día estuve escuchando una conversación, era con José Carlos Ruiz, un filósofo, en el que habla de todo el trabajo que se está haciendo para poder desarrollar el pensamiento crítico en las aulas.

Él condensa el pensamiento crítico en tres elementos. Uno es el asombro: estamos perdiendo la capacidad de asombrarnos. Entras al aula y es difícil captar la atención del alumnado, es difícil generar un espacio en el que esas personas estén atendiéndote. Y el segundo punto que él destaca, con el que estoy totalmente de acuerdo, es la curiosidad. Creo que debemos seguir trabajando en la curiosidad.

Hay un componente humano esencial en generar esa pregunta inicial, ¿no? Pero ahora, con los agentes, si trabajas solo con la IA ya ni siquiera intervienes tú.

Creo que es esencial distinguir los casos de uso. Esto es fundamental, y además es lo que promueve la regulación: en función del caso de uso y del riesgo que implica ese caso de uso la regulación será una u otra. O incluso, en algunos casos, casi ninguna.
Entonces, cuando estemos en áreas críticas o de alto riesgo, ahí es donde verdaderamente tenemos que pensarnos mucho si delegamos esas decisiones o no.

«No es lo mismo que tengamos un magistrado o magistrada dictando sentencias racistas, que tengamos un sistema de IA que está dictando sentencias a gran escala»

¿Cuáles son las consecuencias? ¿Cuál es el impacto en la salud, en la seguridad de las personas, en sus derechos fundamentales?

Esto se enlaza también con mi doctorado. Por ejemplo, en un triaje médico o en el ámbito educativo… ¿Qué pasa si te evalúa una IA? ¿Qué criterios usa para evaluarte? Y muchas veces, cuando tenemos estas conversaciones, parece que hablamos del futuro, de algo que va a pasar… y en realidad, si miramos hacia atrás unos pocos años, ya ha pasado.

En Reino Unido ocurrió algo muy concreto. El gobierno utilizó un algoritmo para predecir las notas de los alumnos que iban a hacer la selectividad. Se suponía que, en función de su expediente académico, el sistema predecía qué nota sacarían. ¿Y qué pasó? Que cuando esto se llevó a la práctica, se vio que no solo se tenía en cuenta tu expediente académico, sino también de dónde venías. En función de dónde hubieras estudiado, eso influía también en tu nota estimada. Es decir, tu clase económica, tu origen social… todos estos elementos que, incluso cuando no están expresamente en los modelos, se pueden detectar. Ahí tenemos un verdadero problema desde el punto de vista jurídico.

Los sesgos siempre han existido. ¿La IA no es, de alguna forma, una manera de hacerlos visibles?

Creo que hay una diferencia sustancial entre un sesgo humano y un sesgo en una máquina, en este caso, en la IA. En primer lugar, está la capacidad de impacto. No es lo mismo que un magistrado o magistrada dicte una sentencia con sesgo racista, que un sistema de IA esté dictando miles de sentencias con ese mismo sesgo. La escala lo cambia todo.

Y luego está lo otro: nosotros, como humanos, llevamos muchos años desarrollando estructuras, reglas, maneras de actuar frente a errores, frente a daños que se generan en personas, objetos, patrimonio, etc. Pero, ¿qué pasa cuando esos daños no los genera un humano? Eso es algo que aún tenemos que reflexionar. Sí, ya existen algunas propuestas, algunos debates, pero todavía no estamos preparados del todo para eso. Para mí, este también es un elemento diferenciador: tú y yo tenemos sesgos, claro que sí, pero llevamos años conviviendo con ellos, sabemos cómo funcionan.

«Estoy muy orgulloso como jurista y como ciudadano de que la Unión Europea, que Europa se haya posicionado sobre cómo hemos de utilizar la IA»

¿Tú crees que en el futuro una IA podría sustituir a un juez por completo?

Es una pregunta muy interesante. Y te diría que sí, podría existir un sistema así, claro. Pero la verdadera cuestión es: ¿queremos que exista? ¿Y cómo queremos que funcione?

Hay una diferencia muy importante entre lo que es asistir a un ser humano en su trabajo y lo que es delegar completamente ese trabajo en una máquina. Y esto también lo diferencia claramente el Reglamento Europeo de Inteligencia Artificial. En concreto, la Administración de Justicia se considera un entorno de alto riesgo, justamente por las consecuencias que pueden derivarse de una mala decisión. Y lo que se busca con la regulación es que, si un magistrado o magistrada usa un sistema de IA para interpretar la ley, los hechos o aplicar el derecho, eso esté muy bien regulado.

Ahí entran en juego muchas obligaciones para proteger al máximo ese proceso. Pero lo más importante —y el reglamento lo deja claro— es saber cuándo desaparece la figura humana y cuándo no. Si la IA solo asiste, si tiene un papel secundario, entonces estamos en otro escenario totalmente distinto. El problema es que, cuando vemos a la IA solo como una herramienta que nos ayuda o complementa, podemos caer en el llamado sesgo de automatización. Es decir, pensamos: “Bueno, si lo ha dicho el sistema, seguramente es correcto”, y dejamos de aplicar nuestro conocimiento, nuestra experiencia, nuestro pensamiento crítico. Y ahí es donde aparecen los errores… y también la responsabilidad de cada profesional.

Con respecto al AI Act, te diría que, como jurista y como ciudadano, estoy muy orgulloso de que la Unión Europea haya apostado por tener un posicionamiento claro sobre cómo debemos usar la inteligencia artificial y cuáles son los límites que no podemos cruzar.

¿Cómo puede afectar el AI Act al desarrollo de la IA? Muchas veces vemos esta tensión entre innovación y regulación. 

Hay una narrativa muy extendida que dice que la regulación frena la innovación. Se dice que hay que eliminar normas porque son obstáculos y que la innovación nos traerá todo tipo de beneficios. Yo estoy en desacuerdo con esa visión. No creo que tengamos que elegir entre innovación o regulación, sino que debemos integrarlas.

La regulación europea, y en eso confío, lo que busca es establecer reglas para que esa innovación sea responsable. Y para mí, no puede haber innovación si no es responsable. ¿Podemos llamar innovación a algo que vulnera derechos fundamentales? ¿Es innovación cuando se violan derechos de propiedad intelectual? Algunos dicen que sí, que hay que cambiar todo el marco que conocemos. Yo no. Para mí, los derechos fundamentales son el último bastión de la humanidad. Son una de las mejores creaciones que ha hecho el ser humano.

«No hay que adoptar una posición dicotómica entre innovación o regulación, sino que hay que integrarlas»

Cuando una IA genera algo nuevo, no sabemos hasta qué punto está copiando o creando. ¿Cómo se distingue eso? 

Lo primero que veo ante esa pregunta es complejidad. Es un tema donde creo que debemos llegar a consensos amplios, colectivos. No podemos dejar que las decisiones las tomen solo quienes desarrollan esta tecnología. Debe haber espacio para que también opinen otras partes, como por ejemplo la industria creativa.

Piensa en Hollywood, o en casos recientes como el que leí ayer: The Atlantic publicó que Google habría utilizado millones de libros protegidos por derechos de autor, 7.5 millones, si no recuerdo mal, y más de 81 millones de artículos científicos, para entrenar sus últimos modelos. Eso plantea muchas preguntas legales, éticas y sociales. Y hay que abordarlas de manera conjunta

¿Dónde ponemos la línea entre inspiración y copia?

Es un tema muy complejo. Y creo que también tiene un componente ético muy importante: la redistribución de la riqueza generada masivamente por quienes desarrollan la tecnología… ¿qué parte le corresponde a los autores y autoras? Para mí, eso es esencial. Y luego está el tema de qué se protege exactamente. Tenemos que diferenciar dos cosas: por un lado, el input, es decir, cómo entrenamos esos modelos, qué datos usamos, qué información introducimos a través del prompt. Y por otro lado, el output, lo que se genera. ¿Tiene protección? ¿Debería tenerla? ¿Y qué implicaciones trae?

Estas dos dimensiones —input y output— están obviamente conectadas, pero también pueden analizarse por separado. Si nos centramos en el output, que es lo que a vosotros os puede interesar a nivel de creación de contenido, hay que preguntarse:
¿Quién lo ha creado? ¿Hay un humano detrás? Porque, según la legislación actual en España y en Europa, solo se protege lo creado por una persona natural, un ser humano.

«No puede haber innovación sino responsable. Y por innovación responsable entiendo que en ningún caso vulnere ningún derecho»

¿Tendremos que tener una máquina que diga: “esto es 75% IA y 25% humano”? ¿Cómo se gestiona algo así?

Lo primero que te diría como abogado es: depende. Depende del caso de uso, de cómo se haya utilizado la IA, del contexto, de los datos implicados, si estaban bajo licencia o no, si se han vulnerado derechos existentes… Con respecto a la protección de obras generadas por inteligencia artificial, si han sido generadas directamente, uno de los debates es esa desconexión entre la idea humana y la plasmación de la obra. Ahí entra el factor azaroso: tú puedes escribir un prompt muy preciso, pero el resultado que obtengas puede ser totalmente impredecible.

Y hasta donde yo sé —porque esto cambia rapidísimo—, en esos casos, el resultado no sería protegible. Ahora bien, como tú decías si sobre ese resultado generado por IA tú añades capas humanas, un texto propio, lo colocas en un contexto nuevo, lo combinas con ideas propias… entonces sí podríamos estar hablando de una obra protegible. Pero es importante distinguir: no estamos hablando solo de lo que ha generado la IA, sino de lo que tú has creado a partir de eso.

¿Van a prohibir los chatbots como ChatGPT cuando entre en vigor el reglamento? ¿O cómo va a funcionar eso realmente?

Lo primero es que ya ha habido países que han optado por limitar el acceso a estas herramientas, como fue el caso de Italia, hace uno o dos años. Pero ojo, eso no fue por propiedad intelectual, sino por protección de datos. Lo segundo es que el reglamento, en lo que respecta a los modelos de uso general, establece que deben proporcionar un resumen suficientemente detallado de las obras utilizadas para entrenar ese modelo Y claro… ¿es eso factible cuando estamos hablando de millones y millones de obras?

Lo que necesitamos, o lo que deberíamos fomentar, es la unión de los autores y autoras. Porque claro, yo, como creador de una obra artística o literaria, solo no tengo nada que hacer frente a estos gigantes tecnológicos. Pero si hablamos de 7,5 millones de libros, y juntamos a todas esas personas, entonces la cosa cambia.

Y aquí entra otro tema que mencionaste: la dimensión geopolítica. En este debate entre innovación y regulación, siempre aparece el argumento de: «Si en Europa nos limitamos demasiado, otros países más avanzados tecnológicamente nos pasarán por encima.»

Y sí, es cierto que en lugares como Estados Unidos o China la tecnología va por delante, eso no lo niego. Pero eso no puede hacernos perder el norte. Creo que Europa tiene el deber de proponer su propia visión sobre cómo debe usarse la IA. Y es muy importante recordar que el objetivo del AI Act no es regular la inteligencia artificial en sí, como tecnología. El reglamento busca regular el riesgo asociado a ciertos usos de la inteligencia artificial. Y eso es una diferencia clave que a veces se pasa por alto.

«Debemos de llegar a un consenso entre todos y todas. No podemos esperar que las decisiones las tomen aquellos que están desarrollando esta tecnología»

¿Cómo va la Unión Europea a controlar que todos esos desarrolladores cumplan con el AI Act

Si pudiera resolver esa pregunta, estaría ahora mismo trabajando en Bruselas. Pero es muy pertinente lo que planteas. Por ejemplo, mencionaste Deepseek, y sí, es una tecnología muy poderosa. Además, como bien dices, es open source. Lo interesante es que nos estamos empezando a dar cuenta de que, desde una perspectiva de seguridad nacional y también desde la protección de nuestros datos e información, hay tecnologías que, aunque sean muy potentes, no compensan si no están sujetas a estándares europeos o a un marco legal claro.

Hay autores que ya están analizando cómo, en varios países, se está empezando a limitar el acceso a ciertas herramientas de IA. Y sí, es cierto que siempre habrá formas de saltarse esas restricciones, como con el uso de VPNs, pero existen mecanismos jurídicos —no solo el AI Act— que permiten intervenir. Para mí, y esto lo digo siempre, la mejor herramienta jurídica que tenemos ahora mismo para combatir los efectos negativos de la IA —especialmente en cuestiones de discriminación— es la regulación de protección de datos. Porque prácticamente cualquier actividad tecnológica hoy en día conlleva tratamiento de datos personales. Y desde ahí también se puede actuar.

Contratar un seguro, es uno de los casos considerados de alto riesgo. Es ahí donde tenemos que enfocar los esfuerzos regulatorios. En mi tesis precisamente intento analizar si el conjunto de normas actuales son suficientes para proteger nuestros derechos fundamentales en esos entornos de alto riesgo.

Y creo que es una pregunta esencial, porque si no la respondemos ahora, luego será tarde. ¿Qué haremos dentro de 10 años si las consecuencias ya son evidentes y no hemos hecho nada? Hay mucha crítica ahora hacia la Unión Europea por regular tanto, por “sobre-regular”. Pero, sinceramente, yo creo que esa regulación es para protegernos.

«El objetivo del reglamento no es regular la IA, como tal, sino regular el riesgo asociado a determinados usos de esa IA»

¿Está preparada Europa para este juego constante del gato y el ratón? ¿Cuánto nos va a durar esta regulación? 

Creo que la regulación europea ha sido consciente de eso y ha incorporado mecanismos de adaptación. Tiene la capacidad de evolucionar. Si aparece una nueva tecnología o si alguna parte de la regulación no está funcionando como se esperaba, se pueden hacer ajustes. De hecho, el propio reglamento permite añadir o eliminar áreas consideradas de alto riesgo, en función de la experiencia acumulada. Si en el futuro se identifica que un sector concreto representa un riesgo significativo para los derechos fundamentales, puede incluirse como tal. Esa flexibilidad es clave para que la regulación no quede obsoleta y pueda responder a la velocidad del cambio tecnológico.

Entonces, ¿no sería necesario cambiar todo el paquete regulatorio, sino más bien adaptarlo en ciertos puntos?

Exactamente. Se trataría de establecer mecanismos jurídicos que permitan adaptar la regulación. Y creo que eso ya está presente, por ejemplo, en el Reglamento de Protección de Datos. Es una normativa basada en principios, y esos principios, en muchos casos, están anclados en los derechos humanos. No estamos hablando de elementos completamente nuevos o radicales; más bien, es una evolución sobre bases muy sólidas.

«La mejor herramienta jurídica para combatir los efectos de la IA con respecto a la no discriminación es la regulación de protección de datos»

¿Podríamos decir que Estados Unidos, al no regular la IA, está yendo en contra de los derechos humanos?

Desde un punto de vista de la falta de regulación, y no me refiero a limitar la innovación, sino a no promover una innovación responsable, creo que sí, se podría argumentar eso. Especialmente por las consecuencias que ya se están viendo en colectivos vulnerables, como las personas migrantes, o quienes están en situaciones de fragilidad. Si no establecemos criterios mínimos y garantías que aseguren que estos sistemas sean robustos, transparentes, fiables… entonces estamos faltando a nuestro deber. Como legisladores, como sociedad, como comunidad global.

Claro, pero al mismo tiempo, parece que Europa está siendo señalada como la aguafiestas por tomarse esto en serio.

Sí, y eso se debe a una narrativa que hemos aceptado casi sin cuestionar: esa famosa frase de Silicon Valley, «Muévete rápido y rompe cosas». Fue muy útil durante la expansión de las redes sociales, pero ahora nos estamos preguntando —con razón— si quisiéramos volver atrás 10 o 15 años, ¿cambiaríamos algo?

Ya hay evidencia de los efectos negativos que han tenido esas tecnologías. Por ejemplo, el impacto en la salud mental de adolescentes, especialmente en niñas, con trastornos alimenticios vinculados a plataformas como Instagram. O incluso impactos geopolíticos, como lo ocurrido en Myanmar, donde ciertos colectivos sufrieron violencia incitada o amplificada a través de redes sociales.

Y frente a eso, hay quienes siguen pensando que la tecnología no debe regularse. Pero cuando lo comparas con otras áreas críticas, el argumento cae por su propio peso. ¿Queremos que los aviones estén regulados? ¿Los medicamentos? ¿Los coches? Por supuesto que sí. ¿Y entonces por qué no los algoritmos?

A mí me encanta el concepto de “subirse a un algoritmo”. Pasamos horas al día dentro de plataformas digitales, sin saber realmente por qué llegamos ahí o qué decisiones está tomando el sistema por nosotros. Creo que ahí tenemos un problema grave como sociedad, y sobre todo si pensamos en las nuevas generaciones. No podemos permitir que crezcan sin protección frente a herramientas que han sido diseñadas por las personas más expertas del mundo en captar su atención.

«Si no establecemos unos criterios mínimos y garantías para que estos sistemas sean robustos estamos faltando a nuestro deber, como legisladores, como sociedad»

¿La IA simplemente lo está acelerando todo muchísimo más?

Sí, hay una frase que me impactó mucho, aunque ahora no recuerdo de quién es. Decía algo así como: “La IA puede seguir funcionando todo lo que quieras, pero en el momento en que la detienes, se detiene. En cambio, cuando nosotros nos paramos, nos despertamos”. Esa idea me parece muy poderosa. Porque cuando pausamos nuestro ritmo, cuando dejamos de correr, ahí es cuando realmente nos damos cuenta de que estamos pensando. Esa pausa es un acto de conciencia. Para mí, es una distinción fundamental. Y eso, en esta época de aceleración constante, es más importante que nunca.

¿Podemos cerrar con algo un poco más esperanzador? Por si alguien ha llegado hasta aquí, que no se quede con una sensación tan oscura.

¡Por supuesto! Podemos hablar, por ejemplo, de las nuevas generaciones y del papel que tenemos como docentes. Cuantas más herramientas tenemos, más podemos hacer, sí… pero también más se nos exige. La demanda será cada vez mayor. Pero más allá de eso, desde las aulas tenemos que crear espacios de diálogo y conversación. La presencialidad, en cierto modo, nos sigue dando algo fundamental: humanidad.

Y para mí, conservar esa humanidad es esencial. Reconstituir los espacios que nos hacen humanos. Lo más importante del colegio no sucede dentro del aula, sino fuera de ella. En las relaciones, en los patios… Y eso, en cualquier organización, también se da. Existe un elemento humano intangible que hay que saber manejar.

Desde la educación también debemos preparar a los estudiantes no solo técnicamente, sino desde lo humano. Obviamente, un abogado o una abogada debe saber derecho. Pero también tenemos que construir valores, abrir espacios de debate y reflexión en clase. En mis clases intento siempre generar conversación, llevar textos, compartir frases. A veces simplemente leemos en voz alta tres minutos. ¿Cuánta gente se sienta a leer tranquilamente hoy en día? Necesitamos recuperar ese espacio. Decir: “Voy a leer durante dos horas este libro. Voy a disfrutarlo. Y no voy a mirar el móvil”. Cada vez hacemos eso menos. Pero quizás, en medio de todo este cambio, todavía estamos a tiempo de reivindicar ese tiempo humano.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Laia Herranz

Comunicadora apasionada por la tecnología y la IA.

Dejar un comentario