Alba Meijide es consultora en inteligencia artificial. Ha trabajado en el sector audiovisual, en turismo, en cuestiones legales y está asesorando al Gobierno de España, entre otros campos. Meijide se especializó en IA en la Universidad de Manchester y ahora vive a caballo entre A Coruña e Inglaterra.
Pregunta: Te especializaste en inteligencia artificial en un momento en el que no existía ChatGPT, ¿cómo llegas a recorrer este camino?
A mí mis padres me dijeron que, en vez de buscar algo que quisiera hacer para siempre, descarta todo lo que no quisiera hacer. Y fui descartando primero las letras, luego la biología, la rama biosanitaria, y al final pues me quedé con el círculo de lo que era la informática, que me llamaba mucho la atención.
Y yo pensé que ya estaba, pero luego pues empezamos a mirar de la posibilidad de estudiar fuera, y resulta que llegué al Reino Unido y la Facultad de Informática no era solo informática; había computación cuántica, inteligencia artificial, HCI que es (Human Computer Interaction)… Lo que yo pensaba que ya estaba cerrado pues de repente se me abrió un mundo. Y estaba entre Inteligencia Artificial y Computación Cuántica, que creo que también lo va a petar bastante próximamente. Pero no sé, me llamó la atención la IA porque era algo que sonaba tan chulo y parece que quedaba tanto por hacer… Y me gustó mucho mientras lo estaba estudiando; sí que es verdad que cuando yo estaba en la facultad nadie [de mi entorno] sabía muy bien qué era eso.
¿Te imaginabas que la explosión sería tan grande en ese momento en el que empiezas a estudiar?
Empecé en 2018. Pero no me lo imaginaba. Ni siquiera cuando ya estaba en la carrera, porque de hecho fue cuando estaba acabando el máster cuando hubo este ‘boom’, que yo es que ni lo vi venir. Ni yo ni la gente con la que yo me rodeaba. Porque fue además de la noche al día. Sale GPT-3 y de repente todo el mundo tiene una herramienta que no necesita ni programación ni conocimientos avanzados para poderla utilizar.
De hecho, mi trabajo de fin de grado, es decir un par de años antes, era un ChatGPT. No era un GPT porque no existía el modelo GPT como tal, era otro, pero era básicamente un ChatGPT para bufetes de abogados. Y yo me vine a España y lo enseñaba a abogados que conocía y lo odiaban a muerte, decían que eso era horrible, que no se fiaban, que yo venía aquí a quitarles el trabajo y ahora todas las empresas quieren su propio GPT. Entonces no solo viví la transición, sino que también me tocaba muy de cerca lo que provocó esa explosión. Me desorientó un poco porque fue como «anda, mira pues ahora que está más democratizado sí que interesa mucho», y lo entiendo perfectamente.
Tu trabajo además no va solo de GPT…
Sí, es un campo muy amplio. O sea, limitar la inteligencia artificial a GPT y a la generativa para mí es como limitar la medicina a dos especialidades muy concretas. O sea, es posible que tengan menos fama o que sean menos espectaculares a nivel mediático, pero es un campo súper amplio. Están los sistemas predictivos, están los sistemas de clasificación de imágenes… podría estar aquí todo el día diciéndote ejemplos de aplicaciones y sistemas, pero yo creo que no se puede abarcar todo al mismo tiempo ni de la misma forma. Entonces es algo que paulatinamente irá evolucionando de un subcampo de la IA a otro.
¿Cuál es tu papel en este acompañamiento a las empresas?
Hay dos casos en realidad. Cuando una empresa no tiene experiencia con la IA, en ese caso yo lo que hago básicamente es escuchar sus problemas, sus necesidades, en qué te puede ayudar. No necesito que me digas qué modelo, porque para eso estoy yo y ese es mi trabajo, pero dime dónde gastas tiempo, dónde te puedo echar una mano, dónde te vendría bien automatizar un poquito alguna tarea.
Luego hay que elegir o identificar distintas opciones, ponerlas sobre la mesa y decir, pues mira, esta solución te aporta un valor X y te cuesta Y, y así con un montón de ellas hasta decidir en qué camino nos enfocamos y luego desarrollarla.
Pero luego está otro caso que es menos común, aunque cada vez más: las empresas que sí de alguna forma tienen ya un acercamiento a la IA. Esto me pasó, por ejemplo, con El Ranchito VFX, que es una empresa de efectos visuales. Ellos ya tienen su departamento de Machine Learning y me contactaron para un proyecto específico de una aplicación.
¿Cuáles son los errores más frecuentes que te encuentras cuando llegas a una empresa?
A ver, los hay bastante comunes. Primero está el hecho de que muchas veces el mítico dicho de tirarse a la piscina sin ver que está llena. Muchas veces pasa que queremos lanzarnos a la IA (yo soy la primera que peco de esto) con proyectos y resulta que nos hemos quedado por el camino y nuestra gestión de datos es muy mala. O seguimos trabajando a papel y boli o no tenemos los datos estructurados. El tema de los datos suele ser un cuello de botella importante.
Luego hay el acompañamiento legal. Yo siempre intento que cualquier cosa que se haga pues hablarla con un abogado o con
el departamento legal para asesorarme de si podemos hacerlo, ya que eso es muy importante. Pero sí que es verdad que yo diría que el principal error es el decir «queremos hacerlo», pero nos faltan pasos previos en todo este proceso de digitalización. Realmente es como subir al tercer piso sin pasar por el primero y el segundo.
¿Cuáles son los problemas más frecuentes a nivel legal?
Yo creo que ahora mismo el principal problema es la incertidumbre, es decir, como empresa, ¿cómo voy a apostar por un modelo de IA o por un desarrollo que utilice un modelo de IA que en seis meses es posible que venga la Unión Europea y me diga no puedes usarlo? ¿Qué pasa con todo ese dinero y con todo ese cambio del ‘workflow’ de trabajo? Entonces el tema de la incertidumbre es un caso bastante importante.
Y luego no es tanto que sean problemas, sino tenerlo claro de salida. Por ejemplo, sobre todo cuando trabajas con estudios, porque es material que tiene que estar muy protegido y no se puede subir a ningún lado, por lo que se usan siempre modelos en local. Pero uno de los más delicados fue también el tema de detección de patologías oculares, porque teníamos datos, pero claro, yo no quiero saber ni quién es esa persona, ni qué edad tiene, ni cuándo fue a la consulta, ni quién fue su médico. Yo solo necesito una imagen de una persona con X patología para entrenar a mi sistema para que las detecte.
Entonces, ese proceso de anonimización y protección de los datos no fue un problema como tal, porque se identificó de salida,
pero sí que fue un paso importante a tener en cuenta.
Ahora que hablabas de la Unión Europea, ¿existe cierta inseguridad jurídica en este momento en Europa respecto a la IA?
Es que ahora mismo es un área un poco gris, ¿sabes? Porque, a ver, yo tampoco soy abogada, no quiero aquí decir nada y que quede sobre piedra porque yo no estudio legislación, trabajo codo con codo con abogados, pero al final cada uno tiene su papel: yo soy más de la parte técnica.
La Unión Europea lo que ha hecho es coger todos los sistemas de IA y los ha metido en una especie de pirámide y los ha dividido por riesgos porque dicen que tenemos que tener una legislación que no se rompa si mañana llega un sistema nuevo y tiene que estar actualizada todo el rato, y eso es muy difícil.
Es decir, la UE tiene un papel bastante complicado. Están los sistemas de alto riesgo que están prohibidos, riesgo limitado, riesgo mínimo… Yo creo, aún no lo sé ni puedo decirlo a ciencia cierta, que los sistemas de generación de imágenes van a tener que pasar por unos procesos, por unas auditorías de datos. ¿Qué pasa? Que todos los sistemas que usamos, cuando digo usamos digo tú, yo, cualquier persona que utilice IA ahora mismo… Por ejemplo, Stable Diffusion lo entrenaron con 3 millones de imágenes. ¿En una auditoría estamos seguros de que ninguna de esas imágenes está protegida por derechos de autor o propiedad intelectual? No lo sabemos, entonces si realmente se lleva a cabo eso, es que en Europa casi no podremos usar ningún modelo…
Que lo que digo yo es, me parece muy bien, yo estoy súper a favor, pero igual deberíamos hacer nuestros propios modelos fundacionales. Es tan difícil ponerle puertas al campo… Entonces ahora mismo sí que existe esa inquietud, y de hecho muchas veces yo recomiendo incluso no ir por ciertas líneas de desarrollo de implementación por ese riesgo. Porque es que dentro de seis meses si nos lo tiran para atrás, perdemos tiempo, perdemos dinero y perdemos recursos.
Tú puedes tener vetado un modelo de lenguaje, pero si puedes acceder a través de una VPN o puedes tenerlo descargado en tu propio servidor, ¿cómo va la policía a controlar que no estés usando un modelo de lenguaje prohibido?
Es muy complicado. Yo creo que va a ser muy difícil regularlo tanto como se quiere. Por ejemplo, una de estas grandes empresas de modelos generativos están trabajando para meter en los metadatos de cada imagen que se crea con IA como una marca de agua, que no vemos los humanos, pero que te dice que esa imagen ha sido creada con IA, con qué modelo…
Pero es que es lo que dices tú: cuando yo ahora mismo en el ordenador con el que estamos hablando tengo siete modelos de lenguaje y tengo un Stable Diffusion, es muy difícil de controlar cómo lo implementarán, cómo lo llevarán a cabo. Me encantaría saberlo, pero no lo tengo nada claro.
Y luego a nivel de empresa también puede ocurrir que haya un desequilibrio de fuerzas porque si tienes en Estados Unidos unas empresas que pueden usar unos modelos que tú no puedes usar…
Totalmente, pero es que al final lo que puede que pase es que al final tengamos tres entidades que van a ser Estados Unidos, China y la Unión Europea. Si no podemos usar los modelos que se usan, por ejemplo, en Estados Unidos, pero tampoco tenemos nuestros modelos fundacionales de código abierto, es que al final lo que va a pasar es que nos van a adelantar por la izquierda y por la derecha.
Que yo espero que no, porque es que Europa tiene una base muy fuerte para la investigación, para el desarrollo y para la creación de modelos nuevos, pero creo que hace falta hacer esa inversión de decir, «vale, no os dejamos usar estos, porque está mal y todos estamos de acuerdo, pero me voy a gastar X dinero y vamos a crear un modelo de generación de imágenes legal en Europa abierto para todos». Igual yo vivo en una utopía, pero para mí es lo que tendría sentido porque es que si no nos quedamos atrás.
Ahora mismo, las próximas semanas, si se cumple el calendario, tendría que salir el modelo fundacional en español en el que ha estado trabajando el Gobierno de España y el Barcelona Supercomputing Center. ¿Has conocido este proyecto de cerca?
Si te digo la verdad, he seguido mucho también el proyecto Nós, que es el que van a sacar en gallego. ¿Qué pasa? Que yo sí que es verdad que he hecho algunos proyectos de lenguaje, aunque no es mi área principal ahora mismo. Pero me parece de maravilla, es lo que te digo: yo creo que todo lo que podamos invertir en hacer modelos fundacionales europeos que se puedan usar y que sean de código abierto es que me parece el dinero mejor invertido. Porque si le pones puertas tienes que dar otras opciones.
Has estado en empresas de efectos especiales. ¿Estamos más cerca de poder generar una película o una serie entera con inteligencia artificial?
Si tu pregunta es si podemos, a día de hoy, generar un vídeo con IA, de una hora, seguramente NVIDIA en sus servidores pueda. Que eso tenga la calidad suficiente y la historia para considerarse una película o una serie es que ahí ya entramos en un terreno muy gris. Porque igual algo que a mí me encanta, a ti te parece una absoluta basura y viceversa.
Entonces, al final, creo que estamos simplificando mucho el proceso de crear una película o una serie. Ahí entran muchísimos factores: ahí entra el hecho de que, si a una película se le ha dado una forma es por las vivencias que ha tenido un creador o el grupo de personas que la han creado.
Por ejemplo, hace poco vi una entrevista a Robe, el de Extremoduro, que me encanta. Pero decía, «claro, es que le pedía a ChatGPT que me escribiera una canción y, con perdón por la palabra, era una mierda». Pero es que realmente igual no es lo que nos interesa, igual lo que nos interesa no es que ChatGPT escriba canciones. Todos estamos muy concienciados con proteger el toque humano, con proteger lo artístico y yo intento en la medida de lo posible no alentar a que la IA se desarrolle para ese tipo de fines porque me parece completamente innecesario.
Creo que estamos humanizando mucho la IA y deshumanizando mucho nuestro proceso creativo, que al final parece que es nada, el toque humano es una cosa que se hace al final. Que pones la cara para el selfie y ya está. Y en realidad, sobre todo en el sector audiovisual, es que no tendría sentido en mi opinión. Pero ya te digo, por poder hacer un vídeo que sea una hora de largo, seguramente se pueda si te dejan un ordenador potente y tienes un modelo avanzado; que luego eso lo queramos considerar arte ahí es donde me entra la duda.
¿Y en ese sentido cuál ha sido tu papel en las empresas audiovisuales?
Pues hasta ahora todos los proyectos que he hecho han sido proyectos para tareas mecánicas. Por ejemplo, el tema de la rotoscopia. Imagínate si ya vamos en un croma y luego a mí me tienen que poner en los Andes, como ocurre en ‘La sociedad de la nieve’, ahí tiene que haber una persona que va fotograma a fotograma. Y en cada segundo hay 24 fotogramas. Multiplica, tiene que ir recortando todo lo que es mi silueta. De hecho, normalmente esto se mandaba a hacer fuera porque era un proceso muy tedioso.
Ahí le hemos dedicado muchos meses y mucho esfuerzo y que, además, es que a los artistas no les gusta y más siendo artistas. Y algo que antes igual se hacía en 3 horas ahora son 15 minutos. Y ese es el tipo de cosas donde creo que sí que tiene sentido usar la IA. Y a veces me pasa que me dicen «no, y si cogemos un sistema de IA genativa y hacemos esta parte…». Es que aquí hay tantas implicaciones: está la reacción de los artistas que tienes en tu estudio y que es importante porque no son solo un número, son artistas. Son personas que quieren que se valore su trabajo. Lo segundo: el tema legal, que ya lo comentamos. Y lo tercero, ya solo ponerte en contacto con Netflix o con quien haga falta para avisar, porque hay que avisarles, de que vas a usar un modelo generativo y que te lo aprueben… O sea, es que hay veces que hay tantos otros sitios por donde avanzar que dices «tú, es que a veces ni compensa, de momento.
Tenemos que esperar un poco más entonces para poder avanzar en ese sentido.
Claro, yo no quiero decir a nadie que no haga nada, pero antes de ir por una vía que parece que no hay nada más, siempre hay otras aplicaciones menos complejas que te pueden venir de maravilla e incluso mejor.
Ahora que comentabas esto: ¿es similar a lo de SAM2, el modelo de Meta que recorta siluetas?
Es que, de hecho, utilizamos SAM como base porque es un modelo fundacional y es de código abierto. ¿Qué pasa? SAM te crea unas máscaras de 256 por 256 y luego te las expande. Tú, si esa máscara se la mandas a un supervisor yo creo que te despide en el momento. Te dice «¿qué me estás dando?» Entonces usamos SAM como base, pero luego tiene un trabajo por detrás. Para que te hagas una idea al crear una única máscara en un fotograma pues igual son 300 máscaras súper pequeñitas cosidas entre ellas.
¿Cómo de importante es saber hablar con la inteligencia artificial? Se ha hablado mucho de la ingeniería de prompts…
Yo creo que la ingeniería de prompts fue una carrera y una profesión que nació y murió muy rápido porque al final yo, desde el principio, decía «pero es que esto es un ‘skill’ que vamos a necesitar todos». Es como el trabajar en equipo que hoy en día se da por hecho. Pero yo lo miro más también desde una perspectiva social.
Últimamente estoy leyendo bastantes artículos que hablan de cómo el ser educado con la tecnología nos beneficia como sociedad. Hay gente que dice, «¿y por qué voy a ser yo educado con un sistema?». No lo humanices, no estás siendo educado con alguien, simplemente estás manteniendo tu forma de ser y la estás extendiendo a una tecnología. No es que tú le tengas que decir «ah, discúlpame que he escrito mal esta palabra», pero por ejemplo, hablan mucho de los niños y Alexa. «Alexa, ponme esta canción, Alexa esto es una basura…», algo que sin querer esto nos cambia a nosotros por dentro. La humanizas, le hablas mal y entonces cuando tienes una interacción con un humano también te sale hablarle mal.
Creo que hay que educar en la interacción entre los humanos y los sistemas, sin humanizar la tecnología. No te estoy diciendo que le digas a Alexa «por favor» porque Alexa se vaya a ofender, sino para ti como humano, para que cuando tengas relaciones con otros humanos no te salga el decirle las cosas como si se las dijeras a Alexa. De hecho, Google sacó un asistente que se llama ‘Pretty Please’ y es como una Alexa pero para niños pequeños y si le dices «enciende la luz», te responde «¿cómo se piden las cosas?».
¿Crees que se está generando una burbuja alrededor de la inteligencia artificial?
Yo creo que hoy en día los fuegos artificiales están en todas partes. Mi perfil de Instagram son fuegos artificiales, las historias que subo son fuegos artificiales, el marketing que yo hago de mi empresa son fuegos artificiales. ¿Qué pasa con la IA? No sé si la definiría como una burbuja, pero creo que va a llegar un momento en el que el mercado va a estar copado de empresas que hacen modelos de lenguaje o IA generativa. Igual nos vamos a empezar a dar cuenta de «oye, que existe la IA predictiva y me vale menos dinero». Yo creo que llegará un punto en el que esos tendrán la ventaja competitiva, para mí.
Al final, lo que tiene la IA generativa es «morbo». Tiene morbo en el sentido de que nosotros, como humanos, en este planeta hasta hace un par de años éramos los únicos que creábamos, los que pintábamos, los que escribíamos poemas… A nivel social, como humano, que un sistema esté haciendo algo que hasta ahora en miles de años de historia solo he podido hacer yo… A eso me refiero con morbo: que tiene ese plus añadido de «espérate, porque es que la IA no solo analiza números mejor que lo hago yo, sino que me escribe un poema en 27 milisegundos». Entonces yo creo que ahí es donde nos remueve algo por dentro. No lo veo como una estrategia puramente empresarial, sino que creo que realmente para el ser humano es algo completamente nuevo.
Y, por ejemplo, con OpenAI que marca ya los pasos hasta llegar a la AGI… ¿Tú crees que se puede avanzar hacia ahí, o en cambio es una estrategia de marketing para continuar consiguiendo financiación por parte de Microsoft y otros grandes inversores?
Esta es una pregunta complicada, esta es de nota. Lo primero que tenemos que hacer es definir la AGI en condiciones. O sea, es un sistema que puede ver a su alrededor, interpretar esa información, que puede sentir lo que está pasando a su alrededor y reacciona.
Normalmente lo que respondo es que me parece que tenemos cosas demasiado importantes ahora mismo para preocuparnos de la AGI. Por ejemplo, hace poco Dove, la marca de productos de belleza, sacó un anuncio que a mí me encantó. Mira que yo soy muy crítica con usar la IA para marketing porque muchas veces nos tiramos muchos triples, pero ese me encantó porque habla de cómo de aquí a unos años el contenido en redes sociales que va a estar generado por IA va a ser un porcentaje altísimo. Y tú si a un modelo de IA le pides una mujer bella o una mujer en la playa, te va a sacar siempre un cuerpo normativo, siempre con la piel blanca y siempre con ciertos rasgos. Me parece suficientemente importante como para prestarle tanta atención o más que a la Inteligencia Artificial General. No porque no creo que no vaya a pasar, sino porque esto ya lo tenemos encima. Lo que pasa es que aquí juega un papel muy importante la ciencia ficción.
No estoy diciendo que todos seamos unos pringados por creernos la ciencia ficción, que todos sabemos que es mentira. Pero al final cuando tus padres, tus abuelos, leían libros, cómics que hablaban de cómo los robots se iban a cargar el mundo y nos iban a matar a todos, al final es un sentimiento que llevas dentro y es un miedo que tienes que dices «vale, no tengo razones para tenerlo ahora mismo, pero está ahí porque me lo llevan diciendo, aunque sea en la ciencia ficción, aunque sea en las películas y los libros, me llevan avisando mucho tiempo». Entonces tenemos como esa alarma ahí.
Pero me parece que tenemos muchas cuestiones a las que habría que prestar atención antes porque lo que hagamos ahora va a definir cómo llegamos y si llegamos a la Inteligencia Artificial General. Por eso en mis entrevistas no suelo hablar mucho de ella porque me gusta más hablar de las cosas que tenemos que hacer ahora.
Tú al final te has movido por diferentes ámbitos y tienes una visión casi de halcón sobre lo que puede hacer la inteligencia artificial en diferentes ámbitos: dime tres sectores que la IA va a cambiar por completo.
A ver, el primero que se me viene a la cabeza es la medicina, que ojo, que puede ser para bien y puede ser para no tan bien, pero ahí van a pasar cosas. Por ejemplo, ya vemos prótesis inteligentes y ya vemos unos microchips que simulan los órganos del cuerpo humano para probar fármacos. En tema de medicina y farmacéuticas, yo creo que la IA va a marcar un antes y un después.
Luego, yo creo que al final las industrias creativas van a cambiar mucho. Igual que cuando mi padre era pequeño iba al quiosco a por una revista, y había tres, y desde que llegó el diseño digital ahora hay muchas más. Al final, no va a ser algo que vaya a desaparecer: va a cambiar el proceso creativo, esperemos que para bien y esperemos que siempre manteniendo el factor humano.
Y luego el tercero, yo diría, y por continuar en lo que llevo intentando transmitir toda la entrevista, en tema de procesamiento de muchos datos: banca, temas de seguros, es decir, todo lo que requiera un análisis de unos volúmenes de datos que no podemos asumir los humanos. Ahí yo creo que la IA nos va a aportar mucho valor. Creo que ya el dato es la información, pero lo que nos interesa es el conocimiento. Entonces, tenemos tantos datos que tenemos que meter como un agente, un sistema de IA de por medio, que nos los filtre para luego nosotros obtener la información.
Ya puedo olvidarme de pedir una hipoteca que no me la va a dar.
No, ojo, muchos de esos van a ser ilegales. Bueno, no ilegales pero van a tener unas auditorías de cuidado para el tema de préstamos. Pero creo que van a ayudar a acceder a la información como profesional: yo soy el mismo profesional que era hace tres años, pero en vez de tardar media hora en acceder a una información concreta, tardo tres minutos. Ahí es donde está la diferencia: la decisión sigue siendo mía, pero llego antes a la información.
Y un último consejo: ¿qué es lo que tenemos que evitar?
Yo creo que tenemos que evitar el dejarnos llevar por la información que consumimos en general, o sea, en medios, en redes, en lo que sea. No estoy diciendo que no te creas nada, pero si te interesa, si quieres saber de la IA, indagar un poquito. Recibimos tanta información, la IA por aquí, la IA por allá… Noticias, periódicos, redes… Yo creo que lo más importante ahora mismo es mantener la calma e investigar un poco.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.