Los sesgos en la inteligencia artificial no son ninguna novedad. Son un reflejo de una sociedad llena de prejuicios, que la tecnología amplifica sin filtros. Esto nos obliga a estar alerta de manera individual, desarrollando una mirada crítica constante que analice aquello que estas tecnologías nos presentan como neutral. Hemos visto ejemplos claros de esta realidad: algoritmos que discriminan a las mujeres en procesos de selección o sistemas de reconocimiento facial menos precisos con personas de piel oscura. El verdadero reto, sin embargo, es entender qué hacemos cuando este problema se manifiesta dentro de nuestras empresas y deja de ser un dato abstracto para convertirse en una experiencia tangible.
Recientemente, hemos trabajado en un proyecto para crear un vídeo con una cantante virtual. Sin especificar ninguna característica concreta, la IA generó una imagen de una chica con rasgos que parecían salir de un videojuego de acción: una representación estereotipada, basada en cánones de belleza irreales. Era como si la IA hubiera tomado los estereotipos visuales más comunes y los hubiera exagerado sin filtro. Y lo más impactante es que no era la primera vez que nos pasaba. Parecía que, cada vez que se generaba un perfil femenino, este respondía a un patrón similar: un reflejo, claramente sesgado, de un imaginario colectivo que lleva décadas imponiéndose. Hasta aquí, nada sorprendente.
Lo que es revelador de este episodio es cómo se percibió internamente. En el equipo había una diversidad de perspectivas, incluyendo hombres con diferentes orientaciones sexuales, y ninguno de ellos identificó el problema en un primer momento. Fue una compañera, una mujer, quien señaló que aquello no solo era un problema técnico, sino un ejemplo claro de cómo los sesgos de la IA pueden pasar desapercibidos, perpetuando estereotipos sin que nos demos cuenta.
La respuesta inmediata fue defensiva: «Yo no he indicado en ningún momento que fuera una mujer de estas características«. Es cierto, pero el problema radica en el hecho de que la IA, entrenada con datos extraídos de una sociedad cargada de estereotipos, los replica sin filtros. Esto nos demuestra que no basta con no “indicar” nada; hace falta una mirada crítica que cuestione aquello que estas tecnologías nos presentan como neutral.
«La IA, entrenada con datos extraídos de una sociedad cargada de estereotipos, los replica sin filtros».
Este episodio nos recuerda lo importante que es estar alerta y aprender a detectar estas situaciones. Las mujeres, probablemente debido a la experiencia personal con este tipo de sesgos, pueden estar más atentas y detectarlos en estos casos concretos. Pero eso no significa que no tengamos sesgos propios. También podemos pasar por alto muchos otros aspectos donde nuestro punto de vista no está tan afinado.
Una de las reflexiones que este episodio me deja es que quizás no sea suficiente hablar solo de “ética” en IA, sino también de su “sensibilidad social”. Las personas tenemos la capacidad de interpretar el contexto, ver matices y entender qué tiene sentido y qué puede ser problemático. La IA, por el contrario, actúa como una lupa que exagera patrones preexistentes. Sin guía humana, esos patrones se convierten en normas.
«Las personas tenemos la capacidad de interpretar el contexto, ver matices y entender qué tiene sentido y qué puede ser problemático. La IA, por el contrario, actúa como una lupa que exagera patrones preexistentes».
En el futuro, una solución no será solo entrenar mejor los algoritmos, sino también entrenarnos a nosotros mismos. Esto implica entender las limitaciones de la tecnología, hacer pruebas de concepto que incluyan puntos de vista diversos y, sobre todo, fomentar un espíritu crítico que nos ayude a detectar y corregir estas situaciones. No es una tarea sencilla, pero es esencial si queremos construir una relación más sana entre la sociedad y las herramientas que desarrollamos.
«No podemos delegar a la IA la construcción de un futuro inclusivo. Esta es una tarea que requiere conciencia, formación y, sobre todo, la capacidad de admitir que, a menudo, somos parte del problema»
La pregunta clave que me hago es cómo podemos formarnos para identificar y corregir estos sesgos que a menudo pasan desapercibidos. Recuerdo cómo, en aquel episodio, la simple intervención de una compañera nos abrió los ojos a un problema que habíamos pasado por alto. Es este tipo de conciencia crítica lo que nos ayudará a construir herramientas y sociedades más justas. En definitiva, no podemos delegar en la IA la construcción de un futuro inclusivo. Esta es una tarea que requiere conciencia, formación y, sobre todo, la capacidad de admitir que, a menudo, somos parte del problema. Solo así podremos garantizar que estas tecnologías sirven para avanzar, y no para repetir los errores del pasado.