Skip to main content

La comunidad artística digital recibe con entusiasmo el lanzamiento de Nightshade, una herramienta gratuita diseñada para proteger las obras de arte de los artistas de ser utilizadas sin permiso por modelos de inteligencia artificial (IA). Desarrollada por científicos informáticos del Proyecto Glaze en la Universidad de Chicago bajo la dirección del profesor Ben Zhao, Nightshade representa un avance significativo en la lucha contra el uso no autorizado de obras artísticas en la formación de modelos de IA.

Nightshade funciona utilizando la popular plataforma de aprendizaje automático de código abierto PyTorch para identificar los elementos de una imagen. Luego, aplica una etiqueta que altera sutilmente la imagen a nivel de píxel, haciendo que otros programas de IA perciban algo completamente diferente a lo que realmente está presente. Este proceso de ‘envenenamiento’ de imágenes tiene como objetivo desviar el aprendizaje de los modelos de IA que se entrenan con estas imágenes sin consentimiento.

Nightshade, una innovadora herramienta que permite a los artistas ‘envenenar’ modelos de inteligencia artificial, se lanza al mercado como una solución gratuita para proteger sus obras.

La herramienta es el segundo software de este tipo desarrollado por el equipo, siendo Glaze el primero. Mientras que Glaze fue diseñado como una herramienta defensiva para prevenir la imitación del estilo de un artista por modelos de IA, Nightshade se presenta como una herramienta ofensiva. Un modelo de IA que se entrene con muchas imágenes alteradas con Nightshade probablemente categorizará erróneamente objetos en el futuro, incluso en imágenes que no hayan sido modificadas con Nightshade.

Para utilizar Nightshade, los artistas deben tener un Mac con chips Apple (M1, M2 o M3) o una PC con Windows 10 o 11. La herramienta está disponible para su descarga en ambos sistemas operativos. Además, los usuarios deben aceptar el acuerdo de licencia de usuario final (EULA) del equipo de Glaze/Nightshade, que estipula el uso de la herramienta en máquinas bajo su control y prohíbe modificar el código fuente subyacente o usar el software con fines comerciales.

La versión 1.0 de Nightshade transforma las imágenes en muestras ‘envenenadas’, de modo que los modelos de IA que se entrenen con ellas sin consentimiento aprenderán comportamientos impredecibles que se desvían de las normas esperadas. Por ejemplo, una imagen de una vaca en un campo verde apenas cambia a los ojos humanos, pero un modelo de IA podría ver un bolso de cuero grande en la hierba.

El lanzamiento de Nightshade ha generado tanto aplausos como condenas. Mientras algunos artistas ya están utilizando la herramienta, otros usuarios de la web han expresado su preocupación, sugiriendo que es equivalente a un ciberataque contra modelos y compañías de IA. Sin embargo, el equipo de Glaze/Nightshade afirma que su objetivo no es romper modelos, sino aumentar el costo de entrenar con datos no autorizados, de modo que obtener licencias de imágenes de sus creadores se convierta en una alternativa viable.

Nightshade representa el último frente en la rápida lucha sobre el raspado de datos. Los creadores de modelos de IA defienden la práctica como necesaria para entrenar sus creaciones, pero ha sido objeto de un nuevo escrutinio por parte de artistas y creativos que se oponen a que su trabajo se utilice sin su permiso expreso.

Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.