Skip to main content

La filtración ha dejado una huella significativa de videos generados con esta herramienta

OpenAI se encuentra en una nueva controversia relacionada con Sora, su generador de vídeos a partir de texto. Un grupo de artistas, en señal de protesta, ha filtrado el acceso a la herramienta, permitiendo que cualquier persona pueda utilizarla sin la autorización de la empresa. Este acto ha obligado a OpenAI a bloquear el acceso a los más de 300 testers que participaban en el programa de pruebas.

Los responsables del boicot han denunciado públicamente lo que consideran una estrategia de explotación encubierta por parte de OpenAI. Según ellos, la empresa ha utilizado a los artistas como herramientas gratuitas para resolver problemas técnicos y perfeccionar la herramienta, todo bajo el pretexto de que serían tratados como socios creativos o evaluadores tempranos con influencia directa en el proyecto. La denuncia ha sido difundida a través de una carta publicada en Hugging Face.

La acción de protesta y su impacto

El acceso no autorizado a Sora ha estado disponible durante unas tres horas, tiempo suficiente para que numerosos usuarios hayan experimentado con la generación de vídeos. Aunque no se ha filtrado el código fuente de la herramienta, este acceso no autorizado ha permitido una exploración masiva de sus capacidades. Los organizadores de la protesta han explicado que su intención era visibilizar las prácticas poco éticas de OpenAI, las cuales consideran enfocadas más en marketing que en el apoyo real a los artistas.

Las consecuencias para OpenAI

OpenAI ha respondido con rapidez bloqueando todo acceso a Sora mientras se investigaban los hechos. Según informes, como el de ‘The Washington Post’, aunque el acceso no autorizado ha sido breve, ha dejado una huella significativa, incluyendo una colección visible —aunque inactiva— de vídeos generados. Este evento subraya la creciente tensión entre la innovación tecnológica y las preocupaciones éticas y laborales en torno a la IA.

Un debate ético en auge

El caso de Sora pone sobre la mesa tensiones crecientes en torno al uso de la IA en el ámbito artístico. Si bien la herramienta ha sorprendido por su capacidad de generar vídeos hiperrealistas a partir de descripciones textuales, también ha despertado inquietudes respecto a su posible uso indebido y la falta de transparencia sobre los datos empleados en su entrenamiento.

Entre las críticas más destacadas se encuentra la falta de compensación justa para los artistas que han participado en el programa piloto. Estos denuncian que, bajo el pretexto de ser testers, han realizado un trabajo clave sin recibir la retribución adecuada.

Mientras OpenAI busca consolidarse como referente en el desarrollo de inteligencia artificial ética, este conflicto subraya la necesidad de construir una relación más abierta y respetuosa con la comunidad artística. Si Sora aspira a tener un lanzamiento exitoso, deberá superar no solo los retos técnicos, sino también las barreras éticas y de confianza que este caso ha puesto en evidencia.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.