Skip to main content

La última polémica de Meta, la compañía propietaria de Facebook e Instagram, es que los fotógrafos se quejan de que su algoritmo les obliga a etiquetar fotografías reales como si estuvieran hechas con IA. Según ha explicado a TechCrunch el fotógrafo Pete Souza, esto se podría deber a un cambio en Photoshop, que obliga a «aplanar la imagen» antes de guardarla en JPEG cuando se usa la herramienta de recorte de la aplicación de Adobe. Esto podría hacer saltar el algoritmo, que automáticamente etiqueta la imagen como generada con IA.

La compañía hace unas semanas que introdujo esta herramienta para luchar contra la desinformación, aunque en la práctica no es tan fácil como parece. En una entrevista en Paréntesis MEDia, el doctor en Telecomunicaciones Francesc Tarrés explicaba cómo los detectores de fakes actualmente no tienen fiabilidad suficiente. Por eso desde la industria se está apostando por otra estrategia: crear un certificado que se integre en los metadatos de la imagen para que puedan seguirse todas las ediciones que se han hecho sobre ella. Pero ni siquiera esta opción es tan fácil: «Es muy complicado de hacer porque se tiene que poner de acuerdo todo el mundo, desde el que genera las imágenes, desde el que las manipula hasta el último periodista», concluye Tarrés.

Meta deja de entrenar su IA en Europa

Esta noticia se conoce tras el paso atrás de Meta sobre su nueva política de privacidad que incluía la posibilidad de entrenar su algoritmo con fotografías de los usuarios. Este cambio también fue polémico, especialmente con los creadores de contenido y artistas, muchos de los cuales abandonaron las redes sociales de Zuckerberg tras conocer este cambio.

Toda revolución necesita sus cronistas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.