Skip to main content

En un esfuerzo por promover el uso ético de los datos en la inteligencia artificial, la organización sin fines de lucro Fairly Trained ha comenzado a ofrecer programas de certificación a empresas de IA para demostrar que sus modelos no violan los derechos de autor. Según informa The Verge, esta iniciativa surge en un momento en que la legislación potencial sobre IA requiere revisiones de modelos para garantizar el cumplimiento de las normas de derechos de autor.

Fairly Trained, fundada por Ed Newton-Rex, ex vicepresidente de audio de Stability AI, otorgará su primera acreditación, denominada Certificación de Modelo Licenciado, a las empresas que demuestren haber obtenido licencias para los datos protegidos utilizados en el entrenamiento de sus modelos. La organización ha declarado que no emitirá la certificación a desarrolladores que se basen en el argumento de «uso justo» para entrenar modelos.

Fairly Trained introduce una etiqueta de certificación para modelos de IA que respetan los derechos de autor, marcando un hito en la ética de la inteligencia artificial.

Hasta ahora, Fairly Trained ha certificado a nueve empresas de IA generativa que trabajan en la generación de imágenes, música y voz. Estas incluyen Beatoven.ai, Boomy, BRIA.ai, Endel, LifeScore, Rightsify, SOMMS.AI, Soundful y Tuney. La formación de modelos de IA con datos protegidos por derechos de autor ha sido un tema controvertido en la IA generativa, especialmente después de que artistas y autores demandaran a varias empresas de IA por infracción de derechos de autor.

La certificación de Fairly Trained llega en un momento en que se propone legislación en el Congreso de EE. UU. que requeriría que las empresas de IA divulguen el origen de sus datos de entrenamiento. Esta información permitiría a los titulares de derechos de autor saber si su trabajo se ha utilizado sin permiso.

 

Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.