Lo más importante
Los gigantes tecnológicos OpenAI y Google instan al gobierno de Estados Unidos a permitir que sus modelos de inteligencia artificial utilicen material protegido por derechos de autor para su entrenamiento. En sus propuestas publicadas esta semana, ambas compañías advierten que las restricciones actuales podrían debilitar la posición de EE. UU. en la carrera global por el liderazgo en IA.
Ponen como ejemplo la desregulación china para justificar el entrenamiento con datos protegidos
OpenAI defiende que aplicar el principio de «uso justo» (fair use) es un asunto de seguridad nacional. «Si los desarrolladores de la República Popular de China (RPC) pueden acceder a los datos sin restricciones y las empresas estadounidenses pierden la posibilidad de uso justo, la carrera por la IA está prácticamente terminada», advierte la compañía en su comentario dirigido a la Casa Blanca.
Google respalda esta postura y subraya que las políticas de derechos de autor, privacidad y patentes pueden limitar el acceso a datos esenciales para entrenar modelos de IA. Según la empresa, excepciones como la minería de texto y datos resultan «críticas» para desarrollar estos sistemas con información de acceso público.
El contexto regulatorio y la respuesta del sector
Las declaraciones de OpenAI y Google responden a una consulta del gobierno estadounidense sobre su «Plan de Acción de IA». La iniciativa busca reforzar el liderazgo de EE. UU. en esta tecnología sin imponer restricciones que frenen la innovación.
Anthropic, otro actor clave en el sector y creador del chatbot Claude, también expone su postura, aunque sin abordar la cuestión de los derechos de autor. En su lugar, insta a la Casa Blanca a desarrollar un sistema para evaluar los riesgos de seguridad nacional en la IA y fortalecer los controles de exportación de chips avanzados.
Desafíos legales y polémica en la industria
La posibilidad de entrenar modelos de IA con contenido protegido genera controversia. OpenAI enfrenta múltiples demandas, incluyendo una de The New York Times, por presunta extracción de datos sin autorización. Otras compañías, como Apple, Nvidia y la propia Anthropic, también reciben acusaciones por prácticas similares, como la supuesta recolección de subtítulos de YouTube para entrenar modelos de IA, algo que YouTube considera una violación de sus términos de servicio.
Implicaciones y el futuro del acceso a datos
El debate sobre el acceso a contenido protegido refleja una tensión cada vez mayor entre la innovación en IA y la protección de los derechos de los creadores. A medida que EE. UU. define su estrategia en este ámbito, la industria tecnológica sigue de cerca el impacto de futuras regulaciones en la competitividad global del sector.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.