Skip to main content

Lo más importante

2 min
OpenAI y Google presionan a EE.UU. para entrenar IA con contenido protegido
Las dos tecnológicas presionan a la administración Trump
Google y OpenAI instan al gobierno de EE.UU. a permitir el uso de material protegido por derechos de autor para entrenar modelos de IA.
Por qué importa: Podría afectar a la posición de EE. UU. en la carrera global por el liderazgo en IA.
Desregulación china como ejemplo
Las compañías ponen de relieve la desregulación china para respaldar el entrenamiento con datos protegidos. Si ellos lo pueden hacer, tendrán acceso a modelos más potentes y ganarán la carrera.
Por qué importa: La IA ha pasado ya al terreno geopolítico y China jugaría con ventaja al no tener regulaciones tan estrictas.
Importancia del uso justo para salvaguardar la seguridad nacional
OpenAI defiende que el "fair use" –que consiste en la posibilidad de usar contenido previo para generar un producto nuevo– es esencial para la seguridad nacional en la carrera por la IA.
Por qué importa: De no hacerlo a través de la ley, será la justicia la que decida qué prevalece: si el uso justo o el copyright.
Google expone la necesidad de invertir en IA desde el Gobierno
Pide llegar a acuerdos con laboratorios nacionales que acerquen la IA al ámbito científico y del aprendizaje.
Por qué importa: Subraya la importancia de mantener una inversión pública estable en las empresas tecnológicas.
Tensión entre innovación y protección de derechos de autor
El debate refleja la tensión que existe en la actualidad entre la innovación en IA y la protección de los derechos de los creadores, que verían cómo se usan sus obras sin compensación económica.
Por qué importa: Este desafío afecta a un terreno que ha sido siempre protegido en Occidente, como es el del copyright.

Los gigantes tecnológicos OpenAI y Google instan al gobierno de Estados Unidos a permitir que sus modelos de inteligencia artificial utilicen material protegido por derechos de autor para su entrenamiento. En sus propuestas publicadas esta semana, ambas compañías advierten que las restricciones actuales podrían debilitar la posición de EE. UU. en la carrera global por el liderazgo en IA.

Ponen como ejemplo la desregulación china para justificar el entrenamiento con datos protegidos

OpenAI defiende que aplicar el principio de «uso justo» (fair use) es un asunto de seguridad nacional. «Si los desarrolladores de la República Popular de China (RPC) pueden acceder a los datos sin restricciones y las empresas estadounidenses pierden la posibilidad de uso justo, la carrera por la IA está prácticamente terminada», advierte la compañía en su comentario dirigido a la Casa Blanca.

Google respalda esta postura y subraya que las políticas de derechos de autor, privacidad y patentes pueden limitar el acceso a datos esenciales para entrenar modelos de IA. Según la empresa, excepciones como la minería de texto y datos resultan «críticas» para desarrollar estos sistemas con información de acceso público.

El contexto regulatorio y la respuesta del sector

Las declaraciones de OpenAI y Google responden a una consulta del gobierno estadounidense sobre su «Plan de Acción de IA». La iniciativa busca reforzar el liderazgo de EE. UU. en esta tecnología sin imponer restricciones que frenen la innovación.

Anthropic, otro actor clave en el sector y creador del chatbot Claude, también expone su postura, aunque sin abordar la cuestión de los derechos de autor. En su lugar, insta a la Casa Blanca a desarrollar un sistema para evaluar los riesgos de seguridad nacional en la IA y fortalecer los controles de exportación de chips avanzados.

Desafíos legales y polémica en la industria

La posibilidad de entrenar modelos de IA con contenido protegido genera controversia. OpenAI enfrenta múltiples demandas, incluyendo una de The New York Times, por presunta extracción de datos sin autorización. Otras compañías, como Apple, Nvidia y la propia Anthropic, también reciben acusaciones por prácticas similares, como la supuesta recolección de subtítulos de YouTube para entrenar modelos de IA, algo que YouTube considera una violación de sus términos de servicio.

Implicaciones y el futuro del acceso a datos

El debate sobre el acceso a contenido protegido refleja una tensión cada vez mayor entre la innovación en IA y la protección de los derechos de los creadores. A medida que EE. UU. define su estrategia en este ámbito, la industria tecnológica sigue de cerca el impacto de futuras regulaciones en la competitividad global del sector.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.

Gerard Quintana

Periodista. Me encanta el periodismo y la tecnología.

Dejar un comentario