Desde el pasado 2 de febrero de 2025, la Unión Europea ha activado la primera etapa del Reglamento de Inteligencia Artificial, convirtiéndose en pionera al establecer un marco legal de este tipo.
Uno de los puntos principales de este reglamento es la definición de prácticas que, por su potencial de daño o discriminación, quedan totalmente prohibidas. Según el análisis realizado por AGM Abogados, entre estas prácticas destacan:
- Manipulación subliminal
- Explotación de grupos vulnerables
- Reconocimiento facial no autorizado
- Análisis de emociones en entornos laborales y educativos.
- Clasificación social discriminatoria
- Evaluación de riesgo predictiva
- Categorización biométrica basada en datos sensibles
- Identificación biométrica en tiempo real en espacios públicos.
El reglamento no solo pretende ser prohibitivo, sino que también es una medida de prevención. Ya que se pone freno a prácticas que ya se han observado anteriormente en diversos contextos, por ejemplo, campañas de publicidad política micro dirigida o sistemas de vigilancia masiva.
Además, esta nueva normativa europea no distingue entre empresas locales y extranjeras. Cualquier institución que opere o tenga impacto dentro del mercado europeo deberá seguir las directrices marcadas por el Reglamento de IA de la Unión Europea. Hecho que complica a algunas empresas extranjeras traer sus modelos de IA a Europa.
Para poder indagar más sobre este tema, hemos consultado a Vanesa Alarcón, abogada especializada en tecnología y propiedad intelectual y socia del área de Tecnología, Medios y Telecomunicaciones (TMT) en AGM Abogados.
Pregunta: ¿Cuál consideras que es el mayor impacto del Reglamento de Inteligencia Artificial en las empresas dentro y fuera de la Unión Europea?
Vanesa Alarcón: Para mí, el mayor impacto es la necesidad de que empresas fuera de Europa, pero que prestan servicios en la UE y utilizan o desarrollan herramientas de inteligencia artificial, se ajusten a los parámetros europeos. El simple hecho de operar en este mercado las obliga a cumplir con normativas muy garantistas desde el punto de vista de los derechos fundamentales y los principios éticos. Esto puede percibirse como una limitación al desarrollo tecnológico, pero, en mi opinión, garantizar estos derechos es clave para un buen desarrollo tecnológico y para ofrecer un mejor servicio en términos de calidad y protección del usuario final.
«Las empresas fuera de Europa también deben cumplir con el reglamento si operan aquí.»
¿Cómo se podría comparar esta regulación en Europa con las normativas de otras regiones como Estados Unidos?
En Estados Unidos, la regulación sobre inteligencia artificial aún está en desarrollo; están en ello. Biden emitió una orden ejecutiva hace unos años para promover normas de seguridad, privacidad y protección de los derechos fundamentales en IA, pero no estableció un marco normativo concreto, sino directivas para investigar su impacto. Trump, con las ‘executive orders’ dictadas a principios de este año, busca reducir la regulación en este ámbito, lo que puede limitar la evolución de normas más estrictas. En general, aún no hay un desarrollo parlamentario sólido en este aspecto. Hay que ver cómo evoluciona todo esto.
«En EE. UU. hay directivas, pero no una regulación clara sobre IA.»
¿Y en el caso de China?
Aunque pueda parecer lo contrario, China sí cuenta con bastante regulación. Tienen normativas de protección de datos, ciberseguridad y normativa relacionada con la ética y los algoritmos. Habría que analizar en detalle el nivel de qué garantías ofrecen, pero sí que existe regulación que contempla estos aspectos. Además, su objetivo es convertirse en líder en inteligencia artificial para 2030, por lo que es un desarrollo que merece seguimiento.
Volviendo al reglamento de la Unión Europea, ¿crees que logra un equilibrio adecuado entre la innovación y la protección de los derechos fundamentales?
Desde mi punto de vista, el reglamento se enfoca en el riesgo que la IA puede representar para los derechos fundamentales de los usuarios, por lo que su diseño busca garantizar estas protecciones. En cuanto al equilibrio entre derechos y desarrollo tecnológico, para mí no son conceptos incompatibles. El verdadero reto está en entender cómo aplicar la legislación al desarrollo tecnológico. Las empresas deberían integrar la legalidad en el diseño de sus desarrollos desde el inicio.
¿Qué pueden hacer las empresas para cumplir con esta regulación sin frenar su crecimiento en inteligencia artificial?
Siempre es clave articular una buena estrategia. Las empresas deben definir su estrategia de desarrollo de IA con una sólida base legal. Así como incluyen modelos de negocio, marketing y planificación financiera en sus proyectos, deberían integrar la parte legal desde el inicio. En protección de datos se habla del ‘privacy by design’, y yo siempre defiendo el ‘legal by design’. Es decir, desde el principio del proyecto se debe considerar qué impacto legal tendrá, cuáles son los riesgos y qué aspectos pueden asumirse o no desde el punto de vista estratégico. Si una empresa ignora este análisis, deja una parte esencial sin cubrir.
«Las empresas deben pensar en ‘legal by design’ desde el inicio.»
Para finalizar, ¿qué cambios adicionales podemos esperar en esta regulación después de agosto de 2025?
A partir de agosto de 2025, se exigirá el cumplimiento del reglamento en lo relacionado con la inteligencia artificial generativa. Se demandará mayor transparencia en su desarrollo y los proveedores que comercialicen estos servicios deberán informar que sus productos están desarrollados con IA y cumplir con ciertos requisitos. También se pretende garantizar derechos adicionales, como la protección de los derechos de autor en relación con la inteligencia artificial. Más adelante, hacia 2027, se consolidarán las normas aplicables a la inteligencia artificial considerada de alto riesgo.
«En 2025 se exigirá más transparencia en el uso de IA.»
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.