Nueva regulación entra en vigor con sanciones de hasta 35 millones de euros
Desde el 2 de febrero de 2025, la Unión Europea ha prohibido el uso de sistemas de IA que representen un «riesgo inaceptable» para la seguridad y los derechos fundamentales de las personas. Esta medida forma parte de la Ley de IA (AI Act), un marco regulatorio pionero que busca establecer reglas claras para el desarrollo y uso de la IA en Europa.
Cuatro niveles de riesgo y nuevas prohibiciones
La Ley de IA clasifica los sistemas en cuatro niveles de riesgo: mínimo, limitado, alto e inaceptable. Los sistemas que caen en la categoría de «riesgo inaceptable» están prohibidos, incluyendo:
- IA que manipula el comportamiento humano de forma subliminal o engañosa.
- Sistemas de puntuación social que evalúan a personas por su comportamiento o características.
- Sistemas de identificación biométrica en tiempo real en espacios públicos.
El objetivo es evitar prácticas que vulneren los derechos fundamentales de los ciudadanos europeos.
Multas millonarias para quienes incumplan la ley
Las empresas que no acaten estas prohibiciones podrían sufrir sanciones de hasta 35 millones de euros o el 7% de su facturación anual, lo que sea mayor. Aunque la normativa ya está en vigor, las multas y medidas de aplicación comenzarán a implementarse en agosto de 2025, cuando se designen las autoridades encargadas de su supervisión.
El Pacto sobre la IA: un compromiso anticipado
Para facilitar la transición, la Comisión Europea lanzó en septiembre de 2024 el Pacto sobre la IA, una iniciativa voluntaria que invitó a las empresas a adoptar los principios de la Ley antes de su plena aplicación. Más de cien compañías, incluyendo Google, OpenAI, Amazon y Telefónica, firmaron el pacto y se comprometieron a identificar y mitigar los riesgos asociados con sus sistemas de IA.
Algunas grandes tecnológicas como Meta y Apple optaron por no unirse al acuerdo, lo que ha generado debate sobre el compromiso que tienen con las regulaciones europeas.
Preocupaciones sobre el impacto en la innovación
A pesar de su objetivo de proteger a los ciudadanos, la Ley de IA también ha despertado preocupaciones en el sector tecnológico. Algunas empresas han señalado que la normativa es compleja y carece de claridad en su aplicación, lo que podría complicar la innovación y la competitividad en el mercado europeo.
Un paso hacia la regulación global de la IA
La implementación de esta normativa marca un paso en la regulación de la IA a nivel mundial. La UE busca equilibrar la innovación con la protección de los derechos fundamentales, estableciendo un modelo que podría influir en futuras regulaciones en otras regiones.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.