La Comisión Europea ha anunciado que está considerando criminalizar la creación y distribución de imágenes generadas por inteligencia artificial (IA) y deepfakes que representan abuso sexual infantil (ASI), en un esfuerzo por actualizar las leyes en respuesta a los avances tecnológicos. La propuesta incluye la introducción de un nuevo delito penal para la transmisión en vivo de abuso sexual infantil, así como la criminalización de la posesión e intercambio de «manuales pedófilos». Además, la propuesta menciona a los chatbots de IA utilizados para el abuso infantil.
El objetivo de la comisión es actualizar las reglas de 2011 con esta propuesta, sugiriendo cambios en la notificación obligatoria de delitos. Estas medidas forman parte de un paquete más amplio destinado a prevenir el abuso sexual infantil, mejorar la conciencia sobre los riesgos en línea, facilitar la denuncia de delitos por parte de las víctimas y proporcionar apoyo, incluido el derecho a una compensación financiera.
La evaluación de impacto realizada por la comisión antes de la propuesta destacó el aumento de la presencia en línea y los «últimos desarrollos tecnológicos» como factores que crean nuevas oportunidades para el abuso sexual infantil. Para abordar los riesgos de seguridad en línea para los niños, la propuesta alienta a los estados miembros a invertir en «concienciación».
Existe preocupación de que la tecnología se esté utilizando indebidamente para crear material de abuso sexual infantil (CSAM), con temores crecientes de que este contenido artificial pueda complicar la identificación de víctimas reales para las autoridades policiales, destacando la necesidad de revisar las regulaciones existentes.
Sin embargo, la forma final de las propuestas será decidida por el Parlamento Europeo y el Consejo Europeo. Según la comisión, una vez que se llegue a un acuerdo sobre la modificación de la directiva actual sobre la lucha contra el ASI, entraría en vigor 20 días después de su publicación en el Diario Oficial de la UE.
En mayo de 2022, la comisión propuso legislación adicional centrada en la obligación de los servicios digitales de emplear tecnologías automatizadas para detectar y denunciar CSAM e identificar actividades de acoso dirigidas a niños. Según la comisión, la propuesta actual complementa la propuesta de regulación de 2022.
IA inesperadamente amena. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.