Skip to main content

Desde 2009, las cárceles en Cataluña utilizan un algoritmo llamado RisCanvi para evaluar la peligrosidad de los presos y ayudar en la toma de decisiones sobre la concesión de permisos penitenciarios.

Este sistema ha sido desarrollado por el Departamento de Justicia de la Generalitat de Cataluña con el propósito de reducir la reincidencia delictiva y la violencia. Este algoritmo analiza diversos datos del historial del recluso, como su historial violento, la edad a la que cometió los delitos y si tiene problemas con las drogas. Si determina un alto riesgo, se realiza una evaluación más detallada que incluye otras variables adicionales, como el historial criminal de su entorno y su cociente intelectual. No obstante, se desconoce el valor real que se asigna a cada una de estas variables, lo que añade opacidad al proceso.

A diferencia de los sistemas de IA que aprenden y mejoran con el tiempo, RisCanvi utiliza un conjunto fijo de parámetros basados en estudios científicos y la opinión de profesionales como psicólogos, educadores sociales y criminólogos. Estos expertos realizan entrevistas semestrales con los presos y asignan valores a las variables basándose en su juicio profesional.

Desconfianza y preocupación por su eficacia

Algunos expertos consideran que el algoritmo contradice el concepto de justicia al basarse en métodos estadísticos que no garantizan una evaluación equitativa e individualizada. Además, muchos presos no conocen la existencia ni el funcionamiento de este sistema, lo que plantea dudas sobre la transparencia y el derecho a la información.

El descontento también es evidente entre los funcionarios de prisiones, quienes desconfían de la fiabilidad del algoritmo. Aunque la aplicación no toma decisiones completamente automatizadas, sus resultados influyen considerablemente en las decisiones, lo que limita la capacidad de los jueces y fiscales para evaluar cada caso de manera individual.

La protección de datos de los presos

El Reglamento General de Protección de Datos (RGPD) y la Ley Orgánica 7/2021, que regula la protección de datos personales en el ámbito penal podrían también entrar en conflicto con este algoritmo. Estas leyes establecen que las decisiones basadas únicamente en el tratamiento automatizado de datos personales deben cumplir con estrictos requisitos de transparencia y calidad de datos.

El recientemente aprobado Reglamento Europeo de IA clasifica los modelos predictivos en el ámbito judicial y penitenciario como de «alto riesgo», lo que obliga a cumplir con unos estándares rigurosos de transparencia. Esto implica que las autoridades catalanas deberán revisar y ajustar su funcionamiento para garantizar su conformidad con la normativa europea y proteger los derechos de los presos a una evaluación justa y transparente.

Toda revolución necesita sus cronistas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.