En la era de la información, donde la inteligencia artificial (IA) juega un papel cada vez más predominante en la formación de nuestras percepciones políticas, una brecha significativa en la capacidad de detectar contenido falso amenaza la integridad de las elecciones en el Sur Global. Este «hueco de detección» se debe a los sesgos incorporados en los sistemas de IA, que a menudo hacen que las herramientas de identificación de contenido falso funcionen de manera deficiente o directamente no funcionen fuera de los Estados Unidos y Europa.
El uso de IA generativa, que incluye la creación de contenido falso o manipulado, se ha generalizado en el ámbito político mundial. No obstante, en regiones como África y partes de Asia y América Latina, la capacidad para detectar este tipo de contenido es limitada debido a los sesgos en la formación de los sistemas de detección. Estos sistemas a menudo están entrenados predominantemente con datos provenientes de contextos occidentales, dejando de lado una variedad de dialectos, acentos, idiomas y características faciales que son comunes fuera de estos entornos.
La tecnología de detección de falsificaciones por IA está fallando a los votantes en el Sur Global, exacerbando los desafíos de desinformación en las democracias emergentes.
Sabhanaz Rashid Diya, fundadora del Tech Global Institute, señala en declaraciones a Wired que hay más herramientas y tecnología accesibles para crear medios sintéticos que las que existen para detectarlos. Esto presenta un desafío particular en lugares donde la IA podría ser utilizada para manipular discursos y campañas electorales sin un contrapeso efectivo en la detección.
Las limitaciones tecnológicas y sus consecuencias
Según Sam Gregory, director del programa de la organización sin fines de lucro Witness, la mayoría de las herramientas de detección disponibles actualmente solo pueden ofrecer entre un 85 y 90 por ciento de confianza al determinar si algo fue creado con IA. Esta cifra disminuye dramáticamente cuando se trata de contenido procedente de regiones con menos representación en los datos de entrenamiento.
Richard Ngamita, fundador de Thraets, una organización enfocada en amenazas digitales en África, añade que los modelos de detección se enfrentan a la dificultad adicional de lidiar con medios de baja calidad producidos por dispositivos tecnológicos más accesibles en estos mercados. La sensibilidad de los modelos a variables como el ruido de fondo o la compresión de archivos en redes sociales también puede resultar en falsos positivos o negativos, complicando aún más la detección precisa.
Consecuencias políticas y la necesidad de soluciones locales
La incapacidad para detectar y contrarrestar efectivamente la desinformación generada por IA puede tener repercusiones significativas en las políticas y la legislación, incentivando a los legisladores a tomar medidas en contra de problemas mal identificados o inflados. Diya expresa su preocupación por cómo esta falta de precisión podría influir negativamente en la formulación de políticas, particularmente en entornos donde la información digital puede ser un doble filo en términos de acceso a la información y manipulación de la misma.
En lugar de centrarse únicamente en la detección, Diya sugiere que los fondos y apoyos deberían orientarse hacia medios de comunicación y organizaciones de la sociedad civil que puedan cultivar un ecosistema informativo más resiliente y fomentar la confianza pública. Esto implica un cambio en la dirección de los recursos hacia iniciativas que refuercen la integridad informativa más que hacia la simple detección de falsedades.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.