Skip to main content

«Every age has its own kind of war, its own limiting conditions, and its own peculiar preconceptions». —Carl von Clausewitz

La dimisión del fundador de OpenAI responsable de garantizar el uso seguro de sus herramientas comerciales nos abre una línea de investigación y debate: La Inteligencia Artificial (IA) como arma de desinformación y deterioro de las democracias por las capacidades mejoradas de manipulación de los ciudadanos a escala.

Empezamos este camino juntos entrevistando a Yuri un ingeniero especializado en Ciberseguridad y Ciberinteligencia de dilatada experiencia (Yuri es un apodo que usamos para mantener el anonimato del especialista). Hemos querido conocer y compartir con vosotros cuáles cree él que son los riesgos de la Inteligencia Artificial como herramienta o arma en lo que se conoce militarmente como la Guerra Híbrida.

Yuri nos deja claro en esta entrevista que, con las evidencias de las que ya se dispone en su industria, sin duda estamos inmersos en un escenario de amenazas y Guerra Híbrida, marcado por la utilización del dominio digital en cualquier conflicto: desde Ucrania a Gaza o Yemen.

Creemos que la democratización a través del “Open Source” de las herramientas de Inteligencia Artificial (IA), y en especial de la IA Generativa, obliga a tener un debate crítico, abierto y público de todos los ciudadanos e instituciones. Con la siguiente conversación queremos incorporarnos a ese debate.

Advertencia: Esta no es una de esas entrevistas para leer en la cama antes de ir a dormir.

¿Qué es la Ciberinteligencia?

Es la generación de inteligencia mediante el análisis de cualquier información accesible digitalmente. Es analizar tanto la información de cualquier servicio que se encuentre al alcance de Google o cualquiera otro buscador y al que todos podemos acceder, lo que se conoce como la “superficie” de Internet, hasta la información que no es accesible de forma tan directa o sencilla, como el caso de los datos que se encuentran en la Deep y en la Dark Web.

Todo el mundo entiende que hay fuentes de datos que pueden ser monitorizadas bien de forma completa o parcial y a su vez en tiempo real o no. Por ejemplo, yo puedo mirar la red social X o Facebook, subscribirme a unos grupos de Telegram. El problema viene cuando necesito entender qué hay en fuentes que no pueden ser monitorizadas, cuando el volumen de información que tengo que procesar es muy elevado para hacerlo manualmente, o la información está en idiomas que no comprendo. Esos desafíos son los que resuelve la Ciberinteligencia hoy en día. Que se puede utilizar tanto en ataque como en defensa.

Cualquier atacante, “Bad Actors” en inglés, primero realiza una labor de Ciberinteligencia buscando información detallada sobre su víctima, bien sea una empresa, organismo o persona. Por ejemplo. Alguien te quiere atacar y necesita tu número de móvil. Lo diste en tu supermercado un día para una promoción. El supermercado fue atacado para robar sus datos y están a la venta en Internet. Entre ellos tu nombre asociado a tu móvil. Esa es la información que un atacante podría necesitar y encontrarla utilizando Ciberinteligencia como en el ejemplo es la clave. Luego viene, el ataque en si mismo, la parte del engaño con mensajes, que recibe el nombre de “Smishing” (SMS + Phising), o más recientemente un nuevo tipo de ataque por voz, incluso con voz generada por IA Generativa, que se llama “Vishing” (Voice + Phising).

Si la Ciberinteligencia se mide por la cantidad de información que se analiza, ¿los propietarios de plataformas de mensajería y social media masivas, que son los únicos que pueden acceder a los datos de sus usuarios, poseen “más inteligencia” que los Estados?

Yo no creo que se pueda cuantificar de “más” o “menos” inteligencia, pero definitivamente hay que considerar dos cosas en la realidad que evidencia tu pregunta. Por un lado, estas plataformas tienen datos de alto valor y únicos, puesto que, en teoría, solo el propietario de la plataforma tiene acceso a la información que almacena la misma lo que supone una capacidad de generar inteligencia muy especial y en cierta manera con un valor único, diferencial. Por otro lado, dependiendo de la regulación de cada Estado, esos datos están disponibles o no para dichos Estados. Algunas plataformas de uso global están controladas o sujetas a algún tipo de regulación que les obliga compartir la información, como es el caso de TikTok y el gobierno de China. Además, todas las plataformas son susceptibles de ser atacadas en todo momento para obtener sus datos, como le sucedió recientemente a X (antes Twitter). Existen notables evidencias de ambos escenarios.

¿Se tiene constancia de que los Estados intenten obtener los datos de una plataforma por otros medios?

Lo que sucede, como anticipaba antes, es que las plataformas sufren ataques de otros actores. Tanto otros Estados, como organizaciones internacionales criminales u otros agentes maliciosos que actúan por cuenta propia tiene un alto incentivo en acceder a esos datos. Por ejemplo en el que mencionaba de X, tras el ataque está a la venta la información personal de 400 millones de cuentas de X (antes Twitter).

Además, a través del número de móvil y los correos de los usuarios, los atacantes pudieron recuperar información personal de otras fuentes, lo que fue un problema especialmente para aquellos que ocultaban su identidad real detrás del nombre de usuario de X, ya que quedó al descubierto.

¿Es la Ciberseguridad la actividad que defiende a organizaciones y personas de esos ataques?

La Ciberseguridad para una gran organización no es muy diferente que su seguridad física. Pensemos por un momento que para defendernos disponemos de vallas, barreras, puertas con cerraduras, etc. Es lo mismo, pero a nivel digital. La Ciberseguridad se encarga de proteger de ataques y de mantener esas barreras digitales, para que la unidad que se protege pueda funcionar normalmente aún a pesar de los ataques. La Ciberinteligencia de dicha organización no se encarga solo de analizar la información protegida dentro de las barreras de la Ciberseguridad, sino que también y con especial atención analiza la información que hay fuera de dichas barreras, para intentar prever y reducir el número de ataques y el daño de los mismos. Se intenta en todo momento entender hasta qué punto los actores maliciosos buscan penetrar esas barreras.

En Ciberinteligencia, para lo que en español solo tenemos una palabra, “Desinformación”, los ingleses tienen dos, “Misinformation” y “Disinformation”. ¿Cuál es la diferencia entre ambos conceptos?

La principal diferencia es la intencionalidad, que es muy difícil de medir. Cuando alguien utiliza información falsa, conociendo que es falsa con la única intención de engañar o confundir hablamos de “Disinformation”. Ahora bien, cuando alguien propaga una información falsa sin tener conocimiento de que es falsa y sin querer dañar, entonces hablamos de “Disinformation”. La distinción de ambos conceptos se hace desde la intencionalidad maliciosa de la fuente primera de desinformación, no estamos hablando de la propagación o la amplificación. En una campaña y ataque de “Disinformation” en redes sociales, habitualmente muchos usuarios propagan la información maliciosa sin saberlo y se convierten en lo que se conoce como “Useful Idiots”, en español tontos útiles.

Si el propósito del agente malicioso es desestabilizar al objetivo o conseguir cierta información sensible, ¿hay actividades de desinformación basadas en hechos que son verdad?

La situación actual es mucho más compleja que el análisis factual. La detección de bulos y determinar la posible fuente de los mismos es solo una parte de las operaciones de información. En la industria de la Ciberseguridad y la Ciberinteligencia estamos convencidos de que los actores que buscan desinformar y amplificar esa desinformación no necesariamente se basan en mentiras, bulos, noticias falsas, etc.  Pueden basarse en una verdad. Pueden utilizar una noticia que es 100% verificable, y la amplifican de forma totalmente artificial hasta el punto de que el ciudadano medio percibe que es una realidad superior, una noticia de una importancia muy por encima de la que realmente tiene. Es habitual que por ejemplo se usen noticias reales pero antiguas, simplemente se omite la fecha. Porque la amplificación no se está haciendo de forma orgánica por otros ciudadanos si no por máquinas o por agentes desestabilizadores. Así se logra manipular la percepción de la realidad de forma muy efectiva.

Hay un consenso en la industria fundamental: medir la desinformación no es determinar si algo es verdad o es mentira. La clave está en determinar hasta qué punto la introducción y propagación de información en los medios digitales y redes sociales la realizan personas o máquinas. Entender si las fuentes de contenidos son personas o en cambio Inteligencia Artificial. Si la propagación es o no orgánica. ¿La inyección y amplificación de ese contenido o de esa narrativa dentro de la conversación digital y su amplificación ocurre de forma natural? ¿Son esas cuentas de individuos reales? ¿Actúan de forma libre o manipulados por un tercero que busca lograr unos determinados objetivos estratégicos? Esa es la verdadera clave. La explosión de medios digitales y el uso de los mismos hace que las actividades de desinformación más efectivas en sus objetivos de desestabilización estén más basadas en la manipulación y amplificación de hechos reales que en la información falsa o en los bulos.

¿Cuándo y dónde se inician las actividades de ataques basados en la desinformación?

Hay que viajar en el tiempo hasta un momento de máxima supremacía militar de los Estados Unidos que coincide con la caída del muro de Berlín y la primera guerra del Golfo Pérsico. Aquellos que tenían una competencia estratégica con el mundo occidental y en particular con los Estados Unidos empiezan a desarrollar un conjunto de conceptos encaminados a lograr sus objetivos estratégicos. Sin la necesidad de embarcarse en una guerra cara a cara con Estados Unidos, porque eran conscientes de que no tenían opciones de salir victoriosos. Hay muchos conceptos relevantes que se entrelazan a partir de ese momento, como es el de la “guerra irrestricta” ideada por militares de China

En esta “guerra más allá de los límites”, según la definición de los dos coroneles del ejército chino que compartieron este concepto en un libro ahora famoso:

“… una nación como la China podría derrotar a un oponente tecnológicamente superior (como los Estados Unidos) mediante la guerra en todos los ámbitos de poder, más allá del militar. En lugar de centrarse en la confrontación militar directa, este libro examina los medios alternativos que pueden utilizarse; tales medios incluyen el uso del derecho internacional, la economía y la tecnología para colocar al oponente en una mala posición, y así evitar la necesidad de una acción militar directa.”

Y por supuesto, también a través de la información en medios de comunicación de todo tipo.

En 2006, con un alto nivel de penetración de Internet en los hogares y empresas, pero lejos aún de la revolución que empezaría en el 2008 con el iPhone, son los americanos quienes acuñan el concepto de “Guerra Híbrida”, como el nuevo marco de referencia del siglo XXI, que incluye los nuevos escenarios bélicos digitales de los que estamos hablando.

En resumen
La desinformación está basada en la dispersión de contenidos que en su mayoría son verdad, aunque amplificados artificialmente.
La lucha contra la desinformación tiene su principal reto en el hecho que sin darnos cuenta los ciudadanos nos convertimos en “tontos útiles” del ataque malicioso.
En este escenario de Guerra Híbrida, la aparición de la IA Generativa “Open Source” supone el aumento exponencial de amenazas más complejas.
Pero también la creación de herramientas más potentes para la lucha contra la desinformación.

¿Qué son entonces la “Guerra Híbrida” y las “Amenazas Híbridas”? 

Son un conjunto de acciones coordinadas contra una víctima por debajo del umbral de su capacidad de detección y además imposibles de atribuir a ningún tercero. Es decir, que el Estado o grupo atacado, no sea consciente del ataque y en cualquier caso le sea imposible atribuirlo a nadie si llegara a detectarlo. De alguna forma un ataque híbrido busca crear un conjunto de condiciones para que el atacado, la víctima, sea incapaz de tomar las decisiones correctas. Es más, idealmente consiste en lograr desestabilizarlo para que se equivoque de forma continua en sus decisiones y tarde en reaccionar lo suficiente al ataque híbrido para que sea el atacado en quien colapse por si mismo. Es la máxima expresión de la subversión o la caída desde dentro sin necesidad de disparar ningún tipo de proyectil.

No hay que olvidar que estos actores, Estados o criminales, no siempre buscan la destrucción del atacado, simplemente buscan debilitarlo para poder ejecutar sus planes estratégicos sin entrar en combate físico, es una forma de desgaste continúo del oponente para lograr la supremacía sobre él. Un Guerra Híbrida proporciona suficiente ventaja para conseguir dichos objetivos, los cuales, anteriormente en el siglo XX, sólo se podían conseguir a través de la guerra física. La Guerra Híbrida en su estado más avanzado va de la mano de la guerra física, como es el caso de la invasión de Ucrania por parte de Rusia, en la Guerra Híbrida de esta misma con Occidente.

Al punto en el que estamos a día de hoy, en lo que se refiere al domino digital de la Guerra Híbrida, precisamente se llega gracias al despliegue del Internet ubicuo en Occidente, basado en la creencia en esta parte del Mundo de que el acceso constante a la comunicación por parte de dos personas cualesquiera de forma libre iba a generar un periodo de progreso económico y cultural de niveles desconocidos hasta el momento. Sin embargo, otros agentes ven en esta hiperconectividad una oportunidad de convertir en un arma, “weaponizar” en inglés, cualquier plataforma de información para hacer avanzar sus agendas o debilitar a sus víctimas y oponentes. Y ahí es donde encaja la desinformación dentro de la Guerra Híbrida, en especial en nuestras sociedades occidentales abiertas Internet y la Inteligencia Artificial. Es un arma utilizada por los atacantes en el espacio público digital para erosionar y desestabilizar a sus víctimas. Víctimas que van desde los individuos y las instituciones hasta sociedades enteras y sus valores.

Por este motivo Internet está totalmente cerrado tanto en China como Rusia. La razón fundamental es que estos regímenes reconocen que es una vulnerabilidad que no se pueden permitir. Sin embargo, en occidente aún no hemos conseguido apreciar como sociedad la vulnerabilidad en toda su magnitud, porque apreciamos los valores positivos de la hiperconectividad por encima de las amenazas híbridas que supone la misma. Y ahí radica el éxito del ataque híbrido, no percibimos las amenazas híbridas porque está por debajo del umbral de detección de la sociedad y los Estados occidentales. Aún no hemos sabido encontrar la capacidad de proteger nuestros valores, ciudadanos e instituciones en este entorno de libertad para los medios de comunicación y contenidos sociales digitales. Para nosotros hay otros valores que entran en juego: la libertad de expresión, la libertad de prensa… Valores que no suponen ningún conflicto en China o en Rusia puesto que no existen. Lo que nos lleva a uno de los conceptos más relevantes en Ciberinteligencia de las amenazas híbridas: la asimetría.

¿En qué consiste esa asimetría en la Guerra Híbrida?

Nadie de Occidente puede comentar en medios digitales chinos o rusos, porque están ciberprotegidos para ello impidiendo el acceso desde el exterior. Además de estar monitorizados en todo momento para detectar cualquier acceso desde fuera de sus fronteras y redes. Sin embargo, cualquier plataforma que resida en un Estado alineado con valores democráticos tiene libre el acceso desde cualquier parte del mundo, incluyendo China y Rusia.

Desde esa asimetría se pasa a una “weaponization of everything”. Hasta Tinder se convierte en un arma para la desinformación y la desestabilización de Estados

Gracias a la Ciberinteligencia vamos descubriendo que herramientas que en principio no deberían suponer ninguna amenaza se convierten en un arma para los ataques híbridos. En muchos lugares de Occidente ya se le ha prohibido el uso de Tinder o TikTok a funcionarios públicos y proveedores de las administraciones de Estados democráticos. Ya que se han dado multitud de casos de inyección de información y de manipulación por parte de agentes encubiertos de países con el objetivo de extraerles información.

Defenderse y combatir la desinformación es un reto que implica a muchos actores. La aparición de la Inteligencia Artificial Generativa complica aún más el escenario de Guerra Híbrida en el que nos encontramos. Pero también abre una línea de investigación en su uso para la defensa ante las amenazas de la desinformación. En la siguiente parte de la entrevista a Yuri nos explica en detalle el caso de TikTok y también nos cuenta qué podemos hacer individuos y empresas ante el reto de la desinformación.