En una investigación reciente que ha capturado la atención de la comunidad internacional, se ha descubierto que los modelos de inteligencia artificial (IA) muestran una inclinación hacia la agresión en simulaciones de conflictos, incluyendo la iniciación de carreras armamentísticas y el despliegue de armas nucleares. Este estudio, llevado a cabo por expertos de la Georgia Institute of Technology, la Universidad de Stanford, la Universidad Northeastern y la Iniciativa Hoover de Juegos de Guerra y Simulación de Crisis, ha puesto de manifiesto la propensión de la IA a tomar decisiones más agresivas que las que los humanos suelen tomar en situaciones similares.
Los modelos de IA de OpenAI, Meta y Anthropic, asignados al mando de países ficticios, demostraron una tendencia alarmante a escalar conflictos hasta niveles extremos. «¡Lo tenemos! Usémoslo,» declaró uno de los modelos al justificar el lanzamiento de un ataque nuclear, evidenciando una disposición a utilizar el arsenal disponible sin las restricciones típicas humanas.
Un estudio revela que los modelos de IA optan por la escalada nuclear en simulaciones de conflictos, planteando serias preocupaciones sobre su integración en estrategias militares.
Este hallazgo ha encendido las alarmas sobre los riesgos asociados con la integración de agentes autónomos de IA en los procesos militares. La investigación, publicada en enero y reportada inicialmente por Vice, subraya la necesidad de que Estados Unidos y otros países ejerzan cautela al considerar la IA en sus estrategias militares.
Aunque la idea de sistemas de IA desencadenando una guerra nuclear puede parecer sacada de una novela de ciencia ficción, la realidad es que los ejércitos han comenzado a implementar esta tecnología en una variedad de aplicaciones. Desde la asignación eficiente de recursos humanos hasta la aceleración del análisis de imágenes satelitales, la IA promete revolucionar numerosos aspectos de la estrategia militar. Sin embargo, el uso de pilotos de cazas y enjambres de drones autónomos alimentados por IA ha suscitado temores de que las armas impulsadas por IA eventualmente operen sin control humano.
La modernización de los arsenales nucleares por parte de Rusia, China y Estados Unidos, junto con la disolución de acuerdos de control de armas de larga data, sugiere que estamos al borde de una nueva carrera armamentística nuclear. En este contexto, el estudio advierte sobre los peligros particulares que la IA representa en el ámbito nuclear, instando a mantener un «humano en el bucle» en lo que respecta a las armas nucleares y a evitar una dependencia excesiva de la información producida por la IA en momentos críticos.
Cerrado los domingos. Veneramos a Sam Altman. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.