En una reciente investigación llevada a cabo por la Universidad de Illinois en Urbana-Champaign, se ha destapado el impresionante potencial de GPT-4, la inteligencia artificial desarrollada por OpenAI, para explotar vulnerabilidades de seguridad en software. Este estudio no solo resalta la capacidad técnica de GPT-4, sino que también enciende alarmas sobre su posible uso indebido en manos equivocadas.
GPT-4 ha demostrado poder identificar y explotar el 87% de las vulnerabilidades de seguridad presentadas en el estudio, incluidas algunas clasificadas como críticas. Este alto porcentaje contrasta significativamente con otros modelos de IA de código abierto evaluados, los cuales no lograron explotar ninguna de las vulnerabilidades testeadas. La capacidad de GPT-4 para realizar tareas tan avanzadas plantea un serio debate sobre el equilibrio entre la innovación tecnológica y los riesgos asociados a su mal uso.
Un estudio revela que GPT-4 puede explotar el 87% de las vulnerabilidades recientes, evidenciando su potencial tanto en ciberseguridad como en riesgos de mal uso.
El estudio también señala que cuando se limita la información detallada sobre las vulnerabilidades, como en el caso de no proporcionar detalles adicionales más allá de los CVE (Common Vulnerabilities and Exposures), la efectividad de GPT-4 disminuye drásticamente al 7%. Esto sugiere que la transparencia y la disponibilidad de información son factores críticos en el rendimiento de tales modelos de IA.
Una parte destacada del estudio es el análisis del costo de utilizar GPT-4 para generar exploits. Se estima que el costo medio por exploit es de aproximadamente 8,80 dólares, un precio significativamente más bajo que el coste de contratar a un experto humano en ciberseguridad. Esta eficiencia podría tener implicaciones tanto positivas como negativas, dependiendo de cómo se maneje y regule el acceso a esta tecnología.
Aunque el estudio no incluyó modelos recientes como Claude 3 o Gemini 1.5 Pro, existe la expectativa de que estas inteligencias artificiales avanzadas puedan tener capacidades similares. La investigación futura deberá explorar estos modelos para comprender mejor su potencial y limitaciones.
La investigación sobre GPT-4 y su capacidad para explotar vulnerabilidades abre una ventana tanto a las promesas como a los peligros de la IA avanzada. Mientras que por un lado, puede ser una herramienta valiosa en la lucha contra la ciberdelincuencia, por otro, plantea desafíos éticos significativos que la sociedad deberá abordar. La clave estará en desarrollar estrategias que maximicen sus beneficios mientras se minimizan los riesgos de mal uso.
Toda revolución necesita sus cronistas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.