Una investigación de OpenAI ha encontrado un sistema que permitiría mejorar la legibilidad de las respuestas de los chatbots. Con la mente puesta en el entrenamiento automático de la IA generativa, la compañía de Sam Altman ha desarrollado un sistema de proveedor-verificador para hacer que las respuestas sean más entendibles.
En este marco, un sistema de IA (el proveedor) genera soluciones, mientras que una IA más pequeña y menos capaz (el verificador) revisa estas soluciones para verificar su corrección. El proceso involucra tres componentes clave:
- Proveedores útiles. Estos modelos de IA están entrenados para producir soluciones correctas y claras que el verificador pueda validar fácilmente.
- Proveedores engañosos. Estos modelos están diseñados para generar soluciones incorrectas que sean lo suficientemente convincentes como para potencialmente engañar al verificador.
- Verificadores robustos. Estos son modelos de IA más pequeños entrenados para discernir con precisión las soluciones correctas de las incorrectas generadas por los proveedores engañosos.
A través de un entrenamiento iterativo, los investigadores han descubierto que los proveedores útiles se vuelven más precisos y sus soluciones más legibles para el verificador. Por el contrario, los proveedores engañosos aprenden a crear fallos cada vez más sutiles, haciendo que la tarea del verificador sea progresivamente más desafiante y mejorando su robustez con el tiempo.
Uno de los hallazgos más interesantes del estudio es que mejorar la legibilidad para verificadores de IA más pequeños y también la mejora para evaluadores humanos. Cuando se asignó a los humanos la tarea de verificar soluciones, obtuvieron mejores resultados con las salidas del proveedor útil, especialmente después de varias rondas de entrenamiento en legibilidad. Esto sugiere que entrenar sistemas de IA para ser legibles para otras IAs puede indirectamente hacer que sean más comprensibles para los humanos.
Aplicación práctica
Las implicaciones de esta investigación son significativas. Al centrarse en la legibilidad y verificabilidad, se pueden hacer que los sistemas de IA sean más transparentes y confiables. Esto es particularmente importante a medida que avanzamos hacia el desarrollo de modelos de IA capaces de razonar. Asegurar que estos modelos proporcionen resultados que los humanos puedan verificar y comprender es crucial para su integración segura y efectiva en la sociedad.
El estudio también abre vías para futuras investigaciones, como explorar métodos no supervisados para mejorar la legibilidad y desarrollar técnicas para convertir soluciones complejas generadas por IA en explicaciones más accesibles para los humanos.
En conclusión, el uso de los juegos de proveedor-verificador representa un enfoque prometedor para abordar los desafíos duales de precisión y legibilidad en los sistemas de IA. A medida que la IA continúa permeando diversos aspectos de nuestras vidas, tales innovaciones serán clave para mantener y mejorar la supervisión y confianza humana en estas tecnologías.
Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.