Skip to main content

Un reciente estudio llevado a cabo por David Rozado, publicado en PLOS ONE, ha analizado los sesgos políticos de los grandes modelos de lenguaje (LLM, por sus siglas en inglés). Este informe tiene como objetivo comprender las implicaciones sociopolíticas de estos sesgos, especialmente considerando que los modelos de IA están cada vez más integrados en la vida cotidiana y pueden influir significativamente en la percepción pública.

Metodología del estudio

La investigación se centró en las preferencias políticas de 24 modelos de lenguaje de última generación, tanto de código abierto como cerrado, incluyendo modelos como GPT-4 de OpenAI, Gemini de Google, y Llama 2 de Meta. Para evaluar las inclinaciones ideológicas de estos modelos, el estudio utilizó 11 pruebas de orientación política reconocidas que miden las preferencias políticas en diferentes ejes del espectro, tales como el eje izquierda-derecha y libertario-autoritario.

Cada modelo de lenguaje fue sometido a 10 iteraciones de cada prueba, acumulando un total de 2,640 evaluaciones. Además, se incluyeron cinco modelos base para contrastar los resultados. Las pruebas se realizaron utilizando un sistema automatizado que aseguraba respuestas consistentes y un análisis preciso. Este sistema automatizado permitió evaluar las respuestas de los modelos sin influencias externas. La validación de las respuestas se realizó mediante herramientas de detección de postura para garantizar la precisión y consistencia de los resultados.

Resultados del estudio

Los resultados del estudio revelaron una inclinación predominante hacia la izquierda política en los modelos probados, especialmente en aquellos diseñados para la conversación humana. Los modelos tendían a alinearse con puntos de vista progresistas y liberales, mostrando un sesgo significativo hacia la socialdemocracia y la «tender-mindedness» (tendencia a la compasión y el progresismo) en diversas dimensiones políticas.

La investigación también ha indicado que estos sesgos no son necesariamente inherentes a los modelos base, sino que surgen durante la etapa de ajuste fino supervisado y el aprendizaje por refuerzo a partir de datos alineados ideológicamente. Esto sugiere que las preferencias políticas de los modelos de lenguaje pueden ser manipuladas intencionalmente, lo que plantea importantes consideraciones éticas sobre su diseño y uso.

Sin embargo, no todos los chatbots mostraron estas tendencias. Algunos modelos, como ciertas versiones de las series GPT-3 y Llama 2, que no recibieron un ajuste fino supervisado ni aprendizaje por refuerzo, no presentaron un fuerte sesgo político. No obstante, las respuestas que ofrecían eran a menudo irrelevantes o al azar, lo que sugiere que la falta de ajuste fino puede resultar en respuestas inconsistentes. Esto resalta lo complicado que es desarrollar inteligencia artificial que sea tanto imparcial como relevante en sus respuestas.

Conclusiones

El estudio de Rozado concluye que la capacidad de la IA para reflejar sesgos políticos tiene implicaciones significativas para su uso en contextos informativos y educativos. La capacidad de ajustar estos sesgos mediante datos alineados políticamente implica un riesgo de manipulación en manos de quienes controlan estos modelos. Este hecho plantea la necesidad de establecer pautas claras y supervisión para garantizar que los modelos de lenguaje no sean utilizados para fines de manipulación ideológica o propaganda.

Además, el creciente uso de los modelos de lenguaje en la sociedad podría magnificar su influencia en la opinión pública y la toma de decisiones políticas. Por esta razón, es imperativo que los desarrolladores de IA trabajen para mitigar cualquier sesgo involuntario que pueda surgir durante el proceso de desarrollo y ajuste. Con la IA cada vez más presente en nuestra vida diaria, garantizar la imparcialidad y precisión de sus respuestas es más crucial que nunca.

Abre un paréntesis en tus rutinas. Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.